KR20210076432A - Apparatus and method for providing immersive learning content through text recognition - Google Patents

Apparatus and method for providing immersive learning content through text recognition Download PDF

Info

Publication number
KR20210076432A
KR20210076432A KR1020190167623A KR20190167623A KR20210076432A KR 20210076432 A KR20210076432 A KR 20210076432A KR 1020190167623 A KR1020190167623 A KR 1020190167623A KR 20190167623 A KR20190167623 A KR 20190167623A KR 20210076432 A KR20210076432 A KR 20210076432A
Authority
KR
South Korea
Prior art keywords
learning content
handwritten text
immersive
character recognition
area
Prior art date
Application number
KR1020190167623A
Other languages
Korean (ko)
Inventor
최용준
Original Assignee
(주)천재교육
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)천재교육 filed Critical (주)천재교육
Priority to KR1020190167623A priority Critical patent/KR20210076432A/en
Publication of KR20210076432A publication Critical patent/KR20210076432A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G06K9/00442
    • G06K9/20
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Artificial Intelligence (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a device and a method for providing an immersive learning content through text recognition. According to an embodiment of the present invention, the device for providing the immersive learning content includes: a character recognition module which recognizes handwritten text by a user; a control module for identifying the immersive learning content matching the recognized handwritten text; and a display module for outputting the identified immersive learning content.

Description

텍스트 인식을 통한 실감형 학습 콘텐츠 제공 장치 및 방법{APPARATUS AND METHOD FOR PROVIDING IMMERSIVE LEARNING CONTENT THROUGH TEXT RECOGNITION}Apparatus and method for providing realistic learning content through text recognition {APPARATUS AND METHOD FOR PROVIDING IMMERSIVE LEARNING CONTENT THROUGH TEXT RECOGNITION}

본 발명은 학습자가 직접 기재한 텍스트의 인식을 통해 가상 현실, 복합 현실, 증강 현실 등을 기반으로 한 실감형 학습 콘텐츠를 제공하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing immersive learning content based on virtual reality, complex reality, augmented reality, etc. through recognition of text written by a learner.

최근 다양한 디지털 디바이스의 발달로 인해, 교육 환경에서도 디지털 디바이스를 접목한 교육 방식이 채택되는 추세이다.Due to the recent development of various digital devices, there is a trend to adopt an educational method incorporating digital devices in an educational environment.

이러한 추세를 반영하여 정부는 스마트 교육 정책의 일환으로 2018년부터 초등학교 고학년, 중학교 1학년을 대상으로 디지털 교과서를 배포하고 있으며, 디지털 교과서를 이용한 교육 커리큘럼을 제시하고 있다.Reflecting this trend, the government has been distributing digital textbooks for the upper grades of elementary school and the first grade of middle school since 2018 as part of a smart education policy, and is presenting an educational curriculum using digital textbooks.

이에 발맞추어 최근에는 여러 가지 디지털 디바이스를 활용한 교육 방식이 개발되고 있다. In line with this, recently, educational methods using various digital devices are being developed.

그러나, 현재까지의 교육 방식은, 교사가 학습자에게 지식을 주입하는 기존의 일방적 교육 방식에 단순히 디지털 디바이스를 접목한 방식으로써, 학습자가 자신의 행위를 통해 디지털 디바이스와 상호 작용할 수 없어 학습자의 집중력을 이끌어내기 어렵다는 한계가 있었다.However, the education method up to now is a method in which a digital device is simply grafted onto the existing one-way education method in which the teacher injects knowledge into the learner, and the learner cannot interact with the digital device through his/her own actions, thereby reducing the learner's concentration. There was a limit to how difficult it was to draw.

본 발명은 학습자가 직접 기재한 텍스트의 인식을 통해 가상 현실, 복합 현실, 증강 현실 등을 기반으로 한 실감형 학습 콘텐츠를 제공하는 장치 및 방법을 제공하는 것을 목적으로 한다.An object of the present invention is to provide an apparatus and method for providing immersive learning content based on virtual reality, complex reality, augmented reality, etc. through recognition of text written by a learner.

본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.The objects of the present invention are not limited to the above-mentioned objects, and other objects and advantages of the present invention not mentioned may be understood by the following description, and will be more clearly understood by the examples of the present invention. Moreover, it will be readily apparent that the objects and advantages of the present invention may be realized by the means and combinations thereof indicated in the claims.

전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 장치는 사용자가 필기한 수기 텍스트를 인식하는 문자 인식 모듈, 상기 인식된 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는 제어 모듈 및 상기 식별된 실감형 학습 콘텐츠를 출력하는 디스플레이 모듈을 포함하는 것을 특징으로 한다.To achieve the above object, an apparatus for providing immersive learning content according to an embodiment of the present invention includes a character recognition module for recognizing handwritten text written by a user, and a method for identifying immersive learning content matching the recognized handwritten text. and a control module and a display module for outputting the identified immersive learning content.

일 실시예에서, 상기 문자 인식 모듈은 상기 수기 텍스트를 촬영하는 카메라를 포함하는 것을 특징으로 한다.In one embodiment, the character recognition module is characterized in that it comprises a camera for photographing the handwritten text.

일 실시예에서, 상기 문자 인식 모듈은 상기 카메라에 의해 촬영된 영상에 대응하는 파일을 OCR(Optical Character Recognition) 기능을 적용할 수 있는 파일로 변환하고, 상기 변환된 파일 내에서 수기 텍스트를 인식하는 것을 특징으로 한다.In one embodiment, the character recognition module converts a file corresponding to the image captured by the camera into a file to which an OCR (Optical Character Recognition) function can be applied, and recognizes handwritten text in the converted file. characterized in that

일 실시예에서, 상기 문자 인식 모듈은 상기 수기 텍스트가 포함되는 영역을 촬영하고, 상기 촬영된 영역 내에서 필기 영역을 추출하고, 상기 추출된 필기 영역에서 상기 수기 텍스트를 인식하는 것을 특징으로 한다.In an embodiment, the character recognition module captures an area including the handwritten text, extracts a handwriting area within the photographed area, and recognizes the handwritten text from the extracted handwriting area.

일 실시예에서, 상기 문자 인식 모듈은 상기 촬영된 영역에 대응하는 파일과 기준 문서 파일을 패턴 매칭(pattern matching)하여 상기 필기 영역을 추출하는 것을 특징으로 한다.In an embodiment, the character recognition module extracts the writing area by pattern matching a file corresponding to the photographed area and a reference document file.

일 실시예에서, 상기 제어 모듈은 메모리에 저장된 룩업 테이블(Look-Up Table; LUT)을 참조하여 상기 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는 것을 특징으로 한다.In an embodiment, the control module identifies the realistic learning content matching the handwritten text by referring to a look-up table (LUT) stored in a memory.

일 실시예에서, 상기 디스플레이 모듈은 상기 실감형 학습 콘텐츠를 가상 이미지로 출력하는 것을 특징으로 한다.In an embodiment, the display module outputs the immersive learning content as a virtual image.

일 실시예에서, 상기 디스플레이 모듈은 상기 실감형 학습 콘텐츠와 실사 영상을 함께 출력하는 것을 특징으로 한다.In an embodiment, the display module is characterized in that the immersive learning content and the live-action image are output together.

일 실시예에서, 상기 디스플레이 모듈은 상기 실사 영상에 상기 실감형 학습 콘텐츠를 증강 이미지로 출력하는 것을 특징으로 한다.In one embodiment, the display module is characterized in that the output of the immersive learning content to the live-action image as an augmented image.

일 실시예에서, 상기 디스플레이 모듈은 웨어러블 디바이스(wearable device)인 것을 특징으로 한다.In an embodiment, the display module is a wearable device.

일 실시예에서, 상기 디스플레이 모듈은 HMD(Head Mounted Device), 비디오 씨스루 디바이스(video see-through device), 광학 씨스루 디바이스(optical see-through device), 프로젝터(projector) 중 적어도 하나를 포함하는 것을 특징으로 한다.In an embodiment, the display module includes at least one of a Head Mounted Device (HMD), a video see-through device, an optical see-through device, and a projector. characterized in that

또한, 전술한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 방법은 사용자가 필기한 수기 텍스트를 인식하는 단계, 메모리를 참조하여 상기 인식된 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는 단계 및 상기 식별된 실감형 학습 콘텐츠를 출력하는 단계를 포함하는 것을 특징으로 한다.In addition, the method for providing realistic learning content according to an embodiment of the present invention for achieving the above object includes the steps of recognizing a handwritten text handwritten by a user, and realistic learning matching the recognized handwritten text with reference to a memory It characterized in that it comprises the step of identifying the content and outputting the identified immersive learning content.

일 실시예에서, 상기 사용자가 필기한 수기 텍스트를 인식하는 단계는, 상기 수기 텍스트가 포함되는 영역을 촬영하는 단계, 상기 촬영된 영역 내에서 필기 영역을 추출하는 단계 및 상기 추출된 필기 영역에서 상기 수기 텍스트를 인식하는 단계를 포함하는 것을 특징으로 한다.In an embodiment, the step of recognizing the handwritten text written by the user may include photographing an area including the handwritten text, extracting a handwriting area from within the photographed area, and extracting the handwritten text from the extracted handwriting area. and recognizing the handwritten text.

본 발명은 학습자가 직접 기재한 텍스트의 인식을 통해 가상 현실, 복합 현실, 증강 현실 등을 기반으로 한 실감형 학습 콘텐츠를 제공함으로써, 학습자가 자신이 필기한 텍스트를 이용하여 스스로 실감형 학습 콘텐츠를 제어하도록 함으로써 학습자의 교육 참여를 유도하여 학습 능률을 향상시킬 수 있을 뿐만 아니라, 인터랙티브 방식으로 다양한 콘텐츠를 학습 및 교육에 이용할 수 있게 됨으로써, 교육자의 지도력 또한 향상시킬 수 있다.The present invention provides immersive learning content based on virtual reality, complex reality, augmented reality, etc. through recognition of text written by the learner, so that the learner can use his/her own handwritten text to create immersive learning content. By controlling it, not only can the learning efficiency be improved by inducing the learner's participation in education, but also various contents can be used for learning and education in an interactive way, thereby improving the leadership of the educator.

상술한 효과와 더불어 본 발명의 구체적인 효과는 이하 발명을 실시하기 위한 구체적인 사항을 설명하면서 함께 기술한다.In addition to the above-described effects, the specific effects of the present invention will be described together while describing specific details for carrying out the invention below.

도 1은 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 장치의 구성요소를 개략적으로 도시한 도면.
도 2는 도 1에 도시된 실감형 학습 콘텐츠 제공 장치의 일 구현예를 도시한 도면.
도 3은 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 방법을 도시한 순서도.
1 is a diagram schematically illustrating components of an apparatus for providing immersive learning content according to an embodiment of the present invention;
FIG. 2 is a diagram illustrating an embodiment of the apparatus for providing immersive learning content shown in FIG. 1;
3 is a flowchart illustrating a method for providing immersive learning content according to an embodiment of the present invention.

전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다. 이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 도면에서 동일한 참조부호는 동일 또는 유사한 구성요소를 가리키는 것으로 사용된다.The above-described objects, features and advantages will be described below in detail with reference to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains will be able to easily implement the technical idea of the present invention. In describing the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings. In the drawings, the same reference numerals are used to indicate the same or similar components.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.The terms used in the present invention have been selected as currently widely used general terms as possible while considering the functions in the present invention, but these may vary depending on the intention or precedent of a person skilled in the art, the emergence of new technology, and the like. In addition, in specific cases, there are also terms arbitrarily selected by the applicant, and in this case, the meaning will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term and the overall content of the present invention, rather than the name of a simple term.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When a part "includes" a certain element throughout the specification, this means that other elements may be further included, rather than excluding other elements, unless otherwise stated. In addition, terms such as "...unit" and "module" described in the specification mean a unit that processes at least one function or operation, which may be implemented as hardware or software, or a combination of hardware and software. .

이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the embodiments of the present invention illustrated below may be modified in various other forms, and the scope of the present invention is not limited to the embodiments described below. The embodiments of the present invention are provided to more completely explain the present invention to those of ordinary skill in the art.

본 발명은 텍스트 인식을 통해 가상 현실, 복합 현실, 증강 현실 등을 기반으로 한 실감형 학습 콘텐츠를 제공하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for providing immersive learning content based on virtual reality, complex reality, augmented reality, and the like through text recognition.

이하, 도 1 및 도 2를 참조하여 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 장치를 구체적으로 설명하도록 한다.Hereinafter, an apparatus for providing immersive learning content according to an embodiment of the present invention will be described in detail with reference to FIGS. 1 and 2 .

도 1은 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 장치의 구성요소를 개략적으로 도시한 도면이고, 도 2는 도 1에 도시된 실감형 학습 콘텐츠 제공 장치의 일 구현예를 도시한 도면이다.1 is a diagram schematically illustrating components of an apparatus for providing immersive learning content according to an embodiment of the present invention, and FIG. 2 is a diagram illustrating an embodiment of the apparatus for providing immersive learning content shown in FIG. 1 to be.

도 1을 참조하면, 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 장치(100)는 문자 인식 모듈(110), 제어 모듈(120) 및 디스플레이 모듈(130)을 포함할 수 있다. 도 1에 도시된 실감형 학습 콘텐츠 제공 장치(100)는 일 실시예에 따른 것이고, 그 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.Referring to FIG. 1 , an apparatus 100 for providing immersive learning content according to an embodiment of the present invention may include a character recognition module 110 , a control module 120 , and a display module 130 . The immersive learning content providing apparatus 100 illustrated in FIG. 1 is according to an embodiment, and its components are not limited to the embodiment illustrated in FIG. 1 , and some components may be added, changed, or may be deleted.

실감형 학습 콘텐츠 제공 장치(100)를 이루는 각 구성요소들은 ASICs(application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro controllers), 마이크로 프로세서(microprocessors) 중 적어도 하나의 물리적인 요소를 포함하여 구현될 수 있다.Each component constituting the immersive learning content providing apparatus 100 is ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gates) arrays), processors, controllers, micro controllers, and microprocessors.

먼저, 디스플레이 모듈(130)과 이에 따른 실감형 학습 콘텐츠 제공 장치(100)의 구조를 설명하도록 한다.First, the structure of the display module 130 and the immersive learning content providing apparatus 100 will be described.

디스플레이 모듈(130)은 사용자에게 영상을 표시할 수 있는 임의의 모듈일 수 있다. 예를 들어, 디스플레이 모듈(130)은 표시 방식(디스플레이 방식)에 따라, 모바일 기반의 장치, 웨어러블 디바이스(wearable device)로 구현될 수 있다.The display module 130 may be any module capable of displaying an image to a user. For example, the display module 130 may be implemented as a mobile-based device or a wearable device according to a display method (display method).

디스플레이 모듈(130)이 모바일 기반의 장치로 구현되는 경우, 디스플레이 모듈(130)은 예컨대 UMPC(Ultra Mobile PC), 워크스테이션, 넷북(net-book), PDA (Personal Digital Assistants), 포터블(portable) 컴퓨터, 웹 타블렛(web tablet), 무선 전화기(wireless phone), 모바일 폰(mobile phone), 스마트폰(smart phone), e-북(e-book), PMP(portable multimedia player) 등일 수 있다.When the display module 130 is implemented as a mobile-based device, the display module 130 is, for example, an Ultra Mobile PC (UMPC), a workstation, a net-book, a Personal Digital Assistants (PDA), or a portable device. It may be a computer, a web tablet, a wireless phone, a mobile phone, a smart phone, an e-book, a portable multimedia player (PMP), or the like.

디스플레이 모듈(130)이 웨어러블 디바이스로 구현되는 경우, 디스플레이 모듈(130)은 HMD(Head Mounted Device), 비디오 씨스루 디바이스(Video See-Through device), 광학 씨스루 디바이스(Optical See-Through device), 스크린 기반의 장치 및 프로젝터 기반 장치 중 어느 하나로 구현될 수 있다.When the display module 130 is implemented as a wearable device, the display module 130 includes a head mounted device (HMD), a video see-through device, an optical see-through device, It may be implemented as either a screen-based device or a projector-based device.

도 2를 참조하면, 실감형 학습 콘텐츠 제공 장치(100)는 머리에 착용하도록 설계된 웨어러블 디바이스로 구현될 수 있다. 이 때, 디스플레이 모듈(130)은, 사용자가 실감형 학습 콘텐츠 제공 장치(100)를 착용하였을 때 사용자 눈의 전방에 위치할 수 있고, 사용자 눈의 방향으로 영상을 출력할 수 있다.Referring to FIG. 2 , the immersive learning content providing apparatus 100 may be implemented as a wearable device designed to be worn on the head. In this case, the display module 130 may be positioned in front of the user's eyes when the user wears the immersive learning content providing apparatus 100 , and may output an image in the direction of the user's eyes.

실감형 학습 콘텐츠 제공 장치(100)와 이를 구성하는 디스플레이 모듈(130)은 도 2에 도시된 구현예 외에도 다양한 형상으로 구현될 수 있으나, 이하에서는 설명의 편의를 위해 실감형 학습 콘텐츠 제공 장치(100)가 도 2에 도시된 것과 같이 구현된 것으로 가정하여 설명하도록 한다.The immersive learning content providing apparatus 100 and the display module 130 constituting the same may be implemented in various shapes other than the embodiment shown in FIG. 2 , but below, for convenience of description, the immersive learning content providing apparatus 100 ) will be described on the assumption that it is implemented as shown in FIG. 2 .

문자 인식 모듈(110)은 사용자가 필기한 수기 텍스트를 인식할 수 있다. 여기서 수기 텍스트는 사용자에 의해 필기된 문자로 정의될 수 있다.The character recognition module 110 may recognize the handwritten text handwritten by the user. Here, the handwritten text may be defined as a character handwritten by a user.

사용자는 학습 커리큘럼에 따라 학습지에 문자를 필기할 수 있고, 문자 인식 모듈(110)은 학습지에 필기된 수기 텍스트를 인식할 수 있다. 보다 구체적으로, 문자 인식 모듈(110)은 학습지에 기재된 모든 텍스트 중에서 사용자에 의해 필기된 수기 텍스트만을 선택적으로 인식할 수 있다.The user may write characters on the worksheet according to the learning curriculum, and the character recognition module 110 may recognize the handwritten text written on the worksheet. More specifically, the character recognition module 110 may selectively recognize only the handwritten text handwritten by the user among all the texts described in the study sheet.

이를 위해, 문자 인식 모듈(110)은 수기 텍스트를 촬영하는 카메라(110a)를 포함할 수 있다. 카메라(110a)는 실감형 학습 콘텐츠 제공 장치(100)의 임의의 위치에 구비되어 수기 텍스트를 촬영할 수 있다.To this end, the character recognition module 110 may include a camera 110a that captures the handwritten text. The camera 110a may be provided at an arbitrary position of the immersive learning content providing apparatus 100 to capture handwritten text.

도 2를 예로 들어 설명하면, 카메라(110a)는 사용자의 시야 방향에 위치한 수기 텍스트를 촬영하기 위해, 실감형 학습 콘텐츠 제공 장치(100)의 전방에 구비될 수 있다.Referring to FIG. 2 as an example, the camera 110a may be provided in front of the immersive learning content providing apparatus 100 in order to photograph the handwritten text located in the user's viewing direction.

카메라(110a)는 수기 텍스트를 촬영하고, 촬영된 영상에 대응하는 파일(이하, 촬영 영상 파일)을 생성할 수 있다. 이 때, 촬영 영상 파일이 OCR(Optical Character Recognition) 기능을 적용할 수 있는 형식(예컨대, JPG, TIF, BMP, GIF, PNG, PDF 형식)이면, 문자 인식 모듈(110)은 OCR 기능을 통해 해당 파일 내 수기 텍스트를 인식할 수 있다.The camera 110a may photograph the handwritten text and generate a file corresponding to the photographed image (hereinafter, referred to as a photographed image file). At this time, if the captured image file is a format to which an OCR (Optical Character Recognition) function can be applied (eg, JPG, TIF, BMP, GIF, PNG, PDF format), the character recognition module 110 uses the OCR function to Recognize handwritten text in files.

반면에, 촬영 영상 파일이 OCR(Optical Character Recognition) 기능을 적용할 수 없는 형식이면, 문자 인식 모듈(110)은 촬영 영상 파일을 OCR(Optical Character Recognition) 기능을 적용할 수 있는 파일로 변환하고, 변환된 파일 내에서 OCR 기능을 적용하여 수기 텍스트를 인식할 수 있다.On the other hand, if the captured image file is a format to which the OCR (Optical Character Recognition) function cannot be applied, the character recognition module 110 converts the captured image file into a file to which the OCR (Optical Character Recognition) function can be applied, Handwritten text can be recognized by applying OCR function within the converted file.

OCR 기능을 통한 텍스트 인식 방법은 당해 기술분야에서 이용되는 임의의 방법에 따르므로 여기서는 자세한 설명을 생략하도록 한다.Since the text recognition method through the OCR function follows any method used in the art, a detailed description thereof will be omitted.

한편, 카메라(110a)는 사용자에 의해 필기된 수기 텍스트 외에도 다양한 텍스트(예컨대, 학습지에 미리 인쇄된 텍스트)를 촬영할 수 있다. 이 때, 문자 인식 모듈(110)은 수기 텍스트만을 선택적으로 인식할 수 있다.Meanwhile, the camera 110a may photograph various texts (eg, pre-printed text on the study sheet) in addition to the handwritten text handwritten by the user. In this case, the character recognition module 110 may selectively recognize only the handwritten text.

보다 구체적으로, 카메라(110a)에 의해 수기 텍스트가 포함되는 영역이 촬영되면, 문자 인식 모듈(110)은 촬영된 영역 내에서 필기 영역을 추출하고, 추출된 필기 영역에서 수기 텍스트를 인식할 수 있다.More specifically, when an area including handwritten text is photographed by the camera 110a, the character recognition module 110 may extract a handwriting area within the photographed area and recognize the handwritten text from the extracted handwriting area. .

일 예에서, 카메라(110a)는 미리 설정된 촬영 대상 영역을 촬영할 수 있다. 예컨대, 학습지에는 촬영 대상 영역이 미리 설정될 수 있고, 카메라(110a)는 촬영 대상 영역을 촬영할 수 있다. 이 때, 촬영 대상 영역은 영역 내 위치에 따라 텍스트가 미리 인쇄된 인쇄 영역과 수기 텍스트가 필기되는 필기 영역으로 구분될 수 있다.In one example, the camera 110a may photograph a preset area to be photographed. For example, a photographing target area may be preset in the study sheet, and the camera 110a may photograph the photographing target area. In this case, the photographing target area may be divided into a printing area in which text is pre-printed and a writing area in which handwritten text is written according to a position within the area.

문자 인식 모듈(110)은 촬영 대상 영역 중에서 미리 설정된 필기 영역 내에서만 OCR 인식 동작을 수행함으로써, 수기 텍스트만을 선택적으로 인식할 수 있다.The character recognition module 110 may selectively recognize only the handwritten text by performing the OCR recognition operation only within a preset writing area among the photographing target areas.

다른 예에서, 카메라(110a)는 임의의 영역을 촬영할 수 있다. 예컨대, 카메라(110a)는 학습지 내 임의의 영역을 촬영하여 촬영 영상 파일을 생성할 수 있다. 이 때, 문자 인식 모듈(110)은 촬영 영상 파일과 메모리에 저장된 기준 문서 파일을 패턴 매칭(pattern matching)하여 필기 영역을 추출할 수 있다.In another example, the camera 110a may capture an arbitrary area. For example, the camera 110a may generate a photographed image file by photographing an arbitrary area within the study sheet. In this case, the character recognition module 110 may extract the writing area by pattern matching the captured image file and the reference document file stored in the memory.

여기서 기준 문서 파일은 기준 문서를 데이터화 한 것으로, 기준 문서는 학습지와 동일한 서식을 갖되 학습지 내에서 사용자의 필기가 필요한 부분이 공란인 문서일 수 있다.Here, the reference document file is a data of the reference document, and the reference document may be a document having the same format as the study sheet, but in which the user's handwriting is required in the study sheet is blank.

문자 인식 모듈(110)은 카메라(110a)에 의해 생성된 파일과 기준 문서 파일을 패턴 매칭하여 그 둘의 차이를 식별할 수 있다. 예컨대, 문자 인식 모듈(110)은 학습지의 서식에 따른 항목만이 기재된 기준 문서와, 해당 항목에 수기 텍스트가 기재된 촬영 영상 파일을 패턴 매칭함으로써, 각 항목에 기재된 텍스트를 식별할 수 있고, OCR 기능을 통해 이를 판독하여 해당 텍스트를 수기 텍스트로 인식할 수 있다.The character recognition module 110 may pattern-match the file generated by the camera 110a and the reference document file to identify a difference between the two. For example, the character recognition module 110 can identify the text described in each item by pattern matching a reference document in which only items according to the format of the study sheet are described and a photographed image file in which handwritten text is written in the corresponding item, and OCR function can be read and recognized as handwritten text.

문자 인식 모듈(110)에 의해 수기 텍스트가 인식되면, 제어 모듈(120)은 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별할 수 있다.When the handwritten text is recognized by the character recognition module 110 , the control module 120 may identify immersive learning content matching the handwritten text.

본 발명에서 실감형 학습 콘텐츠는 학습 커리큘럼에 따른 사용자의 학습을 위한 콘텐츠로서, 가상 현실(Virtual Reality; VR), 복합 현실(Mixed Reality; MR), 증강 현실(Augmented Reality; AR) 등을 통해 사용자에게 몰입감을 주는 임의의 콘텐츠일 수 있다.In the present invention, immersive learning content is content for the user's learning according to the learning curriculum, and a user through virtual reality (VR), mixed reality (MR), augmented reality (AR), etc. It may be any content that gives a sense of immersion to the user.

여기서, 증강 현실(AR)이란 실제 환경에 가상 사물이나 정보를 합성하여 원래의 환경에 존재하는 사물처럼 보이도록 하는 컴퓨터 그래픽 기법을 말한다. 증강 현실은 가상의 공간과 사물만을 대상으로 하는 기존의 가상 현실과 달리, 현실 세계의 기반 위에 가상의 사물을 합성하여 현실 세계만으로는 얻기 어려운 부가적인 정보들을 보강해 제공할 수 있는 특징을 가진다. Here, augmented reality (AR) refers to a computer graphics technique that synthesizes a virtual object or information in a real environment to make it look like an object existing in the original environment. Unlike conventional virtual reality, which targets only virtual space and objects, augmented reality has a feature of providing additional information that is difficult to obtain only in the real world by synthesizing virtual objects on the basis of the real world.

가상 현실(VR)은 어떤 특정한 환경이나 상황을 컴퓨터로 만들어서, 그것을 사용하는 사람이 마치 실제 주변 상황·환경과 상호작용을 하고 있는 것처럼 만들어 주는 인간과 컴퓨터 사이의 인터페이스를 의미한다.Virtual reality (VR) refers to an interface between a human and a computer that makes a specific environment or situation into a computer and makes it as if the person using it is interacting with the actual surrounding situation/environment.

한편, 복합 현실(MR)은 현실세계와 가상세계 정보를 결합해 두 세계를 융합시키는 공간을 만들어내는 기술을 의미한다. 복합 현실(MR)은 증강 현실(AR)과 가상 현실(VR)의 장점만을 가져와 구현한 기술을 의미한다.On the other hand, mixed reality (MR) refers to a technology that creates a space that fuses the two worlds by combining information from the real world and the virtual world. Complex reality (MR) refers to a technology implemented by bringing only the advantages of augmented reality (AR) and virtual reality (VR).

제어 모듈(120)은 메모리를 참조하여 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별할 수 있다. 이를 위해, 메모리에는 각 수기 텍스트에 대응하는 실감형 학습 콘텐츠가 룩업 테이블(Look-Up Table; LUT)의 형태로 미리 저장될 수 있다.The control module 120 may identify immersive learning content matching the handwritten text with reference to the memory. To this end, realistic learning content corresponding to each handwritten text may be stored in advance in the form of a look-up table (LUT).

예를 들어, 메모리에는 하기 [표 1]과 같은 룩업 테이블이 미리 저장될 수 있다.For example, a lookup table as shown in Table 1 below may be previously stored in the memory.

[수기 텍스트][handwritten text] [실감형 학습 콘텐츠][Realistic learning content] 1One “공룡”"dinosaur" “공룡 소개에 관한 영상”“Video About Dinosaurs” 22 “곤충”"insect" “곤충의 일생에 관한 영상”“Video about the life of an insect” 33 “화산”"volcano" “화산의 폭발 과정에 관한 영상”“Video about the eruption process of a volcano”

문자 인식 모듈(110)에 의해 “공룡”이라는 수기 텍스트가 인식된 경우, 제어 모듈(120)은 해당 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 “공룡 소개에 관한 영상”으로 식별할 수 있다.When the handwritten text “dinosaur” is recognized by the character recognition module 110 , the control module 120 may identify immersive learning content matching the handwritten text as “an image about dinosaur introduction”.

마찬가지로, 문자 인식 모듈(110)에 의해 “곤충” 또는 “화산”이라는 수기 텍스트가 인식된 경우, 제어 모듈(120)은 각 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 각각 “곤충의 일생에 관한 영상” 또는 “화산의 폭발 과정에 관한 영상”으로 식별할 수 있다.Similarly, when the handwritten text “insect” or “volcano” is recognized by the character recognition module 110 , the control module 120 displays realistic learning content matching each handwritten text as an “image about the life of an insect”, respectively. ” or “images of the eruption process of a volcano”.

제어 모듈(120)은 식별된 실감형 학습 콘텐츠를 디스플레이 모듈(130)에 제공할 수 있고, 디스플레이 모듈(130)은 실감형 학습 콘텐츠를 영상으로 출력할 수 있다.The control module 120 may provide the identified immersive learning content to the display module 130 , and the display module 130 may output the immersive learning content as an image.

앞서 설명한 바와 같이 실감형 학습 콘텐츠는 가상 현실(Virtual Reality; VR), 복합 현실(Mixed Reality; MR), 증강 현실(Augmented Reality; AR) 등을 기반으로 생성된 영상 콘텐츠일 수 있다.As described above, the realistic learning content may be image content generated based on virtual reality (VR), mixed reality (MR), augmented reality (AR), and the like.

이에 따라, 일 예에서 디스플레이 모듈(130)은 가상 현실(VR) 기술을 기반으로 실감형 학습 콘텐츠를 가상 이미지로 출력할 수 있다.Accordingly, in an example, the display module 130 may output realistic learning content as a virtual image based on virtual reality (VR) technology.

보다 구체적으로, 디스플레이 모듈(130)은 제어 모듈(120)에서 제공된 실감형 학습 콘텐츠를 화면 전체를 통해 출력되는 가상 이미지로 변환하여 출력할 수 있다. 이에 따라, 도 2에 도시된 실감형 학습 콘텐츠 제공 장치(100)를 착용한 사용자는 전방의 실제 환경에 대한 시야를 확보할 수 없는 대신, 화면 전체를 통해 실감형 학습 콘텐츠에 대응하는 가상 이미지를 확인할 수 있다.More specifically, the display module 130 may convert and output the immersive learning content provided by the control module 120 into a virtual image that is output through the entire screen. Accordingly, a user wearing the immersive learning content providing apparatus 100 shown in FIG. 2 cannot secure a view of the real environment in front of them, but instead displays a virtual image corresponding to the immersive learning content through the entire screen. can be checked

다른 예에서, 디스플레이 모듈(130)은 증강 현실(AR) 기술을 기반으로 실감형 학습 콘텐츠와 실사 영상을 함께 출력할 수 있다.In another example, the display module 130 may output immersive learning content and a live-action image together based on augmented reality (AR) technology.

보다 구체적으로, 디스플레이 모듈(130)은 제어 모듈(120)에서 제공된 실감형 학습 콘텐츠를 화면 일부분을 통해 출력되는 가상 이미지로 변환하여 출력할 수 있다.More specifically, the display module 130 may convert and output the immersive learning content provided by the control module 120 into a virtual image output through a portion of the screen.

이 때, 디스플레이 모듈(130)은 투명한 재질로 이루어져 사용자 전방의 영상을 투영할 수 있다. 다시 말해, 사용자는 투명한 디스플레이 모듈(130)을 통해 전방의 실제 환경에 대한 시야를 확보할 수 있다.In this case, the display module 130 may be made of a transparent material to project an image in front of the user. In other words, the user may secure a view of the real environment in front through the transparent display module 130 .

이에 따라, 도 2에 도시된 것과 같은 실감형 학습 콘텐츠 제공 장치(100)를 착용한 사용자는 전방의 실제 환경에 대한 시야를 확보함과 동시에, 디스플레이 모듈(130)의 화면 내 일부분을 통해 실감형 학습 콘텐츠에 대응하는 가상 이미지를 확인할 수 있다.Accordingly, a user who wears the immersive learning content providing apparatus 100 as shown in FIG. 2 secures a view of the real environment in front, and at the same time, uses a portion of the screen of the display module 130 to provide an immersive experience. A virtual image corresponding to the learning content can be checked.

한편, 디스플레이 모듈(130)은 실사 영상에 실감형 학습 콘텐츠를 증강 이미지로 출력할 수 있다.Meanwhile, the display module 130 may output realistic learning content as an augmented image on the live-action image.

보다 구체적으로, 디스플레이 모듈(130)은 사용자 주변의 실제 환경에 대한 실사 영상에, 학습 커리큘럼에 따른 실감형 학습 콘텐츠에 대응하는 증강 이미지를 오버랩(overlap)하여 출력할 수 있다More specifically, the display module 130 may overlap and output an augmented image corresponding to the realistic learning content according to the learning curriculum on the live-action image of the real environment around the user.

실사 영상을 생성하기 위해 문자 인식 모듈(110)에 포함된 카메라(110a)가 이용될 수 있다. 도 2를 예로 들어 설명하면, 카메라(110a)는 사용자 전방의 실제 환경을 촬영할 수 있고, 디스플레이 모듈(130)은 촬영된 실제 환경에 대응하는 실사 영상을 생성할 수 있다.The camera 110a included in the character recognition module 110 may be used to generate a live-action image. 2 as an example, the camera 110a may photograph an actual environment in front of the user, and the display module 130 may generate a live-action image corresponding to the photographed actual environment.

이어서, 디스플레이 모듈(130)은 화면을 통해 실사 영상을 출력함과 동시에 실사 영상 내에서 실감형 학습 콘텐츠에 대응하는 증강 이미지를 오버랩하여 출력할 수 있다.Subsequently, the display module 130 may output the live-action image through the screen and overlap and output the augmented image corresponding to the immersive learning content in the live-action image.

이하에서는 도 3을 참조하여 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 방법을 설명하도록 한다. 도 3에 도시된 실감형 학습 콘텐츠 제공 방법은 도 1에 도시된 실감형 학습 콘텐츠 제공 장치(100) 내 각 구성요소에 의해 수행될 수 있다.Hereinafter, a method for providing immersive learning content according to an embodiment of the present invention will be described with reference to FIG. 3 . The method for providing immersive learning content shown in FIG. 3 may be performed by each component in the apparatus 100 for providing immersive learning content shown in FIG. 1 .

도 3은 본 발명의 일 실시예에 따른 실감형 학습 콘텐츠 제공 방법을 도시한 순서도이다.3 is a flowchart illustrating a method for providing immersive learning content according to an embodiment of the present invention.

도 3을 참조하면, 실감형 학습 콘텐츠 제공 방법은 사용자가 필기한 수기 텍스트를 인식하는 단계(S10), 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는 단계(S20) 및 실감형 학습 콘텐츠를 출력하는 단계(S30)를 포함할 수 있다. 도 3에 도시된 실감형 학습 콘텐츠 제공 방법은 일 실시예에 따른 것이고, 방법을 이루는 각 단계들이 도 3에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 단계가 부가, 변경 또는 삭제될 수 있다.Referring to FIG. 3 , the method for providing immersive learning content includes the steps of recognizing handwritten text handwritten by a user (S10), identifying immersive learning content matching the handwritten text (S20), and outputting the realistic learning content It may include a step (S30) of doing. The method for providing immersive learning content shown in FIG. 3 is according to an embodiment, and each step constituting the method is not limited to the embodiment shown in FIG. 3, and some steps may be added, changed, or deleted as necessary. can

각 단계를 구체적으로 설명하면, 먼저 문자 인식 모듈(110)은 학습지 등에 사용자가 필기한 수기 텍스트를 인식할 수 있다(S10).When each step is described in detail, first, the character recognition module 110 may recognize the handwritten text written by the user on a worksheet or the like ( S10 ).

보다 구체적으로, 문자 인식 모듈(110)은 카메라(110a)를 이용하여 수기 텍스트가 포함되는 영역을 촬영하고, 촬영된 영역 내에서 필기 영역을 추출하고, 추출된 필기 영역에서 수기 텍스트를 인식할 수 있다. 이러한 문자 인식 모듈(110)의 동작 과정에 대해서는 전술한 바 있으므로 여기서는 자세한 설명을 생략하도록 한다.More specifically, the character recognition module 110 may photograph an area including the handwritten text by using the camera 110a, extract a handwriting area within the captured area, and recognize the handwritten text from the extracted handwriting area. have. Since the operation process of the character recognition module 110 has been described above, a detailed description thereof will be omitted here.

이어서, 제어 모듈(120)은 메모리를 참조하여 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별할 수 있다(S20). 이를 위해, 메모리에는 수기 텍스트와 실감형 학습 콘텐츠가 서로 대응되도록 미리 저장될 수 있고, 이는 전술한 바와 같다.Then, the control module 120 may identify the realistic learning content matching the handwritten text with reference to the memory ( S20 ). To this end, the handwritten text and the immersive learning content may be stored in advance so that they correspond to each other, as described above.

이어서, 디스플레이 모듈(130)은 제어 모듈(120)에 의해 식별된 실감형 학습 콘텐츠를 출력할 수 있다(S30). 디스플레이 모듈(130)이 실감형 학습 콘텐츠를 다양한 방식으로 출력하는 내용에 대해서는 전술한 바 있으므로, 여기서는 더 이상의 자세한 설명을 생략하도록 한다.Then, the display module 130 may output the immersive learning content identified by the control module 120 (S30). Since the content of the display module 130 to output the immersive learning content in various ways has been described above, a detailed description thereof will be omitted herein.

상술한 바와 같이, 본 발명은 학습자가 직접 기재한 텍스트의 인식을 통해 가상 현실, 복합 현실, 증강 현실 등을 기반으로 한 실감형 학습 콘텐츠를 제공함으로써, 학습자가 자신이 필기한 텍스트를 통해 스스로 실감형 학습 콘텐츠를 제어하도록 함으로써 학습자의 교육 참여를 유도하여 학습 능률을 향상시킬 수 있을 뿐만 아니라, 인터랙티브 방식으로 다양한 콘텐츠를 학습 및 교육에 이용할 수 있게 됨으로써, 교육자의 지도력 또한 향상시킬 수 있다.As described above, the present invention provides immersive learning content based on virtual reality, complex reality, augmented reality, etc. through recognition of text written by the learner, so that the learner can feel himself through his or her handwritten text. By controlling the type of learning content, it is possible not only to induce learners' participation in education to improve learning efficiency, but also to be able to use various contents for learning and education in an interactive way, thereby improving the leadership of the educator.

이상과 같이 본 발명에 대해서 예시한 도면을 참조로 하여 설명하였으나, 본 명세서에 개시된 실시 예와 도면에 의해 본 발명이 한정되는 것은 아니며, 본 발명의 기술사상의 범위 내에서 통상의 기술자에 의해 다양한 변형이 이루어질 수 있음은 자명하다. 아울러 앞서 본 발명의 실시 예를 설명하면서 본 발명의 구성에 따른 작용 효과를 명시적으로 기재하여 설명하지 않았을 지라도, 해당 구성에 의해 예측 가능한 효과 또한 인정되어야 함은 당연하다.As described above, the present invention has been described with reference to the illustrated drawings, but the present invention is not limited by the embodiments and drawings disclosed in the present specification. It is obvious that variations can be made. In addition, although the effects according to the configuration of the present invention are not explicitly described and described while describing the embodiments of the present invention, it is natural that the effects predictable by the configuration should also be recognized.

Claims (13)

사용자가 필기한 수기 텍스트를 인식하는 문자 인식 모듈;
상기 인식된 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는 제어 모듈; 및
상기 식별된 실감형 학습 콘텐츠를 출력하는 디스플레이 모듈을 포함하는
실감형 학습 콘텐츠 제공 장치.
a character recognition module for recognizing handwritten text written by a user;
a control module for identifying immersive learning content matching the recognized handwritten text; and
including a display module for outputting the identified immersive learning content
A device for providing realistic learning content.
제1항에 있어서,
상기 문자 인식 모듈은
상기 수기 텍스트를 촬영하는 카메라를 포함하는
실감형 학습 콘텐츠 제공 장치.
According to claim 1,
The character recognition module
comprising a camera for photographing the handwritten text
A device for providing realistic learning content.
제2항에 있어서,
상기 문자 인식 모듈은
상기 카메라에 의해 촬영된 영상에 대응하는 파일을 OCR(Optical Character Recognition) 기능을 적용할 수 있는 파일로 변환하고, 상기 변환된 파일 내에서 수기 텍스트를 인식하는
실감형 학습 콘텐츠 제공 장치.
3. The method of claim 2,
The character recognition module
Converting a file corresponding to the image captured by the camera into a file to which an OCR (Optical Character Recognition) function can be applied, and recognizing handwritten text in the converted file
A device for providing realistic learning content.
제2항에 있어서,
상기 문자 인식 모듈은
상기 수기 텍스트가 포함되는 영역을 촬영하고, 상기 촬영된 영역 내에서 필기 영역을 추출하고, 상기 추출된 필기 영역에서 상기 수기 텍스트를 인식하는
실감형 학습 콘텐츠 제공 장치.
3. The method of claim 2,
The character recognition module
photographing an area including the handwritten text, extracting a handwriting area within the photographed area, and recognizing the handwritten text from the extracted handwriting area
A device for providing realistic learning content.
제4항에 있어서,
상기 문자 인식 모듈은
상기 촬영된 영역에 대응하는 파일과 기준 문서 파일을 패턴 매칭(pattern matching)하여 상기 필기 영역을 추출하는
실감형 학습 콘텐츠 제공 장치.
5. The method of claim 4,
The character recognition module
extracting the writing area by pattern matching a file corresponding to the photographed area and a reference document file
A device for providing realistic learning content.
제1항에 있어서,
상기 제어 모듈은
메모리에 저장된 룩업 테이블(Look-Up Table; LUT)을 참조하여 상기 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는
실감형 학습 콘텐츠 제공 장치.
According to claim 1,
The control module is
Identifying realistic learning content matching the handwritten text by referring to a look-up table (LUT) stored in a memory
A device for providing realistic learning content.
제1항에 있어서,
상기 디스플레이 모듈은
상기 실감형 학습 콘텐츠를 가상 이미지로 출력하는
실감형 학습 콘텐츠 제공 장치.
According to claim 1,
The display module is
Outputting the immersive learning content as a virtual image
A device for providing realistic learning content.
제1항에 있어서,
상기 디스플레이 모듈은
상기 실감형 학습 콘텐츠와 실사 영상을 함께 출력하는
실감형 학습 콘텐츠 제공 장치.
According to claim 1,
The display module is
Outputting the immersive learning content and the live-action video together
A device for providing realistic learning content.
제8항에 있어서,
상기 디스플레이 모듈은
상기 실사 영상에 상기 실감형 학습 콘텐츠를 증강 이미지로 출력하는
실감형 학습 콘텐츠 제공 장치.
9. The method of claim 8,
The display module is
Outputting the immersive learning content as an augmented image to the live-action image
A device for providing realistic learning content.
제1항에 있어서,
상기 디스플레이 모듈은
웨어러블 디바이스(wearable device)인
실감형 학습 콘텐츠 제공 장치.
According to claim 1,
The display module is
A wearable device
A device for providing realistic learning content.
제10항에 있어서,
상기 디스플레이 모듈은
HMD(Head Mounted Device), 비디오 씨스루 디바이스(video see-through device), 광학 씨스루 디바이스(optical see-through device), 프로젝터(projector) 중 적어도 하나를 포함하는
실감형 학습 콘텐츠 제공 장치.
11. The method of claim 10,
The display module is
HMD (Head Mounted Device), video see-through device (video see-through device), optical see-through device (optical see-through device), including at least one of the projector (projector)
A device for providing realistic learning content.
사용자가 필기한 수기 텍스트를 인식하는 단계;
메모리를 참조하여 상기 인식된 수기 텍스트에 매칭되는 실감형 학습 콘텐츠를 식별하는 단계; 및
상기 식별된 실감형 학습 콘텐츠를 출력하는 단계를 포함하는
실감형 학습 콘텐츠 제공 방법.
recognizing the handwritten text handwritten by the user;
identifying immersive learning content matching the recognized handwritten text with reference to a memory; and
outputting the identified immersive learning content
How to provide realistic learning content.
제12항에 있어서,
상기 사용자가 필기한 수기 텍스트를 인식하는 단계는
상기 수기 텍스트가 포함되는 영역을 촬영하는 단계;
상기 촬영된 영역 내에서 필기 영역을 추출하는 단계; 및
상기 추출된 필기 영역에서 상기 수기 텍스트를 인식하는 단계를 포함하는
실감형 학습 콘텐츠 제공 방법.
13. The method of claim 12,
Recognizing the handwritten text handwritten by the user includes:
photographing an area including the handwritten text;
extracting a writing area within the photographed area; and
Recognizing the handwritten text in the extracted handwriting area
How to provide realistic learning content.
KR1020190167623A 2019-12-16 2019-12-16 Apparatus and method for providing immersive learning content through text recognition KR20210076432A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190167623A KR20210076432A (en) 2019-12-16 2019-12-16 Apparatus and method for providing immersive learning content through text recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190167623A KR20210076432A (en) 2019-12-16 2019-12-16 Apparatus and method for providing immersive learning content through text recognition

Publications (1)

Publication Number Publication Date
KR20210076432A true KR20210076432A (en) 2021-06-24

Family

ID=76607100

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190167623A KR20210076432A (en) 2019-12-16 2019-12-16 Apparatus and method for providing immersive learning content through text recognition

Country Status (1)

Country Link
KR (1) KR20210076432A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102629542B1 (en) * 2023-05-31 2024-01-29 주식회사 해밀엔지니어링종합건설 Electric lighting system to improve learning efficiency
KR102629544B1 (en) * 2023-05-31 2024-01-29 주식회사 해밀엔지니어링종합건설 Integrated electric lighting system using AI(artificial intelligence)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102629542B1 (en) * 2023-05-31 2024-01-29 주식회사 해밀엔지니어링종합건설 Electric lighting system to improve learning efficiency
KR102629544B1 (en) * 2023-05-31 2024-01-29 주식회사 해밀엔지니어링종합건설 Integrated electric lighting system using AI(artificial intelligence)

Similar Documents

Publication Publication Date Title
JP6683864B1 (en) Content control system, content control method, and content control program
KR20120113058A (en) Apparatus and method for tutoring in the fusion space of real and virtual environment
KR20210076432A (en) Apparatus and method for providing immersive learning content through text recognition
Kiryakova The immersive power of augmented reality
Nasereddin MMLSL: modelling mobile learning for sign language
Escudeiro et al. Virtual sign translator
Kounlaxay et al. Design of Learning Media in Mixed Reality for Lao Education.
Tripathy et al. Voice for the mute
Thiengtham et al. Improve template matching method in mobile augmented reality for thai alphabet learning
US20230196036A1 (en) Integrating overlaid textual digital content into displayed data via graphics processing circuitry using a frame buffer
Choi et al. Arclassnote: Augmented reality based remote education solution with tag recognition and shared hand-written note
McNamara Enhancing art history education through mobile augmented reality
KR20210076431A (en) Apparatus and method for providing immersive learning content through voice recognition
Carmigniani Augmented reality methods and algorithms for hearing augmentation
Wirza et al. Mobile augmented reality application with virtual buttons as user interaction and stereoscopic view for medical learning
Clemens et al. Augmented Education: How can augmented reality be incorporated into pre-service teacher education to help K-12 students?
Algarawi et al. Applying augmented reality technology for an e-learning system
Jiang et al. The implementation of literacy and sign language learning system for deaf children based on the augmented reality
JP2021009351A (en) Content control system, content control method, and content control program
AlKassim et al. Sixth sense technology: Comparisons and future predictions
Hemamalini et al. A survey of mobile applications using augmented reality
Wai et al. Interactive Objects for Augmented Reality by Using Oculus Rift and Motion Sensor
Chung et al. Using graphic digital materials in language learning
US20230334792A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth