KR20190011095A - Method and apparatus for learning language, thereof system - Google Patents

Method and apparatus for learning language, thereof system Download PDF

Info

Publication number
KR20190011095A
KR20190011095A KR1020170093631A KR20170093631A KR20190011095A KR 20190011095 A KR20190011095 A KR 20190011095A KR 1020170093631 A KR1020170093631 A KR 1020170093631A KR 20170093631 A KR20170093631 A KR 20170093631A KR 20190011095 A KR20190011095 A KR 20190011095A
Authority
KR
South Korea
Prior art keywords
information
image
service
mode
learning
Prior art date
Application number
KR1020170093631A
Other languages
Korean (ko)
Inventor
김형국
장석호
Original Assignee
주식회사 토킹코리아
장석호
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 토킹코리아, 장석호 filed Critical 주식회사 토킹코리아
Priority to KR1020170093631A priority Critical patent/KR20190011095A/en
Publication of KR20190011095A publication Critical patent/KR20190011095A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • G06Q30/0212Chance discounts or incentives
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • General Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Finance (AREA)
  • Human Resources & Organizations (AREA)
  • Accounting & Taxation (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Educational Technology (AREA)
  • Educational Administration (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

The present invention relates to a language learning method, a device thereof and a system thereof. More specifically, the present invention includes: a user terminal which generates and displays a 3D image by operating a service with any one between a first mode and a second mode based on service data according to operation environments, executes conversation with a virtual object in the 3D image based on previously learned data by recognizing input information inputted from a user, generates and transmits result information of the executed conversation, and executes learning content by using learning content information received in response to the result information; a service server which transmits the service data to the user terminal, analyzes the result information received from the user terminal, generates learning content information depending on the analysis result, and transmits the learning content information to the user terminal; and a learning server which provides learning content to the user terminal. In the present invention, the operation environment is set by the user. The present invention is provided for language learning based on a desired place regardless of the actual place of a user through a user terminal.

Description

언어 학습 방법 및 장치와 그 시스템{METHOD AND APPARATUS FOR LEARNING LANGUAGE, THEREOF SYSTEM}METHOD AND APPARATUS FOR LEARNING LANGUAGE, THEREOF SYSTEM,

본 발명은 언어 학습 방법 및 장치와 그 시스템에 관한 것으로, 보다 상세하게는 사용자 단말을 통해 가상현실 및 증강현실 중 어느 하나를 기반으로 언어를 학습하도록 하는 언어 학습 방법 및 장치와 그 시스템에 관한 것이다. BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a language learning method and apparatus and a system thereof, and more particularly, to a language learning method and apparatus and a system thereof for learning a language based on any one of a virtual reality and an augmented reality through a user terminal .

오늘날 세계는 급속도로 변모해가고 있다. 교통 및 통신 수단의 획기적 발달로 인해 국가민족 간의 경계가 사라지고 있지만, 서로 간의 언어가 달라 원활한 의사소통이 어려운 경우가 많다. Today, the world is rapidly changing. Due to the breakthrough of transportation and communication, the national ethnic boundary is disappearing, but the language is different and communication is difficult.

이를 해결하기 위해, 번역 기술에 대한 개발이 이루어지고 있고, 또한 다양한 번역 서비스들이 제공되고 있기는 하지만, 실시간으로 대화를 주고받아야 하는 상황에서는 이용이 불편한 것이 현실이다.In order to solve this problem, a translation technology has been developed and various translation services have been provided. However, it is a reality that it is inconvenient to use in a situation where a conversation should be exchanged in real time.

모국어가 아닌 다른 국가의 언어를 학습하는 것이 쉽지 않을 뿐만 아니라, 그 학습 방법에도 한계가 있어 회화 강좌를 듣거나 어학 연수 등을 통해 해당 국가의 언어를 학습하고자 하는 경우가 많다. 우리는 모국어를 배울 때 주변 환경을 통해 자연스럽게 단어를 접하면서 암기하게 되고, 그렇게 암기한 단어를 각 상황에 따라 적절하게 사용할 수 있게 되는 것이다. 회화 강좌나 어학 연수를 통해 해당 국가의 언어를 학습하는 것 또한 직접 그 언어가 사용되고 있는 국가에서 다양한 상황에 직면하여 언어를 학습하게 됨에 따라 그 언어 실력을 향상시키고자 하는 것이다. 즉, 일방적인 학습보다는 상호작용을 통한 학습이 언어 실력 향상에 큰 도움이 된다는 의미이다.It is not easy to learn languages other than the native language, and there are limitations in the way of learning, so it is often the case that you want to learn the language of the country through listening to conversation lectures or language training. When we learn the native language, we are able to memorize the words naturally through the surrounding environment, and to use the memorized words appropriately according to each situation. Learning the language of a country through conversation classes or language training also aims to improve its language skills as it learns languages in a variety of situations in countries where the language is used. In other words, learning through interaction rather than one-sided learning is a great help to improve language skills.

최근 가상현실(Virtual Rality, VR) 및 증강현실(Augmented Reality, AR) 기술이 개발됨에 따라 현실에 없는 객체를 사용자가 체험할 수 있도록 것이 가능해졌고, 스마트폰과 같은 운영체제를 기반으로 하는 모바일 단말기의 보급이 확대됨에 따라 모바일 단말기를 통해 이러한 가상현실 및 증강현실을 체험하는 것이 가능해졌다.Recent development of Virtual Rality (VR) and Augmented Reality (AR) technology has made it possible for users to experience objects that are not in reality, and it is becoming increasingly important that mobile terminals based on operating systems such as smartphones As the spread has expanded, it has become possible to experience these virtual and augmented reality through mobile terminals.

따라서, 이러한 가상현실 및 증강현실 기술의 성장 속도에 맞춰 사용자가 실제 위치한 장소와 관계없이 원하는 장소를 기반으로 언어를 학습할 수 있는 서비스를 제공할 필요가 있다.Accordingly, there is a need to provide a service capable of learning a language based on a desired place regardless of a place where the user is actually located, in accordance with the growth rate of the virtual reality and the AR technique.

따라서, 본 발명은 상기한 바와 같은 문제점을 해결하기 위하여 제안된 것으로, 사용자 단말을 통해 사용자가 실제 위치한 장소와 관계없이 원하는 장소를 기반으로 언어를 학습할 수 있는 언어 학습 방법 및 장치와 그 시스템을 제공함에 있다.SUMMARY OF THE INVENTION Accordingly, it is an object of the present invention to provide a language learning method and apparatus capable of learning a language based on a desired place regardless of a place where a user is actually located through a user terminal, .

또한, 본 발명은 사용자가 다양한 상황에서 가상의 객체와 실시간 의사소통이 가능하도록 하여 언어에 대한 학습 효과가 빠르게 향상될 수 있도록 하는 언어 학습 방법 및 장치와 그 시스템을 제공함에 있다.In addition, the present invention provides a language learning method and apparatus and a system for enabling a user to perform real-time communication with a virtual object in various situations, so that a learning effect on a language can be rapidly improved.

또한, 본 발명은 사용자에게 해당 서비스 상점에서 제공하는 다양한 혜택을 알려줌으로써, 사용자는 해당 서비스 상점에서 제공하는 다양한 혜택을 누릴 수 있고, 해당 서비스 상점은 홍보 효과를 얻을 수 있는 언어 학습 방법 및 장치와 그 시스템을 제공함에 있다.The present invention also provides a language learning method and apparatus capable of enjoying various benefits provided by a corresponding service shop by informing a user of various benefits provided by the service shop, And to provide such a system.

또한, 본 발명은 사용자의 학습 상황에 따라 학습 컨텐츠를 제공함으로써, 발음 교정 또는 문법 등 학습이 필요한 부분에 대한 빠른 학습이 가능하도록 하는 언어 학습 방법 및 장치와 그 시스템을 제공함에 있다.It is another object of the present invention to provide a language learning method and apparatus and a system for providing learning contents according to a learning situation of a user, thereby enabling fast learning of a part requiring learning such as pronunciation correction or grammar.

본 발명의 목적은 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The objects of the present invention are not limited to those mentioned above, and other objects not mentioned can be clearly understood by those skilled in the art from the following description.

상기와 같은 목적을 달성하기 위한 본 발명에 따른 언어 학습 시스템은, 구동 환경에 따라 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하여 3D(3 Dimension) 영상을 생성 및 디스플레이하고, 사용자로부터 입력되는 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 상기 3D 영상 내 가상의 객체와의 대화를 실행하며, 상기 실행된 대화에 대한 결과 정보를 생성하여 송신하고, 상기 결과 정보에 대한 응답으로 수신되는 학습 컨텐츠 정보를 이용하여 학습 컨텐츠를 실행하는 사용자 단말; 상기 구동 환경에 대한 서비스 데이터를 상기 사용자 단말로 송신하고, 상기 사용자 단말로부터 수신되는 결과 정보를 분석하며, 상기 분석 결과에 따라 학습 컨텐츠 정보를 생성하여 상기 사용자 단말로 송신하는 서비스 서버; 및 상기 사용자 단말로 학습 컨텐츠를 제공하는 학습 서버를 포함하며, 상기 구동 환경은 상기 사용자에 의해 설정된다.According to an embodiment of the present invention, there is provided a language learning system for generating and displaying 3D (3 Dimension) images by driving a service in either a first mode or a second mode according to a driving environment, Recognizes input information to be input, executes a dialog with a virtual object in the 3D image based on previously learned data, generates and transmits result information on the executed dialog, and transmits the result information received in response to the result information A user terminal for executing learning contents using learning content information; A service server for transmitting service data for the driving environment to the user terminal, analyzing result information received from the user terminal, generating learning content information according to the analysis result, and transmitting the learning content information to the user terminal; And a learning server for providing learning contents to the user terminal, wherein the driving environment is set by the user.

또한, 상기와 같은 목적을 달성하기 위한 본 발명에 따른 언어 학습 방법은, 서비스 서버가 사용자 단말로부터 구동 환경에 대한 설정 정보를 수신하는 단계; 상기 서비스 서버가 상기 수신된 설정 정보에 대응하는 서비스 데이터를 상기 사용자 단말로 송신하는 단계; 상기 서비스서버가 상기 사용자 단말이 사용자로부터 입력되는 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 3D(3 Dimension) 영상 내 가상의 객체와의 대화를 실행하여 생성된 결과 정보를 상기 사용자 단말로부터 수신하는 단계; 및 상기 서비스 서버가 상기 수신된 결과 정보를 분석하고, 상기 분석 결과에 따라 학습 컨텐츠 정보를 생성하여 상기 사용자 단말로 송신하는 단계를 포함하고, 상기 사용자 단말은 상기 수신된 서비스 데이터를 기반으로 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하여 3D 영상을 생성 및 디스플레이 하도록 구성되고, 상기 사용자 단말은 상기 수신된 학습 컨텐츠 정보를 이용하여 학습 컨텐츠에 대한 제공을 학습 서버로 요청하여 상기 요청된 학습 컨텐츠를 제공받도록 구성되고, 상기 구동 환경은 상기 사용자에 의해 설정된다. According to another aspect of the present invention, there is provided a language learning method comprising: receiving configuration information on a driving environment from a user terminal; Transmitting, by the service server, service data corresponding to the received configuration information to the user terminal; The service server recognizes the input information input from the user and performs a dialog with a virtual object in a 3D (3-Dimension) image based on the previously learned data to receive the generated result information from the user terminal ; And analyzing the received result information, and generating learning content information according to the analysis result and transmitting the generated learning content information to the user terminal, wherein the user terminal comprises: Mode and a second mode to generate and display 3D images, and the user terminal requests the learning server to provide the learning contents using the received learning content information, And the driving environment is set by the user.

또한, 상기와 같은 목적을 달성하기 위한 본 발명에 따른 언어 학습 장치는, 구동 환경에 대한 설정 정보, 서비스 구동에 대한 결과 정보 및 학습 컨텐츠에 대한 제공 요청을 송신하고, 상기 설정 정보에 대응하는 서비스 데이터, 학습 컨텐츠 정보 및 학습 컨텐츠를 수신하는 수신부; 출력되는 오디오 신호를 스피커를 통해 재생하고, 마이크로부터 입력되는 오디오 신호를 입력하는 오디오부; 사용자로부터 입력되는 음성, 터치, 움직임 및 시선 중 적어도 하나에 대한 입력 정보를 인식하는 인식부; 상기 구동 환경에 따라 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하는 구동부; 상기 입력 정보 및 상기 서비스 데이터를 기반으로 3D(3 Dimension) 영상을 생성하는 생성부; 상기 생성된 3D 영상을 디스플레이 하는 디스플레이부; 상기 서비스 데이터 및 상기 미리 학습된 데이터를 저장하는 저장부; 및 상기 구동 환경에 따라 상기 제1 모드 및 상기 제2 모드 중 어느 하나로 서비스를 구동하여 3D 영상을 생성 및 디스플레이하고, 상기 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 상기 3D 영상 내 가상의 객체와의 대화를 실행하며, 상기 실행된 대화에 대한 결과 정보를 생성하여 송신하고, 상기 결과 정보에 대한 응답으로 수신되는 학습 컨텐츠 정보를 이용하여 학습 컨텐츠를 실행하도록 제어하는 제어부를 포함하며, 상기 구동 환경은 상기 사용자에 의해 설정된다.According to another aspect of the present invention, there is provided a language learning apparatus for transmitting setting information on a driving environment, result information on service activation, and a request for providing learning contents, A receiving unit for receiving data, learning content information, and learning content; An audio unit for reproducing an audio signal to be output through a speaker and inputting an audio signal input from the microphone; A recognition unit for recognizing input information for at least one of a voice, a touch, a movement, and a line of sight input from a user; A driving unit for driving a service in one of a first mode and a second mode according to the driving environment; A generating unit for generating a 3D (3D) image based on the input information and the service data; A display unit for displaying the generated 3D image; A storage unit for storing the service data and the pre-learned data; And generating and displaying a 3D image by driving a service in either the first mode or the second mode according to the driving environment, recognizing the input information, and generating a virtual object And a controller for generating and transmitting result information on the executed conversation and controlling execution of the learning contents using the learning content information received in response to the result information, The environment is set by the user.

본 발명에 의하면, 사용자 단말을 통해 사용자가 실제 위치한 장소와 관계없이 원하는 장소를 기반으로 언어를 학습할 수 있도록 한다. According to the present invention, a user can learn a language based on a desired place regardless of a place where the user is actually located.

또한, 본 발명에 의하면, 사용자가 다양한 상황에서 가상의 객체와 실시간 의사소통이 가능하도록 하여 언어에 대한 학습 효과가 빠르게 향상될 수 있도록 한다.In addition, according to the present invention, it is possible for a user to real-time communicate with a virtual object in various situations, so that a learning effect on a language can be rapidly improved.

또한, 본 발명에 의하면, 사용자에게 해당 서비스 상점에서 제공하는 다양한 혜택을 알려줌으로써, 사용자는 해당 서비스 상점에서 제공하는 다양한 혜택을 누릴 수 있고, 해당 서비스 상점은 홍보 효과를 얻을 수 있도록 한다.In addition, according to the present invention, by informing the user of various benefits provided by the service shop, the user can enjoy various benefits provided by the service shop, and the service shop can obtain the publicity effect.

또한, 본 발명에 의하면 사용자의 학습 상황에 따라 학습 컨텐츠를 제공함으로써, 발음 교정 또는 문법 등 학습이 필요한 부분에 대한 빠른 학습이 가능하도록 한다Further, according to the present invention, learning contents are provided according to the learning situation of the user, so that it is possible to quickly learn a part requiring learning such as pronunciation correction or grammar

본 발명의 효과는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또다른 효과들은 아래의 기재로부터 본 발명이 속하는 기술 분야의 통상의 지식을 가진 자에게 명확히 이해될 수 있을 것이다.The effects of the present invention are not limited to those mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the following description.

도 1은 본 발명의 실시예에 따른 언어 학습 시스템의 네트워크 구성을 나타내는 블록도,
도 2는 본 발명의 실시예에 따른 언어 학습 방법을 나타내는 흐름도,
도 3은 본 발명의 실시예에 따른 사용자 단말의 구성을 나타내는 블록도.
도 4는 본 발명의 실시예에 따른 사용자 단말에서의 언어 학습 방법을 나타내는 순서도.
1 is a block diagram illustrating a network configuration of a language learning system according to an embodiment of the present invention;
FIG. 2 is a flowchart illustrating a language learning method according to an embodiment of the present invention;
3 is a block diagram illustrating a configuration of a user terminal according to an embodiment of the present invention;
4 is a flowchart illustrating a language learning method in a user terminal according to an embodiment of the present invention.

본 발명의 목적 및 효과, 그리고 그것들을 달성하기 위한 기술적 구성들은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 본 발명을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명에서의 기증을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. BRIEF DESCRIPTION OF THE DRAWINGS The above and other objects, features and advantages of the present invention will be more apparent from the following detailed description taken in conjunction with the accompanying drawings, in which: FIG. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear. Hereinafter, the terms are defined in consideration of donation in the present invention, which may vary depending on the intention of the user, the intention or the custom of the operator.

그러나, 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있다. 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다. However, the present invention is not limited to the embodiments described below, but may be embodied in various forms. These embodiments are provided so that this disclosure will be thorough and complete, and will fully convey the scope of the invention to those skilled in the art to which the present invention pertains. Only. Therefore, the definition should be based on the contents throughout this specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함" 또는 "구비"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...유닛", "...장치", "...디바이스", "...부" 또는 "...모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as being "comprising" or "comprising" an element, it is understood that the element may include other elements, not the exclusion of any other element . In addition, terms such as "... unit", "... device", "... device", "... part" or "... module" Means a unit for processing, which may be implemented by hardware, software, or a combination of hardware and software.

한편, 본 발명의 실시 예에 있어서, 각 구성요소들, 기능 블록들 또는 수단들은 하나 또는 그 이상의 하부 구성요소로 구성될 수 있으며, 각 구성요소들이 수행하는 전기, 전자, 기계적 기능들은 전자회로, 집적회로, ASIC(Application Specific Integrated Circuit) 등 공지된 다양한 소자들 또는 기계적 요소들로 구현될 수 있으며, 각각 별개로 구현되거나 2 이상이 하나로 통합되어 구현될 수도 있다.In the exemplary embodiment of the present invention, each component, function block or means may be composed of one or more sub-components, and the electrical, electronic, and mechanical functions performed by the components may be electronic circuits, An integrated circuit, an ASIC (Application Specific Integrated Circuit), or the like, or may be implemented separately or two or more may be integrated into one.

또한 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터, 휴대용 노트북 컴퓨터, 네트워크 컴퓨터, 스마트폰과 같은 모바일 기기, 온라인 게임 서비스 제공 서버 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 아래에서 설명할 블록도의 각 블록 또는 흐름도의 각 단계에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 장치에 이용 가능한 메모리 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 블록도의 각 블록 또는 흐름도 각 단계에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조물을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 장치 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되기 위한 프로세스를 생성하여 블록도의 각 블록 및 흐름도의 각 단계에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.Also, each block of the accompanying block diagrams and combinations of the steps of the flowcharts may be performed by computer program instructions. These computer program instructions may be embedded in a processor of a general purpose computer, a special purpose computer, a portable notebook computer, a network computer, a mobile device such as a smart phone, an on-line game service provision server or other programmable data processing equipment, Those instructions, which are performed through the processor of the data processing equipment as possible, will create means for performing the functions described in each block or flowchart of the block diagrams described below. These computer program instructions may also be stored in a memory or in a computer readable memory available to a computer device capable of directing a computer device or other programmable data processing device to implement the functionality in a particular manner, It is also possible to produce products containing instruction means for performing the functions described in the respective steps of the flowcharts. It will be appreciated that computer program instructions may be loaded onto a computer device or other programmable data processing equipment so that a process for performing a series of operating steps on a computer device or other programmable data processing equipment may be created to determine each block and flowchart of the block diagram It is also possible to provide steps for executing the functions described in each step of Fig.

또한, 각 블록 또는 각 단계는 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시예들에서는 블록들 또는 단계들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들 또는 단계들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들 또는 단계들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.Also, each block or each step may represent a module, segment, or portion of code that includes one or more executable instructions for executing the specified logical function (s). It should also be noted that in some alternative embodiments, the functions mentioned in the blocks or steps may occur out of order. For example, two blocks or steps shown in succession may in fact be performed substantially concurrently, or the blocks or steps may sometimes be performed in reverse order according to the corresponding function.

본 발명의 실시예에 있어서, 클라이언트 또는 각종 장치라고 함은 데스크탑 컴퓨터, 노트북 컴퓨터, 스마트폰, PDA, 휴대전화, 게임기 등 데이터를 수집, 판독, 처리, 가공, 저장, 표시할 수 있는 모든 계산 수단을 의미한다. 특히, 본 발명의 실시예에 있어서의 클라이언트 또는 각종 장치는 해독 가능한 코드로 작성된 소프트웨어를 실행시킬 수 있으며, 이를 사용자에게 표시하여 전달할 수 있는 기능을 갖는 장치이다. 또한, 필요에 따라서는 소프트웨어를 자체적으로 저장하기도 하고, 또는 외부로부터 데이터와 함께 읽어 들일 수도 있다.In the embodiment of the present invention, the client or various devices include all calculation means capable of collecting, reading, processing, processing, storing, and displaying data such as a desktop computer, a notebook computer, a smart phone, a PDA, . In particular, the client or various devices in the embodiment of the present invention can execute software written in a readable code, and can display and transmit the software to a user. In addition, the software may be stored on its own if necessary, or may be read with data from outside.

또한, 본 발명의 실시예에 있어서의 클라이언트 또는 각종 장치에는 위와 같은 데이터 처리 기능뿐 아니라 입력, 출력, 저장 등의 기능이 포함되어 있으며, 이를 위하여 일반적인 컴퓨터 장치들이 갖는 CPU, 메인보드, 그래픽 카드, 하드디스크, 사운드 카드, 스피커, 키보드, 마우스, 모니터, USB, 통신 모뎀 등의 각종 요소들 뿐만 아니라 무선 스마트폰 단말기들이 갖는 CPU, 메인보드, 그래픽 칩, 메모리 칩, 사운드엔진, 스피커, 터치패드, USB 등의 외부 연결 단자, 통신 안테나, 3G, LTE, LTE-A, WiFi, 블루투스 등의 통신을 구현할 수 있는 통신 모뎀 등을 포함할 수 있다. 이러한 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 구현할 수 있으며, 본 발명의 실시예에서 도면이나 상세한 설명에서 하나 또는 그 이상의 블록으로 표시된 장치 또는 그 일부분들은 위와 같은 클라이언트 또는 각종 장치에 포함되어 있는 각종 요소들이 단독으로 또는 2 이상이 함께, 또는 각종 요소들의 일부분이 결합되어 하나 또는 그 이상의 기능을 나타내는 것을 의미할 수 있다.The client or various devices in the embodiment of the present invention include functions such as input, output, and storage as well as the above-described data processing functions. For this purpose, a CPU, a main board, a graphics card, A CPU, a main board, a graphic chip, a memory chip, a sound engine, a speaker, a touch pad, a speaker, a speaker, a keyboard, a mouse, a monitor, a USB, a communication modem, An external connection terminal such as a USB, a communication antenna, a communication modem capable of implementing communication such as 3G, LTE, LTE-A, WiFi, Bluetooth, and the like. It is to be understood that these various elements may be used singly or in combination of two or more, or a combination of the various elements may implement one or more functions, and may be embodied in one or more blocks in the drawings or in the description And parts thereof may mean that the various elements included in the client or the various devices as described above may be expressed singly or two or more together, or a combination of various elements may represent one or more functions.

본 발명은 사용자가 사용자 단말을 통해 증강 현실 또는 가상 현실 속의 거리 및 그 거리에 늘어선 서비스 상점을 선택적으로 방문하여 학습하고자 하는 언어로 주문, 예약 및 문의 등을 진행하면서 가상의 객체와 대화를 하도록 하고, 그 대화의 결과를 기반으로 학습 컨텐츠를 제공하여 학습을 진행할 수 있도록 한다. 또한, 특정 서비스 상점을 방문하지 않더라도, 가상의 거리를 거니는 도중 마주친 가상의 객체로부터 질문을 받음으로써 대화를 할 수도 있다. 한편, 서비스 상점은 실제 서비스를 제공하고 있는 상점들로써, 증강 현실 또는 가상 현실 속에서 각 상점을 방문할 때마다, 각 상점에서 제공하고 있는 쿠폰, 할인 등의 혜택에 대한 정보를 함께 제공받을 수 있도록 한다.The present invention allows a user to selectively visit a service shop which is located at a distance in augmented reality or virtual reality and a service shop lined up in the virtual reality through a user terminal and conduct conversation with a virtual object while ordering, , And provides learning contents based on the result of the conversation so that learning can proceed. Also, even if you do not visit a particular service store, you may be able to converse by asking questions from virtual objects encountered during a virtual street. Meanwhile, the service stores are shops providing actual services, and each time they visit each store in augmented reality or virtual reality, information on benefits such as coupons and discounts offered by each store is provided together do.

이하에서는 본 발명의 실시예에 따른 언어 학습 장치 및 방법, 그 시스템에 대하여 첨부된 도면을 참고하여 구체적으로 설명하기로 한다.Hereinafter, an apparatus and method for learning a language according to an embodiment of the present invention and a system thereof will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 언어 학습 시스템의 네트워크 구성을 나타내는 블록도이다.1 is a block diagram illustrating a network configuration of a language learning system according to an embodiment of the present invention.

도 1을 참조하면, 언어 학습 시스템(100)은 사용자 단말(101), 서비스 서버(103), 서비스 상점 서버(105) 및 학습 서버(107)을 포함하여 구성된다.Referring to FIG. 1, the language learning system 100 includes a user terminal 101, a service server 103, a service shop server 105, and a learning server 107.

먼저, 사용자 단말(101)은 사용자에 의해 설정된 구동 환경에 따라 서비스 데이터를 기반으로 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하여 3D(3 Dimension) 영상을 생성 및 디스플레이 한다. 여기서, 구동 환경은 3D 영상의 배경이 되는 위치 정보 즉, 사용자가 언어 학습을 원하는 가상의 지역에 대한 정보를 포함하며, 제1 모드 및 제2 모드는 각각 증강현실 모드 및 가상현실 모드가 될 수 있다.First, the user terminal 101 generates and displays 3D (3 Dimension) images by driving the service in either the first mode or the second mode based on the service data according to the driving environment set by the user. Here, the driving environment includes positional information as a background of the 3D image, that is, information about a virtual area where the user wants to learn a language, and the first mode and the second mode may be the augmented reality mode and the virtual reality mode, respectively have.

또한, 사용자 단말(101)은 사용자로부터 입력되는 음성, 터치, 움직임 및 시선 등의 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 3D 영상 내 가상의 객체와의 대화를 실행한다. 이후, 사용자 단말(101)은 상기 실행된 대화에 대한 결과 정보를 생성하여 서비스 서버(103)로 송신하고, 그에 대한 응답으로 수신되는 학습 컨텐츠 정보를 이용하여 학습 서버(107)로부터 학습 컨텐츠를 제공받는다.Also, the user terminal 101 recognizes input information such as voice, touch, motion, and gaze input from a user and executes a dialog with a virtual object in the 3D image based on previously learned data. Thereafter, the user terminal 101 generates result information on the executed conversation, transmits the result information to the service server 103, and provides the learning contents from the learning server 107 using the learning content information received in response thereto Receive.

사용자 단말(101)은 3D 영상 내의 적어도 하나 이상의 서비스 상점에 대응하는 서비스 상점 서버(105)로부터 해당 서비스 상점의 혜택 정보를 제공받을 수도 있다. The user terminal 101 may receive benefit information of the corresponding service shop from the service shop server 105 corresponding to at least one service shop in the 3D image.

한편, 사용자 단말(101)는 HMD(Head Mounted Display)와 같은 별도의 장치와 연동되어 서비스를 제공할 수도 있다. Meanwhile, the user terminal 101 may provide a service in cooperation with a separate device such as an HMD (Head Mounted Display).

서비스 서버(103)는 저장된 서비스 데이터 중 사용자 단말(101)의 구동 환경에 대응하는 서비스 데이터를 사용자 단말(101)로 송신하고, 사용자 단말(101)로부터 수신되는 대화에 대한 결과 정보를 분석한다. 이후, 서비스 서버(103)는 그 분석 결과에 따라 학습 컨텐츠 정보를 생성하여 사용자 단말(101)로 송신함으로써, 상기 사용자 단말(101)이 필요로 하는 학습 컨턴체를 제공받을 수 있도록 한다.The service server 103 transmits the service data corresponding to the driving environment of the user terminal 101 among the stored service data to the user terminal 101 and analyzes the result information about the conversation received from the user terminal 101. Thereafter, the service server 103 generates learning content information according to the analysis result, and transmits the learning content information to the user terminal 101, thereby allowing the user terminal 101 to receive the learning content required by the user terminal 101.

서비스 상점 서버(105)는 서비스 서버(103)로 자신의 혜택 정보를 송신한다. 비록, 도 1에서는 하나의 서비스 상점 서버만을 도시하였으나, 서비스에 가입된 즉, 입점된 복수개의 서비스 상점 각각에 대해 각각 구성될 수 있다.The service shop server 105 transmits its benefit information to the service server 103. Although only one service shop server is shown in FIG. 1, it may be configured for each of a plurality of service shops subscribed to the service.

학습 서버(107)는 사용자 단말(101)의 학습 컨텐츠 제공 요청을 수신하고, 그에 대한 응답으로 제공 요청된 학습 컨텐츠를 사용자 단말(101)로 송신한다.The learning server 107 receives the learning content provision request of the user terminal 101 and transmits the requested learning content to the user terminal 101 in response thereto.

도 2는 본 발명의 실시예에 따른 언어 학습 방법을 나타내는 흐름도이다.2 is a flowchart illustrating a language learning method according to an embodiment of the present invention.

사용자 단말(101)에서 어플리케이션을 실행하면(S201), 어플리케이션이 실행되었음을 알리는 알림메시지를 서비스 서버(103)로 송신한다(S203). 이때, S203 단계는 생략될 수 있다.When the application is executed in the user terminal 101 (S201), a notification message indicating that the application is executed is transmitted to the service server 103 (S203). At this time, the step S203 may be omitted.

이후, 사용자 단말(101)은 3D 영상을 구동하고자 하는 구동 환경을 설정하고(S205), 이 설정 정보를 서비스 서버(103)로 송신한다(S207). 이때, 설정 정보는 사용자에 의해 선택된 위치 정보 즉, 언어 학습의 배경이 되는 지역에 대한 정보, 증강현실 모드인지 가상현실 모드인지 여부에 대한 모드 정보를 포함한다.Then, the user terminal 101 sets a driving environment for driving the 3D image (S205), and transmits the setting information to the service server 103 (S207). At this time, the setting information includes location information selected by the user, that is, information on an area serving as a background of language learning, and mode information on whether the augmented reality mode or the virtual reality mode is selected.

서비스 서버(103)는 사용자 단말(101)로부터 수신되는 설정 정보를 확인하고(S209), 저장된 서비스 데이터 중 상기 확인된 설정 정보에 대응하는 서비스 데이터를 송신한다(S211). 이때, 서비스 데이터는 서비스 구동에 필요한 데이터를 포함하는 것으로, 상기 설정 정보에 포함된 위치 정보에 따라 미리 저장된 거리 정보 및 적어도 하나 이상의 서비스 상점에 대한 정보를 더 포함한다.The service server 103 confirms the setting information received from the user terminal 101 (S209), and transmits the service data corresponding to the confirmed setting information among the stored service data (S211). At this time, the service data includes data necessary for driving the service, and further includes distance information previously stored according to the location information included in the setting information and information about at least one service shop.

사용자 단말(101)은 상기 서비스 서버(103)로부터 서비스 데이터를 다운로드 하여 저장하고(S213), 저장된 서비스 데이터를 기반으로 서비스를 구동한다(S215). 이때, 서비스는 사용자 단말(101)과 연동된 상태에서 사용자가 착용한 별도의 장치에 의해 구동될 수도 있다.The user terminal 101 downloads and stores the service data from the service server 103 (S213), and drives the service based on the stored service data (S215). At this time, the service may be driven by a separate device worn by the user in a state of being interlocked with the user terminal 101.

이후, 사용자 단말(101)은 사용자로부터 음성, 터치, 움직임 및 시선 등의 사용자 입력 정보를 인식하고(S217), 미리 학습된 데이터를 기반으로 3D 영상 내 가상의 객체와의 대화를 실행함으로써 결과 정보를 생성한다(S219). 사용자 단말(101)은 그 생성된 결과 정보를 서비스 서버(103)로 송신한다.Thereafter, the user terminal 101 recognizes user input information such as voice, touch, motion, and gaze from the user (S217), executes a dialog with the virtual object in the 3D image based on the previously learned data, (S219). The user terminal 101 transmits the generated result information to the service server 103.

서비스 서버(103)는 사용자 단말(101)로부터 수신되는 결과 정보를 확인하고(S223), 그 결과 정보를 기반으로 학습 컨텐츠 정보를 사용자 단말(101)로 송신한다(S225). 도면을 통해 도시하지는 않았지만, 구체적으로 서비스 서버(103)는 결과 정보를 분석하고, 분석 결과에 따라 여러 학습 컨텐츠 중 적어도 하나 이상의 학습 컨텐츠를 선택하여 그에 대한 정보를 송신하는 것이다.The service server 103 confirms the result information received from the user terminal 101 (S223), and transmits the learning content information to the user terminal 101 based on the result information (S225). Although not shown in the drawings, the service server 103 analyzes result information, selects at least one learning content among various learning contents according to the analysis result, and transmits information about the selected learning contents.

사용자 단말(101)은 서비스 서버(103)로부터 수신되는 학습 컨텐츠 정보를 기반으로 학습 컨텐츠를 확인하고(S227), 그 학습 컨텐츠 정보를 이용하여 학습 서버(107)로 학습 컨텐츠에 대한 제공을 요청한다(S229). 이때, 사용자 단말(101)은 학습 컨텐츠 정보에 포함된 링크를 통해 학습 서버(107)로 학습 컨텐츠에 대한 제공을 요청할 수도 있다.The user terminal 101 confirms the learning contents based on the learning contents information received from the service server 103 (S227), and requests the learning server 107 to provide the learning contents using the learning contents information (S229). At this time, the user terminal 101 may request the learning server 107 to provide the learning contents through the link included in the learning content information.

학습 서버(107)는 사용자 단말(101)로부터 수신되는 학습 컨텐츠에 대한 제공 요청을 확인하고(S231), 제공 요청된 학습 컨텐츠를 사용자 단말(101)로 제공한다(S233).The learning server 107 confirms a provision request for learning contents received from the user terminal 101 (S231), and provides the requested learning contents to the user terminal 101 (S233).

사용자 단말(101)은 학습 서버(107)로부터 제공되는 학습 컨텐츠를 통해 학습을 진행한다(S235).The user terminal 101 proceeds the learning through the learning contents provided from the learning server 107 (S235).

한편, 사용자 단말(101)은 서비스가 구동된 상태에서 증강현실 또는 가상현실 속의 특정 상점에 방문하는 경우, 해당 특정 상점에 대한 혜택 정보를 확인할 수 있다. 이 혜택 정보는 S202단계와 같이 서비스 상점 서버(105)에서 서비스 서버(103)로 제공되는데, 이는 서비스 상점 서버(105)에서 제공하는 할인, 행사 및 쿠폰 중 적어도 하나에 대한 정보에 변동이 있을 때마다 서비스 상점 서버(105)가 서비스 서버(103)로 송신할 수 있다. 한편, 도 2에는 도시되지 않았지만, 사용자 단말(101)로부터 혜택 제공 요청이 있을 경우, 서비스 서버(103)가 이를 서비스 상점 서버(105)로 알려주어 혜택을 제공받을 수 있도록 할 수도 있다.On the other hand, when the user terminal 101 visits a specific shop in the augmented reality or virtual reality in the state where the service is operated, the user terminal 101 can confirm the benefit information for the specific shop. This benefit information is provided from the service shop server 105 to the service server 103 as shown in step S202. This information may be used when there is a change in information about at least one of the discount, the event and the coupon provided by the service shop server 105 The service shop server 105 can transmit to the service server 103 every time. Although not shown in FIG. 2, when there is a request to provide a benefit from the user terminal 101, the service server 103 may notify the service shop server 105 to provide benefits.

이 경우, 사용자 단말(101)은 확인된 혜택 정보에서 제공받고자 하는 혜택을 선택하고(S237), 혜택 선택 정보를 서비스 서버(103)로 송신한다(S239).In this case, the user terminal 101 selects a benefit to be provided from the confirmed benefit information (S237), and transmits the benefit selection information to the service server 103 (S239).

서비스 서버(103)는 사용자 단말(101)로부터 수신되는 혜택 선택 정보를 확인하고(S241), 그 확인된 혜택 선택 정보에 대응하는 혜택을 사용자 단말(101)로 제공한다.The service server 103 confirms the benefit selection information received from the user terminal 101 (S241), and provides the user terminal 101 with the benefit corresponding to the confirmed benefit selection information.

사용자 단말(101)은 서비스 서버(103)로부터 수신되는 혜택을 다운로드 및 저장한다(S245). 이 저장된 혜택은 할인, 행사, 쿠폰에 대한 것일 수 있으며, 저장된 쿠폰이나 할인의 경우 해당 상점의 오프라인 또는 온라인 주문 시 사용할 수도 있다.The user terminal 101 downloads and stores the benefits received from the service server 103 (S245). These saved benefits can be for discounts, promotions, coupons, and for stored coupons or discounts when you use the store offline or online.

혜택 제공에 대한 S237단계 내지 245단계는 학습 서비스 제공에 대한 S219단계 내지 S235단계 이전에 실행될 수도 있으며, 사용자가 선택하지 않으면 생략될 수도 있다.Steps S237 through S255 for providing benefits may be performed before steps S219 through S235 for providing a learning service, and may be omitted if the user does not select them.

도 3은 본 발명의 실시예에 따른 사용자 단말의 구성을 나타내는 블록도이다.3 is a block diagram illustrating a configuration of a user terminal according to an embodiment of the present invention.

도 3을 참조하면, 사용자 단말(101)은 송수신부(1011), 카메라부(1013), 오디오부(1015), 인식부(1017), 구동부(1019), 생성부(1021), 디스플레이부(1023), 저장부(1025) 및 제어부(1027)를 포함한다.3, the user terminal 101 includes a transmitting / receiving unit 1011, a camera unit 1013, an audio unit 1015, a recognition unit 1017, a driving unit 1019, a generating unit 1021, 1023, a storage unit 1025, and a control unit 1027.

송수신부(1011)는 구동 환경에 대한 설정 정보, 서비스 구동에 대한 결과 정보 및 학습 컨텐츠에 대한 제공 요청을 송신하고, 상기 설정 정보에 대응하는 서비스 데이터, 학습 컨텐츠 정보 및 학습 컨텐츠를 수신한다. 또한, 그 외에 사용자 단말(101)로부터 송수신되는 모든 신호, 데이터, 정보들 또한 이 송수신부(1011)에 의해 송수신된다.The transmitting and receiving unit 1011 transmits setting information on the driving environment, result information on the service driving, and a request for providing learning contents, and receives service data, learning content information, and learning contents corresponding to the setting information. In addition, all the signals, data, and information transmitted and received from the user terminal 101 are also transmitted and received by the transmitting and receiving unit 1011.

카메라부(1013)는 주변 환경을 촬영할 수 있으며, 촬영을 통해 실제 영상 정보를 입력한다. 이때, 실제 영상 정보는 실시간으로 입력되어 생성부(1019)로 제공될 수 있다.The camera unit 1013 can photograph the surrounding environment and inputs actual image information through photographing. At this time, the actual image information may be input to the generating unit 1019 in real time.

오디오부(1015)는 마이크(미도시) 및 스피커(미도시)를 포함하는 것으로 사용자 단말(101)의 내부에서 출력되는 오디오 신호를 스피커를 통해 재생하고, 사용자 단말(101)의 외부에서 발생하는 오디오 신호를 마이크를 통해 입력한다.The audio unit 1015 includes a microphone (not shown) and a speaker (not shown). The audio unit 1015 reproduces an audio signal output from the inside of the user terminal 101 through a speaker, The audio signal is input through a microphone.

인식부(1017)는 사용자로부터 입력되는 음성, 터치, 움직임 및 시선 중 적어도 하나에 대한 입력 정보를 인식한다. 이때, 음성은 상기 오디오부(1015)의 마이크를 통해 입력되는 것을 기반으로 인식할 수 있고, 터치는 디스플레이부(1017)에서 이루어지는 사용자의 터치를 기반으로 인식할 수도 있다. 그 외, 도면을 통해서는 도시하지 않았지만, 사용자의 움직임 또는 생체 정보를 감지하기 위한 각종 센서들이 구비될 수 있는데, 인식부(1017)는 이 센서들을 통해 감지된 사용자의 움직임 또는 생체 정보를 인식할 수도 있다.The recognition unit 1017 recognizes input information for at least one of voice, touch, movement, and gaze input from the user. At this time, the voice can be recognized based on the input through the microphone of the audio unit 1015, and the touch can be recognized based on the touch of the user on the display unit 1017. [ In addition, although not shown in the drawing, various sensors for detecting movement or biometric information of the user may be provided. The recognition unit 1017 recognizes the motion or biometric information of the user sensed through the sensors It is possible.

구동부(1019)는 어플리케이션을 실행하고, 구동 환경에 따라 제1 모드 및 제2 모드 즉, 증강현실 모드 및 가상현실 모드 중 어느 하나로 서비스를 구동한다. 이때, 구동부(1019)는 오디오부(1015) 및 디스플레이부(1023)로부터 입력되는 정보를 인식부(1017)에서 인식함에 의해 실행 또는 구동될 수 있다.The driving unit 1019 executes the application and drives the service in either the first mode or the second mode, that is, the augmented reality mode or the virtual reality mode according to the driving environment. At this time, the driving unit 1019 can be executed or driven by recognizing the information input from the audio unit 1015 and the display unit 1023 by the recognition unit 1017. [

생성부(1021)는 인식부(1017)로부터 인식되는 입력 정보 및 상기 송수신부(1011)에 의해 수신된 서비스 데이터를 기반으로 3D 영상을 생성한다.The generation unit 1021 generates a 3D image based on the input information recognized by the recognition unit 1017 and the service data received by the transmission / reception unit 1011.

디스플레이부(1023)는 상기 생성부(1021)에서 생성된 3D 영상을 디스플레이 한다.The display unit 1023 displays the 3D image generated by the generation unit 1021.

저장부(1025)는 상기 서비스 데이터 및 상기 미리 학습된 데이터를 저장한다. 또한, 저장부(1025)는 그 외에 사용자 단말(101)로 수신되는 모든 데이터, 정보 등을 저장할 수 있을 뿐만 아니라, 사용자 단말(101)에서 생성된 데이터, 정보 등을 저장할 수도 있다.The storage unit 1025 stores the service data and the pre-learned data. In addition, the storage unit 1025 may store all data, information, and the like received by the user terminal 101, as well as data, information, and the like generated by the user terminal 101.

제어부(1027)는 구동 환경에 따라 상기 제1 모드 및 상기 제2 모드 중 어느 하나로 서비스를 구동하여 3D 영상을 생성 및 디스플레이하고, 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 3D 영상 내 가상의 객체와의 대화를 실행하며, 상기 실행된 대화에 대한 결과 정보를 생성하여 송신하고, 그 결과 정보에 대한 응답으로 수신되는 학습 컨텐츠 정보를 이용하여 학습 컨텐츠를 실행하도록 제어한다. The control unit 1027 generates and displays a 3D image by driving a service in either the first mode or the second mode according to the driving environment, recognizes the input information, and generates a virtual image in the 3D image based on the pre- Executes the dialog with the object, generates and transmits the result information about the executed dialog, and controls the learning contents to be executed using the learning content information received in response to the result information.

도 4는 본 발명의 실시예에 따른 사용자 단말에서의 언어 학습 방법을 나타내는 순서도이다.4 is a flowchart illustrating a language learning method in a user terminal according to an embodiment of the present invention.

구동부(1019)에서 어플리케이션을 실행하고(S401), 오디오부(1015) 및 디스플레이부(1023)로부터 입력되는 사용자 입력 정보를 인식부(1017)에서 인식함에 의해 위치 및 구동 모드를 설정한다(S403).The application is executed in the driving unit 1019 and the recognition unit 1017 recognizes the user input information input from the audio unit 1015 and the display unit 1023 to set the position and the driving mode (S403) .

이후, 송수신부(1011)에서 설정 정보를 서비스 서버(103)로 송신하고(S405), 그에 대한 응답으로 서비스 서버(103)로부터 수신되는 서비스 데이터를 수신하여 다운로드 하여 저장부(1025)에 저장한다(S407).Thereafter, the transmission / reception unit 1011 transmits the setting information to the service server 103 (S405), receives the service data received from the service server 103 in response thereto, downloads the service data, and stores the downloaded service data in the storage unit 1025 (S407).

구동부(1019)는 저장된 서비스 데이터를 기반으로 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동한다(S409).The driving unit 1019 drives the service in either the first mode or the second mode based on the stored service data (S409).

구동부(1019)가 제1 모드 즉, 증강현실 모드로 구동하는 경우, 생성부(1021)는 카메라부(1013)로부터 촬영되는 실제 영상과 상기 서비스 데이터에 포함된 3D 영상 정보에 따른 3D 가상 물체를 합성함으로써 3D 영상을 생성한다(S411). 한편, 구동부(1019)가 제2 모드 즉, 가상현실 모드로 구동하는 경우, 생성부(1021)는 상기 서비스 데이터에 포함된 3D 영상 정보를 기반으로 3D 영상을 생성한다(S413).When the driving unit 1019 is driven in the first mode, that is, in the augmented reality mode, the generation unit 1021 generates a 3D virtual object corresponding to an actual image photographed from the camera unit 1013 and 3D image information included in the service data Thereby generating a 3D image (S411). If the driving unit 1019 is driven in the second mode, that is, in the virtual reality mode, the generating unit 1021 generates a 3D image based on the 3D image information included in the service data (S413).

이후, 인식부(1017)가 오디오부(1015) 또는 디스플레이부(1023)로부터 입력되는 사용자 입력 정보가 감지되는지 여부를 확인한다(S415). 예를 들어, 오디오부(1015)를 통해 사용자의 음성이 입력되면, 저장부(1025)에 저장된 미리 학습된 데이터를 기반으로 대화가 진행되며, 더 이상 입력되는 음성이 없을 경우에는 대화가 종료된 것으로 간주한다. 즉, S411단계 내지 S415단계는 반복적으로 진행될 수 있다.Thereafter, the recognition unit 1017 checks whether the user input information input from the audio unit 1015 or the display unit 1023 is sensed (S415). For example, when a user's voice is input through the audio unit 1015, conversation proceeds based on previously learned data stored in the storage unit 1025. If there is no more input voice, . That is, steps S411 through S415 may be repeatedly performed.

확인 결과, 사용자 입력 정보가 감지되는 경우, 그 감지된 사용자 입력 정보에 따라 3D 영상을 생성하여 출력하고, 사용자 입력 정보가 감지되지 않는 경우, 상기 S411단계 및 상기 S413단계에 따른 결과 정보를 생성하여 서비스 서버(103)로 송신한다(S417). 이는 S411단계 내지 S415단계는 반복적으로 진행된 대화에 대한 결과 정보를 송신하는 것이다. 이를 위해, S411단계 내지 S415단계에서 진행된 대화 정보는 저장부(1025)에 저장될 수 있다.If the user input information is detected, the 3D image is generated and output according to the detected user input information. If the user input information is not detected, the result information of steps S411 and S413 is generated To the service server 103 (S417). This is because steps S411 through S415 transmit the result information for the repetitive conversation. To this end, the dialog information advanced in steps S411 to S415 may be stored in the storage unit 1025. [

송수신부(1011)가 결과 정보에 대한 응답으로 서비스 서버(103)로부터 학습 컨텐츠 정보를 수신하고, 디스플레이부(1023)가 수신된 학습 컨텐츠 정보를 디스플레이함으로써 사용자가 이를 확인한다.The transmission / reception unit 1011 receives the learning content information from the service server 103 in response to the result information, and the display unit 1023 displays the received learning content information to confirm the user.

이를 기반으로 사용자가 학습 컨텐츠 연결 여부를 선택하게 되는데, 인식부(1017)가 사용자의 선택에 의해 학습 컨텐츠 연결 여부를 인식한다(S421).Based on this, the user selects whether to connect the learning contents. The recognition unit 1017 recognizes whether the learning contents are connected by the user's selection (S421).

만약, 인식부(107)가 학습 컨텐츠에 연결하지 않는 것으로 인식한 경우, S415단계로 진행하고, 인식부(1017)가 학습 컨텐츠에 연결하는 것으로 인식한 경우, 송수신부(1011)가 해당 학습 컨텐츠에 대한 제공 요청을 서비스 서버(103)로 송신한다(S423). If the recognition unit 107 recognizes that the learning unit does not connect to the learning contents, the process proceeds to step S415. If the recognition unit 1017 recognizes that the learning unit connects to the learning contents, the transmission / To the service server 103 (S423).

이후, 송수신부(1011)가 그에 대한 응답으로 서비스 서버(103)로부터 해당 학습 컨텐츠를 수신하고, 구동부(1019)를 통해 학습을 진행한다(S425).Thereafter, the transmitting / receiving unit 1011 receives the learning content from the service server 103 in response thereto, and proceeds the learning through the driving unit 1019 (S425).

본 명세서와 도면에는 본 발명의 바람직한 실시예에 대하여 개시하였으며, 비록 특정 용어들이 사용되었으나, 이는 단지 본 발명의 기술 내용을 쉽게 설명하고 발명의 이해를 돕기 위한 일반적인 의미에서 사용된 것이지, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시예 외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형예들이 실시 가능하다는 것은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 자명한 것이다.Although the present invention has been described with reference to preferred embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It is not intended to limit the scope. It is to be understood by those skilled in the art that other modifications based on the technical idea of the present invention are possible in addition to the embodiments disclosed herein.

100: 언어 학습 시스템 101: 사용자 단말
103: 서비스 서버 105: 서비스 상점 서버
107: 학습 서버 1011: 송수신부
1013: 카메라부 1015: 오디오부
1017: 인식부 1019: 구동부
1021: 생성부 1023: 디스플레이부
1025: 저장부 1027: 제어부
100: Language learning system 101: User terminal
103: service server 105: service shop server
107: Learning server 1011: Transmitting /
1013: camera unit 1015: audio unit
1017: recognition unit 1019:
1021: Generation unit 1023: Display unit
1025: Storage unit 1027: Control unit

Claims (24)

언어 학습 시스템에 있어서,
구동 환경에 따라 서비스 데이터를 기반으로 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하여 3D(3 Dimension) 영상을 생성 및 디스플레이하고, 사용자로부터 입력되는 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 상기 3D 영상 내 가상의 객체와의 대화를 실행하며, 상기 실행된 대화에 대한 결과 정보를 생성하여 송신하고, 상기 결과 정보에 대한 응답으로 수신되는 학습 컨텐츠 정보를 이용하여 학습 컨텐츠를 실행하는 사용자 단말;
상기 서비스 데이터를 상기 사용자 단말로 송신하고, 상기 사용자 단말로부터 수신되는 결과 정보를 분석하며, 상기 분석 결과에 따라 학습 컨텐츠 정보를 생성하여 상기 사용자 단말로 송신하는 서비스 서버; 및
상기 사용자 단말로 학습 컨텐츠를 제공하는 학습 서버를 포함하며,
상기 구동 환경은 상기 사용자에 의해 설정되는 것을 특징으로 하는 언어 학습 시스템.
In a language learning system,
(3D) image by driving a service in either a first mode or a second mode based on service data according to a driving environment, recognizes input information input from a user, A user who executes the learning contents using the learning contents information received in response to the result information, and a user who executes the learning contents using the learning contents information received in response to the result information, Terminal;
A service server for transmitting the service data to the user terminal, analyzing result information received from the user terminal, generating learning content information according to the analysis result, and transmitting the information to the user terminal; And
And a learning server for providing learning contents to the user terminal,
Wherein the driving environment is set by the user.
제1항에 있어서,
상기 구동 환경은 상기 생성 및 디스플레이 되는 3D 영상의 배경이 되는 위치 정보를 포함하며,
상기 제1 모드 및 상기 제2 모드는 각각 증강현실 모드 및 가상현실 모드인 것을 특징으로 하는 언어 학습 시스템.
The method according to claim 1,
Wherein the driving environment includes position information as a background of the 3D image to be generated and displayed,
Wherein the first mode and the second mode are an augmented reality mode and a virtual reality mode, respectively.
제1항에 있어서,
상기 3D 영상은,
상기 위치 정보에 따라 미리 저장된 거리 및 적어도 하나 이상의 서비스 상점에 대한 3D 영상을 포함하는 것을 특징으로 하는 언어 학습 시스템.
The method according to claim 1,
In the 3D image,
And a 3D image of at least one service shop and a distance previously stored according to the location information.
제3항에 있어서,
상기 언어 학습 시스템은,
상기 적어도 하나 이상의 서비스 상점에 대한 혜택 정보를 상기 서비스 서버로 주기적 또는 요청에 의해 송신하는 적어도 하나 이상의 서비스 상점 서버를 더 포함하는 특징으로 하는 언어 학습 시스템.
The method of claim 3,
The language learning system includes:
Further comprising at least one service shop server transmitting the benefit information for the at least one service shop periodically or by request to the service server.
제4항에 있어서,
상기 서비스 데이터는,
상기 적어도 하나 이상의 서비스 상점에 대한 혜택 정보를 더 포함하는 것을 특징으로 하는 언어 학습 시스템.
5. The method of claim 4,
The service data includes:
Further comprising benefit information for the at least one service store.
제4항에 있어서,
상기 혜택 정보는,
할인 정보, 행사 정보 및 쿠폰 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 언어 학습 시스템.
5. The method of claim 4,
The benefit information includes:
Discount information, event information, and coupon information.
제1항에 있어서,
상기 사용자 단말은,
상기 학습 컨텐츠 정보에 포함된 링크 정보를 통해 상기 학습 서버로 접속되는 것을 특징으로 하는 언어 학습 시스템.
The method according to claim 1,
The user terminal comprises:
And is connected to the learning server via link information included in the learning content information.
제1항에 있어서,
상기 사용자와 상기 3D 영상 내 가상의 객체 간 대화를 실행하는 경우,
상기 사용자 단말은 상기 입력 정보에 대한 입력 제한 시간을 카운트 하는 것을 특징으로 하는 언어 학습 시스템.
The method according to claim 1,
When executing a dialog between the user and a virtual object in the 3D image,
Wherein the user terminal counts an input time limit for the input information.
제1항에 있어서,
상기 입력 정보는,
상기 사용자로부터 입력되는 음성, 터치, 움직임 및 시선 중 적어도 하나에 대한 정보인 것을 특징으로 하는 언어 학습 시스템.
The method according to claim 1,
The input information includes:
And information about at least one of a voice, a touch, a movement, and a gaze input from the user.
제2항에 있어서,
상기 사용자 단말은,
상기 제1 모드인 경우, 카메라를 통해 입력되는 실제 영상에 상기 서비스 데이터에 포함된 3D 영상 정보를 합성하여 3D 영상을 생성 및 디스플레이 하고,
상기 제2 모드인 경우, 상기 서비스 데이터에 포함된 3D 영상 정보를 기반으로 3D 영상을 생성 및 디스플레이 하는 것을 특징으로 하는 언어 학습 시스템.
3. The method of claim 2,
The user terminal comprises:
In the first mode, a 3D image is generated and displayed by combining 3D image information included in the service data with an actual image input through a camera,
And generates and displays a 3D image based on the 3D image information included in the service data when the second mode is selected.
언어 학습 방법에 있어서,
서비스 서버가 사용자 단말로부터 구동 환경에 대한 설정 정보를 수신하는 단계;
상기 서비스 서버가 상기 수신된 설정 정보에 대응하는 서비스 데이터를 상기 사용자 단말로 송신하는 단계;
상기 서비스서버가 상기 사용자 단말이 사용자로부터 입력되는 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 3D(3 Dimension) 영상 내 가상의 객체와의 대화를 실행하여 생성된 결과 정보를 상기 사용자 단말로부터 수신하는 단계; 및
상기 서비스 서버가 상기 수신된 결과 정보를 분석하고, 상기 분석 결과에 따라 학습 컨텐츠 정보를 생성하여 상기 사용자 단말로 송신하는 단계를 포함하고,
상기 사용자 단말은 상기 수신된 서비스 데이터를 기반으로 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하여 3D 영상을 생성 및 디스플레이 하도록 구성되고,
상기 사용자 단말은 상기 수신된 학습 컨텐츠 정보를 이용하여 학습 컨텐츠에 대한 제공을 학습 서버로 요청하여 상기 요청된 학습 컨텐츠를 제공받도록 구성되고,
상기 구동 환경은 상기 사용자에 의해 설정되는 것을 특징으로 하는 언어 학습 방법.
In a language learning method,
The service server receiving configuration information on a driving environment from a user terminal;
Transmitting, by the service server, service data corresponding to the received configuration information to the user terminal;
The service server recognizes the input information input from the user and performs a dialog with a virtual object in a 3D (3-Dimension) image based on the previously learned data to receive the generated result information from the user terminal ; And
Analyzing the received result information, generating learning content information according to the analysis result, and transmitting the generated learning content information to the user terminal,
Wherein the user terminal is configured to generate and display a 3D image by driving a service in either a first mode or a second mode based on the received service data,
Wherein the user terminal requests the learning server to provide learning contents using the received learning content information and receives the requested learning contents,
Wherein the driving environment is set by the user.
제11항에 있어서,
상기 구동 환경은 상기 생성 및 디스플레이 되는 3D 영상의 배경이 되는 위치 정보를 포함하며,
상기 제1 모드 및 상기 제2 모드는 각각 증강현실 모드 및 가상현실 모드인 것을 특징으로 하는 언어 학습 방법.
12. The method of claim 11,
Wherein the driving environment includes position information as a background of the 3D image to be generated and displayed,
Wherein the first mode and the second mode are an augmented reality mode and a virtual reality mode, respectively.
제11항에 있어서,
상기 3D 영상은,
상기 위치 정보에 따라 미리 저장된 거리 및 적어도 하나 이상의 서비스 상점에 대한 3D 영상을 포함하는 것을 특징으로 하는 언어 학습 방법.
12. The method of claim 11,
In the 3D image,
And a 3D image of at least one service shop and a distance previously stored according to the location information.
제13항에 있어서,
상기 언어 학습 방법은,
상기 서비스 서버는
적어도 하나 이상의 서비스 상점 서버로부터 상기 적어도 하나 이상의 서비스 상점에 대한 혜택 정보를 수신하는 단계를 더 포함하는 특징으로 하는 언어 학습 방법.
14. The method of claim 13,
The language learning method includes:
The service server
Further comprising receiving benefit information for the at least one service store from at least one service shop server.
제14항에 있어서,
상기 서비스 데이터는,
상기 적어도 하나 이상의 서비스 상점에 대한 혜택 정보를 포함하는 것을 특징으로 하는 언어 학습 방법.
15. The method of claim 14,
The service data includes:
And the benefit information for the at least one service shop.
제14항에 있어서,
상기 혜택 정보는,
할인 정보, 행사 정보 및 쿠폰 정보 중 적어도 하나를 포함하는 것을 특징으로 하는 언어 학습 방법.
15. The method of claim 14,
The benefit information includes:
Discount information, event information, and coupon information.
제11항에 있어서,
상기 학습 컨텐츠 정보는,
상기 학습 컨텐츠에 대한 링크 정보를 포함하는 것을 특징으로 하는 언어 학습 방법.
12. The method of claim 11,
The learning content information includes:
And link information for the learning contents.
제11항에 있어서,
상기 사용자와 상기 3D 영상 내 가상의 객체 간 대화를 실행하는 경우,
상기 입력 정보에 대한 입력 제한 시간이 카운트 되는 것을 특징으로 하는 언어 학습 방법.
12. The method of claim 11,
When executing a dialog between the user and a virtual object in the 3D image,
Wherein the input limit time for the input information is counted.
제11항에 있어서,
상기 입력 정보는,
상기 사용자로부터 입력되는 음성, 터치, 움직임 및 시선 중 적어도 하나에 대한 정보인 것을 특징으로 하는 언어 학습 방법.
12. The method of claim 11,
The input information includes:
And information about at least one of a voice, a touch, a movement, and a gaze input from the user.
제12항에 있어서,
상기 제1모드는, 상기 사용자 단말에 구비된 카메라를 통해 입력되는 실제 영상에 상기 서비스 데이터에 포함된 3D 영상 정보를 합성하여 3D 영상을 생성 및 디스플레이 하는 모드이고,
상기 제2 모드는, 상기 서비스 데이터에 포함된 3D 영상 정보를 기반으로 3D 영상을 생성 및 디스플레이 모드인 것을 특징으로 하는 언어 학습 방법.
13. The method of claim 12,
Wherein the first mode is a mode for generating and displaying a 3D image by synthesizing 3D image information included in the service data to an actual image input through a camera provided in the user terminal,
Wherein the second mode is a 3D image generation and display mode based on the 3D image information included in the service data.
언어 학습 장치에 있어서,
구동 환경에 대한 설정 정보, 서비스 구동에 대한 결과 정보 및 학습 컨텐츠에 대한 제공 요청을 송신하고, 상기 설정 정보에 대응하는 서비스 데이터, 학습 컨텐츠 정보 및 학습 컨텐츠를 수신하는 송수신부;
카메라를 통해 영상 정보를 입력하는 카메라부;
출력되는 오디오 신호를 스피커를 통해 재생하고, 마이크로부터 오디오 신호를 입력하는 오디오부;
사용자로부터 입력되는 음성, 터치, 움직임 및 시선 중 적어도 하나에 대한 입력 정보를 인식하는 인식부;
상기 구동 환경에 따라 제1 모드 및 제2 모드 중 어느 하나로 서비스를 구동하는 구동부;
상기 입력 정보 및 상기 서비스 데이터를 기반으로 3D(3 Dimension) 영상을 생성하는 생성부;
상기 생성된 3D 영상을 디스플레이 하는 디스플레이부;
상기 서비스 데이터 및 상기 미리 학습된 데이터를 저장하는 저장부; 및
상기 구동 환경에 따라 상기 제1 모드 및 상기 제2 모드 중 어느 하나로 서비스를 구동하여 3D 영상을 생성 및 디스플레이하고, 상기 입력 정보를 인식하여 미리 학습된 데이터를 기반으로 상기 3D 영상 내 가상의 객체와의 대화를 실행하며, 상기 실행된 대화에 대한 결과 정보를 생성하여 송신하고, 상기 결과 정보에 대한 응답으로 수신되는 학습 컨텐츠 정보를 이용하여 학습 컨텐츠를 실행하도록 제어하는 제어부를 포함하며,
상기 구동 환경은 상기 사용자에 의해 설정되는 것을 특징으로 하는 언어 학습 장치.
In a language learning apparatus,
A transmitting and receiving unit for transmitting setting information for a driving environment, result information for driving a service, and a providing request for learning contents, and receiving service data, learning content information, and learning contents corresponding to the setting information;
A camera unit for inputting image information through a camera;
An audio unit for reproducing an output audio signal through a speaker and inputting an audio signal from the microphone;
A recognition unit for recognizing input information for at least one of a voice, a touch, a movement, and a line of sight input from a user;
A driving unit for driving a service in one of a first mode and a second mode according to the driving environment;
A generating unit for generating a 3D (3D) image based on the input information and the service data;
A display unit for displaying the generated 3D image;
A storage unit for storing the service data and the pre-learned data; And
And generating and displaying a 3D image by driving a service in either the first mode or the second mode according to the driving environment, recognizing the input information, and recognizing the input information, And a control unit for generating and transmitting result information on the executed conversation and controlling execution of the learning content using the learning content information received in response to the result information,
Wherein the driving environment is set by the user.
제21항에 있어서,
상기 언어 학습 장치는,
상기 사용자와 상기 3D 영상 내 가상의 객체 간 대화를 실행하는 경우,
상기 입력 정보에 대한 입력 제한 시간을 카운트하는 타이머를 더 포함하는 것을 특징으로 하는 언어 학습 장치.
22. The method of claim 21,
The language learning apparatus comprising:
When executing a dialog between the user and a virtual object in the 3D image,
Further comprising a timer for counting an input time limit for the input information.
제21항에 있어서,
상기 구동 환경은 상기 생성 및 디스플레이 되는 3D 영상의 배경이 되는 위치 정보를 포함하며,
상기 제1 모드 및 상기 제2 모드는 각각 증강현실 모드 및 가상현실 모드인 것을 특징으로 하는 언어 학습 장치.
22. The method of claim 21,
Wherein the driving environment includes position information as a background of the 3D image to be generated and displayed,
Wherein the first mode and the second mode are an augmented reality mode and a virtual reality mode, respectively.
제23항에 있어서,
상기 생성부는,
상기 제1 모드인 경우, 상기 카메라부를 통해 입력되는 실제 영상에 상기 서비스 데이터에 포함된 3D 영상 정보를 합성하여 3D 영상을 생성하고,
상기 제2 모드인 경우, 상기 서비스 데이터에 포함된 3D 영상 정보를 기반으로 3D 영상을 생성하는 것을 특징으로 하는 언어 학습 장치.
24. The method of claim 23,
Wherein the generation unit comprises:
And generating 3D image by synthesizing 3D image information included in the service data with an actual image input through the camera unit in the first mode,
And generates a 3D image based on the 3D image information included in the service data when the second mode is selected.
KR1020170093631A 2017-07-24 2017-07-24 Method and apparatus for learning language, thereof system KR20190011095A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170093631A KR20190011095A (en) 2017-07-24 2017-07-24 Method and apparatus for learning language, thereof system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170093631A KR20190011095A (en) 2017-07-24 2017-07-24 Method and apparatus for learning language, thereof system

Publications (1)

Publication Number Publication Date
KR20190011095A true KR20190011095A (en) 2019-02-01

Family

ID=65367999

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170093631A KR20190011095A (en) 2017-07-24 2017-07-24 Method and apparatus for learning language, thereof system

Country Status (1)

Country Link
KR (1) KR20190011095A (en)

Similar Documents

Publication Publication Date Title
US9294607B2 (en) Headset computer (HSC) as auxiliary display with ASR and HT input
US20190339840A1 (en) Augmented reality device for rendering a list of apps or skills of artificial intelligence system and method of operating the same
CN113965807B (en) Message pushing method, device, terminal, server and storage medium
US10950240B2 (en) Information processing device and information processing method
EP3823292B1 (en) Electronic apparatus and control method thereof
WO2022057435A1 (en) Search-based question answering method, and storage medium
US11216245B2 (en) Electronic device and multitasking supporting method thereof
CN109426343B (en) Collaborative training method and system based on virtual reality
CN113289327A (en) Display control method and device of mobile terminal, storage medium and electronic equipment
CN111680232A (en) Page display method, device, equipment and storage medium
CN110377914B (en) Character recognition method, device and storage medium
KR20200128506A (en) Virtual reality education system and method for language training of disabled person
CN111554314A (en) Noise detection method, device, terminal and storage medium
CN111031555A (en) Online teaching control method and device, electronic equipment and medium
CN112231023A (en) Information display method, device, equipment and storage medium
KR20190011095A (en) Method and apparatus for learning language, thereof system
CN113031781A (en) Augmented reality resource display method and device, electronic equipment and storage medium
CN110209592B (en) Settlement test method and device
CN113051485A (en) Group searching method, device, terminal and storage medium
CN113204724A (en) Method and device for creating interactive information, electronic equipment and storage medium
KR102543656B1 (en) Screen controlling method and electronic device supporting the same
CN111182344B (en) Display interface control method and device, electronic equipment and medium
CN111367492A (en) Webpage display method and device and storage medium
CN111782050B (en) Image processing method and apparatus, storage medium, and electronic device
CN112269518B (en) Touch control method and device