KR20200077983A - An learning method, an electronic device and a computer-readable storage medium - Google Patents

An learning method, an electronic device and a computer-readable storage medium Download PDF

Info

Publication number
KR20200077983A
KR20200077983A KR1020180167436A KR20180167436A KR20200077983A KR 20200077983 A KR20200077983 A KR 20200077983A KR 1020180167436 A KR1020180167436 A KR 1020180167436A KR 20180167436 A KR20180167436 A KR 20180167436A KR 20200077983 A KR20200077983 A KR 20200077983A
Authority
KR
South Korea
Prior art keywords
video
user
hint message
time
self
Prior art date
Application number
KR1020180167436A
Other languages
Korean (ko)
Inventor
강희흔
Original Assignee
강희흔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 강희흔 filed Critical 강희흔
Priority to KR1020180167436A priority Critical patent/KR20200077983A/en
Publication of KR20200077983A publication Critical patent/KR20200077983A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • G06Q50/205Education administration or guidance
    • G06Q50/2057Career enhancement or continuing education service
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/30Transportation; Communications
    • G06Q50/50
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/06Electrically-operated educational appliances with both visual and audible presentation of the material to be studied

Abstract

Provided are a self-directed learning method, an electronic device, and a computer-readable storage medium. The self-directed learning method which is performed by the electronic device comprises the steps of: recognizing a designated motion provided by a user; after the recognizing step, providing a first hint message corresponding to a first video during a first time when the first video is called and loaded from an external server to allow the user to predict contents of the first video from the first hint message, wherein the first hint message is not stored in the external server; and playing the first video after the step of providing the first hint message.

Description

자기주도 학습 방법, 전자 장치 및 컴퓨터 판독 가능 저장 매체{An learning method, an electronic device and a computer-readable storage medium}Self-directed learning method, an electronic device and a computer-readable storage medium

본 발명은 자기주도 학습 방법, 전자 장치 및 컴퓨터 판독 가능 저장 매체에 관한 것이다.The present invention relates to a self-directed learning method, an electronic device and a computer-readable storage medium.

다양한 형태의 영어 학습 방법이 시도되고 있다. 전통적인 오프라인 상에서의 영어 학습 방법과 온라인상에서의 영어 학습 방법으로 구분할 수 있다. 일반적인 온라인 상에서의 영어 학습 방법으로는 특허공개공보 제 10-2010-43393 호, 특허등록공보 제10-1875447 호가 개시되어 있다. 기존의 온라인 상에서의 영어 학습 방법으로는, 사용자가 오랜시간동안 흥미를 가지고 영어 학습을 하기 어렵다.Various types of English learning methods are being tried. It can be divided into traditional offline learning method and online learning method. As a general online learning method, Patent Publication No. 10-2010-43393 and Patent Registration Publication No. 10-1875447 are disclosed. With the existing online English learning method, it is difficult for the user to learn English with interest for a long time.

본 발명이 해결하고자 하는 과제는, 사용자가 오랜시간 동안 흥미를 가지고 영어 학습에 전념할 수 있으며, 동영상 로딩 등으로 인해 발생할 수 있는 사용자의 지루함을 제거할 수 있는 자기주도 학습 방법을 제공하는 것이다. The problem to be solved by the present invention is to provide a self-directed learning method in which the user can focus on learning English with interest for a long time, and remove the user's boredom that may occur due to video loading.

본 발명이 해결하고자 하는 다른 과제는, 이러한 자기주도 학습 방법이 수행되는 전자 장치를 제공하는 것이다.Another problem to be solved by the present invention is to provide an electronic device in which such a self-directed learning method is performed.

본 발명이 해결하고자 하는 또 다른 과제는, 자기주도 학습 방법을 구현하기 위한 컴퓨터 프로그램의 인스트럭션들이 저장되는 컴퓨터 판독 가능 저장 매체를 제공하는 것이다. Another problem to be solved by the present invention is to provide a computer-readable storage medium in which instructions of a computer program for implementing a self-directed learning method are stored.

본 발명의 과제들은 이상에서 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems not mentioned will be clearly understood by those skilled in the art from the following description.

상기 과제를 달성하기 위한 본 발명의 자기주도 학습 방법의 일 면(aspect)은, 전자 장치에 의해 수행되는 자기주도 학습 방법에 있어서, 사용자로부터 제공된 지정 모션을 인식하는 단계; 상기 인식하는 단계 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공하여, 상기 제1 시간 동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 동영상의 내용을 미리 예상하도록 하고, 상기 제1 힌트 메시지는 상기 외부 서버에 저장되어 있지 않은 단계; 및 상기 제1 힌트 메시지를 제공하는 단계 후에, 상기 제1 동영상을 플레이하는 단계를 포함한다.An aspect of the self-directed learning method of the present invention for achieving the above object comprises: a self-directed learning method performed by an electronic device, comprising: recognizing a designated motion provided by a user; After the step of recognizing, a first hint message corresponding to the first video is provided during a first time of loading and loading a first video from an external server, so that the user receives the first video from the first hint message during the first time. Causing the contents of the first video to be predicted in advance, and the first hint message is not stored in the external server; And after the step of providing the first hint message, playing the first video.

상기 제1 동영상을 플레이한 후, 또는 상기 제1 동영상이 플레이되는 동안, 상기 사용자로부터 다시 제공된 상기 지정 모션을 인식하는 단계와, 상기 인식하는 단계 후에, 외부 서버로부터 상기 제1 동영상과 다른 제2 동영상을 호출하여 로딩하는 제2 시간 동안 상기 제2 동영상에 대응되는 제2 힌트 메시지를 제공하여, 상기 제2 시간 동안 상기 사용자가 상기 제2 힌트 메시지로부터 상기 제2 동영상의 내용을 미리 예상하도록 하고, 상기 제2 힌트 메시지는 상기 외부 서버에 저장되어 있지 않은 단계와, 상기 제2 힌트 메시지를 제공하는 단계 후에, 상기 제2 동영상을 플레이하는 단계를 더 포함한다.After the first video is played, or while the first video is being played, recognizing the designated motion provided from the user again, and after the recognizing step, a second different from the first video from the external server. Provide a second hint message corresponding to the second video during the second time of loading and loading the video, so that the user can predict the content of the second video from the second hint message in advance during the second time. , After the second hint message is not stored in the external server, and after the step of providing the second hint message, playing the second video.

학습 자료는 다수의 학습 카테고리로 분류되어 있고, 상기 제1 동영상은 상기 다수의 카테고리 중 제1 카테고리에서 선택되고, 상기 제2 동영상은 상기 다수의 카테고리 중 상기 제1 카테고리와 다른 제2 카테고리에서 선택될 수 있다.The learning material is classified into a plurality of learning categories, the first video is selected from a first category among the plurality of categories, and the second video is selected from a second category different from the first category among the plurality of categories. Can be.

상기 제1 힌트 메시지는 어플리케이션 내에 저장되거나, 상기 어플리케이션의 관리 서버 내에 저장될 수 있다.The first hint message may be stored in the application or may be stored in the management server of the application.

상기 제1 힌트 메시지는 상기 제1 동영상의 적어도 일부의 모국어 자막을 포함할 수 있다. The first hint message may include a native language subtitle of at least a part of the first video.

상기 외부 서버는 스트리밍 동영상 서버일 수 있다. The external server may be a streaming video server.

상기 지정 모션은 끌어내림(pull) 동작일 수 있다. The designated motion may be a pull operation.

상기 제1 동영상을 플레이한 후, 또는 상기 제1 동영상이 플레이되는 동안, 상기 사용자로부터 다시 제공된 상기 지정 모션을 인식하는 단계와, 상기 인식하는 단계 후에, 제3 시간 동안 제3 힌트 메시지를 제공하여, 상기 제3 시간 동안 상기 사용자가 상기 제3 힌트 메시지로부터 수행해야 할 동작을 미리 준비하도록 하는 단계를 더 포함할 수 있다. 상기 제3 힌트 메시지를 제공하는 단계에서, 상기 사용자는 상기 제3 힌트 메시지로부터 외국어 말하기를 준비하고, 상기 제3 힌트 메시지를 제공하는 단계 후에, 인공지능 또는 원어민의 질문을 사용자에게 제공하는 단계와, 상기 사용자로부터 상기 질문에 대한 답변을 제공받는 단계를 더 포함할 수 있다. After playing the first video, or while the first video is being played, recognizing the designated motion provided from the user again, and providing the third hint message for a third time after the recognizing step The method may further include preparing the user to perform an operation to be performed from the third hint message in advance during the third time. In the step of providing the third hint message, the user prepares to speak a foreign language from the third hint message, and after the step of providing the third hint message, providing the user with a question of artificial intelligence or a native speaker. And, it may further include the step of receiving an answer to the question from the user.

또는, 상기 제3 힌트 메시지를 제공하는 단계에서, 상기 사용자는 상기 제3 힌트 메시지로부터 문장 대화 모드를 준비하고, 상기 제3 힌트 메시지를 제공하는 단계 후에, 사용자는 인공지능 또는 원어민과 문장 대화를 진행하는 단계를 더 포함할 수 있다.Alternatively, in the step of providing the third hint message, the user prepares a sentence conversation mode from the third hint message, and after the step of providing the third hint message, the user makes a sentence conversation with an AI or a native speaker. It may further include the step of proceeding.

상기 제1 동영상을 플레이한 후, 또는 상기 제1 동영상이 플레이되는 동안, 상기 사용자로부터 다시 제공된 상기 지정 모션을 인식하는 단계와, 상기 인식하는 단계 후에, 제4 시간 동안 상기 제4 동영상에 대응되는 제4 힌트 메시지를 제공하여, 상기 제4 시간 동안 상기 사용자가 상기 제4 힌트 메시지로부터 상기 제4 동영상의 내용을 미리 예상하도록 하는 단계와, 상기 제4 힌트 메시지를 제공하는 단계 후에, 상기 제4 동영상을 플레이하는 단계를 더 포함할 수 있다. After playing the first video, or while the first video is being played, recognizing the designated motion provided again from the user, and after the recognizing step, corresponding to the fourth video for a fourth time Providing a fourth hint message to allow the user to predict in advance the content of the fourth video from the fourth hint message for the fourth time, and after the step of providing the fourth hint message, the fourth It may further include the step of playing the video.

상기 제4 동영상은 어플리케이션 내에 저장되거나, 상기 어플리케이션의 관리 서버 내에 저장될 수 있다. 상기 제4 시간은 상기 제1 시간과 동일한 시간일 수 있다. The fourth video may be stored in the application or may be stored in the management server of the application. The fourth time may be the same time as the first time.

상기 과제를 달성하기 위한 본 발명의 자기주도 학습 방법의 다른 면은, 전자 장치에 의해 수행되는 자기주도 학습 방법에 있어서, 사용자로부터 제공된 지정 모션을 입력받는 단계; 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법을 선택하는 단계; 상기 선택된 제1 방법에 따라 제1 학습 자료를 사용자에게 제공하는 단계; 상기 제1 학습 자료의 제공이 완료된 후 또는 상기 제1 학습 자료가 제공되는 동안, 사용자로부터 지정 모션을 재입력받는 단계; 재입력받은 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 상기 제1 방법과 다른 제2 방법을 선택하는 단계; 및 상기 선택된 제2 방법에 따라 제2 학습 자료를 사용자에게 제공하는 단계를 포함한다.Another aspect of the self-directed learning method of the present invention for achieving the above object is a self-directed learning method performed by an electronic device, the method comprising: receiving a designated motion provided by a user; Selecting a first method among a plurality of learning methods in response to a user's designated motion; Providing a first learning material to a user according to the selected first method; Re-inputting a designated motion from a user after the provision of the first learning material is completed or while the first learning material is provided; Selecting a second method different from the first method among a plurality of learning methods in response to a re-inputted user's designated motion; And providing the second learning material to the user according to the selected second method.

상기 제1 방법을 선택하는 단계와 상기 제1 학습 자료를 사용자에게 제공하는 단계 사이에, 상기 제1 학습 자료를 로딩하는 시간동안 사용자에게, 상기 제1 학습 자료에 대응되는 제1 힌트 메시지를 제공하여, 상기 로딩하는 시간동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 학습 자료의 내용을 미리 예상하도록 할 수 있다. Between the step of selecting the first method and the step of providing the first learning material to the user, a first hint message corresponding to the first learning material is provided to the user during the time of loading the first learning material Thus, during the loading time, the user can predict the content of the first learning material from the first hint message in advance.

상기 과제를 달성하기 위한 본 발명의 자기주도 학습 방법의 또 다른 면은, 전자 장치에 의해 수행되는 자기주도 학습 방법에 있어서, 사용자로부터 끌어내림 동작을 입력받는 단계; 상기 입력받는 단계 후에, 스트리밍 동영상 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 모국어 자막을 미리 제공하되, 상기 모국어 자막은 상기 스트리밍 동영상 서버에 저장되어 있지 않는 단계; 상기 모국어 자막을 디스플레이하는 단계 후에, 상기 제1 동영상을 디스플레이하는 단계를 포함할 수 있다. Another aspect of the self-directed learning method of the present invention for achieving the above object is a self-directed learning method performed by an electronic device, the method comprising: receiving a pull-down operation from a user; After receiving the input, providing a native language subtitle corresponding to the first video in advance during a first time of loading and loading a first video from a streaming video server, wherein the native language subtitle is not stored in the streaming video server ; After displaying the native language subtitles, a step of displaying the first video may be included.

상기 다른 과제를 달성하기 위한 본 발명의 몇몇 실시예에 따른 전자 장치는 통신 모듈; 디스플레이; 프로세서; 및 메모리를 포함하며, 상기 메모리는, 상기 프로세서가, 사용자로부터 제공된 지정 모션을 인식하고, 상기 인식하는 단계 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공하여, 상기 제1 시간 동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 동영상의 내용을 미리 예상하도록 하고, 상기 제1 힌트 메시지는 상기 외부 서버에 저장되어 있지 않고, 상기 제1 힌트 메시지를 제공하는 단계 후에, 상기 제1 동영상을 플레이하는, 인스트럭션들(instructions)을 저장한다.An electronic device according to some embodiments of the present invention for achieving the other object includes a communication module; display; Processor; And a memory, wherein the memory corresponds to the first video during a first time when the processor recognizes a designated motion provided by a user and after the step of recognizing, calls and loads a first video from an external server. The first hint message is provided to allow the user to predict the content of the first video from the first hint message in advance for the first time, and the first hint message is not stored in the external server. After the step of providing the first hint message, instructions to play the first video are stored.

상기 또 다른 과제를 달성하기 위한 본 발명의 몇몇 실시예에 따른 컴퓨터 판독 가능 저장 매체는 전술한 자기주도 학습 방법을 구현하기 위한 컴퓨터 프로그램의 인스트럭션들을 저장한다.A computer-readable storage medium according to some embodiments of the present invention for achieving the above another object stores instructions of a computer program for implementing the self-directed learning method described above.

기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Specific details of other embodiments are included in the detailed description and drawings.

도 1은 본 발명의 일 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다.
도 2는 본 발명의 일 실시예에 따른 자기주도 학습 방법이 적용되는 어플리케이션을 설명하기 위한 도면이다.
도 3 내지 도 6은 본 발명의 일 실시예에 따른 자기주도 학습 방법의 구체적인 학습 과정을 설명하기 위한 도면들이다.
도 7은 본 발명의 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다.
도 8 내지 도 10은 본 발명의 다른 실시예에 따른 자기주도 학습 방법의 구체적인 학습 과정을 설명하기 위한 도면들이다.
도 11은 본 발명의 또 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다.
도 12는 본 발명의 또 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다.
도 13은 본 발명의 몇몇 실시예에 따른 전자 장치를 설명하기 위한 블록도이다.
도 14는 본 발명의 몇몇 실시예에 따른 전자 장치가 사용되는 환경을 설명하기 위한 블록도이다.
1 is a flowchart illustrating a self-directed learning method according to an embodiment of the present invention.
2 is a view for explaining an application to which the self-directed learning method according to an embodiment of the present invention is applied.
3 to 6 are diagrams for explaining a specific learning process of the self-directed learning method according to an embodiment of the present invention.
7 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention.
8 to 10 are diagrams for explaining a specific learning process of the self-directed learning method according to another embodiment of the present invention.
11 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention.
12 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention.
13 is a block diagram illustrating an electronic device according to some embodiments of the present invention.
14 is a block diagram illustrating an environment in which an electronic device is used according to some embodiments of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the disclosure of the present invention to be complete, and common knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.

비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.Although the first, second, etc. are used to describe various elements, components and/or sections, it goes without saying that these elements, components and/or sections are not limited by these terms. These terms are only used to distinguish one element, component or section from another element, component or section. Accordingly, it goes without saying that the first element, the first component or the first section mentioned below may be the second element, the second component or the second section within the technical spirit of the present invention.

본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and/or "comprising" refers to the elements, steps, operations and/or elements mentioned above, the presence of one or more other components, steps, operations and/or elements. Or do not exclude additions.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless specifically defined.

이하, 첨부한 도면들을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are assigned the same reference numbers regardless of the reference numerals and overlapped therewith. The description will be omitted.

본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한", "~하는 능력을 가지는", "~하도록 변경된", "~하도록 만들어진", "~를 할 수 있는" 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.In this specification, "configured to (or configured) (configured to)", depending on the situation, for example, in hardware or software "suitable for", "having the ability to", "modified to It can be used interchangeably with ", "made to," "can do," or "designed to do." In some situations, the expression "device configured to" may mean that the device "can" with other devices or parts. For example, the phrase “processors configured (or set) to perform A, B, and C” means by executing a dedicated processor (eg, an embedded processor) to perform the operation, or one or more software programs stored in the memory device. , It may mean a general-purpose processor (eg, CPU or application processor) capable of performing the corresponding operations.

본 발명의 몇몇 실시예에 따른 자기주도 학습 방법은, 전자 장치에 의해 수행될 수 있다. 예를 들어, 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.The self-directed learning method according to some embodiments of the present invention may be performed by an electronic device. For example, electronic devices include, for example, smartphones, tablet PCs, mobile phones, video phones, e-book readers, desktop PCs, laptop PCs, netbook computers, workstations, servers, PDAs, and portable multimedia players (PMPs). , An MP3 player, a medical device, a camera, or a wearable device. Wearable devices are accessories (e.g. watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted devices (HMDs)), fabrics or clothing (e.g. electronic clothing), It may include at least one of a body-attached type (eg, a skin pad or a tattoo), or a bio-portable circuit In some embodiments, the electronic device may be, for example, a television, a digital video disk (DVD) player, Audio, refrigerator, air conditioner, cleaner, oven, microwave, washing machine, air cleaner, set-top box, home automation control panel, security control panel, media box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ) , A game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or at least one of an electronic picture frame.

다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. In another embodiment, the electronic device includes various medical devices (eg, various portable medical measurement devices (such as a blood glucose meter, heart rate monitor, blood pressure meter, or body temperature meter), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), camera, or ultrasound, etc., navigation device, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (E.g. navigational devices for ships, gyro compasses, etc.), avionics, security devices, head units for vehicles, robots for industrial or domestic use, drones, ATMs in financial institutions, point-of-sale at stores of sales), or Internet of Things devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.). According to some embodiments, the electronic device may be a furniture, building/structure or part of a vehicle, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, Gas, or radio wave measurement devices, etc.). In various embodiments, the electronic device may be flexible or a combination of two or more of the various devices described above. The electronic device according to the embodiment of the present document is not limited to the above-described devices. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (eg, an artificial intelligence electronic device).

도 1은 본 발명의 일 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 도 1의 자기주도 학습 방법은, 사용자가 전자 장치의 특정한 어플리케이션(application)을 실행시킨 후, 실행된 어플리케이션 상에서 구현되거나, 실행된 어플리케이션과 함께 구현되는 동작일 수 있다.  1 is a flowchart illustrating a self-directed learning method according to an embodiment of the present invention. The self-directed learning method of FIG. 1 may be an operation implemented after a user executes a specific application of the electronic device, or implemented on the executed application, or with the executed application.

도 1을 참조하면, 전자 장치는 사용자로부터 제공된 지정 모션(motion)을 인식한다(S10). 여기서 사용자의 지정 모션이 전자 장치에 입력되는 방식은 다양할 수 있다. 사용자는 전자 장치의 디스플레이에 손가락을 이용한 동작(예를 들어,  끌어내림(Pull), 끌어올림, 드래그(drag), 1회 이상의 연속적인 터치)을 할 수 있다. 또는, 사용자는 전자 장치의 카메라 앞에서 미리 지정된 동작(예를 들어, 손을 위에서 아래로 내림, 손을 아래에서 위로 올림, 머리를 끄덕이거나 흔드는 동작)을 할 수 있다. 또는, 사용자는 전자 장치의 마이크를 통해서, 지정된 명령어를 말할 수 있다. 또는, 사용자는 전자 장치의 센서에 센서가 인식가능한 동작(예를 들어, 촉각 센서인 경우, 촉각 센서에 손을 가볍게 터치하는 동작)을 할 수 있으나, 이에 한정되지 않는다.Referring to FIG. 1, the electronic device recognizes a designated motion provided from a user (S10). Here, the method in which the user's designated motion is input to the electronic device may vary. The user may perform a finger operation (eg, pull, pull, drag, one or more consecutive touches) on the display of the electronic device. Alternatively, the user may perform a predetermined operation in front of the camera of the electronic device (for example, a hand from top to bottom, a hand from bottom to top, a head nodding or waving). Alternatively, the user may speak a designated command through the microphone of the electronic device. Alternatively, the user may perform a sensor-recognizable operation (for example, in the case of a tactile sensor, a light touch of a hand on the tactile sensor) to the sensor of the electronic device, but is not limited thereto.

이어서, 전자 장치가 사용자의 지정 모션을 인식한 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공한다(S20). 제1 힌트 메시지가 제공된 후에(즉, 로딩에 필요한 제1 시간이 종료된 후에), 제1 동영상이 플레이 된다(S30).Subsequently, after the electronic device recognizes a user's designated motion, a first hint message corresponding to the first video is provided during a first time of loading and loading a first video from an external server (S20 ). After the first hint message is provided (that is, after the first time required for loading ends), the first video is played (S30).

여기서, 외부 서버는 실행되고 있는 상기 어플리케이션을 관리하는 서버가 아닌, 다른 관리자에 의해 관리되는 서버일 수 있다. 예를 들어, 외부 서버는 동영상을 스트리밍 방식으로 제공하는 서버(스트리밍 동영상 서버)일 수 있으며, 예를 들어, 유튜브(YouTube), 페이스북(Facebook), 삼성 VR(Samsung VR) 사이트를 제공하는 스트리밍 동영상 서버일 수 있으나, 이에 한정되지 않는다.Here, the external server may be a server managed by another administrator, not a server managing the application being executed. For example, the external server may be a server (streaming video server) that provides a video in a streaming manner, for example, streaming providing YouTube, Facebook, and Samsung VR sites. It may be a video server, but is not limited thereto.

외부 서버에서 제1 동영상을 호출하여 로딩하는 데에는, 로딩 시간이 필요하다. 일반적인 경우, 이러한 로딩 시간은 곧 사용자의 대기시간이 된다. 따라서, 대기시간이 길면, 사용자는 불만을 가지게 되고 실행중인 어플리케이션으로부터 이탈하게 된다. 그런데, 본 발명의 몇몇 실시예에 따른 자기주도 학습 방법에서는, 로딩 시간(제1 시간) 동안 재생될 제1 동영상에 대응되는 제1 힌트 메시지를 제공함으로써, 제1 시간 동안 사용자가 제1 힌트 메시지로부터 제1 동영상의 내용을 미리 예상하도록 한다.In order to load and load the first video from the external server, loading time is required. In the general case, this loading time is the user's waiting time. Therefore, if the waiting time is long, the user becomes dissatisfied and deviates from the running application. However, in the self-directed learning method according to some embodiments of the present invention, the user provides the first hint message for the first time by providing the first hint message corresponding to the first video to be played during the loading time (the first time). The contents of the first video are predicted in advance.

여기서, 제1 힌트 메시지는 외부 서버에 저장되어 있지 않다. 제1 힌트 메시지는 어플리케이션 내에 저장되어 있거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. 이에 따라, 제1 힌트 메시지의 로딩 시간은 거의 소요되지 않는다. 제1 힌트 메시지를 로딩하는 데 소요되는 시간은, 제1 동영상의 로딩 시간에 비해서 매우 짧을 수 있다. 이와 같이 제1 힌트 메시지의 로딩 시간을 짧게 만들기 위해서, 제1 힌트 메시지의 용량은 작으며, 예를 들어, 텍스트, 비교적 작은 캐릭터/도형, 비교적 짧은 소리/음성  등이 사용될 수 있다. Here, the first hint message is not stored in the external server. The first hint message may be stored in the application or may be stored in the management server of the application. Accordingly, the loading time of the first hint message is hardly required. The time taken to load the first hint message may be very short compared to the loading time of the first video. In order to shorten the loading time of the first hint message in this way, the capacity of the first hint message is small, for example, text, a relatively small character/shape, and a relatively short sound/voice sound may be used.

제1 힌트 메시지는 다양한 형태일 수 있다. 예를 들어, 제1 동영상은 교육 자료로 사용되기 위한 컨텐츠일 수 있다. 제1 동영상이 외국어가 포함된 경우, 실행되는 어플리케이션 내(즉, 전자 장치 내) 또는 실행되는 어플리케이션의 관리 서버 내에는 제1 동영상의 모국어 자막/외국어 자막이 저장되어 있을 수 있다(도 13의 메모리(240), 도 14의 어플리케이션 관리 서버(280) 참조). 이러한 경우, 제1 힌트 메시지는 제1 동영상의 적어도 일부의 모국어 자막일 수 있다. 또는 제1 힌트 메시지는 제1 동영상의 적어도 일부의 외국어 자막일 수 있다. 선택적으로, 제1 힌트 메시지가 외국어 자막일 경우, 보여지는 외국어 자막의 일부는 가려질 수 있다(쉐이딩(shading)된 상태임). The first hint message may have various forms. For example, the first video may be content for use as an educational material. When the first video includes a foreign language, the native language subtitle/foreign language subtitle of the first video may be stored in the execution application (ie, in the electronic device) or in the management server of the execution application (memory of FIG. 13) (240, see the application management server 280 of Figure 14). In this case, the first hint message may be subtitles of at least a part of the first video. Alternatively, the first hint message may be at least a part of a foreign language subtitle of the first video. Optionally, when the first hint message is a foreign language subtitle, a part of the foreign language subtitles to be shown may be obscured (in a shaded state).

로딩 시간(제1 시간) 동안, 사용자는 모국어 자막을 보면서 뒤에 플레이될 제1 동영상에서의 외국어 표현을 미리 예상/예측하게 된다. 예를 들어, 로딩 시간동안 제1 힌트 메시지로 “그곳 날씨는 어때요?”가 보여질 수 있다. 사용자는 “그곳 날씨는 어때요?”에 대응되는 영어 표현을 미리 예상해 본다. 로딩 시간이 종료되면, 외국인이 “How is the weather up there?” 라고 말하는 제1 동영상이 플레이된다. 사용자는 제1 동영상을 보면서 자신이 예상해 본 영어 표현이 맞았는지 틀렸는지를 확인해 본다.During the loading time (first time), the user predicts/predicts the foreign language expression in the first video to be played later while watching the native language subtitles. For example, during the loading time, the first hint message may show "How is the weather there?" The user predicts the English expression corresponding to "How is the weather there?" When the loading time ends, the foreigner says “How is the weather up there?” The first video saying "Play." The user checks whether the English expression he expected is correct or wrong while watching the first video.

또는, 제1 힌트 메시지는, 제1 동영상에서 진행될 내용을 직관적으로 나타내는 짧은 문구/문장, 작은 캐릭터/도형 등일 수 있다. 예를 들어, 제1 힌트 메시지로 “면접 상황”과 같은 문구가 사용되고 제1 동영상으로 “긴장된 상황에서 주인공이 입사 면접을 보는 영상”이 플레이될 수 있다. 또는 제1 힌트 메시지로 “즐거워하는 동물 캐릭터”가 사용되고, 제1 동영상으로 “주인공이 동물과 함께 즐겁게 산책하는 영상”이 플레이될 수 있다. 사용자는 직관적인 제1 동영상(짧은 문구/문장, 캐릭터, 도형)을 보면서 뒤에 플레이될 제1 동영상에서 나올 대화 내용을 미리 예측해 볼 수 있다. 이러한 예측은 사용자의 리스닝을 향상시킬 수 있으며, 사용자가 짧은 동영상에서 갑작스러운 외국인들의 대화를 더 쉽게 이해하는 데 도움을 준다. Alternatively, the first hint message may be a short phrase/sentence, a small character/figure, etc. that intuitively indicates the content to be performed in the first video. For example, a phrase such as “interview situation” may be used as the first hint message, and the “video in which the main character watches the job interview in a tense situation” may be played as the first video. Alternatively, “a fun animal character” is used as the first hint message, and a “video where the main character walks happily with the animal” can be played as the first video. The user can predict the content of the conversation from the first video to be played in advance while watching the intuitive first video (short phrase/sentence, character, figure). These predictions can improve the user's listening and help the user more easily understand the sudden foreign conversation in short videos.

이러한 방법을 통해서, 영상 로딩 시간은 유저의 지루한 대기시간이 아니라 학습을 도와주는 시간으로 전환된다.Through this method, the video loading time is converted into a time to help the learning, not a boring waiting time of the user.

한편, 본 발명의 일 실시예에 따른 자기주도 학습 방법에서, 사용자는 기설정된 지정 모션을 하면, 플레이되는 제1 동영상은 랜덤(random)하게 선택될 수 있다. 즉, 사용자는 어플리케이션을 실행한 후에, 어떠한 컨텐츠를 학습할지 선택할 필요가 없다. 일반적인 경우, 사용자는 영어학습 어플리케이션을 실행하면, 학습할 수 있는 컨텐츠가 적게는 수십여개, 많게는 수천여개가 디스플레이된다. 사용자는 이 중에서 어떤 컨텐츠를 선택해서 학습해야 할지 인지적 부담이 발생한다. 하지만, 본 발명의 일 실시예에 따른 자기주도 학습 방법에서, 사용자는 어플리케이션을 실행한 후 지정 모션만 반복적으로 수행하면 학습해야 할 여러가지 컨텐츠가 선택된다. 따라서, 사용자의 인지적 부담을 최소화할 수 있다.On the other hand, in the self-directed learning method according to an embodiment of the present invention, when a user performs a predetermined designated motion, the first video to be played may be randomly selected. That is, the user does not need to select what content to learn after running the application. In the general case, when the user runs the English learning application, dozens of contents that can be learned are displayed, and as many as thousands. The user has a cognitive burden on which content to choose from and learn. However, in the self-directed learning method according to an embodiment of the present invention, when a user repeatedly executes a designated motion after executing an application, various contents to be learned are selected. Therefore, it is possible to minimize the cognitive burden of the user.

또한, 이와 같은 랜덤성은, 사용자가 오랜시간동안 지루하지 않게 학습에 전념할 수 있도록 할 수 있다. In addition, such randomness can enable the user to concentrate on learning without being bored for a long time.

물론, 플레이되는 영상의 랜덤성은 조절될 수 있다. 즉, 실행되고 있는 어플리케이션의 모든 컨텐츠를 대상으로 랜덤하게 선택될 수도 있고, 사용자의 수준에 따라 적절하게 분류된 컨텐츠들 내에서만 랜덤하게 선택될 수 있다. 즉, 사용자의 영어 수준이 “레벨4”라면, “레벨4”에 대응되는 컨텐츠들 중에서만 선택될 수 있다. 또한, 사용자가 학습하고 싶은 것이 “여행용 영어” 라면, “여행용 영어”에 대응되는 컨텐츠들 중에서만 선택될 수 있다. Of course, the randomness of the played image can be adjusted. That is, it may be randomly selected for all contents of an application that is being executed, or may be randomly selected only within contents that are properly classified according to a user's level. That is, if the user's English level is "level 4", it can be selected only among contents corresponding to "level 4". In addition, if the user wants to learn “Travel English”, it can be selected only among contents corresponding to “Travel English”.

도 2는 본 발명의 일 실시예에 따른 자기주도 학습 방법이 적용되는 어플리케이션을 설명하기 위한 도면이다.2 is a view for explaining an application to which the self-directed learning method according to an embodiment of the present invention is applied.

도 2를 참조하면, 사용자는 어플리케이션 화면의 어느 곳이나 아래로 끌어내리는 동작(즉, 지정 모션)(310)을 수행하면, 도 1을 이용하여 설명한 것과 같이, 외부 서버(즉, 스트리밍 동영상 서버)로부터 제1 동영상이 호출/로딩되는 제1 시간 동안, 제1 동영상과 관련된 제1 힌트 메시지가 디스플레이된다. Referring to FIG. 2, when the user performs an operation of pulling down to any part of the application screen (that is, a designated motion) 310, as described with reference to FIG. 1, an external server (ie, a streaming video server) During the first time when the first video is called/loaded from, a first hint message related to the first video is displayed.

구체적으로 설명하면, 어플리케이션의 UI(User Interface)는 동영상 섹션(301)과 자막 섹션(302)을 포함한다. Specifically, the UI (User Interface) of the application includes a video section 301 and a subtitle section 302.

전술한 것과 같이, 동영상 섹션(301)에서 플레이되는 영상은, 스트리밍 동영상 서버에서 제공되는 영상일 수 있다. 어플리케이션에서는 스트리밍 동영상 서버에서 제공되는 영상 전체를 플레이하는 것이 아니고, 미리 설정된 일부분만을 플레이한다. 예를 들어, 영상 전체의 플레이 시간은 5분이지만, 영상을 짧은 시간 단위(예를 들어, 약 5초)의 다수의 부분 영상으로 나누고, 다수의 부분 영상 중 선택된 부분 영상을 플레이할 수 있다. 이와 같이 하는 이유는 다음과 같다. 사용자가 5분의 외국어 영상 전체를 학습하는 것은 부담이 될 수 있다. 또한, 사용자가 관심 없는 분야의 영상이라면, 사용자가 5분의 외국어 영상을 보는 것은 매우 지루한 일이 된다. 따라서, 사용자는 약 5초의 짧은 부분 영상만을 학습한다.As described above, the video played in the video section 301 may be an video provided by a streaming video server. In the application, the entire video provided by the streaming video server is not played, but only a predetermined portion is played. For example, although the play time of the entire image is 5 minutes, the image may be divided into a plurality of partial images in a short unit of time (for example, about 5 seconds), and a selected partial image among the plurality of partial images may be played. The reason for doing this is as follows. It can be a burden for the user to learn the entire 5 minutes of foreign language video. In addition, if the user is interested in a video in a field that is not of interest, it is very tedious for the user to watch a 5 minute foreign language video. Therefore, the user learns only a short partial image of about 5 seconds.

여기서, 동영상 섹션(301)의 일측에는 부분 영상과 관련된 전체 영상을 학습할 수 있도록 전체 영상 이동버튼(330)이 배치되어 있다. 이와 같이 함으로써, 사용자는 전체 영상 이동버튼(330)을 이용하여 관심있는 전체 영상만을 학습할 수 있다.Here, the entire image moving button 330 is arranged on one side of the video section 301 to learn the entire image related to the partial image. In this way, the user can learn only the entire image of interest using the entire image movement button 330.

또한, 동영상 섹션(301)의 타측에는 현재 플레이되는 영상의 제목 및/또는 썸네일(thumbnail)(350)이 배치될 수 있다. In addition, a title and/or a thumbnail 350 of the currently played image may be disposed on the other side of the video section 301.

동영상 섹션(301)에서 제1 동영상이 플레이되는 동안, 자막 섹션(302)에서는 제1 동영상과 관련된 외국어 자막(360)이 디스플레이된다.While the first video is played in the video section 301, the foreign language subtitle 360 related to the first video is displayed in the subtitle section 302.

여기서, 외국어 자막(360)의 적어도 일부분은 쉐이딩(shading)처리될 수 있다. 사용자가 동영상 섹션(301)의 어느 곳이라도 터치하면 쉐이딩 처리는 사라질 수 있다. 사용자는 외국어 자막(360) 전체를 바로 보지 않고, 제1 동영상을 들으면서 쉐이딩된 영역을 먼저 예측하게 된다. 이와 같이 함으로써, 사용자는 제1 힌트 메시지를 보면서 1차로 영어 문장 전체를 예측해 보고, 쉐이딩 처리된 외국어 자막(360)을 보면서 2차로 영어 문장의 일부를 예측해 볼 수 있다. 따라서, 사용자가 단계적으로 학습할 수 있도록 유도된다.Here, at least a portion of the foreign language subtitle 360 may be shaded. If the user touches anywhere in the video section 301, the shading process may disappear. The user does not see the entire foreign language subtitle 360 immediately, but first predicts the shaded area while listening to the first video. By doing this, the user can predict the entire English sentence first while looking at the first hint message, and predict the second part of the English sentence while looking at the shaded foreign subtitle 360. Therefore, the user is induced to learn step by step.

동영상 섹션(301)의 일측에는 스크랩 버튼(340)이 배치될 수 있다. 사용자가 스크랩 버튼(340)을 누르면, 제1 동영상이 포함된 대사를 스크랩할 수 있고, 이렇게 스크랩된 대사들만 모아서 재학습할 수 있다. 재학습 방법은 도 1을 이용하여 설명한 방식일 수 있다. A scrap button 340 may be disposed on one side of the video section 301. When the user presses the scrap button 340, the dialogue including the first video may be scrapped, and only the scrapped dialogues may be collected and re-learned. The re-learning method may be a method described using FIG. 1.

사용자는 제1 동영상에 대한 구체적인 해설이 필요한 경우, 자막 섹션(302) 아래의 해설 버튼(370)을 누를 수 있다. 해설 버튼(370)이 누르면, 오버레이 매트(overlay mat)(도 6의 372)가 펴지면서 제1 동영상의 표현에 대한 해설이 디스플레이된다. The user can press the commentary button 370 under the subtitle section 302 if a specific commentary on the first video is needed. When the commentary button 370 is pressed, an overlay mat (372 in FIG. 6) is opened and a commentary on the expression of the first video is displayed.

도 3 내지 도 6을 참조하여, 본 발명의 일 실시예에 따른 자기주도 학습 방법의 구체적인 학습 과정을 설명한다. 3 to 6, a specific learning process of the self-directed learning method according to an embodiment of the present invention will be described.

도 3을 참조하면, 처음 어플리케이션을 실행시키면, 제1 동영상이 로딩되기 전에 어플리케이션 내 또는 상기 어플리케이션의 관리 서버에 저장된 제1 힌트 메시지(320) (여기서는, 모국어 자막)이 사전 로딩된다.Referring to FIG. 3, when the first application is executed, a first hint message 320 (here, a native language subtitle) stored in the application or the management server of the application is preloaded before the first video is loaded.

제1 힌트 메시지(320)에 대한 집중도를 높이기 위해, 불투명의 어두운 오버레이 매트(329)가 제1 힌트 메시지(320)의 뒤에 배치될 수 있다. In order to increase the concentration of the first hint message 320, an opaque dark overlay mat 329 may be disposed behind the first hint message 320.

사용자는 제1 동영상이 호출/로딩되는 시간동안, 제1 힌트 메시지로부터 외국어(여기서는 영어)를 연상하는 연습을 하게 된다.During the time when the first video is called/loaded, the user practices reminiscent of a foreign language (here, English) from the first hint message.

이어서, 도 4를 참조하면, 제1 동영상이 로딩되면서, 오버레이 매트(329)가 밝아지거나 없어진다. 이에 따라 사용자는 제1 동영상이 로딩됨을 인지할 수 있게 된다. Subsequently, referring to FIG. 4, as the first video is loaded, the overlay mat 329 is brightened or disappeared. Accordingly, the user can recognize that the first video is loaded.

이어서, 로딩된 제1 동영상은 플레이된다. 약 5초의 짧은 제1 동영상은 플레이 및 자동반복될 수 있다. 사용자는 제1 힌트 메시지(320) 때문에 대략적인 제1동영상의 내용을 알고 있는 상태에서 제1 동영상을 시청하기 때문에, 제1 동영상의 원어민 대화를 더 쉽게 이해할 수 있다. Subsequently, the loaded first video is played. The short first video of about 5 seconds can be played and automatically looped. Since the user watches the first video while knowing the content of the first video roughly because of the first hint message 320, the native speaker conversation of the first video can be more easily understood.

이어서, 도 5를 참조하면, 사용자가 자막 섹션(302)을 터치하면, 쉐이딩된 부분이 사라지면서 외국어 자막(360) 전체를 알 수 있다.Subsequently, referring to FIG. 5, when the user touches the subtitle section 302, the shaded portion disappears and the entire foreign language subtitle 360 can be known.

이어서, 도 6을 참조하면, 사용자는 제1 동영상에 대한 구체적인 해설이 필요한 경우, 해설 버튼(370)을 누를 수 있다. 해설 버튼(370)이 누르면, 오버레이 매트(372)가 펴지면서 제1 동영상의 표현에 대한 해설이 디스플레이된다. Subsequently, referring to FIG. 6, when a specific commentary on the first video is required, the user may press the commentary button 370. When the commentary button 370 is pressed, the overlay mat 372 is opened, and a commentary on the expression of the first video is displayed.

도 7은 본 발명의 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 설명의 편의상, 도 1을 이용하여 설명한 것과 실질적으로 동일한 것은 생략하기로 한다.7 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention. For convenience of description, substantially the same as those described with reference to FIG. 1 will be omitted.

도 7을 참조하면, 전자 장치는 사용자로부터 제공된 지정 모션(motion)을 인식한다(S10). Referring to FIG. 7, the electronic device recognizes a designated motion provided from a user (S10).

이어서, 전자 장치가 사용자의 지정 모션을 인식한 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 제1 동영상에 대응되는 제1 힌트 메시지를 제공한다(S20). 제1 힌트 메시지가 제공된 후에(즉, 로딩에 필요한 제1 시간이 종료된 후에), 제1 동영상이 플레이 된다(S30).Subsequently, after the electronic device recognizes the user's designated motion, a first hint message corresponding to the first video is provided during a first time of loading and loading the first video from an external server (S20 ). After the first hint message is provided (that is, after the first time required for loading ends), the first video is played (S30).

이어서, 제1 동영상을 플레이한 후, 또는 제1 동영상이 플레이되는 동안, 전자 장치는 사용자로부터 다시 제공된 지정 모션을 인식한다(S40).Subsequently, after playing the first video or while the first video is being played, the electronic device recognizes the designated motion provided from the user again (S40 ).

이어서, 전자 장치가 사용자의 지정 모션을 인식한 후에, 외부 서버로부터 제1 동영상과 다른 제2 동영상을 호출하여 로딩하는 제2 시간 동안 제2 동영상에 대응되는 제2 힌트 메시지를 제공한다(S50). 제2 힌트 메시지가 제공된 후에(즉, 로딩에 필요한 제2 시간이 종료된 후에), 제2 동영상을 플레이된다(S60).Subsequently, after the electronic device recognizes the user's designated motion, a second hint message corresponding to the second video is provided during a second time of loading and loading a second video different from the first video from the external server (S50). . After the second hint message is provided (that is, after the second time required for loading ends), the second video is played (S60).

한편, 학습 자료는 다수의 학습 카테고리로 분류되어 있고, 제1 동영상은 다수의 카테고리 중 제1 카테고리에서 선택되고, 제2 동영상은 다수의 카테고리 중 제1 카테고리와 다른 제2 카테고리에서 선택된다. 이와 같이 제1 동영상과 제2 동영상을 다른 카테고리에서 선택하여 제공함으로서, 사용자로 하여금 지루하지 않도록 할 수 있다. 사용자가 지정모션(끌어내림)을 할 때마다 어떠한 힌트 메시지/동영상이 나타날지 모르게 함으로써, 사용자의 흥미를 극대화할 수 있다.Meanwhile, the learning material is classified into a plurality of learning categories, the first video is selected from the first category among the plurality of categories, and the second video is selected from the second category different from the first category among the plurality of categories. As described above, by providing the first video and the second video in different categories, the user can be prevented from being bored. The user's interest can be maximized by not knowing which hint message/video will appear each time the user performs a designated motion (pull).

제1 동영상, 제2 동영상은 외부 서버에서 제공될 수 있고, 외부 서버는 예를 들어, 유튜브(YouTube), 페이스북(Facebook), 삼성 VR(Samsung VR) 사이트를 제공하는 스트리밍 동영상 서버일 수 있으나, 이에 한정되지 않는다.The first video and the second video may be provided from an external server, and the external server may be, for example, a streaming video server providing YouTube, Facebook, and Samsung VR sites. , But is not limited to this.

제1 힌트 메시지처럼, 제2 힌트 메시지는 외부 서버에 저장되어 있지 않다. 제2 힌트 메시지는 어플리케이션 내에 저장되어 있거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. 따라서, 제2 힌트 메시지는 제2 동영상이 로딩되는 시간 동안에 제공되어, 사용자의 학습 효율을 높일 수 있다. 제2 힌트 메시지의 로딩 시간을 짧게 만들기 위해서, 제2 힌트 메시지의 용량은 작으며, 예를 들어, 텍스트, 비교적 작은 캐릭터/도형, 비교적 짧은 소리/음성  등이 사용될 수 있다. 제2 힌트 메시지는 제2 동영상의 적어도 일부의 모국어 자막일 수 있다. 또는 제2 힌트 메시지는 제2 동영상의 적어도 일부의 외국어 자막일 수 있다. 선택적으로, 제2 힌트 메시지가 외국어 자막일 경우, 보여지는 외국어 자막의 일부는 가려질 수 있다. 또는, 제2 힌트 메시지는, 제2 동영상에서 진행될 내용을 직관적으로 나타내는 짧은 문구/문장, 작은 캐릭터/도형 등일 수 있다. Like the first hint message, the second hint message is not stored in the external server. The second hint message may be stored in the application or may be stored in the management server of the application. Therefore, the second hint message is provided during the time when the second video is loaded, so that the user's learning efficiency can be improved. In order to shorten the loading time of the second hint message, the capacity of the second hint message is small, for example, text, a relatively small character/shape, and a relatively short sound/voice sound may be used. The second hint message may be subtitles of at least a part of the second video. Alternatively, the second hint message may be at least a part of foreign language subtitles of the second video. Optionally, when the second hint message is a foreign language subtitle, a part of the foreign language subtitles displayed may be obscured. Alternatively, the second hint message may be a short phrase/sentence, a small character/figure, etc. that intuitively indicates content to be performed in the second video.

학습 자료는 다수의 학습 카테고리로 분류되어 있고, 제1 동영상은 다수의 카테고리 중 제1 카테고리에서 선택되고, 제2 동영상은 다수의 카테고리 중 제1 카테고리와 다른 제2 카테고리에서 선택될 수 있다. The learning material is classified into a plurality of learning categories, the first video may be selected from the first category among the plurality of categories, and the second video may be selected from the second category different from the first category among the plurality of categories.

예를 들어, 제1 동영상과 제2 동영상은 다른 난이도일 수 있다. 제1 동영상의 난이도가 높다면(예를 들어, 미국식 현지 영어 수준의 영상), 제2 동영상의 난이도는 낮을 수 있다(예를 들어, 초보자가 익혀야 하는 기본 단어, 기본 문장 등이 느린 템포로 나오는 영상). For example, the first video and the second video may have different difficulty levels. If the difficulty level of the first video is high (for example, a video of American local English level), the difficulty level of the second video may be low (for example, basic words, basic sentences, etc. that beginners should learn at a slow tempo) video).

또는, 예를 들어, 제1 동영상과 제2 동영상은 다른 상황에서 사용되는 영어일 수 있다. 예를 들어, 제1 동영상은 여행용 영어 카테고리에서, 제2 동영상은 레스토랑 영어 카테고리에서 선택될 수 있다. 바로 연속되는 제1 동영상, 제2 동영상을 다른 카테고리에서 선택함으로써, 학습자의 컨텐츠에 대한 흥미를 높일 수 있다.Or, for example, the first video and the second video may be English used in different situations. For example, the first video may be selected from the travel English category, and the second video may be selected from the restaurant English category. By continuously selecting the first video and the second video from different categories, it is possible to increase interest in the learner's content.

도 8 내지 도 10을 참조하여, 본 발명의 다른 실시예에 따른 자기주도 학습 방법의 구체적인 학습 과정을 설명한다. 설명의 편의상, 이미 설명된 내용과 실질적으로 동일한 것은 생략하기로 한다.8 to 10, a specific learning process of the self-directed learning method according to another embodiment of the present invention will be described. For convenience of description, substantially the same contents as those already described will be omitted.

우선, 도 3 내지 도 6의 학습 과정을 따라서, 제1 힌트 메시지(320) 제공(도 3 참조), 제1 동영상 플레이(도 4)이 진행된다. First, along the learning process of FIGS. 3 to 6, the first hint message 320 is provided (see FIG. 3 ), and the first video play (FIG. 4) is performed.

제1 동영상을 플레이한 후, 또는 제1 동영상이 플레이되는 동안, 사용자로부터 다시 제공된 지정 모션(예를 들어, 끌어내림)을 인식한다.After the first video is played, or while the first video is being played, the designated motion (eg, pulled down) provided from the user is recognized again.

이어서, 도 8을 참조하면, 외부 서버로부터 제2 동영상을 호출하여 로딩하는 제2 시간 동안 제2 동영상에 대응되는 제2 힌트 메시지(321)를 제공한다(S20). 제2 힌트 메시지(321)는 사용자에게 직관적인 단어, 예를 들어, "영화평"일 수 있다. 도시된 것과 같이, 외국어 자막(361)의 적어도 일부는 쉐이딩 처리될 수 있다. Subsequently, referring to FIG. 8, a second hint message 321 corresponding to the second video is provided during a second time for loading and loading the second video from an external server (S20 ). The second hint message 321 may be an intuitive word to the user, for example, “movie review”. As illustrated, at least a part of the foreign language subtitle 361 may be shaded.

이어서, 도 9를 참조하면, 제2 동영상의 로딩이 완료되고, 제2 동영상은 플레이된다. 약 5초의 짧은 제2 동영상은 플레이 및 자동반복될 수 있다. 사용자는 제2 힌트 메시지(321) 때문에 대략적인 제2 동영상의 내용을 알고 있는 상태에서 제2 동영상을 시청하기 때문에, 제2 동영상의 원어민 대화를 더 쉽게 이해할 수 있다.Subsequently, referring to FIG. 9, loading of the second video is completed and the second video is played. The second short video of about 5 seconds can be played and automatically repeated. Because the user sees the second video while knowing the content of the second video roughly because of the second hint message 321, the conversation of the native speaker of the second video can be more easily understood.

이어서, 도 10을 참조하면, 사용자가 자막 섹션(302)을 터치하면, 쉐이딩된 부분이 사라지면서 외국어 자막(361) 전체를 알 수 있다. 또한, 사용자는 제2 동영상에 대한 구체적인 해설이 필요한 경우, 해설 버튼(370)을 누를 수 있다.Subsequently, referring to FIG. 10, when the user touches the subtitle section 302, the shaded portion disappears, and the entire foreign language subtitle 361 can be known. In addition, the user can press the comment button 370 when a specific comment on the second video is required.

도 11은 본 발명의 또 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 설명의 편의상, 도 1 및 도 2를 이용하여 설명한 것과 실질적으로 동일한 것은 생략하기로 한다.11 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention. For convenience of description, those substantially identical to those described with reference to FIGS. 1 and 2 will be omitted.

도 11을 참조하면, 사용자의 지정 모션을 인식한다(S110). 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법을 선택한다(S120). 선택된 제1 방법에 따라 제1 학습 자료를 사용자에게 제공한다(S130). 제1 학습 자료의 제공이 완료된 후 또는 제1 학습 자료가 제공되는 동안, 다시 사용자로부터 지정 모션을 재입력받아 이를 인식한다(S140). 재입력받은 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법과 다른 제2 방법을 선택한다(S150). 선택된 제2 방법에 따라 제2 학습 자료를 사용자에게 제공할 수 있다(S160). Referring to FIG. 11, a user's designated motion is recognized (S110). In response to a user's designated motion, a first method is selected from a plurality of learning methods (S120). According to the selected first method, the first learning material is provided to the user (S130). After the provision of the first learning material is completed or while the first learning material is provided, the designated motion is re-input from the user and recognized (S140). In response to the user's designated motion re-entered, a second method different from the first method is selected from the plurality of learning methods (S150). The second learning material may be provided to the user according to the selected second method (S160 ).

사용자의 지정 모션이 여러 번 계속될 때, 서로 다른 방식의 학습 방법이 랜덤하게 제공될 수도 있다. 학습 방법은 외국어 동영상 플레이, 외국인/인공지능과 외국어로 대화, 외국인/인공지능과 문장으로 대화 등을 포함할 수 있다. 예를 들어, 첫번째 지정 모션에 대해서는 외국어 동영상 플레이 모드, 두번째 지정 모션에 대해서는 외국어 대화 모드, 세번째 지정 모션에 대해서는 문장 대화 모드가 진행될 수 있다. When the user's designated motion continues several times, different types of learning methods may be randomly provided. Learning methods may include foreign language video play, foreign/artificial intelligence and conversation in foreign languages, and foreign/artificial intelligence and sentence conversation. For example, a foreign language video play mode for a first designated motion, a foreign language conversation mode for a second designated motion, and a sentence conversation mode for a third designated motion may be performed.

이와 같이 연속되어 제공되는 제1 학습방법, 제2 학습방법을 서로 다르게 함으로서, 사용자로 하여금 지루하지 않도록 할 수 있다. 사용자가 지정모션(끌어내림)을 할 때마다 어떠한 학습방법이 나타날지 모르게 함으로써, 사용자의 흥미를 극대화할 수 있다.In this way, the first learning method and the second learning method that are continuously provided are different from each other, so that the user is not bored. The user's interest can be maximized by not knowing what learning method will appear whenever the user performs a designated motion (pull).

도 12는 본 발명의 또 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 도 12는 도 11에서 설명된 자기주도 학습 방법의 구체적인 예이다.12 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention. 12 is a specific example of the self-directed learning method illustrated in FIG. 11.

도 12를 참조하면, 사용자의 지정 모션을 인식한다(S110). Referring to FIG. 12, a user's designated motion is recognized (S110).

이어서, 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법을 선택한다. 외국어 동영상 플레이 모드가 선택된다. 제1 시간동안 제1 동영상에 대응되는 제1 힌트 메시지를 제공한다(S121). Subsequently, in response to a user's designated motion, a first method is selected from among a plurality of learning methods. The foreign language video play mode is selected. During the first time, a first hint message corresponding to the first video is provided (S121).

이어서, 제1 동영상을 플레이한다(S131). Next, the first video is played (S131).

이어서, 제1 학습 자료의 제공이 완료된 후 또는 제1 학습 자료가 제공되는 동안, 다시 사용자로부터 지정 모션을 재입력받아 이를 인식한다(S140). Subsequently, after the provision of the first learning material is completed or while the first learning material is provided, the designated motion is re-entered from the user again to recognize it (S140).

이어서, 재입력받은 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법과 다른 제2 방법을 선택한다. 외국어 대화 또는 문장 대화가 선택된다. 제3 시간동안 수행해야 할 동작과 관련된 제3 힌트 메시지를 제공한다(S151). 예를 들어, "외국인과의 대화" 또는 "인공지능과의 문장 대화" 등의 제3 힌트 메시지가 제공될 수 있다. 또는 외국인/인공지능과 대화할 주제 또는 문장이 제3 힌트 메시지로 제공될 수도 있다. 이에 따라 사용자는 외국어 말하기를 준비하거나, 외국어 문장대화를 준비한다. Subsequently, in response to the user's designated motion re-entered, a second method different from the first method is selected from among a plurality of learning methods. Foreign language conversation or sentence conversation is selected. A third hint message related to an operation to be performed for a third time is provided (S151). For example, a third hint message such as "conversation with a foreigner" or "sentence conversation with an artificial intelligence" may be provided. Alternatively, a third hint message may be provided for a topic or sentence to communicate with a foreigner/artificial intelligence. Accordingly, the user prepares to speak a foreign language or prepares a sentence conversation in a foreign language.

이어서, 외국어 대화 모드 또는 문장 대화 모드가 시작된다(S161). Subsequently, a foreign language conversation mode or a sentence conversation mode is started (S161 ).

즉, 인공지능 또는 원어민의 질문을 사용자에게 제공하고, 사용자로부터 질문에 대한 답변을 제공받을 수 있다. That is, an artificial intelligence or a native speaker's question may be provided to the user, and an answer to the question may be provided from the user.

한편, 도 1 내지 도 12를 이용하여 설명할 때, 플레이되는 동영상은 외부 서버로부터 제공되는 경우로 설명하였으나, 이에 한정되지 않는다. 예를 들어, 플레이되는 몇몇 동영상은 어플리케이션에 저장되어 있거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. On the other hand, when described with reference to FIGS. 1 to 12, the video being played is described as being provided from an external server, but is not limited thereto. For example, some videos to be played may be stored in the application or may be stored in the management server of the application.

구체적으로, 도 1을 이용하여 설명한 것과 같이 외부 서버로부터 제공된 제1 동영상을 플레이한 후, 또는 제1 동영상이 플레이되는 동안, 사용자로부터 다시 지정 모션을 제공받는다. Specifically, as described with reference to FIG. 1, after playing the first video provided from the external server, or while the first video is being played, the designated motion is provided from the user again.

이어서, 제4 시간 동안 제4 동영상에 대응되는 제4 힌트 메시지를 제공하여, 제4 시간 동안 사용자가 제4 힌트 메시지로부터 제4 동영상의 내용을 미리 예상하도록 할 수 있다. 제4 힌트 메시지를 제공한 후에, 제4 동영상을 플레이할 수 있다. 제4 동영상은 어플리케이션 내에 저장되거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. 여기서, 제4 시간은 제1 동영상이 호출/로딩되던 시간(즉, 제1 시간)과 동일한 시간일 수 있다. 제1 시간만큼 제4 시간을 보장함으로써, 사용자가 어플리케이션 내에서 제공되는 동영상에 대해서도 미리 표현을 예측해 보는 시간을 가질 수 있다. Subsequently, a fourth hint message corresponding to the fourth video may be provided for a fourth time, so that the user can predict the content of the fourth video from the fourth hint message in advance for the fourth time. After providing the fourth hint message, the fourth video may be played. The fourth video may be stored in the application or may be stored in the management server of the application. Here, the fourth time may be the same time as when the first video was called/loaded (ie, the first time). By guaranteeing the fourth time as the first time, the user can have time to predict the expression in advance even for the video provided in the application.

도 13은 본 발명의 몇몇 실시예에 따른 전자 장치를 설명하기 위한 블록도이다. 도 14는 본 발명의 몇몇 실시예에 따른 전자 장치가 사용되는 환경을 설명하기 위한 블록도이다.13 is a block diagram illustrating an electronic device according to some embodiments of the present invention. 14 is a block diagram illustrating an environment in which an electronic device is used according to some embodiments of the present invention.

우선, 도 13을 참조하면, 본 발명의 몇몇 실시예에 따른 전자 장치는 디스플레이(210), 프로세서(220), 통신 모듈(230), 메모리(240), 버스(250), 입출력 인터페이스 등을 포함할 수 있다. First, referring to FIG. 13, an electronic device according to some embodiments of the present invention includes a display 210, a processor 220, a communication module 230, a memory 240, a bus 250, an input/output interface, etc. can do.

버스(250)에 의해서, 디스플레이(210), 프로세서(220), 통신 모듈(230), 메모리(240) 등의 다양한 구성요소가 서로 연결 및 통신(즉, 제어 메시지 전달 및 데이터 전달)할 수 있다. Various components, such as the display 210, the processor 220, the communication module 230, and the memory 240, may be connected and communicated with each other by the bus 250 (ie, control message transmission and data transmission). .

프로세서(220)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(220)는, 예를 들면, 전자 장치(260)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.The processor 220 may include one or more of a central processing unit, an application processor, or a communication processor (CP). The processor 220 may perform, for example, calculation or data processing related to control and/or communication of at least one other component of the electronic device 260.

디스플레이(210)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(210)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(210)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. The display 210 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display. It can contain. The display 210 may display various contents (eg, text, images, videos, icons, and/or symbols, etc.) to the user, for example. The display 210 may include a touch screen, and may receive a touch, gesture, proximity, or hovering input using, for example, an electronic pen or a user's body part.

메모리(240)는 휘발성 메모리(예를 들어, DRAM, SRAM, 또는 SDRAM) 및/또는 비휘발성 메모리(예를 들어, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, PRAM, RRAM, MRAM, 하드 드라이브, 또는 솔리드 스테이트 드라이브(SSD))를 포함할 수 있다. 메모리(240)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있다. 메모리(240)는, 예를 들면, 전자 장치(260)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 또한, 메모리(240)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. The memory 240 may include volatile memory (eg, DRAM, SRAM, or SDRAM) and/or nonvolatile memory (eg, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, Flash memory, PRAM, RRAM, MRAM, hard drive, or solid state drive (SSD). The memory 240 may include internal memory and/or external memory. The memory 240 may store, for example, commands or data related to at least one other component of the electronic device 260. Also, the memory 240 may store software and/or programs. The program may include, for example, a kernel, middleware, application programming interface (API), and/or application program (or "application"). At least a portion of the kernel, middleware, or API may be referred to as an operating system.

커널은, 예를 들면, 다른 프로그램들(예: 미들웨어, API, 또는 어플리케이션 프로그램)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(250), 프로세서(220), 또는 메모리(240) 등)을 제어 또는 관리할 수 있다. 또한, 커널은 미들웨어, API, 또는 어플리케이션 프로그램에서 전자 장치(260)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.The kernel, for example, system resources used to execute an operation or function implemented in other programs (eg, middleware, API, or application program) (eg, bus 250, processor 220, or) Memory 240, etc.). In addition, the kernel may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 260 in a middleware, API, or application program.

미들웨어는, 예를 들면, API 또는 어플리케이션 프로그램이 커널과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어는 어플리케이션 프로그램으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어는 어플리케이션 프로그램 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(250), 프로세서(220), 또는 메모리(240) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. The middleware may act as an intermediary so that, for example, an API or application program communicates with the kernel to exchange data. Also, the middleware may process one or more job requests received from the application program according to priority. For example, the middleware gives priority to using system resources (eg, the bus 250, the processor 220, or the memory 240) of the electronic device 101 to at least one of the application programs, The one or more work requests can be processed.

API는 어플리케이션이 커널 또는 미들웨어에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. The API is an interface for an application to control functions provided by the kernel or middleware, and includes at least one interface or function (eg, command) for file control, window control, image processing, or text control. can do.

한편, 메모리(240)는 도 1 내지 도 12를 이용하여 설명한 자기주도 학습 방법을 수행하기 위한 인스트럭션들(instructions)을 저장하고 있다. 예를 들어, 메모리(240)는 프로세서(220)가 사용자로부터 제공된 지정 모션을 인식하고, 상기 인식하는 단계 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공하여, 상기 제1 시간 동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 동영상의 내용을 미리 예상하도록 하고, 상기 제1 힌트 메시지는 상기 외부 서버에 저장되어 있지 않고, 상기 제1 힌트 메시지를 제공하는 단계 후에, 상기 제1 동영상을 플레이하는 인스트럭션들을 저장할 수 있다. Meanwhile, the memory 240 stores instructions for performing the self-directed learning method described with reference to FIGS. 1 to 12. For example, the memory 240 corresponds to the first video during the first time when the processor 220 recognizes the designated motion provided by the user and after the step of recognizing, calls and loads the first video from the external server. The first hint message is provided to allow the user to predict the content of the first video from the first hint message in advance for the first time, and the first hint message is not stored in the external server. After the step of providing the first hint message, instructions for playing the first video may be stored.

또는, 메모리(240)는 프로세서(220)가 사용자로부터 제공된 지정 모션을 입력받고, 사용자의 지정 모션에 응답하여 다수의 학습 방법 중 제1 방법을 선택하고, 상기 선택된 제1 방법에 따라 제1 학습 자료를 사용자에게 제공하고, 상기 제1 학습 자료의 제공이 완료된 후 또는 상기 제1 학습 자료가 제공되는 동안 사용자로부터 지정 모션을 재입력받고, 재입력받은 사용자의 지정 모션에 응답하여 다수의 학습 방법 중 상기 제1 방법과 다른 제2 방법을 선택하고, 상기 선택된 제2 방법에 따라 제2 학습 자료를 사용자에게 제공하는 인스트럭션들을 저장할 수 있다.Alternatively, the memory 240, the processor 220 receives the designated motion provided by the user, selects a first method among a plurality of learning methods in response to the user's designated motion, and performs first learning according to the selected first method A plurality of learning methods are provided in response to a designated motion of a user receiving a specified motion from a user after providing the data to a user, and after providing the first learning material or while the first learning material is provided, Among them, a second method different from the first method may be selected, and instructions for providing a second learning material to the user according to the selected second method may be stored.

또는, 메모리(240)는 프로세서(220)가 사용자로부터 끌어내림 동작을 입력받고, 상기 입력받는 단계 후에 스트리밍 동영상 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 모국어 자막을 미리 제공하고, 상기 모국어 자막을 디스플레이하는 단계 후에, 상기 제1 동영상을 디스플레이하는 인스트럭션들을 저장할 수 있다.Alternatively, the memory 240 is a native language corresponding to the first video during a first time when the processor 220 receives a pull-down operation from the user and calls and loads the first video from the streaming video server after the input step. After providing the subtitles in advance and displaying the native language subtitles, instructions for displaying the first video may be stored.

메모리(240)는 학습 자료들이 다수의 학습 카테고리로 분류되어 저장된다. 예를 들어, 수준별(level)로 구분되거나, 상황별로 구분되어 있을 수 있다. In the memory 240, learning materials are classified into a plurality of learning categories and stored. For example, it may be classified by level, or may be classified by situation.

또한, 메모리(240)는 외부 서버로부터 호출하는 동영상을 관리하기 위한 데이터도 저장하고 있다. 구체적으로, 메모리(240)는 동영상 스트리밍 서버(예를 들어, 유튜브 서버)에서의 동영상 제목, 고유ID, 전체동영상시간, 시작시간, 종류시간 등을 저장한다.In addition, the memory 240 also stores data for managing a video call from an external server. Specifically, the memory 240 stores a video title, a unique ID, a total video time, a start time, and a type time in a video streaming server (for example, a YouTube server).

또한, 동영상 스트리밍 서버에 저장되어 있는 동영상을 구간별로 나누어서(예를 들어, 10초 미만으로) 본원 발명의 제1 동영상/제2 동영상으로 플레이된다. 메모리(240)는 나뉘어진 구간별 정보도 포함한다. 즉, 메모리(240)는 해당 구간을 자기주도 학습 방법에 포함시킬지 여부, 해당 구간의 외국어 자막, 해당 구간의 모국어 자막, 해당 구간의 시작시간, 해당 구간의 종료시간, 해당 구간의 표현 해설을 포함한다. 뿐만 아니라, 해당 구간의 힌트 메시지, 해당 구간의 외국어 자막 중에서 쉐이딩되는 부분에 대한 정보도 포함할 수 있다.In addition, the video stored in the video streaming server is divided into sections (for example, less than 10 seconds) and played as the first video/second video of the present invention. The memory 240 also includes information for each section. That is, the memory 240 includes whether or not the section is included in the self-directed learning method, a subtitle in the foreign language of the section, a subtitle in the native language of the section, a start time of the section, an end time of the section, and an explanation of the expression of the section do. In addition, it may include a hint message of the section and information on a shaded part of the subtitles of the foreign language of the section.

프로세서(220)는 메모리(240)에 저장된 데이터를 기초로, 외부 서버로부터 구간별로 나누어진 해당 구간(제1 동영상)을 호출하고, 해당 구간(제1 동영상)이 로딩되는 동안 메모리(240)에 저장된 해당 구간의 힌트 메시지를 UI 상에 디스플레이하고, 해당 구간의 외국어 자막(적어도 일부를 쉐이딩함)을 디스플레이한다. Based on the data stored in the memory 240, the processor 220 calls the corresponding section (first video) divided by section from an external server, while the corresponding section (first video) is loaded into the memory 240 The stored hint message of the corresponding section is displayed on the UI, and a foreign language subtitle (at least partially shading) of the corresponding section is displayed.

도 13 및 도 14를 참조하면, 통신 모듈(230)은 전자 장치(260)가 네트워크(290)를 거쳐 외부 서버(도 14의 270) 또는 어플리케이션 관리 서버(280) 등과 통신할 수 있도록 한다.13 and 14, the communication module 230 allows the electronic device 260 to communicate with an external server (270 in FIG. 14) or the application management server 280 through the network 290.

네트워크(290)는 유선 및 무선 방식을 모두 포함한다. 특히, 무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 또는, 무선 통신은, WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 또는, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service), 컴퓨터 네트워크(예: LAN 또는 WAN) 등 중 적어도 하나를 포함할 수 있다. The network 290 includes both wired and wireless methods. In particular, wireless communication includes, for example, LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), Wireless Broadband (WiBro), or GSM Cellular communication using at least one of (Global System for Mobile Communications). Alternatively, wireless communication includes WiFi (wireless fidelity), LiFi (light fidelity), Bluetooth, Bluetooth low power (BLE), Zigbee, NFC (near field communication), magnetic secure transmission (Magnetic Secure Transmission), radio frequency ( RF), or at least one of a body area network (BAN). Or, the wireless communication may include GNSS. The GNSS may be, for example, a Global Positioning System (GPS), a Global Navigation Satellite System (Glonass), a Beidou Navigation Satellite System ("Beidou") or Galileo, the European global satellite-based navigation system. Wired communication includes, for example, universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard232 (RS-232), power line communication, or plain old telephone service (POTS), computer network (such as LAN or WAN) and the like.

어플리케이션 관리 서버(280)는 본 발명의 몇몇 실시예에 따른 자기주도 학습 방법이 구현된 어플리케이션을 관리하고 있는 서버로서, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 메일 서버 등 어플리케이션을 관리하기 위한 다양한 종류의 서버를 통칭하여 말한다. The application management server 280 is a server managing an application in which a self-directed learning method is implemented according to some embodiments of the present invention, and various types of applications for managing applications, such as a computing server, a database server, a file server, and a mail server. Server is collectively called.

외부 서버(270)는 전술한 것과 같이, 외부 관리자가 관리하는 서버로서, 예를 들어, 스트리밍 동영상 서버일 수 있으나, 이에 한정되지 않는다.As described above, the external server 270 is a server managed by an external administrator, and may be, for example, a streaming video server, but is not limited thereto.

본 명세서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(240))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(220))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.The term "module" as used herein includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. The "module" may be an integrally configured component or a minimum unit performing one or more functions or a part thereof. The "module" may be implemented mechanically or electronically, for example, an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs), known or to be developed in the future, performing certain operations, or It may include a programmable logic device. Instructions stored in a computer-readable storage medium (eg, memory 240) in the form of a program module, at least a portion of a device (eg, modules or functions thereof) or method (eg, operations) according to various embodiments Can be implemented as When the instruction is executed by a processor (for example, the processor 220), the processor may perform a function corresponding to the instruction. Computer-readable recording media include hard disks, floppy disks, magnetic media (eg magnetic tape), optical recording media (eg CD-ROM, DVD, magnetic-optical media (eg floptical disk), internal memory, etc. Instructions may include code generated by a compiler or code executable by an interpreter A module or program module according to various embodiments of the present disclosure may include at least one or more of the aforementioned components, or , Some may be omitted, or other components may be further included.According to various embodiments, operations performed by a module, a program module, or other components may be sequentially, parallelly, repeatedly, or heuristically executed, or at least. Some actions may be executed in a different order, omitted, or other actions may be added.

이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.Although the embodiments of the present invention have been described with reference to the above and the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand that there is. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명한다. 본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 게시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 게시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.
비록 제1, 제2 등이 다양한 소자, 구성요소 및/또는 섹션들을 서술하기 위해서 사용되나, 이들 소자, 구성요소 및/또는 섹션들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 소자, 구성요소 또는 섹션들을 다른 소자, 구성요소 또는 섹션들과 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 소자, 제1 구성요소 또는 제1 섹션은 본 발명의 기술적 사상 내에서 제2 소자, 제2 구성요소 또는 제2 섹션일 수도 있음은 물론이다.
본 명세서에서 사용된 용어는 실시예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소, 단계, 동작 및/또는 소자는 하나 이상의 다른 구성요소, 단계, 동작 및/또는 소자의 존재 또는 추가를 배제하지 않는다.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.
이하, 첨부한 도면들을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
본 명세서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 발명의 몇몇 실시예에 따른 자기주도 학습 방법은, 전자 장치에 의해 수행될 수 있다. 예를 들어, 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다. 
도 1은 본 발명의 일 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 도 1의 자기주도 학습 방법은, 사용자가 전자 장치의 특정한 어플리케이션(application)을 실행시킨 후, 실행된 어플리케이션 상에서 구현되거나, 실행된 어플리케이션과 함께 구현되는 동작일 수 있다.  
도 1을 참조하면, 전자 장치는 사용자로부터 제공된 지정 모션(motion)을 인식한다(S10). 여기서 사용자의 지정 모션이 전자 장치에 입력되는 방식은 다양할 수 있다. 사용자는 전자 장치의 디스플레이에 손가락을 이용한 동작(예를 들어,  끌어내림(Pull), 끌어올림, 드래그(drag), 1회 이상의 연속적인 터치)을 할 수 있다. 또는, 사용자는 전자 장치의 카메라 앞에서 미리 지정된 동작(예를 들어, 손을 위에서 아래로 내림, 손을 아래에서 위로 올림, 머리를 끄덕이거나 흔드는 동작)을 할 수 있다. 또는, 사용자는 전자 장치의 마이크를 통해서, 지정된 명령어를 말할 수 있다. 또는, 사용자는 전자 장치의 센서에 센서가 인식가능한 동작(예를 들어, 촉각 센서인 경우, 촉각 센서에 손을 가볍게 터치하는 동작)을 할 수 있으나, 이에 한정되지 않는다.
이어서, 전자 장치가 사용자의 지정 모션을 인식한 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공한다(S20). 제1 힌트 메시지가 제공된 후에(즉, 로딩에 필요한 제1 시간이 종료된 후에), 제1 동영상이 플레이 된다(S30).
여기서, 외부 서버는 실행되고 있는 상기 어플리케이션을 관리하는 서버가 아닌, 다른 관리자에 의해 관리되는 서버일 수 있다. 예를 들어, 외부 서버는 동영상을 스트리밍 방식으로 제공하는 서버(스트리밍 동영상 서버)일 수 있으며, 예를 들어, 유튜브(YouTube), 페이스북(Facebook), 삼성 VR(Samsung VR) 사이트를 제공하는 스트리밍 동영상 서버일 수 있으나, 이에 한정되지 않는다.
외부 서버에서 제1 동영상을 호출하여 로딩하는 데에는, 로딩 시간이 필요하다. 일반적인 경우, 이러한 로딩 시간은 곧 사용자의 대기시간이 된다. 따라서, 대기시간이 길면, 사용자는 불만을 가지게 되고 실행중인 어플리케이션으로부터 이탈하게 된다. 그런데, 본 발명의 몇몇 실시예에 따른 자기주도 학습 방법에서는, 로딩 시간(제1 시간) 동안 재생될 제1 동영상에 대응되는 제1 힌트 메시지를 제공함으로써, 제1 시간 동안 사용자가 제1 힌트 메시지로부터 제1 동영상의 내용을 미리 예상하도록 한다.
여기서, 제1 힌트 메시지는 외부 서버에 저장되어 있지 않다. 제1 힌트 메시지는 어플리케이션 내에 저장되어 있거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. 이에 따라, 제1 힌트 메시지의 로딩 시간은 거의 소요되지 않는다. 제1 힌트 메시지를 로딩하는 데 소요되는 시간은, 제1 동영상의 로딩 시간에 비해서 매우 짧을 수 있다. 이와 같이 제1 힌트 메시지의 로딩 시간을 짧게 만들기 위해서, 제1 힌트 메시지의 용량은 작으며, 예를 들어, 텍스트, 비교적 작은 캐릭터/도형, 비교적 짧은 소리/음성  등이 사용될 수 있다.
제1 힌트 메시지는 다양한 형태일 수 있다. 예를 들어, 제1 동영상은 교육 자료로 사용되기 위한 컨텐츠일 수 있다. 제1 동영상이 외국어가 포함된 경우, 실행되는 어플리케이션 내(즉, 전자 장치 내) 또는 실행되는 어플리케이션의 관리 서버 내에는 제1 동영상의 모국어 자막/외국어 자막이 저장되어 있을 수 있다(도 13의 메모리(240), 도 14의 어플리케이션 관리 서버(280) 참조). 이러한 경우, 제1 힌트 메시지는 제1 동영상의 적어도 일부의 모국어 자막일 수 있다. 또는 제1 힌트 메시지는 제1 동영상의 적어도 일부의 외국어 자막일 수 있다. 선택적으로, 제1 힌트 메시지가 외국어 자막일 경우, 보여지는 외국어 자막의 일부는 가려질 수 있다(쉐이딩(shading)된 상태임).
로딩 시간(제1 시간) 동안, 사용자는 모국어 자막을 보면서 뒤에 플레이될 제1 동영상에서의 외국어 표현을 미리 예상/예측하게 된다. 예를 들어, 로딩 시간동안 제1 힌트 메시지로 “그곳 날씨는 어때요?”가 보여질 수 있다. 사용자는 “그곳 날씨는 어때요?”에 대응되는 영어 표현을 미리 예상해 본다. 로딩 시간이 종료되면, 외국인이 “How is the weather up there?” 라고 말하는 제1 동영상이 플레이된다. 사용자는 제1 동영상을 보면서 자신이 예상해 본 영어 표현이 맞았는지 틀렸는지를 확인해 본다.
또는, 제1 힌트 메시지는, 제1 동영상에서 진행될 내용을 직관적으로 나타내는 짧은 문구/문장, 작은 캐릭터/도형 등일 수 있다. 예를 들어, 제1 힌트 메시지로 “면접 상황”과 같은 문구가 사용되고 제1 동영상으로 “긴장된 상황에서 주인공이 입사 면접을 보는 영상”이 플레이될 수 있다. 또는 제1 힌트 메시지로 “즐거워하는 동물 캐릭터”가 사용되고, 제1 동영상으로 “주인공이 동물과 함께 즐겁게 산책하는 영상”이 플레이될 수 있다. 사용자는 직관적인 제1 동영상(짧은 문구/문장, 캐릭터, 도형)을 보면서 뒤에 플레이될 제1 동영상에서 나올 대화 내용을 미리 예측해 볼 수 있다. 이러한 예측은 사용자의 리스닝을 향상시킬 수 있으며, 사용자가 짧은 동영상에서 갑작스러운 외국인들의 대화를 더 쉽게 이해하는 데 도움을 준다.
이러한 방법을 통해서, 영상 로딩 시간은 유저의 지루한 대기시간이 아니라 학습을 도와주는 시간으로 전환된다.
한편, 본 발명의 일 실시예에 따른 자기주도 학습 방법에서, 사용자는 기설정된 지정 모션을 하면, 플레이되는 제1 동영상은 랜덤(random)하게 선택될 수 있다. 즉, 사용자는 어플리케이션을 실행한 후에, 어떠한 컨텐츠를 학습할지 선택할 필요가 없다. 일반적인 경우, 사용자는 영어학습 어플리케이션을 실행하면, 학습할 수 있는 컨텐츠가 적게는 수십여개, 많게는 수천여개가 디스플레이된다. 사용자는 이 중에서 어떤 컨텐츠를 선택해서 학습해야 할지 인지적 부담이 발생한다. 하지만, 본 발명의 일 실시예에 따른 자기주도 학습 방법에서, 사용자는 어플리케이션을 실행한 후 지정 모션만 반복적으로 수행하면 학습해야 할 여러가지 컨텐츠가 선택된다. 따라서, 사용자의 인지적 부담을 최소화할 수 있다.
또한, 이와 같은 랜덤성은, 사용자가 오랜시간동안 지루하지 않게 학습에 전념할 수 있도록 할 수 있다.
물론, 플레이되는 영상의 랜덤성은 조절될 수 있다. 즉, 실행되고 있는 어플리케이션의 모든 컨텐츠를 대상으로 랜덤하게 선택될 수도 있고, 사용자의 수준에 따라 적절하게 분류된 컨텐츠들 내에서만 랜덤하게 선택될 수 있다. 즉, 사용자의 영어 수준이 “레벨4”라면, “레벨4”에 대응되는 컨텐츠들 중에서만 선택될 수 있다. 또한, 사용자가 학습하고 싶은 것이 “여행용 영어” 이라면, “여행용 영어”에 대응되는 컨텐츠들 중에서만 선택될 수 있다.
도 2는 본 발명의 일 실시예에 따른 자기주도 학습 방법이 적용되는 어플리케이션을 설명하기 위한 도면이다.
도 2를 참조하면, 사용자는 어플리케이션 화면의 어느 곳이나 아래로 끌어내리는 동작(즉, 지정 모션)(310)을 수행하면, 도1을 이용하여 설명한 것과 같이, 외부 서버(즉, 스트리밍 동영상 서버)로부터 제1 동영상이 호출/로딩되는 제1 시간 동안, 제1 동영상과 관련된 제1 힌트 메시지가 디스플레이된다.
구체적으로 설명하면, 어플리케이션의 UI(User Interface)는 동영상 섹션(301)과 자막 섹션(302)을 포함한다.
전술한 것과 같이, 동영상 섹션(301)에서 플레이되는 영상은, 스트리밍 동영상 서버에서 제공되는 영상일 수 있다. 어플리케이션에서는 스트리밍 동영상 서버에서 제공되는 영상 전체를 플레이하는 것이 아니고, 미리 설정된 일부분만을 플레이한다. 예를 들어, 영상 전체의 플레이 시간은 5분이지만, 영상을 짧은 시간 단위(예를 들어, 약 5초)의 다수의 부분 영상으로 나누고, 다수의 부분 영상 중 선택된 부분 영상을 플레이할 수 있다. 이와 같이 하는 이유는 다음과 같다. 사용자가 5분의 외국어 영상 전체를 학습하는 것은 부담이 될 수 있다. 또한, 사용자가 관심 없는 분야의 영상이라면, 사용자가 5분의 외국어 영상을 보는 것은 매우 지루한 일이 된다. 따라서, 사용자는 약 5초의 짧은 부분 영상만을 학습한다.
여기서, 동영상 섹션(301)의 일측에는 부분 영상과 관련된 전체 영상을 학습할 수 있도록 전체 영상 이동버튼(330)이 배치되어 있다. 이와 같이 함으로써, 사용자는 전체 영상 이동버튼(330)을 이용하여 관심있는 전체 영상만을 학습할 수 있다.
또한, 동영상 섹션(301)의 타측에는 현재 플레이되는 영상의 제목 및/또는 썸네일(thumbnail)(350)이 배치될 수 있다.
동영상 섹션(301)에서 제1 동영상이 플레이되는 동안, 자막 섹션(302)에서는 제1 동영상과 관련된 외국어 자막(360)이 디스플레이된다.
여기서, 외국어 자막(360)의 적어도 일부분은 쉐이딩(shading)처리될 수 있다. 사용자가 동영상 섹션(301)의 어느 곳이라도 터치하면 쉐이딩 처리는 사라질 수 있다. 사용자는 외국어 자막(360) 전체를 바로 보지 않고, 제1 동영상을 들으면서 쉐이딩된 영역을 먼저 예측하게 된다. 이와 같이 함으로써, 사용자는 제1 힌트 메시지를 보면서 1차로 영어 문장 전체를 예측해 보고, 쉐이딩 처리된 외국어 자막(360)을 보면서 2차로 영어 문장의 일부를 예측해 볼 수 있다. 따라서, 사용자가 단계적으로 학습할 수 있도록 유도된다.
동영상 섹션(301)의 일측에는 스크랩 버튼(340)이 배치될 수 있다. 사용자가 스크랩 버튼(340)을 누르면, 제1 동영상이 포함된 대사를 스크랩할 수 있고, 이렇게 스크랩된 대사들만 모아서 재학습할 수 있다. 재학습 방법은 도 1을 이용하여 설명한 방식일 수 있다.
사용자는 제1 동영상에 대한 구체적인 해설이 필요한 경우, 자막 섹션(302) 아래의 해설 버튼(370)을 누를 수 있다. 해설 버튼(370)이 누르면, 오버레이 매트(overlay mat)(도 6의 372)가 펴지면서 제1 동영상의 표현에 대한 해설이 디스플레이된다.
도 3 내지 도 6을 참조하여, 본 발명의 일 실시예에 따른 자기주도 학습 방법의 구체적인 학습 과정을 설명한다.
도 3을 참조하면, 처음 어플리케이션을 실행시키면, 제1 동영상이 로딩되기 전에 어플리케이션 내 또는 상기 어플리케이션의 관리 서버에 저장된 제1 힌트 메시지(320) (여기서는, 모국어 자막)이 사전 로딩된다.
제1 힌트 메시지(320)에 대한 집중도를 높이기 위해, 불투명의 어두운 오버레이 매트(329)가 제1 힌트 메시지(320)의 뒤에 배치될 수 있다.
사용자는 제1 동영상이 호출/로딩되는 시간동안, 제1 힌트 메시지로부터 외국어(여기서는 영어)를 연상하는 연습을 하게 된다.
이어서, 도 4를 참조하면, 제1 동영상이 로딩되면서, 오버레이 매트(329)가 밝아지거나 없어진다. 이에 따라 사용자는 제1 동영상이 로딩됨을 인지할 수 있게 된다.
이어서, 로딩된 제1 동영상은 플레이된다. 약 5초의 짧은 제1 동영상은 플레이 및 자동반복될 수 있다. 사용자는 제1 힌트 메시지(320) 때문에 대략적인 제1동영상의 내용을 알고 있는 상태에서 제1 동영상을 시청하기 때문에, 제1 동영상의 원어민 대화를 더 쉽게 이해할 수 있다.
이어서, 도 5를 참조하면, 사용자가 자막 섹션(302)을 터치하면, 쉐이딩된 부분이 사라지면서 외국어 자막(360) 전체를 알 수 있다.
이어서, 도 6을 참조하면, 사용자는 제1 동영상에 대한 구체적인 해설이 필요한 경우, 해설 버튼(370)을 누를 수 있다. 해설 버튼(370)이 누르면, 오버레이 매트(372)가 펴지면서 제1 동영상의 표현에 대한 해설이 디스플레이된다.
도 7은 본 발명의 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 설명의 편의상, 도 1을 이용하여 설명한 것과 실질적으로 동일한 것은 생략하기로 한다.
도 7을 참조하면, 전자 장치는 사용자로부터 제공된 지정 모션(motion)을 인식한다(S10).
이어서, 전자 장치가 사용자의 지정 모션을 인식한 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 제1 동영상에 대응되는 제1 힌트 메시지를 제공한다(S20). 제1 힌트 메시지가 제공된 후에(즉, 로딩에 필요한 제1 시간이 종료된 후에), 제1 동영상이 플레이 된다(S30).
이어서, 제1 동영상을 플레이한 후, 또는 제1 동영상이 플레이되는 동안, 전자 장치는 사용자로부터 다시 제공된 지정 모션을 인식한다(S40).
이어서, 전자 장치가 사용자의 지정 모션을 인식한 후에, 외부 서버로부터 제1 동영상과 다른 제2 동영상을 호출하여 로딩하는 제2 시간 동안 제2 동영상에 대응되는 제2 힌트 메시지를 제공한다(S50). 제2 힌트 메시지가 제공된 후에(즉, 로딩에 필요한 제2 시간이 종료된 후에), 제2 동영상을 플레이된다(S60).
한편, 학습 자료는 다수의 학습 카테고리로 분류되어 있고, 제1 동영상은 다수의 카테고리 중 제1 카테고리에서 선택되고, 제2 동영상은 다수의 카테고리 중 제1 카테고리와 다른 제2 카테고리에서 선택된다. 이와 같이 제1 동영상과 제2 동영상을 다른 카테고리에서 선택하여 제공함으로서, 사용자로 하여금 지루하지 않도록 할 수 있다. 사용자가 지정모션(끌어내림)을 할 때마다 어떠한 힌트 메시지/동영상이 나타날지 모르게 함으로써, 사용자의 흥미를 극대화할 수 있다.
제1 동영상, 제2 동영상은 외부 서버에서 제공될 수 있고, 외부 서버는 예를 들어, 유튜브(YouTube), 페이스북(Facebook), 삼성 VR(Samsung VR) 사이트를 제공하는 스트리밍 동영상 서버일 수 있으나, 이에 한정되지 않는다.
제1 힌트 메시지처럼, 제2 힌트 메시지는 외부 서버에 저장되어 있지 않다. 제2 힌트 메시지는 어플리케이션 내에 저장되어 있거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. 따라서, 제2 힌트 메시지는 제2 동영상이 로딩되는 시간 동안에 제공되어, 사용자의 학습 효율을 높일 수 있다. 제2 힌트 메시지의 로딩 시간을 짧게 만들기 위해서, 제2 힌트 메시지의 용량은 작으며, 예를 들어, 텍스트, 비교적 작은 캐릭터/도형, 비교적 짧은 소리/음성  등이 사용될 수 있다. 제2 힌트 메시지는 제2 동영상의 적어도 일부의 모국어 자막일 수 있다. 또는 제2 힌트 메시지는 제2 동영상의 적어도 일부의 외국어 자막일 수 있다. 선택적으로, 제2 힌트 메시지가 외국어 자막일 경우, 보여지는 외국어 자막의 일부는 가려질 수 있다. 또는, 제2 힌트 메시지는, 제2 동영상에서 진행될 내용을 직관적으로 나타내는 짧은 문구/문장, 작은 캐릭터/도형 등일 수 있다.
학습 자료는 다수의 학습 카테고리로 분류되어 있고, 제1 동영상은 다수의 카테고리 중 제1 카테고리에서 선택되고, 제2 동영상은 다수의 카테고리 중 제1 카테고리와 다른 제2 카테고리에서 선택될 수 있다.
예를 들어, 제1 동영상과 제2 동영상은 다른 난이도일 수 있다. 제1 동영상의 난이도가 높다면(예를 들어, 미국식 현지 영어 수준의 영상), 제2 동영상의 난이도는 낮을 수 있다(예를 들어, 초보자가 익혀야 하는 기본 단어, 기본 문장 등이 느린 템포로 나오는 영상).
또는, 예를 들어, 제1 동영상과 제2 동영상은 다른 상황에서 사용되는 영어일 수 있다. 예를 들어, 제1 동영상은 여행용 영어 카테고리에서, 제2 동영상은 레스토랑 영어 카테고리에서 선택될 수 있다. 바로 연속되는 제1 동영상, 제2 동영상을 다른 카테고리에서 선택함으로써, 학습자의 컨텐츠에 대한 흥미를 높일 수 있다.
도 8 내지 도 10을 참조하여, 본 발명의 다른 실시예에 따른 자기주도 학습 방법의 구체적인 학습 과정을 설명한다. 설명의 편의상, 이미 설명된 내용과 실질적으로 동일한 것은 생략하기로 한다.
우선, 도 3 내지 도 6의 학습 과정을 따라서, 제1 힌트 메시지(320) 제공(도 3 참조), 제1 동영상 플레이(도 4)이 진행된다.
제1 동영상을 플레이한 후, 또는 제1 동영상이 플레이되는 동안, 사용자로부터 다시 제공된 지정 모션(예를 들어, 끌어내림)을 인식한다.
이어서, 도 8을 참조하면, 외부 서버로부터 제2 동영상을 호출하여 로딩하는 제2 시간 동안 제2 동영상에 대응되는 제2 힌트 메시지(321)를 제공한다(S20). 제2 힌트 메시지(321)는 사용자에게 직관적인 단어, 예를 들어, "영화평"일 수 있다. 도시된 것과 같이, 외국어 자막(361)의 적어도 일부는 쉐이딩 처리될 수 있다.
이어서, 도 9를 참조하면, 제2 동영상의 로딩이 완료되고, 제2 동영상은 플레이된다. 약 5초의 짧은 제2 동영상은 플레이 및 자동반복될 수 있다. 사용자는 제2 힌트 메시지(321) 때문에 대략적인 제2 동영상의 내용을 알고 있는 상태에서 제2 동영상을 시청하기 때문에, 제2 동영상의 원어민 대화를 더 쉽게 이해할 수 있다.
이어서, 도 10을 참조하면, 사용자가 자막 섹션(302)을 터치하면, 쉐이딩된 부분이 사라지면서 외국어 자막(361) 전체를 알 수 있다. 또한, 사용자는 제2 동영상에 대한 구체적인 해설이 필요한 경우, 해설 버튼(370)을 누를 수 있다.
도 11은 본 발명의 또 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 설명의 편의상, 도 1 및 도 2를 이용하여 설명한 것과 실질적으로 동일한 것은 생략하기로 한다.
도 11을 참조하면, 사용자의 지정 모션을 인식한다(S110). 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법을 선택한다(S120). 선택된 제1 방법에 따라 제1 학습 자료를 사용자에게 제공한다(S130). 제1 학습 자료의 제공이 완료된 후 또는 제1 학습 자료가 제공되는 동안, 다시 사용자로부터 지정 모션을 재입력받아 이를 인식한다(S140). 재입력받은 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법과 다른 제2 방법을 선택한다(S150). 선택된 제2 방법에 따라 제2 학습 자료를 사용자에게 제공할 수 있다(S160).
사용자의 지정 모션이 여러 번 계속될 때, 서로 다른 방식의 학습 방법이 랜덤하게 제공될 수도 있다. 학습 방법은 외국어 동영상 플레이, 외국인/인공지능과 외국어로 대화, 외국인/인공지능과 문장으로 대화 등을 포함할 수 있다. 예를 들어, 첫번째 지정 모션에 대해서는 외국어 동영상 플레이 모드, 두번째 지정 모션에 대해서는 외국어 대화 모드, 세번째 지정 모션에 대해서는 문장 대화 모드가 진행될 수 있다.
이와 같이 연속되어 제공되는 제1 학습방법, 제2 학습방법을 서로 다르게 함으로서, 사용자로 하여금 지루하지 않도록 할 수 있다. 사용자가 지정모션(끌어내림)을 할 때마다 어떠한 학습방법이 나타날지 모르게 함으로써, 사용자의 흥미를 극대화할 수 있다.
도 12는 본 발명의 또 다른 실시예에 따른 자기주도 학습 방법을 설명하기 위한 순서도이다. 도 12는 도 11에서 설명된 자기주도 학습 방법의 구체적인 예이다.
도 12를 참조하면, 사용자의 지정 모션을 인식한다(S110).
이어서, 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법을 선택한다. 외국어 동영상 플레이 모드가 선택된다. 제1 시간동안 제1 동영상에 대응되는 제1 힌트 메시지를 제공한다(S121).
이어서, 제1 동영상을 플레이한다(S131).
이어서, 제1 학습 자료의 제공이 완료된 후 또는 제1 학습 자료가 제공되는 동안, 다시 사용자로부터 지정 모션을 재입력받아 이를 인식한다(S140).
이어서, 재입력받은 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법과 다른 제2 방법을 선택한다. 외국어 대화 또는 문장 대화가 선택된다. 제3 시간동안 수행해야 할 동작과 관련된 제3 힌트 메시지를 제공한다(S151). 예를 들어, "외국인과의 대화" 또는 "인공지능과의 문장 대화" 등의 제3 힌트 메시지가 제공될 수 있다. 또는 외국인/인공지능과 대화할 주제 또는 문장이 제3 힌트 메시지로 제공될 수도 있다. 이에 따라 사용자는 외국어 말하기를 준비하거나, 외국어 문장대화를 준비한다.
이어서, 외국어 대화 모드 또는 문장 대화 모드가 시작된다(S161).
즉, 인공지능 또는 원어민의 질문을 사용자에게 제공하고, 사용자로부터 질문에 대한 답변을 제공받을 수 있다.
한편, 도 1 내지 도 12를 이용하여 설명할 때, 플레이되는 동영상은 외부 서버로부터 제공되는 경우로 설명하였으나, 이에 한정되지 않는다. 예를 들어, 플레이되는 몇몇 동영상은 어플리케이션에 저장되어 있거나, 어플리케이션의 관리 서버 내에 저장될 수 있다.
구체적으로, 도 1을 이용하여 설명한 것과 같이 외부 서버로부터 제공된 제1 동영상을 플레이한 후, 또는 제1 동영상이 플레이되는 동안, 사용자로부터 다시 지정 모션을 제공받는다.
이어서, 제4 시간 동안 제4 동영상에 대응되는 제4 힌트 메시지를 제공하여, 제4 시간 동안 사용자가 제4 힌트 메시지로부터 제4 동영상의 내용을 미리 예상하도록 할 수 있다. 제4 힌트 메시지를 제공한 후에, 제4 동영상을 플레이할 수 있다. 제4 동영상은 어플리케이션 내에 저장되거나, 어플리케이션의 관리 서버 내에 저장될 수 있다. 여기서, 제4 시간은 제1 동영상이 호출/로딩되던 시간(즉, 제1 시간)과 동일한 시간일 수 있다. 제1 시간만큼 제4 시간을 보장함으로써, 사용자가 어플리케이션 내에서 제공되는 동영상에 대해서도 미리 표현을 예측해 보는 시간을 가질 수 있다.
도 13은 본 발명의 몇몇 실시예에 따른 전자 장치를 설명하기 위한 블록도이다. 도 14는 본 발명의 몇몇 실시예에 따른 전자 장치가 사용되는 환경을 설명하기 위한 블록도이다.
우선, 도 13을 참조하면, 본 발명의 몇몇 실시예에 따른 전자 장치는 디스플레이(210), 프로세서(220), 통신 모듈(230), 메모리(240), 버스(250), 입출력 인터페이스 등을 포함할 수 있다.
버스(250)에 의해서, 디스플레이(210), 프로세서(220), 통신 모듈(230), 메모리(240) 등의 다양한 구성요소가 서로 연결 및 통신(즉, 제어 메시지 전달 및 데이터 전달)할 수 있다.
프로세서(220)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(220)는, 예를 들면, 전자 장치(260)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
디스플레이(210)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(210)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(210)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
메모리(240)는 휘발성 메모리(예를 들어, DRAM, SRAM, 또는 SDRAM) 및/또는 비휘발성 메모리(예를 들어, OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, PRAM, RRAM, MRAM, 하드 드라이브, 또는 솔리드 스테이트 드라이브(SSD))를 포함할 수 있다. 메모리(240)는 내장 메모리 및/또는 외장 메모리를 포함할 수 있다. 메모리(240)는, 예를 들면, 전자 장치(260)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 또한, 메모리(240)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는, 운영 시스템으로 지칭될 수 있다.
커널은, 예를 들면, 다른 프로그램들(예: 미들웨어, API, 또는 어플리케이션 프로그램)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(250), 프로세서(220), 또는 메모리(240) 등)을 제어 또는 관리할 수 있다. 또한, 커널은 미들웨어, API, 또는 어플리케이션 프로그램에서 전자 장치(260)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어는, 예를 들면, API 또는 어플리케이션 프로그램이 커널과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어는 어플리케이션 프로그램으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어는 어플리케이션 프로그램 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(250), 프로세서(220), 또는 메모리(240) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다.
API는 어플리케이션이 커널 또는 미들웨어에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
한편, 메모리(240)는 도 1 내지 도 12를 이용하여 설명한 자기주도 학습 방법을 수행하기 위한 인스트럭션들(instructions)을 저장하고 있다. 예를 들어, 메모리(240)는 프로세서(220)가 사용자로부터 제공된 지정 모션을 인식하고, 상기 인식하는 단계 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공하여, 상기 제1 시간 동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 동영상의 내용을 미리 예상하도록 하고, 상기 제1 힌트 메시지는 상기 외부 서버에 저장되어 있지 않고, 상기 제1 힌트 메시지를 제공하는 단계 후에, 상기 제1 동영상을 플레이하는 인스트럭션들을 저장할 수 있다.
또는, 메모리(240)는 프로세서(220)가 사용자로부터 제공된 지정 모션을 입력받고, 사용자의 지정 모션에 응답하여 다수의 학습 방법 중 제1 방법을 선택하고, 상기 선택된 제1 방법에 따라 제1 학습 자료를 사용자에게 제공하고, 상기 제1 학습 자료의 제공이 완료된 후 또는 상기 제1 학습 자료가 제공되는 동안 사용자로부터 지정 모션을 재입력받고, 재입력받은 사용자의 지정 모션에 응답하여 다수의 학습 방법 중 상기 제1 방법과 다른 제2 방법을 선택하고, 상기 선택된 제2 방법에 따라 제2 학습 자료를 사용자에게 제공하는 인스트럭션들을 저장할 수 있다.
또는, 메모리(240)는 프로세서(220)가 사용자로부터 끌어내림 동작을 입력받고, 상기 입력받는 단계 후에 스트리밍 동영상 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 모국어 자막을 미리 제공하고, 상기 모국어 자막을 디스플레이하는 단계 후에, 상기 제1 동영상을 디스플레이하는 인스트럭션들을 저장할 수 있다.
메모리(240)는 학습 자료들이 다수의 학습 카테고리로 분류되어 저장된다. 예를 들어, 수준별(level)로 구분되거나, 상황별로 구분되어 있을 수 있다.
또한, 메모리(240)는 외부 서버로부터 호출하는 동영상을 관리하기 위한 데이터도 저장하고 있다. 구체적으로, 메모리(240)는 동영상 스트리밍 서버(예를 들어, 유튜브 서버)에서의 동영상 제목, 고유ID, 전체동영상시간, 시작시간, 종류시간 등을 저장한다.
또한, 동영상 스트리밍 서버에 저장되어 있는 동영상을 구간별로 나누어서(예를 들어, 10초 미만으로) 본원 발명의 제1 동영상/제2 동영상으로 플레이된다. 메모리(240)는 나뉘어진 구간별 정보도 포함한다. 즉, 메모리(240)는 해당 구간을 자기주도 학습 방법에 포함시킬지 여부, 해당 구간의 외국어 자막, 해당 구간의 모국어 자막, 해당 구간의 시작시간, 해당 구간의 종료시간, 해당 구간의 표현 해설을 포함한다. 뿐만 아니라, 해당 구간의 힌트 메시지, 해당 구간의 외국어 자막 중에서 쉐이딩되는 부분에 대한 정보도 포함할 수 있다.
프로세서(220)는 메모리(240)에 저장된 데이터를 기초로, 외부 서버로부터 구간별로 나누어진 해당 구간(제1 동영상)을 호출하고, 해당 구간(제1 동영상)이 로딩되는 동안 메모리(240)에 저장된 해당 구간의 힌트 메시지를 UI의 동영상 섹션(도 2의 301)에 디스플레이하고, 해당 구간의 외국어 자막(적어도 일부를 쉐이딩함)을 UI의 자막 섹션(도 2의 302)에 디스플레이한다.
도 13 및 도 14를 참조하면, 통신 모듈(230)은 전자 장치(260)가 네트워크(290)를 거쳐 외부 서버(도 14의 270) 또는 어플리케이션 관리 서버(280) 등과 통신할 수 있도록 한다.
네트워크(290)는 유선 및 무선 방식을 모두 포함한다. 특히, 무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 또는, 무선 통신은, WiFi(wireless fidelity), LiFi(light fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 또는, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service), 컴퓨터 네트워크(예: LAN 또는 WAN) 등 중 적어도 하나를 포함할 수 있다.
어플리케이션 관리 서버(280)는 본 발명의 몇몇 실시예에 따른 자기주도 학습 방법이 구현된 어플리케이션을 관리하고 있는 서버로서, 컴퓨팅 서버, 데이터베이스 서버, 파일 서버, 메일 서버 등 어플리케이션을 관리하기 위한 다양한 종류의 서버를 통칭하여 말한다.
외부 서버(270)는 전술한 것과 같이, 외부 관리자가 관리하는 서버로서, 예를 들어, 스트리밍 동영상 서버일 수 있으나, 이에 한정되지 않는다.
본 명세서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(240))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(220))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
이상과 첨부된 도면을 참조하여 본 발명의 실시예를 설명하였지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명이 그 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Advantages and features of the present invention, and methods for achieving them will be clarified with reference to embodiments described below in detail together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only the embodiments allow the publication of the present invention to be complete, and general knowledge in the technical field to which the present invention pertains. It is provided to fully inform the holder of the scope of the invention, and the invention is only defined by the scope of the claims. The same reference numerals refer to the same components throughout the specification.
Although the first, second, etc. are used to describe various elements, components and/or sections, it goes without saying that these elements, components and/or sections are not limited by these terms. These terms are only used to distinguish one element, component or section from another element, component or section. Accordingly, it goes without saying that the first element, the first component or the first section mentioned below may be the second element, the second component or the second section within the technical spirit of the present invention.
The terminology used herein is for describing the embodiments and is not intended to limit the present invention. In the present specification, the singular form also includes the plural form unless otherwise specified in the phrase. As used herein, "comprises" and/or "comprising" refers to the elements, steps, operations and/or elements mentioned above, the presence of one or more other components, steps, operations and/or elements. Or do not exclude additions.
Unless otherwise defined, all terms (including technical and scientific terms) used in the present specification may be used as meanings commonly understood by those skilled in the art to which the present invention pertains. In addition, terms defined in the commonly used dictionary are not ideally or excessively interpreted unless specifically defined.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the description with reference to the accompanying drawings, the same or corresponding components are assigned the same reference numbers regardless of the reference numerals and overlapped therewith. The description will be omitted.
In this specification, "configured to (or configured) (configured to)", depending on the situation, for example, in hardware or software, "suitable for,""with the ability to "," has been modified to It can be used interchangeably with "made to do,""cando," or "designed to do." In some situations, the expression "device configured to" may mean that the device "can" with other devices or parts. For example, the phrase “processors configured (or set) to perform A, B, and C” means by executing a dedicated processor (eg, an embedded processor) to perform the operation, or one or more software programs stored in the memory device. , It may mean a general-purpose processor (eg, CPU or application processor) capable of performing the corresponding operations.
The self-directed learning method according to some embodiments of the present invention may be performed by an electronic device. For example, electronic devices include, for example, smartphones, tablet PCs, mobile phones, video phones, e-book readers, desktop PCs, laptop PCs, netbook computers, workstations, servers, PDAs, and portable multimedia players (PMPs). , An MP3 player, a medical device, a camera, or a wearable device. Wearable devices are accessories (e.g. watches, rings, bracelets, anklets, necklaces, glasses, contact lenses, or head-mounted devices (HMDs)), fabrics or clothing (e.g. electronic clothing), It may include at least one of a body-attached type (eg, a skin pad or a tattoo), or a bio-portable circuit In some embodiments, the electronic device may be, for example, a television, a digital video disk (DVD) player, Audio, refrigerator, air conditioner, cleaner, oven, microwave, washing machine, air cleaner, set-top box, home automation control panel, security control panel, media box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ) , A game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or at least one of an electronic picture frame.
In another embodiment, the electronic device includes various medical devices (eg, various portable medical measurement devices (such as a blood glucose meter, heart rate monitor, blood pressure meter, or body temperature meter), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), CT (computed tomography), camera, or ultrasound, etc., navigation device, global navigation satellite system (GNSS), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (E.g. navigational devices for ships, gyro compasses, etc.), avionics, security devices, head units for vehicles, robots for industrial or domestic use, drones, ATMs in financial institutions, point-of-sale at stores of sales), or Internet of Things devices (eg, light bulbs, various sensors, sprinkler devices, fire alarms, thermostats, street lights, toasters, exercise equipment, hot water tanks, heaters, boilers, etc.). According to some embodiments, the electronic device may be a furniture, building/structure or part of a vehicle, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, Gas, or radio wave measurement devices, etc.). In various embodiments, the electronic device may be flexible or a combination of two or more of the various devices described above. The electronic device according to the embodiment of the present document is not limited to the above-described devices. In this document, the term user may refer to a person using an electronic device or a device using an electronic device (eg, an artificial intelligence electronic device).
1 is a flowchart illustrating a self-directed learning method according to an embodiment of the present invention. The self-directed learning method of FIG. 1 may be an operation implemented after a user executes a specific application of the electronic device, or implemented on the executed application, or with the executed application.
Referring to FIG. 1, the electronic device recognizes a designated motion provided from a user (S10). Here, the method in which the user's designated motion is input to the electronic device may vary. The user may perform an operation using a finger on the display of the electronic device (eg, pull, pull, drag, one or more consecutive touches). Alternatively, the user may perform a predetermined operation in front of the camera of the electronic device (for example, a hand from top to bottom, a hand from bottom to top, a head nodding or waving). Alternatively, the user may speak a designated command through the microphone of the electronic device. Alternatively, the user may perform a sensor-recognizable operation (for example, in the case of a tactile sensor, a light touch of a hand on the tactile sensor) to the sensor of the electronic device, but is not limited thereto.
Subsequently, after the electronic device recognizes a user's designated motion, a first hint message corresponding to the first video is provided during a first time of loading and loading a first video from an external server (S20 ). After the first hint message is provided (that is, after the first time required for loading ends), the first video is played (S30).
Here, the external server may be a server managed by another administrator, not a server managing the application being executed. For example, the external server may be a server (streaming video server) that provides a video in a streaming manner, for example, streaming providing YouTube, Facebook, and Samsung VR sites. It may be a video server, but is not limited thereto.
In order to load and load the first video from the external server, loading time is required. In the general case, this loading time is the user's waiting time. Therefore, if the waiting time is long, the user becomes dissatisfied and deviates from the running application. However, in the self-directed learning method according to some embodiments of the present invention, the user provides the first hint message for the first time by providing the first hint message corresponding to the first video to be played during the loading time (the first time). The contents of the first video are predicted in advance.
Here, the first hint message is not stored in the external server. The first hint message may be stored in the application or may be stored in the management server of the application. Accordingly, the loading time of the first hint message is hardly required. The time taken to load the first hint message may be very short compared to the loading time of the first video. In order to shorten the loading time of the first hint message in this way, the capacity of the first hint message is small, for example, text, a relatively small character/shape, and a relatively short sound/voice may be used.
The first hint message may have various forms. For example, the first video may be content for use as an educational material. When the first video includes a foreign language, the native language subtitle/foreign language subtitle of the first video may be stored in the execution application (ie, in the electronic device) or in the management server of the execution application (memory of FIG. 13) (240, see the application management server 280 of Figure 14). In this case, the first hint message may be subtitles of at least a part of the first video. Alternatively, the first hint message may be at least a part of a foreign language subtitle of the first video. Optionally, when the first hint message is a foreign language subtitle, a part of the foreign language subtitles to be shown may be obscured (in a shaded state).
During the loading time (first time), the user predicts/predicts the foreign language expression in the first video to be played later while watching the native language subtitles. For example, during the loading time, the first hint message may show "How is the weather there?" The user predicts the English expression corresponding to "How is the weather there?" When the loading time ends, the foreigner says “How is the weather up there?” The first video saying "Play." The user checks whether the English expression he expected is correct or wrong while watching the first video.
Alternatively, the first hint message may be a short phrase/sentence, a small character/figure, etc. that intuitively indicates the content to be performed in the first video. For example, a phrase such as “interview situation” may be used as the first hint message, and the “video in which the main character watches the job interview in a tense situation” may be played as the first video. Alternatively, “a fun animal character” is used as the first hint message, and a “video where the main character walks happily with the animal” can be played as the first video. The user can predict the content of the conversation from the first video to be played in advance while watching the intuitive first video (short phrase/sentence, character, figure). These predictions can improve the user's listening and help the user more easily understand the sudden foreign conversation in short videos.
Through this method, the video loading time is converted into a time to help the learning, not a boring waiting time of the user.
On the other hand, in the self-directed learning method according to an embodiment of the present invention, when a user performs a predetermined designated motion, the first video to be played may be randomly selected. That is, the user does not need to select what content to learn after running the application. In the general case, when the user runs the English learning application, dozens of contents that can be learned are displayed, and as many as thousands. The user has a cognitive burden on which content to choose from and learn. However, in the self-directed learning method according to an embodiment of the present invention, when a user repeatedly executes a designated motion after executing an application, various contents to be learned are selected. Therefore, it is possible to minimize the cognitive burden of the user.
In addition, such randomness can enable the user to concentrate on learning without being bored for a long time.
Of course, the randomness of the played image can be adjusted. That is, it may be randomly selected for all contents of an application that is being executed, or may be randomly selected only within contents that are properly classified according to a user's level. That is, if the user's English level is "level 4", it can be selected only among contents corresponding to "level 4". In addition, if the user wants to learn “Travel English”, it can be selected only among contents corresponding to “Travel English”.
2 is a view for explaining an application to which the self-directed learning method according to an embodiment of the present invention is applied.
Referring to FIG. 2, when the user performs an operation of pulling down to any part of the application screen (that is, a designated motion) 310, as described with reference to FIG. 1, an external server (that is, a streaming video server) During the first time when the first video is called/loaded from, a first hint message related to the first video is displayed.
Specifically, the UI (User Interface) of the application includes a video section 301 and a subtitle section 302.
As described above, the video played in the video section 301 may be an video provided by a streaming video server. In the application, the entire video provided by the streaming video server is not played, but only a predetermined portion is played. For example, although the play time of the entire image is 5 minutes, the image may be divided into a plurality of partial images in a short unit of time (for example, about 5 seconds), and a selected partial image among the plurality of partial images may be played. The reason for doing this is as follows. It can be a burden for the user to learn the entire 5 minutes of foreign language video. In addition, if the user is interested in a video in a field that is not of interest, it is very tedious for the user to watch a 5 minute foreign language video. Therefore, the user learns only a short partial image of about 5 seconds.
Here, the entire image moving button 330 is arranged on one side of the video section 301 to learn the entire image related to the partial image. In this way, the user can learn only the entire image of interest using the entire image movement button 330.
In addition, a title and/or a thumbnail 350 of the currently played image may be disposed on the other side of the video section 301.
While the first video is played in the video section 301, the foreign language subtitle 360 related to the first video is displayed in the subtitle section 302.
Here, at least a portion of the foreign language subtitle 360 may be shaded. If the user touches anywhere in the video section 301, the shading process may disappear. The user does not see the entire foreign language subtitle 360 immediately, but first predicts the shaded area while listening to the first video. By doing this, the user can predict the entire English sentence first while looking at the first hint message, and predict the second part of the English sentence while looking at the shaded foreign subtitle 360. Therefore, the user is induced to learn step by step.
A scrap button 340 may be disposed on one side of the video section 301. When the user presses the scrap button 340, the dialogue including the first video may be scrapped, and only the scrapped dialogues may be collected and re-learned. The re-learning method may be a method described using FIG. 1.
The user can press the commentary button 370 under the subtitle section 302 if a specific commentary on the first video is needed. When the commentary button 370 is pressed, an overlay mat (372 in FIG. 6) is opened and a commentary on the expression of the first video is displayed.
3 to 6, a specific learning process of the self-directed learning method according to an embodiment of the present invention will be described.
Referring to FIG. 3, when the first application is executed, a first hint message 320 (here, a native language subtitle) stored in the application or the management server of the application is preloaded before the first video is loaded.
In order to increase the concentration of the first hint message 320, an opaque dark overlay mat 329 may be disposed behind the first hint message 320.
During the time when the first video is called/loaded, the user practices reminiscent of a foreign language (here, English) from the first hint message.
Subsequently, referring to FIG. 4, as the first video is loaded, the overlay mat 329 is brightened or disappeared. Accordingly, the user can recognize that the first video is loaded.
Subsequently, the loaded first video is played. The short first video of about 5 seconds can be played and automatically looped. Since the user watches the first video while knowing the content of the first video roughly because of the first hint message 320, the native speaker conversation of the first video can be more easily understood.
Subsequently, referring to FIG. 5, when the user touches the subtitle section 302, the shaded portion disappears and the entire foreign language subtitle 360 can be known.
Subsequently, referring to FIG. 6, when a specific commentary on the first video is required, the user may press the commentary button 370. When the commentary button 370 is pressed, the overlay mat 372 is opened, and a commentary on the expression of the first video is displayed.
7 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention. For convenience of description, substantially the same as those described with reference to FIG. 1 will be omitted.
Referring to FIG. 7, the electronic device recognizes a designated motion provided from a user (S10).
Subsequently, after the electronic device recognizes the user's designated motion, a first hint message corresponding to the first video is provided during a first time of loading and loading the first video from an external server (S20 ). After the first hint message is provided (that is, after the first time required for loading ends), the first video is played (S30).
Subsequently, after playing the first video or while the first video is being played, the electronic device recognizes the designated motion provided from the user again (S40 ).
Subsequently, after the electronic device recognizes the user's designated motion, a second hint message corresponding to the second video is provided during a second time of loading and loading a second video different from the first video from the external server (S50). . After the second hint message is provided (that is, after the second time required for loading ends), the second video is played (S60).
Meanwhile, the learning material is classified into a plurality of learning categories, the first video is selected from the first category among the plurality of categories, and the second video is selected from the second category different from the first category among the plurality of categories. As described above, by providing the first video and the second video in different categories, the user can be prevented from being bored. The user's interest can be maximized by not knowing which hint message/video will appear each time the user performs a designated motion (pull).
The first video and the second video may be provided from an external server, and the external server may be, for example, a streaming video server providing YouTube, Facebook, and Samsung VR sites. , But is not limited to this.
Like the first hint message, the second hint message is not stored in the external server. The second hint message may be stored in the application or may be stored in the management server of the application. Therefore, the second hint message is provided during the time when the second video is loaded, so that the user's learning efficiency can be improved. In order to shorten the loading time of the second hint message, the capacity of the second hint message is small, for example, text, a relatively small character/shape, and a relatively short sound/voice can be used. The second hint message may be subtitles of at least a part of the second video. Alternatively, the second hint message may be at least a part of foreign language subtitles of the second video. Optionally, when the second hint message is a foreign language subtitle, a part of the foreign language subtitles displayed may be obscured. Alternatively, the second hint message may be a short phrase/sentence, a small character/figure, etc. that intuitively indicates content to be performed in the second video.
The learning material is classified into a plurality of learning categories, the first video may be selected from the first category among the plurality of categories, and the second video may be selected from the second category different from the first category among the plurality of categories.
For example, the first video and the second video may have different difficulty levels. If the difficulty level of the first video is high (for example, a video of American local English level), the difficulty level of the second video may be low (for example, basic words, basic sentences, etc. that beginners should learn at a slow tempo) video).
Or, for example, the first video and the second video may be English used in different situations. For example, the first video may be selected from the travel English category, and the second video may be selected from the restaurant English category. By continuously selecting the first video and the second video from different categories, it is possible to increase interest in the learner's content.
8 to 10, a specific learning process of the self-directed learning method according to another embodiment of the present invention will be described. For convenience of description, substantially the same contents as those already described will be omitted.
First, along the learning process of FIGS. 3 to 6, the first hint message 320 is provided (see FIG. 3 ), and the first video play (FIG. 4) is performed.
After the first video is played, or while the first video is being played, the designated motion (eg, pulled down) provided from the user is recognized again.
Subsequently, referring to FIG. 8, a second hint message 321 corresponding to the second video is provided during a second time for loading and loading the second video from an external server (S20 ). The second hint message 321 may be an intuitive word to the user, for example, “movie review”. As illustrated, at least a part of the foreign language subtitle 361 may be shaded.
Subsequently, referring to FIG. 9, loading of the second video is completed and the second video is played. The second short video of about 5 seconds can be played and automatically repeated. Because the user sees the second video while knowing the content of the second video roughly because of the second hint message 321, the conversation of the native speaker of the second video can be more easily understood.
Subsequently, referring to FIG. 10, when the user touches the subtitle section 302, the shaded portion disappears, and the entire foreign language subtitle 361 can be known. In addition, the user can press the comment button 370 when a specific comment on the second video is required.
11 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention. For convenience of description, those substantially identical to those described with reference to FIGS. 1 and 2 will be omitted.
Referring to FIG. 11, a user's designated motion is recognized (S110). In response to a user's designated motion, a first method is selected from a plurality of learning methods (S120). According to the selected first method, the first learning material is provided to the user (S130). After the provision of the first learning material is completed or while the first learning material is provided, the designated motion is re-input from the user and recognized (S140). In response to the user's designated motion re-entered, a second method different from the first method is selected from the plurality of learning methods (S150). The second learning material may be provided to the user according to the selected second method (S160 ).
When the user's designated motion continues several times, different types of learning methods may be randomly provided. Learning methods may include foreign language video play, foreign/artificial intelligence and conversation in foreign languages, and foreign/artificial intelligence and sentence conversation. For example, a foreign language video play mode for a first designated motion, a foreign language conversation mode for a second designated motion, and a sentence conversation mode for a third designated motion may be performed.
In this way, the first learning method and the second learning method that are continuously provided are different from each other, so that the user is not bored. The user's interest can be maximized by not knowing what learning method will appear whenever the user performs a designated motion (pull).
12 is a flowchart illustrating a self-directed learning method according to another embodiment of the present invention. 12 is a specific example of the self-directed learning method illustrated in FIG. 11.
Referring to FIG. 12, a user's designated motion is recognized (S110).
Subsequently, in response to a user's designated motion, a first method is selected from among a plurality of learning methods. The foreign language video play mode is selected. During the first time, a first hint message corresponding to the first video is provided (S121).
Next, the first video is played (S131).
Subsequently, after the provision of the first learning material is completed or while the first learning material is provided, the designated motion is re-entered from the user again to recognize it (S140).
Subsequently, in response to the user's designated motion re-entered, a second method different from the first method is selected from among a plurality of learning methods. Foreign language conversation or sentence conversation is selected. A third hint message related to an operation to be performed for a third time is provided (S151). For example, a third hint message such as "conversation with a foreigner" or "sentence conversation with an artificial intelligence" may be provided. Alternatively, a third hint message may be provided for a topic or sentence to communicate with a foreigner/artificial intelligence. Accordingly, the user prepares to speak a foreign language or prepares a sentence conversation in a foreign language.
Subsequently, a foreign language conversation mode or a sentence conversation mode is started (S161 ).
That is, an artificial intelligence or a native speaker's question may be provided to the user, and an answer to the question may be provided from the user.
On the other hand, when described with reference to FIGS. 1 to 12, the video being played is described as being provided from an external server, but is not limited thereto. For example, some videos to be played may be stored in the application or may be stored in the management server of the application.
Specifically, as described with reference to FIG. 1, after playing the first video provided from the external server, or while the first video is being played, the designated motion is provided from the user again.
Subsequently, a fourth hint message corresponding to the fourth video may be provided for a fourth time, so that the user can predict the content of the fourth video from the fourth hint message in advance for the fourth time. After providing the fourth hint message, the fourth video may be played. The fourth video may be stored in the application or may be stored in the management server of the application. Here, the fourth time may be the same time as when the first video was called/loaded (ie, the first time). By guaranteeing the fourth time as the first time, the user can have time to predict the expression in advance even for the video provided in the application.
13 is a block diagram illustrating an electronic device according to some embodiments of the present invention. 14 is a block diagram illustrating an environment in which an electronic device is used according to some embodiments of the present invention.
First, referring to FIG. 13, an electronic device according to some embodiments of the present invention includes a display 210, a processor 220, a communication module 230, a memory 240, a bus 250, an input/output interface, etc. can do.
Various components, such as the display 210, the processor 220, the communication module 230, and the memory 240, may be connected and communicated with each other by the bus 250 (ie, control message transmission and data transmission). .
The processor 220 may include one or more of a central processing unit, an application processor, or a communication processor (CP). The processor 220 may perform, for example, calculation or data processing related to control and/or communication of at least one other component of the electronic device 260.
The display 210 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display. It can contain. The display 210 may display various contents (eg, text, images, videos, icons, and/or symbols, etc.) to the user, for example. The display 210 may include a touch screen, and may receive a touch, gesture, proximity, or hovering input using, for example, an electronic pen or a user's body part.
The memory 240 may include volatile memory (eg, DRAM, SRAM, or SDRAM) and/or non-volatile memory (eg, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, Flash memory, PRAM, RRAM, MRAM, hard drive, or solid state drive (SSD). The memory 240 may include internal memory and/or external memory. The memory 240 may store, for example, commands or data related to at least one other component of the electronic device 260. Also, the memory 240 may store software and/or programs. The program may include, for example, a kernel, middleware, application programming interface (API), and/or application program (or "application"). At least a portion of the kernel, middleware, or API may be referred to as an operating system.
The kernel, for example, system resources used to execute an operation or function implemented in other programs (eg, middleware, API, or application program) (eg, bus 250, processor 220, or) Memory 240, etc.). In addition, the kernel may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 260 in a middleware, API, or application program.
The middleware may act as an intermediary so that, for example, an API or application program communicates with the kernel to exchange data. Also, the middleware may process one or more job requests received from the application program according to priority. For example, the middleware gives priority to using system resources (eg, the bus 250, the processor 220, or the memory 240) of the electronic device 101 to at least one of the application programs, The one or more work requests can be processed.
The API is an interface for an application to control functions provided by the kernel or middleware, and includes at least one interface or function (eg, command) for file control, window control, image processing, or text control. can do.
Meanwhile, the memory 240 stores instructions for performing the self-directed learning method described with reference to FIGS. 1 to 12. For example, the memory 240 corresponds to the first video during the first time when the processor 220 recognizes the designated motion provided by the user and after the step of recognizing, calls and loads the first video from the external server. The first hint message is provided to allow the user to predict the content of the first video from the first hint message in advance for the first time, and the first hint message is not stored in the external server. After the step of providing the first hint message, instructions for playing the first video may be stored.
Alternatively, the memory 240, the processor 220 receives the designated motion provided by the user, selects a first method among a plurality of learning methods in response to the user's designated motion, and performs first learning according to the selected first method A plurality of learning methods are provided in response to a designated motion of a user receiving a specified motion from a user after providing the data to a user, and after providing the first learning material or while the first learning material is provided, Among them, a second method different from the first method may be selected, and instructions for providing a second learning material to the user according to the selected second method may be stored.
Alternatively, the memory 240 is a native language corresponding to the first video during a first time when the processor 220 receives a pull-down operation from the user and calls and loads the first video from the streaming video server after the input step. After providing the subtitles in advance and displaying the native language subtitles, instructions for displaying the first video may be stored.
In the memory 240, learning materials are classified into a plurality of learning categories and stored. For example, it may be classified by level, or may be classified by situation.
In addition, the memory 240 also stores data for managing a video call from an external server. Specifically, the memory 240 stores a video title, a unique ID, a total video time, a start time, and a type time in a video streaming server (for example, a YouTube server).
In addition, the video stored in the video streaming server is divided into sections (for example, less than 10 seconds) and played as the first video/second video of the present invention. The memory 240 also includes information for each section. That is, the memory 240 includes whether or not the section is included in the self-directed learning method, a subtitle in the foreign language of the section, a native language subtitle of the section, a start time of the section, an end time of the section, and an explanation of the expression of the section do. In addition, it may include a hint message of the section and information on a shaded part of the subtitles of the foreign language of the section.
Based on the data stored in the memory 240, the processor 220 calls the corresponding section (first video) divided by section from an external server, while the corresponding section (first video) is loaded into the memory 240 The stored hint message of the corresponding section is displayed in the video section of the UI (301 in FIG. 2), and the foreign language subtitle (at least partly shading) of the section is displayed in the subtitle section of the UI (302 in FIG. 2).
13 and 14, the communication module 230 allows the electronic device 260 to communicate with an external server (270 in FIG. 14) or the application management server 280 through the network 290.
The network 290 includes both wired and wireless methods. In particular, wireless communication includes, for example, LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), Wireless Broadband (WiBro), or GSM Cellular communication using at least one of (Global System for Mobile Communications). Alternatively, wireless communication includes WiFi (wireless fidelity), LiFi (light fidelity), Bluetooth, Bluetooth low power (BLE), Zigbee, NFC (near field communication), magnetic secure transmission (Magnetic Secure Transmission), radio frequency ( RF), or at least one of a body area network (BAN). Or, the wireless communication may include GNSS. The GNSS may be, for example, a Global Positioning System (GPS), a Global Navigation Satellite System (Glonass), a Beidou Navigation Satellite System ("Beidou") or Galileo, the European global satellite-based navigation system. Wired communication includes, for example, universal serial bus (USB), high definition multimedia interface (HDMI), recommended standard232 (RS-232), power line communication, or plain old telephone service (POTS), computer network (such as LAN or WAN) and the like.
The application management server 280 is a server managing an application in which a self-directed learning method is implemented according to some embodiments of the present invention, and various types of applications for managing applications, such as a computing server, a database server, a file server, and a mail server. Server is collectively called.
As described above, the external server 270 is a server managed by an external administrator, and may be, for example, a streaming video server, but is not limited thereto.
The term "module" as used herein includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits. The "module" may be an integrally configured component or a minimum unit that performs one or more functions or a part thereof. The "module" may be implemented mechanically or electronically, for example, an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs), known or to be developed in the future, performing certain operations, or It may include a programmable logic device. Instructions stored in a computer-readable storage medium (eg, memory 240) in the form of a program module, at least a portion of a device (eg, modules or functions thereof) or method (eg, operations) according to various embodiments Can be implemented as When the instruction is executed by a processor (for example, the processor 220), the processor may perform a function corresponding to the instruction. Computer-readable recording media include hard disks, floppy disks, magnetic media (eg magnetic tape), optical recording media (eg CD-ROM, DVD, magnetic-optical media (eg floptical disk), internal memory, etc. Instructions may include code generated by a compiler or code executable by an interpreter A module or program module according to various embodiments of the present disclosure may include at least one or more of the aforementioned components, or , Some may be omitted, or other components may be further included.According to various embodiments, operations performed by a module, a program module, or other components may be executed sequentially, in parallel, repeatedly, or heuristically, or at least. Some actions may be executed in a different order, omitted, or other actions may be added.
Although the embodiments of the present invention have been described with reference to the above and the accompanying drawings, those of ordinary skill in the art to which the present invention pertains can implement the present invention in other specific forms without changing its technical spirit or essential features. You will understand that there is. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive.

Claims (17)

전자 장치에 의해 수행되는 자기주도 학습 방법에 있어서,
사용자로부터 제공된 지정 모션을 인식하는 단계;
상기 인식하는 단계 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공하여, 상기 제1 시간 동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 동영상의 내용을 미리 예상하도록 하고, 상기 제1 힌트 메시지는 상기 외부 서버에 저장되어 있지 않은 단계; 및
상기 제1 힌트 메시지를 제공하는 단계 후에, 상기 제1 동영상을 플레이하는 단계를 포함하는, 자기주도 학습 방법.
In the self-directed learning method performed by the electronic device,
Recognizing a designated motion provided from a user;
After the step of recognizing, a first hint message corresponding to the first video is provided during a first time of loading and loading a first video from an external server, so that the user receives the first video from the first hint message during the first time. Causing the contents of the first video to be predicted in advance, and the first hint message is not stored in the external server; And
After the step of providing the first hint message, playing the first video, self-directed learning method.
제 1항에 있어서,
상기 제1 동영상을 플레이한 후, 또는 상기 제1 동영상이 플레이되는 동안, 상기 사용자로부터 다시 제공된 상기 지정 모션을 인식하는 단계와,
상기 인식하는 단계 후에, 외부 서버로부터 상기 제1 동영상과 다른 제2 동영상을 호출하여 로딩하는 제2 시간 동안 상기 제2 동영상에 대응되는 제2 힌트 메시지를 제공하여, 상기 제2 시간 동안 상기 사용자가 상기 제2 힌트 메시지로부터 상기 제2 동영상의 내용을 미리 예상하도록 하고, 상기 제2 힌트 메시지는 상기 외부 서버에 저장되어 있지 않은 단계와,
상기 제2 힌트 메시지를 제공하는 단계 후에, 상기 제2 동영상을 플레이하는 단계를 더 포함하는, 자기주도 학습 방법.
According to claim 1,
Recognizing the designated motion provided again from the user after playing the first video, or while the first video is playing,
After the step of recognizing, a second hint message corresponding to the second video is provided during a second time to load and load a second video different from the first video from an external server, so that the user during the second time A step in which the content of the second video is predicted in advance from the second hint message, and the second hint message is not stored in the external server;
After the step of providing the second hint message, further comprising the step of playing the second video, self-directed learning method.
제 2항에 있어서,
학습 자료는 다수의 학습 카테고리로 분류되어 있고,
상기 제1 동영상은 상기 다수의 카테고리 중 제1 카테고리에서 선택되고,
상기 제2 동영상은 상기 다수의 카테고리 중 상기 제1 카테고리와 다른 제2 카테고리에서 선택되는, 자기주도 학습 방법.
According to claim 2,
Learning materials are divided into a number of learning categories,
The first video is selected from the first category among the plurality of categories,
The second video is a self-directed learning method selected from a second category different from the first category among the plurality of categories.
제 1항에 있어서,
상기 제1 힌트 메시지는 어플리케이션 내에 저장되거나, 상기 어플리케이션의 관리 서버 내에 저장되는, 자기주도 학습 방법.
According to claim 1,
The first hint message is stored in the application, or stored in the management server of the application, self-directed learning method.
제 1항에 있어서,
상기 제1 힌트 메시지는 상기 제1 동영상의 적어도 일부의 모국어 자막을 포함하는, 자기주도 학습 방법.
According to claim 1,
The first hint message includes a native language subtitle of at least a part of the first video, the self-directed learning method.
제 1항에 있어서,
상기 외부 서버는 스트리밍 동영상 서버인, 자기주도 학습 방법.
According to claim 1,
The external server is a streaming video server, self-directed learning method.
제 1항에 있어서,
상기 지정 모션은 끌어내림(pull) 동작인, 자기주도 학습 방법.
According to claim 1,
The designated motion is a pull motion, a self-directed learning method.
제 1항에 있어서,
상기 제1 동영상을 플레이한 후, 또는 상기 제1 동영상이 플레이되는 동안, 상기 사용자로부터 다시 제공된 상기 지정 모션을 인식하는 단계와,
상기 인식하는 단계 후에, 제3 시간 동안 제3 힌트 메시지를 제공하여, 상기 제3 시간 동안 상기 사용자가 상기 제3 힌트 메시지로부터 수행해야 할 동작을 미리 준비하도록 하는 단계를 더 포함하는, 자기주도 학습 방법.
According to claim 1,
Recognizing the designated motion provided again from the user after playing the first video, or while the first video is playing,
After the step of recognizing, further comprising providing a third hint message for a third time to prepare the user to perform an action to be performed from the third hint message during the third time, self-directed learning Way.
제 8항에 있어서,
상기 제3 힌트 메시지를 제공하는 단계에서, 상기 사용자는 상기 제3 힌트 메시지로부터 외국어 말하기를 준비하고,
상기 제3 힌트 메시지를 제공하는 단계 후에, 인공지능 또는 원어민의 질문을 사용자에게 제공하는 단계와,
상기 사용자로부터 상기 질문에 대한 답변을 제공받는 단계를 더 포함하는, 자기주도 학습 방법.
The method of claim 8,
In the step of providing the third hint message, the user prepares to speak a foreign language from the third hint message,
After the step of providing the third hint message, providing the user with a question of artificial intelligence or a native speaker,
And receiving an answer to the question from the user.
제 8항에 있어서,
상기 제3 힌트 메시지를 제공하는 단계에서, 상기 사용자는 상기 제3 힌트 메시지로부터 문장 대화 모드를 준비하고,
상기 제3 힌트 메시지를 제공하는 단계 후에, 사용자는 인공지능 또는 원어민과 문장 대화를 진행하는 단계를 더 포함하는, 자기주도 학습 방법.
The method of claim 8,
In the step of providing the third hint message, the user prepares a sentence conversation mode from the third hint message,
After the step of providing the third hint message, the user further comprises the step of conducting a sentence conversation with an artificial intelligence or a native speaker.
제 1항에 있어서,
상기 제1 동영상을 플레이한 후, 또는 상기 제1 동영상이 플레이되는 동안, 상기 사용자로부터 다시 제공된 상기 지정 모션을 인식하는 단계와,
상기 인식하는 단계 후에, 제4 시간 동안 상기 제4 동영상에 대응되는 제4 힌트 메시지를 제공하여, 상기 제4 시간 동안 상기 사용자가 상기 제4 힌트 메시지로부터 상기 제4 동영상의 내용을 미리 예상하도록 하는 단계와,
상기 제4 힌트 메시지를 제공하는 단계 후에, 상기 제4 동영상을 플레이하는 단계를 더 포함하되,
상기 제4 동영상은 어플리케이션 내에 저장되거나, 상기 어플리케이션의 관리 서버 내에 저장되는, 자기주도 학습 방법.
According to claim 1,
Recognizing the designated motion provided again from the user after playing the first video, or while the first video is playing,
After the step of recognizing, a fourth hint message corresponding to the fourth video is provided for a fourth time to allow the user to predict the content of the fourth video from the fourth hint message in advance for the fourth time. Steps,
After the step of providing the fourth hint message, further comprising the step of playing the fourth video,
The fourth video is stored in the application, or stored in the management server of the application, self-directed learning method.
제 11항에 있어서,
상기 제4 시간은 상기 제1 시간과 동일한 시간인, 자기주도 학습 방법.
The method of claim 11,
The fourth time is the same time as the first time, the self-directed learning method.
전자 장치에 의해 수행되는 자기주도 학습 방법에 있어서,
사용자로부터 제공된 지정 모션을 입력받는 단계;
사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 제1 방법을 선택하는 단계;
상기 선택된 제1 방법에 따라 제1 학습 자료를 사용자에게 제공하는 단계;
상기 제1 학습 자료의 제공이 완료된 후 또는 상기 제1 학습 자료가 제공되는 동안, 사용자로부터 지정 모션을 재입력받는 단계;
재입력받은 사용자의 지정 모션에 응답하여, 다수의 학습 방법 중 상기 제1 방법과 다른 제2 방법을 선택하는 단계; 및
상기 선택된 제2 방법에 따라 제2 학습 자료를 사용자에게 제공하는 단계를 포함하는, 자기주도 학습 방법.
In the self-directed learning method performed by the electronic device,
Receiving a designated motion provided by a user;
Selecting a first method among a plurality of learning methods in response to a user's designated motion;
Providing a first learning material to a user according to the selected first method;
Re-inputting a designated motion from a user after the provision of the first learning material is completed or while the first learning material is provided;
Selecting a second method different from the first method among a plurality of learning methods in response to a re-inputted user's designated motion; And
And providing a second learning material to the user according to the selected second method.
제 13항에 있어서,
상기 제1 방법을 선택하는 단계와 상기 제1 학습 자료를 사용자에게 제공하는 단계 사이에,
상기 제1 학습 자료를 로딩하는 시간동안 사용자에게, 상기 제1 학습 자료에 대응되는 제1 힌트 메시지를 제공하여, 상기 로딩하는 시간동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 학습 자료의 내용을 미리 예상하도록 하는, 자기주도 학습 방법.
The method of claim 13,
Between the step of selecting the first method and providing the first learning material to the user,
Provides a first hint message corresponding to the first learning material to a user during the time of loading the first learning material, so that the user can obtain the content of the first learning material from the first hint message during the loading time. The self-directed learning method to predict in advance.
전자 장치에 의해 수행되는 자기주도 학습 방법에 있어서,
사용자로부터 끌어내림 동작을 입력받는 단계;
상기 입력받는 단계 후에, 스트리밍 동영상 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 모국어 자막을 미리 제공하되, 상기 모국어 자막은 상기 스트리밍 동영상 서버에 저장되어 있지 않는 단계;
상기 모국어 자막을 디스플레이하는 단계 후에, 상기 제1 동영상을 디스플레이하는 단계를 포함하는, 자기주도 학습 방법.
In the self-directed learning method performed by the electronic device,
Receiving a drag operation from a user;
After receiving the input, providing a native language subtitle corresponding to the first video in advance during a first time of loading and loading a first video from a streaming video server, wherein the native language subtitle is not stored in the streaming video server ;
And after displaying the native language subtitles, displaying the first video.
제 1항 내지 제 15항 중 어느 한 항의 자기주도 학습 방법을 구현하기 위한 컴퓨터 프로그램의 인스트럭션들을 저장하는, 컴퓨터 판독 가능 저장 매체.A computer-readable storage medium storing instructions of a computer program for implementing the self-directed learning method of claim 1. 통신 모듈;
디스플레이;
프로세서; 및
메모리를 포함하며, 상기 메모리는,
상기 프로세서가,
사용자로부터 제공된 지정 모션을 인식하고,
상기 인식하는 단계 후에, 외부 서버로부터 제1 동영상을 호출하여 로딩하는 제1 시간 동안 상기 제1 동영상에 대응되는 제1 힌트 메시지를 제공하여, 상기 제1 시간 동안 상기 사용자가 상기 제1 힌트 메시지로부터 상기 제1 동영상의 내용을 미리 예상하도록 하고, 상기 제1 힌트 메시지는 상기 외부 서버에 저장되어 있지 않고,
상기 제1 힌트 메시지를 제공하는 단계 후에, 상기 제1 동영상을 플레이하는, 인스트럭션들(instructions)을 저장하는 전자 장치.
Communication module;
display;
Processor; And
It includes a memory, the memory,
The processor,
Recognize the specified motion provided by the user,
After the step of recognizing, a first hint message corresponding to the first video is provided during a first time of loading and loading a first video from an external server, so that the user receives the first video from the first hint message during the first time. The content of the first video is predicted in advance, and the first hint message is not stored in the external server.
After the step of providing the first hint message, an electronic device that stores instructions that play the first video.
KR1020180167436A 2018-12-21 2018-12-21 An learning method, an electronic device and a computer-readable storage medium KR20200077983A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180167436A KR20200077983A (en) 2018-12-21 2018-12-21 An learning method, an electronic device and a computer-readable storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180167436A KR20200077983A (en) 2018-12-21 2018-12-21 An learning method, an electronic device and a computer-readable storage medium

Publications (1)

Publication Number Publication Date
KR20200077983A true KR20200077983A (en) 2020-07-01

Family

ID=71601959

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180167436A KR20200077983A (en) 2018-12-21 2018-12-21 An learning method, an electronic device and a computer-readable storage medium

Country Status (1)

Country Link
KR (1) KR20200077983A (en)

Similar Documents

Publication Publication Date Title
US11573991B2 (en) Deep reinforcement learning-based multi-step question answering systems
RU2632144C1 (en) Computer method for creating content recommendation interface
KR102262453B1 (en) Emoji for text predictions
US9069584B2 (en) Multi-platform application player
US20150378600A1 (en) Context menu utilizing a context indicator and floating menu bar
CN110651251A (en) System and method for adaptive user interface
US10788955B2 (en) Method for controlling display and electronic device supporting the same
US20150130716A1 (en) Audio-visual interaction with user devices
US20120166522A1 (en) Supporting intelligent user interface interactions
KR102270953B1 (en) Method for display screen in electronic device and the device thereof
US20140245205A1 (en) Keyboard navigation of user interface
US10402470B2 (en) Effecting multi-step operations in an application in response to direct manipulation of a selected object
KR102302721B1 (en) Electronic apparatus for executing plurality of applications and method for controlling thereof
US11875231B2 (en) System and method for complex task machine learning
US20170070786A1 (en) Home menu interface for content viewing device
US11278801B2 (en) Management of provisioning of video game during game preview
US10996922B2 (en) Electronic apparatus for processing user utterance
US11481558B2 (en) System and method for a scene builder
US20190213900A1 (en) Generating selectable control items for a learner
KR102199590B1 (en) Apparatus and Method for Recommending Contents of Interesting Information
US20190004821A1 (en) Command input using robust input parameters
US10871882B2 (en) Efficient access to frequently utilized actions on computing devices
US20150293888A1 (en) Expandable Application Representation, Milestones, and Storylines
KR20200077983A (en) An learning method, an electronic device and a computer-readable storage medium
US10445314B1 (en) Instant unified search

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal