KR102495597B1 - Method for providing online lecture content for visually-impaired person and user terminal thereof - Google Patents

Method for providing online lecture content for visually-impaired person and user terminal thereof Download PDF

Info

Publication number
KR102495597B1
KR102495597B1 KR1020200134615A KR20200134615A KR102495597B1 KR 102495597 B1 KR102495597 B1 KR 102495597B1 KR 1020200134615 A KR1020200134615 A KR 1020200134615A KR 20200134615 A KR20200134615 A KR 20200134615A KR 102495597 B1 KR102495597 B1 KR 102495597B1
Authority
KR
South Korea
Prior art keywords
voice
lecture
time
instructor
output
Prior art date
Application number
KR1020200134615A
Other languages
Korean (ko)
Other versions
KR20220050668A (en
Inventor
임순범
Original Assignee
숙명여자대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 숙명여자대학교산학협력단 filed Critical 숙명여자대학교산학협력단
Priority to KR1020200134615A priority Critical patent/KR102495597B1/en
Publication of KR20220050668A publication Critical patent/KR20220050668A/en
Application granted granted Critical
Publication of KR102495597B1 publication Critical patent/KR102495597B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work or social welfare, e.g. community support activities or counselling services
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B21/00Teaching, or communicating with, the blind, deaf or mute
    • G09B21/001Teaching or communicating with blind persons
    • G09B21/006Teaching or communicating with blind persons using audible presentation of the information
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers

Landscapes

  • Business, Economics & Management (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Human Resources & Organizations (AREA)
  • General Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

사용자 단말에서 수행되는, 시각장애인을 위한 온라인 강의 콘텐츠 제공방법이 개시된다. 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션(motion) 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 포함할 수 있다.Disclosed is a method of providing online lecture contents for the visually impaired, which is performed in a user terminal. A method for providing online lecture contents according to an embodiment of the present invention includes a process of outputting text included in lecture materials as audio for a first hour, a process of outputting a lecturer's voice included in online lecture contents for a second hour, and the above. When an instructor's motion event occurs, a process of outputting a description of the instructor's motion event in voice for a third time corresponding to the occurrence time of the motion event may be included.

Description

시각장애인을 위한 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말{METHOD FOR PROVIDING ONLINE LECTURE CONTENT FOR VISUALLY-IMPAIRED PERSON AND USER TERMINAL THEREOF}Method for providing online lecture contents for the visually impaired and its user terminal

본 발명은 시각장애인을 위한 온라인 강의 콘텐츠 제공방업 및 그 사용자 단말에 대한 것으로, 보다 상세하게는 온라인 강의에 대한 시각장애인의 접근성을 향상시키는 온라인 강의 콘텐츠 제공방법 및 그 사용자 단말에 대한 것이다.The present invention relates to a method of providing online lecture contents for the visually impaired and a user terminal thereof, and more particularly, to a method of providing online lecture contents for improving accessibility of the visually impaired persons to online lectures and a user terminal thereof.

코로나의 확산으로 우리의 일상은 빠르게 비대면으로 전환되고 있다. 예를 들어, 기존의 업무 환경이 재택근무나 화상 회의로 대체되고, 대면 강의는 온라인 강의로 빠르게 대체되고 있다.Due to the spread of Corona, our daily life is rapidly changing to non-face-to-face. For example, the existing work environment is being replaced by telecommuting or video conferencing, and face-to-face lectures are rapidly being replaced by online lectures.

하지만, 대면 사회의 비대면으로의 전환은 장애인의 고립을 더 심각하게 초래하고 있다.However, the transition from the face-to-face society to the non-face-to-face is causing the isolation of the disabled more seriously.

예를 들어, 비대면 온라인 강의 콘텐츠는 화상정보 전달방식을 기반으로 하므로 시각장애인은 온라인 강의 콘텐츠를 올바르게 활용하기 어렵다.For example, since non-face-to-face online lecture contents are based on an image information delivery method, it is difficult for visually impaired people to properly utilize online lecture contents.

이에 따라, 시각장애인이 이용 가능한 온라인 정보제공 서비스에 대한 개발이 활발하다.Accordingly, the development of online information providing services that can be used by the visually impaired is active.

본 발명의 배경이 되는 기술의 일 예로, 대한민국 등록특허공보 10-1944187호(2019.02.07.)는 음성합성 Open API와 RSS 피드를 이용한 음성서비스를 위한 어플리케이션과 서버를 통해 시각장애인에게 음성서비스를 제공하는 방법을 개시하고 있다.As an example of the technology behind the present invention, Republic of Korea Patent Registration No. 10-1944187 (2019.02.07.) provides voice service to the visually impaired through an application and server for voice service using an open API for voice synthesis and an RSS feed. A method of providing is disclosed.

구체적으로, 시각장애인은 온라인 강의 콘텐츠에서 제공되는 강의 음성을 들을 수 있을 것이나, 화면에 나타나는 강의자료나 강사의 판서 동작 또는 판서 내용을 파악하기는 거의 불가능하다.Specifically, the visually impaired will be able to hear lecture audio provided from online lecture contents, but it is almost impossible to grasp lecture materials appearing on the screen, or the lecturer's writing motion or writing contents.

본 발명은 상술한 문제점을 해결하기 위해 안출된 것으로, 본 발명은 온라인 강의 화면에 포함된 시각적 정보를 오디오로 변환하여 시각장애인에게 효과적으로 전달하는 방법을 제공하는 것을 목적으로 한다.The present invention has been made to solve the above-described problems, and an object of the present invention is to provide a method of converting visual information included in an online lecture screen into audio and effectively conveying it to the visually impaired.

본 발명의 다양한 실시 예에 따른 시각장애인을 위한 온라인 강의 콘텐츠 제공방법은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션(motion) 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 포함할 수 있다.A method for providing online lecture contents for the visually impaired according to various embodiments of the present invention includes a process of outputting text included in lecture materials as audio for a first hour, and outputting a lecturer's voice included in online lecture contents for a second hour. and, when the instructor's motion event occurs, outputting a description of the instructor's motion event in audio during a third time corresponding to the occurrence time of the motion event.

본 발명의 다양한 실시 예에 따른 사용자 단말은 저장부 및 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하고, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하고, 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 프로세서를 포함할 수 있다.The user terminal according to various embodiments of the present invention outputs the text included in the storage unit and the lecture material for the first time as voice, outputs the instructor's voice included in the online lecture content for the second time, and outputs the instructor's voice. When a motion event occurs, a processor outputting a description of the instructor's motion event as a voice during a third time period corresponding to the occurrence time of the motion event may be included.

본 발명의 다양한 실시 예에 따른 서버는 저장부 및 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하고, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하고, 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 프로세서를 포함할 수 있다.The server according to various embodiments of the present invention outputs the text included in the storage unit and the lecture material for the first time as voice, outputs the lecturer's voice included in the online lecture content for the second time, and outputs the lecturer's motion When an event occurs, it may include a processor outputting a description of the instructor's motion event as a voice during a third time corresponding to the occurrence time of the motion event.

본 발명의 다양한 실시 예에 따른 사용자 단말의 프로세서에 의해 실행되는 경우 상기 사용자 단말이 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 포함할 수 있다.In a non-transitory computer readable medium storing a computer command for causing the user terminal to perform an operation when executed by a processor of a user terminal according to various embodiments of the present disclosure, the operation is performed on lecture materials for a first time. The process of outputting the included text as voice, the process of outputting the instructor's voice included in the online lecture content during the second time, and the third time corresponding to the occurrence time of the motion event when the instructor's motion event occurs. A process of outputting a description of the instructor's motion event by voice may be included.

본 발명의 다양한 실시 예에 따르면, 온라인 강의 화면에 포함된 시각적 정보가 오디오로 변환되어 시각장애인에게 효과적으로 전달될 수 있다. 이를 통해, 시각장애인은 온라인 강의를 효과적으로 학습할 수 있다.According to various embodiments of the present invention, visual information included in the online lecture screen can be converted into audio and effectively delivered to the visually impaired. Through this, the visually impaired can effectively learn online lectures.

도 1은 본 발명의 일 실시 예에 따른 시각장애인을 위한 온라인 강의 시스템을 도시한다.
도 2는 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.
도 3은 본 발명의 일 실시 예에 따른 서버의 블록도이다.
도 4는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 구성요소를 도시한다.
도 5는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.
도 6은 본 발명의 일 실시 예에 따른 강의자료 중 일 슬라이드를 도시한다.
도 7은 본 발명의 다른 실시 예에 따른 강의자료 중 일 슬라이드를 도시한다.
도 8은 본 발명의 다른 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.
도 9는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 블록도이다.
도 10은 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 상세 블록도이다.
도 11은 본 발명의 일 실시 예에 따른 사용자 단말 또는 서버의 세부구성에 대한 블록도이다.
도 12는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 흐름도이다.
1 shows an online lecture system for the visually impaired according to an embodiment of the present invention.
2 is a block diagram of a user terminal according to an embodiment of the present invention.
3 is a block diagram of a server according to an embodiment of the present invention.
4 illustrates components of online lecture content according to an embodiment of the present invention.
5 illustrates audio sync of online lecture contents according to an embodiment of the present invention.
6 shows one slide of lecture materials according to an embodiment of the present invention.
7 shows one slide of lecture materials according to another embodiment of the present invention.
8 illustrates audio sync of online lecture contents according to another embodiment of the present invention.
9 is a block diagram of a method for providing online lecture contents according to an embodiment of the present invention.
10 is a detailed block diagram of a method for providing online lecture contents according to an embodiment of the present invention.
11 is a block diagram of a detailed configuration of a user terminal or server according to an embodiment of the present invention.
12 is a flowchart of a method for providing online lecture contents according to an embodiment of the present invention.

이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시 예에 대한 동작원리를 상세히 설명한다. 또한, 발명에 대한 실시 예를 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 개시의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 하기에서 사용되는 용어들7은 본 발명에서의 기능을 고려하여 정의된 용어들로써, 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 사용된 용어들의 정의는 본 명세서 전반에 걸친 내용 및 이에 상응한 기능을 토대로 해석되어야 할 것이다.Hereinafter, the operating principle of a preferred embodiment of the present invention will be described in detail with reference to the accompanying drawings. In addition, when it is determined that a detailed description of a related known function or configuration may obscure the gist of the present disclosure in describing an embodiment of the present invention, the detailed description will be omitted. In addition, terms 7 used below are terms defined in consideration of functions in the present invention, which may vary according to the intention or custom of a user or operator. Therefore, the definitions of the terms used should be interpreted based on the content throughout this specification and the corresponding function.

도 1은 본 발명의 일 실시 예에 따른 시각장애인을 위한 온라인 강의 콘텐츠 제공 시스템을 도시한다.1 illustrates an online lecture content providing system for the visually impaired according to an embodiment of the present invention.

도 1을 참조하면, 시각장애인을 위한 온라인 강의 콘텐츠 제공 시스템(1)은 서버(11) 및 사용자 단말(12)을 포함할 수 있다.Referring to FIG. 1 , a system 1 for providing online lecture contents for the visually impaired may include a server 11 and a user terminal 12 .

서버(11)는 온라인 강의 콘텐츠를 생성 및 제공할 수 있다.The server 11 may generate and provide online lecture content.

예를 들어, 서버(11)는 온라인 강의 콘텐츠 제작을 위한 플랫폼을 제공할 수 있다. For example, the server 11 may provide a platform for creating online lecture contents.

이 경우, 온라인 강의 콘텐츠 생성자는 서버(11)에 접속하여 강의자료 제작, 강의 촬영, 강의 편집 등을 수행하여 온라인 강의 콘텐츠를 제작할 수 있다.In this case, the online lecture content creator may connect to the server 11 and produce online lecture content by producing lecture materials, filming lectures, editing lectures, and the like.

한편, 서버(11)는 다량의 온라인 강의 파일을 포함하는 빅데이터를 통해 온라인 강의 파일에 대한 속성을 딥러닝할 수 있다. Meanwhile, the server 11 may perform deep learning on properties of online lecture files through big data including a large amount of online lecture files.

이를 통해, 서버(11)는 강의자료에 포함된 슬라이드의 속성, 온라인 강의 파일에 포함된 강사의 음성, 강사의 모션 등을 딥러닝할 수 있다.Through this, the server 11 may perform deep learning on the properties of slides included in lecture materials, the instructor's voice, and the instructor's motion included in online lecture files.

또한, 서버(11)는 인공지능(AI)을 통해 온라인 강의 파일에 대한 온라인 강의 콘텐츠를 생성할 수 있다. 여기서, 온라인 강의 콘텐츠는 시각 장애인을 위해 생성된 콘텐츠로 정의될 수 있다.In addition, the server 11 may generate online lecture content for online lecture files through artificial intelligence (AI). Here, online lecture content may be defined as content created for the visually impaired.

상술한 온라인 강의 콘텐츠는 비디오 파일 및 오디오 파일을 포함하거나, 오디오 파일만을 포함할 수 있다.The aforementioned online lecture content may include video files and audio files or only audio files.

일 예로, 온라인 강의 콘텐츠는 강의자료에 포함된 텍스트에 대한 음성을 포함할 수 있다. 또한, 온라인 강의 콘텐츠는 강사의 음성을 포함할 수 있다. 또한, 온라인 강의 콘텐츠는 강사의 모션 이벤트를 설명하는 음성을 포함할 수 있다.For example, online lecture content may include audio for text included in lecture materials. In addition, online lecture content may include a lecturer's voice. In addition, the online lecture content may include a voice describing the instructor's motion event.

상술한 강의자료에 포함된 텍스트에 대한 음성, 온라인 강의 콘텐츠에 포함된 강사의 음성 및 모션 이벤트를 설명하는 음성 각각은 기정의된 싱크로 온라인 강의 콘텐츠 내에 배치될 수 있다. 이에 대한 설명은 후술할 도 5 내지 도 8에서 상세하게 설명한다.Each of the voices for the text included in the above-described lecture materials, the lecturer's voice included in the online lecture contents, and the voice describing the motion events may be placed in the predefined synchronized online lecture contents. This will be described in detail in FIGS. 5 to 8 to be described later.

서버(11)는 제작된 온라인 강의 콘텐츠를 구조화하여 저장할 수 있다. 이 경우, 서버(11)는 온라인 강의 콘텐츠에 대한 주소를 제공할 수 있다. The server 11 may structure and store the produced online lecture content. In this case, the server 11 may provide an address for online lecture content.

또한, 특정 온라인 강의 콘텐츠에 대한 제공 요청이 사용자 단말(12)로부터 수신되는 경우, 서버(11)는 해당 온라인 강의 콘텐츠를 사용자 단말(12)로 전송할 수 있다. In addition, when a request for provision of specific online lecture contents is received from the user terminal 12 , the server 11 may transmit the corresponding online lecture contents to the user terminal 12 .

이 경우, 해당 온라인 강의 콘텐츠는 스트리밍으로 제공될 수도 있다.In this case, the corresponding online lecture content may be provided through streaming.

사용자 단말(12)은 서버(11)로부터 온라인 강의 콘텐츠를 제공받아 시각장애인에게 제공할 수 있다. 여기서, 사용자 단말(12)은 스마트폰, 태블릿 PC, PC, TV, 랩탑 등 다양한 전자기기일 수 있다. 이에 제한되는 것은 아니고, 사용자 단말(12)은 오디오만 재생 가능한 라디오와 같은 음향기기로 구현될 수도 있을 것이다.The user terminal 12 may receive online lecture contents from the server 11 and provide the contents to the visually impaired. Here, the user terminal 12 may be a variety of electronic devices such as smart phones, tablet PCs, PCs, TVs, and laptops. It is not limited thereto, and the user terminal 12 may be implemented as an acoustic device such as a radio capable of reproducing only audio.

예를 들면, 사용자 단말(12)은 기정의된 시간 동안 온라인 강의 콘텐츠에 포함된 텍스트를 음성으로 출력할 수 있다. For example, the user terminal 12 may output text included in online lecture content as voice for a predefined time period.

또한, 사용자 단말(12)은 기정의된 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력할 수 있다. In addition, the user terminal 12 may output the lecturer's voice included in the online lecture content for a predefined time.

또한, 사용자 단말(12)은 모션 이벤트에 대응되는 기정의된 시간 동안 강사의 모션 이벤트에 대한 설명을 음성으로 출력할 수 있다.In addition, the user terminal 12 may output a description of the instructor's motion event as a voice for a predefined time period corresponding to the motion event.

상술한 본 발명의 다양한 실시 예에 따르면, 온라인 강의 화면에 포함된 시각적 정보는 오디오로 변환되어 시각장애인에게 효과적으로 전달될 수 있다. 이를 통해, 시각장애인은 온라인 강의를 효과적으로 학습할 수 있다.According to various embodiments of the present invention described above, visual information included in the online lecture screen can be converted into audio and effectively delivered to the visually impaired. Through this, the visually impaired can effectively learn online lectures.

도 2는 본 발명의 일 실시 예에 따른 사용자 단말의 블록도이다.2 is a block diagram of a user terminal according to an embodiment of the present invention.

도 2를 참조하면, 사용자 단말(100)은 저장부(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 2 , the user terminal 100 may include a storage unit 110 and a processor 120 .

저장부(110)는 프로세서(120)의 제어에 따라 예를 들면, 통신 모듈, 멀티미디어 모듈, 카메라 모듈, 입/출력 모듈, 센서 모듈, 터치 스크린 등의 동작과정에 따라 입/출력되는 신호 또는 데이터를 저장할 수 있다.The storage unit 110 is input/output signals or data according to operation processes of, for example, a communication module, a multimedia module, a camera module, an input/output module, a sensor module, and a touch screen under the control of the processor 120. can be saved.

또한, 저장부(110)는 사용자 단말(100)의 제어를 위한 제어 프로그램 및 어플리케이션 등을 저장할 수 있다.Also, the storage unit 110 may store control programs and applications for controlling the user terminal 100 .

일 예로, 저장부(110)는 프로세서(120)에 포함될 수 있다.For example, the storage unit 110 may be included in the processor 120 .

일 예로, 저장부(110)는 롬, 램, 메모리 카드(예를 들어, SD 카드,메모리 스틱) 등의 임의의 데이터 저장 장치일 수 있다.For example, the storage unit 110 may be any data storage device such as ROM, RAM, or a memory card (eg, SD card or memory stick).

또한, 저장부(110)는 비휘발성 메모리, 휘발성 메모리, 하드 디스크 드라이브(HDD) 또는 솔리드 스테이트 드라이브(SSD)를 포함할 수도 있다.Also, the storage unit 110 may include a non-volatile memory, a volatile memory, a hard disk drive (HDD), or a solid state drive (SSD).

본 발명의 다양한 실시 예에 따르면, 저장부(110)는 온라인 강의 콘텐츠를 저장할 수 있다.According to various embodiments of the present disclosure, the storage unit 110 may store online lecture content.

일 예로, 저장부(110)는 강의자료에 포함된 텍스트에 대한 음성 데이터, 온라인 강의 콘텐츠에 포함된 강사의 음성 데이터, 강사의 모션 이벤트의 설명에 대한 음성 데이터를 저장할 수 있다.For example, the storage unit 110 may store audio data for text included in lecture materials, audio data for instructors included in online lecture content, and audio data for explanations of motion events by the instructor.

여기서, 강의자료는 온라인 강의 콘텐츠에 포함되어 영상으로 제공되거나, 별도의 파일로 제공될 수도 있다.Here, the lecture material may be included in the online lecture content and provided as a video, or may be provided as a separate file.

프로세서(120)는 사용자 단말(100)의 동작 및 구성요소를 전반적으로 제어할 수 있다. 여기서, 프로세서(120)는 단수 또는 복수로 구성될 수 있다.The processor 120 may control overall operations and components of the user terminal 100 . Here, the processor 120 may be singular or plural.

프로세서(120)는 서버(11)로부터 온라인 강의 컨텐츠를 수신할 수 있다. 여기서, 온라인 강의 컨텐츠는 상술한 시각장애인을 위한 온라인 강의 컨텐츠를 포함할 수 있다.The processor 120 may receive online lecture content from the server 11 . Here, the online lecture content may include the aforementioned online lecture content for the visually impaired.

프로세서(120)는 온라인 강의 컨텐츠에 기초하여, 강의자료에 포함된 텍스트를 제1 시간 동안 음성으로 출력할 수 있다.The processor 120 may output the text included in the lecture material as a voice for the first time based on the online lecture content.

또한, 프로세서(120)는 온라인 강의 콘텐츠에 포함된 강사의 음성을 제2 시간 동안 출력할 수 있다. Also, the processor 120 may output the instructor's voice included in the online lecture content for a second time.

일 예로, 프로세서(120)는 강의자료 중 제1 슬라이드에 포함된 텍스트를 제1 시간 동안 음성으로 출력할 수 있다.For example, the processor 120 may output the text included in the first slide of the lecture material as a voice for a first time.

여기서, 프로세서(120)는 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하여 제1 시간이 종료되면, 기설정된 시간 후에 온라인 강의 콘텐츠에 포함된 강사의 음성 출력을 시작하여 제2 시간 동안 상기 강사의 음성을 출력을 수행할 수 있다.Here, the processor 120 outputs the text included in the lecture material for the first time as a voice, and when the first time ends, the processor 120 starts outputting the instructor's voice included in the online lecture content after a predetermined time for the second time. The instructor's voice may be output.

또한 상술한 예에서, 프로세서(120)는 강사의 모션(motion) 이벤트를 출력할 수 있다.Also, in the above example, the processor 120 may output an instructor's motion event.

구체적으로, 프로세서(120)는 강사의 모션 이벤트가 발생한 경우, 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 강사의 모션 이벤트에 대한 설명을 음성으로 출력할 수 있다.Specifically, when an instructor's motion event occurs, the processor 120 may output a description of the instructor's motion event in voice for a third time corresponding to the occurrence time of the motion event.

여기서, 제3 시간이 모션 이벤트의 발생 시점에 대응한다는 것은, 제3 시간의 시점이 모션 이벤트의 발생 시점에 대응한다고 해석될 수 있다. 예를 들면, 제3 시간은 강사의 모션 이벤트가 발생한 시점에 시작될 수 있다.Here, the fact that the third time corresponds to the occurrence time of the motion event may be interpreted as that the time of the third time corresponds to the occurrence time of the motion event. For example, the third hour may start when the instructor's motion event occurs.

상술한 제3 시간은 제2 시간에 포함될 수 있다. The aforementioned third time may be included in the second time.

구체적으로, 강사의 모션 이벤트는 강의 중에 발생할 수 있다. 따라서, 강사의 음성이 출력되는 시간인 제2 시간은 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 제3 시간을 포함할 수 있다.Specifically, the instructor's motion event may occur during a lecture. Accordingly, the second time, which is the time when the instructor's voice is output, may include a third time when the instructor's description of the motion event is output as a voice.

상술한 모션 이벤트는 슬라이드에 포함된 텍스트 중 적어도 일부에 밑줄을 긋는 밑줄 모션, 슬라이드에 포함된 텍스트 중 적어도 일부에 형광펜을 긋는 형광펜 모션, 슬라이드에 포함된 일 영역에 체킹 모션, 슬라이드에 텍스트를 추가하는 텍스트 추가 모션 및 슬라이드에 포함된 텍스트를 삭제하는 텍스트 삭제 모션 중 적어도 하나를 포함할 수 있다.The motion events described above include an underlining motion for underlining at least some of the text included in the slide, a highlighter motion for writing a highlighter on at least some of the text included in the slide, a checking motion for one area included in the slide, and adding text to the slide. It may include at least one of a text adding motion for adding text and a text deleting motion for deleting text included in the slide.

한편, 일 예로, 프로세서(120)는 강의 슬라이드 중, 텍스트가 포함된 슬라이드의 번호를 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 현재 청취하고 있는 강의의 위치를 인지할 수 있다.Meanwhile, for example, the processor 120 may output the number of a slide including text among lecture slides as a voice. Through this, the visually impaired can recognize the location of the lecture they are currently listening to.

예를 들면, 프로세서(120)는 “슬라이드 1번”이라는 음성을 출력할 수 있다.For example, the processor 120 may output a voice saying “Slide No. 1”.

또한, 프로세서(120)는 강의 슬라이드에 포함된 텍스트가 애니메이션 효과를 포함하는 경우 애니메이션 효과에 대한 안내를 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 애니메이션 효과를 인지할 수 있다.In addition, the processor 120 may output a guide for the animation effect as a voice when the text included in the lecture slide includes the animation effect. Through this, a visually impaired person can recognize an animation effect.

예를 들면, 프로세서(120)는 “텍스트가 좌우로 흔들리는 애니메이션 효과”라는 음성을 출력할 수 있다.For example, the processor 120 may output a voice of “an animation effect in which text shakes from side to side”.

또는, 프로세서(120)는 상기 텍스트가 '가시리 가시리잇고 나는'인 경우, “'가시리 가시리잇고 나는'이 좌우로 흔들리는 애니메이션 효과”라는 음성을 출력할 수 있다.Alternatively, the processor 120 may output a voice saying "an animation effect in which 'I am going to fly' is shaking from side to side" when the text is 'I am going to fly'.

또한, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤(tone)은 강사의 음성의 톤과는 상이하도록 설정될 수 있다.Also, a tone of a voice output as a description of a motion event may be set to be different from that of an instructor.

예를 들면, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤은 강사의 음성의 톤보다 낮을 수 있다.For example, a tone of a voice output as a description of a motion event may be lower than that of an instructor.

상술한 바와 같이, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써(tone differentiation), 시각 장애인은 강사의 음성이 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.As described above, by differentiating the tone of the voice output as a description of the motion event and the tone of the instructor's voice (tone differentiation), the visually impaired can hear the voice output as a description of the motion event while the instructor's voice is output. Even if it is output, it can be clearly recognized by distinguishing the two.

상술한 본 발명의 다양한 실시 예에 따르면, 시각 장애인은 강의자료에 포함된 텍스트에 대한 정보, 강사가 음성으로 전달하는 정보, 강사가 모션으로 전달하는 정보 각각을 효과적으로 획득할 수 있다.According to various embodiments of the present invention described above, a visually impaired person can effectively obtain information about text included in lecture materials, information delivered by a lecturer through voice, and information delivered by a lecturer through motion.

상술한 도 2에서의 사용자 단말(100)의 동작은 서버에서도 수행될 수 있다. 이 경우, 서버는 상술한 도 2에서의 사용자 단말(100)의 동작이 사용자 단말(100)에서 수행될 수 있도록 관련 데이터를 사용자 단말(100)로 송수신할 수 있다.The operation of the user terminal 100 in FIG. 2 described above may also be performed by a server. In this case, the server may transmit and receive related data to and from the user terminal 100 so that the operation of the user terminal 100 in FIG. 2 may be performed in the user terminal 100 .

이하, 도 3을 참조하여 온라인 강의 콘텐츠 제공방법을 수행하는 서버의 동작을 상세히 설명한다.Hereinafter, the operation of the server performing the online lecture content providing method will be described in detail with reference to FIG. 3 .

도 3은 본 발명의 일 실시 예에 따른 서버의 블록도이다.3 is a block diagram of a server according to an embodiment of the present invention.

도 3을 참조하면, 서버(200)는 저장부(210) 및 프로세서(220)를 포함할 수 있다.Referring to FIG. 3 , the server 200 may include a storage unit 210 and a processor 220 .

일 예로, 저장부(210)는 온라인 강의 콘텐츠를 저장할 수 있다.For example, the storage unit 210 may store online lecture content.

저장부(210)는 강의자료에 포함된 텍스트에 대한 음성 데이터, 온라인 강의 콘텐츠에 포함된 강사의 음성 데이터, 강사의 모션 이벤트의 설명에 대한 음성 데이터를 저장할 수 있다.The storage unit 210 may store audio data for text included in lecture materials, audio data for instructors included in online lecture content, and audio data for explanations of motion events by the instructor.

여기서, 강의자료는 온라인 강의 콘텐츠에 포함되어 영상으로 제공되거나, 별도의 파일로 제공될 수도 있다.Here, the lecture material may be included in the online lecture content and provided as a video, or may be provided as a separate file.

프로세서(220)는 서버(200)의 동작 및 구성요소를 전반적으로 제어할 수 있다. 여기서, 프로세서(220)는 단수 또는 복수로 구성될 수 있다.The processor 220 may control overall operations and components of the server 200 . Here, the processor 220 may be singular or plural.

프로세서(220)는 딥러닝 및 인공지능을 통해 강의 영상 및 강의 오디오로부터 온라인 강의 컨텐츠를 제작할 수 있다.The processor 220 may create online lecture contents from lecture videos and lecture audio through deep learning and artificial intelligence.

예를 들어, 프로세서(220)는 온라인 강의 컨텐츠에 기초하여, 강의자료에 포함된 텍스트를 제1 시간 동안 음성으로 출력하도록 사용자 단말(100)을 제어할 수 있다.For example, the processor 220 may control the user terminal 100 to output the text included in the lecture materials as audio for a first time based on the online lecture contents.

또한, 프로세서(220)는 온라인 강의 콘텐츠에 포함된 강사의 음성을 제2 시간 동안 출력하도록 사용자 단말(100)을 제어할 수 있다.In addition, the processor 220 may control the user terminal 100 to output the instructor's voice included in the online lecture content for a second time.

일 예로, 프로세서(220)는 강의자료 중 제1 슬라이드에 포함된 텍스트를 제1 시간 동안 음성으로 출력하도록 사용자 단말(100)을 제어할 수 있다.For example, the processor 220 may control the user terminal 100 to output the text included in the first slide of the lecture material as a voice for a first time.

여기서, 프로세서(120)는 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하도록 사용자 단말(100)을 제어하여 제1 시간이 종료되면, 기설정된 시간 후에 온라인 강의 콘텐츠에 포함된 강사의 음성 출력을 시작하도록 사용자 단말(100)을 제어할 수 있다. Here, the processor 120 controls the user terminal 100 to output the text included in the lecture material as voice for the first time, and when the first time ends, the instructor's voice included in the online lecture content after a predetermined time The user terminal 100 may be controlled to start outputting.

또한, 프로세서(220)는 이로부터 제2 시간 동안 강사의 음성을 출력하도록 사용자 단말(100)을 제어할 수 있다.In addition, the processor 220 may control the user terminal 100 to output the instructor's voice during the second time therefrom.

또한 상술한 예에서, 프로세서(220)는 강사의 모션 이벤트를 출력하도록 사용자 단말(200)을 제어할 수 있다.Also, in the above example, the processor 220 may control the user terminal 200 to output an instructor's motion event.

구체적으로, 프로세서(220)는 강사의 모션 이벤트가 발생한 경우, 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 강사의 모션 이벤트에 대한 설명을 음성으로 출력하도록 사용자 단말(200)을 제어할 수 있다.Specifically, when the instructor's motion event occurs, the processor 220 may control the user terminal 200 to output a description of the instructor's motion event as a voice during the third time corresponding to the occurrence time of the motion event. .

여기서, 제3 시간이 모션 이벤트의 발생 시점에 대응한다는 것은 제3 시간의 시점이 모션 이벤트의 발생 시점에 대응한다고 해석될 수 있다. 예를 들면, 제3 시간은 강사의 모션 이벤트가 발생한 시점에 시작될 수 있다.Here, the fact that the third time corresponds to the occurrence time of the motion event may be interpreted as that the time of the third time corresponds to the occurrence time of the motion event. For example, the third hour may start when the instructor's motion event occurs.

상술한 제3 시간은 제2 시간에 포함될 수 있다. The aforementioned third time may be included in the second time.

구체적으로, 강사의 모션 이벤트는 강의 중에 발생할 수 있다. 따라서, 강사의 음성이 사용자 단말(200)에서 출력되는 시간인 제2 시간은 강사의 모션 이벤트에 대한 설명이 음성으로 사용자 단말(200)에서 출력되는 제3 시간을 포함할 수 있다.Specifically, the instructor's motion event may occur during a lecture. Accordingly, the second time when the instructor's voice is output from the user terminal 200 may include a third time when the instructor's description of the motion event is output from the user terminal 200 as a voice.

상술한 모션 이벤트는 슬라이드에 포함된 텍스트 중 적어도 일부에 밑줄을 긋는 밑줄 모션, 슬라이드에 포함된 텍스트 중 적어도 일부에 형광펜을 긋는 형광펜 모션, 슬라이드에 포함된 일 영역에 체킹 모션, 슬라이드에 텍스트를 추가하는 텍스트 추가 모션 및 슬라이드에 포함된 텍스트를 삭제하는 텍스트 삭제 모션 중 적어도 하나를 포함할 수 있다.The motion events described above include an underlining motion for underlining at least some of the text included in the slide, a highlighter motion for writing a highlighter on at least some of the text included in the slide, a checking motion for one area included in the slide, and adding text to the slide. It may include at least one of a text adding motion for adding text and a text deleting motion for deleting text included in the slide.

한편, 일 예로, 프로세서(220)는 강의 슬라이드 중, 텍스트가 포함된 슬라이드의 번호를 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 현재 청취하고 있는 강의의 위치를 인지할 수 있다.Meanwhile, for example, the processor 220 may output the number of a slide including text among lecture slides as a voice. Through this, the visually impaired can recognize the location of the lecture they are currently listening to.

예를 들면, 프로세서(220)는 “슬라이드 1번”이라는 음성을 사용자 단말(200)을 통해 출력할 수 있다.For example, the processor 220 may output a voice saying “Slide No. 1” through the user terminal 200 .

또한, 프로세서(220)는 강의 슬라이드에 포함된 텍스트가 애니메이션 효과를 포함하는 경우 애니메이션 효과에 대한 안내를 사용자 단말(200)을 통해 음성으로 출력할 수 있다. 이를 통해, 시각 장애인은 애니메이션 효과를 인지할 수 있다.In addition, when the text included in the lecture slide includes an animation effect, the processor 220 may output a guide for the animation effect through the user terminal 200 as a voice. Through this, a visually impaired person can recognize an animation effect.

예를 들면, 프로세서(220)는 “텍스트가 좌우로 흔들리는 애니메이션 효과”라는 음성을 사용자 단말(200)을 통해 출력할 수 있다.For example, the processor 220 may output a voice of “an animation effect in which text shakes left and right” through the user terminal 200 .

또는, 프로세서(220)는 상기 텍스트가 '가시리 가시리잇고 나는'인 경우, “'가시리 가시리잇고 나는'이 좌우로 흔들리는 애니메이션 효과”라는 음성을 출력하도록 사용자 단말(200)을 제어할 수 있다.Alternatively, the processor 220 may control the user terminal 200 to output a voice saying “an animation effect of 'I am going to fly' shaking left and right” when the text is 'I am going to fly'.

또한, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤(tone)은 강사의 음성의 톤과는 상이하도록 설정될 수 있다.Also, a tone of a voice output as a description of a motion event may be set to be different from that of an instructor.

예를 들면, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤은 강사의 음성의 톤보다 낮을 수 있다.For example, a tone of a voice output as a description of a motion event may be lower than that of an instructor.

상술한 바와 같이, 모션 이벤트에 대한 설명으로서 사용자 단말(200)에서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써(tone differentiation), 시각 장애인은 강사의 음성이 사용자 단말(200)에서 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.As described above, by differentiating the tone of the voice output from the user terminal 200 and the tone of the instructor's voice as a description of the motion event (tone differentiation), the visually impaired can output the instructor's voice from the user terminal 200. Even if a voice output as a description of a motion event is output during operation, the two can be distinguished and clearly recognized.

상술한 본 발명의 다양한 실시 예에 따르면, 시각 장애인은 강의자료에 포함된 텍스트에 대한 정보, 강사가 음성으로 전달하는 정보, 강사가 모션으로 전달하는 정보 각각을 효과적으로 획득할 수 있다.According to various embodiments of the present invention described above, a visually impaired person can effectively obtain information about text included in lecture materials, information delivered by a lecturer through voice, and information delivered by a lecturer through motion.

도 4는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 구성요소를 도시한다.4 illustrates components of online lecture content according to an embodiment of the present invention.

도 4를 참조하여 예를 들면, 온라인 강의 콘텐츠는 강의자료(배경 디스플레이), 강의해설(오디오), 판서(애니메이션 디스플레이)를 포함할 수 있다.Referring to FIG. 4 , for example, online lecture content may include lecture materials (background display), lecture commentary (audio), and writing (animation display).

여기서, 강의자료는 시각적 요소이고, 강의해설은 청각적 요소이고, 판서는 시각적 요소이다. 시각 장애인의 경우, 시각적으로 전달되는, 강의자료에 대한 정보 및 판서에 대한 정보를 획득하기 어렵다.Here, the lecture material is a visual element, the lecture commentary is an auditory element, and the writing is a visual element. In the case of the visually impaired, it is difficult to obtain information about lecture materials and writings that are visually delivered.

따라서, 강의자료에 대한 정보 및 판서에 대한 정보는 시각 장애인에게 오디오로 제공될 필요가 있다.Therefore, information on lecture materials and information on writings need to be provided as audio to the visually impaired.

강의자료에 대한 오디오, 강의해설(또는 강사의 음성)에 대한 오디오 및 판서 설명에 대한 오디오 모두를 시각 장애인에게 효과적으로 전달하기 위한 방법으로, 본 발명에서는 time slicing 방법과 tone differentiation 방법을 제안한다. As a method for effectively delivering audio for lecture materials, audio for lecture commentary (or lecturer's voice), and audio for writing explanations to the visually impaired, the present invention proposes a time slicing method and a tone differentiation method.

이하에서, 도 5를 참조하여 time slicing 방법과 tone differentiation 방법을 상세히 설명한다.Hereinafter, a time slicing method and a tone differentiation method will be described in detail with reference to FIG. 5 .

이하에서, 설명의 편의를 위해 온라인 강의 콘텐츠 제공방법을 사용자 단말(100)에서 수행되는 것으로 설명할 것이나, 서버(200)에서 수행되는 것으로 해석될 수 있음은 물론이다. Hereinafter, for convenience of description, the online lecture content providing method will be described as being performed in the user terminal 100, but it can be interpreted as being performed in the server 200, of course.

도 5는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.5 illustrates audio sync of online lecture contents according to an embodiment of the present invention.

도 5를 참조하면, 온라인 강의 콘텐츠는 강사의 음성(510), 강의자료에 대한 독음(520) 및 강사의 모션에 대한 독음(530)을 포함할 수 있다. 여기서, 온라인 강의 콘텐츠는 효과음 등의 다른 오디오도 포함할 수 있음은 물론이다.Referring to FIG. 5 , online lecture content may include a lecturer's voice 510, a lecture 520 for lecture materials, and a lecture 530 for motion. Here, of course, the online lecture content may also include other audio such as sound effects.

도 5에서는 강의 시작과 함께 첫 번째 슬라이드에 대한 강의가 시작됨을 가정한다.In FIG. 5 , it is assumed that the lecture on the first slide starts when the lecture starts.

도 5를 참조하면, 프로세서(120)는 첫 번째 슬라이드에 대한 강의자료의 독음(520)을 제1 시간(521) 동안 출력할 수 있다.Referring to FIG. 5 , the processor 120 may output a reading 520 of the lecture material for the first slide for a first time 521 .

제1 시간(521)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 제2 시간(511) 동안 첫 번째 슬라이드와 관련된 강사의 음성(510)을 출력할 수 있다.When a predefined time elapses after the first time 521 ends, the processor 120 may output the instructor's voice 510 related to the first slide during the second time 511 .

여기서, 제2 시간(511) 중 어느 시점에 강사의 모션 이벤트가 발생한 경우, 제3 시간(531) 동안 강사의 모션에 대한 독음(530)이 출력될 수 있다. Here, when an instructor's motion event occurs at any point during the second time period 511 , a solo sound 530 corresponding to the instructor's motion may be output during the third time period 531 .

일 예로, 제3 시간(531)은 제2 시간(511)에 포함되거나, 제2 시간(511) 중 적어도 일부와 겹칠 수 있다.For example, the third time 531 may be included in the second time 511 or may overlap at least part of the second time 511 .

한편, 프로세서(120)는 두 번째 슬라이드에 대한 강의자료의 독음(520)을 제4 시간(522) 동안 출력할 수 있다.Meanwhile, the processor 120 may output the reading 520 of the lecture material for the second slide during the fourth time 522 .

제4 시간(522)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 제5 시간(512) 동안 두 번째 슬라이드와 관련된 강사의 음성(510)을 출력할 수 있다.When a predetermined time elapses after the fourth time 522 ends, the processor 120 may output the instructor's voice 510 related to the second slide during the fifth time 512 .

여기서, 강의자료의 독음(520)이 출력되는 제4 시간(522) 및 강사의 음성(510)이 출력되는 제5 시간(512)은 서로 인터벌을 가지고 출력되는 time slicing 기법이 적용된다(501).Here, a time slicing technique is applied to the fourth time 522 when the reading 520 of the lecture material is output and the fifth time 512 when the lecturer's voice 510 is output at intervals (501). .

이를 통해, 강의자료의 독음(520) 및 강사의 음성(510)은 명확히 구분되어 시각장애인에게 전달될 수 있다.Through this, the reading 520 of the lecture material and the lecturer's voice 510 can be clearly distinguished and delivered to the visually impaired.

제5 시간(512) 중 어느 시점에 강사의 모션 이벤트가 발생한 경우, 제6 시간(532) 동안 강사의 모션에 대한 독음(530)이 출력될 수 있다. When an instructor's motion event occurs at any point during the fifth time 512 , a solo sound 530 corresponding to the instructor's motion may be output during the sixth time 532 .

일 예로, 제6 시간(532)은 제5 시간(512)에 포함되거나, 제5 시간(512) 중 적어도 일부와 겹칠 수 있다.For example, the sixth time 532 may be included in the fifth time 512 or overlap with at least a portion of the fifth time 512 .

여기서, 제5 시간(512) 동안 출력되는 강사의 음성(510)의 톤과 제6 시간(532) 동안 출력되는 강사의 모션에 대한 독음(530)의 톤은 상이하도록 설정되는 tone differentiation 기법이 적용될 수 있다(502).Here, a tone differentiation technique is applied in which the tone of the instructor's voice 510 output during the fifth hour 512 and the tone of the instructor's solo voice 530 output during the sixth hour 532 are different. can (502).

예를 들면, 제6 시간(532) 동안 출력되는 강사의 모션에 대한 독음(530)의 톤은 제5 시간(512) 동안 출력되는 강사의 음성(510)의 톤보다 낮을 수 있다.For example, the tone of the instructor's voice 530 output during the sixth hour 532 may be lower than the tone of the instructor's voice 510 output during the fifth hour 512 .

상술한 바와 같이, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써, 시각 장애인은 강사의 음성이 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.As described above, by making the tone of the voice output as a description of the motion event different from the tone of the instructor's voice, the blind can hear both even if the voice output as a description of the motion event is output while the instructor's voice is output. distinguishable and clearly recognizable.

또한, 프로세서(120)는 세 번째 슬라이드에 대한 강의자료의 독음(520)을 제7 시간(523) 동안 출력할 수 있다.Also, the processor 120 may output the reading 520 of the lecture material for the third slide during the seventh time 523 .

제7 시간(523)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 제8 시간(513) 동안 첫 번째 슬라이드와 관련된 강사의 음성(510)을 출력할 수 있다.When the predetermined time elapses after the seventh time 523 ends, the processor 120 may output the instructor's voice 510 related to the first slide during the eighth time 513 .

여기서, 제8 시간(513) 중 어느 두 시점에 강사의 모션 이벤트가 발생한 경우, 제9 시간(533) 및 제10 시간(534) 동안 강사의 모션에 대한 독음(530)이 출력될 수 있다.Here, when an instructor's motion event occurs at any two points of time during the eighth time period 513 , a solo sound 530 corresponding to the instructor's motion may be output during the ninth time period 533 and the tenth time period 534 .

일 예로, 제9 시간(533) 및 제10 시간(534)은 제8 시간(513)에 포함되거나, 제8 시간(513) 중 적어도 일부와 겹칠 수 있다.For example, the ninth time 533 and the tenth time 534 may be included in the eighth time 513 or may overlap at least part of the eighth time 513 .

이하, 도 6 내지 도 8을 참조하여, 실제 강의자료에 따른 시각장애인을 위한 온라인 강의 콘텐츠 제공방법을 상세히 설명한다.Hereinafter, with reference to FIGS. 6 to 8, a method of providing online lecture contents for the visually impaired according to actual lecture materials will be described in detail.

도 6에 도시된 강의자료 중 첫 번째 슬라이드(610)는 일명 '귀호곡(歸乎曲)'이라고도 불리는 작자 미상, 연대 미상의 고려가요 '가시리'의 일부인 '가시리 가시리잇고 나는 버리고 가시리잇고 나는'을 포함하고 있다.Among the lecture materials shown in FIG. 6, the first slide 610 is a part of the Goryeo song 'Gasiri' of an unknown author and an unknown date, also called 'Gwihogok', 'Gasiri, Gashiri, I Throw away, and I leave'. contains

도 7은 강의자료 중 첫 번째 슬라이드(610)에 '가시리 가시리잇고 나는 버리고 가시리잇고 나는'의 다음 구절인 '위 증즐가 대평성대'를 더 포함하고 있다.7, the first slide 610 of the lecture material further includes 'Wise Jeungjeulga Daepyeongseongdae', which is the next phrase of 'I am gone and I am gone and I am gone'.

일 예로, 상기 '위 증즐가 대평성대'는 애니메이션 효과와 함께 일 슬라이드(610)에 나타나도록 설정될 수 있다. 여기서, 애니메이션 효과는 동적 애니메이션 효과, 색채 애니메이션 효과 등 다양한 애니메이션 효과일 수 있다.For example, the 'Wijeungjeulga Daepyeongseongdae' may be set to appear on one slide 610 together with an animation effect. Here, the animation effect may be various animation effects such as a dynamic animation effect and a color animation effect.

다른 예로, 상기 '위 증즐가 대평성대'는 상기 일 슬라이드와는 다른 슬라이드에 포함되도록 설정될 수 있다. 이 경우, 상기 다른 슬라이드는 '가시리'의 일부인 '가시리 가시리잇고 나는 버리고 가시리잇고 나는' 및 '위 증즐가 대평성대'를 함께 포함할 수 있다.As another example, the 'Wijeungjeulga Daepyeongseongdae' may be set to be included in a slide different from the one slide. In this case, the other slides may include 'Gasiri, and I throw away, and I, and I, and I, and I, and I, and I,' and 'We, Jeungjeulga and Daepyeongseongdae,' which are part of 'Gasiri.'

도 8은 본 발명의 다른 실시 예에 따른 온라인 강의 콘텐츠의 오디오 싱크를 도시한다.8 illustrates audio sync of online lecture contents according to another embodiment of the present invention.

도 8을 참조하면, 온라인 강의 콘텐츠는 강사의 음성(810), 강의자료에 대한 독음(820) 및 강사의 모션에 대한 독음(830)을 포함할 수 있다. 여기서, 온라인 강의 콘텐츠는 효과음 등의 다른 오디오도 포함할 수 있음은 물론이다.Referring to FIG. 8 , online lecture content may include a lecturer's voice 810, a lecture 820 for lecture materials, and a lecture 830 for motion. Here, of course, the online lecture content may also include other audio such as sound effects.

도 8에서는 강의 시작과 함께 첫 번째 슬라이드에 대한 강의가 시작됨을 가정한다.In FIG. 8 , it is assumed that the lecture on the first slide starts when the lecture starts.

도 8을 참조하면, 프로세서(120)는 첫 번째 슬라이드에 대한 강의자료의 독음(820)을 제1 시간(821) 동안 출력할 수 있다.Referring to FIG. 8 , the processor 120 may output a reading 820 of the lecture material for the first slide for a first time 821 .

일 예로, 프로세서(120)는 첫 번째 슬라이드에 대한 설명인 “7번슬라이드내용”과 함께, 강의자료의 독음(820)인 “가시리 가시리 가시리잇고 나는 버리고 가시리잇고 나는”을 제1 시간(821) 동안 음성으로 출력할 수 있다.As an example, the processor 120 transmits “Slide No. 7 contents”, which is an explanation of the first slide, along with the reading 820 of the lecture material, “I am gone and I am gone” at the first time (821). It can be output by voice.

제1 시간(821)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 첫 번째 슬라이드와 관련된 강사의 음성(810)을 제2 시간(811) 동안 출력할 수 있다.When a predefined time elapses after the first time 821 ends, the processor 120 may output the instructor's voice 810 related to the first slide for a second time 811 .

일 예로, 프로세서(120)는 첫 번째 슬라이드와 관련된 강사의 음성(810)인 “여기는 의미없이 노래의 흥을 돋우는 구실을 합니다”를 제2 시간(811) 동안 출력할 수 있다.For example, the processor 120 may output the instructor's voice 810 related to the first slide, “This serves to increase the excitement of the song without meaning” for the second time period 811 .

여기서, 제2 시간(811) 중 특정 시점에 강사의 모션 이벤트가 발생한 경우, 강사의 모션에 대한 독음(830)이 제3 시간(831) 동안 출력될 수 있다.Here, when an instructor's motion event occurs at a specific time point during the second time period 811 , a solo sound 830 corresponding to the instructor's motion may be output during the third time period 831 .

일 예로, 제2 시간(811) 중 특정 시점에 '나는'에 밑줄을 긋는 강사의 모션 이벤트가 발생한 경우, 프로세서(120)는 모션 이벤트에 대한 설명인 “밑줄”과 밑줄에 대응되는 부분인 “나는”을 상기 특정 시점에 대응하는 시점부터 제3 시간(831) 동안 출력할 수 있다.For example, when a motion event of the instructor underlining 'I' occurs at a specific point in time during the second time 811, the processor 120 displays “underline”, which is a description of the motion event, and “underline”, which is a part corresponding to the underline. I” can be output during the third time 831 from the point corresponding to the specific point in time.

한편, 프로세서(120)는 애니메이션 효과를 가지는 문구에 대한 강의자료의 독음(820)을 제4 시간(822) 동안 출력할 수 있다.Meanwhile, the processor 120 may output a reading 820 of lecture material for a phrase having an animation effect for a fourth time period 822 .

일 예로, 프로세서(120)는 애니메이션 효과를 통해 나타난 '위 증즐가 태평성대'에 대하여, 애니메이션 효과를 가짐을 나타내는 설명인 “애니메이션 내용”과 해당 내용인 “위 증즐가 태평성대”를 제4 시간(822) 동안 출력할 수 있다.For example, the processor 120 transmits “animation content”, which is an explanation indicating that it has an animation effect, and “we jeungjulga calmness,” which is the corresponding content, to the fourth time for 'We Jeungjeulga Peaceful Seongdae' shown through an animation effect. During (822), it can be output.

제4 시간(822)이 종료된 후 기정의된 시간이 도과하면, 프로세서(120)는 애니메이션 효과에 대한 설명인 강사의 음성(810)을 제5 시간(812) 동안 출력할 수 있다.When a predetermined time elapses after the fourth time 822 ends, the processor 120 may output an instructor's voice 810 that is an explanation of the animation effect for the fifth time 812 .

여기서, 강의자료의 독음(820)이 출력되는 제4 시간(822) 및 강사의 음성(810)이 출력되는 제5 시간(812)은 서로 인터벌을 가지고 출력되는 time slicing 기법이 적용된다.Here, a time slicing technique is applied to the fourth time 822 when the reading 820 of the lecture material is output and the fifth time 812 when the lecturer's voice 810 is output at intervals.

이를 통해, 강의자료의 독음(820) 및 강사의 음성(810)은 명확히 구분되어 시각장애인에게 전달될 수 있다.Through this, the reading 820 of the lecture material and the lecturer's voice 810 can be clearly distinguished and delivered to the visually impaired.

제5 시간(812) 중 특정 시점에 강사의 모션 이벤트가 발생한 경우, 강사의 모션에 대한 독음(830)이 제6 시간(832) 동안 출력될 수 있다If an instructor's motion event occurs at a specific time point during the fifth time period 812, a solo sound 830 for the instructor's motion may be output during the sixth time period 832.

일 예로, 제5 시간(812) 중 특정 시점에 강사의 형광펜을 표시하는 모션 이벤트가 발생한 경우, 모션 이벤트에 대한 설명인 “형광펜”과 형광펜이 표시된 영역에 해당하는 텍스트인 “위 증즐가 대평성대”가 제6 시간(832) 동안 출력될 수 있다.For example, when a motion event displaying the instructor's highlighter occurs at a specific time point during the fifth time 812, a description of the motion event "highlighter" and a text corresponding to the area where the highlighter is displayed are "upper jeungjeulga Daepyongseong University" ” may be output during the sixth time period 832 .

여기서, 제5 시간(812) 동안 출력되는 강사의 음성(810)의 톤과 제6 시간(832) 동안 출력되는 강사의 모션에 대한 독음(830)의 톤은 상이하도록 설정되는 tone differentiation 기법이 적용될 수 있다.Here, a tone differentiation technique is applied in which the tone of the instructor's voice 810 output during the fifth time period 812 and the tone of the lecturer's solo speech 830 for motion output during the sixth time period 832 are different. can

예를 들면, 제6 시간(832) 동안 출력되는 강사의 모션에 대한 독음(830)인 “형광펜 위증즐가 대평성대”의 톤은 제5 시간(812) 동안 출력되는 강사의 음성(810)인 “다음 본문입니다. 이 부분은 후렴구입니다.”의 톤보다 낮을 수 있다.For example, the tone of “Highlighter Wijeungjeulga Daepyeongseongdae,” which is the solo sound 830 for the instructor's motion output during the sixth hour 832, is the instructor's voice 810 output during the fifth hour 812, “ Here is the text: This part is the chorus.”

상술한 바와 같이, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤과 강사의 음성의 톤을 달리 함으로써, 시각 장애인은 강사의 음성이 출력되는 중에 모션 이벤트에 대한 설명으로서 출력되는 음성이 출력되더라도 양자를 구별하여 명확히 인지할 수 있다.As described above, by making the tone of the voice output as a description of the motion event different from the tone of the instructor's voice, the blind can hear both even if the voice output as a description of the motion event is output while the instructor's voice is output. distinguishable and clearly recognizable.

도 9는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 블록도이다.9 is a block diagram of a method for providing online lecture contents according to an embodiment of the present invention.

도 9를 참조하면, 프로세서(120)는 온라인 강의(동영상)를 딥러닝하여 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다. Referring to FIG. 9 , the processor 120 may deep-learn online lectures (videos) to generate online lecture contents for the visually impaired.

예를 들면, 프로세서(120)는 다량의 온라인 강의 파일에 대한 분석을 수행할 수 있다(910). 또한, 프로세서(120)는 분석된 파일에 기초하여 독음에 대한 스케줄링을 학습할 수 있다.For example, the processor 120 may perform analysis on a large number of online lecture files (910). Also, the processor 120 may learn scheduling for solo sounds based on the analyzed file.

이 경우, 프로세서(120)는 강의자료에 포함된 텍스트에 기초하여 강의자료 독음 파일을 생성할 수 있다(TTS, text-to-speech)(920).In this case, the processor 120 may generate a text-to-speech (TTS) file based on text included in the lecture material (920).

또한, 프로세서(120)는 강의 오디오/비디오를 생성할 수 있다. 또는, 프로세서(120)는 시각장애인 제공을 위한 오디오만을 생성할 수도 있다.Also, the processor 120 may generate lecture audio/video. Alternatively, the processor 120 may generate only audio for providing the visually impaired.

프로세서(120)는 강사의 모션에 대한 독음을 생성할 수 있다.The processor 120 may generate a solo sound for the instructor's motion.

프로세서(120)는 상수한 강의자료 독음, 강의 오디오/비디오 및 강사 모션 독음을 포함하는 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.The processor 120 may generate online lecture contents for the visually impaired, including constant lecture material reading, lecture audio/video, and lecturer motion reading.

도 10은 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 상세 블록도이다.10 is a detailed block diagram of a method for providing online lecture contents according to an embodiment of the present invention.

도 10을 참조하면, 프로세서(120)는 온라인 강의(동영상)를 딥러닝하여 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.Referring to FIG. 10 , the processor 120 may deep-learn online lectures (videos) to generate online lecture contents for the visually impaired.

예를 들면, 프로세서(120)는 다량의 온라인 강의 파일에 대한 분석을 수행할 수 있다(910). 또한, 프로세서(120)는 분석된 파일에 기초하여 독음에 대한 스케줄링을 학습할 수 있다.For example, the processor 120 may perform analysis on a large number of online lecture files (910). Also, the processor 120 may learn scheduling for solo sounds based on the analyzed file.

프로세서(120)는 강의자료의 독음을 생성할 수 있다(920).The processor 120 may generate a reading sound of the lecture material (920).

구체적으로, 프로세서(120)는 딥러닝 기반의 강의자료 해석을 수행할 수 있다(921). 또한, 프로세서(120)는 time slicing 기법을 적용하여 TTS 독음을 생성할 수 있다(922).Specifically, the processor 120 may perform analysis of lecture materials based on deep learning (921). Also, the processor 120 may generate a TTS solo sound by applying a time slicing technique (922).

또한, 프로세서(120)는 강의 오디오/비디오를 생성할 수 있다. 또는, 프로세서(120)는 시각장애인 제공을 위한 오디오만을 생성할 수도 있다.Also, the processor 120 may generate lecture audio/video. Alternatively, the processor 120 may generate only audio for providing the visually impaired.

또한, 프로세서(120)는 강사의 모션에 대한 독음을 생성할 수 있다(940).Also, the processor 120 may generate a solo sound for the instructor's motion (940).

구체적으로, 프로세서(120)는 딥러닝에 기반하여 강사의 모션을 해석할 수 있다(941). Specifically, the processor 120 may analyze the instructor's motion based on deep learning (941).

또한, 프로세서(120)는 tone differentiation 기법을 적용하여 강사 모션에 대한 TTS 독음을 생성할 수 있다(942).In addition, the processor 120 may generate a TTS solo sound for the instructor's motion by applying a tone differentiation technique (942).

상술한 동작에 기반하여, 프로세서(120)는 상술한 강의자료 독음, 강의 오디오/비디오 및 강사 모션 독음을 포함하는 시각장애인을 위한 온라인 강의 콘텐츠를 생성할 수 있다.Based on the above-described operation, the processor 120 may generate online lecture contents for the visually impaired, including the above-described lecture material reading, lecture audio/video, and instructor motion reading.

도 11은 본 발명의 일 실시 예에 따른 사용자 단말 또는 서버의 세부구성에 대한 블록도이다.11 is a block diagram of a detailed configuration of a user terminal or server according to an embodiment of the present invention.

도 11를 참조하면, 사용자 단말 또는 서버(1100)는 통신부(1110), 저장부(1120) 및 프로세서(1130)를 포함한다.Referring to FIG. 11 , a user terminal or server 1100 includes a communication unit 1110 , a storage unit 1120 and a processor 1130 .

통신부(1110)는 통신을 수행한다. 통신부(1110)는 BT(BlueTooth), WI-FI(Wireless Fidelity), ZigBee, IR(Infrared), NFC(Near Field Communication) 등과 같은 다양한 통신 방식을 통해 외부 전자기기와 통신을 수행할 수 있다.The communication unit 1110 performs communication. The communication unit 1110 may communicate with an external electronic device through various communication methods such as BT (BlueTooth), WI-FI (Wireless Fidelity), ZigBee, IR (Infrared), NFC (Near Field Communication), and the like.

저장부(1120)는 사용자 단말 또는 서버(1100)를 구동시키기 위한 O/S(Operating System) 소프트웨어 모듈, 디스플레이 영역에서 제공되는 다양한 UI 화면을 구성하기 위한 데이터 등을 저장할 수 있다. The storage unit 1120 may store an O/S (Operating System) software module for driving a user terminal or server 1100 and data for configuring various UI screens provided in a display area.

또한, 저장부(1120)는 읽고 쓰기가 가능하다.Also, the storage unit 1120 is capable of reading and writing.

프로세서(1130)는 저장부(1120)에 저장된 각종 프로그램을 이용하여 사용자 단말 또는 서버(1100)의 동작을 전반적으로 제어한다.The processor 1130 generally controls the operation of the user terminal or server 1100 using various programs stored in the storage unit 1120 .

구체적으로, 프로세서(1130)는 RAM(1131), ROM(1132), 메인 CPU(1133), 그래픽 처리부(1134), 제1 내지 n 인터페이스(1135-1 ~ 1135-n) 및 버스(1136)를 포함한다.Specifically, the processor 1130 includes a RAM 1131, a ROM 1132, a main CPU 1133, a graphics processing unit 1134, first to n interfaces 1135-1 to 1135-n, and a bus 1136. include

여기서, RAM(1131), ROM(1132), 메인 CPU(133), 그래픽 처리부(1134), 제1 내지 n 인터페이스(1135-1 ~ 1135-n) 등은 버스(1136)를 통해 서로 연결될 수 있다.Here, the RAM 1131, the ROM 1132, the main CPU 133, the graphic processing unit 1134, and the first to n interfaces 1135-1 to 1135-n may be connected to each other through a bus 1136. .

제1 내지 n 인터페이스(1135-1 내지 1135-n)는 상술한 각종 구성요소들과 연결된다. 인터페이스들 중 하나는 네트워크를 통해 외부 장치와 연결되는 네트워크 인터페이스가 될 수도 있다.The first to n interfaces 1135-1 to 1135-n are connected to the various components described above. One of the interfaces may be a network interface connected to an external device through a network.

ROM(1132)에는 시스템 부팅을 위한 명령어 세트 등이 저장된다. 턴온 명령이 입력되어 전원이 공급되면, 메인 CPU(1133)는 ROM(1132)에 저장된 명령어에 따라 저장부(1130)에 저장된 O/S를 RAM(1131)에 복사하고, O/S를 실행시켜 시스템을 부팅시킨다. The ROM 1132 stores a command set for system booting and the like. When a turn-on command is input and power is supplied, the main CPU 1133 copies the O/S stored in the storage 1130 to the RAM 1131 according to the command stored in the ROM 1132 and executes the O/S. boot up the system

부팅이 완료되면, 메인 CPU(1133)는 저장된 각종 어플리케이션 프로그램을 RAM(1131)에 복사하고, RAM(1131)에 복사된 어플리케이션 프로그램을 실행시켜 각종 동작을 수행한다.When booting is completed, the main CPU 1133 copies various application programs stored in the RAM 1131 and executes the copied application programs in the RAM 1131 to perform various operations.

메인 CPU(1133)는 저장부(1130)에 액세스하여, 저장부(1130)에 저장된 O/S를 이용하여 부팅을 수행한다. 그리고, 메인 CPU(1133)는 저장부(1130)에 저장된 각종 프로그램, 컨텐트, 데이터 등을 이용하여 다양한 동작을 수행한다.The main CPU 1133 accesses the storage unit 1130 and performs booting using the O/S stored in the storage unit 1130 . In addition, the main CPU 1133 performs various operations using various programs, contents, data, and the like stored in the storage unit 1130 .

그래픽 처리부(1134)는 연산부 및 렌더링부를 이용하여 아이콘, 이미지, 텍스트 등과 같은 다양한 객체를 포함하는 화면을 생성한다.The graphics processing unit 1134 creates a screen including various objects such as icons, images, and texts by using a calculation unit and a rendering unit.

도 12는 본 발명의 일 실시 예에 따른 온라인 강의 콘텐츠 제공방법에 대한 흐름도이다.12 is a flowchart of a method for providing online lecture contents according to an embodiment of the present invention.

도 12를 참조하면, 시각장애인을 위한 온라인 강의 콘텐츠 제공방법은 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정(1210), 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정(1220) 및 상기 강사의 모션(motion) 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정(1230)을 포함할 수 있다.Referring to FIG. 12, a method of providing online lecture content for the visually impaired includes a process of outputting text included in lecture materials as audio for a first hour (1210), and a lecturer's voice included in online lecture contents for a second hour. Outputting (1220) and, when the instructor's motion event occurs, outputting (1230) a description of the instructor's motion event in audio for a third time corresponding to the occurrence time of the motion event. can include

일 예로, 상술한 제2 시간은 제1 시간이 종료된 후 기정의된 시간 후에 시작될 수 있다.For example, the aforementioned second time period may start after a predetermined time period after the first time period ends.

또한, 일 예로 상술한 제3 시간은 제2 시간에 포함될 수 있다.Also, as an example, the above-described third time may be included in the second time.

상술한 일 예에서, 상기 제3 시간은 강사의 모션 이벤트가 발생한 시점에서 시작되도록 설정될 수 있다.In the above-described example, the third time may be set to start at the time when the instructor's motion event occurs.

한편, 상술한 온라인 강의 콘텐츠 제공방법에서, 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정은, 텍스트가 포함된 슬라이드의 번호를 음성으로 출력하는 과정을 더 포함할 수 있다.Meanwhile, in the above-described online lecture content providing method, the step of outputting the text included in the lecture material for the first hour as a voice may further include a step of outputting a number of a slide including the text as a voice.

또한, 상술한 온라인 강의 콘텐츠 제공방법에서, 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정은, 텍스트가 애니메이션 효과를 포함하는 경우, 애니메이션 효과에 대한 안내를 음성으로 출력하는 과정을 더 포함할 수 있다.In addition, in the above-described online lecture content providing method, the process of outputting the text included in the lecture material for the first hour as a voice includes, when the text includes an animation effect, a process of outputting a guide for the animation effect as a voice. can include more.

상술한 예에서, 모션 이벤트는 밑줄 모션, 형광펜 모션, 체킹 모션, 텍스트 추가 모션 및 텍스트 삭제 모션 중 적어도 하나를 포함할 수 있다.In the above example, the motion event may include at least one of an underline motion, a highlighter motion, a checking motion, a text addition motion, and a text deletion motion.

또한, 상술한 예에서, 모션 이벤트에 대한 설명으로서 출력되는 음성의 톤(tone)은 강사의 음성의 톤과는 상이하도록 설정될 수 있다.In addition, in the above example, a tone of a voice output as a description of a motion event may be set to be different from that of an instructor.

일 예로, 모션 이벤트에 대한 상기 설명으로서 출력되는 음성의 톤은 강사의 음성의 톤보다 낮도록 설정될 수 있다.For example, the tone of a voice output as the description of the motion event may be set to be lower than that of the instructor.

한편, 상술한 본 발명의 다양한 실시 예에 따른 온라인 강의 콘텐츠 제공방법은 컴퓨터로 실행 가능한 프로그램 코드로 구현되어 다양한 비 일시적 판독 가능 매체(non-transitory computer readable medium)에 저장된 상태로 프로세서에 의해 실행되도록 각 서버 또는 기기들에 제공될 수 있다.On the other hand, the above-described method for providing online lecture contents according to various embodiments of the present invention is implemented as computer-executable program code and stored in various non-transitory computer readable media to be executed by a processor. It can be provided to each server or devices.

일 예로, 제1 시간 동안 강의자료에 포함된 텍스트를 음성으로 출력하는 과정, 제2 시간 동안 온라인 강의 콘텐츠에 포함된 강사의 음성을 출력하는 과정 및 상기 강사의 모션 이벤트가 발생한 경우, 상기 모션 이벤트의 발생 시점에 대응되는 제3 시간 동안 상기 강사의 모션 이벤트에 대한 설명을 음성으로 출력하는 과정을 수행하는 프로그램이 저장된 비일시적 판독 가능 매체(non-transitory computer readable medium)가 제공될 수 있다.For example, when a process of outputting text included in lecture materials as audio for a first hour, a process of outputting a lecturer's voice included in online lecture contents for a second hour, and a motion event of the instructor occur, the motion event A non-transitory computer readable medium in which a program for performing a process of outputting a description of the instructor's motion event as a voice during the third time corresponding to the time of occurrence may be provided.

비 일시적 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상술한 다양한 어플리케이션 또는 프로그램들은 CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등과 같은 비일시적 판독 가능 매체에 저장되어 제공될 수 있다.A non-transitory readable medium refers to a medium that stores data semi-permanently and can be read by a device, rather than a medium that stores data for a short moment, such as a register, cache, or memory. Specifically, the various applications or programs described above may be stored and provided in non-transitory readable media such as CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상으로, 본 발명의 실시 예들이 도시되고 설명되었지만, 당업자는 첨부된 청구항들 및 그에 동등한 것들에 의해 정의되는 바와 같은 본 실시 예의 사상 및 범위를 벗어나지 않고 형태 및 세부 사항들에 있어 다양한 변경이 이루어질 수 있음을 이해할 것이다.While embodiments of the present invention have been shown and described above, those skilled in the art may make various changes in form and detail without departing from the spirit and scope of the present embodiments as defined by the appended claims and equivalents thereto. you will understand that you can

온라인 강의 콘텐츠 제공 시스템: 1
서버: 11, 200
사용자 단말: 12, 100
저장부: 110, 210
프로세서: 120, 220
Online lecture content provision system: 1
Servers: 11, 200
User Terminal: 12, 100
Reservoir: 110, 210
Processor: 120, 220

Claims (20)

사용자 단말에서 수행되는, 시각장애인을 위한 온라인 강의 콘텐츠 제공방법에 있어서,
제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하는 과정;
상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하는 과정;
상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하는 과정;
상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하는 과정;
상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하는 과정; 및
상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 과정;을 포함하고,
상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
상기 체킹 모션 이벤트는,
밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 온라인 강의 콘텐츠 제공방법.
In the method of providing online lecture contents for the visually impaired, which is performed in a user terminal,
outputting a text included in one of at least one lecture slide included in lecture materials for a first hour as a voice;
outputting a number of a lecture slide including the text among the at least one lecture slide during the first time by voice;
outputting a lecturer's voice corresponding to one of the one or more lecture slides during a second time period when a predetermined time period elapses after the first time period ends;
When a checking motion event for at least a portion of the text included in one of the at least one lecture slide is generated by the instructor, during the third time from the occurrence of the checking motion event, the instructor continuously outputting the name of the checking motion event and the checked at least part of the text included in one of the at least one lecture slide as audio;
When text included in another one of the at least one lecture slide included in the lecture material has an animation effect, continuously outputting a phrase indicating that the text has the animation effect and a phrase subject to the animation effect as voice; and
When a predefined time elapses after continuously outputting the phrase indicating having the animation effect and the phrase subject to the animation effect as audio, the instructor's voice as an explanation of the phrase subject to the animation effect is output. Including;
The tone of the voice through which the name of the checking motion event is output and the tone of the voice through which the at least part of the checked text is output are set lower than the tone of the instructor's voice output during the second time,
The second time period begins a predetermined time after the first time period ends and includes at least a portion of the third time period;
The third time starts when the instructor's checking motion event occurs,
The checking motion event,
An online lecture content providing method comprising at least one of an underlining motion, a highlighter motion, and a checking motion.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 사용자 단말에 있어서,
저장부; 및
제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하고,
상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하고,
상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하고,
상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하고,
상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하고,
상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 프로세서;를 포함하고,
상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
상기 체킹 모션 이벤트는,
밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 사용자 단말.
In the user terminal,
storage unit; and
During the first hour, the text included in one of the at least one lecture slide included in the lecture material is output as a voice;
Outputting the number of a lecture slide including the text among the at least one lecture slide during the first time by voice;
When a predefined time elapses after the first time has elapsed, an instructor's voice corresponding to one of the at least one lecture slide is output for a second time,
When a checking motion event for at least a portion of the text included in one of the one or more lecture slides is generated by the instructor, during the third time from the occurrence of the checking motion event, the instructor Continuously outputting the name of the checking motion event and the checked at least part of the text included in one of the at least one lecture slide as voice;
When text included in another one of the at least one lecture slide included in the lecture material has an animation effect, a phrase indicating that it has the animation effect and a phrase subject to the animation effect are continuously output as voice;
When a predefined time elapses after continuously outputting the phrase indicating having the animation effect and the phrase subject to the animation effect as audio, the instructor's voice as an explanation of the phrase subject to the animation effect is output. Including; a processor that
The tone of the voice through which the name of the checking motion event is output and the tone of the voice through which the at least part of the checked text is output are set lower than the tone of the instructor's voice output during the second time,
The second time period begins a predetermined time after the first time period ends and includes at least a portion of the third time period;
The third time starts when the checking motion event of the instructor occurs,
The checking motion event,
A user terminal including at least one of an underlining motion, a highlighter motion, and a checking motion.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 서버에 있어서,
저장부; 및
제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하고,
상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하고,
상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하고,
상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하고,
상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하고,
상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 프로세서;를 포함하고,
상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
상기 체킹 모션 이벤트는,
밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 서버.
in the server,
storage unit; and
During the first hour, the text included in one of the at least one lecture slide included in the lecture material is output as a voice;
Outputting the number of a lecture slide including the text among the at least one lecture slide during the first time by voice;
When a predefined time elapses after the first time has elapsed, an instructor's voice corresponding to one of the at least one lecture slide is output for a second time,
When a checking motion event for at least a portion of the text included in one of the at least one lecture slide is generated by the instructor, during the third time from the occurrence of the checking motion event, the instructor Continuously outputting the name of the checking motion event and the checked at least part of the text included in one of the at least one lecture slide as voice;
When text included in another one of the at least one lecture slide included in the lecture material has an animation effect, a phrase indicating that it has the animation effect and a phrase subject to the animation effect are continuously output as voice;
When a predefined time elapses after continuously outputting the phrase indicating having the animation effect and the phrase subject to the animation effect as audio, the instructor's voice as an explanation of the phrase subject to the animation effect is output. Including; a processor that
The tone of the voice through which the name of the checking motion event is output and the tone of the voice through which the at least part of the checked text is output are set lower than the tone of the instructor's voice output during the second time,
The second time period begins a predetermined time after the first time period ends and includes at least a portion of the third time period;
The third time starts when the checking motion event of the instructor occurs,
The checking motion event,
A server comprising at least one of an underlining motion, a highlighter motion, and a checking motion.
사용자 단말의 프로세서에 의해 실행되는 경우 상기 사용자 단말이 동작을 수행하도록 하는 컴퓨터 명령을 저장하는 비일시적 컴퓨터 판독 가능 매체에 있어서, 상기 동작은,
제1 시간 동안 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 하나에 포함된 텍스트를 음성으로 출력하는 과정;
상기 제1 시간 동안 상기 적어도 하나의 강의 슬라이드 중 상기 텍스트가 포함된 강의 슬라이드의 번호를 음성으로 출력하는 과정;
상기 제1 시간이 종료된 후 기정의된 시간이 도과하면, 제2 시간 동안 상기 적어도 하나의 강의 슬라이드 중 하나에 대응되는 강사의 음성을 출력하는 과정;
상기 강사에 의해, 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 적어도 일부에 대한 체킹 모션 이벤트(checking motion event)가 발생한 경우, 상기 체킹 모션 이벤트의 발생 시점부터 제3 시간 동안 상기 강사의 체킹 모션 이벤트의 명칭과 상기 적어도 하나의 강의 슬라이드 중 하나에 포함된 상기 텍스트 중 체킹된 상기 적어도 일부를 연속하여 음성으로 출력하는 과정;
상기 강의자료에 포함된 적어도 하나의 강의 슬라이드 중 다른 하나에 포함된 텍스트가 애니메이션 효과를 갖는 경우, 상기 애니메이션 효과를 가짐을 나타내는 문구 및 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력하는 과정; 및
상기 애니메이션 효과를 가짐을 나타내는 문구 및 상기 애니메이션 효과의 대상이 되는 문구를 연속하여 음성으로 출력한 후 기정의된 시간이 도과하면, 상기 애니메이션 효과의 대상이 되는 문구에 대한 설명인 강사의 음성을 출력하는 과정;을 포함하고,
상기 체킹 모션 이벤트의 명칭이 출력되는 음성의 톤(tone)과 상기 텍스트 중 체킹된 상기 적어도 일부가 출력되는 음성의 톤은, 상기 제2 시간 동안 출력되는 상기 강사 음성의 톤보다 낮게 설정되고,
상기 제2 시간은, 상기 제1 시간이 종료된 후 기정의된 시간 후에 시작되며, 상기 제3 시간의 적어도 일부를 포함하고,
상기 제3 시간은, 상기 강사의 상기 체킹 모션 이벤트가 발생한 시점에서 시작되고,
상기 체킹 모션 이벤트는,
밑줄 모션, 형광펜 모션 및 체킹 모션 중 적어도 하나를 포함하는, 비일시적 컴퓨터 판독 가능 매체.
A non-transitory computer readable medium storing computer instructions that cause the user terminal to perform an operation when executed by a processor of a user terminal, wherein the operation comprises:
outputting a text included in one of at least one lecture slide included in lecture materials for a first hour as a voice;
outputting a number of a lecture slide including the text among the at least one lecture slide during the first time by voice;
outputting a lecturer's voice corresponding to one of the one or more lecture slides during a second time period when a predetermined time period elapses after the first time period ends;
When a checking motion event for at least a portion of the text included in one of the at least one lecture slide is generated by the instructor, during the third time from the occurrence of the checking motion event, the instructor continuously outputting the name of the checking motion event and the checked at least part of the text included in one of the at least one lecture slide as audio;
When text included in another one of the at least one lecture slide included in the lecture material has an animation effect, continuously outputting a phrase indicating that the text has the animation effect and a phrase subject to the animation effect as voice; and
When a predefined time elapses after continuously outputting the phrase indicating having the animation effect and the phrase subject to the animation effect as audio, the instructor's voice as an explanation of the phrase subject to the animation effect is output. Including;
The tone of the voice through which the name of the checking motion event is output and the tone of the voice through which the at least part of the checked text is output are set lower than the tone of the instructor's voice output during the second time,
The second time period begins a predetermined time after the first time period ends and includes at least a portion of the third time period;
The third time starts when the instructor's checking motion event occurs,
The checking motion event,
A non-transitory computer-readable medium comprising at least one of an underlining motion, a highlighter motion, and a checking motion.
KR1020200134615A 2020-10-16 2020-10-16 Method for providing online lecture content for visually-impaired person and user terminal thereof KR102495597B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200134615A KR102495597B1 (en) 2020-10-16 2020-10-16 Method for providing online lecture content for visually-impaired person and user terminal thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200134615A KR102495597B1 (en) 2020-10-16 2020-10-16 Method for providing online lecture content for visually-impaired person and user terminal thereof

Publications (2)

Publication Number Publication Date
KR20220050668A KR20220050668A (en) 2022-04-25
KR102495597B1 true KR102495597B1 (en) 2023-02-06

Family

ID=81451809

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200134615A KR102495597B1 (en) 2020-10-16 2020-10-16 Method for providing online lecture content for visually-impaired person and user terminal thereof

Country Status (1)

Country Link
KR (1) KR102495597B1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789057B1 (en) * 2016-06-17 2017-10-23 한밭대학교 산학협력단 Automatic audio book system for blind people and operation method thereof
KR101929875B1 (en) 2018-05-18 2018-12-18 문경진 Method for providing voice guidance service for vision impairment using stream live broadcast in real time

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102061044B1 (en) * 2013-04-30 2020-01-02 삼성전자 주식회사 Method and system for translating sign language and descriptive video service
KR20160026431A (en) * 2014-09-01 2016-03-09 삼성전자주식회사 Electronic apparatus having voice guiding function for bliend person, system having the same and voice guiding methods thereof
KR20160044372A (en) * 2014-10-15 2016-04-25 영산대학교산학협력단 system of broadcasting image with voice-overs service for visually handicapped people

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101789057B1 (en) * 2016-06-17 2017-10-23 한밭대학교 산학협력단 Automatic audio book system for blind people and operation method thereof
KR101929875B1 (en) 2018-05-18 2018-12-18 문경진 Method for providing voice guidance service for vision impairment using stream live broadcast in real time

Also Published As

Publication number Publication date
KR20220050668A (en) 2022-04-25

Similar Documents

Publication Publication Date Title
US20200175890A1 (en) Device, method, and graphical user interface for a group reading environment
US10872535B2 (en) Facilitating facial recognition, augmented reality, and virtual reality in online teaching groups
US8719029B2 (en) File format, server, viewer device for digital comic, digital comic generation device
KR101445869B1 (en) Media Interface
US20120276504A1 (en) Talking Teacher Visualization for Language Learning
US11657725B2 (en) E-reader interface system with audio and highlighting synchronization for digital books
US20140315163A1 (en) Device, method, and graphical user interface for a group reading environment
JP5502351B2 (en) Instruction system, instruction method, and program
US20130332859A1 (en) Method and user interface for creating an animated communication
KR100856786B1 (en) System for multimedia naration using 3D virtual agent and method thereof
US20180211553A1 (en) Systems and methods for providing personalized electronic learning material in an educational infrastructure
US20240114106A1 (en) Machine learning driven teleprompter
US20190129683A1 (en) Audio app user interface for playing an audio file of a book that has associated images capable of rendering at appropriate timings in the audio file
Lornsen Online assignments: Free web 2.0 tools in German language classes
KR20220102134A (en) Audio messaging interface on messaging platform
US20170017632A1 (en) Methods and Systems of Annotating Local and Remote Display Screens
US11902690B2 (en) Machine learning driven teleprompter
KR102495597B1 (en) Method for providing online lecture content for visually-impaired person and user terminal thereof
KR102338019B1 (en) System and method for realizing multi-device contents based on pen-motion
Wald et al. Synote: Collaborative mobile learning for all
KR20170009487A (en) Chunk-based language learning method and electronic device to do this
KR20180006728A (en) Electronic device for control of displaying caption
JP2008032788A (en) Program for creating data for language teaching material
KR20140115900A (en) System for producing teaching plan content and method therefor
KR101553272B1 (en) Control method for event of multimedia content and building apparatus for multimedia content using timers

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant