KR102357313B1 - Content indexing method of electronic apparatus for setting index word based on audio data included in video content - Google Patents

Content indexing method of electronic apparatus for setting index word based on audio data included in video content Download PDF

Info

Publication number
KR102357313B1
KR102357313B1 KR1020210043877A KR20210043877A KR102357313B1 KR 102357313 B1 KR102357313 B1 KR 102357313B1 KR 1020210043877 A KR1020210043877 A KR 1020210043877A KR 20210043877 A KR20210043877 A KR 20210043877A KR 102357313 B1 KR102357313 B1 KR 102357313B1
Authority
KR
South Korea
Prior art keywords
electronic device
video content
index word
content
user
Prior art date
Application number
KR1020210043877A
Other languages
Korean (ko)
Inventor
구본경
Original Assignee
주식회사 비욘드더드림
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 비욘드더드림 filed Critical 주식회사 비욘드더드림
Priority to KR1020210043877A priority Critical patent/KR102357313B1/en
Application granted granted Critical
Publication of KR102357313B1 publication Critical patent/KR102357313B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7844Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/71Indexing; Data structures therefor; Storage structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/7867Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • H04N21/4394Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams

Abstract

Disclosed is a content indexing method of an electronic device. The content indexing method comprises: a step of acquiring at least one piece of text from audio data included in video content; a step of setting an index word for the video content based on at least one keyword included in the acquired text; and a step of providing the video content when user input requiring a search for the set index word is received.

Description

비디오 콘텐츠에 포함된 오디오 데이터를 기반으로 색인어를 설정하는 전자 장치의 콘텐츠 인덱싱 방법 { CONTENT INDEXING METHOD OF ELECTRONIC APPARATUS FOR SETTING INDEX WORD BASED ON AUDIO DATA INCLUDED IN VIDEO CONTENT }Content indexing method of electronic device that sets index word based on audio data included in video content { CONTENT INDEXING METHOD OF ELECTRONIC APPARATUS FOR SETTING INDEX WORD BASED ON AUDIO DATA INCLUDED IN VIDEO CONTENT }

본 개시는 비디오 콘텐츠에 대한 색인어를 설정하는 전자 장치에 관한 것으로, 보다 상세하게는, 비디오 콘텐츠에 포함된 오디오 데이터를 텍스트로 변환하여 색인어를 추출하는 전자 장치에 관한 것이다.The present disclosure relates to an electronic device for setting an index word for video content, and more particularly, to an electronic device for extracting an index word by converting audio data included in video content into text.

애플리케이션이나 웹 페이지를 이용하여 사용자가 원하는 비디오 콘텐츠를 제공하는 다양한 서비스들이 이용되고 있다.Various services are being used to provide video content desired by a user by using an application or a web page.

그리고, 사용자가 원하는 비디오 콘텐츠를 직접 검색할 수 있도록 하는 검색 서비스 역시 다수 제공되고 있다.In addition, a number of search services that allow users to directly search for desired video content are also provided.

일반적으로, 비디오 콘텐츠에 대한 검색은, 비디오 콘텐츠의 제목, 소개 글, 날짜, 장르, 제작자, 출연자 등에 따른 키워드 검색 기반 서비스가 주류를 이루고 있다.In general, a search for video content is a keyword search-based service according to the title, introduction, date, genre, producer, performer, and the like of the video content.

다만, 지식을 제공하는 인터넷 강의나 정보를 제공하는 영상의 경우, 중요한 정보 내지는 키워드가 제목이나 소개 글에 포함되지 않는 경우가 많으므로, 단순히 제목이나 장르 기반 검색만으로는 한계가 명확하다.However, in the case of Internet lectures that provide knowledge or videos that provide information, there are many cases where important information or keywords are not included in the title or introductory text, so a simple title or genre-based search has limitations.

따라서, 비디오 콘텐츠의 구체적인 내용과 연계된 사용자의 검색을 가능하게 하는 인덱싱 서비스가 필요하다.Therefore, there is a need for an indexing service that enables users to search for specific content of video content.

등록 특허 공보 제10-1587926호(스트리밍 동영상에 대한 코멘트 태깅 시스템 및 그 제공방법)Registered Patent Publication No. 10-1587926 (Comment tagging system for streaming video and method for providing the same)

본 개시는, 비디오 콘텐츠에 포함된 오디오 데이터를 기반으로 색인어를 설정하여 비디오 콘텐츠에 대한 효과적인 검색이 가능하도록 하는 전자 장치 내지는 시스템을 제공한다.The present disclosure provides an electronic device or system that enables an effective search for video content by setting an index word based on audio data included in video content.

본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Objects of the present disclosure are not limited to the above-mentioned purposes, and other objects and advantages of the present disclosure that are not mentioned may be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. Moreover, it will be readily apparent that the objects and advantages of the present disclosure may be realized by the means and combinations thereof indicated in the claims.

본 개시의 일 실시 예에 따른 전자 장치의 콘텐츠 인덱싱 방법은, 비디오 콘텐츠에 포함된 오디오 데이터로부터 적어도 하나의 텍스트를 획득하는 단계, 상기 획득된 텍스트에 포함된 적어도 하나의 키워드를 기반으로, 상기 비디오 콘텐츠에 대한 색인어를 설정하는 단계, 상기 설정된 색인어에 대한 검색을 요청하는 사용자의 입력이 수신되면, 상기 비디오 콘텐츠를 제공하는 단계를 포함한다.A content indexing method of an electronic device according to an embodiment of the present disclosure includes: acquiring at least one text from audio data included in video content; based on at least one keyword included in the acquired text, the video content The method may include setting an index word for content, and providing the video content when a user input requesting a search for the set index word is received.

상기 텍스트를 획득하는 단계는, 상기 오디오 데이터에 포함된 음성을 변환하여 텍스트를 획득할 수 있다.In the obtaining of the text, the text may be obtained by converting a voice included in the audio data.

또한, 상기 색인어를 설정하는 단계는, 상기 획득된 텍스트를 문장, 문단, 또는 단락을 기준으로 복수의 서브 텍스트로 구분하고, 상기 비디오 콘텐츠를 상기 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간으로 구분하고, 상기 복수의 서브 텍스트 중 적어도 하나의 서브 텍스트에 대하여 색인어를 선택하고, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 서브 텍스트에 매칭되는 시간 구간에, 상기 선택된 색인어가 매칭되도록 설정할 수도 있다.In addition, the step of setting the index word may include dividing the obtained text into a plurality of subtexts based on a sentence, paragraph, or paragraph, and dividing the video content into a plurality of time sections matching each of the plurality of subtexts. classify, select an index word for at least one sub text among the plurality of sub texts, and set the selected index word to match in a time section matching the sub text among the plurality of time sections included in the video content may be

이 경우, 상기 비디오 콘텐츠를 제공하는 단계는, 상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠를 제공받기 위한 사용자의 입력이 수신되면, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 설정된 색인어에 매칭되는 시간 구간을 제공할 수 있다.In this case, the providing of the video content may include, when a user input for receiving the video content searched according to the set index word is received, matching the set index word among the plurality of time sections included in the video content. A time interval can be provided.

또한, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 평가 정보를 요청하는 사용자의 입력이 수신되면, 상기 색인어에 매칭되는 상기 시간 구간에 대한 다른 사용자의 코멘트를 포함하는 게시판에 대한 열람 서비스를 제공하는 단계를 더 포함할 수 있다.In addition, the content indexing method of the electronic device includes, when a user input requesting evaluation information of the video content searched according to the set index word is received, another user's comment on the time section matching the index word The method may further include providing a reading service for the bulletin board.

이 경우, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 상기 시간 구간이 상기 사용자에게 제공되면, 상기 게시판 내에 상기 시간 구간에 대한 상기 사용자의 코멘트를 기록하기 위한 적어도 하나의 사용자 인터페이스를 제공하는 단계를 더 포함할 수 있다.In this case, in the content indexing method of the electronic device, when the time section of the video content searched according to the set index word is provided to the user, at least one method for recording the user's comment for the time section in the bulletin board The method may further include providing a user interface of

또한, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 상기 비디오 콘텐츠가 제공되는 동안 추가 설명을 요청하는 사용자 입력을 수신하는 단계, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 추가 설명을 요청하는 사용자 입력이 수신된 시점에 재생되고 있는 시간 구간을 식별하는 단계, 상기 식별된 시간 구간에 매칭되는 색인어를 기반으로 적어도 하나의 다른 비디오 콘텐츠를 검색하는 단계, 상기 검색된 다른 비디오 콘텐츠를 제공하는 단계를 더 포함할 수도 있다.The content indexing method of the electronic device may include: receiving a user input requesting an additional explanation while the video content is being provided; The method further includes: identifying a time segment being played at the received time period; searching for at least one other video content based on an index word matching the identified time segment; and providing the retrieved other video content. You may.

한편, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 사용자의 학습 목적 및 학습 수준을 식별하는 단계, 상기 사용자의 학습 목적 및 학습 수준에 매칭되는 적어도 하나의 색인어를 선택하는 단계, 상기 선택된 색인어에 따라 검색된 적어도 하나의 비디오 콘텐츠를 추천하는 단계를 더 포함할 수 있다.Meanwhile, the content indexing method of the electronic device includes the steps of: identifying a user's learning purpose and learning level; selecting at least one index word matching the user's learning purpose and learning level; The method may further include recommending one video content.

본 개시에 따른 전자 장치의 콘텐츠 인덱싱 방법은, 비디오 콘텐츠에 대한 오디오 기반 심층 분석을 기반으로 비디오 콘텐츠 별로 적절한 색인어를 설정하여 인덱싱할 수 있다는 장점이 있다.The content indexing method of the electronic device according to the present disclosure has an advantage in that it is possible to index by setting an appropriate index word for each video content based on an audio-based deep analysis of the video content.

본 개시에 따른 전자 장치의 콘텐츠 인덱싱 방법은, 시간 구간 별로 색인어를 설정하여 제공할 수 있으므로, 학습자 중심으로 학습 내용 및 학습 시간을 관리할 수 있는 학습 관리 솔루션을 제공할 수 있다.The content indexing method of the electronic device according to the present disclosure can provide a learning management solution capable of managing learning content and learning time centered on a learner, since index words can be set and provided for each time section.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 콘텐츠 인덱싱 방법을 설명하기 위한 흐름도,
도 3은 본 개시의 일 실시 예에 따라 오디오 데이터로부터 색인어를 추출하는 전자 장치의 동작을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따라 비디오 콘텐츠에 포함된 시간 구간들 별로 색인어를 설정하는 전자 장치의 동작을 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 색인어가 설정된 시간 구간들 각각에 대한 게시판을 제공하는 동작을 설명하기 위한 도면,
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 비디오 콘텐츠의 제공 전후로 게시판에 대한 열람 및 작성과 관련된 UI(User Interface)를 제공하는 동작을 설명하기 위한 알고리즘, 그리고
도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.
1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
2 is a flowchart illustrating a content indexing method of an electronic device according to an embodiment of the present disclosure;
3 is a view for explaining an operation of an electronic device for extracting an index word from audio data according to an embodiment of the present disclosure;
4 is a view for explaining an operation of an electronic device for setting an index word for each time section included in video content according to an embodiment of the present disclosure;
5 is a diagram for explaining an operation of providing, by an electronic device, a bulletin board for each of time sections in which an index word is set, according to an embodiment of the present disclosure;
6 is an algorithm for explaining an operation of an electronic device providing a user interface (UI) related to reading and writing of a bulletin board before and after providing video content, according to an embodiment of the present disclosure;
7 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.

본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Prior to describing the present disclosure in detail, a description will be given of the description of the present specification and drawings.

먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention or legal or technical interpretation of a person skilled in the art, and the emergence of new technology. Also, some terms are arbitrarily selected by the applicant. These terms may be interpreted in the meanings defined herein, and in the absence of specific definitions, they may be interpreted based on the general content of the present specification and common technical common sense in the art.

또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. Also, the same reference numerals or reference numerals in each drawing attached to this specification indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numbers or reference numerals are used in different embodiments. That is, even though all components having the same reference number are illustrated in a plurality of drawings, the plurality of drawings do not mean one embodiment.

또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. In addition, in this specification and claims, terms including an ordinal number such as “first” and “second” may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar elements from each other, and the meaning of the term should not be construed as limited due to the use of the ordinal number. As an example, the use order or arrangement order of components combined with such an ordinal number should not be limited by the number. If necessary, each ordinal number may be used interchangeably.

본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.

본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms for designating a component that performs at least one function or operation, and such component is hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except when each needs to be implemented in individual specific hardware, and thus at least one processor. can be implemented as

또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when it is said that a certain part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated.

도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.

도 1을 참조하면, 전자 장치(100)는 메모리(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 1 , the electronic device 100 may include a memory 110 and a processor 120 .

전자 장치(100)는 다양한 사용자 단말과 통신을 수행할 수 있는 서버 장치에 해당할 수 있다. 이 경우, 전자 장치(100)는 적어도 하나의 웹 페이지 또는 애플리케이션을 통해 다양한 사용자 단말과 연동될 수 있으며, 사용자 단말을 통해 후술할 다양한 실시 예에 따른 학습 관리 방법을 제공할 수 있다.The electronic device 100 may correspond to a server device capable of communicating with various user terminals. In this case, the electronic device 100 may interwork with various user terminals through at least one web page or application, and may provide a learning management method according to various embodiments to be described later through the user terminal.

또는, 전자 장치(100)는 스마트폰, 노트북 PC, 데스크탑 PC, 태블릿 PC, PDA(Personal Digital Assistant), 웨어러블 디바이스, TV, 셋탑박스, 콘솔 기기, VR(Virtual Reality)/AR(Augmented Reality) 기기 등 다양한 단말 기기에 해당할 수도 있다.Alternatively, the electronic device 100 may be a smartphone, a notebook PC, a desktop PC, a tablet PC, a personal digital assistant (PDA), a wearable device, a TV, a set-top box, a console device, a virtual reality (VR) / augmented reality (AR) device. It may correspond to various terminal devices such as

메모리(110)는 전자 장치(100) 내 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System), 적어도 하나의 인스트럭션 및 데이터를 저장하기 위한 구성이다.The memory 110 is a configuration for storing an operating system (OS) for controlling overall operations of components in the electronic device 100 , at least one instruction, and data.

메모리(110)는 ROM, 플래시 메모리 등의 비휘발성 메모리를 포함할 수 있으며, DRAM 등으로 구성된 휘발성 메모리를 포함할 수 있다. 또한, 메모리(110)는 하드 디스크, SSD(Solid state drive) 등을 포함할 수도 있다.The memory 110 may include non-volatile memory such as ROM and flash memory, and may include volatile memory such as DRAM. Also, the memory 110 may include a hard disk, a solid state drive (SSD), or the like.

메모리(110)는 적어도 하나의 비디오 콘텐츠를 일시적으로 또는 지속적으로 저장할 수 있다.The memory 110 may temporarily or permanently store at least one video content.

비디오 콘텐츠는, 복수의 이미지 프레임 및 오디오 데이터로 구성될 수 있다. 비디오 콘텐츠는, 교육, 스포츠, 게임, 뉴스, 드라마, 영화, 정보 제공 등 다양한 카테고리의 비디오 콘텐츠에 해당할 수 있다. The video content may be composed of a plurality of image frames and audio data. The video content may correspond to various categories of video content, such as education, sports, games, news, dramas, movies, and information provision.

구체적인 예로, 비디오 콘텐츠는, MOOC(Massive Open Online Course), OCW(Open Course Ware), 인터넷 강의 영상 등에 해당할 수 있다.As a specific example, the video content may correspond to a Massive Open Online Course (MOOC), an Open Course Ware (OCW), an Internet lecture video, or the like.

프로세서(120)는 전자 장치(100)에 포함된 각 구성을 전반적으로 제어하기 위한 구성으로, CPU(Central Processing Unit), AP(Application Processor), GPU(Graphic Processing Unit), VPU, NPU 등 다양한 유닛으로 구성될 수 있다.The processor 120 is a configuration for overall controlling each configuration included in the electronic device 100 , and various units such as a central processing unit (CPU), an application processor (AP), a graphic processing unit (GPU), a VPU, and an NPU. can be composed of

프로세서(120)는 메모리(110)에 저장된 인스트럭션을 실행함으로써 전자 장치(100)를 제어할 수 있다. 이하 도면들을 통해 본 개시의 다양한 실시 예에 따른 프로세서(120)의 동작을 설명한다.The processor 120 may control the electronic device 100 by executing an instruction stored in the memory 110 . Hereinafter, an operation of the processor 120 according to various embodiments of the present disclosure will be described with reference to the drawings.

도 2는 본 개시의 일 실시 예에 따른 전자 장치의 콘텐츠 인덱싱 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a content indexing method of an electronic device according to an embodiment of the present disclosure.

도 2를 참조하면, 전자 장치(100)는 비디오 콘텐츠에 포함된 오디오 데이터로부터 적어도 하나의 텍스트를 획득할 수 있다(S210).Referring to FIG. 2 , the electronic device 100 may obtain at least one text from audio data included in video content ( S210 ).

구체적으로, 전자 장치(100)는 오디오 데이터에 포함된 음성(speech/voice)을 STT(Speech-to-Text) 기술 기반으로 변환하여 텍스트를 획득할 수 있다. 여기서, 전자 장치(100)는 음향 모델 및 언어 모델을 이용하여 적어도 하나의 음소, 단어, 문장을 순차적으로 도출할 수 있으나, 이에 한정되지 않는다.Specifically, the electronic device 100 may acquire text by converting speech/voice included in audio data based on a Speech-to-Text (STT) technology. Here, the electronic device 100 may sequentially derive at least one phoneme, word, or sentence using the acoustic model and the language model, but is not limited thereto.

또한, 전자 장치(100)는 오디오 데이터를 구성하는 음성의 언어(국적)를 분석하여, 번역을 수행할 수도 있다. 이 경우, 전자 장치(100)는 적어도 하나의 자체 번역 모듈/툴 또는 외부 번역 서비스(ex. 외부 서버)를 이용할 수 있다.Also, the electronic device 100 may perform translation by analyzing the language (nationality) of voices constituting the audio data. In this case, the electronic device 100 may use at least one self-translation module/tool or an external translation service (eg, an external server).

예를 들어, 사용자의 국적과 텍스트의 언어에 매칭되는 국적이 다른 경우, 전자 장치(100)는 텍스트의 언어를 사용자의 국적의 언어로 번역할 수 있다.For example, when the nationality of the user and the nationality matching the language of the text are different, the electronic device 100 may translate the language of the text into the language of the nationality of the user.

전자 장치(100)는 오디오 데이터의 특징을 분석하여 서로 다른 화자의 음성을 구분할 수도 있으며, 서로 다른 복수의 화자의 음성들이 오디오 데이터에 포함된 경우, 화자 별로 별도의 텍스트를 획득할 수도 있다. 여기서, 전자 장치(100)는 선형예측계수(Linear Predictive Coefficient), 켑스트럼(Cepstrum), 멜프리퀀시켑스트럼(Mel Frequency Cepstral Coefficient, MFCC), 주파수 대역별 에너지(Filter Bank Energy) 분석, CNN(Convolutional Neural Network) 기반 분류, RNN(Recurrent Neural Network) 기반 분석 등 오디오 데이터에 포함된 사용자별 음성의 특징을 분석하기 위한 다양한 기법을 이용할 수 있다.The electronic device 100 may distinguish the voices of different speakers by analyzing characteristics of the audio data, and when the voices of a plurality of different speakers are included in the audio data, separate texts may be obtained for each speaker. Here, the electronic device 100 is a linear predictive coefficient (Linear Predictive Coefficient), Cepstrum (Cepstrum), Mel Frequency Cepstral Coefficient (Mel Frequency Cepstral Coefficient, MFCC), each frequency band energy (Filter Bank Energy) analysis, CNN Various techniques for analyzing the characteristics of each user's voice included in audio data, such as (Convolutional Neural Network)-based classification and RNN (Recurrent Neural Network)-based analysis, can be used.

한편, 전자 장치(100)는 오디오 데이터 외에, 비디오 콘텐츠를 구성하는 적어도 하나의 이미지 프레임으로부터 텍스트를 추출할 수도 있다. 구체적으로, 전자 장치(100)는 OCR(Optical Character Recognition) 기술을 이용하여 이미지 프레임에 포함된 텍스트를 획득할 수 있다. Meanwhile, in addition to audio data, the electronic device 100 may extract text from at least one image frame constituting video content. Specifically, the electronic device 100 may acquire the text included in the image frame by using OCR (Optical Character Recognition) technology.

도 2를 참조하면, 전자 장치(100)는 획득된 텍스트에 포함된 키워드를 기반으로 비디오 콘텐츠에 대한 적어도 하나의 색인어를 설정할 수 있다(S220).Referring to FIG. 2 , the electronic device 100 may set at least one index word for video content based on a keyword included in the acquired text ( S220 ).

구체적으로, 전자 장치(100)는 획득된 텍스트로부터 적어도 하나의 키워드를 추출하고, 추출된 키워드 또는 추출된 키워드와 연관된 적어도 하나의 단어를 이용하여 색인어를 생성할 수 있다. 여기서, 색인어는 하나의 단어로 구성될 수도 있고, 복수의 단어를 포함하는 어구 또는 문장으로 구성될 수도 있다.Specifically, the electronic device 100 may extract at least one keyword from the obtained text, and may generate an index word using the extracted keyword or at least one word related to the extracted keyword. Here, the index word may be composed of one word or may be composed of a phrase or sentence including a plurality of words.

전자 장치(100)는 다양한 방식의 자연어 처리(Natural Language Processing) 기술을 이용할 수 있다. 일 예로, 전자 장치(100)는 GPT-3(Generation Pre-trained Transformer 3)와 같은 언어 모델을 이용하여, 텍스트로부터 적어도 하나의 주제 단어를 추출하거나 또는 텍스트를 아우르는 주제 단어를 도출할 수 있다.The electronic device 100 may use various types of natural language processing technology. As an example, the electronic device 100 may extract at least one subject word from the text or derive a subject word encompassing the text by using a language model such as Generation Pre-trained Transformer 3 (GPT-3).

또한, 전자 장치(100)는 템플릿 또는 인공지능 모델을 이용하는 적어도 하나의 요약 알고리즘을 통해 텍스트를 요약한 뒤, 요약문 내에서 키워드를 추출할 수도 있다.Also, the electronic device 100 may extract a keyword from within the summary after summarizing the text through at least one summary algorithm using a template or an artificial intelligence model.

한편, 전자 장치(100)는 비디오 콘텐츠에 포함되는 복수의 시간 구간 별로 색인어를 설정할 수도 있다.Meanwhile, the electronic device 100 may set an index word for each of a plurality of time sections included in video content.

이를 위해, 전자 장치(100)는 획득된 텍스트를 복수의 서브 텍스트로 구분하고, 서브 텍스트 별로 색인어를 설정할 수도 있다.To this end, the electronic device 100 may classify the obtained text into a plurality of sub texts and set an index word for each sub text.

여기서, 전자 장치(100)는 텍스트를 문장 별로, 문단 별로, 또는 단락 별로 구분하여 복수의 서브 텍스트를 획득할 수 있다.Here, the electronic device 100 may obtain a plurality of sub-texts by dividing the text by sentence, paragraph, or paragraph.

구체적인 예로, 전자 장치(100)는 오디오 데이터가 변환된 텍스트를 순차적으로 분석하여 주제가 될 수 있는 하나 이상의 키워드를 추출할 수 있다. 그리고, 전자 장치(100)는 각 키워드를 기준으로 텍스트를 단락 단위로 구분하여 복수의 서브 텍스트를 정의할 수 있다.As a specific example, the electronic device 100 may extract one or more keywords that may become a subject by sequentially analyzing texts converted from audio data. In addition, the electronic device 100 may define a plurality of sub-texts by dividing the text into paragraph units based on each keyword.

그리고, 전자 장치(100)는 비디오 콘텐츠를 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간으로 구분할 수 있다. 구체적으로, 각 서브 텍스트 별로, 전자 장치(100)는 서브 텍스트에 대응되는 오디오 데이터 및 매칭되는 이미지 프레임들이 재생되는 시간 구간을 식별할 수 있다.In addition, the electronic device 100 may divide the video content into a plurality of time sections matching each of the plurality of sub texts. Specifically, for each sub-text, the electronic device 100 may identify a time period in which audio data corresponding to the sub-text and matching image frames are reproduced.

여기서, 전자 장치(100)는 복수의 서브 텍스트 중 적어도 하나의 서브 텍스트에 대하여 색인어를 선택할 수 있다. 구체적으로, 서브 텍스트 내에 포함된 적어도 하나의 키워드가 색인어로 선택될 수 있다. 이때, 하나의 서브 텍스트에 대하여 복수의 색인어가 선택되는 것도 가능하다.Here, the electronic device 100 may select an index word with respect to at least one subtext among the plurality of subtexts. Specifically, at least one keyword included in the subtext may be selected as an index word. In this case, it is also possible to select a plurality of index words for one sub-text.

이 경우, 전자 장치(100)는 서브 텍스트에 대하여 선택된 색인어가 서브 텍스트에 매칭되는 시간 구간에 매칭되도록 설정할 수 있다. 그 결과, 복수의 시간 구간 별로, 하나 이상의 색인어가 설정될 수 있다.In this case, the electronic device 100 may set the index word selected for the sub-text to match a time interval matching the sub-text. As a result, one or more index words may be set for each of the plurality of time sections.

전자 장치(100)가 서버로 구현된 경우, 상술한 S210 내지 S220의 과정은, 온전히 전자 장치(100) 상에서 수행될 수도 있고, 전자 장치(100) 및 사용자 단말을 포함하는 시스템 상에서 수행될 수도 있다.When the electronic device 100 is implemented as a server, the above-described processes S210 to S220 may be performed entirely on the electronic device 100 or may be performed on a system including the electronic device 100 and the user terminal. .

일 예로, 사용자 단말에서 비디오 콘텐츠가 재생되는 경우, 사용자 단말은 실시간으로 오디오 데이터를 변환하여 텍스트를 획득할 수 있다. 이 경우, 서버인 전자 장치(100)는 사용자 단말로부터 텍스트를 수신하고, 수신된 텍스트를 분석하여 비디오 콘텐츠에 매칭되는 적어도 하나의 색인어를 설정할 수 있다.For example, when video content is reproduced in the user terminal, the user terminal may obtain text by converting audio data in real time. In this case, the electronic device 100 as a server may receive a text from the user terminal, analyze the received text, and set at least one index word matching the video content.

전자 장치(100)가 사용자 단말로 구현된 경우, 상술한 S210 내지 S220의 과정이 모두 사용자 단말인 전자 장치(100)를 통해 수행되는 것도 가능하다. When the electronic device 100 is implemented as a user terminal, it is also possible that all of the above-described processes S210 to S220 are performed through the electronic device 100 that is a user terminal.

일 예로, 사용자 단말인 전자 장치(100)가 비디오 콘텐츠에 대한 실시간 스트리밍을 받는 상황에서, 전자 장치(100)는 실시간으로 수신되는 오디오 데이터를 텍스트로 변환할 수 있으며, 변환된 텍스트로부터 적어도 하나의 키워드(색인어)를 추출할 수 있다. 이 경우, 전자 장치(100)는 비디오 콘텐츠에 대하여 설정된 색인어에 대한 정보를 적어도 하나의 서버로 전송할 수 있고, 그 결과 각각의 비디오 콘텐츠에 대하여 생성된 색인 정보가 서버를 통해 다양한 사용자 단말로 공유될 수 있다.For example, in a situation where the electronic device 100, which is a user terminal, receives real-time streaming of video content, the electronic device 100 may convert audio data received in real time into text, and use at least one Keywords (index words) can be extracted. In this case, the electronic device 100 may transmit information on the index word set for the video content to at least one server, and as a result, index information generated for each video content will be shared to various user terminals through the server. can

상술한 다양한 실시 예들에 따라 하나 이상의 비디오 콘텐츠에 대하여 색인어가 설정된 이후, 설정된 색인어에 대한 검색을 요청하는 사용자의 입력이 요청되면, 전자 장치(100)는 색인어에 매칭되는 적어도 하나의 비디오 콘텐츠를 제공할 수 있다(S230).After an index word is set for one or more video contents according to the various embodiments described above, when a user input requesting a search for the set index word is requested, the electronic device 100 provides at least one video content matching the index word It can be done (S230).

전자 장치(100)가 서버인 경우, (검색을 요청하는) 사용자 입력은 전자 장치(100)와 통신 가능한 다양한 사용자 단말을 통해 수신될 수 있다. 전자 장치(100)가 사용자 단말인 경우, 사용자 단말에 구비된 사용자 입력부(ex. 터치 패널, 버튼, 마이크, 키패드 등)를 통해 사용자 입력이 수신될 수 있다.When the electronic device 100 is a server, a user input (requesting a search) may be received through various user terminals capable of communicating with the electronic device 100 . When the electronic device 100 is a user terminal, a user input may be received through a user input unit (eg, a touch panel, a button, a microphone, a keypad, etc.) provided in the user terminal.

전자 장치(100)는 색인어에 따라 검색된 비디오 콘텐츠에 대한 다양한 정보를 제공할 수 있다.The electronic device 100 may provide various information on video content found according to the index word.

구체적으로, 전자 장치(100)는 검색된 비디오 콘텐츠의 제목, (제작/업로드) 날짜, 재생 시간, 소개 글, 조회수, 유/무료 여부, 판매 금액 등에 대한 정보를 제공할 수 있다.Specifically, the electronic device 100 may provide information on the title of the searched video content, (production/upload) date, play time, introductory text, number of views, paid/free status, sales amount, and the like.

그리고, 검색된 비디오 콘텐츠를 제공받기 위한 사용자 입력이 수신되면, 전자 장치(100)는 비디오 콘텐츠의 재생 서비스를 제공할 수 있다.Then, when a user input for receiving the searched video content is received, the electronic device 100 may provide a video content playback service.

전자 장치(100)가 서버인 경우, 전자 장치(100)는 서버에 저장된 비디오 콘텐츠를 사용자 단말로 전송하거나 또는 실시간 스트리밍을 수행할 수 있다. 또는, 전자 장치(100)는 비디오 콘텐츠가 저장된 외부 서버와 사용자 단말을 연동하여 스트리밍 서비스를 제공할 수도 있다.When the electronic device 100 is a server, the electronic device 100 may transmit video content stored in the server to the user terminal or perform real-time streaming. Alternatively, the electronic device 100 may provide a streaming service by interworking with an external server in which video content is stored and a user terminal.

전자 장치(100)가 사용자 단말인 경우, 전자 장치(100)에 저장된 비디오 콘텐츠가 재생될 수 있다. 또는, 전자 장치(100)가 적어도 하나의 외부 서버로부터 비디오 콘텐츠를 다운로드 받거나 스트리밍을 요청할 수도 있다.When the electronic device 100 is a user terminal, video content stored in the electronic device 100 may be played. Alternatively, the electronic device 100 may download video content from at least one external server or request streaming.

한편, 비디오 콘텐츠의 시간 구간 별로 색인어가 설정된 경우, 전자 장치(100)는 (색인어에 따라 검색된) 비디오 콘텐츠에 포함되는 복수의 시간 구간 중 설정된 색인어에 매칭되는 시간 구간만을 제공(재생)할 수도 있다. 이때, 전자 장치(100)는 재생되는 시간 구간의 비디오 콘텐츠 내 재생 포인트(ex. 몇 분 몇 초)에 대한 정보를 함께 제공할 수도 있다.Meanwhile, when an index word is set for each time section of video content, the electronic device 100 may provide (play) only a time section matching the set index word among a plurality of time sections included in the video content (searched according to the index word). . In this case, the electronic device 100 may also provide information on a reproduction point (eg, several minutes and several seconds) within the video content of the time period being reproduced.

이 경우, 색인어 검색에 맞는 시간 구간만 사용자에게 제공될 수 있다는 장점이 있으며, 색인어 검색의 목적(ex. 학습/조사 목적)에 맞지 않는 불필요한 시간 구간에 대한 스킵이 자동으로 수행될 수 있다.In this case, there is an advantage that only a time period suitable for the index word search can be provided to the user, and an unnecessary time period that does not fit the purpose of the index word search (eg, learning/research purpose) can be automatically skipped.

도 3은 본 개시의 일 실시 예에 따라 오디오 데이터로부터 색인어를 추출하는 전자 장치의 동작을 설명하기 위한 도면이다.3 is a diagram for explaining an operation of an electronic device for extracting an index word from audio data according to an embodiment of the present disclosure.

도 3을 참조하면, 전자 장치(100)는 인터넷 강의에 해당하는 비디오 콘텐츠(310)에 포함된 오디오 데이터(320)를 변환하여 텍스트(330)를 획득할 수 있다. 여기서, 오디오 데이터(320)에는 강연자의 음성이 포함된다.Referring to FIG. 3 , the electronic device 100 may acquire text 330 by converting audio data 320 included in video content 310 corresponding to an Internet lecture. Here, the audio data 320 includes the speaker's voice.

그리고, 전자 장치(100)는 키워드 추출 모듈 등을 이용하여 텍스트(330)의 주제 단어를 키워드(도 3의 “오스트랄로 피테쿠스”(340))로 추출할 수 있다.Then, the electronic device 100 may extract the subject word of the text 330 as a keyword (“Australopithecus” 340 of FIG. 3 ) using a keyword extraction module or the like.

키워드 추출 모듈은, 자연어 처리 기능을 수행하여 텍스트에 포함된 각 단어/문장의 의미를 분석할 수 있으며, 적어도 하나의 문장/문단이 입력되면 주제 단어를 선택하도록 훈련된 인공지능 모델을 이용할 수도 있다.The keyword extraction module may analyze the meaning of each word/sentence included in the text by performing a natural language processing function, and may use an artificial intelligence model trained to select a subject word when at least one sentence/paragraph is input. .

이 경우, 전자 장치(100)는 키워드인 “오스트랄로 피테쿠스”(340)를 비디오 콘텐츠(310)에 매칭되는 색인어로 설정할 수 있다.In this case, the electronic device 100 may set the keyword “australopithecus” 340 as an index word matching the video content 310 .

도 4는 본 개시의 일 실시 예에 따른 전자 장치가 비디오 콘텐츠에 포함된 시간 구간들 별로 색인어를 설정하는 동작을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining an operation of setting, by an electronic device, an index word for each time section included in video content, according to an embodiment of the present disclosure.

전자 장치(100)는 상술한 텍스트(330)를 적어도 하나의 주제 단어 및/또는 단락에 따라 복수의 서브 텍스트로 구분할 수 있다.The electronic device 100 may classify the above-described text 330 into a plurality of sub-texts according to at least one subject word and/or a paragraph.

그리고, 전자 장치(100)는 비디오 콘텐츠(310)를 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간(410, 420, 430)으로 구분할 수 있다.In addition, the electronic device 100 may divide the video content 310 into a plurality of time sections 410 , 420 , and 430 matching each of a plurality of subtexts.

이 경우, 전자 장치(100)는 각 서브 텍스트에 포함된 주제 단어를 각 시간 구간의 색인어로 설정할 수 있다. 그 결과, 도 4를 참조하면, 시간 구간 A(410)에 대해서는 “오스트랄로 피테쿠스”(411)가 색인어로 설정되고, 시간 구간 B(420)에 대해서는 “호모 에렉투스”(421)가 색인어로 설정되고, 시간 구간 C(430)에 대해서는 “호모 네안데르탈렌시스”(431)가 색인어로 설정될 수 있다.In this case, the electronic device 100 may set the subject word included in each sub text as an index word for each time section. As a result, referring to FIG. 4 , “Australopithecus” 411 is set as an index word for time section A 410, and “Homo erectus” 421 is set as an index word for time section B 420, and , “Homo neanderthalensis” 431 may be set as an index word for the time period C 430 .

한편, 상술한 도 4의 실시 예와 같이 시간 구간 별로 색인어가 설정된 이후, 전자 장치(100)는 색인어를 기반으로 해당 비디오 콘텐츠(310)와 관련하여 적어도 하나의 다른 비디오 콘텐츠를 추천할 수도 있다.Meanwhile, after the index word is set for each time section as in the above-described embodiment of FIG. 4 , the electronic device 100 may recommend at least one other video content in relation to the corresponding video content 310 based on the index word.

구체적으로, 해당 비디오 콘텐츠(310)가 (적어도 하나의 사용자 단말을 통해) 재생되는 동안, 전자 장치(100)는 추가 설명을 요청하는 사용자 입력을 수신할 수 있다.Specifically, while the corresponding video content 310 is being played (via at least one user terminal), the electronic device 100 may receive a user input requesting additional explanation.

이 경우, 전자 장치(100)는 비디오 콘텐츠에 포함되는 복수의 시간 구간(ex. 410, 420, 430) 중 추가 설명을 요청하는 사용자 입력이 수신된 시점에 재생되고 있는 시간 구간을 식별할 수 있다.In this case, the electronic device 100 may identify a time section being reproduced at a time when a user input requesting additional explanation is received among a plurality of time sections (eg, 410 , 420 , 430 ) included in the video content. .

여기서, 전자 장치(100)는 식별된 시간 구간에 매칭되는 색인어를 기반으로 적어도 하나의 다른 비디오 콘텐츠를 추가적으로 검색할 수 있으며, 추가적으로 검색된 다른 비디오 콘텐츠에 대한 정보를 제공하거나 또는 해당 비디오 콘텐츠를 재생할 수 있다.Here, the electronic device 100 may additionally search for at least one other video content based on an index word matching the identified time period, and may additionally provide information on the other searched video content or play the corresponding video content. have.

만약, 추가적으로 검색된 비디오 콘텐츠 역시 복수의 시간 구간 별로 별도의 색인어가 설정된 경우, 전자 장치(100)는 추가적으로 검색된 해당 비디오 콘텐츠 중 상술한 색인어에 매칭되는 시간 구간만을 제공할 수도 있음은 물론이다.Of course, if additionally searched video content also sets a separate index word for each of a plurality of time sections, the electronic device 100 may provide only a time section matching the above-described index word among the additionally searched video content.

이렇듯, 본 개시의 상술한 실시 예에 따른 전자 장치(100)는, 시간 구간 별로 설정된 색인어를 활용함으로써, 추가 설명을 요청하는 사용자의 입력이 수신되는 시점에 따라 적합한 추가 콘텐츠를 검색하여 추천/제공할 수 있다는 장점이 있다.As such, the electronic device 100 according to the above-described embodiment of the present disclosure searches for and recommends/provides suitable additional content according to the point in time when a user's input requesting additional explanation is received by using the index word set for each time section. There are advantages to being able to

한편, 일 실시 예에 따르면, 전자 장치(100)는 색인어 별로 독립된 전자 게시판을 제공할 수 있다.Meanwhile, according to an embodiment, the electronic device 100 may provide an independent bulletin board for each index word.

일 예로, 복수의 시간 구간 각각에 대하여 색인어가 설정된 경우, 서버인 전자 장치(100)는 하나 이상의 색인어가 설정된 비디오 콘텐츠 및/또는 (비디오 콘텐츠의) 시간 구간마다 별도의 게시판을 제공하기 위한 다양한 UI(User Interface)를 제공할 수 있다.As an example, when an index word is set for each of a plurality of time sections, the electronic device 100 serving as a server provides various UIs for providing video content and/or a separate bulletin board for each time section (of video content) in which one or more index words are set. (User Interface) can be provided.

이 경우, 서버인 전자 장치(100)와 연결된 사용자 단말들은 각 색인어를 이용하여 게시판을 열람하고 글을 작성할 수 있으며, 그 결과, 다양한 사용자의 의견이 공유될 수 있다.In this case, the user terminals connected to the electronic device 100 as the server may read the bulletin board and write an article by using each index word, and as a result, opinions of various users may be shared.

관련하여, 도 5는 본 개시의 일 실시 예에 따른 전자 장치가 색인어가 설정된 시간 구간들 각각에 대한 게시판을 제공하는 동작을 설명하기 위한 도면이다. 도 5는, 도 4와 같이 시간 구간들(410, 420, 430) 별로 독립된 색인어들(411, 421, 431)이 설정된 상황을 가정한다.In relation to this, FIG. 5 is a diagram for explaining an operation of providing, by an electronic device, a bulletin board for each of time sections in which an index word is set, according to an embodiment of the present disclosure. 5 , it is assumed that independent index words 411 , 421 , 431 are set for each time section 410 , 420 , 430 as shown in FIG. 4 .

도 5를 참조하면, 전자 장치(100)는 색인어 별로 독립된 게시판(510, 520, 530)을 제공할 수 있다.Referring to FIG. 5 , the electronic device 100 may provide independent bulletin boards 510 , 520 , and 530 for each index word.

구체적인 예로, 색인어인 “오스트랄로 피테쿠스”(411)에 따라 검색된 비디오 콘텐츠(310)의 평가 정보를 요청하는 사용자의 입력이 수신되면, 전자 장치(100)는 색인어에 매칭되는 시간 구간 A(410)에 대한 적어도 한 명의 다른 사용자의 코멘트를 포함하는 게시판에 대한 열람 서비스를 제공할 수 있다.As a specific example, when a user input requesting evaluation information of the video content 310 searched according to the index word “australopithecus” 411 is received, the electronic device 100 returns to the time interval A 410 matching the index word. It is possible to provide a viewing service for the bulletin board including the comments of at least one other user.

이 경우, 인터넷 강의 콘텐츠인 비디오 콘텐츠(310)를 통해 제공되는 “오스트랄로 피테쿠스”에 대한 설명에 대한 다양한 관점(ex. 강의 스타일, 강사의 태도, 강의 난이도, 내용의 충실함 등)의 인간적 평가 내용이 제공될 수 있고, 이러한 평가 내용은 오디오 데이터에 대한 기계적 분석만으로는 획득되기 어려운 부분이므로, 이를 통해 비디오 콘텐츠에 대한 큐레이션의 정밀도가 향상된다는 장점이 있다.In this case, the content of human evaluation of various viewpoints (eg, lecture style, instructor's attitude, lecture difficulty, faithfulness of content, etc.) for the explanation of "Australopithecus" provided through the video content 310, which is the content of Internet lectures. can be provided, and since such evaluation contents are difficult to be obtained only by mechanical analysis of audio data, there is an advantage in that the precision of curation for video content is improved through this.

그리고, 색인어인 “오스트랄로 피테쿠스”(411)에 따라 검색된 비디오 콘텐츠(310)의 시간 구간 A(410)가 사용자에게 제공되는 경우(재생), 전자 장치(100)는 상술한 게시판 내에 사용자의 코멘트를 기록하기 위한 적어도 하나의 UI(User Interface)를 제공할 수 있다.And, when the time section A 410 of the video content 310 found according to the index word “australopithecus” 411 is provided to the user (playback), the electronic device 100 displays the user's comment in the above-mentioned bulletin board. At least one user interface (UI) for recording may be provided.

구체적으로, 전자 장치(100)는 해당 시간 구간 A(410)가 일정 시간 또는 일정 비율 이상 (사용자의 사용자 단말을 통해) 재생됨을 전제로, 게시판 내에 사용자의 코멘트를 기록(ex. 글 쓰기)할 수 있도록 하는 다양한 UI를 제공할 수 있다.Specifically, the electronic device 100 records (ex. writes) the user's comment in the bulletin board on the premise that the corresponding time section A 410 is reproduced for a certain period of time or over a certain ratio (via the user's user terminal). A variety of UIs can be provided.

이때, 작성되는 글은 평가, 후기, 질문, 요청 등 다양한 분류로 구분될 수 있다.In this case, the written text may be divided into various categories such as evaluation, review, question, and request.

일 예로, 질문 글이 작성된 경우, 서버인 전자 장치(100)는 비디오 콘텐츠(310)의 강연자 또는 제작자가 각자의 사용자 단말을 통해 직접 답변을 수행하도록 하는 서비스를 제공할 수도 있다.For example, when a question text is written, the electronic device 100 , which is a server, may provide a service that allows a lecturer or producer of the video content 310 to directly answer through a user terminal.

또한, 다양한 평가/후기/요청 등을 담은 글이 강연자 또는 제작자에게도 공유될 수 있으므로, 비디오 콘텐츠(310)의 내용에 대한 사용자들의 피드백이 강연자 또는 제작자의 추가 콘텐츠 제작에 좋은 영향을 미칠 수 있다는 장점도 있다.In addition, since texts containing various evaluations/reviews/requests can be shared with the lecturer or producer, the user's feedback on the content of the video content 310 can have a good influence on the lecturer or producer's production of additional content. there is also

관련하여, 도 6은 본 개시의 일 실시 예에 따른 전자 장치가 비디오 콘텐츠의 제공 전후로 게시판에 대한 열람 및 작성과 관련된 UI(User Interface)를 제공하는 동작을 설명하기 위한 알고리즘이다.6 is an algorithm for explaining an operation of an electronic device providing a user interface (UI) related to reading and writing of a bulletin board before and after providing video content, according to an embodiment of the present disclosure.

도 6을 참조하면, 전자 장치(100)는 색인어가 검색됨에 따라(S610) 색인어에 매칭되는 비디오 콘텐츠에 대한 정보를 제공할 수 있다(S620).Referring to FIG. 6 , as the index word is searched ( S610 ), the electronic device 100 may provide information on video content matching the index word ( S620 ).

일 예로, 전자 장치(100)가 서버인 경우, 전자 장치(100)는 해당 비디오 콘텐츠의 제목, 날짜, 제작자, 판매 금액 등 다양한 정보를 제공할 수 있다. 이 경우, 전자 장치(100)는 해당 비디오 콘텐츠에 대한 결제 서비스를 제공할 수 있으며, 적어도 하나의 금융 관련 서버와 연동할 수 있다.For example, when the electronic device 100 is a server, the electronic device 100 may provide various information such as a title, date, producer, and sales amount of the corresponding video content. In this case, the electronic device 100 may provide a payment service for the corresponding video content, and may interwork with at least one finance-related server.

또한, 전자 장치(100)는 검색된 비디오 콘텐츠를 스트리밍 받을 수 있는 웹 페이지의 주소/링크에 대한 정보를 제공할 수 있다.Also, the electronic device 100 may provide information on an address/link of a web page through which the searched video content can be streamed.

여기서, 전자 장치(100)는 비디오 콘텐츠 중 색인어에 매칭되는 시간 구간에 대한 정보(ex. 시간 구간의 재생 포인트)를 제공할 수도 있다.Here, the electronic device 100 may provide information about a time section matching an index word among video contents (eg, a reproduction point of the time section).

또는, 전자 장치(100)는 비디오 콘텐츠 중 색인어에 매칭되는 시간 구간만을 스트리밍 하기 위한 별도의 웹 페이지/주소를 생성하여 제공할 수도 있다.Alternatively, the electronic device 100 may generate and provide a separate web page/address for streaming only a time section matching an index word among video contents.

여기서, 해당 비디오 콘텐츠에 대한 평가 정보를 요청하는 사용자의 입력이 수신될 수도 있다. 이 경우(S630 - Y), 전자 장치(100)는 해당 비디오 콘텐츠와 관련된 다른 사용자의 코멘트가 기록된 게시판에 대한 열람 서비스를 제공할 수 있다(S640).Here, a user input requesting evaluation information for the corresponding video content may be received. In this case (S630 - Y), the electronic device 100 may provide a viewing service for a bulletin board in which comments of other users related to the corresponding video content are recorded (S640).

구체적으로, 전자 장치(100)는 해당 비디오 콘텐츠 중 검색된 색인어에 매칭되는 시간 구간에 대한 게시판의 열람 서비스를 제공할 수 있다.Specifically, the electronic device 100 may provide a viewing service of the bulletin board for a time period matching the searched index word among the corresponding video contents.

한편, 비디오 콘텐츠를 제공받기 위한 사용자의 입력이 수신되면(S650), 전자 장치(100)는 비디오 콘텐츠의 재생 서비스를 제공할 수 있다(S660).Meanwhile, when a user input for receiving video content is received (S650), the electronic device 100 may provide a video content playback service (S660).

일 예로, 전자 장치(100)가 서버로 구현된 경우, 전자 장치(100)는 사용자의 사용자 단말을 통해 비디오 콘텐츠에 대한 스트리밍 서비스 또는 다운로드 서비스를 제공할 수 있다.For example, when the electronic device 100 is implemented as a server, the electronic device 100 may provide a streaming service or a download service for video content through a user terminal of a user.

여기서, 전자 장치(100)는 사용자 단말을 통해 비디오 콘텐츠의 전체를 재생하되 색인어에 매칭되는 시간 구간의 재생 포인트의 위치를 시각적으로 알려줄 수도 있고, 또는 비디오 콘텐츠 중 색인어에 매칭되는 시간 구간만을 재생할 수도 있다.Here, the electronic device 100 may reproduce the entire video content through the user terminal and visually inform the location of the playback point of the time section matching the index word, or play only the time section matching the index word among the video contents. have.

제공된 비디오 콘텐츠의 재생이 완료되면, 전자 장치(100)는 상술한 게시판에 사용자의 코멘트를 기록하기 위한 적어도 하나의 UI를 (사용자 단말을 통해) 제공할 수 있으며, 전자 장치(100)는 사용자의 입력에 따라 평가/후기/질문/요청 등에 해당하는 코멘트를 게시판에 기록할 수 있다.When the reproduction of the provided video content is completed, the electronic device 100 may provide at least one UI for recording the user's comment on the above-described bulletin board (via the user terminal), and the electronic device 100 may Depending on the input, comments corresponding to evaluation/review/question/request, etc. can be recorded on the bulletin board.

이렇듯, 비디오 콘텐츠가 실제로 재생되기 전에는 다른 사용자의 코멘트에 대한 열람만이 허용되고, 비디오 콘텐츠가 실제로 재생된 경우에만 사용자의 코멘트를 입력 받음에 따라, 게시판 내 코멘트의 신뢰성 및 정확도가 보장될 수 있다는 효과가 있다.In this way, only viewing of other users' comments is allowed before the video content is actually played, and as the user's comments are received only when the video content is actually played, the reliability and accuracy of comments in the bulletin board can be guaranteed. It works.

한편, 교육 목적의 비디오 콘텐츠와 관련된 일 실시 예에 따르면, 전자 장치(100)는 사용자의 학습 목적 및/또는 학습 수준에 따라 적어도 하나의 색인어를 추천할 수도 있다.Meanwhile, according to an embodiment related to video content for educational purposes, the electronic device 100 may recommend at least one index word according to the user's learning purpose and/or learning level.

먼저, 전자 장치(100)는 사용자의 학습 목적 및/또는 학습 수준을 식별할 수 있다.First, the electronic device 100 may identify the user's learning purpose and/or learning level.

학습 목적은, 교육 대상인 과목(ex. 수학, 국어, 영어 등), 교육 대상인 분야(ex. 공학, 웹 개발, 반려동물 기르기 등), 구체적인 교육 내용 등에 따라 구분될 수 있으나, 이밖에 특정한 시험을 목표로 하는 경우도 포함될 수 있다.The purpose of learning can be divided according to the subject of education (ex. mathematics, Korean, English, etc.), the field of education (ex. engineering, web development, raising companion animals, etc.), specific educational content, etc. Targets may also be included.

학습 수준은, 사용자의 학년(ex. 초등 저학년, 초등 고학년, 중등 1학년, 중등 2학년, 고등 1학년 등), 적어도 하나의 시험(test)에 대한 사용자의 점수 등에 따라 구분될 수 있으나, 이에 한정되지 않는다.The level of learning may be classified according to the user's grade (eg, lower elementary, upper elementary, middle school, second grade, high school, etc.), the user's score for at least one test, etc. not limited

일 예로, 서버인 전자 장치(100)는 사용자 단말을 통해 사용자의 학습 목적 및/또는 학습 수준을 입력 받을 수 있다.As an example, the electronic device 100 as a server may receive the user's learning purpose and/or learning level through the user terminal.

다른 예로, 서버인 전자 장치(100)는 사용자 단말을 통해 입력된 학습 목적에 맞는 적어도 하나의 테스트(ex. 복수의 풀이용 문제를 포함)를 제공할 수 있으며, 테스트에 대한 사용자의 풀이 결과에 따라 사용자의 학습 수준을 식별할 수 있다.As another example, the electronic device 100 as a server may provide at least one test (eg, including a plurality of solving problems) suitable for the learning purpose input through the user terminal, According to the user's learning level can be identified.

그리고, 전자 장치(100)는 사용자의 학습 목적 및 학습 수준에 매칭되는 적어도 하나의 색인어를 선택할 수 있다.In addition, the electronic device 100 may select at least one index word matching the user's learning purpose and learning level.

일 예로, 전자 장치(100)는 학습 목적 및/또는 학습 수준과 관련된 적어도 하나의 키워드를 검색할 수 있다. 이때, 전자 장치(100)는 자체 구비된 데이터 베이스를 이용하거나 또는 검색 서비스를 제공하는 적어도 하나의 외부 서버를 이용할 수 있다.As an example, the electronic device 100 may search for at least one keyword related to a learning purpose and/or a learning level. In this case, the electronic device 100 may use its own database or at least one external server that provides a search service.

여기서, 전자 장치(100)는 검색 결과에 따라 획득된 복수의 문서/콘텐츠 내에 공통으로 포함된 비율이 가장 높은 적어도 하나의 키워드를 색인어로 선택할 수 있다.Here, the electronic device 100 may select at least one keyword having the highest ratio commonly included in the plurality of documents/contents obtained according to the search result as the index word.

구체적인 예로, 사용자의 학습 목적이 수학이고 학습 수준이 중등 1학년인 경우, 전자 장치(100)는 검색 결과 등장 빈도가 높은 소인수분해, 정수, 유리수, 좌표평면 등의 키워드를 획득할 수 있으며, 해당 키워드 중 적어도 하나의 색인어로 선택할 수 있다.As a specific example, when the user's learning objective is mathematics and the learning level is a first year of secondary school, the electronic device 100 may obtain keywords such as prime factorization, integer, rational number, and coordinate plane, which frequently appear in search results, and the corresponding You can select at least one index word among keywords.

그리고, 전자 장치(100)는 선택된 색인어에 따라 검색된 적어도 하나의 비디오 콘텐츠를 사용자에게 추천할 수 있다.In addition, the electronic device 100 may recommend at least one video content found according to the selected index word to the user.

이 경우, 학습 대상자인 사용자의 학습 목적 및 학습 수준에 맞는 최적의 비디오 콘텐츠들을 포함하는 학습 계획이 도출될 수 있다는 효과가 있다.In this case, there is an effect that a learning plan including optimal video contents suitable for the learning purpose and learning level of the user who is the learning target can be derived.

한편, 일 실시 예에 따르면, 전자 장치(100)는 색인어에 따른 비디오 콘텐츠의 검색량에 따라 비디오 콘텐츠에 대하여 설정된 색인어를 변경할 수도 있다.Meanwhile, according to an embodiment, the electronic device 100 may change the index word set for the video content according to the search amount of the video content according to the index word.

구체적으로, '비디오 콘텐츠 AB'에 대하여 '색인어 AC'가 설정된 상황을 가정한다.Specifically, it is assumed that 'index word AC' is set for 'video content AB'.

이때, 전자 장치(100)는 일정 기간(ex. 최근 일주일, 최근 한 달 등) 동안 '색인어 AC'를 통해 '비디오 콘텐츠 AB'가 검색된 제1 횟수를 식별하고, 동일 기간 동안 (검색 여부와 무관하게) 단순히 '비디오 콘텐츠 AB'가 재생된 전체 횟수인 제2 횟수를 식별할 수 있다.In this case, the electronic device 100 identifies the first number of times that 'video content AB' is searched through the 'index word AC' for a certain period (eg, the last week, the last month, etc.), and during the same period (regardless of whether or not the search is performed) In this case, it is possible to simply identify the second number of times 'video content AB' has been reproduced.

여기서, 만약 제1 횟수를 제2 횟수로 나눈 비율이 임계 비율 미만인 경우라면, 전자 장치(100)는 '비디오 콘텐츠 AB'에 대하여 설정된 색인어를 '색인어 AC'에서 적어도 하나의 다른 색인어로 변경할 수 있다.Here, if the ratio of the first number divided by the second number is less than the threshold ratio, the electronic device 100 may change the index word set for 'video content AB' from 'index word AC' to at least one other index word. .

구체적으로, 전자 장치(100)는 '비디오 콘텐츠 AB'의 오디오 데이터가 변환된 텍스트에 포함된 적어도 하나의 키워드(: '색인어 AC'와 다른 키워드)를 이용하여 다른 색인어를 획득 및 설정할 수 있다.Specifically, the electronic device 100 may obtain and set another index word by using at least one keyword (a keyword different from 'index word AC') included in the text in which the audio data of 'video content AB' is converted.

이렇듯, 전자 장치(100)는 실제 비디오 콘텐츠에 대한 수요에 비해 색인어에 따른 검색 빈도(검색 효율)가 떨어지는 경우, 색인어를 다른 색인어로 변경할 수 있으며, 그 결과 실시간으로 색인어에 대한 효용성 검증 및 업데이트가 수행되어 비디오 콘텐츠의 인덱싱 환경에 대한 원활환 관리가 가능하다.As such, when the search frequency (search efficiency) according to the index word is lower than the demand for actual video content, the electronic device 100 may change the index word to another index word, and as a result, validation and update of the utility of the index word in real time This enables smooth management of the indexing environment of video content.

한편, 도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.Meanwhile, FIG. 7 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.

도 7을 참조하면, 전자 장치(100)는 메모리(110) 및 프로세서(120) 외에도, 통신부(130), 사용자 입력부(140), 출력부(150) 중 적어도 하나를 더 포함할 수 있다.Referring to FIG. 7 , the electronic device 100 may further include at least one of a communication unit 130 , a user input unit 140 , and an output unit 150 in addition to the memory 110 and the processor 120 .

도 7을 참조하면, 프로세서(120)는 STT 모듈(121), 키워드 추출 모듈(122), 색인 관리 모듈(123), 검색 모듈(124), 콘텐츠 재생 모듈(125), 게시판 관리 모듈(126) 등을 제어할 수 있다. 본 모듈들은, 하드웨어 및/또는 소프트웨어로 구현될 수 있다.Referring to FIG. 7 , the processor 120 includes an STT module 121 , a keyword extraction module 122 , an index management module 123 , a search module 124 , a content reproduction module 125 , and a bulletin board management module 126 . etc can be controlled. These modules may be implemented in hardware and/or software.

STT 모듈(121)은 비디오 콘텐츠의 오디오 데이터를 텍스트로 변환하기 위한 모듈로, 음향 모델, 언어 모델, 발음 사전 등을 이용할 수 있다.The STT module 121 is a module for converting audio data of video content into text, and may use an acoustic model, a language model, a pronunciation dictionary, and the like.

키워드 추출 모듈(122)은 변환된 텍스트로부터 적어도 하나의 키워드를 추출하기 위한 모듈로, 자연어 처리 기술, 키워드 추출용 인공지능 모델 등을 이용할 수 있다.The keyword extraction module 122 is a module for extracting at least one keyword from the converted text, and may use natural language processing technology, an artificial intelligence model for keyword extraction, and the like.

색인 관리 모듈(123)은 적어도 하나의 비디오 콘텐츠, 비디오 콘텐츠에 포함된 적어도 하나의 시간 구간에 대하여 색인어를 설정하기 위한 모듈이다.The index management module 123 is a module for setting index words for at least one video content and at least one time section included in the video content.

색인 관리 모듈(123)은 각 비디오 콘텐츠에 설정된 적어도 하나의 색인어를 변경/업데이트/삭제할 수도 있다.The index management module 123 may change/update/delete at least one index word set in each video content.

검색 모듈(124)은 색인어를 통해 적어도 하나의 비디오 콘텐츠를 검색하기 위한 모듈이다.The search module 124 is a module for searching for at least one video content through an index word.

검색 모듈(124)은 전자 장치(100) 또는 외부 장치에 구비된 데이터 베이스를 기반으로 검색을 수행할 수 있으며, 본 데이터 베이스는, 비디오 콘텐츠와 색인어 간의 매칭 정보를 포함할 수 있다.The search module 124 may perform a search based on a database provided in the electronic device 100 or an external device, and this database may include matching information between video content and an index word.

콘텐츠 재생 모듈(125)은 비디오 콘텐츠의 재생 서비스를 제공하기 위한 모듈이다.The content reproduction module 125 is a module for providing a video content reproduction service.

콘텐츠 재생 모듈(125)은 메모리(110)에 저장된 비디오 콘텐츠를 재생할 수도 있고, 적어도 하나의 외부 서버와의 통신을 기반으로 비디오 콘텐츠의 스트리밍 서비스를 제공할 수도 있다.The content playback module 125 may play video content stored in the memory 110 , and may provide a streaming service of video content based on communication with at least one external server.

게시판 관리 모듈(126)은 각 색인어에 대하여 구비된 게시판을 생성 및 관리하기 위한 모듈이다.The bulletin board management module 126 is a module for creating and managing a bulletin board provided for each index word.

게시판 관리 모듈(126)은 비디오 콘텐츠에 대하여 적어도 하나의 색인어가 설정됨에 따라 색인어에 대한 게시판을 생성할 수 있다.As at least one index word is set for video content, the bulletin board management module 126 may generate a bulletin board for the index word.

게시판 관리 모듈(126)은 게시판 내에 작성된 다양한 사용자의 코멘트를 메모리(110)에 저장할 수 있다.The bulletin board management module 126 may store various user comments written in the bulletin board in the memory 110 .

게시판 관리 모듈(126)은 게시판과 매칭되는 색인어 및/또는 비디오 콘텐츠(시간 구간)에 대한 코멘트의 연관성을 도출하도록 훈련된 적어도 하나의 인공지능 모델을 이용할 수 있다.The bulletin board management module 126 may use at least one artificial intelligence model trained to derive an index word matching the bulletin board and/or a correlation of a comment to a video content (time interval).

일 예로, 본 인공지능 모델은, 적어도 하나의 비디오 콘텐츠에 포함되는 오디오 데이터가 변환된 텍스트, 해당 비디오 콘텐츠에 대하여 설정된 색인어, 해당 비디오 콘텐츠에 대한 사용자들의 코멘트를 기반으로 훈련될 수 있다. 또한, 본 인공지능 모델은, 해당 비디오 콘텐츠와 무관한 코멘트들을 기반으로 훈련될 수도 있다.As an example, the AI model may be trained based on text converted from audio data included in at least one video content, an index word set for the video content, and user comments on the video content. In addition, the present AI model may be trained based on comments unrelated to the corresponding video content.

이 경우, 게시판 관리 모듈(126)은 게시판 내 각 코멘트를 인공지능 모델에 입력하여, 해당 게시판의 색인어 및 비디오 콘텐츠와 무관한 코멘트를 식별할 수 있다. 일 예로, 코멘트가 입력된 인공지능 모델로부터 출력된 연관성 지수가 임계치 미만인 경우, 게시판 관리 모듈(126)은 해당 코멘트를 노이즈로 식별할 수 있다.In this case, the bulletin board management module 126 may input each comment in the bulletin board into the artificial intelligence model, and identify a comment irrelevant to the index word and video content of the bulletin board. For example, when the correlation index output from the artificial intelligence model to which the comment is input is less than the threshold, the bulletin board management module 126 may identify the comment as noise.

그리고, 게시판 관리 모듈(126)은 게시판에서 해당 코멘트를 삭제할 수 있다.Also, the bulletin board management module 126 may delete a corresponding comment from the bulletin board.

한편, 구체적인 모듈 구성은 도 7과 달라질 수 있으며, 도 7에 도시된 모듈들 외에 다양한 기능을 수행하는 모듈이 추가로 포함될 수 있음은 물론이다.Meanwhile, a specific module configuration may be different from that of FIG. 7 , and modules for performing various functions other than the modules shown in FIG. 7 may be additionally included.

통신부(130)는 전자 장치(100)가 다양한 외부 장치와 데이터를 송수신하기 위한 구성으로, 통신을 위한 적어도 하나의 회로를 포함할 수 있다.The communication unit 130 is a configuration for the electronic device 100 to transmit/receive data to and from various external devices, and may include at least one circuit for communication.

통신부(130)는 TCP/IP(Transmission Control Protocol/Internet Protocol), UDP(User Datagram Protocol), HTTP(Hyper Text Transfer Protocol), HTTPS(Secure Hyper Text Transfer Protocol), FTP(File Transfer Protocol), SFTP(Secure File Transfer Protocol), MQTT(Message Queuing Telemetry Transport) 등의 통신 규약(프로토콜)을 이용하여 하나 이상의 외부 전자 장치와 다양한 정보를 송수신할 수 있다.Communication unit 130 is TCP/IP (Transmission Control Protocol/Internet Protocol), UDP (User Datagram Protocol), HTTP (Hyper Text Transfer Protocol), HTTPS (Secure Hyper Text Transfer Protocol), FTP (File Transfer Protocol), SFTP ( A communication protocol (protocol) such as Secure File Transfer Protocol) and MQTT (Message Queuing Telemetry Transport) may be used to transmit/receive various information to and from one or more external electronic devices.

이를 위해, 통신부(130)는 유선 통신 및/또는 무선 통신을 통해 구현된 네트워크를 기반으로, 외부 장치와 연결될 수 있다. 이때, 통신부(130)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.To this end, the communication unit 130 may be connected to an external device based on a network implemented through wired communication and/or wireless communication. In this case, the communication unit 130 may be directly connected to an external device, or may be connected to an external electronic device through one or more external servers (eg, Internet Service Providers (ISPs)) that provide a network.

네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.The network may be a personal area network (PAN), a local area network (LAN), a wide area network (WAN), etc. depending on the area or size, and depending on the openness of the network, an intranet, It may be an extranet or the Internet.

무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wireless communication includes long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G) mobile communication, code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), WiBro (Wireless Broadband), GSM (Global System for Mobile Communications), DMA (Time Division Multiple Access), WiFi (Wi-Fi), WiFi Direct, Bluetooth, NFC (near field communication), at least one of the communication methods such as Zigbee may include

유선 통신은 이더넷(Ethernet), 광 네트워크(optical network), USB(Universal Serial Bus), 선더볼트(ThunderBolt) 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wired communication may include at least one of communication methods such as Ethernet, optical network, USB (Universal Serial Bus), and ThunderBolt.

여기서, 통신부(130)는 상술한 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.Here, the communication unit 130 may include a network interface or a network chip according to the above-described wired/wireless communication method. Meanwhile, the communication method is not limited to the above-described example, and may include a communication method newly appearing according to the development of technology.

전자 장치(100)가 서버인 경우, 전자 장치(100)는 통신부(130)를 통해 다양한 사용자 단말과 통신을 수행할 수 있으며, 적어도 하나의 웹 페이지 또는 애플리케이션을 통해 각 사용자 단말과 연동되어 각 사용자를 위한 상술한 다양한 실시 예에 따른 콘텐츠 인덱싱 방법을 수행할 수 있다.When the electronic device 100 is a server, the electronic device 100 may communicate with various user terminals through the communication unit 130 , and interwork with each user terminal through at least one web page or application to enable each user The content indexing method according to the above-described various embodiments may be performed.

전자 장치(100)가 스마트폰 등 사용자 단말인 경우, 전자 장치(100)는 통신부(130)를 통해 연결된 적어도 하나의 외부 서버가 제공하는 애플리케이션/웹 페이지를 통해 상술한 다양한 실시 예에 따른 콘텐츠 인덱싱 방법의 적어도 일부를 수행할 수 있다.When the electronic device 100 is a user terminal such as a smartphone, the electronic device 100 indexes contents according to the above-described various embodiments through an application/web page provided by at least one external server connected through the communication unit 130 . At least some of the methods may be performed.

사용자 입력부(140)는 사용자 명령 또는 사용자 정보 등을 입력 받기 위한 구성이다.The user input unit 140 is configured to receive a user command or user information.

전자 장치(100)가 스마트폰, 노트북 PC 등 사용자 단말로 구현된 경우, 사용자 입력부(140)는 터치 센서, 버튼, 카메라, 마이크, 키보드 등으로 구현될 수 있다. 전자 장치(100)가 데스크탑 PC인 경우, 사용자 입력부(140)는 키보드 또는 마우스 등 다양한 입력 인터페이스와 연결된 단자로 구현될 수 있다.When the electronic device 100 is implemented as a user terminal such as a smartphone or a notebook PC, the user input unit 140 may be implemented as a touch sensor, a button, a camera, a microphone, a keyboard, and the like. When the electronic device 100 is a desktop PC, the user input unit 140 may be implemented as a terminal connected to various input interfaces such as a keyboard or a mouse.

출력부(150)는 다양한 정보를 출력하여 사용자에게 제공하기 위한 구성이다.The output unit 150 is configured to output various information and provide it to the user.

전자 장치(100)가 스마트폰 등의 사용자 단말로 구현된 경우, 출력부(150)는 디스플레이, 스피커, 이어폰/헤드셋 단자 등을 포함할 수 있다.When the electronic device 100 is implemented as a user terminal such as a smart phone, the output unit 150 may include a display, a speaker, an earphone/headset terminal, and the like.

한편, 전자 장치(100)가 서버로 구현된 경우, 전자 장치(100)가 자체적으로 사용자 입력부(140) 및 출력부(150)를 포함하기 보다는, 사용자 입력부 및 출력부를 포함하는 사용자 단말을 통해 사용자 명령/사용자 정보를 수신하고 다양한 정보를 출력할 수 있다.On the other hand, when the electronic device 100 is implemented as a server, the electronic device 100 does not include the user input unit 140 and the output unit 150 itself, but rather the user through the user terminal including the user input unit and the output unit. It can receive command/user information and output various information.

한편, 이상에서 설명된 다양한 실시 예들은 서로 저촉되지 않는 한 복수의 실시 예가 결합되어 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented by combining a plurality of embodiments as long as they do not conflict with each other.

한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.

하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays) ), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.

일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.

한편, 상술한 본 개시의 다양한 실시 예들에 따른 시스템 내 각 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자장치에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다.Meanwhile, computer instructions or a computer program for performing a processing operation in each device in the system according to various embodiments of the present disclosure described above are stored in a non-transitory computer-readable medium. can be saved. When the computer instructions or computer program stored in the non-transitory computer-readable medium are executed by the processor of the specific device, the specific device performs the processing operation in the electronic device according to the various embodiments described above.

비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, a cache, a memory, and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.

이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is generally used in the technical field belonging to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of

100: 전자 장치 110: 메모리
120: 프로세서
100: electronic device 110: memory
120: processor

Claims (10)

전자 장치의 콘텐츠 인덱싱 방법에 있어서,
비디오 콘텐츠에 포함된 오디오 데이터로부터 적어도 하나의 텍스트를 획득하는 단계;
상기 획득된 텍스트에 포함된 적어도 하나의 키워드를 기반으로, 상기 비디오 콘텐츠에 대한 색인어를 설정하는 단계; 및
상기 설정된 색인어에 대한 검색을 요청하는 사용자의 입력이 수신되면, 상기 비디오 콘텐츠를 제공하는 단계;를 포함하고,
상기 색인어를 설정하는 단계는,
상기 획득된 텍스트를 문장, 문단, 또는 단락을 기준으로 복수의 서브 텍스트로 구분하고,
상기 비디오 콘텐츠를 상기 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간으로 구분하고,
상기 복수의 서브 텍스트 중 적어도 하나의 서브 텍스트에 대하여 색인어를 선택하고,
상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 서브 텍스트에 매칭되는 시간 구간에, 상기 선택된 색인어가 매칭되도록 설정하고,
상기 전자 장치의 콘텐츠 인덱싱 방법은,
상기 비디오 콘텐츠가 제공되는 동안 추가 설명을 요청하는 사용자 입력을 수신하는 단계;
상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 추가 설명을 요청하는 사용자 입력이 수신된 시점에 재생되고 있는 시간 구간을 식별하는 단계;
상기 식별된 시간 구간에 매칭되는 색인어를 기반으로 적어도 하나의 다른 비디오 콘텐츠를 검색하는 단계; 및
상기 검색된 다른 비디오 콘텐츠를 제공하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.
A method for indexing content in an electronic device, the method comprising:
obtaining at least one text from audio data included in the video content;
setting an index word for the video content based on at least one keyword included in the obtained text; and
When a user input requesting a search for the set index word is received, providing the video content;
The step of setting the index word is,
dividing the obtained text into a plurality of sub-texts based on a sentence, paragraph, or paragraph;
dividing the video content into a plurality of time sections matching each of the plurality of subtexts;
selecting an index word for at least one subtext among the plurality of subtexts,
setting the selected index word to match in a time section matching the subtext among the plurality of time sections included in the video content;
The content indexing method of the electronic device includes:
receiving user input requesting further explanation while the video content is being presented;
identifying a time section being reproduced at a time point when the user input requesting the additional explanation is received from among the plurality of time sections included in the video content;
searching for at least one other video content based on an index word matching the identified time interval; and
The content indexing method of the electronic device further comprising; providing the other searched video content.
제1항에 있어서,
상기 텍스트를 획득하는 단계는,
상기 오디오 데이터에 포함된 음성을 변환하여 텍스트를 획득하는, 전자 장치의 콘텐츠 인덱싱 방법.
According to claim 1,
Obtaining the text includes:
A content indexing method of an electronic device, wherein text is obtained by converting a voice included in the audio data.
삭제delete 제1항에 있어서,
상기 비디오 콘텐츠를 제공하는 단계는,
상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠를 제공받기 위한 사용자의 입력이 수신되면, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 설정된 색인어에 매칭되는 시간 구간을 제공하는, 전자 장치의 콘텐츠 인덱싱 방법.
According to claim 1,
Providing the video content comprises:
When a user input for receiving the video content searched according to the set index word is received, a time section matching the set index word among the plurality of time sections included in the video content is provided. .
제1항에 있어서,
상기 전자 장치의 콘텐츠 인덱싱 방법은,
상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 평가 정보를 요청하는 사용자의 입력이 수신되면, 상기 색인어에 매칭되는 상기 시간 구간에 대한 다른 사용자의 코멘트를 포함하는 게시판에 대한 열람 서비스를 제공하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.
According to claim 1,
The content indexing method of the electronic device includes:
When an input from a user requesting evaluation information of the video content searched according to the set index word is received, providing a viewing service for a bulletin board including comments of other users for the time section matching the index word; Further comprising, a method for indexing content in an electronic device.
제5항에 있어서,
상기 전자 장치의 콘텐츠 인덱싱 방법은,
상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 상기 시간 구간이 상기 사용자에게 제공되면, 상기 게시판 내에 상기 시간 구간에 대한 상기 사용자의 코멘트를 기록하기 위한 적어도 하나의 사용자 인터페이스를 제공하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.
6. The method of claim 5,
The content indexing method of the electronic device includes:
When the time section of the video content searched for according to the set index word is provided to the user, providing at least one user interface for recording the user's comment for the time section in the bulletin board; further comprising , a method for indexing content in electronic devices.
삭제delete 제1항에 있어서,
상기 전자 장치의 콘텐츠 인덱싱 방법은,
사용자의 학습 목적 및 학습 수준을 식별하는 단계;
상기 사용자의 학습 목적 및 학습 수준에 매칭되는 적어도 하나의 색인어를 선택하는 단계; 및
상기 선택된 색인어에 따라 검색된 적어도 하나의 비디오 콘텐츠를 추천하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.
According to claim 1,
The content indexing method of the electronic device includes:
identifying the learning purpose and learning level of the user;
selecting at least one index word matching the learning purpose and learning level of the user; and
The content indexing method of the electronic device further comprising; recommending at least one video content found according to the selected index word.
전자 장치에 있어서,
적어도 하나의 인스트럭션이 저장된 메모리; 및
상기 인스트럭션을 실행함으로써, 제1항의 콘텐츠 인덱싱 방법을 수행하는, 프로세서;를 포함하는, 전자 장치.
In an electronic device,
a memory in which at least one instruction is stored; and
A processor that performs the content indexing method of claim 1 by executing the instruction.
컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램에 있어서,
전자 장치의 적어도 하나의 프로세서에 의해 실행되어, 상기 전자 장치로 하여금 제1항의 콘텐츠 인덱싱 방법을 수행하도록 하는, 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.
In the computer program stored in a computer-readable medium,
A computer program stored on a computer-readable medium, which is executed by at least one processor of an electronic device to cause the electronic device to perform the content indexing method of claim 1 .
KR1020210043877A 2021-04-05 2021-04-05 Content indexing method of electronic apparatus for setting index word based on audio data included in video content KR102357313B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210043877A KR102357313B1 (en) 2021-04-05 2021-04-05 Content indexing method of electronic apparatus for setting index word based on audio data included in video content

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210043877A KR102357313B1 (en) 2021-04-05 2021-04-05 Content indexing method of electronic apparatus for setting index word based on audio data included in video content

Publications (1)

Publication Number Publication Date
KR102357313B1 true KR102357313B1 (en) 2022-02-08

Family

ID=80252495

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210043877A KR102357313B1 (en) 2021-04-05 2021-04-05 Content indexing method of electronic apparatus for setting index word based on audio data included in video content

Country Status (1)

Country Link
KR (1) KR102357313B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117459798A (en) * 2023-12-22 2024-01-26 厦门众联世纪股份有限公司 Big data-based information display method, device, equipment and storage medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060051047A (en) * 2004-09-07 2006-05-19 소니 가부시끼 가이샤 Video material management apparatus and method, recording medium as well as program
KR20120126953A (en) * 2011-05-13 2012-11-21 한국과학기술원 A method for indexing video frames with slide titles through synchronization of video lectures with slide notes
KR101587926B1 (en) 2013-09-12 2016-01-25 엠랩 주식회사 Comment tagging system for streaming video and providing method thereof
KR20180106817A (en) * 2017-03-20 2018-10-01 삼성전자주식회사 Electronic device and controlling method thereof

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060051047A (en) * 2004-09-07 2006-05-19 소니 가부시끼 가이샤 Video material management apparatus and method, recording medium as well as program
KR20120126953A (en) * 2011-05-13 2012-11-21 한국과학기술원 A method for indexing video frames with slide titles through synchronization of video lectures with slide notes
KR101587926B1 (en) 2013-09-12 2016-01-25 엠랩 주식회사 Comment tagging system for streaming video and providing method thereof
KR20180106817A (en) * 2017-03-20 2018-10-01 삼성전자주식회사 Electronic device and controlling method thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117459798A (en) * 2023-12-22 2024-01-26 厦门众联世纪股份有限公司 Big data-based information display method, device, equipment and storage medium
CN117459798B (en) * 2023-12-22 2024-03-08 厦门众联世纪股份有限公司 Big data-based information display method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP7122341B2 (en) Method and apparatus for evaluating translation quality
US11645314B2 (en) Interactive information retrieval using knowledge graphs
US20200286396A1 (en) Following teaching system having voice evaluation function
RU2637998C1 (en) Method and system for creating brief summary of digital content
US8972265B1 (en) Multiple voices in audio content
CN107463700B (en) Method, device and equipment for acquiring information
US20200357382A1 (en) Oral, facial and gesture communication devices and computing architecture for interacting with digital media content
CN109582825B (en) Method and apparatus for generating information
US10909174B1 (en) State detection of live feed
US10089898B2 (en) Information processing device, control method therefor, and computer program
US11188199B2 (en) System enabling audio-based navigation and presentation of a website
KR102357313B1 (en) Content indexing method of electronic apparatus for setting index word based on audio data included in video content
KR20220128260A (en) Electronic apparatus for designing learning process based on comparative evaluation between student and artificial inteligence model, and learning management method
WO2021102754A1 (en) Data processing method and device and storage medium
Cassidy et al. Case study: the AusTalk corpus
CN113761865A (en) Sound and text realignment and information presentation method and device, electronic equipment and storage medium
WO2021120174A1 (en) Data processing method, apparatus, electronic device, and storage medium
KR20220135901A (en) Devices, methods and programs for providing customized educational content
CN113407779A (en) Video detection method, video detection equipment and computer readable storage medium
CN112951274A (en) Voice similarity determination method and device, and program product
KR20220022822A (en) Method of teaching korean using voice recognition and tts function of terminal device
KR102656262B1 (en) Method and apparatus for providing associative chinese learning contents using images
CN111833846B (en) Method and device for starting dictation state according to intention, and storage medium
Tong Speech to text with emoji
KR102528293B1 (en) Integration System for supporting foreign language Teaching and Learning using Artificial Intelligence Technology and method thereof

Legal Events

Date Code Title Description
GRNT Written decision to grant