KR102357313B1 - Content indexing method of electronic apparatus for setting index word based on audio data included in video content - Google Patents
Content indexing method of electronic apparatus for setting index word based on audio data included in video content Download PDFInfo
- Publication number
- KR102357313B1 KR102357313B1 KR1020210043877A KR20210043877A KR102357313B1 KR 102357313 B1 KR102357313 B1 KR 102357313B1 KR 1020210043877 A KR1020210043877 A KR 1020210043877A KR 20210043877 A KR20210043877 A KR 20210043877A KR 102357313 B1 KR102357313 B1 KR 102357313B1
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- video content
- index word
- content
- user
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/783—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/7844—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using original textual content or text extracted from visual content or transcript of audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/71—Indexing; Data structures therefor; Storage structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/732—Query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/73—Querying
- G06F16/738—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/70—Information retrieval; Database structures therefor; File system structures therefor of video data
- G06F16/78—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/7867—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title and artist information, manually generated time, location and usage information, user ratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
Abstract
Description
본 개시는 비디오 콘텐츠에 대한 색인어를 설정하는 전자 장치에 관한 것으로, 보다 상세하게는, 비디오 콘텐츠에 포함된 오디오 데이터를 텍스트로 변환하여 색인어를 추출하는 전자 장치에 관한 것이다.The present disclosure relates to an electronic device for setting an index word for video content, and more particularly, to an electronic device for extracting an index word by converting audio data included in video content into text.
애플리케이션이나 웹 페이지를 이용하여 사용자가 원하는 비디오 콘텐츠를 제공하는 다양한 서비스들이 이용되고 있다.Various services are being used to provide video content desired by a user by using an application or a web page.
그리고, 사용자가 원하는 비디오 콘텐츠를 직접 검색할 수 있도록 하는 검색 서비스 역시 다수 제공되고 있다.In addition, a number of search services that allow users to directly search for desired video content are also provided.
일반적으로, 비디오 콘텐츠에 대한 검색은, 비디오 콘텐츠의 제목, 소개 글, 날짜, 장르, 제작자, 출연자 등에 따른 키워드 검색 기반 서비스가 주류를 이루고 있다.In general, a search for video content is a keyword search-based service according to the title, introduction, date, genre, producer, performer, and the like of the video content.
다만, 지식을 제공하는 인터넷 강의나 정보를 제공하는 영상의 경우, 중요한 정보 내지는 키워드가 제목이나 소개 글에 포함되지 않는 경우가 많으므로, 단순히 제목이나 장르 기반 검색만으로는 한계가 명확하다.However, in the case of Internet lectures that provide knowledge or videos that provide information, there are many cases where important information or keywords are not included in the title or introductory text, so a simple title or genre-based search has limitations.
따라서, 비디오 콘텐츠의 구체적인 내용과 연계된 사용자의 검색을 가능하게 하는 인덱싱 서비스가 필요하다.Therefore, there is a need for an indexing service that enables users to search for specific content of video content.
본 개시는, 비디오 콘텐츠에 포함된 오디오 데이터를 기반으로 색인어를 설정하여 비디오 콘텐츠에 대한 효과적인 검색이 가능하도록 하는 전자 장치 내지는 시스템을 제공한다.The present disclosure provides an electronic device or system that enables an effective search for video content by setting an index word based on audio data included in video content.
본 개시의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 개시의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 개시의 실시 예에 의해 보다 분명하게 이해될 것이다. 또한, 본 개시의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.Objects of the present disclosure are not limited to the above-mentioned purposes, and other objects and advantages of the present disclosure that are not mentioned may be understood by the following description, and will be more clearly understood by the embodiments of the present disclosure. Moreover, it will be readily apparent that the objects and advantages of the present disclosure may be realized by the means and combinations thereof indicated in the claims.
본 개시의 일 실시 예에 따른 전자 장치의 콘텐츠 인덱싱 방법은, 비디오 콘텐츠에 포함된 오디오 데이터로부터 적어도 하나의 텍스트를 획득하는 단계, 상기 획득된 텍스트에 포함된 적어도 하나의 키워드를 기반으로, 상기 비디오 콘텐츠에 대한 색인어를 설정하는 단계, 상기 설정된 색인어에 대한 검색을 요청하는 사용자의 입력이 수신되면, 상기 비디오 콘텐츠를 제공하는 단계를 포함한다.A content indexing method of an electronic device according to an embodiment of the present disclosure includes: acquiring at least one text from audio data included in video content; based on at least one keyword included in the acquired text, the video content The method may include setting an index word for content, and providing the video content when a user input requesting a search for the set index word is received.
상기 텍스트를 획득하는 단계는, 상기 오디오 데이터에 포함된 음성을 변환하여 텍스트를 획득할 수 있다.In the obtaining of the text, the text may be obtained by converting a voice included in the audio data.
또한, 상기 색인어를 설정하는 단계는, 상기 획득된 텍스트를 문장, 문단, 또는 단락을 기준으로 복수의 서브 텍스트로 구분하고, 상기 비디오 콘텐츠를 상기 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간으로 구분하고, 상기 복수의 서브 텍스트 중 적어도 하나의 서브 텍스트에 대하여 색인어를 선택하고, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 서브 텍스트에 매칭되는 시간 구간에, 상기 선택된 색인어가 매칭되도록 설정할 수도 있다.In addition, the step of setting the index word may include dividing the obtained text into a plurality of subtexts based on a sentence, paragraph, or paragraph, and dividing the video content into a plurality of time sections matching each of the plurality of subtexts. classify, select an index word for at least one sub text among the plurality of sub texts, and set the selected index word to match in a time section matching the sub text among the plurality of time sections included in the video content may be
이 경우, 상기 비디오 콘텐츠를 제공하는 단계는, 상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠를 제공받기 위한 사용자의 입력이 수신되면, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 설정된 색인어에 매칭되는 시간 구간을 제공할 수 있다.In this case, the providing of the video content may include, when a user input for receiving the video content searched according to the set index word is received, matching the set index word among the plurality of time sections included in the video content. A time interval can be provided.
또한, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 평가 정보를 요청하는 사용자의 입력이 수신되면, 상기 색인어에 매칭되는 상기 시간 구간에 대한 다른 사용자의 코멘트를 포함하는 게시판에 대한 열람 서비스를 제공하는 단계를 더 포함할 수 있다.In addition, the content indexing method of the electronic device includes, when a user input requesting evaluation information of the video content searched according to the set index word is received, another user's comment on the time section matching the index word The method may further include providing a reading service for the bulletin board.
이 경우, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 상기 시간 구간이 상기 사용자에게 제공되면, 상기 게시판 내에 상기 시간 구간에 대한 상기 사용자의 코멘트를 기록하기 위한 적어도 하나의 사용자 인터페이스를 제공하는 단계를 더 포함할 수 있다.In this case, in the content indexing method of the electronic device, when the time section of the video content searched according to the set index word is provided to the user, at least one method for recording the user's comment for the time section in the bulletin board The method may further include providing a user interface of
또한, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 상기 비디오 콘텐츠가 제공되는 동안 추가 설명을 요청하는 사용자 입력을 수신하는 단계, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 추가 설명을 요청하는 사용자 입력이 수신된 시점에 재생되고 있는 시간 구간을 식별하는 단계, 상기 식별된 시간 구간에 매칭되는 색인어를 기반으로 적어도 하나의 다른 비디오 콘텐츠를 검색하는 단계, 상기 검색된 다른 비디오 콘텐츠를 제공하는 단계를 더 포함할 수도 있다.The content indexing method of the electronic device may include: receiving a user input requesting an additional explanation while the video content is being provided; The method further includes: identifying a time segment being played at the received time period; searching for at least one other video content based on an index word matching the identified time segment; and providing the retrieved other video content. You may.
한편, 상기 전자 장치의 콘텐츠 인덱싱 방법은, 사용자의 학습 목적 및 학습 수준을 식별하는 단계, 상기 사용자의 학습 목적 및 학습 수준에 매칭되는 적어도 하나의 색인어를 선택하는 단계, 상기 선택된 색인어에 따라 검색된 적어도 하나의 비디오 콘텐츠를 추천하는 단계를 더 포함할 수 있다.Meanwhile, the content indexing method of the electronic device includes the steps of: identifying a user's learning purpose and learning level; selecting at least one index word matching the user's learning purpose and learning level; The method may further include recommending one video content.
본 개시에 따른 전자 장치의 콘텐츠 인덱싱 방법은, 비디오 콘텐츠에 대한 오디오 기반 심층 분석을 기반으로 비디오 콘텐츠 별로 적절한 색인어를 설정하여 인덱싱할 수 있다는 장점이 있다.The content indexing method of the electronic device according to the present disclosure has an advantage in that it is possible to index by setting an appropriate index word for each video content based on an audio-based deep analysis of the video content.
본 개시에 따른 전자 장치의 콘텐츠 인덱싱 방법은, 시간 구간 별로 색인어를 설정하여 제공할 수 있으므로, 학습자 중심으로 학습 내용 및 학습 시간을 관리할 수 있는 학습 관리 솔루션을 제공할 수 있다.The content indexing method of the electronic device according to the present disclosure can provide a learning management solution capable of managing learning content and learning time centered on a learner, since index words can be set and provided for each time section.
도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도,
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 콘텐츠 인덱싱 방법을 설명하기 위한 흐름도,
도 3은 본 개시의 일 실시 예에 따라 오디오 데이터로부터 색인어를 추출하는 전자 장치의 동작을 설명하기 위한 도면,
도 4는 본 개시의 일 실시 예에 따라 비디오 콘텐츠에 포함된 시간 구간들 별로 색인어를 설정하는 전자 장치의 동작을 설명하기 위한 도면,
도 5는 본 개시의 일 실시 예에 따른 전자 장치가 색인어가 설정된 시간 구간들 각각에 대한 게시판을 제공하는 동작을 설명하기 위한 도면,
도 6은 본 개시의 일 실시 예에 따른 전자 장치가 비디오 콘텐츠의 제공 전후로 게시판에 대한 열람 및 작성과 관련된 UI(User Interface)를 제공하는 동작을 설명하기 위한 알고리즘, 그리고
도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure;
2 is a flowchart illustrating a content indexing method of an electronic device according to an embodiment of the present disclosure;
3 is a view for explaining an operation of an electronic device for extracting an index word from audio data according to an embodiment of the present disclosure;
4 is a view for explaining an operation of an electronic device for setting an index word for each time section included in video content according to an embodiment of the present disclosure;
5 is a diagram for explaining an operation of providing, by an electronic device, a bulletin board for each of time sections in which an index word is set, according to an embodiment of the present disclosure;
6 is an algorithm for explaining an operation of an electronic device providing a user interface (UI) related to reading and writing of a bulletin board before and after providing video content, according to an embodiment of the present disclosure;
7 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
본 개시에 대하여 구체적으로 설명하기에 앞서, 본 명세서 및 도면의 기재 방법에 대하여 설명한다.Prior to describing the present disclosure in detail, a description will be given of the description of the present specification and drawings.
먼저, 본 명세서 및 청구범위에서 사용되는 용어는 본 개시의 다양한 실시 예들에서의 기능을 고려하여 일반적인 용어들을 선택하였다. 하지만, 이러한 용어들은 당해 기술 분야에 종사하는 기술자의 의도나 법률적 또는 기술적 해석 및 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 일부 용어는 출원인이 임의로 선정한 용어도 있다. 이러한 용어에 대해서는 본 명세서에서 정의된 의미로 해석될 수 있으며, 구체적인 용어 정의가 없으면 본 명세서의 전반적인 내용 및 당해 기술 분야의 통상적인 기술 상식을 토대로 해석될 수도 있다. First, terms used in the present specification and claims have been selected in consideration of functions in various embodiments of the present disclosure. However, these terms may vary depending on the intention or legal or technical interpretation of a person skilled in the art, and the emergence of new technology. Also, some terms are arbitrarily selected by the applicant. These terms may be interpreted in the meanings defined herein, and in the absence of specific definitions, they may be interpreted based on the general content of the present specification and common technical common sense in the art.
또한, 본 명세서에 첨부된 각 도면에 기재된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낸다. 설명 및 이해의 편의를 위해서 서로 다른 실시 예들에서도 동일한 참조번호 또는 부호를 사용하여 설명한다. 즉, 복수의 도면에서 동일한 참조 번호를 가지는 구성요소를 모두 도시되어 있다고 하더라도, 복수의 도면들이 하나의 실시 예를 의미하는 것은 아니다. Also, the same reference numerals or reference numerals in each drawing attached to this specification indicate parts or components that perform substantially the same functions. For convenience of description and understanding, the same reference numbers or reference numerals are used in different embodiments. That is, even though all components having the same reference number are illustrated in a plurality of drawings, the plurality of drawings do not mean one embodiment.
또한, 본 명세서 및 청구범위에서는 구성요소들 간의 구별을 위하여 "제1", "제2" 등과 같이 서수를 포함하는 용어가 사용될 수 있다. 이러한 서수는 동일 또는 유사한 구성요소들을 서로 구별하기 위하여 사용하는 것이며 이러한 서수 사용으로 인하여 용어의 의미가 한정 해석되어서는 안 된다. 일 예로, 이러한 서수와 결합된 구성요소는 그 숫자에 의해 사용 순서나 배치 순서 등이 제한되어서는 안 된다. 필요에 따라서는, 각 서수들은 서로 교체되어 사용될 수도 있다. In addition, in this specification and claims, terms including an ordinal number such as “first” and “second” may be used to distinguish between elements. This ordinal number is used to distinguish the same or similar elements from each other, and the meaning of the term should not be construed as limited due to the use of the ordinal number. As an example, the use order or arrangement order of components combined with such an ordinal number should not be limited by the number. If necessary, each ordinal number may be used interchangeably.
본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "구성되다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In this specification, the singular expression includes the plural expression unless the context clearly dictates otherwise. In the present application, terms such as "comprises" or "consisting of" are intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and are intended to indicate that one or more other It should be understood that this does not preclude the possibility of addition or presence of features or numbers, steps, operations, components, parts, or combinations thereof.
본 개시의 실시 예에서 "모듈", "유닛", "부(part)" 등과 같은 용어는 적어도 하나의 기능이나 동작을 수행하는 구성요소를 지칭하기 위한 용어이며, 이러한 구성요소는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈", "유닛", "부(part)" 등은 각각이 개별적인 특정한 하드웨어로 구현될 필요가 있는 경우를 제외하고는, 적어도 하나의 모듈이나 칩으로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.In an embodiment of the present disclosure, terms such as “module”, “unit”, “part”, etc. are terms for designating a component that performs at least one function or operation, and such component is hardware or software. It may be implemented or implemented as a combination of hardware and software. In addition, a plurality of "modules", "units", "parts", etc. are integrated into at least one module or chip, except when each needs to be implemented in individual specific hardware, and thus at least one processor. can be implemented as
또한, 본 개시의 실시 예에서, 어떤 부분이 다른 부분과 연결되어 있다고 할 때, 이는 직접적인 연결뿐 아니라, 다른 매체를 통한 간접적인 연결의 경우도 포함한다. 또한, 어떤 부분이 어떤 구성요소를 포함한다는 의미는, 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.In addition, in an embodiment of the present disclosure, when it is said that a certain part is connected to another part, this includes not only a direct connection but also an indirect connection through another medium. In addition, the meaning that a certain part includes a certain component means that other components may be further included, rather than excluding other components, unless otherwise stated.
도 1은 본 개시의 일 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.1 is a block diagram illustrating a configuration of an electronic device according to an embodiment of the present disclosure.
도 1을 참조하면, 전자 장치(100)는 메모리(110) 및 프로세서(120)를 포함할 수 있다.Referring to FIG. 1 , the
전자 장치(100)는 다양한 사용자 단말과 통신을 수행할 수 있는 서버 장치에 해당할 수 있다. 이 경우, 전자 장치(100)는 적어도 하나의 웹 페이지 또는 애플리케이션을 통해 다양한 사용자 단말과 연동될 수 있으며, 사용자 단말을 통해 후술할 다양한 실시 예에 따른 학습 관리 방법을 제공할 수 있다.The
또는, 전자 장치(100)는 스마트폰, 노트북 PC, 데스크탑 PC, 태블릿 PC, PDA(Personal Digital Assistant), 웨어러블 디바이스, TV, 셋탑박스, 콘솔 기기, VR(Virtual Reality)/AR(Augmented Reality) 기기 등 다양한 단말 기기에 해당할 수도 있다.Alternatively, the
메모리(110)는 전자 장치(100) 내 구성요소들의 전반적인 동작을 제어하기 위한 운영체제(OS: Operating System), 적어도 하나의 인스트럭션 및 데이터를 저장하기 위한 구성이다.The
메모리(110)는 ROM, 플래시 메모리 등의 비휘발성 메모리를 포함할 수 있으며, DRAM 등으로 구성된 휘발성 메모리를 포함할 수 있다. 또한, 메모리(110)는 하드 디스크, SSD(Solid state drive) 등을 포함할 수도 있다.The
메모리(110)는 적어도 하나의 비디오 콘텐츠를 일시적으로 또는 지속적으로 저장할 수 있다.The
비디오 콘텐츠는, 복수의 이미지 프레임 및 오디오 데이터로 구성될 수 있다. 비디오 콘텐츠는, 교육, 스포츠, 게임, 뉴스, 드라마, 영화, 정보 제공 등 다양한 카테고리의 비디오 콘텐츠에 해당할 수 있다. The video content may be composed of a plurality of image frames and audio data. The video content may correspond to various categories of video content, such as education, sports, games, news, dramas, movies, and information provision.
구체적인 예로, 비디오 콘텐츠는, MOOC(Massive Open Online Course), OCW(Open Course Ware), 인터넷 강의 영상 등에 해당할 수 있다.As a specific example, the video content may correspond to a Massive Open Online Course (MOOC), an Open Course Ware (OCW), an Internet lecture video, or the like.
프로세서(120)는 전자 장치(100)에 포함된 각 구성을 전반적으로 제어하기 위한 구성으로, CPU(Central Processing Unit), AP(Application Processor), GPU(Graphic Processing Unit), VPU, NPU 등 다양한 유닛으로 구성될 수 있다.The
프로세서(120)는 메모리(110)에 저장된 인스트럭션을 실행함으로써 전자 장치(100)를 제어할 수 있다. 이하 도면들을 통해 본 개시의 다양한 실시 예에 따른 프로세서(120)의 동작을 설명한다.The
도 2는 본 개시의 일 실시 예에 따른 전자 장치의 콘텐츠 인덱싱 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating a content indexing method of an electronic device according to an embodiment of the present disclosure.
도 2를 참조하면, 전자 장치(100)는 비디오 콘텐츠에 포함된 오디오 데이터로부터 적어도 하나의 텍스트를 획득할 수 있다(S210).Referring to FIG. 2 , the
구체적으로, 전자 장치(100)는 오디오 데이터에 포함된 음성(speech/voice)을 STT(Speech-to-Text) 기술 기반으로 변환하여 텍스트를 획득할 수 있다. 여기서, 전자 장치(100)는 음향 모델 및 언어 모델을 이용하여 적어도 하나의 음소, 단어, 문장을 순차적으로 도출할 수 있으나, 이에 한정되지 않는다.Specifically, the
또한, 전자 장치(100)는 오디오 데이터를 구성하는 음성의 언어(국적)를 분석하여, 번역을 수행할 수도 있다. 이 경우, 전자 장치(100)는 적어도 하나의 자체 번역 모듈/툴 또는 외부 번역 서비스(ex. 외부 서버)를 이용할 수 있다.Also, the
예를 들어, 사용자의 국적과 텍스트의 언어에 매칭되는 국적이 다른 경우, 전자 장치(100)는 텍스트의 언어를 사용자의 국적의 언어로 번역할 수 있다.For example, when the nationality of the user and the nationality matching the language of the text are different, the
전자 장치(100)는 오디오 데이터의 특징을 분석하여 서로 다른 화자의 음성을 구분할 수도 있으며, 서로 다른 복수의 화자의 음성들이 오디오 데이터에 포함된 경우, 화자 별로 별도의 텍스트를 획득할 수도 있다. 여기서, 전자 장치(100)는 선형예측계수(Linear Predictive Coefficient), 켑스트럼(Cepstrum), 멜프리퀀시켑스트럼(Mel Frequency Cepstral Coefficient, MFCC), 주파수 대역별 에너지(Filter Bank Energy) 분석, CNN(Convolutional Neural Network) 기반 분류, RNN(Recurrent Neural Network) 기반 분석 등 오디오 데이터에 포함된 사용자별 음성의 특징을 분석하기 위한 다양한 기법을 이용할 수 있다.The
한편, 전자 장치(100)는 오디오 데이터 외에, 비디오 콘텐츠를 구성하는 적어도 하나의 이미지 프레임으로부터 텍스트를 추출할 수도 있다. 구체적으로, 전자 장치(100)는 OCR(Optical Character Recognition) 기술을 이용하여 이미지 프레임에 포함된 텍스트를 획득할 수 있다. Meanwhile, in addition to audio data, the
도 2를 참조하면, 전자 장치(100)는 획득된 텍스트에 포함된 키워드를 기반으로 비디오 콘텐츠에 대한 적어도 하나의 색인어를 설정할 수 있다(S220).Referring to FIG. 2 , the
구체적으로, 전자 장치(100)는 획득된 텍스트로부터 적어도 하나의 키워드를 추출하고, 추출된 키워드 또는 추출된 키워드와 연관된 적어도 하나의 단어를 이용하여 색인어를 생성할 수 있다. 여기서, 색인어는 하나의 단어로 구성될 수도 있고, 복수의 단어를 포함하는 어구 또는 문장으로 구성될 수도 있다.Specifically, the
전자 장치(100)는 다양한 방식의 자연어 처리(Natural Language Processing) 기술을 이용할 수 있다. 일 예로, 전자 장치(100)는 GPT-3(Generation Pre-trained Transformer 3)와 같은 언어 모델을 이용하여, 텍스트로부터 적어도 하나의 주제 단어를 추출하거나 또는 텍스트를 아우르는 주제 단어를 도출할 수 있다.The
또한, 전자 장치(100)는 템플릿 또는 인공지능 모델을 이용하는 적어도 하나의 요약 알고리즘을 통해 텍스트를 요약한 뒤, 요약문 내에서 키워드를 추출할 수도 있다.Also, the
한편, 전자 장치(100)는 비디오 콘텐츠에 포함되는 복수의 시간 구간 별로 색인어를 설정할 수도 있다.Meanwhile, the
이를 위해, 전자 장치(100)는 획득된 텍스트를 복수의 서브 텍스트로 구분하고, 서브 텍스트 별로 색인어를 설정할 수도 있다.To this end, the
여기서, 전자 장치(100)는 텍스트를 문장 별로, 문단 별로, 또는 단락 별로 구분하여 복수의 서브 텍스트를 획득할 수 있다.Here, the
구체적인 예로, 전자 장치(100)는 오디오 데이터가 변환된 텍스트를 순차적으로 분석하여 주제가 될 수 있는 하나 이상의 키워드를 추출할 수 있다. 그리고, 전자 장치(100)는 각 키워드를 기준으로 텍스트를 단락 단위로 구분하여 복수의 서브 텍스트를 정의할 수 있다.As a specific example, the
그리고, 전자 장치(100)는 비디오 콘텐츠를 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간으로 구분할 수 있다. 구체적으로, 각 서브 텍스트 별로, 전자 장치(100)는 서브 텍스트에 대응되는 오디오 데이터 및 매칭되는 이미지 프레임들이 재생되는 시간 구간을 식별할 수 있다.In addition, the
여기서, 전자 장치(100)는 복수의 서브 텍스트 중 적어도 하나의 서브 텍스트에 대하여 색인어를 선택할 수 있다. 구체적으로, 서브 텍스트 내에 포함된 적어도 하나의 키워드가 색인어로 선택될 수 있다. 이때, 하나의 서브 텍스트에 대하여 복수의 색인어가 선택되는 것도 가능하다.Here, the
이 경우, 전자 장치(100)는 서브 텍스트에 대하여 선택된 색인어가 서브 텍스트에 매칭되는 시간 구간에 매칭되도록 설정할 수 있다. 그 결과, 복수의 시간 구간 별로, 하나 이상의 색인어가 설정될 수 있다.In this case, the
전자 장치(100)가 서버로 구현된 경우, 상술한 S210 내지 S220의 과정은, 온전히 전자 장치(100) 상에서 수행될 수도 있고, 전자 장치(100) 및 사용자 단말을 포함하는 시스템 상에서 수행될 수도 있다.When the
일 예로, 사용자 단말에서 비디오 콘텐츠가 재생되는 경우, 사용자 단말은 실시간으로 오디오 데이터를 변환하여 텍스트를 획득할 수 있다. 이 경우, 서버인 전자 장치(100)는 사용자 단말로부터 텍스트를 수신하고, 수신된 텍스트를 분석하여 비디오 콘텐츠에 매칭되는 적어도 하나의 색인어를 설정할 수 있다.For example, when video content is reproduced in the user terminal, the user terminal may obtain text by converting audio data in real time. In this case, the
전자 장치(100)가 사용자 단말로 구현된 경우, 상술한 S210 내지 S220의 과정이 모두 사용자 단말인 전자 장치(100)를 통해 수행되는 것도 가능하다. When the
일 예로, 사용자 단말인 전자 장치(100)가 비디오 콘텐츠에 대한 실시간 스트리밍을 받는 상황에서, 전자 장치(100)는 실시간으로 수신되는 오디오 데이터를 텍스트로 변환할 수 있으며, 변환된 텍스트로부터 적어도 하나의 키워드(색인어)를 추출할 수 있다. 이 경우, 전자 장치(100)는 비디오 콘텐츠에 대하여 설정된 색인어에 대한 정보를 적어도 하나의 서버로 전송할 수 있고, 그 결과 각각의 비디오 콘텐츠에 대하여 생성된 색인 정보가 서버를 통해 다양한 사용자 단말로 공유될 수 있다.For example, in a situation where the
상술한 다양한 실시 예들에 따라 하나 이상의 비디오 콘텐츠에 대하여 색인어가 설정된 이후, 설정된 색인어에 대한 검색을 요청하는 사용자의 입력이 요청되면, 전자 장치(100)는 색인어에 매칭되는 적어도 하나의 비디오 콘텐츠를 제공할 수 있다(S230).After an index word is set for one or more video contents according to the various embodiments described above, when a user input requesting a search for the set index word is requested, the
전자 장치(100)가 서버인 경우, (검색을 요청하는) 사용자 입력은 전자 장치(100)와 통신 가능한 다양한 사용자 단말을 통해 수신될 수 있다. 전자 장치(100)가 사용자 단말인 경우, 사용자 단말에 구비된 사용자 입력부(ex. 터치 패널, 버튼, 마이크, 키패드 등)를 통해 사용자 입력이 수신될 수 있다.When the
전자 장치(100)는 색인어에 따라 검색된 비디오 콘텐츠에 대한 다양한 정보를 제공할 수 있다.The
구체적으로, 전자 장치(100)는 검색된 비디오 콘텐츠의 제목, (제작/업로드) 날짜, 재생 시간, 소개 글, 조회수, 유/무료 여부, 판매 금액 등에 대한 정보를 제공할 수 있다.Specifically, the
그리고, 검색된 비디오 콘텐츠를 제공받기 위한 사용자 입력이 수신되면, 전자 장치(100)는 비디오 콘텐츠의 재생 서비스를 제공할 수 있다.Then, when a user input for receiving the searched video content is received, the
전자 장치(100)가 서버인 경우, 전자 장치(100)는 서버에 저장된 비디오 콘텐츠를 사용자 단말로 전송하거나 또는 실시간 스트리밍을 수행할 수 있다. 또는, 전자 장치(100)는 비디오 콘텐츠가 저장된 외부 서버와 사용자 단말을 연동하여 스트리밍 서비스를 제공할 수도 있다.When the
전자 장치(100)가 사용자 단말인 경우, 전자 장치(100)에 저장된 비디오 콘텐츠가 재생될 수 있다. 또는, 전자 장치(100)가 적어도 하나의 외부 서버로부터 비디오 콘텐츠를 다운로드 받거나 스트리밍을 요청할 수도 있다.When the
한편, 비디오 콘텐츠의 시간 구간 별로 색인어가 설정된 경우, 전자 장치(100)는 (색인어에 따라 검색된) 비디오 콘텐츠에 포함되는 복수의 시간 구간 중 설정된 색인어에 매칭되는 시간 구간만을 제공(재생)할 수도 있다. 이때, 전자 장치(100)는 재생되는 시간 구간의 비디오 콘텐츠 내 재생 포인트(ex. 몇 분 몇 초)에 대한 정보를 함께 제공할 수도 있다.Meanwhile, when an index word is set for each time section of video content, the
이 경우, 색인어 검색에 맞는 시간 구간만 사용자에게 제공될 수 있다는 장점이 있으며, 색인어 검색의 목적(ex. 학습/조사 목적)에 맞지 않는 불필요한 시간 구간에 대한 스킵이 자동으로 수행될 수 있다.In this case, there is an advantage that only a time period suitable for the index word search can be provided to the user, and an unnecessary time period that does not fit the purpose of the index word search (eg, learning/research purpose) can be automatically skipped.
도 3은 본 개시의 일 실시 예에 따라 오디오 데이터로부터 색인어를 추출하는 전자 장치의 동작을 설명하기 위한 도면이다.3 is a diagram for explaining an operation of an electronic device for extracting an index word from audio data according to an embodiment of the present disclosure.
도 3을 참조하면, 전자 장치(100)는 인터넷 강의에 해당하는 비디오 콘텐츠(310)에 포함된 오디오 데이터(320)를 변환하여 텍스트(330)를 획득할 수 있다. 여기서, 오디오 데이터(320)에는 강연자의 음성이 포함된다.Referring to FIG. 3 , the
그리고, 전자 장치(100)는 키워드 추출 모듈 등을 이용하여 텍스트(330)의 주제 단어를 키워드(도 3의 “오스트랄로 피테쿠스”(340))로 추출할 수 있다.Then, the
키워드 추출 모듈은, 자연어 처리 기능을 수행하여 텍스트에 포함된 각 단어/문장의 의미를 분석할 수 있으며, 적어도 하나의 문장/문단이 입력되면 주제 단어를 선택하도록 훈련된 인공지능 모델을 이용할 수도 있다.The keyword extraction module may analyze the meaning of each word/sentence included in the text by performing a natural language processing function, and may use an artificial intelligence model trained to select a subject word when at least one sentence/paragraph is input. .
이 경우, 전자 장치(100)는 키워드인 “오스트랄로 피테쿠스”(340)를 비디오 콘텐츠(310)에 매칭되는 색인어로 설정할 수 있다.In this case, the
도 4는 본 개시의 일 실시 예에 따른 전자 장치가 비디오 콘텐츠에 포함된 시간 구간들 별로 색인어를 설정하는 동작을 설명하기 위한 도면이다.FIG. 4 is a diagram for explaining an operation of setting, by an electronic device, an index word for each time section included in video content, according to an embodiment of the present disclosure.
전자 장치(100)는 상술한 텍스트(330)를 적어도 하나의 주제 단어 및/또는 단락에 따라 복수의 서브 텍스트로 구분할 수 있다.The
그리고, 전자 장치(100)는 비디오 콘텐츠(310)를 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간(410, 420, 430)으로 구분할 수 있다.In addition, the
이 경우, 전자 장치(100)는 각 서브 텍스트에 포함된 주제 단어를 각 시간 구간의 색인어로 설정할 수 있다. 그 결과, 도 4를 참조하면, 시간 구간 A(410)에 대해서는 “오스트랄로 피테쿠스”(411)가 색인어로 설정되고, 시간 구간 B(420)에 대해서는 “호모 에렉투스”(421)가 색인어로 설정되고, 시간 구간 C(430)에 대해서는 “호모 네안데르탈렌시스”(431)가 색인어로 설정될 수 있다.In this case, the
한편, 상술한 도 4의 실시 예와 같이 시간 구간 별로 색인어가 설정된 이후, 전자 장치(100)는 색인어를 기반으로 해당 비디오 콘텐츠(310)와 관련하여 적어도 하나의 다른 비디오 콘텐츠를 추천할 수도 있다.Meanwhile, after the index word is set for each time section as in the above-described embodiment of FIG. 4 , the
구체적으로, 해당 비디오 콘텐츠(310)가 (적어도 하나의 사용자 단말을 통해) 재생되는 동안, 전자 장치(100)는 추가 설명을 요청하는 사용자 입력을 수신할 수 있다.Specifically, while the
이 경우, 전자 장치(100)는 비디오 콘텐츠에 포함되는 복수의 시간 구간(ex. 410, 420, 430) 중 추가 설명을 요청하는 사용자 입력이 수신된 시점에 재생되고 있는 시간 구간을 식별할 수 있다.In this case, the
여기서, 전자 장치(100)는 식별된 시간 구간에 매칭되는 색인어를 기반으로 적어도 하나의 다른 비디오 콘텐츠를 추가적으로 검색할 수 있으며, 추가적으로 검색된 다른 비디오 콘텐츠에 대한 정보를 제공하거나 또는 해당 비디오 콘텐츠를 재생할 수 있다.Here, the
만약, 추가적으로 검색된 비디오 콘텐츠 역시 복수의 시간 구간 별로 별도의 색인어가 설정된 경우, 전자 장치(100)는 추가적으로 검색된 해당 비디오 콘텐츠 중 상술한 색인어에 매칭되는 시간 구간만을 제공할 수도 있음은 물론이다.Of course, if additionally searched video content also sets a separate index word for each of a plurality of time sections, the
이렇듯, 본 개시의 상술한 실시 예에 따른 전자 장치(100)는, 시간 구간 별로 설정된 색인어를 활용함으로써, 추가 설명을 요청하는 사용자의 입력이 수신되는 시점에 따라 적합한 추가 콘텐츠를 검색하여 추천/제공할 수 있다는 장점이 있다.As such, the
한편, 일 실시 예에 따르면, 전자 장치(100)는 색인어 별로 독립된 전자 게시판을 제공할 수 있다.Meanwhile, according to an embodiment, the
일 예로, 복수의 시간 구간 각각에 대하여 색인어가 설정된 경우, 서버인 전자 장치(100)는 하나 이상의 색인어가 설정된 비디오 콘텐츠 및/또는 (비디오 콘텐츠의) 시간 구간마다 별도의 게시판을 제공하기 위한 다양한 UI(User Interface)를 제공할 수 있다.As an example, when an index word is set for each of a plurality of time sections, the
이 경우, 서버인 전자 장치(100)와 연결된 사용자 단말들은 각 색인어를 이용하여 게시판을 열람하고 글을 작성할 수 있으며, 그 결과, 다양한 사용자의 의견이 공유될 수 있다.In this case, the user terminals connected to the
관련하여, 도 5는 본 개시의 일 실시 예에 따른 전자 장치가 색인어가 설정된 시간 구간들 각각에 대한 게시판을 제공하는 동작을 설명하기 위한 도면이다. 도 5는, 도 4와 같이 시간 구간들(410, 420, 430) 별로 독립된 색인어들(411, 421, 431)이 설정된 상황을 가정한다.In relation to this, FIG. 5 is a diagram for explaining an operation of providing, by an electronic device, a bulletin board for each of time sections in which an index word is set, according to an embodiment of the present disclosure. 5 , it is assumed that
도 5를 참조하면, 전자 장치(100)는 색인어 별로 독립된 게시판(510, 520, 530)을 제공할 수 있다.Referring to FIG. 5 , the
구체적인 예로, 색인어인 “오스트랄로 피테쿠스”(411)에 따라 검색된 비디오 콘텐츠(310)의 평가 정보를 요청하는 사용자의 입력이 수신되면, 전자 장치(100)는 색인어에 매칭되는 시간 구간 A(410)에 대한 적어도 한 명의 다른 사용자의 코멘트를 포함하는 게시판에 대한 열람 서비스를 제공할 수 있다.As a specific example, when a user input requesting evaluation information of the
이 경우, 인터넷 강의 콘텐츠인 비디오 콘텐츠(310)를 통해 제공되는 “오스트랄로 피테쿠스”에 대한 설명에 대한 다양한 관점(ex. 강의 스타일, 강사의 태도, 강의 난이도, 내용의 충실함 등)의 인간적 평가 내용이 제공될 수 있고, 이러한 평가 내용은 오디오 데이터에 대한 기계적 분석만으로는 획득되기 어려운 부분이므로, 이를 통해 비디오 콘텐츠에 대한 큐레이션의 정밀도가 향상된다는 장점이 있다.In this case, the content of human evaluation of various viewpoints (eg, lecture style, instructor's attitude, lecture difficulty, faithfulness of content, etc.) for the explanation of "Australopithecus" provided through the
그리고, 색인어인 “오스트랄로 피테쿠스”(411)에 따라 검색된 비디오 콘텐츠(310)의 시간 구간 A(410)가 사용자에게 제공되는 경우(재생), 전자 장치(100)는 상술한 게시판 내에 사용자의 코멘트를 기록하기 위한 적어도 하나의 UI(User Interface)를 제공할 수 있다.And, when the
구체적으로, 전자 장치(100)는 해당 시간 구간 A(410)가 일정 시간 또는 일정 비율 이상 (사용자의 사용자 단말을 통해) 재생됨을 전제로, 게시판 내에 사용자의 코멘트를 기록(ex. 글 쓰기)할 수 있도록 하는 다양한 UI를 제공할 수 있다.Specifically, the
이때, 작성되는 글은 평가, 후기, 질문, 요청 등 다양한 분류로 구분될 수 있다.In this case, the written text may be divided into various categories such as evaluation, review, question, and request.
일 예로, 질문 글이 작성된 경우, 서버인 전자 장치(100)는 비디오 콘텐츠(310)의 강연자 또는 제작자가 각자의 사용자 단말을 통해 직접 답변을 수행하도록 하는 서비스를 제공할 수도 있다.For example, when a question text is written, the
또한, 다양한 평가/후기/요청 등을 담은 글이 강연자 또는 제작자에게도 공유될 수 있으므로, 비디오 콘텐츠(310)의 내용에 대한 사용자들의 피드백이 강연자 또는 제작자의 추가 콘텐츠 제작에 좋은 영향을 미칠 수 있다는 장점도 있다.In addition, since texts containing various evaluations/reviews/requests can be shared with the lecturer or producer, the user's feedback on the content of the
관련하여, 도 6은 본 개시의 일 실시 예에 따른 전자 장치가 비디오 콘텐츠의 제공 전후로 게시판에 대한 열람 및 작성과 관련된 UI(User Interface)를 제공하는 동작을 설명하기 위한 알고리즘이다.6 is an algorithm for explaining an operation of an electronic device providing a user interface (UI) related to reading and writing of a bulletin board before and after providing video content, according to an embodiment of the present disclosure.
도 6을 참조하면, 전자 장치(100)는 색인어가 검색됨에 따라(S610) 색인어에 매칭되는 비디오 콘텐츠에 대한 정보를 제공할 수 있다(S620).Referring to FIG. 6 , as the index word is searched ( S610 ), the
일 예로, 전자 장치(100)가 서버인 경우, 전자 장치(100)는 해당 비디오 콘텐츠의 제목, 날짜, 제작자, 판매 금액 등 다양한 정보를 제공할 수 있다. 이 경우, 전자 장치(100)는 해당 비디오 콘텐츠에 대한 결제 서비스를 제공할 수 있으며, 적어도 하나의 금융 관련 서버와 연동할 수 있다.For example, when the
또한, 전자 장치(100)는 검색된 비디오 콘텐츠를 스트리밍 받을 수 있는 웹 페이지의 주소/링크에 대한 정보를 제공할 수 있다.Also, the
여기서, 전자 장치(100)는 비디오 콘텐츠 중 색인어에 매칭되는 시간 구간에 대한 정보(ex. 시간 구간의 재생 포인트)를 제공할 수도 있다.Here, the
또는, 전자 장치(100)는 비디오 콘텐츠 중 색인어에 매칭되는 시간 구간만을 스트리밍 하기 위한 별도의 웹 페이지/주소를 생성하여 제공할 수도 있다.Alternatively, the
여기서, 해당 비디오 콘텐츠에 대한 평가 정보를 요청하는 사용자의 입력이 수신될 수도 있다. 이 경우(S630 - Y), 전자 장치(100)는 해당 비디오 콘텐츠와 관련된 다른 사용자의 코멘트가 기록된 게시판에 대한 열람 서비스를 제공할 수 있다(S640).Here, a user input requesting evaluation information for the corresponding video content may be received. In this case (S630 - Y), the
구체적으로, 전자 장치(100)는 해당 비디오 콘텐츠 중 검색된 색인어에 매칭되는 시간 구간에 대한 게시판의 열람 서비스를 제공할 수 있다.Specifically, the
한편, 비디오 콘텐츠를 제공받기 위한 사용자의 입력이 수신되면(S650), 전자 장치(100)는 비디오 콘텐츠의 재생 서비스를 제공할 수 있다(S660).Meanwhile, when a user input for receiving video content is received (S650), the
일 예로, 전자 장치(100)가 서버로 구현된 경우, 전자 장치(100)는 사용자의 사용자 단말을 통해 비디오 콘텐츠에 대한 스트리밍 서비스 또는 다운로드 서비스를 제공할 수 있다.For example, when the
여기서, 전자 장치(100)는 사용자 단말을 통해 비디오 콘텐츠의 전체를 재생하되 색인어에 매칭되는 시간 구간의 재생 포인트의 위치를 시각적으로 알려줄 수도 있고, 또는 비디오 콘텐츠 중 색인어에 매칭되는 시간 구간만을 재생할 수도 있다.Here, the
제공된 비디오 콘텐츠의 재생이 완료되면, 전자 장치(100)는 상술한 게시판에 사용자의 코멘트를 기록하기 위한 적어도 하나의 UI를 (사용자 단말을 통해) 제공할 수 있으며, 전자 장치(100)는 사용자의 입력에 따라 평가/후기/질문/요청 등에 해당하는 코멘트를 게시판에 기록할 수 있다.When the reproduction of the provided video content is completed, the
이렇듯, 비디오 콘텐츠가 실제로 재생되기 전에는 다른 사용자의 코멘트에 대한 열람만이 허용되고, 비디오 콘텐츠가 실제로 재생된 경우에만 사용자의 코멘트를 입력 받음에 따라, 게시판 내 코멘트의 신뢰성 및 정확도가 보장될 수 있다는 효과가 있다.In this way, only viewing of other users' comments is allowed before the video content is actually played, and as the user's comments are received only when the video content is actually played, the reliability and accuracy of comments in the bulletin board can be guaranteed. It works.
한편, 교육 목적의 비디오 콘텐츠와 관련된 일 실시 예에 따르면, 전자 장치(100)는 사용자의 학습 목적 및/또는 학습 수준에 따라 적어도 하나의 색인어를 추천할 수도 있다.Meanwhile, according to an embodiment related to video content for educational purposes, the
먼저, 전자 장치(100)는 사용자의 학습 목적 및/또는 학습 수준을 식별할 수 있다.First, the
학습 목적은, 교육 대상인 과목(ex. 수학, 국어, 영어 등), 교육 대상인 분야(ex. 공학, 웹 개발, 반려동물 기르기 등), 구체적인 교육 내용 등에 따라 구분될 수 있으나, 이밖에 특정한 시험을 목표로 하는 경우도 포함될 수 있다.The purpose of learning can be divided according to the subject of education (ex. mathematics, Korean, English, etc.), the field of education (ex. engineering, web development, raising companion animals, etc.), specific educational content, etc. Targets may also be included.
학습 수준은, 사용자의 학년(ex. 초등 저학년, 초등 고학년, 중등 1학년, 중등 2학년, 고등 1학년 등), 적어도 하나의 시험(test)에 대한 사용자의 점수 등에 따라 구분될 수 있으나, 이에 한정되지 않는다.The level of learning may be classified according to the user's grade (eg, lower elementary, upper elementary, middle school, second grade, high school, etc.), the user's score for at least one test, etc. not limited
일 예로, 서버인 전자 장치(100)는 사용자 단말을 통해 사용자의 학습 목적 및/또는 학습 수준을 입력 받을 수 있다.As an example, the
다른 예로, 서버인 전자 장치(100)는 사용자 단말을 통해 입력된 학습 목적에 맞는 적어도 하나의 테스트(ex. 복수의 풀이용 문제를 포함)를 제공할 수 있으며, 테스트에 대한 사용자의 풀이 결과에 따라 사용자의 학습 수준을 식별할 수 있다.As another example, the
그리고, 전자 장치(100)는 사용자의 학습 목적 및 학습 수준에 매칭되는 적어도 하나의 색인어를 선택할 수 있다.In addition, the
일 예로, 전자 장치(100)는 학습 목적 및/또는 학습 수준과 관련된 적어도 하나의 키워드를 검색할 수 있다. 이때, 전자 장치(100)는 자체 구비된 데이터 베이스를 이용하거나 또는 검색 서비스를 제공하는 적어도 하나의 외부 서버를 이용할 수 있다.As an example, the
여기서, 전자 장치(100)는 검색 결과에 따라 획득된 복수의 문서/콘텐츠 내에 공통으로 포함된 비율이 가장 높은 적어도 하나의 키워드를 색인어로 선택할 수 있다.Here, the
구체적인 예로, 사용자의 학습 목적이 수학이고 학습 수준이 중등 1학년인 경우, 전자 장치(100)는 검색 결과 등장 빈도가 높은 소인수분해, 정수, 유리수, 좌표평면 등의 키워드를 획득할 수 있으며, 해당 키워드 중 적어도 하나의 색인어로 선택할 수 있다.As a specific example, when the user's learning objective is mathematics and the learning level is a first year of secondary school, the
그리고, 전자 장치(100)는 선택된 색인어에 따라 검색된 적어도 하나의 비디오 콘텐츠를 사용자에게 추천할 수 있다.In addition, the
이 경우, 학습 대상자인 사용자의 학습 목적 및 학습 수준에 맞는 최적의 비디오 콘텐츠들을 포함하는 학습 계획이 도출될 수 있다는 효과가 있다.In this case, there is an effect that a learning plan including optimal video contents suitable for the learning purpose and learning level of the user who is the learning target can be derived.
한편, 일 실시 예에 따르면, 전자 장치(100)는 색인어에 따른 비디오 콘텐츠의 검색량에 따라 비디오 콘텐츠에 대하여 설정된 색인어를 변경할 수도 있다.Meanwhile, according to an embodiment, the
구체적으로, '비디오 콘텐츠 AB'에 대하여 '색인어 AC'가 설정된 상황을 가정한다.Specifically, it is assumed that 'index word AC' is set for 'video content AB'.
이때, 전자 장치(100)는 일정 기간(ex. 최근 일주일, 최근 한 달 등) 동안 '색인어 AC'를 통해 '비디오 콘텐츠 AB'가 검색된 제1 횟수를 식별하고, 동일 기간 동안 (검색 여부와 무관하게) 단순히 '비디오 콘텐츠 AB'가 재생된 전체 횟수인 제2 횟수를 식별할 수 있다.In this case, the
여기서, 만약 제1 횟수를 제2 횟수로 나눈 비율이 임계 비율 미만인 경우라면, 전자 장치(100)는 '비디오 콘텐츠 AB'에 대하여 설정된 색인어를 '색인어 AC'에서 적어도 하나의 다른 색인어로 변경할 수 있다.Here, if the ratio of the first number divided by the second number is less than the threshold ratio, the
구체적으로, 전자 장치(100)는 '비디오 콘텐츠 AB'의 오디오 데이터가 변환된 텍스트에 포함된 적어도 하나의 키워드(: '색인어 AC'와 다른 키워드)를 이용하여 다른 색인어를 획득 및 설정할 수 있다.Specifically, the
이렇듯, 전자 장치(100)는 실제 비디오 콘텐츠에 대한 수요에 비해 색인어에 따른 검색 빈도(검색 효율)가 떨어지는 경우, 색인어를 다른 색인어로 변경할 수 있으며, 그 결과 실시간으로 색인어에 대한 효용성 검증 및 업데이트가 수행되어 비디오 콘텐츠의 인덱싱 환경에 대한 원활환 관리가 가능하다.As such, when the search frequency (search efficiency) according to the index word is lower than the demand for actual video content, the
한편, 도 7은 본 개시의 다양한 실시 예에 따른 전자 장치의 구성을 설명하기 위한 블록도이다.Meanwhile, FIG. 7 is a block diagram illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
도 7을 참조하면, 전자 장치(100)는 메모리(110) 및 프로세서(120) 외에도, 통신부(130), 사용자 입력부(140), 출력부(150) 중 적어도 하나를 더 포함할 수 있다.Referring to FIG. 7 , the
도 7을 참조하면, 프로세서(120)는 STT 모듈(121), 키워드 추출 모듈(122), 색인 관리 모듈(123), 검색 모듈(124), 콘텐츠 재생 모듈(125), 게시판 관리 모듈(126) 등을 제어할 수 있다. 본 모듈들은, 하드웨어 및/또는 소프트웨어로 구현될 수 있다.Referring to FIG. 7 , the
STT 모듈(121)은 비디오 콘텐츠의 오디오 데이터를 텍스트로 변환하기 위한 모듈로, 음향 모델, 언어 모델, 발음 사전 등을 이용할 수 있다.The
키워드 추출 모듈(122)은 변환된 텍스트로부터 적어도 하나의 키워드를 추출하기 위한 모듈로, 자연어 처리 기술, 키워드 추출용 인공지능 모델 등을 이용할 수 있다.The
색인 관리 모듈(123)은 적어도 하나의 비디오 콘텐츠, 비디오 콘텐츠에 포함된 적어도 하나의 시간 구간에 대하여 색인어를 설정하기 위한 모듈이다.The
색인 관리 모듈(123)은 각 비디오 콘텐츠에 설정된 적어도 하나의 색인어를 변경/업데이트/삭제할 수도 있다.The
검색 모듈(124)은 색인어를 통해 적어도 하나의 비디오 콘텐츠를 검색하기 위한 모듈이다.The
검색 모듈(124)은 전자 장치(100) 또는 외부 장치에 구비된 데이터 베이스를 기반으로 검색을 수행할 수 있으며, 본 데이터 베이스는, 비디오 콘텐츠와 색인어 간의 매칭 정보를 포함할 수 있다.The
콘텐츠 재생 모듈(125)은 비디오 콘텐츠의 재생 서비스를 제공하기 위한 모듈이다.The
콘텐츠 재생 모듈(125)은 메모리(110)에 저장된 비디오 콘텐츠를 재생할 수도 있고, 적어도 하나의 외부 서버와의 통신을 기반으로 비디오 콘텐츠의 스트리밍 서비스를 제공할 수도 있다.The
게시판 관리 모듈(126)은 각 색인어에 대하여 구비된 게시판을 생성 및 관리하기 위한 모듈이다.The bulletin
게시판 관리 모듈(126)은 비디오 콘텐츠에 대하여 적어도 하나의 색인어가 설정됨에 따라 색인어에 대한 게시판을 생성할 수 있다.As at least one index word is set for video content, the bulletin
게시판 관리 모듈(126)은 게시판 내에 작성된 다양한 사용자의 코멘트를 메모리(110)에 저장할 수 있다.The bulletin
게시판 관리 모듈(126)은 게시판과 매칭되는 색인어 및/또는 비디오 콘텐츠(시간 구간)에 대한 코멘트의 연관성을 도출하도록 훈련된 적어도 하나의 인공지능 모델을 이용할 수 있다.The bulletin
일 예로, 본 인공지능 모델은, 적어도 하나의 비디오 콘텐츠에 포함되는 오디오 데이터가 변환된 텍스트, 해당 비디오 콘텐츠에 대하여 설정된 색인어, 해당 비디오 콘텐츠에 대한 사용자들의 코멘트를 기반으로 훈련될 수 있다. 또한, 본 인공지능 모델은, 해당 비디오 콘텐츠와 무관한 코멘트들을 기반으로 훈련될 수도 있다.As an example, the AI model may be trained based on text converted from audio data included in at least one video content, an index word set for the video content, and user comments on the video content. In addition, the present AI model may be trained based on comments unrelated to the corresponding video content.
이 경우, 게시판 관리 모듈(126)은 게시판 내 각 코멘트를 인공지능 모델에 입력하여, 해당 게시판의 색인어 및 비디오 콘텐츠와 무관한 코멘트를 식별할 수 있다. 일 예로, 코멘트가 입력된 인공지능 모델로부터 출력된 연관성 지수가 임계치 미만인 경우, 게시판 관리 모듈(126)은 해당 코멘트를 노이즈로 식별할 수 있다.In this case, the bulletin
그리고, 게시판 관리 모듈(126)은 게시판에서 해당 코멘트를 삭제할 수 있다.Also, the bulletin
한편, 구체적인 모듈 구성은 도 7과 달라질 수 있으며, 도 7에 도시된 모듈들 외에 다양한 기능을 수행하는 모듈이 추가로 포함될 수 있음은 물론이다.Meanwhile, a specific module configuration may be different from that of FIG. 7 , and modules for performing various functions other than the modules shown in FIG. 7 may be additionally included.
통신부(130)는 전자 장치(100)가 다양한 외부 장치와 데이터를 송수신하기 위한 구성으로, 통신을 위한 적어도 하나의 회로를 포함할 수 있다.The
통신부(130)는 TCP/IP(Transmission Control Protocol/Internet Protocol), UDP(User Datagram Protocol), HTTP(Hyper Text Transfer Protocol), HTTPS(Secure Hyper Text Transfer Protocol), FTP(File Transfer Protocol), SFTP(Secure File Transfer Protocol), MQTT(Message Queuing Telemetry Transport) 등의 통신 규약(프로토콜)을 이용하여 하나 이상의 외부 전자 장치와 다양한 정보를 송수신할 수 있다.
이를 위해, 통신부(130)는 유선 통신 및/또는 무선 통신을 통해 구현된 네트워크를 기반으로, 외부 장치와 연결될 수 있다. 이때, 통신부(130)는 외부 장치와 직접적으로 연결될 수도 있지만, 네트워크를 제공하는 하나 이상의 외부 서버(ex. ISP(Internet Service Provider))를 통해서 외부 전자 장치와 연결될 수도 있다.To this end, the
네트워크는 영역 또는 규모에 따라 개인 통신망(PAN; Personal Area Network), 근거리 통신망(LAN; Local Area Network), 광역 통신망(WAN; Wide Area Network) 등일 수 있으며, 네트워크의 개방성에 따라 인트라넷(Intranet), 엑스트라넷(Extranet), 또는 인터넷(Internet) 등일 수 있다.The network may be a personal area network (PAN), a local area network (LAN), a wide area network (WAN), etc. depending on the area or size, and depending on the openness of the network, an intranet, It may be an extranet or the Internet.
무선 통신은 LTE(long-term evolution), LTE-A(LTE Advance), 5G(5th Generation) 이동통신, CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), GSM(Global System for Mobile Communications), DMA(Time Division Multiple Access), WiFi(Wi-Fi), WiFi Direct, Bluetooth, NFC(near field communication), Zigbee 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wireless communication includes long-term evolution (LTE), LTE Advance (LTE-A), 5th generation (5G) mobile communication, code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), WiBro (Wireless Broadband), GSM (Global System for Mobile Communications), DMA (Time Division Multiple Access), WiFi (Wi-Fi), WiFi Direct, Bluetooth, NFC (near field communication), at least one of the communication methods such as Zigbee may include
유선 통신은 이더넷(Ethernet), 광 네트워크(optical network), USB(Universal Serial Bus), 선더볼트(ThunderBolt) 등의 통신 방식 중 적어도 하나를 포함할 수 있다. Wired communication may include at least one of communication methods such as Ethernet, optical network, USB (Universal Serial Bus), and ThunderBolt.
여기서, 통신부(130)는 상술한 유무선 통신 방식에 따른 네트워크 인터페이스(Network Interface) 또는 네트워크 칩을 포함할 수 있다. 한편, 통신 방식은 상술한 예에 한정되지 아니하고, 기술의 발전에 따라 새롭게 등장하는 통신 방식을 포함할 수 있다.Here, the
전자 장치(100)가 서버인 경우, 전자 장치(100)는 통신부(130)를 통해 다양한 사용자 단말과 통신을 수행할 수 있으며, 적어도 하나의 웹 페이지 또는 애플리케이션을 통해 각 사용자 단말과 연동되어 각 사용자를 위한 상술한 다양한 실시 예에 따른 콘텐츠 인덱싱 방법을 수행할 수 있다.When the
전자 장치(100)가 스마트폰 등 사용자 단말인 경우, 전자 장치(100)는 통신부(130)를 통해 연결된 적어도 하나의 외부 서버가 제공하는 애플리케이션/웹 페이지를 통해 상술한 다양한 실시 예에 따른 콘텐츠 인덱싱 방법의 적어도 일부를 수행할 수 있다.When the
사용자 입력부(140)는 사용자 명령 또는 사용자 정보 등을 입력 받기 위한 구성이다.The
전자 장치(100)가 스마트폰, 노트북 PC 등 사용자 단말로 구현된 경우, 사용자 입력부(140)는 터치 센서, 버튼, 카메라, 마이크, 키보드 등으로 구현될 수 있다. 전자 장치(100)가 데스크탑 PC인 경우, 사용자 입력부(140)는 키보드 또는 마우스 등 다양한 입력 인터페이스와 연결된 단자로 구현될 수 있다.When the
출력부(150)는 다양한 정보를 출력하여 사용자에게 제공하기 위한 구성이다.The
전자 장치(100)가 스마트폰 등의 사용자 단말로 구현된 경우, 출력부(150)는 디스플레이, 스피커, 이어폰/헤드셋 단자 등을 포함할 수 있다.When the
한편, 전자 장치(100)가 서버로 구현된 경우, 전자 장치(100)가 자체적으로 사용자 입력부(140) 및 출력부(150)를 포함하기 보다는, 사용자 입력부 및 출력부를 포함하는 사용자 단말을 통해 사용자 명령/사용자 정보를 수신하고 다양한 정보를 출력할 수 있다.On the other hand, when the
한편, 이상에서 설명된 다양한 실시 예들은 서로 저촉되지 않는 한 복수의 실시 예가 결합되어 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented by combining a plurality of embodiments as long as they do not conflict with each other.
한편, 이상에서 설명된 다양한 실시 예들은 소프트웨어(software), 하드웨어(hardware) 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.Meanwhile, the various embodiments described above may be implemented in a recording medium readable by a computer or a similar device using software, hardware, or a combination thereof.
하드웨어적인 구현에 의하면, 본 개시에서 설명되는 실시 예들은 ASICs(Application Specific Integrated Circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛(unit) 중 적어도 하나를 이용하여 구현될 수 있다. According to the hardware implementation, the embodiments described in the present disclosure are ASICs (Application Specific Integrated Circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays) ), processors, controllers, micro-controllers, microprocessors, and other electrical units for performing other functions may be implemented using at least one.
일부의 경우에 본 명세서에서 설명되는 실시 예들이 프로세서 자체로 구현될 수 있다. 소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시 예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상술한 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다.In some cases, the embodiments described herein may be implemented by the processor itself. According to the software implementation, embodiments such as procedures and functions described in this specification may be implemented as separate software modules. Each of the above-described software modules may perform one or more functions and operations described herein.
한편, 상술한 본 개시의 다양한 실시 예들에 따른 시스템 내 각 장치에서의 처리동작을 수행하기 위한 컴퓨터 명령어(computer instructions) 또는 컴퓨터 프로그램은 비일시적 컴퓨터 판독 가능 매체(non-transitory computer-readable medium)에 저장될 수 있다. 이러한 비일시적 컴퓨터 판독 가능 매체에 저장된 컴퓨터 명령어 또는 컴퓨터 프로그램은 특정 기기의 프로세서에 의해 실행되었을 때 상술한 다양한 실시 예에 따른 전자장치에서의 처리 동작을 상술한 특정 기기가 수행하도록 한다.Meanwhile, computer instructions or a computer program for performing a processing operation in each device in the system according to various embodiments of the present disclosure described above are stored in a non-transitory computer-readable medium. can be saved. When the computer instructions or computer program stored in the non-transitory computer-readable medium are executed by the processor of the specific device, the specific device performs the processing operation in the electronic device according to the various embodiments described above.
비일시적 컴퓨터 판독 가능 매체란 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 비일시적 컴퓨터 판독 가능 매체의 구체적인 예로는, CD, DVD, 하드 디스크, 블루레이 디스크, USB, 메모리카드, ROM 등이 있을 수 있다.The non-transitory computer-readable medium refers to a medium that stores data semi-permanently, rather than a medium that stores data for a short moment, such as a register, a cache, a memory, and can be read by a device. Specific examples of the non-transitory computer-readable medium may include a CD, DVD, hard disk, Blu-ray disk, USB, memory card, ROM, and the like.
이상에서는 본 개시의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 개시는 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 개시의 요지를 벗어남이 없이 당해 개시에 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 개시의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present disclosure have been illustrated and described, but the present disclosure is not limited to the specific embodiments described above, and is generally used in the technical field belonging to the present disclosure without departing from the gist of the present disclosure as claimed in the claims. Various modifications may be made by those having the knowledge of
100: 전자 장치 110: 메모리
120: 프로세서100: electronic device 110: memory
120: processor
Claims (10)
비디오 콘텐츠에 포함된 오디오 데이터로부터 적어도 하나의 텍스트를 획득하는 단계;
상기 획득된 텍스트에 포함된 적어도 하나의 키워드를 기반으로, 상기 비디오 콘텐츠에 대한 색인어를 설정하는 단계; 및
상기 설정된 색인어에 대한 검색을 요청하는 사용자의 입력이 수신되면, 상기 비디오 콘텐츠를 제공하는 단계;를 포함하고,
상기 색인어를 설정하는 단계는,
상기 획득된 텍스트를 문장, 문단, 또는 단락을 기준으로 복수의 서브 텍스트로 구분하고,
상기 비디오 콘텐츠를 상기 복수의 서브 텍스트 각각에 매칭되는 복수의 시간 구간으로 구분하고,
상기 복수의 서브 텍스트 중 적어도 하나의 서브 텍스트에 대하여 색인어를 선택하고,
상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 서브 텍스트에 매칭되는 시간 구간에, 상기 선택된 색인어가 매칭되도록 설정하고,
상기 전자 장치의 콘텐츠 인덱싱 방법은,
상기 비디오 콘텐츠가 제공되는 동안 추가 설명을 요청하는 사용자 입력을 수신하는 단계;
상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 추가 설명을 요청하는 사용자 입력이 수신된 시점에 재생되고 있는 시간 구간을 식별하는 단계;
상기 식별된 시간 구간에 매칭되는 색인어를 기반으로 적어도 하나의 다른 비디오 콘텐츠를 검색하는 단계; 및
상기 검색된 다른 비디오 콘텐츠를 제공하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.A method for indexing content in an electronic device, the method comprising:
obtaining at least one text from audio data included in the video content;
setting an index word for the video content based on at least one keyword included in the obtained text; and
When a user input requesting a search for the set index word is received, providing the video content;
The step of setting the index word is,
dividing the obtained text into a plurality of sub-texts based on a sentence, paragraph, or paragraph;
dividing the video content into a plurality of time sections matching each of the plurality of subtexts;
selecting an index word for at least one subtext among the plurality of subtexts,
setting the selected index word to match in a time section matching the subtext among the plurality of time sections included in the video content;
The content indexing method of the electronic device includes:
receiving user input requesting further explanation while the video content is being presented;
identifying a time section being reproduced at a time point when the user input requesting the additional explanation is received from among the plurality of time sections included in the video content;
searching for at least one other video content based on an index word matching the identified time interval; and
The content indexing method of the electronic device further comprising; providing the other searched video content.
상기 텍스트를 획득하는 단계는,
상기 오디오 데이터에 포함된 음성을 변환하여 텍스트를 획득하는, 전자 장치의 콘텐츠 인덱싱 방법.According to claim 1,
Obtaining the text includes:
A content indexing method of an electronic device, wherein text is obtained by converting a voice included in the audio data.
상기 비디오 콘텐츠를 제공하는 단계는,
상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠를 제공받기 위한 사용자의 입력이 수신되면, 상기 비디오 콘텐츠에 포함되는 상기 복수의 시간 구간 중 상기 설정된 색인어에 매칭되는 시간 구간을 제공하는, 전자 장치의 콘텐츠 인덱싱 방법.According to claim 1,
Providing the video content comprises:
When a user input for receiving the video content searched according to the set index word is received, a time section matching the set index word among the plurality of time sections included in the video content is provided. .
상기 전자 장치의 콘텐츠 인덱싱 방법은,
상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 평가 정보를 요청하는 사용자의 입력이 수신되면, 상기 색인어에 매칭되는 상기 시간 구간에 대한 다른 사용자의 코멘트를 포함하는 게시판에 대한 열람 서비스를 제공하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.According to claim 1,
The content indexing method of the electronic device includes:
When an input from a user requesting evaluation information of the video content searched according to the set index word is received, providing a viewing service for a bulletin board including comments of other users for the time section matching the index word; Further comprising, a method for indexing content in an electronic device.
상기 전자 장치의 콘텐츠 인덱싱 방법은,
상기 설정된 색인어에 따라 검색된 상기 비디오 콘텐츠의 상기 시간 구간이 상기 사용자에게 제공되면, 상기 게시판 내에 상기 시간 구간에 대한 상기 사용자의 코멘트를 기록하기 위한 적어도 하나의 사용자 인터페이스를 제공하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.6. The method of claim 5,
The content indexing method of the electronic device includes:
When the time section of the video content searched for according to the set index word is provided to the user, providing at least one user interface for recording the user's comment for the time section in the bulletin board; further comprising , a method for indexing content in electronic devices.
상기 전자 장치의 콘텐츠 인덱싱 방법은,
사용자의 학습 목적 및 학습 수준을 식별하는 단계;
상기 사용자의 학습 목적 및 학습 수준에 매칭되는 적어도 하나의 색인어를 선택하는 단계; 및
상기 선택된 색인어에 따라 검색된 적어도 하나의 비디오 콘텐츠를 추천하는 단계;를 더 포함하는, 전자 장치의 콘텐츠 인덱싱 방법.According to claim 1,
The content indexing method of the electronic device includes:
identifying the learning purpose and learning level of the user;
selecting at least one index word matching the learning purpose and learning level of the user; and
The content indexing method of the electronic device further comprising; recommending at least one video content found according to the selected index word.
적어도 하나의 인스트럭션이 저장된 메모리; 및
상기 인스트럭션을 실행함으로써, 제1항의 콘텐츠 인덱싱 방법을 수행하는, 프로세서;를 포함하는, 전자 장치.In an electronic device,
a memory in which at least one instruction is stored; and
A processor that performs the content indexing method of claim 1 by executing the instruction.
전자 장치의 적어도 하나의 프로세서에 의해 실행되어, 상기 전자 장치로 하여금 제1항의 콘텐츠 인덱싱 방법을 수행하도록 하는, 컴퓨터 판독 가능 매체에 저장된 컴퓨터 프로그램.In the computer program stored in a computer-readable medium,
A computer program stored on a computer-readable medium, which is executed by at least one processor of an electronic device to cause the electronic device to perform the content indexing method of claim 1 .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210043877A KR102357313B1 (en) | 2021-04-05 | 2021-04-05 | Content indexing method of electronic apparatus for setting index word based on audio data included in video content |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210043877A KR102357313B1 (en) | 2021-04-05 | 2021-04-05 | Content indexing method of electronic apparatus for setting index word based on audio data included in video content |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102357313B1 true KR102357313B1 (en) | 2022-02-08 |
Family
ID=80252495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210043877A KR102357313B1 (en) | 2021-04-05 | 2021-04-05 | Content indexing method of electronic apparatus for setting index word based on audio data included in video content |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102357313B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117459798A (en) * | 2023-12-22 | 2024-01-26 | 厦门众联世纪股份有限公司 | Big data-based information display method, device, equipment and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060051047A (en) * | 2004-09-07 | 2006-05-19 | 소니 가부시끼 가이샤 | Video material management apparatus and method, recording medium as well as program |
KR20120126953A (en) * | 2011-05-13 | 2012-11-21 | 한국과학기술원 | A method for indexing video frames with slide titles through synchronization of video lectures with slide notes |
KR101587926B1 (en) | 2013-09-12 | 2016-01-25 | 엠랩 주식회사 | Comment tagging system for streaming video and providing method thereof |
KR20180106817A (en) * | 2017-03-20 | 2018-10-01 | 삼성전자주식회사 | Electronic device and controlling method thereof |
-
2021
- 2021-04-05 KR KR1020210043877A patent/KR102357313B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20060051047A (en) * | 2004-09-07 | 2006-05-19 | 소니 가부시끼 가이샤 | Video material management apparatus and method, recording medium as well as program |
KR20120126953A (en) * | 2011-05-13 | 2012-11-21 | 한국과학기술원 | A method for indexing video frames with slide titles through synchronization of video lectures with slide notes |
KR101587926B1 (en) | 2013-09-12 | 2016-01-25 | 엠랩 주식회사 | Comment tagging system for streaming video and providing method thereof |
KR20180106817A (en) * | 2017-03-20 | 2018-10-01 | 삼성전자주식회사 | Electronic device and controlling method thereof |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117459798A (en) * | 2023-12-22 | 2024-01-26 | 厦门众联世纪股份有限公司 | Big data-based information display method, device, equipment and storage medium |
CN117459798B (en) * | 2023-12-22 | 2024-03-08 | 厦门众联世纪股份有限公司 | Big data-based information display method, device, equipment and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7122341B2 (en) | Method and apparatus for evaluating translation quality | |
US11645314B2 (en) | Interactive information retrieval using knowledge graphs | |
US20200286396A1 (en) | Following teaching system having voice evaluation function | |
RU2637998C1 (en) | Method and system for creating brief summary of digital content | |
US8972265B1 (en) | Multiple voices in audio content | |
CN107463700B (en) | Method, device and equipment for acquiring information | |
US20200357382A1 (en) | Oral, facial and gesture communication devices and computing architecture for interacting with digital media content | |
CN109582825B (en) | Method and apparatus for generating information | |
US10909174B1 (en) | State detection of live feed | |
US10089898B2 (en) | Information processing device, control method therefor, and computer program | |
US11188199B2 (en) | System enabling audio-based navigation and presentation of a website | |
KR102357313B1 (en) | Content indexing method of electronic apparatus for setting index word based on audio data included in video content | |
KR20220128260A (en) | Electronic apparatus for designing learning process based on comparative evaluation between student and artificial inteligence model, and learning management method | |
WO2021102754A1 (en) | Data processing method and device and storage medium | |
Cassidy et al. | Case study: the AusTalk corpus | |
CN113761865A (en) | Sound and text realignment and information presentation method and device, electronic equipment and storage medium | |
WO2021120174A1 (en) | Data processing method, apparatus, electronic device, and storage medium | |
KR20220135901A (en) | Devices, methods and programs for providing customized educational content | |
CN113407779A (en) | Video detection method, video detection equipment and computer readable storage medium | |
CN112951274A (en) | Voice similarity determination method and device, and program product | |
KR20220022822A (en) | Method of teaching korean using voice recognition and tts function of terminal device | |
KR102656262B1 (en) | Method and apparatus for providing associative chinese learning contents using images | |
CN111833846B (en) | Method and device for starting dictation state according to intention, and storage medium | |
Tong | Speech to text with emoji | |
KR102528293B1 (en) | Integration System for supporting foreign language Teaching and Learning using Artificial Intelligence Technology and method thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
GRNT | Written decision to grant |