KR101336256B1 - Method and apparatus for tagging multimedia contents based upon voice - Google Patents

Method and apparatus for tagging multimedia contents based upon voice Download PDF

Info

Publication number
KR101336256B1
KR101336256B1 KR1020120011018A KR20120011018A KR101336256B1 KR 101336256 B1 KR101336256 B1 KR 101336256B1 KR 1020120011018 A KR1020120011018 A KR 1020120011018A KR 20120011018 A KR20120011018 A KR 20120011018A KR 101336256 B1 KR101336256 B1 KR 101336256B1
Authority
KR
South Korea
Prior art keywords
voice
content
input mode
electronic device
tagging
Prior art date
Application number
KR1020120011018A
Other languages
Korean (ko)
Other versions
KR20130090012A (en
Inventor
석영태
이동원
이호원
이수빈
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020120011018A priority Critical patent/KR101336256B1/en
Publication of KR20130090012A publication Critical patent/KR20130090012A/en
Application granted granted Critical
Publication of KR101336256B1 publication Critical patent/KR101336256B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services

Abstract

음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치가 제공된다.
본 발명에 따른 음성 기반 멀티미디어 컨텐츠 태깅 방법은 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계; 상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력되는 단계; 상기 태그 입력모드가 종료되는 단계; 및 상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하는 것을 특징으로 하며, 본 발명에 따르면, 음성에 기반하여 멀티미디어 컨텐츠를 태깅할 수 있다. 이 경우, 음성이 입력되는 시간이 태깅되는 컨텐츠의 시간 범위가 될 수 있으며, 음성 정보가 태깅된 멀티미디어 컨텐츠는 사용자의 입력 음성에 따라 효과적으로 검색될 수 있다. 더 나아가, 다수의 사용자가 사용하는 멀티미디어인 경우, 집단 지성 방식에 따라 다수 사용자가 멀티미디어를 통합 태깅할 수 있다. 더 나아가, 음성으로 기록된 태그는 즉시 또는 주기적으로 텍스트화되어, 타 사용자에게 검색에 유용한 정보로 활용될 수 있다.
Provided are a method and apparatus for tagging voice based multimedia content.
Voice-based multimedia content tagging method according to the present invention comprises the steps of activating the tag input mode during the content playback on the electronic device; Inputting a specific voice of the activated tag input mode to the electronic device; Terminating the tag input mode; And storing the inputted specific voice in the electronic device as tagging information for the content. According to the present invention, the multimedia content may be tagged based on the voice. In this case, the time at which the voice is input may be a time range of the tagged content, and the multimedia content tagged with the voice information may be effectively searched according to the input voice of the user. Furthermore, in the case of multimedia used by multiple users, multiple users may collectively tag the multimedia according to the collective intelligence method. Furthermore, the voice-recorded tag may be texted immediately or periodically, and may be used as information useful for search to other users.

Description

음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치{Method and apparatus for tagging multimedia contents based upon voice}Method and apparatus for tagging multimedia content based on voice {Method and apparatus for tagging multimedia contents based upon voice}

본 발명은 음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치에 관한 것으로, 보다 상세하게는 음성이 입력되는 시간이 태깅되는 컨텐츠의 시간 범위가 될 수 있으며, 음성 정보가 태깅된 멀티미디어 컨텐츠는 사용자의 입력 음성에 따라 효과적으로 검색될 수 있는 음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for tagging multimedia content based on voice, and more particularly, a time when a voice is input may be a time range of a tagged content, and multimedia content tagged with voice information is according to a user's input voice. The present invention relates to a method and apparatus for tagging voice-based multimedia content that can be searched effectively.

데이터 트래픽의 상당부분은 영상과 음향이 결합된 형태인 멀티미디어 방식의 컨텐츠로 이루어진다. 특히 스마트 폰과 같은 통신 기기에서도 이러한 멀티미디어 재생과 검색이 활발히 이루어지므로, 다양한 멀티미디어 중 사용자가 관심있어하는 데이터를 검색, 파악하는 것이 매우 중요해지고 있다. Much of the data traffic consists of multimedia content that combines video and sound. In particular, since such multimedia playback and search are actively performed in a communication device such as a smart phone, it is becoming very important to search and grasp data of interest to users of various multimedia.

이러한 멀티미디어 태깅 방법으로 전체 컨텐츠에 대한 사용자 입력에 기반하는 방식이 있다. 이 경우, 멀티미디어 자체를 구별할 수 있으나, 대용량, 장시간의 멀티미디어인 경우, 세부적인 데이터 검색이 어렵다는 문제가 있다. The multimedia tagging method is based on a user input for the entire content. In this case, the multimedia itself can be distinguished, but there is a problem that detailed data retrieval is difficult in the case of a large capacity and a long time multimedia.

이와 달리 멀티미디어 컨텐츠에 POI(Point Of Interest)를 태깅하는 기법이 제공되고 있다. 이 방식인 경우, 상기 컨텐츠에 POI를 태깅하는 기법은 컨텐츠에 특정 지역명, 혹은 지물명 등을 태깅하여 사용자가 상기 컨텐츠에 관련된 지역 혹은 지물을 쉽게 알 수 있도록 하는 기법이다. 하지만, 검색을 위하여 별도의 지역 혹은 사물의 이름을 사용자가 입력하여야 하는 번거로움이 있다. In contrast, a technique of tagging point of interest (POI) on multimedia content is provided. In this method, the POI tagging of the content is a technique of tagging the content with a specific region name or feature name so that the user can easily know the region or feature related to the content. However, there is a hassle that a user must input a separate region or name of an object for searching.

또한 최근 MPEG 7에서는 컨텐츠의 특정 시전부터의 기간에 대한 태깅이 가능해지나, 관리자가 이를 태깅하는 방법이 복잡하고, 별도의 입력수단(예를 들어, 키보드 등)이 필요하다는 문제가 있다.
In addition, in recent MPEG 7, tagging for a period from a specific cast of contents becomes possible, but there is a problem in that a method of tagging by the administrator is complicated, and a separate input means (eg, a keyboard, etc.) is required.

이에 따라, 본 발명이 해결하려는 과제는 보다 간단하고, 효과적인 방식을 멀티미디어 컨텐츠를 태깅할 수 있는 방법 및 장치를 제공하는 것이다.Accordingly, an object of the present invention is to provide a method and apparatus for tagging multimedia content in a simpler and more effective manner.

상기 과제를 해결하기 위하여, 본 발명은 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법으로, 상기 방법은 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계; 상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력되는 단계; 상기 태그 입력모드가 종료되는 단계; 및 상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅방법을 제공한다. In order to solve the above problems, the present invention provides a method for tagging multimedia content by an electronic device, the method comprising: activating a tag input mode during content playback on the electronic device; Inputting a specific voice of the activated tag input mode to the electronic device; Terminating the tag input mode; And storing the inputted specific voice in the electronic device as tagging information about the content.

본 발명은 또한 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법으로, 상기 방법은 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계; 상기 활성화된 태그 입력모드 중 텍스트가 상기 전자기기에 입력되는 단계; 상기 태그 입력모드가 종료되는 단계; 및 상기 입력된 텍스트가 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅방법을 제공한다. The present invention also provides a method for tagging multimedia content by an electronic device, the method comprising: activating a tag input mode during content playback on the electronic device; Inputting text into the electronic device in the activated tag input mode; Terminating the tag input mode; And storing the input text in the electronic device as tagging information for the content.

본 발명의 일 실시예에 따르면, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 후, 종료되기까지 재생된 컨텐츠이다. According to an embodiment of the present invention, the content in which the specific voice or content is stored as tagging information is content played until the tag input mode is activated and then terminates.

본 발명의 일 실시예에 따르면, 상기 태그 입력모드가 활성화된 후, 종료되기 전까지 상기 컨텐츠로부터 소리가 생성되지 않는다. According to an embodiment of the present invention, after the tag input mode is activated, no sound is generated from the contents until the tag input mode is terminated.

본 발명의 일 실시예에 따르면, 상기 방법은 상기 입력된 특정 음성이 텍스트화되는 단계를 더 포함한다. According to one embodiment of the invention, the method further comprises the step of texting the inputted specific voice.

본 발명의 일 실시에에 따르면, 상기 방법은 상기 입력된 텍스트가 음성화되는 단계를 더 포함한다. According to one embodiment of the invention, the method further comprises the step of the voice inputted text.

본 발명의 일 실시예에 따르면, 상기 전자기기는 모바일 기기이다. According to one embodiment of the invention, the electronic device is a mobile device.

본 발명의 일 실시예에 따르면, 상기 태그 입력모드 활성화 단계는 상기 모바일 기기의 특정 입력수단이 입력되는 시간 동안 진행된다. According to an embodiment of the present invention, the tag input mode activating step is performed during a time when a specific input means of the mobile device is input.

상기 과제를 해결하기 위하여, 본 발명은 전자기기의 멀티미디어 컨텐츠 태깅장치로서, 상기 장치는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부; 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부; 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 상기 외부로부터의 특정 음성을 상기 전자기기에 입력시키는 텍스트 입력부; 및 상기 입력된 특정 음성을 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부를 포함한다. In order to solve the above problems, the present invention provides a multimedia content tagging device of the electronic device, the device includes a playback unit for playing the multimedia content on the electronic device; A tag input mode activator for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content playback by the playback unit; A text input unit configured to input a specific voice from the outside to the electronic device in a tag input mode activated by the tag input mode activation unit; And a storage unit which stores the input specific voice as tagging information of the content reproduced by the playback unit.

본 발명은 또한 입력장치를 구비한 전자기기의 멀티미디어 컨텐츠 태깅장치로서, 상기 장치는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부; 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부; 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 상기 입력장치로부터의 텍스트를 상기 전자기기에 입력시키는 음성입력부; 및 상기 입력된 텍스트를 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부를 포함한다. The present invention also provides a multimedia content tagging device for an electronic device having an input device, the device comprising: a playback unit for playing multimedia content on the electronic device; A tag input mode activator for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content playback by the playback unit; A voice input unit for inputting text from the input device to the electronic device in a tag input mode activated by the tag input mode activation unit; And a storage unit which stores the input text as tagging information of the content played by the playback unit.

본 발명의 일 실시예에서, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 시간 동안의 컨텐츠이다. In one embodiment of the present invention, the content in which the specific voice or content is stored as tagging information is content during a time when the tag input mode is activated.

본 발명의 일 실시예에서, 상기 장치는 상기 입력된 특정음성을 텍스트화시키는 음성-텍스트 변환부를 더 포함한다. In one embodiment of the present invention, the device further comprises a voice-to-text converter for texting the input specific voice.

본 발명의 일 실시예에서, 상기 장치는 상기 입력된 텍스트를 음성화시키는 텍스트-음성 변환부를 더 포함한다. In one embodiment of the present invention, the apparatus further comprises a text-to-speech converter for voicening the input text.

본 발명의 일 실시예에서, 상기 장치는 상기 컨텐츠에 태깅된 음성 또는 텍스트 정보를 외부 서버로 전송하는 통신부를 더 포함한다. In one embodiment of the present invention, the apparatus further includes a communication unit for transmitting voice or text information tagged in the content to an external server.

본 발명의 일 실시예에서, 상기 통신부는 상기 전송된 음성 또는 텍스트 정보를 상기 컨텐츠에 대한 태그로 상기 외부 서버에 전송한다.
In one embodiment of the present invention, the communication unit transmits the transmitted voice or text information to the external server as a tag for the content.

본 발명에 따르면, 음성에 기반하여 멀티미디어 컨텐츠를 태깅할 수 있다. 이 경우, 음성이 입력되는 시간이 태깅되는 컨텐츠의 시간 범위가 될 수 있으며, 음성 정보가 태깅된 멀티미디어 컨텐츠는 사용자의 입력 음성에 따라 효과적으로 검색될 수 있다. 더 나아가, 다수의 사용자가 사용하는 멀티미디어인 경우, 집단 지성 방식에 따라 다수 사용자가 멀티미디어를 통합 태깅할 수 있다. 더 나아가, 음성으로 기록된 태그는 즉시 또는 주기적으로 텍스트화되어, 타 사용자에게 검색에 유용한 정보로 활용될 수 있다.According to the present invention, it is possible to tag multimedia content based on voice. In this case, the time at which the voice is input may be a time range of the tagged content, and the multimedia content tagged with the voice information may be effectively searched according to the input voice of the user. Furthermore, in the case of multimedia used by multiple users, multiple users may collectively tag the multimedia according to the collective intelligence method. Furthermore, the voice-recorded tag may be texted immediately or periodically, and may be used as information useful for search to other users.

도 1은 본 발명의 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 2는 본 발명의 또 다른 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 3은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 4는 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 5 내지 10은 본 발명에 따른 멀티미디어 태깅 방법의 실시예를 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅장치의 블록도이다.
도 12는 본 발명의 또 다른 일 실시예에 따른 멀티미디어 컨텐츠 태깅 장치(300)의 블록도이다.
도 13은 통신부에 따른 태깅 정보 공유 및 집단 지성 방식에 따라 다수 사용자가 멀티미디어를 통합 태깅할 수 있는 예를 설명하는 도면이다.
1 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to an embodiment of the present invention.
2 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to another embodiment of the present invention.
3 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.
4 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.
5 to 10 are diagrams showing an embodiment of a multimedia tagging method according to the present invention.
11 is a block diagram of an apparatus for tagging multimedia contents according to an embodiment of the present invention.
12 is a block diagram of a multimedia content tagging apparatus 300 according to another embodiment of the present invention.
FIG. 13 is a diagram for explaining an example in which multiple users can collectively tag multimedia according to tagging information sharing and collective intelligence according to a communication unit.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention can be implemented in various different forms, and is not limited to the embodiments described. In order to clearly describe the present invention, parts that are not related to the description are omitted, and the same reference numerals in the drawings denote the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as " including " an element, it does not exclude other elements unless specifically stated to the contrary. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software.

본 발명은 상술한 종래 기술의 문제를 해결하기 위하여, 음성 기반의 멀티미디어 컨텐츠 태깅 방법을 제공한다. 즉, 본 발명은 특정 컨텐츠를 식별시키기 위한 가상 표식인 태그를 음성으로 제공하며, 이로써 사용자 입력 수단(마우스. 터치패널 입력 등) 없이, 간단히 특정 음성이나 텍스트를 특정 컨텐츠에 기록, 매칭시킴으로써 멀티미디어 태깅이 가능하다. 따라서, 본 발명에 따른 컨텐츠 태깅 방법과 장치는 멀티미디어가 재생될 수 있는 컴퓨터 등과 같은 전자기기뿐만 아니라, 스마트 폰과 같은 모바일 기기와 같은 전자기기에서도 활용가능하다. 본 발명에 따른 컨텐츠는 그 종류나 형식에 제한이 없으며, 음성 또는 문자 형태로 태깅될 수 있는, 구부가능한 임의의 모든 형태가 본 발명에 따른 컨텐츠에 속한다.The present invention provides a voice-based multimedia content tagging method in order to solve the above problems of the prior art. That is, the present invention provides a tag, which is a virtual mark for identifying specific content, by voice, thereby enabling multimedia tagging by simply recording and matching a specific voice or text to specific content without a user input means (mouse, touch panel input, etc.). This is possible. Therefore, the content tagging method and apparatus according to the present invention can be utilized not only in electronic devices such as computers that can play multimedia, but also in electronic devices such as mobile devices such as smart phones. The content according to the present invention is not limited in kind or form, and any bendable form, which can be tagged in a voice or text form, belongs to the content according to the present invention.

이하, 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법을 도면으로 통하여 설명한다.Hereinafter, a method of tagging multimedia content according to an embodiment of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다.1 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to an embodiment of the present invention.

도 1을 참조하면, 멀티미디어가 재생되는 전자 기기에서의 상기 컨텐츠 재생 중 태그 입력모드가 활성화된다(S110). 음성 기반인 경우, 상기 orm 입력모드는 전자기기 외부로부터의 음성을 인식하고, 이를 저장할 수 있는 전자기기의 작동모드를 말하며, 이러한 태그 입력모드는 전자기기에 구비된 입력부로부터의 입력신호에 따라 활성화된다. 예를 들어, 전자기기가 휴대전화와 같은 모바일 기기인 경우, 모바일 기기에 구비된 입력버튼의 누름에 따라 태그 입력모드가 활성화된다. 이와 달리 텍스트 기반인 경우, 상기 태그 입력모드는 멀티미디어 재생 중에도 불구하고, 사용자에 의한 텍스트 입력이 가능한 작동모드를 말한다. Referring to FIG. 1, a tag input mode is activated during content playback in an electronic device on which multimedia is played (S110). In the case of voice-based, the orm input mode refers to an operation mode of an electronic device capable of recognizing and storing voice from the outside of the electronic device, and the tag input mode is activated according to an input signal from an input unit provided in the electronic device. do. For example, when the electronic device is a mobile device such as a cellular phone, the tag input mode is activated by pressing an input button provided in the mobile device. On the other hand, in the case of text-based, the tag input mode refers to an operation mode in which text input by a user is possible even during multimedia playback.

이후, 상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력된다(S120). 상기 입력되는 특정 음성은 전자기기에 구비된 마이크 등과 같은 음향기기를 통하여 전자기기에 입력되며, 상기 입력된 특정음성 정보는 상기 태그 입력모드가 활성화된 시점부터의 컨텐츠의 태그(tag)가 된다. Thereafter, a specific voice of the activated tag input mode is input to the electronic device (S120). The input specific voice is input to the electronic device through an acoustic device such as a microphone provided in the electronic device, and the input specific voice information becomes a tag of content from the time when the tag input mode is activated.

이후, 상기 태그 입력모드가 종료된다(S130). 상기 태그 입력모드의 종료 또한 사용자에 의한 입력선택 신호에 따라 결정되며, 상기 태그 입력모드의 활성화와 종료는 상기 전자기기에 구비된 특정 입력버튼에 의한 사용자 입력 지속 시간에 따라 결정될 수 있다. Thereafter, the tag input mode is terminated (S130). Termination of the tag input mode may also be determined according to an input selection signal by a user, and activation and termination of the tag input mode may be determined according to a user input duration by a specific input button provided in the electronic device.

이후, 상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장된다(S140). 즉, 본 발명은 음성이 입력될 수 있는 태그 입력모드의 지속시간을 통하여 태깅대상이 되는 컨텐츠의 범위를 결정하고, 상기 모드 중 입력된 음성 정보를 태깅 정보로 활용하는 방식의 멀티미디어 컨텐츠 태깅방법을 제공한다. Thereafter, the input specific voice is stored in the electronic device as tagging information for the content (S140). That is, the present invention determines a range of content to be tagged based on the duration of a tag input mode in which voice can be input, and utilizes the multimedia content tagging method using the voice information input as the tagging information. to provide.

본 발명의 또 다른 일 실시예는 음성정보로 변환될 수 있는 텍스트를 통하여 멀티미디어 컨텐츠 태깅방법을 제공한다. 본 명세서에서는 입력되는 태그는 문자와 같은 텍스트 형태이나, 음성으로 변환되어, 음성으로 컨텐츠 검색이 가능하므로, 이는 일종의 음성 태깅 정보에 해당된다. Another embodiment of the present invention provides a method for tagging multimedia content through text that can be converted into voice information. In the present specification, the input tag is in the form of a text such as a text, or is converted into a voice, so that the content can be searched by a voice, which corresponds to a kind of voice tagging information.

도 2는 본 발명의 또 다른 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다. 2 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to another embodiment of the present invention.

도 2를 참조하면, 먼저, 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화된다(S210). 하지만, 주변의 과도한 소음이나 불가피한 상황에서 음성 입력이 어려운 경우, 상기 활성화된 태그 입력모드 중 텍스트가 상기 전자기기에 입력된다(S220). 이후, 사용자에 의한 선택에 따라 상기 태그 입력모드가 종료된다(S230). 상기 태그 입력모드의 활성화와 종료 사이의 컨텐츠가 상기 입력된 텍스트가 태그 정보로 매칭되는 컨텐츠로 결정된다. 따라서, 상기 방법에 따르면, 상기 입력된 텍스트가 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장된다(S240). Referring to FIG. 2, first, a tag input mode is activated during content reproduction in the electronic device (S210). However, when voice input is difficult in an excessive noise or an unavoidable situation, text is input to the electronic device in the activated tag input mode (S220). Thereafter, the tag input mode is terminated according to the selection by the user (S230). The content between activation and termination of the tag input mode is determined as content in which the input text matches tag information. Therefore, according to the method, the input text is stored in the electronic device as tagging information for the content (S240).

이상 살핀 바와 같이, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 후, 종료되기까지 재생된 상기 컨텐츠가 된다. 따라서, 사용자는 전자기기에서의 멀티미디어 컨텐츠 재생 중에 간단히 태그 입력모드를 활성화시키거나, 종료시킴으로써 태깅하고자 하는 컨텐츠를 효과적으로 결정할 수 있다. As described above, the content in which the specific voice or content is stored as tagging information becomes the content reproduced until the tag input mode is activated and then terminates. Accordingly, the user can effectively determine the content to be tagged by simply activating or terminating the tag input mode while playing the multimedia content on the electronic device.

본 발명의 일 실시예에서 상기 전자기기에서 재생되는 멀티미디어 컨텐츠는 실시간으로 영상이 계속되는 형태로서, 동영상 또는 슬라이드일 수 있다. In an embodiment of the present invention, the multimedia content played by the electronic device is a form in which an image continues in real time and may be a video or a slide.

본 발명의 또 다른 일 실시예에서는 태그 입력모드로서 음성모드가 활성화된 후, 종료되기 전까지 상기 컨텐츠로부터 소리가 생성되지 않는다. 이로써 태깅정보로 활용되는 외부로부터의 특정 음성이 보다 효과적으로 전자기기에 기록, 입력될 수 있다. According to another embodiment of the present invention, after the voice mode is activated as the tag input mode, no sound is generated from the contents until the voice mode is terminated. As a result, a specific voice from the outside used as tagging information can be more effectively recorded and input to the electronic device.

도 3은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.3 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.

도 3을 참조하면, 도 1과 동일하게 음성정보가 태깅정보로 입력되며, 태그 입력모드의 활성화 종료에 따라 상기 음성정보가 태깅되는 컨텐츠 범위가 결정된다. 더 나아가, 도 3에서는 상기 입력된 특정 음성이 텍스트화되는 단계를 더 포함한다(S150). 이로써, 사용자는 문자 형태로도 태그에 따라 특정 컨텐츠를 효과적으로 검색할 수 있다.Referring to FIG. 3, as in FIG. 1, voice information is input as tagging information, and a content range in which the voice information is tagged is determined according to the activation of a tag input mode. Furthermore, in FIG. 3, the inputted specific voice is further textified (S150). As a result, the user can effectively search for specific content according to the tag even in the form of text.

도 4는 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.4 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.

도 4를 참조하면, 도 2와 동일하게 텍스트가 태깅정보로 입력되며, 태그 입력모드의 활성화-종료에 따라 상기 텍스트가 태깅되는 컨텐츠 범위가 결정된다. 더 나아가, 도 4에서는 상기 입력된 텍스타가 음성으로 변환되는 단계를 더 포함한다(S250). 이로써, 사용자는 음성으로 태깅된 특정 컨텐츠를 효과적으로 검색할 수 있다.Referring to FIG. 4, as in FIG. 2, text is input as tagging information, and a content range in which the text is tagged is determined according to activation-end of a tag input mode. Furthermore, the method further includes converting the input text into voice in FIG. 4 (S250). In this way, the user can effectively search for the specific content tagged with voice.

도 5 내지 10은 본 발명에 따른 멀티미디어 태깅 방법의 실시예를 나타내는 도면이다.5 to 10 are diagrams showing an embodiment of a multimedia tagging method according to the present invention.

도 5를 참조하면, 모바일 기기(100)와 같은 전자기기에 온라인 강의와 같은 멀티미디어 컨텐츠가 재생된다. Referring to FIG. 5, multimedia content such as an online lecture is played on an electronic device such as the mobile device 100.

도 6을 참조하면, 상기 멀티디디어 컨텐츠 재생 중 사용자는 특정 입력수단(110)을 통하여 태그 입력모드를 활성화시킨다. 상기 음성모드가 활성화된 컨텐츠 재생시간은 t1 에 해당한다. 상기 태그 입력모드 활성화를 위한 입력은 특정 버튼을 길게 누르는 방식일 수 있으며, 상기 특정 버튼(110)을 누르는 시간 동안 태그 입력모드가 활성화될 수 있으며, 특정 버튼(110)을 릴리스함으로써 태그 입력모드가 종료될 수 있다. 하지만, 본 발명의 범위는 이에 제한되지 않으며, 다양한 사용자 조작에 따라 태그 입력모드가 활성화 또는 종료될 수 있다. Referring to FIG. 6, the user activates a tag input mode through a specific input means 110 during the playback of the multimedia content. The content playback time in which the voice mode is activated corresponds to t1. The input for activating the tag input mode may be a method of long pressing a specific button, the tag input mode may be activated during the time when the specific button 110 is pressed, and the tag input mode is released by releasing the specific button 110. May be terminated. However, the scope of the present invention is not limited thereto, and the tag input mode may be activated or terminated according to various user operations.

도 7을 참조하면, 사용자는 상기 컨텐츠에 부합하는 음성을 상기 전자기기에 입력한다. 도 7의 예에서는 "핵심개념 설명"이라는 음성을 상기 전자기기에 기록, 입력한다. 하지만, 상술한 바와 같이 음성입력이 어려운 경우, 텍스트를 통하여 태깅정보를 먼저 입력하고, 이후 상기 텍스트를 음성형태로 변환시킬 수 있다.Referring to FIG. 7, a user inputs a voice corresponding to the content to the electronic device. In the example of Fig. 7, the voice " description of core concepts " is recorded and input to the electronic device. However, as described above, when voice input is difficult, tagging information may be input first through text, and then the text may be converted into voice.

도 8을 참조하면, 재생시간 t2에서 태그 입력모드를 종료한다. 도 8에서는 특정 입력수단(110)의 입력을 해제함으로써 도 6에서부터 진행되던 태그 입력모드를 종료한다. Referring to FIG. 8, the tag input mode is terminated at the reproduction time t2. In FIG. 8, the tag input mode, which proceeded from FIG. 6, is terminated by releasing the input of the specific input unit 110.

도 9에서는 입력된 음성정보인 "핵심개념 설명"이 이에 매칭되는 컨텐츠의 시간 범위를 타임 라인에 따라 나타낸 도면이다. 도 9를 참조하면, t1-t2의 컨텐츠에 "핵심개념 설명"이라는 음성정보가 태깅된 것을 알 수 있으며, 상기 태깅된 음성정보는 상기 전자기기를 통하여 외부 서버로 전송될 수 있다.9 is a diagram illustrating a time range of content corresponding to the "core concept description", which is input voice information, along a timeline. Referring to FIG. 9, it can be seen that voice information "core concept description" is tagged in the contents of t1-t2, and the tagged voice information can be transmitted to an external server through the electronic device.

도 10에서는 "핵심개념 설명"과 "알고리즘 예제"라는 두 개의 태그가 각각 t1-t2, t3-t4시간의 컨텐츠에 태깅되었음을 알 수 있다. 따라서, 멀티미디어 재생중에도 사용자는 간단히 태그 입력모드를 활성화시키고, 특정 음성 또는 텍스트를 입력함으로써 간단히 멀티미디어 컨텐츠 태깅을 수행할 수 있다. In FIG. 10, it can be seen that two tags, "description of core concept" and "algorithm example", are tagged to contents of t1-t2 and t3-t4 time, respectively. Therefore, even during multimedia playback, the user can simply perform tagging of the multimedia content by simply activating the tag input mode and inputting a specific voice or text.

본 발명은 또한 상술한 멀티미디어 컨텐츠 태깅방법이 수행될 수 있는 멀티미디터 컨텐츠 태깅장치를 제공한다. The present invention also provides a multi-media content tagging apparatus capable of performing the above-described multimedia content tagging method.

도 11은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅장치의 블록도이다. 11 is a block diagram of an apparatus for tagging multimedia contents according to an embodiment of the present invention.

도 11을 참조하면, 상기 장치(200)는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부(210); 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부(220); 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 외부로부터 특정음성을 전자기기에 입력시키는 음성입력부(230); 및 상기 입력된 특정음성을 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부(240)를 포함한다. Referring to FIG. 11, the apparatus 200 includes a playback unit 210 for playing multimedia content on the electronic device; A tag input mode activator 220 for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content reproduction by the playback unit; A voice input unit 230 for inputting a specific voice to an electronic device from the outside in a tag input mode activated by the tag input mode activator; And a storage unit 240 for storing the inputted specific voice as tagging information of the content reproduced by the playback unit.

본 발명의 또 다른 일 실시예에 따른 태깅장치는 텍스트 기반으로, 이는 도 12에 도시된다. The tagging device according to another embodiment of the present invention is text based, which is shown in FIG. 12.

도 12는 본 발명의 또 다른 일 실시예에 따른 멀티미디어 컨텐츠 태깅 장치(300)의 블록도이다.12 is a block diagram of a multimedia content tagging apparatus 300 according to another embodiment of the present invention.

도 12를 참조하면, 상기 장치(300)는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부(310); 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 텍스트가 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부(320); 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 텍스트를 상기 전자기기에 입력시키는 텍스트 입력부(330); 및 상기 입력된 텍스트를 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부(340)를 포함한다. Referring to FIG. 12, the apparatus 300 includes a playback unit 310 for playing multimedia content on the electronic device; A tag input mode activator 320 for activating a tag input mode which is a mode in which text can be input to the electronic device during reproduction of multimedia contents by the playback unit; A text input unit 330 for inputting text to the electronic device in a tag input mode activated by the tag input mode activator; And a storage unit 340 for storing the input text as tagging information of the content played by the playback unit.

도 11과 도 12에서 상기 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장되는 컨텐츠는 상기 태그 입력모드가 활성화된 시간 동안의 컨텐츠이다. 더 나아가, 도 11 및 12에 따른 장치는 음성 기반인 경우 텍스트 변환부, 텍스트 기반인 경우 음성 변환부(미도시)를 더 포함할 수 있으며, 이로써 음성-문자의 변환을 통한 효과적인 컨텐츠 검색이 가능하다. 또한 상기 음성-문자 변환은 사용자 선택에 의하여 수행될 수 있으나, 이와 달리 자동 방식으로 즉각 또는 주기적으로 수행될 수 있다. In FIG. 11 and FIG. 12, content in which the specific voice or content is stored as tagging information is content during a time when the tag input mode is activated. Furthermore, the apparatus according to FIGS. 11 and 12 may further include a text converter in the case of voice-based, and a voice converter (not shown) in the case of text-based, thereby enabling effective content retrieval through voice-to-text conversion. Do. In addition, the speech-to-text conversion may be performed by user selection, but alternatively, may be performed immediately or periodically in an automatic manner.

본 발명의 또 다른 일 실시예에 따른 컨텐츠 태깅 장치는 상기 컨텐츠에 태깅된 음성 또는 텍스트 정보를 외부 서버로 전송하는 통신부를 더 포함할 수 있으며, 이를 통하여 타 사용자와의 협력 방식으로의 멀티미디어 컨텐츠 태깅을 수행한다.Content tagging apparatus according to another embodiment of the present invention may further include a communication unit for transmitting the voice or text information tagged in the content to an external server, through which the multimedia content tagging in a cooperative manner with other users Do this.

도 13은 본 발명에 따른 태깅 장치에 구비된 통신부를 이용한, 다수 사용자의 태깅 정보 공유 및 집단 지성 방식으로의 컨텐츠 통합 태깅 방식을 설명하는 도면이다.FIG. 13 is a diagram illustrating a content integration tagging method using a communication unit included in a tagging device according to the present invention in a manner of sharing tagging information and collective intelligence of multiple users.

도 13을 참조하면, 온라인 서버((410)을 통하여 다수의 사용자(420, 430, 440)에게 동일한 멀티미디어 컨텐츠가 제공된다. 재생 중 다수의 사용자가 비슷한 재생시간의 컨텐츠에 음성 또는 텍스트 방식으로 태깅을 진행하면, 상기 태깅된 정보는 상기 서버(410)로 전송된다. 이후, 상기 서버는 입력된 컨텐츠 시간과 태그 정보를 분석하여, 가장 다수의 사용자가 입력한 태그 정보를 상기 시간 범위의 컨텐츠 태그로 저장하고, 이를 타 사용자에게 표시한다. 이로써, 처음으로 동일 컨텐츠를 접하는 사용자도 미리 다수의 사용자가 입력한 신뢰성 높은 태그 정보를 이용할 수 있다. 본 발명은 또한 상기 멀티미디어 컨텐츠 태깅장치를 포함하는 전자기기로서, 휴대전화와 같은 모바일 기기를 제공한다. 13, the same multimedia content is provided to a plurality of users 420, 430, and 440 through an online server 410. During playback, a plurality of users tag a content of a similar playing time by voice or text. Then, the tagged information is transmitted to the server 410. Thereafter, the server analyzes the input content time and tag information, and the tag information input by the plurality of users is input to the content tag of the time range. In this way, the first user who encounters the same content can use reliable tag information input by a plurality of users in advance. As a device, a mobile device such as a cellular phone is provided.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art. Modifications are possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all of the equivalent or equivalent variations will fall within the scope of the present invention.

또한, 본 발명에 따른 멀티미디어 컨텐츠 태깅 방법 및 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치, 하드 디스크, 플래시 드라이브 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the method and apparatus for tagging multimedia contents according to the present invention may be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include a ROM, a RAM, a CD ROM, a magnetic tape, a floppy disk, an optical data storage device, a hard disk, a flash drive, and the like, and may be implemented in the form of a carrier wave . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

Claims (15)

전자기기에 의한 멀티미디어 컨텐츠 태깅 방법으로, 상기 방법은
상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계;
상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력되는 단계;
상기 태그 입력모드가 종료되는 단계; 및
상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하며, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 후, 종료되기까지 재생된 컨텐츠이며, 상기 태그 입력모드가 활성화된 후, 종료되기 전까지 상기 컨텐츠로부터 소리만 재생되지 않는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅방법.
A method for tagging multimedia content by an electronic device, the method
Activating a tag input mode during content playback on the electronic device;
Inputting a specific voice of the activated tag input mode to the electronic device;
Terminating the tag input mode; And
And storing the inputted specific voice as tagging information for the content in the electronic device, wherein the content in which the specific voice or content is stored as tagging information is played until the tag input mode is activated and then ends. And the tag input mode is activated, and only the sound is not played from the contents until the tag input mode is terminated.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 삭제delete 전자기기의 멀티미디어 컨텐츠 태깅장치로서, 상기 장치는
멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부;
상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부;
상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 외부로부터의 특정 음성을 상기 전자기기에 입력시키는 음성입력부; 및
상기 입력된 특정 음성을 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부를 포함하며, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 시간 동안의 컨텐츠이며, 상기 재생부는 태그 입력모드가 활성화된 시간 동안 상기 컨텐츠로부터 소리만 재생하지 않는 것을 특징으로 하는 전자기기의 멀티미디어 컨텐츠 태깅장치.
An apparatus for tagging multimedia contents of an electronic device, the apparatus comprising:
A playback unit for playing multimedia contents on the electronic device;
A tag input mode activator for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content playback by the playback unit;
A voice input unit configured to input a specific voice from the outside to the electronic device in a tag input mode activated by the tag input mode activation unit; And
And a storage unit storing the inputted specific voice as tagging information of the content played by the playback unit, wherein the content in which the specific voice or the content is stored as tagging information is content during a time when the tag input mode is activated. And the reproducing unit does not reproduce only sound from the contents during a time when a tag input mode is activated.
제 9항에 있어서, 상기 장치는,
상기 입력된 특정 음성을 텍스트화시키는 음성-텍스트 변환부를 더 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅장치.
The method of claim 9, wherein the device,
And a voice-to-text converter configured to textify the inputted specific voice.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020120011018A 2012-02-03 2012-02-03 Method and apparatus for tagging multimedia contents based upon voice KR101336256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120011018A KR101336256B1 (en) 2012-02-03 2012-02-03 Method and apparatus for tagging multimedia contents based upon voice

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120011018A KR101336256B1 (en) 2012-02-03 2012-02-03 Method and apparatus for tagging multimedia contents based upon voice

Publications (2)

Publication Number Publication Date
KR20130090012A KR20130090012A (en) 2013-08-13
KR101336256B1 true KR101336256B1 (en) 2013-12-06

Family

ID=49215750

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120011018A KR101336256B1 (en) 2012-02-03 2012-02-03 Method and apparatus for tagging multimedia contents based upon voice

Country Status (1)

Country Link
KR (1) KR101336256B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101713626B1 (en) 2015-01-29 2017-03-09 주식회사 마이티웍스 Tagging system and method for sound data
KR20220138512A (en) 2021-04-05 2022-10-13 이피엘코딩 주식회사 Image Recognition Method with Voice Tagging for Mobile Device

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025648A (en) * 2005-06-13 2007-02-01 Matsushita Electric Ind Co Ltd Content tag attachment support device and content tag attachment support method
KR20080092134A (en) * 2007-04-11 2008-10-15 엘지전자 주식회사 Mobile communication device and method for controlling thereof
KR20110001550A (en) * 2009-06-30 2011-01-06 엘지전자 주식회사 Mobile terminal and method for controlling the same

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007025648A (en) * 2005-06-13 2007-02-01 Matsushita Electric Ind Co Ltd Content tag attachment support device and content tag attachment support method
KR20080092134A (en) * 2007-04-11 2008-10-15 엘지전자 주식회사 Mobile communication device and method for controlling thereof
KR20110001550A (en) * 2009-06-30 2011-01-06 엘지전자 주식회사 Mobile terminal and method for controlling the same

Also Published As

Publication number Publication date
KR20130090012A (en) 2013-08-13

Similar Documents

Publication Publication Date Title
JP6999594B2 (en) Video playback method and equipment
JP2010078979A (en) Voice recording device, recorded voice retrieval method, and program
CN101438348B (en) Method for recovering content reproduction of spanning equipment
KR102545837B1 (en) Display arraratus, background music providing method thereof and background music providing system
US9972340B2 (en) Deep tagging background noises
CN106155470B (en) A kind of audio file generation method and device
US11089405B2 (en) Spatial audio signaling filtering
KR20100095633A (en) Method and apparatus for playing pictures
CN107146608B (en) Playing control method and device and intelligent equipment
CN109564576A (en) Video clip playlist in system for managing video generates
KR20150024188A (en) A method for modifiying text data corresponding to voice data and an electronic device therefor
KR20160106075A (en) Method and device for identifying a piece of music in an audio stream
CN106067310A (en) Recording data processing method and processing device
KR102172149B1 (en) Method for playing contents, method for providing dialogue section data and device for playing video contents
CN104349173A (en) Video repeating method and device
KR20200046734A (en) Apparatus and method for generating lecture content
JP2007164852A (en) Transfer device, method, and program
US20080005028A1 (en) Contents metadata registering method, registering system, and registering program
KR101336256B1 (en) Method and apparatus for tagging multimedia contents based upon voice
CN109889921A (en) A kind of audio-video creation, playback method and device having interactive function
KR20110053397A (en) Method for searching multimedia file by using search keyword and portable device thereof
US20090304367A1 (en) System and method for media player device
CN109637541B (en) Method and electronic equipment for converting words by voice
KR101356006B1 (en) Method and apparatus for tagging multimedia contents based upon voice enable of range setting
US20130204413A1 (en) Audio Hyperlinking

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161026

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee