KR101336256B1 - Method and apparatus for tagging multimedia contents based upon voice - Google Patents
Method and apparatus for tagging multimedia contents based upon voice Download PDFInfo
- Publication number
- KR101336256B1 KR101336256B1 KR1020120011018A KR20120011018A KR101336256B1 KR 101336256 B1 KR101336256 B1 KR 101336256B1 KR 1020120011018 A KR1020120011018 A KR 1020120011018A KR 20120011018 A KR20120011018 A KR 20120011018A KR 101336256 B1 KR101336256 B1 KR 101336256B1
- Authority
- KR
- South Korea
- Prior art keywords
- voice
- content
- input mode
- electronic device
- tagging
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
Abstract
음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치가 제공된다.
본 발명에 따른 음성 기반 멀티미디어 컨텐츠 태깅 방법은 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계; 상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력되는 단계; 상기 태그 입력모드가 종료되는 단계; 및 상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하는 것을 특징으로 하며, 본 발명에 따르면, 음성에 기반하여 멀티미디어 컨텐츠를 태깅할 수 있다. 이 경우, 음성이 입력되는 시간이 태깅되는 컨텐츠의 시간 범위가 될 수 있으며, 음성 정보가 태깅된 멀티미디어 컨텐츠는 사용자의 입력 음성에 따라 효과적으로 검색될 수 있다. 더 나아가, 다수의 사용자가 사용하는 멀티미디어인 경우, 집단 지성 방식에 따라 다수 사용자가 멀티미디어를 통합 태깅할 수 있다. 더 나아가, 음성으로 기록된 태그는 즉시 또는 주기적으로 텍스트화되어, 타 사용자에게 검색에 유용한 정보로 활용될 수 있다.Provided are a method and apparatus for tagging voice based multimedia content.
Voice-based multimedia content tagging method according to the present invention comprises the steps of activating the tag input mode during the content playback on the electronic device; Inputting a specific voice of the activated tag input mode to the electronic device; Terminating the tag input mode; And storing the inputted specific voice in the electronic device as tagging information for the content. According to the present invention, the multimedia content may be tagged based on the voice. In this case, the time at which the voice is input may be a time range of the tagged content, and the multimedia content tagged with the voice information may be effectively searched according to the input voice of the user. Furthermore, in the case of multimedia used by multiple users, multiple users may collectively tag the multimedia according to the collective intelligence method. Furthermore, the voice-recorded tag may be texted immediately or periodically, and may be used as information useful for search to other users.
Description
본 발명은 음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치에 관한 것으로, 보다 상세하게는 음성이 입력되는 시간이 태깅되는 컨텐츠의 시간 범위가 될 수 있으며, 음성 정보가 태깅된 멀티미디어 컨텐츠는 사용자의 입력 음성에 따라 효과적으로 검색될 수 있는 음성 기반 멀티미디어 컨텐츠 태깅 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for tagging multimedia content based on voice, and more particularly, a time when a voice is input may be a time range of a tagged content, and multimedia content tagged with voice information is according to a user's input voice. The present invention relates to a method and apparatus for tagging voice-based multimedia content that can be searched effectively.
데이터 트래픽의 상당부분은 영상과 음향이 결합된 형태인 멀티미디어 방식의 컨텐츠로 이루어진다. 특히 스마트 폰과 같은 통신 기기에서도 이러한 멀티미디어 재생과 검색이 활발히 이루어지므로, 다양한 멀티미디어 중 사용자가 관심있어하는 데이터를 검색, 파악하는 것이 매우 중요해지고 있다. Much of the data traffic consists of multimedia content that combines video and sound. In particular, since such multimedia playback and search are actively performed in a communication device such as a smart phone, it is becoming very important to search and grasp data of interest to users of various multimedia.
이러한 멀티미디어 태깅 방법으로 전체 컨텐츠에 대한 사용자 입력에 기반하는 방식이 있다. 이 경우, 멀티미디어 자체를 구별할 수 있으나, 대용량, 장시간의 멀티미디어인 경우, 세부적인 데이터 검색이 어렵다는 문제가 있다. The multimedia tagging method is based on a user input for the entire content. In this case, the multimedia itself can be distinguished, but there is a problem that detailed data retrieval is difficult in the case of a large capacity and a long time multimedia.
이와 달리 멀티미디어 컨텐츠에 POI(Point Of Interest)를 태깅하는 기법이 제공되고 있다. 이 방식인 경우, 상기 컨텐츠에 POI를 태깅하는 기법은 컨텐츠에 특정 지역명, 혹은 지물명 등을 태깅하여 사용자가 상기 컨텐츠에 관련된 지역 혹은 지물을 쉽게 알 수 있도록 하는 기법이다. 하지만, 검색을 위하여 별도의 지역 혹은 사물의 이름을 사용자가 입력하여야 하는 번거로움이 있다. In contrast, a technique of tagging point of interest (POI) on multimedia content is provided. In this method, the POI tagging of the content is a technique of tagging the content with a specific region name or feature name so that the user can easily know the region or feature related to the content. However, there is a hassle that a user must input a separate region or name of an object for searching.
또한 최근 MPEG 7에서는 컨텐츠의 특정 시전부터의 기간에 대한 태깅이 가능해지나, 관리자가 이를 태깅하는 방법이 복잡하고, 별도의 입력수단(예를 들어, 키보드 등)이 필요하다는 문제가 있다.
In addition, in recent MPEG 7, tagging for a period from a specific cast of contents becomes possible, but there is a problem in that a method of tagging by the administrator is complicated, and a separate input means (eg, a keyboard, etc.) is required.
이에 따라, 본 발명이 해결하려는 과제는 보다 간단하고, 효과적인 방식을 멀티미디어 컨텐츠를 태깅할 수 있는 방법 및 장치를 제공하는 것이다.Accordingly, an object of the present invention is to provide a method and apparatus for tagging multimedia content in a simpler and more effective manner.
상기 과제를 해결하기 위하여, 본 발명은 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법으로, 상기 방법은 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계; 상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력되는 단계; 상기 태그 입력모드가 종료되는 단계; 및 상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅방법을 제공한다. In order to solve the above problems, the present invention provides a method for tagging multimedia content by an electronic device, the method comprising: activating a tag input mode during content playback on the electronic device; Inputting a specific voice of the activated tag input mode to the electronic device; Terminating the tag input mode; And storing the inputted specific voice in the electronic device as tagging information about the content.
본 발명은 또한 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법으로, 상기 방법은 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계; 상기 활성화된 태그 입력모드 중 텍스트가 상기 전자기기에 입력되는 단계; 상기 태그 입력모드가 종료되는 단계; 및 상기 입력된 텍스트가 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅방법을 제공한다. The present invention also provides a method for tagging multimedia content by an electronic device, the method comprising: activating a tag input mode during content playback on the electronic device; Inputting text into the electronic device in the activated tag input mode; Terminating the tag input mode; And storing the input text in the electronic device as tagging information for the content.
본 발명의 일 실시예에 따르면, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 후, 종료되기까지 재생된 컨텐츠이다. According to an embodiment of the present invention, the content in which the specific voice or content is stored as tagging information is content played until the tag input mode is activated and then terminates.
본 발명의 일 실시예에 따르면, 상기 태그 입력모드가 활성화된 후, 종료되기 전까지 상기 컨텐츠로부터 소리가 생성되지 않는다. According to an embodiment of the present invention, after the tag input mode is activated, no sound is generated from the contents until the tag input mode is terminated.
본 발명의 일 실시예에 따르면, 상기 방법은 상기 입력된 특정 음성이 텍스트화되는 단계를 더 포함한다. According to one embodiment of the invention, the method further comprises the step of texting the inputted specific voice.
본 발명의 일 실시에에 따르면, 상기 방법은 상기 입력된 텍스트가 음성화되는 단계를 더 포함한다. According to one embodiment of the invention, the method further comprises the step of the voice inputted text.
본 발명의 일 실시예에 따르면, 상기 전자기기는 모바일 기기이다. According to one embodiment of the invention, the electronic device is a mobile device.
본 발명의 일 실시예에 따르면, 상기 태그 입력모드 활성화 단계는 상기 모바일 기기의 특정 입력수단이 입력되는 시간 동안 진행된다. According to an embodiment of the present invention, the tag input mode activating step is performed during a time when a specific input means of the mobile device is input.
상기 과제를 해결하기 위하여, 본 발명은 전자기기의 멀티미디어 컨텐츠 태깅장치로서, 상기 장치는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부; 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부; 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 상기 외부로부터의 특정 음성을 상기 전자기기에 입력시키는 텍스트 입력부; 및 상기 입력된 특정 음성을 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부를 포함한다. In order to solve the above problems, the present invention provides a multimedia content tagging device of the electronic device, the device includes a playback unit for playing the multimedia content on the electronic device; A tag input mode activator for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content playback by the playback unit; A text input unit configured to input a specific voice from the outside to the electronic device in a tag input mode activated by the tag input mode activation unit; And a storage unit which stores the input specific voice as tagging information of the content reproduced by the playback unit.
본 발명은 또한 입력장치를 구비한 전자기기의 멀티미디어 컨텐츠 태깅장치로서, 상기 장치는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부; 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부; 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 상기 입력장치로부터의 텍스트를 상기 전자기기에 입력시키는 음성입력부; 및 상기 입력된 텍스트를 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부를 포함한다. The present invention also provides a multimedia content tagging device for an electronic device having an input device, the device comprising: a playback unit for playing multimedia content on the electronic device; A tag input mode activator for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content playback by the playback unit; A voice input unit for inputting text from the input device to the electronic device in a tag input mode activated by the tag input mode activation unit; And a storage unit which stores the input text as tagging information of the content played by the playback unit.
본 발명의 일 실시예에서, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 시간 동안의 컨텐츠이다. In one embodiment of the present invention, the content in which the specific voice or content is stored as tagging information is content during a time when the tag input mode is activated.
본 발명의 일 실시예에서, 상기 장치는 상기 입력된 특정음성을 텍스트화시키는 음성-텍스트 변환부를 더 포함한다. In one embodiment of the present invention, the device further comprises a voice-to-text converter for texting the input specific voice.
본 발명의 일 실시예에서, 상기 장치는 상기 입력된 텍스트를 음성화시키는 텍스트-음성 변환부를 더 포함한다. In one embodiment of the present invention, the apparatus further comprises a text-to-speech converter for voicening the input text.
본 발명의 일 실시예에서, 상기 장치는 상기 컨텐츠에 태깅된 음성 또는 텍스트 정보를 외부 서버로 전송하는 통신부를 더 포함한다. In one embodiment of the present invention, the apparatus further includes a communication unit for transmitting voice or text information tagged in the content to an external server.
본 발명의 일 실시예에서, 상기 통신부는 상기 전송된 음성 또는 텍스트 정보를 상기 컨텐츠에 대한 태그로 상기 외부 서버에 전송한다.
In one embodiment of the present invention, the communication unit transmits the transmitted voice or text information to the external server as a tag for the content.
본 발명에 따르면, 음성에 기반하여 멀티미디어 컨텐츠를 태깅할 수 있다. 이 경우, 음성이 입력되는 시간이 태깅되는 컨텐츠의 시간 범위가 될 수 있으며, 음성 정보가 태깅된 멀티미디어 컨텐츠는 사용자의 입력 음성에 따라 효과적으로 검색될 수 있다. 더 나아가, 다수의 사용자가 사용하는 멀티미디어인 경우, 집단 지성 방식에 따라 다수 사용자가 멀티미디어를 통합 태깅할 수 있다. 더 나아가, 음성으로 기록된 태그는 즉시 또는 주기적으로 텍스트화되어, 타 사용자에게 검색에 유용한 정보로 활용될 수 있다.According to the present invention, it is possible to tag multimedia content based on voice. In this case, the time at which the voice is input may be a time range of the tagged content, and the multimedia content tagged with the voice information may be effectively searched according to the input voice of the user. Furthermore, in the case of multimedia used by multiple users, multiple users may collectively tag the multimedia according to the collective intelligence method. Furthermore, the voice-recorded tag may be texted immediately or periodically, and may be used as information useful for search to other users.
도 1은 본 발명의 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 2는 본 발명의 또 다른 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 3은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 4는 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.
도 5 내지 10은 본 발명에 따른 멀티미디어 태깅 방법의 실시예를 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅장치의 블록도이다.
도 12는 본 발명의 또 다른 일 실시예에 따른 멀티미디어 컨텐츠 태깅 장치(300)의 블록도이다.
도 13은 통신부에 따른 태깅 정보 공유 및 집단 지성 방식에 따라 다수 사용자가 멀티미디어를 통합 태깅할 수 있는 예를 설명하는 도면이다.1 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to an embodiment of the present invention.
2 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to another embodiment of the present invention.
3 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.
4 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.
5 to 10 are diagrams showing an embodiment of a multimedia tagging method according to the present invention.
11 is a block diagram of an apparatus for tagging multimedia contents according to an embodiment of the present invention.
12 is a block diagram of a multimedia
FIG. 13 is a diagram for explaining an example in which multiple users can collectively tag multimedia according to tagging information sharing and collective intelligence according to a communication unit.
본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, operational advantages of the present invention, and objects achieved by the practice of the present invention, reference should be made to the accompanying drawings and the accompanying drawings which illustrate preferred embodiments of the present invention.
이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, the present invention will be described in detail with reference to the preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention can be implemented in various different forms, and is not limited to the embodiments described. In order to clearly describe the present invention, parts that are not related to the description are omitted, and the same reference numerals in the drawings denote the same members.
명세서 전체에서, 어떤 부분이 어떤 구성요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 “...부”, “...기”, “모듈”, “블록” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.Throughout the specification, when an element is referred to as " including " an element, it does not exclude other elements unless specifically stated to the contrary. The terms "part", "unit", "module", "block", and the like described in the specification mean units for processing at least one function or operation, And a combination of software.
본 발명은 상술한 종래 기술의 문제를 해결하기 위하여, 음성 기반의 멀티미디어 컨텐츠 태깅 방법을 제공한다. 즉, 본 발명은 특정 컨텐츠를 식별시키기 위한 가상 표식인 태그를 음성으로 제공하며, 이로써 사용자 입력 수단(마우스. 터치패널 입력 등) 없이, 간단히 특정 음성이나 텍스트를 특정 컨텐츠에 기록, 매칭시킴으로써 멀티미디어 태깅이 가능하다. 따라서, 본 발명에 따른 컨텐츠 태깅 방법과 장치는 멀티미디어가 재생될 수 있는 컴퓨터 등과 같은 전자기기뿐만 아니라, 스마트 폰과 같은 모바일 기기와 같은 전자기기에서도 활용가능하다. 본 발명에 따른 컨텐츠는 그 종류나 형식에 제한이 없으며, 음성 또는 문자 형태로 태깅될 수 있는, 구부가능한 임의의 모든 형태가 본 발명에 따른 컨텐츠에 속한다.The present invention provides a voice-based multimedia content tagging method in order to solve the above problems of the prior art. That is, the present invention provides a tag, which is a virtual mark for identifying specific content, by voice, thereby enabling multimedia tagging by simply recording and matching a specific voice or text to specific content without a user input means (mouse, touch panel input, etc.). This is possible. Therefore, the content tagging method and apparatus according to the present invention can be utilized not only in electronic devices such as computers that can play multimedia, but also in electronic devices such as mobile devices such as smart phones. The content according to the present invention is not limited in kind or form, and any bendable form, which can be tagged in a voice or text form, belongs to the content according to the present invention.
이하, 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법을 도면으로 통하여 설명한다.Hereinafter, a method of tagging multimedia content according to an embodiment of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명의 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다.1 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to an embodiment of the present invention.
도 1을 참조하면, 멀티미디어가 재생되는 전자 기기에서의 상기 컨텐츠 재생 중 태그 입력모드가 활성화된다(S110). 음성 기반인 경우, 상기 orm 입력모드는 전자기기 외부로부터의 음성을 인식하고, 이를 저장할 수 있는 전자기기의 작동모드를 말하며, 이러한 태그 입력모드는 전자기기에 구비된 입력부로부터의 입력신호에 따라 활성화된다. 예를 들어, 전자기기가 휴대전화와 같은 모바일 기기인 경우, 모바일 기기에 구비된 입력버튼의 누름에 따라 태그 입력모드가 활성화된다. 이와 달리 텍스트 기반인 경우, 상기 태그 입력모드는 멀티미디어 재생 중에도 불구하고, 사용자에 의한 텍스트 입력이 가능한 작동모드를 말한다. Referring to FIG. 1, a tag input mode is activated during content playback in an electronic device on which multimedia is played (S110). In the case of voice-based, the orm input mode refers to an operation mode of an electronic device capable of recognizing and storing voice from the outside of the electronic device, and the tag input mode is activated according to an input signal from an input unit provided in the electronic device. do. For example, when the electronic device is a mobile device such as a cellular phone, the tag input mode is activated by pressing an input button provided in the mobile device. On the other hand, in the case of text-based, the tag input mode refers to an operation mode in which text input by a user is possible even during multimedia playback.
이후, 상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력된다(S120). 상기 입력되는 특정 음성은 전자기기에 구비된 마이크 등과 같은 음향기기를 통하여 전자기기에 입력되며, 상기 입력된 특정음성 정보는 상기 태그 입력모드가 활성화된 시점부터의 컨텐츠의 태그(tag)가 된다. Thereafter, a specific voice of the activated tag input mode is input to the electronic device (S120). The input specific voice is input to the electronic device through an acoustic device such as a microphone provided in the electronic device, and the input specific voice information becomes a tag of content from the time when the tag input mode is activated.
이후, 상기 태그 입력모드가 종료된다(S130). 상기 태그 입력모드의 종료 또한 사용자에 의한 입력선택 신호에 따라 결정되며, 상기 태그 입력모드의 활성화와 종료는 상기 전자기기에 구비된 특정 입력버튼에 의한 사용자 입력 지속 시간에 따라 결정될 수 있다. Thereafter, the tag input mode is terminated (S130). Termination of the tag input mode may also be determined according to an input selection signal by a user, and activation and termination of the tag input mode may be determined according to a user input duration by a specific input button provided in the electronic device.
이후, 상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장된다(S140). 즉, 본 발명은 음성이 입력될 수 있는 태그 입력모드의 지속시간을 통하여 태깅대상이 되는 컨텐츠의 범위를 결정하고, 상기 모드 중 입력된 음성 정보를 태깅 정보로 활용하는 방식의 멀티미디어 컨텐츠 태깅방법을 제공한다. Thereafter, the input specific voice is stored in the electronic device as tagging information for the content (S140). That is, the present invention determines a range of content to be tagged based on the duration of a tag input mode in which voice can be input, and utilizes the multimedia content tagging method using the voice information input as the tagging information. to provide.
본 발명의 또 다른 일 실시예는 음성정보로 변환될 수 있는 텍스트를 통하여 멀티미디어 컨텐츠 태깅방법을 제공한다. 본 명세서에서는 입력되는 태그는 문자와 같은 텍스트 형태이나, 음성으로 변환되어, 음성으로 컨텐츠 검색이 가능하므로, 이는 일종의 음성 태깅 정보에 해당된다. Another embodiment of the present invention provides a method for tagging multimedia content through text that can be converted into voice information. In the present specification, the input tag is in the form of a text such as a text, or is converted into a voice, so that the content can be searched by a voice, which corresponds to a kind of voice tagging information.
도 2는 본 발명의 또 다른 일 실시예에 따른 전자기기에 의한 멀티미디어 컨텐츠 태깅 방법의 단계도이다. 2 is a flowchart illustrating a method for tagging multimedia contents by an electronic device according to another embodiment of the present invention.
도 2를 참조하면, 먼저, 상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화된다(S210). 하지만, 주변의 과도한 소음이나 불가피한 상황에서 음성 입력이 어려운 경우, 상기 활성화된 태그 입력모드 중 텍스트가 상기 전자기기에 입력된다(S220). 이후, 사용자에 의한 선택에 따라 상기 태그 입력모드가 종료된다(S230). 상기 태그 입력모드의 활성화와 종료 사이의 컨텐츠가 상기 입력된 텍스트가 태그 정보로 매칭되는 컨텐츠로 결정된다. 따라서, 상기 방법에 따르면, 상기 입력된 텍스트가 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장된다(S240). Referring to FIG. 2, first, a tag input mode is activated during content reproduction in the electronic device (S210). However, when voice input is difficult in an excessive noise or an unavoidable situation, text is input to the electronic device in the activated tag input mode (S220). Thereafter, the tag input mode is terminated according to the selection by the user (S230). The content between activation and termination of the tag input mode is determined as content in which the input text matches tag information. Therefore, according to the method, the input text is stored in the electronic device as tagging information for the content (S240).
이상 살핀 바와 같이, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 후, 종료되기까지 재생된 상기 컨텐츠가 된다. 따라서, 사용자는 전자기기에서의 멀티미디어 컨텐츠 재생 중에 간단히 태그 입력모드를 활성화시키거나, 종료시킴으로써 태깅하고자 하는 컨텐츠를 효과적으로 결정할 수 있다. As described above, the content in which the specific voice or content is stored as tagging information becomes the content reproduced until the tag input mode is activated and then terminates. Accordingly, the user can effectively determine the content to be tagged by simply activating or terminating the tag input mode while playing the multimedia content on the electronic device.
본 발명의 일 실시예에서 상기 전자기기에서 재생되는 멀티미디어 컨텐츠는 실시간으로 영상이 계속되는 형태로서, 동영상 또는 슬라이드일 수 있다. In an embodiment of the present invention, the multimedia content played by the electronic device is a form in which an image continues in real time and may be a video or a slide.
본 발명의 또 다른 일 실시예에서는 태그 입력모드로서 음성모드가 활성화된 후, 종료되기 전까지 상기 컨텐츠로부터 소리가 생성되지 않는다. 이로써 태깅정보로 활용되는 외부로부터의 특정 음성이 보다 효과적으로 전자기기에 기록, 입력될 수 있다. According to another embodiment of the present invention, after the voice mode is activated as the tag input mode, no sound is generated from the contents until the voice mode is terminated. As a result, a specific voice from the outside used as tagging information can be more effectively recorded and input to the electronic device.
도 3은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.3 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.
도 3을 참조하면, 도 1과 동일하게 음성정보가 태깅정보로 입력되며, 태그 입력모드의 활성화 종료에 따라 상기 음성정보가 태깅되는 컨텐츠 범위가 결정된다. 더 나아가, 도 3에서는 상기 입력된 특정 음성이 텍스트화되는 단계를 더 포함한다(S150). 이로써, 사용자는 문자 형태로도 태그에 따라 특정 컨텐츠를 효과적으로 검색할 수 있다.Referring to FIG. 3, as in FIG. 1, voice information is input as tagging information, and a content range in which the voice information is tagged is determined according to the activation of a tag input mode. Furthermore, in FIG. 3, the inputted specific voice is further textified (S150). As a result, the user can effectively search for specific content according to the tag even in the form of text.
도 4는 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅 방법의 단계도이다.4 is a flowchart illustrating a method of tagging multimedia contents according to an embodiment of the present invention.
도 4를 참조하면, 도 2와 동일하게 텍스트가 태깅정보로 입력되며, 태그 입력모드의 활성화-종료에 따라 상기 텍스트가 태깅되는 컨텐츠 범위가 결정된다. 더 나아가, 도 4에서는 상기 입력된 텍스타가 음성으로 변환되는 단계를 더 포함한다(S250). 이로써, 사용자는 음성으로 태깅된 특정 컨텐츠를 효과적으로 검색할 수 있다.Referring to FIG. 4, as in FIG. 2, text is input as tagging information, and a content range in which the text is tagged is determined according to activation-end of a tag input mode. Furthermore, the method further includes converting the input text into voice in FIG. 4 (S250). In this way, the user can effectively search for the specific content tagged with voice.
도 5 내지 10은 본 발명에 따른 멀티미디어 태깅 방법의 실시예를 나타내는 도면이다.5 to 10 are diagrams showing an embodiment of a multimedia tagging method according to the present invention.
도 5를 참조하면, 모바일 기기(100)와 같은 전자기기에 온라인 강의와 같은 멀티미디어 컨텐츠가 재생된다. Referring to FIG. 5, multimedia content such as an online lecture is played on an electronic device such as the
도 6을 참조하면, 상기 멀티디디어 컨텐츠 재생 중 사용자는 특정 입력수단(110)을 통하여 태그 입력모드를 활성화시킨다. 상기 음성모드가 활성화된 컨텐츠 재생시간은 t1 에 해당한다. 상기 태그 입력모드 활성화를 위한 입력은 특정 버튼을 길게 누르는 방식일 수 있으며, 상기 특정 버튼(110)을 누르는 시간 동안 태그 입력모드가 활성화될 수 있으며, 특정 버튼(110)을 릴리스함으로써 태그 입력모드가 종료될 수 있다. 하지만, 본 발명의 범위는 이에 제한되지 않으며, 다양한 사용자 조작에 따라 태그 입력모드가 활성화 또는 종료될 수 있다. Referring to FIG. 6, the user activates a tag input mode through a specific input means 110 during the playback of the multimedia content. The content playback time in which the voice mode is activated corresponds to t1. The input for activating the tag input mode may be a method of long pressing a specific button, the tag input mode may be activated during the time when the
도 7을 참조하면, 사용자는 상기 컨텐츠에 부합하는 음성을 상기 전자기기에 입력한다. 도 7의 예에서는 "핵심개념 설명"이라는 음성을 상기 전자기기에 기록, 입력한다. 하지만, 상술한 바와 같이 음성입력이 어려운 경우, 텍스트를 통하여 태깅정보를 먼저 입력하고, 이후 상기 텍스트를 음성형태로 변환시킬 수 있다.Referring to FIG. 7, a user inputs a voice corresponding to the content to the electronic device. In the example of Fig. 7, the voice " description of core concepts " is recorded and input to the electronic device. However, as described above, when voice input is difficult, tagging information may be input first through text, and then the text may be converted into voice.
도 8을 참조하면, 재생시간 t2에서 태그 입력모드를 종료한다. 도 8에서는 특정 입력수단(110)의 입력을 해제함으로써 도 6에서부터 진행되던 태그 입력모드를 종료한다. Referring to FIG. 8, the tag input mode is terminated at the reproduction time t2. In FIG. 8, the tag input mode, which proceeded from FIG. 6, is terminated by releasing the input of the
도 9에서는 입력된 음성정보인 "핵심개념 설명"이 이에 매칭되는 컨텐츠의 시간 범위를 타임 라인에 따라 나타낸 도면이다. 도 9를 참조하면, t1-t2의 컨텐츠에 "핵심개념 설명"이라는 음성정보가 태깅된 것을 알 수 있으며, 상기 태깅된 음성정보는 상기 전자기기를 통하여 외부 서버로 전송될 수 있다.9 is a diagram illustrating a time range of content corresponding to the "core concept description", which is input voice information, along a timeline. Referring to FIG. 9, it can be seen that voice information "core concept description" is tagged in the contents of t1-t2, and the tagged voice information can be transmitted to an external server through the electronic device.
도 10에서는 "핵심개념 설명"과 "알고리즘 예제"라는 두 개의 태그가 각각 t1-t2, t3-t4시간의 컨텐츠에 태깅되었음을 알 수 있다. 따라서, 멀티미디어 재생중에도 사용자는 간단히 태그 입력모드를 활성화시키고, 특정 음성 또는 텍스트를 입력함으로써 간단히 멀티미디어 컨텐츠 태깅을 수행할 수 있다. In FIG. 10, it can be seen that two tags, "description of core concept" and "algorithm example", are tagged to contents of t1-t2 and t3-t4 time, respectively. Therefore, even during multimedia playback, the user can simply perform tagging of the multimedia content by simply activating the tag input mode and inputting a specific voice or text.
본 발명은 또한 상술한 멀티미디어 컨텐츠 태깅방법이 수행될 수 있는 멀티미디터 컨텐츠 태깅장치를 제공한다. The present invention also provides a multi-media content tagging apparatus capable of performing the above-described multimedia content tagging method.
도 11은 본 발명의 일 실시예에 따른 멀티미디어 컨텐츠 태깅장치의 블록도이다. 11 is a block diagram of an apparatus for tagging multimedia contents according to an embodiment of the present invention.
도 11을 참조하면, 상기 장치(200)는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부(210); 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부(220); 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 외부로부터 특정음성을 전자기기에 입력시키는 음성입력부(230); 및 상기 입력된 특정음성을 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부(240)를 포함한다. Referring to FIG. 11, the
본 발명의 또 다른 일 실시예에 따른 태깅장치는 텍스트 기반으로, 이는 도 12에 도시된다. The tagging device according to another embodiment of the present invention is text based, which is shown in FIG. 12.
도 12는 본 발명의 또 다른 일 실시예에 따른 멀티미디어 컨텐츠 태깅 장치(300)의 블록도이다.12 is a block diagram of a multimedia
도 12를 참조하면, 상기 장치(300)는 멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부(310); 상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 텍스트가 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부(320); 상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 텍스트를 상기 전자기기에 입력시키는 텍스트 입력부(330); 및 상기 입력된 텍스트를 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부(340)를 포함한다. Referring to FIG. 12, the
도 11과 도 12에서 상기 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장되는 컨텐츠는 상기 태그 입력모드가 활성화된 시간 동안의 컨텐츠이다. 더 나아가, 도 11 및 12에 따른 장치는 음성 기반인 경우 텍스트 변환부, 텍스트 기반인 경우 음성 변환부(미도시)를 더 포함할 수 있으며, 이로써 음성-문자의 변환을 통한 효과적인 컨텐츠 검색이 가능하다. 또한 상기 음성-문자 변환은 사용자 선택에 의하여 수행될 수 있으나, 이와 달리 자동 방식으로 즉각 또는 주기적으로 수행될 수 있다. In FIG. 11 and FIG. 12, content in which the specific voice or content is stored as tagging information is content during a time when the tag input mode is activated. Furthermore, the apparatus according to FIGS. 11 and 12 may further include a text converter in the case of voice-based, and a voice converter (not shown) in the case of text-based, thereby enabling effective content retrieval through voice-to-text conversion. Do. In addition, the speech-to-text conversion may be performed by user selection, but alternatively, may be performed immediately or periodically in an automatic manner.
본 발명의 또 다른 일 실시예에 따른 컨텐츠 태깅 장치는 상기 컨텐츠에 태깅된 음성 또는 텍스트 정보를 외부 서버로 전송하는 통신부를 더 포함할 수 있으며, 이를 통하여 타 사용자와의 협력 방식으로의 멀티미디어 컨텐츠 태깅을 수행한다.Content tagging apparatus according to another embodiment of the present invention may further include a communication unit for transmitting the voice or text information tagged in the content to an external server, through which the multimedia content tagging in a cooperative manner with other users Do this.
도 13은 본 발명에 따른 태깅 장치에 구비된 통신부를 이용한, 다수 사용자의 태깅 정보 공유 및 집단 지성 방식으로의 컨텐츠 통합 태깅 방식을 설명하는 도면이다.FIG. 13 is a diagram illustrating a content integration tagging method using a communication unit included in a tagging device according to the present invention in a manner of sharing tagging information and collective intelligence of multiple users.
도 13을 참조하면, 온라인 서버((410)을 통하여 다수의 사용자(420, 430, 440)에게 동일한 멀티미디어 컨텐츠가 제공된다. 재생 중 다수의 사용자가 비슷한 재생시간의 컨텐츠에 음성 또는 텍스트 방식으로 태깅을 진행하면, 상기 태깅된 정보는 상기 서버(410)로 전송된다. 이후, 상기 서버는 입력된 컨텐츠 시간과 태그 정보를 분석하여, 가장 다수의 사용자가 입력한 태그 정보를 상기 시간 범위의 컨텐츠 태그로 저장하고, 이를 타 사용자에게 표시한다. 이로써, 처음으로 동일 컨텐츠를 접하는 사용자도 미리 다수의 사용자가 입력한 신뢰성 높은 태그 정보를 이용할 수 있다. 본 발명은 또한 상기 멀티미디어 컨텐츠 태깅장치를 포함하는 전자기기로서, 휴대전화와 같은 모바일 기기를 제공한다. 13, the same multimedia content is provided to a plurality of
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명이 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명의 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이와 균등하거나 또는 등가적인 변형 모두는 본 발명 사상의 범주에 속한다 할 것이다. As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited to the above-described embodiments, which can be variously modified and modified by those skilled in the art. Modifications are possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all of the equivalent or equivalent variations will fall within the scope of the present invention.
또한, 본 발명에 따른 멀티미디어 컨텐츠 태깅 방법 및 장치는 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 기록매체의 예로는 ROM, RAM, CD ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치, 하드 디스크, 플래시 드라이브 등이 있으며, 또한 캐리어 웨이브(예를 들어 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.In addition, the method and apparatus for tagging multimedia contents according to the present invention may be embodied as computer readable codes on a computer readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the recording medium include a ROM, a RAM, a CD ROM, a magnetic tape, a floppy disk, an optical data storage device, a hard disk, a flash drive, and the like, and may be implemented in the form of a carrier wave . The computer readable recording medium can also be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.
Claims (15)
상기 전자 기기에서의 컨텐츠 재생 중 태그 입력모드가 활성화되는 단계;
상기 활성화된 태그 입력모드 중 특정 음성이 상기 전자기기에 입력되는 단계;
상기 태그 입력모드가 종료되는 단계; 및
상기 입력된 특정 음성이 상기 컨텐츠에 대한 태깅 정보로 상기 전자 기기에 저장되는 단계를 포함하며, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 후, 종료되기까지 재생된 컨텐츠이며, 상기 태그 입력모드가 활성화된 후, 종료되기 전까지 상기 컨텐츠로부터 소리만 재생되지 않는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅방법.A method for tagging multimedia content by an electronic device, the method
Activating a tag input mode during content playback on the electronic device;
Inputting a specific voice of the activated tag input mode to the electronic device;
Terminating the tag input mode; And
And storing the inputted specific voice as tagging information for the content in the electronic device, wherein the content in which the specific voice or content is stored as tagging information is played until the tag input mode is activated and then ends. And the tag input mode is activated, and only the sound is not played from the contents until the tag input mode is terminated.
멀티미디어 컨텐츠를 상기 전자기기에서 재생하는 재생부;
상기 재생부에 의한 멀티미디어 컨텐츠 재생 중, 외부 음성이 상기 전자기기에 입력될 수 있는 모드인 태그 입력모드를 활성화시키는 태그 입력모드 활성화부;
상기 태그 입력모드 활성부에 의하여 활성화된 태그 입력모드에서, 외부로부터의 특정 음성을 상기 전자기기에 입력시키는 음성입력부; 및
상기 입력된 특정 음성을 상기 재생부에 의하여 재생되는 컨텐츠의 태깅정보로 저장하는 저장부를 포함하며, 상기 특정 음성 또는 컨텐츠가 태깅정보로 저장된 상기 컨텐츠는 상기 태그 입력모드가 활성화된 시간 동안의 컨텐츠이며, 상기 재생부는 태그 입력모드가 활성화된 시간 동안 상기 컨텐츠로부터 소리만 재생하지 않는 것을 특징으로 하는 전자기기의 멀티미디어 컨텐츠 태깅장치.An apparatus for tagging multimedia contents of an electronic device, the apparatus comprising:
A playback unit for playing multimedia contents on the electronic device;
A tag input mode activator for activating a tag input mode which is a mode in which external voice can be input to the electronic device during multimedia content playback by the playback unit;
A voice input unit configured to input a specific voice from the outside to the electronic device in a tag input mode activated by the tag input mode activation unit; And
And a storage unit storing the inputted specific voice as tagging information of the content played by the playback unit, wherein the content in which the specific voice or the content is stored as tagging information is content during a time when the tag input mode is activated. And the reproducing unit does not reproduce only sound from the contents during a time when a tag input mode is activated.
상기 입력된 특정 음성을 텍스트화시키는 음성-텍스트 변환부를 더 포함하는 것을 특징으로 하는 멀티미디어 컨텐츠 태깅장치.The method of claim 9, wherein the device,
And a voice-to-text converter configured to textify the inputted specific voice.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120011018A KR101336256B1 (en) | 2012-02-03 | 2012-02-03 | Method and apparatus for tagging multimedia contents based upon voice |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120011018A KR101336256B1 (en) | 2012-02-03 | 2012-02-03 | Method and apparatus for tagging multimedia contents based upon voice |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130090012A KR20130090012A (en) | 2013-08-13 |
KR101336256B1 true KR101336256B1 (en) | 2013-12-06 |
Family
ID=49215750
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120011018A KR101336256B1 (en) | 2012-02-03 | 2012-02-03 | Method and apparatus for tagging multimedia contents based upon voice |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101336256B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101713626B1 (en) | 2015-01-29 | 2017-03-09 | 주식회사 마이티웍스 | Tagging system and method for sound data |
KR20220138512A (en) | 2021-04-05 | 2022-10-13 | 이피엘코딩 주식회사 | Image Recognition Method with Voice Tagging for Mobile Device |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007025648A (en) * | 2005-06-13 | 2007-02-01 | Matsushita Electric Ind Co Ltd | Content tag attachment support device and content tag attachment support method |
KR20080092134A (en) * | 2007-04-11 | 2008-10-15 | 엘지전자 주식회사 | Mobile communication device and method for controlling thereof |
KR20110001550A (en) * | 2009-06-30 | 2011-01-06 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
-
2012
- 2012-02-03 KR KR1020120011018A patent/KR101336256B1/en not_active IP Right Cessation
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007025648A (en) * | 2005-06-13 | 2007-02-01 | Matsushita Electric Ind Co Ltd | Content tag attachment support device and content tag attachment support method |
KR20080092134A (en) * | 2007-04-11 | 2008-10-15 | 엘지전자 주식회사 | Mobile communication device and method for controlling thereof |
KR20110001550A (en) * | 2009-06-30 | 2011-01-06 | 엘지전자 주식회사 | Mobile terminal and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
KR20130090012A (en) | 2013-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6999594B2 (en) | Video playback method and equipment | |
JP2010078979A (en) | Voice recording device, recorded voice retrieval method, and program | |
CN101438348B (en) | Method for recovering content reproduction of spanning equipment | |
KR102545837B1 (en) | Display arraratus, background music providing method thereof and background music providing system | |
US9972340B2 (en) | Deep tagging background noises | |
CN106155470B (en) | A kind of audio file generation method and device | |
US11089405B2 (en) | Spatial audio signaling filtering | |
KR20100095633A (en) | Method and apparatus for playing pictures | |
CN107146608B (en) | Playing control method and device and intelligent equipment | |
CN109564576A (en) | Video clip playlist in system for managing video generates | |
KR20150024188A (en) | A method for modifiying text data corresponding to voice data and an electronic device therefor | |
KR20160106075A (en) | Method and device for identifying a piece of music in an audio stream | |
CN106067310A (en) | Recording data processing method and processing device | |
KR102172149B1 (en) | Method for playing contents, method for providing dialogue section data and device for playing video contents | |
CN104349173A (en) | Video repeating method and device | |
KR20200046734A (en) | Apparatus and method for generating lecture content | |
JP2007164852A (en) | Transfer device, method, and program | |
US20080005028A1 (en) | Contents metadata registering method, registering system, and registering program | |
KR101336256B1 (en) | Method and apparatus for tagging multimedia contents based upon voice | |
CN109889921A (en) | A kind of audio-video creation, playback method and device having interactive function | |
KR20110053397A (en) | Method for searching multimedia file by using search keyword and portable device thereof | |
US20090304367A1 (en) | System and method for media player device | |
CN109637541B (en) | Method and electronic equipment for converting words by voice | |
KR101356006B1 (en) | Method and apparatus for tagging multimedia contents based upon voice enable of range setting | |
US20130204413A1 (en) | Audio Hyperlinking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20161026 Year of fee payment: 4 |
|
LAPS | Lapse due to unpaid annual fee |