KR20130076346A - Apparatus and method for searching multimedia data according to user input - Google Patents
Apparatus and method for searching multimedia data according to user input Download PDFInfo
- Publication number
- KR20130076346A KR20130076346A KR1020110144902A KR20110144902A KR20130076346A KR 20130076346 A KR20130076346 A KR 20130076346A KR 1020110144902 A KR1020110144902 A KR 1020110144902A KR 20110144902 A KR20110144902 A KR 20110144902A KR 20130076346 A KR20130076346 A KR 20130076346A
- Authority
- KR
- South Korea
- Prior art keywords
- data
- user input
- feature information
- input data
- multimedia
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/23—Updating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/40—Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
- G06F16/43—Querying
- G06F16/432—Query formulation
- G06F16/434—Query formulation using image data, e.g. images, photos, pictures taken by a user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
Abstract
Description
본 발명은 멀티미디어 검색 장치 및 방법에 관한 것으로, 특히 사용자가 손을 이용하여 입력한 입력 데이터를 인식하여 멀티미디어를 검색하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a multimedia retrieval apparatus and method, and more particularly, to an apparatus and method for retrieving multimedia by recognizing input data input by a user using a hand.
일반적으로 전자기기는 멀티미디어 컨텐츠의 양이 점점 증가하고, 다양해짐에 따라 사용자가 원하는 컨텐츠를 검색하는데 시간이 많이 소요되어 사용자에게 최적화된 컨텐츠 검색 방법을 제공하기 점점 어려워지고 있다.In general, as the amount of multimedia content is increased and diversified, electronic devices have been increasingly difficult to search for desired content, and thus, it is increasingly difficult to provide an optimized content retrieval method to the user.
현재 전자기기 내에 저장된 멀티미디어 컨텐츠를 검색하기 위해서는 컨텐츠 검색을 위한 입력 창에 컨텐츠 검색을 위해 사용되는 키워드를 입력하고, 입력된 키워드에 대응하는 다수의 후보 컨텐츠에 대한 후보 컨텐츠 리스트를 생성하여 화면에 표시한다. 사용자는 화면에 표시된 후보 컨텐츠 리스트 중 원하는 컨텐츠를 선택하거나 후보 컨텐츠 리스트 내에 원하는 컨텐츠가 없는 경우에는 다른 키워드를 입력한다. 다른 키워드를 입력한 사용자는 재입력된 키워드를 이용하여 검색된 후보 컨텐츠 리스트 중 원하는 컨텐츠를 선택한다.In order to search for multimedia content stored in the current electronic device, a keyword used for content search is input into an input window for content search, and a candidate content list for a plurality of candidate content corresponding to the input keyword is generated and displayed on the screen. do. The user selects a desired content from the candidate content list displayed on the screen or inputs another keyword when there is no desired content in the candidate content list. The user who inputs another keyword selects the desired content from the searched candidate content list using the re-entered keyword.
상기와 같이 종래에는 다수의 멀티미디어 컨텐츠를 검색하기 위해서 사용자로부터 키워드를 입력받고, 입력된 키워드에 대응하는 멀티미디어 컨텐츠에 대한 리스트를 검색하여 화면에 표시하였다.As described above, in order to search a plurality of multimedia contents, a keyword is input from a user, and a list of multimedia contents corresponding to the input keyword is searched and displayed on the screen.
하지만, 이와 같은 경우 사용자가 입력된 키워드에 대응하는 다수의 멀티미디어 컨텐츠를 검색하여 화면에 표시하기 때문에 사용자가 원하는 컨텐츠를 한번에 검색할 수 없다는 문제점이 있다.However, in this case, since the user searches and displays a plurality of multimedia contents corresponding to the input keyword, there is a problem in that the user cannot search the desired contents at once.
또한, 사용자가 원하는 컨텐츠가 없는 경우 사용자가 원하는 컨텐츠를 검색하기 위해 키워드를 반복해서 다시 입력해야 하는 번거로움이 있다.In addition, when there is no content desired by the user, the user may have to re-enter keywords again and again to search for desired content.
뿐만 아니라, 사용자 본인을 촬영한 셀프 샷과 같이 촬영된 피사체가 유사하고, 배경이 바뀐 이미지가 많을 경우 사용자가 원하는 이미지를 검색하기 어렵다는 단점이 있다.In addition, there is a disadvantage in that it is difficult for the user to search for a desired image when the photographed subject is similar to the photographed subject, such as a self shot of the user, and there are many images whose background is changed.
따라서, 본 발명에서는 사용자로부터 멀티미디어 컨텐츠에 대한 사용자 입력 데이터를 입력받고, 입력된 사용자 입력 데이터에 대응하는 후보 멀티미디어 컨텐츠 리스트를 검색하여 제공하기 위한 컨텐츠 검색 장치 및 방법을 제공한다.Accordingly, the present invention provides a content retrieval apparatus and method for receiving user input data for multimedia content from a user, and searching and providing a list of candidate multimedia contents corresponding to the input user input data.
상술한 바를 달성하기 위한 본 발명은 사용자 입력 장치를 이용한 멀티미디어 검색 장치에 있어서, 터치 입력에 따라 사용자 입력 데이터를 출력하는 터치스크린부와, 하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 특징 정보 추출부와, 상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 저장부와, 상기 사용자 입력 데이터를 인식하는 입력 데이터 인식부와, 상기 특징 정보 추출부를 통해서 상기 터치스크린부를 통해서 입력된 사용자 입력 데이터에 대한 특징 정보를 추출하고, 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하여 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 상기 저장부로부터 검색한 후 상기 검색된 후보 멀티미디어 데이터를 제공하는 제어부를 포함하는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a multimedia search apparatus using a user input device, the touch screen unit outputting user input data according to a touch input, and a feature information extracting unit extracting feature information on at least one multimedia data. And a storage unit for storing the multimedia data and the extracted feature information in correspondence, an input data recognition unit for recognizing the user input data, and user input data input through the touch screen unit through the feature information extraction unit. Extracts feature information of the extracted user input data, compares the feature information of the extracted user input data with the feature information of each multimedia data, and retrieves candidate multimedia data having similar feature information from the storage unit; data It characterized in that it comprises a control unit for providing.
또한, 본 발명은 멀티미디어 검색 장치에서 사용자 입력 장치를 이용한 멀티미디어 검색 방법에 있어서, 하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 과정과, 상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 과정과, 터치 입력에 따라 사용자 입력 데이터를 수신하는 과정과, 상기 수신된 사용자 입력 데이터에 대한 특징 정보를 추출하는 과정과, 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하는 과정과, 비교 결과 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 검색하는 과정과, 상기 검색된 후보 멀티미디어 데이터를 제공하는 과정을 포함함을 특징으로 한다.In addition, the present invention provides a method for retrieving multimedia information using a user input device in a multimedia retrieval device, the method comprising: extracting feature information on at least one multimedia data; and storing the multimedia data and the extracted feature information in correspondence with each other. And receiving user input data according to a touch input, extracting feature information on the received user input data, feature information on the extracted user input data, and feature information on each multimedia data. And a process of searching for candidate multimedia data having feature information similar to that of the extracted user input data as a result of the comparison, and providing the retrieved candidate multimedia data.
본 발명은 사용자의 드로잉과 같은 사용자 입력 데이터를 전경 및 배경으로 구분하여 입력받고, 입력된 사용자 입력 데이터를 이용하여 멀티미디어 데이터에 대한 검색을 수행함으로써 사용자에게 보다 정확한 검색 결과를 제공할 수 있다는 이점이 있다.According to the present invention, the user input data such as a drawing of the user is divided into a foreground and a background, and the user can receive more accurate search results by performing a search for multimedia data using the input user input data. have.
도 1은 본 발명의 실시 예에 따라 사용자 입력에 따른 멀티미디어 검색 장치의 구성도를 나타내는 도면,
도 2 내지 도 6은 본 발명의 실시 예에 따라 사용자 입력 데이터에 대응하는 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도들,
도 3은 본 발명의 실시 예에 따라 사용자가 전경 및 배경에 따라 사용자 입력 데이터를 구분하여 입력하고, 입력된 전경 및 배경에 따른 사용자 입력 데이터를 이용하여 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도,
도 7은 본 발명의 실시 예에 따라 사용자 입력 데이터를 이용하여 동영상 데이터를 검색하는 과정을 설명하기 위한 예시도,
도 8은 본 발명의 실시 예에 따라 선택된 멀티미디어 데이터를 이용하여 컨텐츠를 생성한 후 단말 기능에 따라 처리하는 과정을 설명하기 위한 예시도,
도 9는 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 이미지 데이터를 검색하기 위한 과정을 나타내는 흐름도,
도 10은 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 동영상 데이터를 검색하기 위한 과정을 나타내는 흐름도,
도 11은 본 발명의 실시 예에 따라 멀티미디어 데이터를 이용하여 생성된 컨텐츠를 사용자 입력 데이터에 대응하는 단말 기능으로 처리하기 위한 과정을 나타내는 흐름도.1 is a block diagram of a multimedia search apparatus according to a user input according to an embodiment of the present invention;
2 to 6 are exemplary views for explaining a process of searching for image data corresponding to user input data according to an embodiment of the present invention;
3 is an example for describing a process of a user separately inputting user input data according to a foreground and a background, and searching for image data using user input data according to the input foreground and background according to an embodiment of the present invention. Degree,
7 is an exemplary view for explaining a process of searching for video data using user input data according to an embodiment of the present invention;
8 is an exemplary diagram for describing a process of generating content using multimedia data selected according to an embodiment of the present invention and then processing the terminal according to a terminal function;
9 is a flowchart illustrating a process for searching for image data according to user input data according to an embodiment of the present invention;
10 is a flowchart illustrating a process for searching video data according to user input data according to an embodiment of the present invention;
11 is a flowchart illustrating a process for processing a content generated using multimedia data as a terminal function corresponding to user input data according to an embodiment of the present invention.
이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the annexed drawings, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.
본 발명은 사용자의 드로잉 데이터와 같이 멀티미디어 데이터에 대한 요약된 사용자 입력 데이터를 입력받고, 입력된 사용자 입력 데이터에 대응하는 특징 데이터를 추출한 후 추출된 특징 데이터와 미리 설정된 멀티미디어 데이터의 특징 데이터를 비교하여 유사한 특징 데이터를 가지는 멀티미디어 데이터를 검색하여 제공하는 것을 특징으로 한다.The present invention receives the summarized user input data about the multimedia data, such as the drawing data of the user, extracts feature data corresponding to the input user input data, and compares the extracted feature data with the feature data of the preset multimedia data. It is characterized by searching for and providing multimedia data having similar feature data.
도 1은 본 발명의 실시 예에 따라 사용자 입력에 따른 멀티미디어 검색 장치의 구성도를 나타내는 도면이다.1 is a diagram illustrating a configuration of a multimedia search apparatus according to a user input according to an exemplary embodiment of the present invention.
본 발명의 실시 예에서 멀티미디어 검색 장치는 제어부(10), 카메라부(20), 특징 정보 추출부(30), 저장부(40), 터치스크린부(50), 입력 데이터 인식부(60), 기능 검출부(70)를 포함한다.In an embodiment of the present invention, the multimedia search apparatus may include a
먼저, 제어부(10)는 멀티미디어 검색 장치의 전반적인 동작을 제어하는데, 특히 특징 정보 추출부(30)를 통해서 적어도 하나의 멀티미디어 데이터에 대한 특징 정보를 추출하고, 추출된 각 특징 정보와 적어도 하나의 멀티미디어 데이터를 대응시켜 저장부(40)에 저장한다. 여기서, 특징 정보는 이미지 내의 엣지(edge) 정보와 색상 정보를 포함한다. 예를 들어, 제어부(10)는 카메라부(20)를 통해서 출력된 촬영 이미지로부터 엣지 정보를 추출하거나 저장부(40)에 저장된 동영상 데이터에 대한 키프레임 데이터를 생성하고, 생성된 키프레임 데이터에 대한 엣지 정보를 추출할 수 있다. 여기서 키프레임 데이터는 동영상 데이터에서 화면 구성이 비슷한 장면 중 가장 대표적인 프레임을 의미한다. First, the
제어부(10)는 터치스크린부(50)를 통해서 사용자 입력 데이터가 수신되면 입력 데이터 인식부(60)를 통해서 수신된 사용자 입력 데이터를 인식한다. 이때, 사용자 입력 데이터는 사용자가 손으로 그린 드로잉 데이터 또는 사용자가 쓴 문자 데이터가 될 수 있다. 또한, 제어부(10)는 터치스크린부(50)를 통해서 사용자가 손으로 그린 드로잉 데이터를 입력받을 경우 제어부(10)는 보다 정확한 검색을 위해 이미지 데이터의 전경(foreground) 및 배경(background), 키프레임 데이터의 전경 및 배경을 구분하여 입력받을 수 있다. 이를 위해, 제어부(10)는 특징 정보 추출부(30)를 통해서 멀티미디어 데이터의 특징 정보를 추출할 경우에도 이미지 데이터의 전경 및 배경, 키프레임 데이터의 전경 및 배경을 구분하여 추출할 수도 있다.When the user input data is received through the
예를 들어, 사용자가 바닷가에서 찍은 사진을 검색하고자 하는 경우 본 발명에서는 멀티미디어 검색 장치가 전경을 입력하기 위한 설정 버튼과 배경을 입력하기 위한 설정 버튼을 구비하여 사용자가 전경을 입력하기 위한 설정 버튼을 눌러 전경 드로잉 데이터를 입력하고, 배경을 입력하기 위한 설정 버튼을 눌러 배경 드로잉 데이터를 입력할 수 있다. 이러한 설정 이외에 다른 방법으로도 전경 및 배경을 구분하여 입력하기 위한 설정이 가능하다.For example, when the user wants to search for a picture taken at the beach, the multimedia search apparatus includes a setting button for inputting the foreground and a setting button for inputting the background so that the user inputs the setting button for inputting the foreground. Press to input the foreground drawing data, and press the setting button for inputting the background to input the background drawing data. In addition to this setting, a setting for inputting the foreground and the background may be performed in other ways.
이후 제어부(10)는 입력된 사용자 입력 데이터로부터 특징 정보 추출부(30)를 통해서 특징 데이터를 추출하고, 추출된 특징 정보와 저장부(40)에 저장된 특징 정보를 비교하여 유사한 특징 정보를 검색한다. 이때, 제어부(10)는 사용자 입력 데이터의 엣지 정보와 저장부(40)에 저장된 엣지 정보간의 차이값을 산출하고, 산출된 차이값이 미리 설정된 임계값보다 작으면 두 엣지 정보가 유사하다고 판단할 수 있다. 또한, 이러한 유사 특징 정보는 하나 이상 검색될 수 있다. 이러한 유사 특징 정보를 검색하는 방법에는 BiCE(Binary Coherent Edge Descriptors), SIFT(Scale Invariant Feature Transform), Daisy(Dynamically Architected Instruction Set from Yorktown)와 같은 방법이 있으며, MinHash(or the min-wise independent permutations locality sensitive hashing scheme)를 이용하여 유사성을 판단할 수 있다.Thereafter, the
제어부(10)는 검색된 유사 특징 정보에 대응하는 적어도 하나의 멀티미디어 데이터를 후보 멀티미디어 리스트로 생성하고, 생성된 후보 멀티미디어 리스트를 터치스크린부(50)의 화면에 표시한다.The
터치스크린부(50)를 통해서 사용자로부터 표시된 후보 멀티미디어 리스트 중 원하는 멀티미디어 데이터에 대한 선택이 있으면 제어부(10)는 선택된 멀티미디어 데이터를 터치스크린부(50)의 화면에 표시한다. 이때, 터치스크린부(50)의 화면은 사용자 입력 데이터를 입력받기 위한 사용자 입력 영역과 후보 멀티미디어 리스트를 표시하기 위한 영역을 포함한다. 또한, 사용자 입력 영역은 선택된 멀티미디어 데이터를 표시하는 표시 영역도 될 수 있다. 이와 같은 경우 선택된 멀티미디어 데이터는 사용자 입력 영역에 겹쳐서 표시할 수 있다.If there is a selection of desired multimedia data among candidate multimedia lists displayed by the user through the
예를 들어, 동영상 데이터의 경우 제어부(10)는 유사 특징 정보에 대응하는 키프레임 데이터를 검색하고, 검색된 키프레임 데이터에 대응하는 동영상 데이터를 터치스크린부(50)의 화면에 표시한다.For example, in the case of video data, the
한편, 제어부(10)는 선택된 멀티미디어 데이터를 이용하여 컨텐츠를 생성하기 위한 요청이 있으면 컨텐츠 생성 모드를 수행한다. 여기서, 컨텐츠 생성 모드는 사용자가 선택한 멀티미디어 데이터를 이용하여 꾸미기, 글쓰기, 그리기와 같은 사용자 감성이 반영된 새로운 컨텐츠 데이터를 생성하도록 하는 동작 모드를 의미한다.Meanwhile, if there is a request for generating content using the selected multimedia data, the
컨텐츠 데이터가 생성된 후 사용자 입력에 있으면 제어부(10)는 입력된 사용자 입력 데이터를 입력 데이터 인식부(60)를 통해서 인식하고, 인식된 사용자 입력 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 구체적으로, 제어부(10)는 인식된 사용자 입력 데이터와 유사한 인식 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 이때, 본 발명에서는 각 인식 데이터에 대응하여 단말 기능 정보를 설정한 단말 기능 설정 리스트를 저장부(40)에 미리 저장한다.If content data is generated and then present in the user input, the
제어부(10)는 생성된 컨텐츠 데이터에 대해서 검출된 단말 기능 정보에 해당하는 단말 기능을 수행하여 컨텐츠 데이터를 처리한다. 예를 들어, 입력 데이터가 메시지 모양의 그림과 이메일 주소인 경우 이에 대응하여 단말 기능 중 이메일 송수신 기능이 설정되어 있다고 가정한다. 터치스크린부(50)를 통해서 입력된 사용자 입력 데이터가 입력 데이터 인식부(60)를 통해서 메시지 모양의 그림과 이메일 주소가 입력 데이터로 인식되면 제어부(10)는 인식된 사용자 입력 데이터에 대응하는 이메일 송수신 기능에 대한 정보를 기능 검출부(70)를 통해서 검출하고, 검출된 정보에 따른 이메일 송수신 기능을 수행하여 생성된 컨텐츠 데이터를 인식된 이메일 주소로 전송한다. The
카메라부(20)는 광신호를 수신하여 이미지 데이터를 출력한다.The
특징 정보 추출부(30)는 이미지 특징 정보 추출부(31)와 동영상 특징 정보 추출부(32)를 포함하고, 이미지 특징 정보 추출부(31)는 카메라부(20)로부터 출력된 이미지 데이터에 대한 특징 정보를 추출한다. 이때, 특징 정보는 엣지 정보가 될 수 있다. 또한, 동영상 특징 정보 추출부(32)는 동영상 데이터에 대응하여 추출된 하나 이상의 키프레임 데이터에 대한 특징 정보를 추출한다.The
뿐만 아니라, 특징 정보 추출부(30)는 멀티미디어 데이터에 대해서 전경 및 배경에 따라 구분하여 특징 정보를 추출할 수도 있다. 예를 들어, 바닷가에 두 사람이 서 있는 이미지 데이터의 경우 특징 정보 추출부(30)는 이미지 데이터 내 두 사람에 대한 이미지 영역으로부터 전경에 대한 특징 정보를 추출하고, 바닷가에 대한 이미지 영역으로부터 배경에 대한 특징 정보를 추출할 수 있다.In addition, the
또한, 특징 정보 추출부(30)는 입력 데이터 인식부(60)를 통해서 인식된 사용자 입력 데이터에 대한 특징 정보를 추출한다.In addition, the
저장부(40)는 적어도 하나의 멀티미디어 데이터와, 각 멀티미디어 데이터에 대응하는 특징 정보를 저장한다. 구체적으로, 저장부(40)는 각 이미지 데이터에 대응하는 특징 정보를 저장하고, 각 동영상 데이터에 대응하는 적어도 하나의 키프레임 데이터와, 각 키프레임 데이터에 대응하는 특징 정보를 저장한다. 또한, 저장부(40)는 복수의 단말 기능에 다른 단말 기능 정보에 대해서 각 단말 기능 정보에 대응하는 미리 설정된 인식 데이터를 저장한다. 여기서, 인식 데이터는 엣지 데이터 또는 문자 데이터가 될 수 있다. 예를 들어, 저장부(40)는 편지지 모양을 나타내는 엣지 데이터에 이메일 송수신 기능 또는 단문 메시지 송수신 기능과 같은 단말 기능 정보를 대응시켜 저장할 수 있다.The
터치스크린부(50)는 사용자로부터 입력되는 하나 이상의 입력 정보를 접촉에 따른 접촉점들로 인식하고, 이를 사용자 입력 데이터로 변환하여 출력한다. 터치스크린부(50)는 사용자의 터치 입력을 인식하기 위한 입력 영역과, 검색된 후보 멀티미디어 데이터에 대한 리스트를 표시하기 위한 후보 리스트 표시 영역을 포함한다. 이때, 입력 영역은 선택된 멀티미디어 데이터를 디스플레이를 위한 멀티미디어 표시 영역도 함께 될 수도 있고, 후보 리스트 표시 영역에 표시된 후보 리스트 중 선택된 멀티미디어 데이터를 드래그 앤 페이스트(Drag & Paste)할 수도 있다.The
입력 데이터 인식부(60)는 사용자로부터 입력된 문자 또는 드로잉과 같은 사용자 입력 데이터를 인식하는데, 이러한 입력 데이터 인식부(60)는 문자 인식부(61)와 엣지 인식부(62)를 포함한다. 여기서, 문자 인식부(61)는 사용자 입력 데이터가 문자인지를 인식하고, 엣지 인식부(62)는 사용자 입력 데이터의 엣지를 인식한다. 다시 말해서, 문자 인식부(61)는 OCR과 같은 문자 인식 방법을 이용할 수 있고, 엣지 인식부(62)는 사용자가 직접 그린 드로잉 데이터에 대한 엣지를 인식한다. 이러한 엣지를 인식하기 위해서 유사연산자(homogeneity operator) 기법, 차연산자(difference operator) 기법, 경계값(threshold)를 이용한 기법, 그라디언트 에지 검출(Gradient edge detector) 등의 다양한 방법들이 사용되며, 특히 캐니 에지 검출 기법(Canny edge detector)이 대표적인 방법이다.The
기능 검출부(70)는 저장부(40)에 저장된 각 인식 데이터에 대응하여 미리 설정된 단말 기능 정보 중 인식된 사용자 입력 데이터와 유사한 인식 데이터에 대응하여 미리 설정된 단말 기능 정보를 검출한다.The
이를 통해서 사용자는 사용자가 원하는 멀티미디어 데이터를 보다 정확하게 검색할 수 있고, 더 나아가 검색된 멀티미디어 데이터를 이용하여 생성된 컨텐츠 데이터를 단말 기능을 통해서 처리할 수 있게 된다.Through this, the user can more accurately search for the multimedia data desired by the user, and furthermore, the user can process the content data generated using the searched multimedia data through the terminal function.
도 2 내지 도 6은 본 발명의 실시 예에 따라 사용자 입력 데이터에 대응하는 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도들이다.2 to 6 are exemplary diagrams for describing a process of searching for image data corresponding to user input data according to an exemplary embodiment of the present invention.
도 2는 본 발명의 실시 예에 따라 드로잉 데이터를 이용하여 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도이다.2 is an exemplary diagram for describing a process of searching for image data using drawing data according to an exemplary embodiment of the present invention.
도 2와 같이 터치스크린부(50)를 통해서 사용자 입력 데이터(200)가 입력되면 제어부(10)는 입력 데이터 인식부(60)를 통해서 입력된 사용자 입력 데이터를 인식하여 인식된 사용자 입력 데이터가 문자 데이터인지 또는 드로잉 데이터인지를 판단한다. 인식된 사용자 입력 데이터가 도면부호 200과 같은 드로잉 데이터인 경우 제어부(10)는 특징 정보 추출부(30)를 통해서 드로잉 데이터로부터 특징 정보, 즉, 엣지 정보를 추출한다.When the
제어부(10)는 추출된 엣지 정보와 유사한 엣지 정보를 가지는 멀티미디어 데이터를 저장부(40) 내에서 검색하여 검색된 적어도 하나의 멀티미디어 데이터에 대한 후보 멀티미디어 리스트를 터치스크린부(50)의 화면에 디스플레이한다. 이와 같이 디스플레이된 후보 멀티미디어 리스트는 도 2의 도면부호 210, 220, 230, 240과 같이 도시될 수 있다. The
도 3은 본 발명의 실시 예에 따라 사용자가 전경 및 배경에 따라 사용자 입력 데이터를 구분하여 입력하고, 입력된 전경 및 배경에 따른 사용자 입력 데이터를 이용하여 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도이다.3 is an example for describing a process of a user separately inputting user input data according to a foreground and a background, and searching for image data using user input data according to the input foreground and background according to an embodiment of the present invention. It is also.
도 3과 같이 사용자가 멀티미디어 데이터 검색을 위해 터치스크린부(50)를 통해서 전경 및 배경을 구분하여 입력하면 제어부(10)는 입력된 전경 및 배경에 대한 사용자 입력 데이터에 대응하는 멀티미디어 데이터(320)를 검색한다. As shown in FIG. 3, when the user inputs the foreground and the background separately through the
구체적으로, 도 3과 같이 사용자가 터치스크린부(50)를 통해서 전경에 대한 2명의 사람 얼굴 그림(300)을 입력하고, 배경에 대한 바닷가 그림(310)을 입력한다. 이때, 터치스크린부(50)는 그림 그리기를 위한 색상 입력과 붓, 연필, 펜과 같은 도구 입력이 가능한 그림 그리기 화면을 제공할 수 있다.Specifically, as shown in FIG. 3, the user inputs two human face pictures 300 for the foreground and a
제어부(10)는 특징 정보 추출부(30)를 통해서 전경에 대한 사용자 입력 데이터(300)로부터 특징 정보를 추출하고, 배경에 대한 사용자 입력 데이터(310)로부터 특징 정보를 추출하여 추출된 전경 및 배경에 대한 특징 정보를 이용하여 도면부호 320과 같은 이미지 데이터를 검색할 수 있다. 다시 말해서, 제어부(10)는 사용자 입력 데이터의 전경 및 배경에 대한 특징 정보와 유사한 전경 및 배경에 대한 특징 정보를 저장부(40) 내에서 검색하고, 검색된 유사 특징 정보에 대응하는 적어도 하나의 후보 이미지 데이터에 대한 리스트를 터치스크린부(50)의 화면에 표시한다. 이후 사용자로부터 표시된 리스트들 중에서 어느 하나가 선택되면 제어부(10)는 선택된 이미지 데이터(320)를 터치스크린부(50)의 표시 영역에 표시한다.The
도 4 내지 도 6은 본 발명의 실시 예에 따라 사용자 입력 데이터에 대응하는 적어도 하나의 멀티미디어 데이터에 대한 예시도들이다.4 to 6 are exemplary diagrams for at least one multimedia data corresponding to user input data according to an embodiment of the present invention.
도 4와 같이 모래 사장과 바닷물결에 대한 드로잉 데이터(400)가 입력되면 도면부호 410, 420, 430, 440과 같은 후보 이미지 데이터들이 검색될 수 있다.As illustrated in FIG. 4, when the drawing
또한, 도 5의 도면부호 500과 같이 전경에 대한 사용자 입력 데이터로 배에 대한 드로잉 데이터가 입력되고, 배경에 대한 사용자 입력 데이터로 모래 사장과 바닷물결에 대한 드로잉 데이터가 입력되면 도면부호 510, 520, 530, 540과 같은 후보 이미지 데이터들이 검색될 수 있다.In addition, as shown by
한편, 도 6의 도면부호 600과 같이 전경에 대한 사용자 입력 데이터로 모래 사장과 바닷물결에 대한 드로잉 데이터가 입력되고, 배경에 대한 사용자 입력 데이터로 석양에 대한 이미지 데이터가 입력되면 도면부호 610, 620, 630, 640과 같은 후보 이미지 데이터들이 검색될 수 있다. 본 발명의 실시 예서는 입력 데이터로 사용자가 선택한 이미지 데이터를 이용할 수 있다. 예를 들어, 도 6과 같은 사용자 입력 데이터가 입력되면 제어부(10)는 전경에 대한 드로잉 데이터로부터 특징 정보를 추출하고, 배경에 대한 석양 이미지 데이터로부터 특징 정보를 추출하고, 두 특징 정보와 유사한 특징 정보를 가지는 적어도 하나의 이미지 데이터들(610, 620, 630, 640)을 검색할 수 있다.Meanwhile, as shown by
도 7은 본 발명의 실시 예에 따라 사용자 입력 데이터를 이용하여 동영상 데이터를 검색하는 과정을 설명하기 위한 예시도이다.7 is an exemplary diagram for describing a process of searching video data using user input data according to an exemplary embodiment of the present invention.
도 7과 같이 제어부(10)는 저장부(40)에 저장된 동영상 목록(700)에 포함된 각 동영상 데이터에 대응하여 하나 이상의 키프레임 데이터를 생성하고, 생성된 하나 이상의 키프레임 데이터에 대한 키프레임 목록(710)을 생성하여 저장부(40)에 저장한다. 여기서, 키프레임 데이터는 영화, 드라마와 같은 동영상의 화면 구성이 비슷한 장면 중 가장 대표적인 프레임을 의미한다. As illustrated in FIG. 7, the
제어부(10)는 특징 정보 추출부(30)를 통해서 각 키프레임 데이터에 대한 특징 정보를 추출하고, 추출된 특징 정보와 각 키프레임 데이터를 대응시켜 저장부(40)에 저장한다.The
이후 사용자로부터 터치스크린부(50)를 통해서 도면부호 720과 같은 드로잉 데이터가 입력되면 제어부(10)는 드로잉 데이터를 인식하여 특징 정보를 추출하고, 추출된 특징 정보와 유사한 특징 정보에 해당하는 키프레임 데이터를 저장부(40)로부터 검색한다. 제어부(10)는 도면부호 730과 같이 검색된 적어도 하나의 후보 키프레임 데이터에 대한 리스트를 구성하여 터치스크린부(50)의 화면에 표시한다. 사용자로부터 터치스크린부(50)를 통해서 특정 키프레임 데이터에 대한 선택이 있으면 제어부(10)는 선택된 키프레임 데이터에 대응하는 동영상 데이터를 터치스크린부(50)의 화면에 표시한다.Then, when drawing data such as 720 is input from the user through the
도 8은 본 발명의 실시 예에 따라 선택된 멀티미디어 데이터를 이용하여 컨텐츠를 생성한 후 단말 기능에 따라 처리하는 과정을 설명하기 위한 예시도이다.8 is an exemplary diagram for describing a process of generating content using multimedia data selected according to an embodiment of the present invention and then processing the terminal according to a terminal function.
본 발명에서는 사용자의 요청에 따라 멀티미디어 데이터를 이용하여 생성된 컨텐츠에 단말기 기능을 적용하여 컨텐츠를 처리하는 처리 모드를 수행할 수 있다.According to the present invention, a processing mode for processing content may be performed by applying a terminal function to content generated using multimedia data according to a user's request.
도 8과 같이 후보 리스트 표시 영역 내에 적어도 하나의 후보 이미지 데이터가 표시되고, 사용자로부터 멀티미디어 데이터(800)에 대한 드래그하여 입력 영역 내 810의 위치에 붙여넣기하는 입력이 있으면 제어부(10)는 해당 입력 영역 내에 810의 위치에 선택된 이미지 데이터를 드래그 앤 페이스트한다. If at least one candidate image data is displayed in the candidate list display area as shown in FIG. 8, and there is an input for dragging the
이후 사용자로부터 이미지 데이터에 대한 코멘트(820)와 이메일 주소(830), 편지지 모양의 드로잉(840)이 포함되는 사용자 입력 데이터가 입력되면 제어부(10)는 입력된 사용자 입력 데이터를 인식하고, 인식된 사용자 입력 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 예를 들어, 저장부(40)에 편지지 모양의 드로잉(840)에 이메일 송수신 기능에 대한 정보가 대응되어 저장된 경우 기능 검출부(70)는 이메일 송수신 기능 정보를 검출한다. 제어부(10)는 검출된 이메일 송수신 기능 정보에 따라 터치스크린부(50)의 화면에 표시된 컨텐츠 데이터를 인식된 이메일 주소(830)로 전송하는 이메일 송수신 기능을 수행한다.Thereafter, when user input data including a
이를 통해서 사용자는 사용자가 원하는 멀티미디어 데이터를 보다 정확하게 검색할 수 있고, 더 나아가 검색된 멀티미디어 데이터를 이용하여 생성된 컨텐츠 데이터를 단말 기능을 이용하여 처리할 수 있게 된다.Through this, the user can more accurately search for the multimedia data desired by the user, and can further process the content data generated by using the retrieved multimedia data using the terminal function.
도 9는 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 이미지 데이터를 검색하기 위한 과정을 나타내는 흐름도이다.9 is a flowchart illustrating a process for searching for image data according to user input data according to an embodiment of the present invention.
도 9에 따르면, 900단계에서 제어부(10)는 카메라부(20)를 통해서 촬영 이미지 데이터를 입력받고, 901단계에서 입력된 이미지 데이터로부터 특징 정보 추출부(30)를 통해서 이미지 데이터에 대한 특징 정보를 추출한다. 이때, 특징 정보는 엣지 정보, 색상 정보를 포함한다.9, in
902단계에서 제어부(10)는 추출된 특징 정보와 이미지 데이터를 대응시켜 저장부(40)에 저장한다.In
903단계에서 제어부(10)는 터치스크린부(50)로부터 사용자 입력 데이터가 수신되는지 여부를 판단하여 수신되면 904단계로 진행하고, 수신되지 않으면 903단계에서 사용자 입력 데이터가 수신되는지 여부를 계속적으로 판단한다.In
사용자 입력 데이터가 입력되면 904단계에서 제어부(10)는 입력 데이터 인식부(60)를 통해서 사용자 입력 데이터를 인식하고, 특징 정보 추출부(30)를 통해서 사용자 입력 데이터에 대한 특징 정보를 추출한다. When the user input data is input, in
905단계에서 제어부(10)는 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 적어도 하나의 후보 이미지 데이터를 저장부(40)로부터 검색한다.In
906단계에서 제어부(10)는 검색된 적어도 하나의 후보 이미지 데이터에 대한 후보 이미지 리스트를 생성하고, 생성된 후보 이미지 리스트를 터치스크린부(50)의 표시 영역에 표시한다.In
907단계에서 제어부(10)는 터치스크린부(50)를 통해서 후보 이미지 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 판단하여 선택이 입력되면 908단계로 진행하고, 입력되지 않으면 907단계에서 후보 이미지 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 계속적으로 판단한다.In
908단계에서 제어부(10)는 선택된 이미지 데이터를 터치스크린부(50)의 화면에 표시한 후 이미지 데이터 검색 과정을 종료한다.In
도 10은 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 동영상 데이터를 검색하기 위한 과정을 나타내는 흐름도이다.10 is a flowchart illustrating a process for searching video data according to user input data according to an embodiment of the present invention.
1001단계에서 제어부(10)는 저장부(40)에 저장된 각 동영상 데이터에 대응하여 하나 이상의 키프레임 데이터를 특징 정보 추출부(30)를 통해서 생성한다.In
1002단계에서 제어부(10)는 생성된 각 키프레임 데이터로부터 특징 정보를 특징 정보 추출부(30)를 통해서 추출한다.In
1003단계에서 제어부(10)는 추출된 특징 정보와 생성된 키프레임 데이터를 대응시켜 저장부(40)에 저장한다.In
1004단계에서 제어부(10)는 터치스크린부(50)로부터 사용자 입력 데이터가 수신되는지 여부를 판단하여 수신되면 1005단계로 진행하고, 수신되지 않으면 1004단계에서 사용자 입력 데이터가 수신되는지 여부를 계속적으로 판단한다.In
사용자 입력 데이터가 입력되면 1005단계에서 제어부(10)는 입력 데이터 인식부(60)를 통해서 사용자 입력 데이터를 인식하고, 인식한 사용자 입력 데이터에 대한 특징 정보를 특징 정보 추출부(30)를 통해서 추출한다. When the user input data is input, in
1006단계에서 제어부(10)는 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 적어도 하나의 후보 키프레임 데이터를 저장부(40)로부터 검색한다.In
1007단계에서 제어부(10)는 검색된 적어도 하나의 후보 키프레임 데이터에 대한 후보 키프레임 리스트를 생성하고, 생성된 후보 키프레임 리스트를 터치스크린부(50)의 표시 영역에 표시한다.In
1008단계에서 제어부(10)는 터치스크린부(50)를 통해서 후보 키프레임 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 판단하여 선택이 입력되면 1009단계로 진행하고, 입력되지 않으면 1008단계에서 후보 키프레임 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 계속적으로 판단한다.In
1009단계에서 제어부(10)는 선택된 키프레임 데이터에 대응하는 동영상 데이터를 저장부(40)로부터 검색하고, 검색된 동영상 데이터를 터치스크린부(50)의 화면에 표시한 후 이미지 데이터 검색 과정을 종료한다.In
도 11은 본 발명의 실시 예에 따라 멀티미디어 데이터를 이용하여 생성된 컨텐츠를 사용자 입력 데이터에 대응하는 단말 기능으로 처리하기 위한 과정을 나타내는 흐름도이다.FIG. 11 is a flowchart illustrating a process for processing a content generated using multimedia data as a terminal function corresponding to user input data according to an embodiment of the present invention.
1100단계에서 제어부(10)는 멀티미디어 데이터 검색을 통해서 검색된 멀티미디어 데이터 중 사용자로부터 선택된 멀티미디어 데이터를 이용한 컨텐츠 데이터를 생성한다. 이러한 컨텐츠는 상기의 도 8에서 설명한 바와 같이 터치스크린부(50)의 화면에 표시된 이미지 데이터(810), 코멘트(820)가 포함된 컨텐츠 데이터를 의미한다.In
1101단계에서 제어부(10)는 사용자 입력 데이터가 수신되는지 여부를 판단하여 사용자 입력 데이터가 수신되면 1102단계로 진행하고, 수신되지 않으면 1101단계에서 사용자 입력 데이터가 수신되는지 여부를 계속적으로 판단한다. 여기서, 사용자 입력 데이터는 도 8의 이메일 주소(830)와 편지지 모양의 드로잉 데이터(840)가 될 수 있다.In
1102단계에서 제어부(10)는 입력 데이터 인식부(60)를 통해서 사용자 입력 데이터를 인식한다. 예를 들어, 입력 데이터 인식부(60)는 문자 인식부(61)를 통해서 이메일 주소를 인식하고, 엣지 인식부(62)를 통해서 드로잉 데이터를 인식할 수 있다.In
1103단계에서 제어부(10)는 인식된 사용자 데이터에 대응하여 미리 설정된 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 구체적으로, 제어부(10)는 인식된 사용자 입력 데이터와 유사한 인식 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 예를 들어, 편지지 모양의 드로잉 데이터에 대응하여 이메일 기능이 설정된 경우 기능 검출부(70)는 인식된 편지지 모양의 드로잉 데이터에 대응하는 이메일 기능 정보를 검출한다.In
1104단계에서 제어부(10)는 검출된 단말 기능 정보에 해당하는 단말 기능 정보에 해당하는 단말 기능을 이용하여 생성된 컨텐츠 데이터를 처리한 후 컨텐츠 처리 과정을 종료한다. 구체적으로, 제어부(10)는 검출된 이메일 기능을 이용하여 인식된 이메일 주소로 상기의 컨텐츠 데이터를 전송한다. In
이를 통해서 사용자는 사용자가 원하는 멀티미디어 데이터를 보다 정확하게 검색할 수 있고, 더 나아가 검색된 멀티미디어 데이터를 이용하여 생성된 컨텐츠 데이터를 단말 기능을 통해서 처리할 수 있게 된다.Through this, the user can more accurately search for the multimedia data desired by the user, and furthermore, the user can process the content data generated using the searched multimedia data through the terminal function.
10: 제어부
20: 카메라부
30: 특징 정보 추출부
31: 이미지 특징 추출부
32: 동영상 특징 추출부
40: 저장부
50: 터치 스크린부
60: 입력 데이터 인식부
61: 문자 인식부
62: 엣지 인식부
70: 기능 검출부10:
20: camera unit
30: feature information extraction unit
31: image feature extraction unit
32: video feature extraction unit
40:
50: touch screen unit
60: input data recognition unit
61: character recognition unit
62: edge recognition unit
70: function detection unit
Claims (14)
터치 입력에 따라 사용자 입력 데이터를 출력하는 터치스크린부와,
하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 특징 정보 추출부와,
상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 저장부와,
상기 사용자 입력 데이터를 인식하는 입력 데이터 인식부와,
상기 특징 정보 추출부를 통해서 상기 사용자 입력 데이터에 대한 특징 정보를 추출하고, 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하여 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 상기 저장부로부터 검색한 후 상기 검색된 후보 멀티미디어 데이터를 제공하는 제어부를 포함하는 것을 특징으로 하는 멀티미디어 검색 장치.In the multimedia search apparatus using a user input device,
A touch screen unit for outputting user input data according to a touch input;
A feature information extraction unit for extracting feature information about one or more multimedia data;
A storage unit for storing the multimedia data and the extracted feature information in correspondence with each other;
An input data recognition unit recognizing the user input data;
The feature information extractor extracts feature information on the user input data, and compares the feature information on the extracted user input data with the feature information on each multimedia data to obtain candidate multimedia data having similar feature information. And a control unit for providing the searched candidate multimedia data after searching from a storage unit.
전경(foreground)에 대한 사용자 입력 데이터와 배경(background)에 대한 사용자 입력 데이터를 구분하여 출력하는 것을 특징으로 하는 멀티미디어 검색 장치.The method of claim 1, wherein the touch screen unit,
And outputting the user input data for the foreground and the user input data for the background.
엣지 데이터, 색상 데이터를 포함하는 것을 특징으로 하는 멀티미디어 검색 장치.The method of claim 1, wherein the feature information about the user input data is:
Multimedia search apparatus comprising edge data, color data.
상기 사용자 입력 데이터가 동영상 데이터인 경우 상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터를 생성하고, 상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 추출하는 것을 특징으로 하는 멀티미디어 검색 장치.The method of claim 1, wherein the feature information extracting unit,
And generating at least one keyframe data for the moving image data and extracting feature information on the generated at least one keyframe data when the user input data is moving image data.
상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터와 상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 대응시켜 저장하는 것을 특징으로 하는 멀티미디어 검색 장치.The method of claim 4, wherein the storage unit,
And storing at least one keyframe data of the video data and feature information of the generated at least one keyframe data in correspondence with each other.
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 키프레임 데이터에 대한 특징 정보를 비교하여 유사한 특징 정보를 가지는 후보 키프레임 데이터를 상기 저장부로부터 검색한 후 상기 검색된 후보 키프레임 데이터에 대응하는 동영상 데이터를 제공하는 것을 특징으로 하는 멀티미디어 검색 장치.6. The apparatus of claim 5,
After comparing feature information on the extracted user input data and feature information on the keyframe data, the candidate keyframe data having similar feature information is searched from the storage unit, and then the video data corresponding to the retrieved candidate keyframe data. Multimedia search apparatus characterized in that it provides.
상기 인식된 사용자 입력 데이터에 대응하는 장치 기능 정보를 검출하는 기능 검출부를 더 포함하고,
상기 저장부는 적어도 하나의 인식 데이터에 대응하는 장치 기능 정보를 더 저장하며,
상기 제어부는 상기 제공된 후보 멀티미디어 데이터 중 선택된 적어도 하나의 후보 멀티미디어 데이터를 이용한 컨텐츠 데이터를 생성하고, 상기 저장부로부터 상기 인식된 사용자 입력 데이터에 대응하는 장치 기능 정보를 검출하도록 상기 기능 검출부를 제어한 후 상기 검출된 장치 기능 정보에 해당하는 장치 기능으로 컨텐츠 데이터를 처리하는 것을 특징으로 하는 멀티미디어 검색 장치.The method of claim 1,
The apparatus may further include a function detector configured to detect device function information corresponding to the recognized user input data.
The storage unit further stores device function information corresponding to at least one piece of recognition data.
The controller generates content data using at least one candidate multimedia data selected from the provided candidate multimedia data, and controls the function detector to detect device function information corresponding to the recognized user input data from the storage. And processing content data by a device function corresponding to the detected device function information.
하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 과정과,
상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 과정과,
터치 입력에 따라 사용자 입력 데이터를 수신하는 과정과,
상기 수신된 사용자 입력 데이터에 대한 특징 정보를 추출하는 과정과,
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하는 과정과,
비교 결과 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 검색하는 과정과,
상기 검색된 후보 멀티미디어 데이터를 제공하는 과정을 포함함을 특징으로 하는 멀티미디어 검색 방법.In the multimedia retrieval method using a user input device in the multimedia retrieval device,
Extracting feature information about one or more multimedia data;
Storing the multimedia data and the extracted feature information in correspondence with each other;
Receiving user input data according to a touch input;
Extracting feature information on the received user input data;
Comparing feature information on the extracted user input data with feature information on each multimedia data;
Searching for candidate multimedia data having feature information similar to that of the extracted user input data as a result of the comparison;
And providing the searched candidate multimedia data.
전경(foreground)에 대한 사용자 입력 데이터와 배경(background)에 대한 사용자 입력 데이터를 구분하여 수신하는 과정임을 특징으로 하는 멀티미디어 검색 방법.The method of claim 8, wherein the receiving of the user input data comprises:
And a process for distinguishing and receiving user input data for foreground and user input data for background.
엣지 데이터, 색상 데이터를 포함하는 것을 특징으로 하는 멀티미디어 검색 방법.The method of claim 8, wherein the characteristic information about the user input data,
Multimedia search method comprising edge data, color data.
상기 사용자 입력 데이터가 동영상 데이터인 경우 상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터를 생성하는 과정과,
상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 추출하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.9. The method of claim 8,
Generating at least one keyframe data for the video data when the user input data is video data;
And extracting feature information on the generated at least one keyframe data.
상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터와 상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 대응시켜 저장하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.The method of claim 11,
And storing the at least one keyframe data of the video data and the feature information of the generated at least one keyframe data in correspondence with each other.
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 키프레임 데이터에 대한 특징 정보를 비교하는 과정과,
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 후보 키프레임 데이터를 검색하는 과정과,
기 검색된 후보 키프레임 데이터에 대응하는 동영상 데이터를 제공하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.The method of claim 12,
Comparing feature information on the extracted user input data with feature information on the keyframe data;
Retrieving candidate keyframe data having feature information similar to that of the extracted user input data;
And providing video data corresponding to the previously found candidate keyframe data.
상기 제공된 후보 멀티미디어 데이터 중 선택된 적어도 하나의 후보 멀티미디어 데이터를 이용한 컨텐츠 데이터를 생성하는 과정과,
적어도 하나의 인식 데이터에 대응하는 장치 기능 정보 중 상기 인식된 사용자 입력 데이터에 대응하는 장치 기능 정보를 검출하는 과정과,
상기 검출된 장치 기능 정보에 해당하는 장치 기능으로 컨텐츠 데이터를 처리하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.9. The method of claim 8,
Generating content data using at least one candidate multimedia data selected from the provided candidate multimedia data;
Detecting device function information corresponding to the recognized user input data among device function information corresponding to at least one piece of recognition data;
And processing content data with a device function corresponding to the detected device function information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110144902A KR101900303B1 (en) | 2011-12-28 | 2011-12-28 | Apparatus and method for searching multimedia data according to user input |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110144902A KR101900303B1 (en) | 2011-12-28 | 2011-12-28 | Apparatus and method for searching multimedia data according to user input |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20130076346A true KR20130076346A (en) | 2013-07-08 |
KR101900303B1 KR101900303B1 (en) | 2018-09-20 |
Family
ID=48989972
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110144902A KR101900303B1 (en) | 2011-12-28 | 2011-12-28 | Apparatus and method for searching multimedia data according to user input |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101900303B1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160035234A1 (en) | 2014-07-29 | 2016-02-04 | Samsung Electronics Co., Ltd. | Server, information providing method of server, display apparatus, controlling method of display apparatus and information providing system |
US9654685B2 (en) | 2012-04-13 | 2017-05-16 | Samsung Electronics Co., Ltd | Camera apparatus and control method thereof |
-
2011
- 2011-12-28 KR KR1020110144902A patent/KR101900303B1/en active IP Right Grant
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9654685B2 (en) | 2012-04-13 | 2017-05-16 | Samsung Electronics Co., Ltd | Camera apparatus and control method thereof |
US20160035234A1 (en) | 2014-07-29 | 2016-02-04 | Samsung Electronics Co., Ltd. | Server, information providing method of server, display apparatus, controlling method of display apparatus and information providing system |
US10242586B2 (en) | 2014-07-29 | 2019-03-26 | Samsung Electronics Co., Ltd. | Server, information providing method of server, display apparatus, controlling method of display apparatus and information providing system |
Also Published As
Publication number | Publication date |
---|---|
KR101900303B1 (en) | 2018-09-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11157577B2 (en) | Method for searching and device thereof | |
CN109189879B (en) | Electronic book display method and device | |
US9244923B2 (en) | Hypervideo browsing using links generated based on user-specified content features | |
US20150339348A1 (en) | Search method and device | |
EP2613549A1 (en) | Display apparatus, remote control apparatus, and searching methods therof | |
TW201322050A (en) | Electronic device and read guiding method thereof | |
WO2015101289A1 (en) | Image management method, apparatus and system | |
JP2004234228A (en) | Image search device, keyword assignment method in image search device, and program | |
US11734370B2 (en) | Method for searching and device thereof | |
TW201322049A (en) | Electronic device and read guiding method thereof | |
CN112738556A (en) | Video processing method and device | |
WO2019105457A1 (en) | Image processing method, computer device and computer readable storage medium | |
KR20090068380A (en) | Improved mobile communication terminal | |
CN110825928A (en) | Searching method and device | |
JP2014229091A (en) | Program for character input | |
TWI294100B (en) | Mobile handset and the method of the character recognition on a mobile handset | |
EP3910496A1 (en) | Search method and device | |
CN113869063A (en) | Data recommendation method and device, electronic equipment and storage medium | |
US20170200062A1 (en) | Method of determination of stable zones within an image stream, and portable device for implementing the method | |
KR101900303B1 (en) | Apparatus and method for searching multimedia data according to user input | |
KR102408256B1 (en) | Method for Searching and Device Thereof | |
KR20150097250A (en) | Sketch retrieval system using tag information, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor | |
US10489460B2 (en) | Method and apparatus for providing local search suggestion | |
KR20160125599A (en) | Apparatus and methodology for an emotion event extraction and an emotion sketch based retrieval | |
US11328178B2 (en) | System and method for automated photo-ideophone matching and placement |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right |