KR20130076346A - Apparatus and method for searching multimedia data according to user input - Google Patents

Apparatus and method for searching multimedia data according to user input Download PDF

Info

Publication number
KR20130076346A
KR20130076346A KR1020110144902A KR20110144902A KR20130076346A KR 20130076346 A KR20130076346 A KR 20130076346A KR 1020110144902 A KR1020110144902 A KR 1020110144902A KR 20110144902 A KR20110144902 A KR 20110144902A KR 20130076346 A KR20130076346 A KR 20130076346A
Authority
KR
South Korea
Prior art keywords
data
user input
feature information
input data
multimedia
Prior art date
Application number
KR1020110144902A
Other languages
Korean (ko)
Other versions
KR101900303B1 (en
Inventor
정문식
최성도
이반 코르야코브스키
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020110144902A priority Critical patent/KR101900303B1/en
Publication of KR20130076346A publication Critical patent/KR20130076346A/en
Application granted granted Critical
Publication of KR101900303B1 publication Critical patent/KR101900303B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/23Updating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/40Information retrieval; Database structures therefor; File system structures therefor of multimedia data, e.g. slideshows comprising image and additional audio data
    • G06F16/43Querying
    • G06F16/432Query formulation
    • G06F16/434Query formulation using image data, e.g. images, photos, pictures taken by a user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0412Digitisers structurally integrated in a display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Abstract

PURPOSE: A multimedia search device according to user input and a method thereof are provided to supply an accurate search result by dividing user input data into a panorama and a background and searching for multimedia data based on the user input data. CONSTITUTION: A touch screen unit (50) outputs user input data according to touch input and a feature information extracting unit (30) extracts feature information about multimedia data. A storage unit (40) matches the multimedia data with the feature information to store the same and an input data recognizing unit (60) recognizes the user input data. A control unit (10) compares the feature information about the user input data with the feature information about the multimedia data to search the storage unit for candidate multimedia data and to provide the candidate multimedia data. [Reference numerals] (10) Control unit; (20) Camera unit; (30) Feature information extracting unit; (31) Image characteristic information extracting unit; (32) Video characteristic information extracting unit; (40) Storage unit; (50) Touch screen unit; (60) Input data recognizing unit; (61) Letter cognition unit; (62) Edge cognition unit; (70) Function detection unit

Description

사용자 입력에 따른 멀티미디어 검색 장치 및 방법{APPARATUS AND METHOD FOR SEARCHING MULTIMEDIA DATA ACCORDING TO USER INPUT}Apparatus and method for searching multimedia according to user input {APPARATUS AND METHOD FOR SEARCHING MULTIMEDIA DATA ACCORDING TO USER INPUT}

본 발명은 멀티미디어 검색 장치 및 방법에 관한 것으로, 특히 사용자가 손을 이용하여 입력한 입력 데이터를 인식하여 멀티미디어를 검색하기 위한 장치 및 방법에 관한 것이다.The present invention relates to a multimedia retrieval apparatus and method, and more particularly, to an apparatus and method for retrieving multimedia by recognizing input data input by a user using a hand.

일반적으로 전자기기는 멀티미디어 컨텐츠의 양이 점점 증가하고, 다양해짐에 따라 사용자가 원하는 컨텐츠를 검색하는데 시간이 많이 소요되어 사용자에게 최적화된 컨텐츠 검색 방법을 제공하기 점점 어려워지고 있다.In general, as the amount of multimedia content is increased and diversified, electronic devices have been increasingly difficult to search for desired content, and thus, it is increasingly difficult to provide an optimized content retrieval method to the user.

현재 전자기기 내에 저장된 멀티미디어 컨텐츠를 검색하기 위해서는 컨텐츠 검색을 위한 입력 창에 컨텐츠 검색을 위해 사용되는 키워드를 입력하고, 입력된 키워드에 대응하는 다수의 후보 컨텐츠에 대한 후보 컨텐츠 리스트를 생성하여 화면에 표시한다. 사용자는 화면에 표시된 후보 컨텐츠 리스트 중 원하는 컨텐츠를 선택하거나 후보 컨텐츠 리스트 내에 원하는 컨텐츠가 없는 경우에는 다른 키워드를 입력한다. 다른 키워드를 입력한 사용자는 재입력된 키워드를 이용하여 검색된 후보 컨텐츠 리스트 중 원하는 컨텐츠를 선택한다.In order to search for multimedia content stored in the current electronic device, a keyword used for content search is input into an input window for content search, and a candidate content list for a plurality of candidate content corresponding to the input keyword is generated and displayed on the screen. do. The user selects a desired content from the candidate content list displayed on the screen or inputs another keyword when there is no desired content in the candidate content list. The user who inputs another keyword selects the desired content from the searched candidate content list using the re-entered keyword.

상기와 같이 종래에는 다수의 멀티미디어 컨텐츠를 검색하기 위해서 사용자로부터 키워드를 입력받고, 입력된 키워드에 대응하는 멀티미디어 컨텐츠에 대한 리스트를 검색하여 화면에 표시하였다.As described above, in order to search a plurality of multimedia contents, a keyword is input from a user, and a list of multimedia contents corresponding to the input keyword is searched and displayed on the screen.

하지만, 이와 같은 경우 사용자가 입력된 키워드에 대응하는 다수의 멀티미디어 컨텐츠를 검색하여 화면에 표시하기 때문에 사용자가 원하는 컨텐츠를 한번에 검색할 수 없다는 문제점이 있다.However, in this case, since the user searches and displays a plurality of multimedia contents corresponding to the input keyword, there is a problem in that the user cannot search the desired contents at once.

또한, 사용자가 원하는 컨텐츠가 없는 경우 사용자가 원하는 컨텐츠를 검색하기 위해 키워드를 반복해서 다시 입력해야 하는 번거로움이 있다.In addition, when there is no content desired by the user, the user may have to re-enter keywords again and again to search for desired content.

뿐만 아니라, 사용자 본인을 촬영한 셀프 샷과 같이 촬영된 피사체가 유사하고, 배경이 바뀐 이미지가 많을 경우 사용자가 원하는 이미지를 검색하기 어렵다는 단점이 있다.In addition, there is a disadvantage in that it is difficult for the user to search for a desired image when the photographed subject is similar to the photographed subject, such as a self shot of the user, and there are many images whose background is changed.

따라서, 본 발명에서는 사용자로부터 멀티미디어 컨텐츠에 대한 사용자 입력 데이터를 입력받고, 입력된 사용자 입력 데이터에 대응하는 후보 멀티미디어 컨텐츠 리스트를 검색하여 제공하기 위한 컨텐츠 검색 장치 및 방법을 제공한다.Accordingly, the present invention provides a content retrieval apparatus and method for receiving user input data for multimedia content from a user, and searching and providing a list of candidate multimedia contents corresponding to the input user input data.

상술한 바를 달성하기 위한 본 발명은 사용자 입력 장치를 이용한 멀티미디어 검색 장치에 있어서, 터치 입력에 따라 사용자 입력 데이터를 출력하는 터치스크린부와, 하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 특징 정보 추출부와, 상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 저장부와, 상기 사용자 입력 데이터를 인식하는 입력 데이터 인식부와, 상기 특징 정보 추출부를 통해서 상기 터치스크린부를 통해서 입력된 사용자 입력 데이터에 대한 특징 정보를 추출하고, 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하여 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 상기 저장부로부터 검색한 후 상기 검색된 후보 멀티미디어 데이터를 제공하는 제어부를 포함하는 것을 특징으로 한다.In accordance with another aspect of the present invention, there is provided a multimedia search apparatus using a user input device, the touch screen unit outputting user input data according to a touch input, and a feature information extracting unit extracting feature information on at least one multimedia data. And a storage unit for storing the multimedia data and the extracted feature information in correspondence, an input data recognition unit for recognizing the user input data, and user input data input through the touch screen unit through the feature information extraction unit. Extracts feature information of the extracted user input data, compares the feature information of the extracted user input data with the feature information of each multimedia data, and retrieves candidate multimedia data having similar feature information from the storage unit; data It characterized in that it comprises a control unit for providing.

또한, 본 발명은 멀티미디어 검색 장치에서 사용자 입력 장치를 이용한 멀티미디어 검색 방법에 있어서, 하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 과정과, 상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 과정과, 터치 입력에 따라 사용자 입력 데이터를 수신하는 과정과, 상기 수신된 사용자 입력 데이터에 대한 특징 정보를 추출하는 과정과, 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하는 과정과, 비교 결과 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 검색하는 과정과, 상기 검색된 후보 멀티미디어 데이터를 제공하는 과정을 포함함을 특징으로 한다.In addition, the present invention provides a method for retrieving multimedia information using a user input device in a multimedia retrieval device, the method comprising: extracting feature information on at least one multimedia data; and storing the multimedia data and the extracted feature information in correspondence with each other. And receiving user input data according to a touch input, extracting feature information on the received user input data, feature information on the extracted user input data, and feature information on each multimedia data. And a process of searching for candidate multimedia data having feature information similar to that of the extracted user input data as a result of the comparison, and providing the retrieved candidate multimedia data.

본 발명은 사용자의 드로잉과 같은 사용자 입력 데이터를 전경 및 배경으로 구분하여 입력받고, 입력된 사용자 입력 데이터를 이용하여 멀티미디어 데이터에 대한 검색을 수행함으로써 사용자에게 보다 정확한 검색 결과를 제공할 수 있다는 이점이 있다.According to the present invention, the user input data such as a drawing of the user is divided into a foreground and a background, and the user can receive more accurate search results by performing a search for multimedia data using the input user input data. have.

도 1은 본 발명의 실시 예에 따라 사용자 입력에 따른 멀티미디어 검색 장치의 구성도를 나타내는 도면,
도 2 내지 도 6은 본 발명의 실시 예에 따라 사용자 입력 데이터에 대응하는 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도들,
도 3은 본 발명의 실시 예에 따라 사용자가 전경 및 배경에 따라 사용자 입력 데이터를 구분하여 입력하고, 입력된 전경 및 배경에 따른 사용자 입력 데이터를 이용하여 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도,
도 7은 본 발명의 실시 예에 따라 사용자 입력 데이터를 이용하여 동영상 데이터를 검색하는 과정을 설명하기 위한 예시도,
도 8은 본 발명의 실시 예에 따라 선택된 멀티미디어 데이터를 이용하여 컨텐츠를 생성한 후 단말 기능에 따라 처리하는 과정을 설명하기 위한 예시도,
도 9는 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 이미지 데이터를 검색하기 위한 과정을 나타내는 흐름도,
도 10은 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 동영상 데이터를 검색하기 위한 과정을 나타내는 흐름도,
도 11은 본 발명의 실시 예에 따라 멀티미디어 데이터를 이용하여 생성된 컨텐츠를 사용자 입력 데이터에 대응하는 단말 기능으로 처리하기 위한 과정을 나타내는 흐름도.
1 is a block diagram of a multimedia search apparatus according to a user input according to an embodiment of the present invention;
2 to 6 are exemplary views for explaining a process of searching for image data corresponding to user input data according to an embodiment of the present invention;
3 is an example for describing a process of a user separately inputting user input data according to a foreground and a background, and searching for image data using user input data according to the input foreground and background according to an embodiment of the present invention. Degree,
7 is an exemplary view for explaining a process of searching for video data using user input data according to an embodiment of the present invention;
8 is an exemplary diagram for describing a process of generating content using multimedia data selected according to an embodiment of the present invention and then processing the terminal according to a terminal function;
9 is a flowchart illustrating a process for searching for image data according to user input data according to an embodiment of the present invention;
10 is a flowchart illustrating a process for searching video data according to user input data according to an embodiment of the present invention;
11 is a flowchart illustrating a process for processing a content generated using multimedia data as a terminal function corresponding to user input data according to an embodiment of the present invention.

이하 본 발명의 바람직한 실시 예를 첨부한 도면을 참조하여 상세히 설명한다. 하기 설명 및 첨부 도면에서 본 발명의 요지를 불필요하게 흐릴 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the annexed drawings, detailed descriptions of well-known functions and configurations that may unnecessarily obscure the subject matter of the present invention will be omitted.

본 발명은 사용자의 드로잉 데이터와 같이 멀티미디어 데이터에 대한 요약된 사용자 입력 데이터를 입력받고, 입력된 사용자 입력 데이터에 대응하는 특징 데이터를 추출한 후 추출된 특징 데이터와 미리 설정된 멀티미디어 데이터의 특징 데이터를 비교하여 유사한 특징 데이터를 가지는 멀티미디어 데이터를 검색하여 제공하는 것을 특징으로 한다.The present invention receives the summarized user input data about the multimedia data, such as the drawing data of the user, extracts feature data corresponding to the input user input data, and compares the extracted feature data with the feature data of the preset multimedia data. It is characterized by searching for and providing multimedia data having similar feature data.

도 1은 본 발명의 실시 예에 따라 사용자 입력에 따른 멀티미디어 검색 장치의 구성도를 나타내는 도면이다.1 is a diagram illustrating a configuration of a multimedia search apparatus according to a user input according to an exemplary embodiment of the present invention.

본 발명의 실시 예에서 멀티미디어 검색 장치는 제어부(10), 카메라부(20), 특징 정보 추출부(30), 저장부(40), 터치스크린부(50), 입력 데이터 인식부(60), 기능 검출부(70)를 포함한다.In an embodiment of the present invention, the multimedia search apparatus may include a controller 10, a camera unit 20, a feature information extractor 30, a storage unit 40, a touch screen unit 50, an input data recognition unit 60, And a function detector 70.

먼저, 제어부(10)는 멀티미디어 검색 장치의 전반적인 동작을 제어하는데, 특히 특징 정보 추출부(30)를 통해서 적어도 하나의 멀티미디어 데이터에 대한 특징 정보를 추출하고, 추출된 각 특징 정보와 적어도 하나의 멀티미디어 데이터를 대응시켜 저장부(40)에 저장한다. 여기서, 특징 정보는 이미지 내의 엣지(edge) 정보와 색상 정보를 포함한다. 예를 들어, 제어부(10)는 카메라부(20)를 통해서 출력된 촬영 이미지로부터 엣지 정보를 추출하거나 저장부(40)에 저장된 동영상 데이터에 대한 키프레임 데이터를 생성하고, 생성된 키프레임 데이터에 대한 엣지 정보를 추출할 수 있다. 여기서 키프레임 데이터는 동영상 데이터에서 화면 구성이 비슷한 장면 중 가장 대표적인 프레임을 의미한다. First, the controller 10 controls the overall operation of the multimedia retrieval apparatus. In particular, the feature information extractor 30 extracts feature information on at least one multimedia data, and extracts each feature information and at least one multimedia. Corresponding data is stored in the storage unit 40. Here, the feature information includes edge information and color information in the image. For example, the controller 10 extracts edge information from the captured image output through the camera unit 20 or generates keyframe data for video data stored in the storage unit 40, and generates the keyframe data on the generated keyframe data. It is possible to extract the edge information about the. Here, the key frame data refers to the most representative frame among scenes having similar screen configurations in the video data.

제어부(10)는 터치스크린부(50)를 통해서 사용자 입력 데이터가 수신되면 입력 데이터 인식부(60)를 통해서 수신된 사용자 입력 데이터를 인식한다. 이때, 사용자 입력 데이터는 사용자가 손으로 그린 드로잉 데이터 또는 사용자가 쓴 문자 데이터가 될 수 있다. 또한, 제어부(10)는 터치스크린부(50)를 통해서 사용자가 손으로 그린 드로잉 데이터를 입력받을 경우 제어부(10)는 보다 정확한 검색을 위해 이미지 데이터의 전경(foreground) 및 배경(background), 키프레임 데이터의 전경 및 배경을 구분하여 입력받을 수 있다. 이를 위해, 제어부(10)는 특징 정보 추출부(30)를 통해서 멀티미디어 데이터의 특징 정보를 추출할 경우에도 이미지 데이터의 전경 및 배경, 키프레임 데이터의 전경 및 배경을 구분하여 추출할 수도 있다.When the user input data is received through the touch screen unit 50, the controller 10 recognizes the user input data received through the input data recognition unit 60. In this case, the user input data may be drawing data drawn by the user or text data written by the user. In addition, when the control unit 10 receives drawing data drawn by the user through the touch screen unit 50, the control unit 10 may change the foreground, background, and key of the image data for more accurate retrieval. The foreground and background of the frame data may be distinguished and input. To this end, the controller 10 may extract the foreground and background of the image data and the foreground and the background of the key frame data even when the feature information of the multimedia data is extracted through the feature information extractor 30.

예를 들어, 사용자가 바닷가에서 찍은 사진을 검색하고자 하는 경우 본 발명에서는 멀티미디어 검색 장치가 전경을 입력하기 위한 설정 버튼과 배경을 입력하기 위한 설정 버튼을 구비하여 사용자가 전경을 입력하기 위한 설정 버튼을 눌러 전경 드로잉 데이터를 입력하고, 배경을 입력하기 위한 설정 버튼을 눌러 배경 드로잉 데이터를 입력할 수 있다. 이러한 설정 이외에 다른 방법으로도 전경 및 배경을 구분하여 입력하기 위한 설정이 가능하다.For example, when the user wants to search for a picture taken at the beach, the multimedia search apparatus includes a setting button for inputting the foreground and a setting button for inputting the background so that the user inputs the setting button for inputting the foreground. Press to input the foreground drawing data, and press the setting button for inputting the background to input the background drawing data. In addition to this setting, a setting for inputting the foreground and the background may be performed in other ways.

이후 제어부(10)는 입력된 사용자 입력 데이터로부터 특징 정보 추출부(30)를 통해서 특징 데이터를 추출하고, 추출된 특징 정보와 저장부(40)에 저장된 특징 정보를 비교하여 유사한 특징 정보를 검색한다. 이때, 제어부(10)는 사용자 입력 데이터의 엣지 정보와 저장부(40)에 저장된 엣지 정보간의 차이값을 산출하고, 산출된 차이값이 미리 설정된 임계값보다 작으면 두 엣지 정보가 유사하다고 판단할 수 있다. 또한, 이러한 유사 특징 정보는 하나 이상 검색될 수 있다. 이러한 유사 특징 정보를 검색하는 방법에는 BiCE(Binary Coherent Edge Descriptors), SIFT(Scale Invariant Feature Transform), Daisy(Dynamically Architected Instruction Set from Yorktown)와 같은 방법이 있으며, MinHash(or the min-wise independent permutations locality sensitive hashing scheme)를 이용하여 유사성을 판단할 수 있다.Thereafter, the controller 10 extracts feature data from the input user input data through the feature information extractor 30, searches for similar feature information by comparing the extracted feature information with the feature information stored in the storage 40. . In this case, the controller 10 calculates a difference value between the edge information of the user input data and the edge information stored in the storage unit 40, and if the calculated difference value is smaller than a preset threshold value, the controller 10 determines that the two edge information are similar. Can be. In addition, one or more such feature information may be retrieved. Methods for retrieving this similar feature information include Binary Coherent Edge Descriptors (BiCE), Scale Invariant Feature Transform (SIFT), and Dynamically Architected Instruction Set from Yorktown (MinHash), or MinHash (or the min-wise independent permutations locality A similar hash can be determined using a sensitive hashing scheme.

제어부(10)는 검색된 유사 특징 정보에 대응하는 적어도 하나의 멀티미디어 데이터를 후보 멀티미디어 리스트로 생성하고, 생성된 후보 멀티미디어 리스트를 터치스크린부(50)의 화면에 표시한다.The controller 10 generates at least one multimedia data corresponding to the retrieved similar feature information as a candidate multimedia list and displays the generated candidate multimedia list on the screen of the touch screen unit 50.

터치스크린부(50)를 통해서 사용자로부터 표시된 후보 멀티미디어 리스트 중 원하는 멀티미디어 데이터에 대한 선택이 있으면 제어부(10)는 선택된 멀티미디어 데이터를 터치스크린부(50)의 화면에 표시한다. 이때, 터치스크린부(50)의 화면은 사용자 입력 데이터를 입력받기 위한 사용자 입력 영역과 후보 멀티미디어 리스트를 표시하기 위한 영역을 포함한다. 또한, 사용자 입력 영역은 선택된 멀티미디어 데이터를 표시하는 표시 영역도 될 수 있다. 이와 같은 경우 선택된 멀티미디어 데이터는 사용자 입력 영역에 겹쳐서 표시할 수 있다.If there is a selection of desired multimedia data among candidate multimedia lists displayed by the user through the touch screen unit 50, the controller 10 displays the selected multimedia data on the screen of the touch screen unit 50. In this case, the screen of the touch screen unit 50 includes a user input area for receiving user input data and an area for displaying a candidate multimedia list. The user input area may also be a display area for displaying the selected multimedia data. In such a case, the selected multimedia data may be overlaid on the user input area.

예를 들어, 동영상 데이터의 경우 제어부(10)는 유사 특징 정보에 대응하는 키프레임 데이터를 검색하고, 검색된 키프레임 데이터에 대응하는 동영상 데이터를 터치스크린부(50)의 화면에 표시한다.For example, in the case of video data, the controller 10 searches for keyframe data corresponding to similar feature information and displays video data corresponding to the found keyframe data on the screen of the touch screen unit 50.

한편, 제어부(10)는 선택된 멀티미디어 데이터를 이용하여 컨텐츠를 생성하기 위한 요청이 있으면 컨텐츠 생성 모드를 수행한다. 여기서, 컨텐츠 생성 모드는 사용자가 선택한 멀티미디어 데이터를 이용하여 꾸미기, 글쓰기, 그리기와 같은 사용자 감성이 반영된 새로운 컨텐츠 데이터를 생성하도록 하는 동작 모드를 의미한다.Meanwhile, if there is a request for generating content using the selected multimedia data, the controller 10 performs a content generation mode. Here, the content generation mode refers to an operation mode for generating new content data reflecting user's emotion such as decorating, writing, and drawing by using the multimedia data selected by the user.

컨텐츠 데이터가 생성된 후 사용자 입력에 있으면 제어부(10)는 입력된 사용자 입력 데이터를 입력 데이터 인식부(60)를 통해서 인식하고, 인식된 사용자 입력 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 구체적으로, 제어부(10)는 인식된 사용자 입력 데이터와 유사한 인식 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 이때, 본 발명에서는 각 인식 데이터에 대응하여 단말 기능 정보를 설정한 단말 기능 설정 리스트를 저장부(40)에 미리 저장한다.If content data is generated and then present in the user input, the controller 10 recognizes the input user input data through the input data recognizer 60, and detects the terminal function information corresponding to the recognized user input data. Detects through In detail, the controller 10 detects the terminal function information corresponding to the recognition data similar to the recognized user input data through the function detector 70. In this case, in the present invention, the terminal function setting list in which the terminal function information is set in correspondence with the recognition data is stored in advance in the storage unit 40.

제어부(10)는 생성된 컨텐츠 데이터에 대해서 검출된 단말 기능 정보에 해당하는 단말 기능을 수행하여 컨텐츠 데이터를 처리한다. 예를 들어, 입력 데이터가 메시지 모양의 그림과 이메일 주소인 경우 이에 대응하여 단말 기능 중 이메일 송수신 기능이 설정되어 있다고 가정한다. 터치스크린부(50)를 통해서 입력된 사용자 입력 데이터가 입력 데이터 인식부(60)를 통해서 메시지 모양의 그림과 이메일 주소가 입력 데이터로 인식되면 제어부(10)는 인식된 사용자 입력 데이터에 대응하는 이메일 송수신 기능에 대한 정보를 기능 검출부(70)를 통해서 검출하고, 검출된 정보에 따른 이메일 송수신 기능을 수행하여 생성된 컨텐츠 데이터를 인식된 이메일 주소로 전송한다. The controller 10 processes the content data by performing a terminal function corresponding to the detected terminal function information on the generated content data. For example, if the input data is a message-shaped picture and an e-mail address, it is assumed that an e-mail transmission / reception function is set among the terminal functions. When the user input data input through the touch screen unit 50 is recognized as the input data and the picture of the message shape through the input data recognition unit 60, the control unit 10 is an email corresponding to the recognized user input data Information about a transmission / reception function is detected through the function detection unit 70, and the content data generated by performing an email transmission / reception function according to the detected information is transmitted to the recognized email address.

카메라부(20)는 광신호를 수신하여 이미지 데이터를 출력한다.The camera unit 20 receives an optical signal and outputs image data.

특징 정보 추출부(30)는 이미지 특징 정보 추출부(31)와 동영상 특징 정보 추출부(32)를 포함하고, 이미지 특징 정보 추출부(31)는 카메라부(20)로부터 출력된 이미지 데이터에 대한 특징 정보를 추출한다. 이때, 특징 정보는 엣지 정보가 될 수 있다. 또한, 동영상 특징 정보 추출부(32)는 동영상 데이터에 대응하여 추출된 하나 이상의 키프레임 데이터에 대한 특징 정보를 추출한다.The feature information extractor 30 includes an image feature information extractor 31 and a video feature information extractor 32, and the image feature information extractor 31 is configured to perform image data output from the camera unit 20. Extract feature information. In this case, the feature information may be edge information. Also, the video feature information extractor 32 extracts feature information about one or more keyframe data extracted corresponding to the video data.

뿐만 아니라, 특징 정보 추출부(30)는 멀티미디어 데이터에 대해서 전경 및 배경에 따라 구분하여 특징 정보를 추출할 수도 있다. 예를 들어, 바닷가에 두 사람이 서 있는 이미지 데이터의 경우 특징 정보 추출부(30)는 이미지 데이터 내 두 사람에 대한 이미지 영역으로부터 전경에 대한 특징 정보를 추출하고, 바닷가에 대한 이미지 영역으로부터 배경에 대한 특징 정보를 추출할 수 있다.In addition, the feature information extractor 30 may extract feature information by dividing the multimedia data according to the foreground and the background. For example, in the case of image data where two people are standing at the beach, the feature information extractor 30 extracts feature information about the foreground from the image area of two people in the image data, and extracts the feature information about the foreground from the image area of the beach. Feature information about the user can be extracted.

또한, 특징 정보 추출부(30)는 입력 데이터 인식부(60)를 통해서 인식된 사용자 입력 데이터에 대한 특징 정보를 추출한다.In addition, the feature information extractor 30 extracts feature information on the user input data recognized by the input data recognizer 60.

저장부(40)는 적어도 하나의 멀티미디어 데이터와, 각 멀티미디어 데이터에 대응하는 특징 정보를 저장한다. 구체적으로, 저장부(40)는 각 이미지 데이터에 대응하는 특징 정보를 저장하고, 각 동영상 데이터에 대응하는 적어도 하나의 키프레임 데이터와, 각 키프레임 데이터에 대응하는 특징 정보를 저장한다. 또한, 저장부(40)는 복수의 단말 기능에 다른 단말 기능 정보에 대해서 각 단말 기능 정보에 대응하는 미리 설정된 인식 데이터를 저장한다. 여기서, 인식 데이터는 엣지 데이터 또는 문자 데이터가 될 수 있다. 예를 들어, 저장부(40)는 편지지 모양을 나타내는 엣지 데이터에 이메일 송수신 기능 또는 단문 메시지 송수신 기능과 같은 단말 기능 정보를 대응시켜 저장할 수 있다.The storage unit 40 stores at least one multimedia data and feature information corresponding to each multimedia data. In detail, the storage unit 40 stores feature information corresponding to each image data, and stores at least one keyframe data corresponding to each video data and feature information corresponding to each keyframe data. The storage unit 40 also stores preset recognition data corresponding to each terminal function information with respect to the terminal function information that is different from the plurality of terminal functions. Here, the recognition data may be edge data or character data. For example, the storage unit 40 may store terminal function information such as an email transmission / reception function or a short message transmission / reception function in correspondence with edge data representing a letter shape.

터치스크린부(50)는 사용자로부터 입력되는 하나 이상의 입력 정보를 접촉에 따른 접촉점들로 인식하고, 이를 사용자 입력 데이터로 변환하여 출력한다. 터치스크린부(50)는 사용자의 터치 입력을 인식하기 위한 입력 영역과, 검색된 후보 멀티미디어 데이터에 대한 리스트를 표시하기 위한 후보 리스트 표시 영역을 포함한다. 이때, 입력 영역은 선택된 멀티미디어 데이터를 디스플레이를 위한 멀티미디어 표시 영역도 함께 될 수도 있고, 후보 리스트 표시 영역에 표시된 후보 리스트 중 선택된 멀티미디어 데이터를 드래그 앤 페이스트(Drag & Paste)할 수도 있다.The touch screen unit 50 recognizes one or more input information input from a user as contact points according to a contact, converts the input information into user input data, and outputs the converted input point. The touch screen unit 50 includes an input area for recognizing a user's touch input and a candidate list display area for displaying a list of retrieved candidate multimedia data. In this case, the input area may also be a multimedia display area for displaying the selected multimedia data, or drag and paste the selected multimedia data from the candidate list displayed on the candidate list display area.

입력 데이터 인식부(60)는 사용자로부터 입력된 문자 또는 드로잉과 같은 사용자 입력 데이터를 인식하는데, 이러한 입력 데이터 인식부(60)는 문자 인식부(61)와 엣지 인식부(62)를 포함한다. 여기서, 문자 인식부(61)는 사용자 입력 데이터가 문자인지를 인식하고, 엣지 인식부(62)는 사용자 입력 데이터의 엣지를 인식한다. 다시 말해서, 문자 인식부(61)는 OCR과 같은 문자 인식 방법을 이용할 수 있고, 엣지 인식부(62)는 사용자가 직접 그린 드로잉 데이터에 대한 엣지를 인식한다. 이러한 엣지를 인식하기 위해서 유사연산자(homogeneity operator) 기법, 차연산자(difference operator) 기법, 경계값(threshold)를 이용한 기법, 그라디언트 에지 검출(Gradient edge detector) 등의 다양한 방법들이 사용되며, 특히 캐니 에지 검출 기법(Canny edge detector)이 대표적인 방법이다.The input data recognizer 60 recognizes user input data such as a text or a drawing input from a user. The input data recognizer 60 includes a character recognizer 61 and an edge recognizer 62. Here, the character recognition unit 61 recognizes whether the user input data is a character, and the edge recognition unit 62 recognizes the edge of the user input data. In other words, the character recognition unit 61 may use a character recognition method such as OCR, and the edge recognition unit 62 recognizes an edge with respect to the drawing data drawn by the user. To recognize these edges, various methods such as homogeneity operator technique, difference operator technique, threshold technique, gradient edge detector, and the like are used. Canny edge detector is a typical method.

기능 검출부(70)는 저장부(40)에 저장된 각 인식 데이터에 대응하여 미리 설정된 단말 기능 정보 중 인식된 사용자 입력 데이터와 유사한 인식 데이터에 대응하여 미리 설정된 단말 기능 정보를 검출한다.The function detector 70 detects preset terminal function information in response to recognition data similar to recognized user input data among preset terminal function information corresponding to each recognition data stored in the storage 40.

이를 통해서 사용자는 사용자가 원하는 멀티미디어 데이터를 보다 정확하게 검색할 수 있고, 더 나아가 검색된 멀티미디어 데이터를 이용하여 생성된 컨텐츠 데이터를 단말 기능을 통해서 처리할 수 있게 된다.Through this, the user can more accurately search for the multimedia data desired by the user, and furthermore, the user can process the content data generated using the searched multimedia data through the terminal function.

도 2 내지 도 6은 본 발명의 실시 예에 따라 사용자 입력 데이터에 대응하는 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도들이다.2 to 6 are exemplary diagrams for describing a process of searching for image data corresponding to user input data according to an exemplary embodiment of the present invention.

도 2는 본 발명의 실시 예에 따라 드로잉 데이터를 이용하여 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도이다.2 is an exemplary diagram for describing a process of searching for image data using drawing data according to an exemplary embodiment of the present invention.

도 2와 같이 터치스크린부(50)를 통해서 사용자 입력 데이터(200)가 입력되면 제어부(10)는 입력 데이터 인식부(60)를 통해서 입력된 사용자 입력 데이터를 인식하여 인식된 사용자 입력 데이터가 문자 데이터인지 또는 드로잉 데이터인지를 판단한다. 인식된 사용자 입력 데이터가 도면부호 200과 같은 드로잉 데이터인 경우 제어부(10)는 특징 정보 추출부(30)를 통해서 드로잉 데이터로부터 특징 정보, 즉, 엣지 정보를 추출한다.When the user input data 200 is input through the touch screen unit 50 as shown in FIG. 2, the controller 10 recognizes the user input data input through the input data recognition unit 60, and the recognized user input data is a character. Determine whether it is data or drawing data. When the recognized user input data is drawing data such as the reference numeral 200, the controller 10 extracts feature information, that is, edge information, from the drawing data through the feature information extractor 30.

제어부(10)는 추출된 엣지 정보와 유사한 엣지 정보를 가지는 멀티미디어 데이터를 저장부(40) 내에서 검색하여 검색된 적어도 하나의 멀티미디어 데이터에 대한 후보 멀티미디어 리스트를 터치스크린부(50)의 화면에 디스플레이한다. 이와 같이 디스플레이된 후보 멀티미디어 리스트는 도 2의 도면부호 210, 220, 230, 240과 같이 도시될 수 있다. The controller 10 searches in the storage unit 40 for multimedia data having edge information similar to the extracted edge information, and displays a candidate multimedia list for the at least one retrieved multimedia data on the screen of the touch screen unit 50. . The candidate multimedia list displayed as described above may be shown as 210, 220, 230, and 240 of FIG. 2.

도 3은 본 발명의 실시 예에 따라 사용자가 전경 및 배경에 따라 사용자 입력 데이터를 구분하여 입력하고, 입력된 전경 및 배경에 따른 사용자 입력 데이터를 이용하여 이미지 데이터를 검색하는 과정을 설명하기 위한 예시도이다.3 is an example for describing a process of a user separately inputting user input data according to a foreground and a background, and searching for image data using user input data according to the input foreground and background according to an embodiment of the present invention. It is also.

도 3과 같이 사용자가 멀티미디어 데이터 검색을 위해 터치스크린부(50)를 통해서 전경 및 배경을 구분하여 입력하면 제어부(10)는 입력된 전경 및 배경에 대한 사용자 입력 데이터에 대응하는 멀티미디어 데이터(320)를 검색한다. As shown in FIG. 3, when the user inputs the foreground and the background separately through the touch screen unit 50 to retrieve the multimedia data, the controller 10 may convert the multimedia data 320 corresponding to the user input data of the input foreground and the background. Search for.

구체적으로, 도 3과 같이 사용자가 터치스크린부(50)를 통해서 전경에 대한 2명의 사람 얼굴 그림(300)을 입력하고, 배경에 대한 바닷가 그림(310)을 입력한다. 이때, 터치스크린부(50)는 그림 그리기를 위한 색상 입력과 붓, 연필, 펜과 같은 도구 입력이 가능한 그림 그리기 화면을 제공할 수 있다.Specifically, as shown in FIG. 3, the user inputs two human face pictures 300 for the foreground and a beach picture 310 for the background through the touch screen unit 50. In this case, the touch screen unit 50 may provide a picture input screen capable of inputting a color for drawing and a tool input such as a brush, a pencil, and a pen.

제어부(10)는 특징 정보 추출부(30)를 통해서 전경에 대한 사용자 입력 데이터(300)로부터 특징 정보를 추출하고, 배경에 대한 사용자 입력 데이터(310)로부터 특징 정보를 추출하여 추출된 전경 및 배경에 대한 특징 정보를 이용하여 도면부호 320과 같은 이미지 데이터를 검색할 수 있다. 다시 말해서, 제어부(10)는 사용자 입력 데이터의 전경 및 배경에 대한 특징 정보와 유사한 전경 및 배경에 대한 특징 정보를 저장부(40) 내에서 검색하고, 검색된 유사 특징 정보에 대응하는 적어도 하나의 후보 이미지 데이터에 대한 리스트를 터치스크린부(50)의 화면에 표시한다. 이후 사용자로부터 표시된 리스트들 중에서 어느 하나가 선택되면 제어부(10)는 선택된 이미지 데이터(320)를 터치스크린부(50)의 표시 영역에 표시한다.The controller 10 extracts feature information from the user input data 300 for the foreground through the feature information extractor 30 and extracts the feature information from the user input data 310 for the background. Image data such as reference numeral 320 may be searched for using the feature information about the. In other words, the controller 10 searches for the feature information on the foreground and the background similar to the feature information on the foreground and the background of the user input data in the storage 40, and at least one candidate corresponding to the retrieved similar feature information. The list of image data is displayed on the screen of the touch screen unit 50. Then, if any one of the lists displayed by the user is selected, the controller 10 displays the selected image data 320 on the display area of the touch screen unit 50.

도 4 내지 도 6은 본 발명의 실시 예에 따라 사용자 입력 데이터에 대응하는 적어도 하나의 멀티미디어 데이터에 대한 예시도들이다.4 to 6 are exemplary diagrams for at least one multimedia data corresponding to user input data according to an embodiment of the present invention.

도 4와 같이 모래 사장과 바닷물결에 대한 드로잉 데이터(400)가 입력되면 도면부호 410, 420, 430, 440과 같은 후보 이미지 데이터들이 검색될 수 있다.As illustrated in FIG. 4, when the drawing data 400 for the sandy beach and the sea wave is input, candidate image data such as reference numerals 410, 420, 430, and 440 may be retrieved.

또한, 도 5의 도면부호 500과 같이 전경에 대한 사용자 입력 데이터로 배에 대한 드로잉 데이터가 입력되고, 배경에 대한 사용자 입력 데이터로 모래 사장과 바닷물결에 대한 드로잉 데이터가 입력되면 도면부호 510, 520, 530, 540과 같은 후보 이미지 데이터들이 검색될 수 있다.In addition, as shown by reference numeral 500 of FIG. 5, when the drawing data about the ship is input as the user input data for the foreground and the drawing data about the sandy beach and the sea wave is input as the user input data for the background, reference numerals 510 and 520. Candidate image data, such as 530, 540, may be retrieved.

한편, 도 6의 도면부호 600과 같이 전경에 대한 사용자 입력 데이터로 모래 사장과 바닷물결에 대한 드로잉 데이터가 입력되고, 배경에 대한 사용자 입력 데이터로 석양에 대한 이미지 데이터가 입력되면 도면부호 610, 620, 630, 640과 같은 후보 이미지 데이터들이 검색될 수 있다. 본 발명의 실시 예서는 입력 데이터로 사용자가 선택한 이미지 데이터를 이용할 수 있다. 예를 들어, 도 6과 같은 사용자 입력 데이터가 입력되면 제어부(10)는 전경에 대한 드로잉 데이터로부터 특징 정보를 추출하고, 배경에 대한 석양 이미지 데이터로부터 특징 정보를 추출하고, 두 특징 정보와 유사한 특징 정보를 가지는 적어도 하나의 이미지 데이터들(610, 620, 630, 640)을 검색할 수 있다.Meanwhile, as shown by reference numeral 600 of FIG. 6, when the drawing data for the sandy beach and the sea wave is input as the user input data for the foreground, and the image data for the sunset is input as the user input data for the background, reference numerals 610 and 620. Candidate image data such as 630, 640 may be retrieved. An embodiment of the present invention may use image data selected by a user as input data. For example, when user input data as shown in FIG. 6 is input, the controller 10 extracts feature information from drawing data of a foreground, extracts feature information from sunset image data of a background, and features similar to the two feature information. At least one image data 610, 620, 630, and 640 having information may be retrieved.

도 7은 본 발명의 실시 예에 따라 사용자 입력 데이터를 이용하여 동영상 데이터를 검색하는 과정을 설명하기 위한 예시도이다.7 is an exemplary diagram for describing a process of searching video data using user input data according to an exemplary embodiment of the present invention.

도 7과 같이 제어부(10)는 저장부(40)에 저장된 동영상 목록(700)에 포함된 각 동영상 데이터에 대응하여 하나 이상의 키프레임 데이터를 생성하고, 생성된 하나 이상의 키프레임 데이터에 대한 키프레임 목록(710)을 생성하여 저장부(40)에 저장한다. 여기서, 키프레임 데이터는 영화, 드라마와 같은 동영상의 화면 구성이 비슷한 장면 중 가장 대표적인 프레임을 의미한다. As illustrated in FIG. 7, the controller 10 generates one or more keyframe data corresponding to each video data included in the video list 700 stored in the storage 40, and keyframes for the generated one or more keyframe data. The list 710 is generated and stored in the storage unit 40. Here, the key frame data refers to the most representative frame among scenes with similar screen configurations of movies such as movies and dramas.

제어부(10)는 특징 정보 추출부(30)를 통해서 각 키프레임 데이터에 대한 특징 정보를 추출하고, 추출된 특징 정보와 각 키프레임 데이터를 대응시켜 저장부(40)에 저장한다.The controller 10 extracts feature information on each keyframe data through the feature information extractor 30, and stores the extracted feature information in correspondence with the keyframe data in the storage 40.

이후 사용자로부터 터치스크린부(50)를 통해서 도면부호 720과 같은 드로잉 데이터가 입력되면 제어부(10)는 드로잉 데이터를 인식하여 특징 정보를 추출하고, 추출된 특징 정보와 유사한 특징 정보에 해당하는 키프레임 데이터를 저장부(40)로부터 검색한다. 제어부(10)는 도면부호 730과 같이 검색된 적어도 하나의 후보 키프레임 데이터에 대한 리스트를 구성하여 터치스크린부(50)의 화면에 표시한다. 사용자로부터 터치스크린부(50)를 통해서 특정 키프레임 데이터에 대한 선택이 있으면 제어부(10)는 선택된 키프레임 데이터에 대응하는 동영상 데이터를 터치스크린부(50)의 화면에 표시한다.Then, when drawing data such as 720 is input from the user through the touch screen unit 50, the controller 10 recognizes the drawing data, extracts feature information, and keyframes corresponding to the feature information similar to the extracted feature information. The data is retrieved from the storage unit 40. The controller 10 constructs a list of at least one candidate keyframe data found as shown by reference numeral 730 and displays the list on the screen of the touch screen unit 50. If a user selects specific key frame data through the touch screen unit 50, the controller 10 displays video data corresponding to the selected key frame data on the screen of the touch screen unit 50.

도 8은 본 발명의 실시 예에 따라 선택된 멀티미디어 데이터를 이용하여 컨텐츠를 생성한 후 단말 기능에 따라 처리하는 과정을 설명하기 위한 예시도이다.8 is an exemplary diagram for describing a process of generating content using multimedia data selected according to an embodiment of the present invention and then processing the terminal according to a terminal function.

본 발명에서는 사용자의 요청에 따라 멀티미디어 데이터를 이용하여 생성된 컨텐츠에 단말기 기능을 적용하여 컨텐츠를 처리하는 처리 모드를 수행할 수 있다.According to the present invention, a processing mode for processing content may be performed by applying a terminal function to content generated using multimedia data according to a user's request.

도 8과 같이 후보 리스트 표시 영역 내에 적어도 하나의 후보 이미지 데이터가 표시되고, 사용자로부터 멀티미디어 데이터(800)에 대한 드래그하여 입력 영역 내 810의 위치에 붙여넣기하는 입력이 있으면 제어부(10)는 해당 입력 영역 내에 810의 위치에 선택된 이미지 데이터를 드래그 앤 페이스트한다. If at least one candidate image data is displayed in the candidate list display area as shown in FIG. 8, and there is an input for dragging the multimedia data 800 from the user and pasting it to a location of 810 in the input area, the controller 10 inputs the corresponding input. The selected image data is dragged and pasted at the position 810 in the area.

이후 사용자로부터 이미지 데이터에 대한 코멘트(820)와 이메일 주소(830), 편지지 모양의 드로잉(840)이 포함되는 사용자 입력 데이터가 입력되면 제어부(10)는 입력된 사용자 입력 데이터를 인식하고, 인식된 사용자 입력 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 예를 들어, 저장부(40)에 편지지 모양의 드로잉(840)에 이메일 송수신 기능에 대한 정보가 대응되어 저장된 경우 기능 검출부(70)는 이메일 송수신 기능 정보를 검출한다. 제어부(10)는 검출된 이메일 송수신 기능 정보에 따라 터치스크린부(50)의 화면에 표시된 컨텐츠 데이터를 인식된 이메일 주소(830)로 전송하는 이메일 송수신 기능을 수행한다.Thereafter, when user input data including a comment 820, an e-mail address 830, and a letter-shaped drawing 840 for image data is input from the user, the controller 10 recognizes the input user input data and recognizes the input user input data. The terminal function information corresponding to the user input data is detected through the function detector 70. For example, when information regarding the e-mail transmission / reception function is stored in the storage unit 40 in a letter-shaped drawing 840, the function detection unit 70 detects the e-mail transmission / reception function information. The controller 10 performs an email transmission / reception function of transmitting content data displayed on the screen of the touch screen unit 50 to the recognized email address 830 according to the detected email transmission / reception function information.

이를 통해서 사용자는 사용자가 원하는 멀티미디어 데이터를 보다 정확하게 검색할 수 있고, 더 나아가 검색된 멀티미디어 데이터를 이용하여 생성된 컨텐츠 데이터를 단말 기능을 이용하여 처리할 수 있게 된다.Through this, the user can more accurately search for the multimedia data desired by the user, and can further process the content data generated by using the retrieved multimedia data using the terminal function.

도 9는 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 이미지 데이터를 검색하기 위한 과정을 나타내는 흐름도이다.9 is a flowchart illustrating a process for searching for image data according to user input data according to an embodiment of the present invention.

도 9에 따르면, 900단계에서 제어부(10)는 카메라부(20)를 통해서 촬영 이미지 데이터를 입력받고, 901단계에서 입력된 이미지 데이터로부터 특징 정보 추출부(30)를 통해서 이미지 데이터에 대한 특징 정보를 추출한다. 이때, 특징 정보는 엣지 정보, 색상 정보를 포함한다.9, in operation 900, the control unit 10 receives the captured image data through the camera unit 20, and from the image data input in operation 901, the feature information about the image data through the feature information extractor 30. Extract In this case, the feature information includes edge information and color information.

902단계에서 제어부(10)는 추출된 특징 정보와 이미지 데이터를 대응시켜 저장부(40)에 저장한다.In step 902, the controller 10 associates the extracted feature information with image data and stores the same in the storage unit 40.

903단계에서 제어부(10)는 터치스크린부(50)로부터 사용자 입력 데이터가 수신되는지 여부를 판단하여 수신되면 904단계로 진행하고, 수신되지 않으면 903단계에서 사용자 입력 데이터가 수신되는지 여부를 계속적으로 판단한다.In step 903, the controller 10 determines whether user input data is received from the touch screen unit 50, and if so, proceeds to step 904. If not, the controller 10 continuously determines whether user input data is received in step 903. do.

사용자 입력 데이터가 입력되면 904단계에서 제어부(10)는 입력 데이터 인식부(60)를 통해서 사용자 입력 데이터를 인식하고, 특징 정보 추출부(30)를 통해서 사용자 입력 데이터에 대한 특징 정보를 추출한다. When the user input data is input, in step 904, the controller 10 recognizes the user input data through the input data recognition unit 60, and extracts feature information on the user input data through the feature information extractor 30.

905단계에서 제어부(10)는 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 적어도 하나의 후보 이미지 데이터를 저장부(40)로부터 검색한다.In operation 905, the controller 10 searches for at least one candidate image data having feature information similar to that of the extracted user input data from the storage 40.

906단계에서 제어부(10)는 검색된 적어도 하나의 후보 이미지 데이터에 대한 후보 이미지 리스트를 생성하고, 생성된 후보 이미지 리스트를 터치스크린부(50)의 표시 영역에 표시한다.In operation 906, the controller 10 generates a candidate image list for the retrieved at least one candidate image data, and displays the generated candidate image list on the display area of the touch screen unit 50.

907단계에서 제어부(10)는 터치스크린부(50)를 통해서 후보 이미지 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 판단하여 선택이 입력되면 908단계로 진행하고, 입력되지 않으면 907단계에서 후보 이미지 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 계속적으로 판단한다.In step 907, the controller 10 determines whether a selection of a candidate image list is input through the touch screen unit 50, and if the selection is input, the controller 10 proceeds to step 908. If not, the candidate image is input in step 907. It is continuously determined whether a selection for any one of the lists is input.

908단계에서 제어부(10)는 선택된 이미지 데이터를 터치스크린부(50)의 화면에 표시한 후 이미지 데이터 검색 과정을 종료한다.In step 908, the controller 10 displays the selected image data on the screen of the touch screen unit 50 and ends the image data search process.

도 10은 본 발명의 실시 예에 따라 사용자 입력 데이터에 따른 동영상 데이터를 검색하기 위한 과정을 나타내는 흐름도이다.10 is a flowchart illustrating a process for searching video data according to user input data according to an embodiment of the present invention.

1001단계에서 제어부(10)는 저장부(40)에 저장된 각 동영상 데이터에 대응하여 하나 이상의 키프레임 데이터를 특징 정보 추출부(30)를 통해서 생성한다.In step 1001, the controller 10 generates one or more keyframe data through the feature information extractor 30 corresponding to each video data stored in the storage 40.

1002단계에서 제어부(10)는 생성된 각 키프레임 데이터로부터 특징 정보를 특징 정보 추출부(30)를 통해서 추출한다.In step 1002, the controller 10 extracts feature information from the generated keyframe data through the feature information extractor 30.

1003단계에서 제어부(10)는 추출된 특징 정보와 생성된 키프레임 데이터를 대응시켜 저장부(40)에 저장한다.In step 1003, the controller 10 stores the extracted feature information and the generated keyframe data in the storage unit 40.

1004단계에서 제어부(10)는 터치스크린부(50)로부터 사용자 입력 데이터가 수신되는지 여부를 판단하여 수신되면 1005단계로 진행하고, 수신되지 않으면 1004단계에서 사용자 입력 데이터가 수신되는지 여부를 계속적으로 판단한다.In step 1004, the controller 10 determines whether user input data is received from the touch screen unit 50, and if so, proceeds to step 1005. If not, the controller 10 continuously determines whether user input data is received in step 1004. do.

사용자 입력 데이터가 입력되면 1005단계에서 제어부(10)는 입력 데이터 인식부(60)를 통해서 사용자 입력 데이터를 인식하고, 인식한 사용자 입력 데이터에 대한 특징 정보를 특징 정보 추출부(30)를 통해서 추출한다. When the user input data is input, in step 1005, the controller 10 recognizes the user input data through the input data recognition unit 60, and extracts feature information on the recognized user input data through the feature information extracting unit 30. do.

1006단계에서 제어부(10)는 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 적어도 하나의 후보 키프레임 데이터를 저장부(40)로부터 검색한다.In operation 1006, the controller 10 retrieves at least one candidate keyframe data having feature information similar to feature information about the extracted user input data from the storage 40.

1007단계에서 제어부(10)는 검색된 적어도 하나의 후보 키프레임 데이터에 대한 후보 키프레임 리스트를 생성하고, 생성된 후보 키프레임 리스트를 터치스크린부(50)의 표시 영역에 표시한다.In step 1007, the controller 10 generates a candidate keyframe list for the retrieved at least one candidate keyframe data, and displays the generated candidate keyframe list on the display area of the touch screen unit 50.

1008단계에서 제어부(10)는 터치스크린부(50)를 통해서 후보 키프레임 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 판단하여 선택이 입력되면 1009단계로 진행하고, 입력되지 않으면 1008단계에서 후보 키프레임 리스트 중 어느 하나에 대한 선택이 입력되는지 여부를 계속적으로 판단한다.In step 1008, the controller 10 determines whether a selection of a candidate keyframe list is input through the touch screen unit 50, and if the selection is input, the controller 10 proceeds to step 1009, and if not, the candidate in step 1008. It continuously determines whether a selection for any of the keyframe lists is input.

1009단계에서 제어부(10)는 선택된 키프레임 데이터에 대응하는 동영상 데이터를 저장부(40)로부터 검색하고, 검색된 동영상 데이터를 터치스크린부(50)의 화면에 표시한 후 이미지 데이터 검색 과정을 종료한다.In step 1009, the controller 10 searches for video data corresponding to the selected keyframe data from the storage 40, displays the searched video data on the screen of the touch screen unit 50, and then ends the image data search process. .

도 11은 본 발명의 실시 예에 따라 멀티미디어 데이터를 이용하여 생성된 컨텐츠를 사용자 입력 데이터에 대응하는 단말 기능으로 처리하기 위한 과정을 나타내는 흐름도이다.FIG. 11 is a flowchart illustrating a process for processing a content generated using multimedia data as a terminal function corresponding to user input data according to an embodiment of the present invention.

1100단계에서 제어부(10)는 멀티미디어 데이터 검색을 통해서 검색된 멀티미디어 데이터 중 사용자로부터 선택된 멀티미디어 데이터를 이용한 컨텐츠 데이터를 생성한다. 이러한 컨텐츠는 상기의 도 8에서 설명한 바와 같이 터치스크린부(50)의 화면에 표시된 이미지 데이터(810), 코멘트(820)가 포함된 컨텐츠 데이터를 의미한다.In operation 1100, the controller 10 generates content data using multimedia data selected from a user among the multimedia data searched through the multimedia data search. Such content refers to content data including image data 810 and comments 820 displayed on the screen of the touch screen unit 50 as described above with reference to FIG. 8.

1101단계에서 제어부(10)는 사용자 입력 데이터가 수신되는지 여부를 판단하여 사용자 입력 데이터가 수신되면 1102단계로 진행하고, 수신되지 않으면 1101단계에서 사용자 입력 데이터가 수신되는지 여부를 계속적으로 판단한다. 여기서, 사용자 입력 데이터는 도 8의 이메일 주소(830)와 편지지 모양의 드로잉 데이터(840)가 될 수 있다.In step 1101, the controller 10 determines whether the user input data is received. If the user input data is received, the controller 10 proceeds to step 1102. If not, the controller 10 continuously determines whether the user input data is received. Here, the user input data may be the email address 830 and the drawing data 840 in the form of stationery.

1102단계에서 제어부(10)는 입력 데이터 인식부(60)를 통해서 사용자 입력 데이터를 인식한다. 예를 들어, 입력 데이터 인식부(60)는 문자 인식부(61)를 통해서 이메일 주소를 인식하고, 엣지 인식부(62)를 통해서 드로잉 데이터를 인식할 수 있다.In operation 1102, the controller 10 recognizes user input data through the input data recognition unit 60. For example, the input data recognition unit 60 may recognize the e-mail address through the character recognition unit 61 and the drawing data through the edge recognition unit 62.

1103단계에서 제어부(10)는 인식된 사용자 데이터에 대응하여 미리 설정된 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 구체적으로, 제어부(10)는 인식된 사용자 입력 데이터와 유사한 인식 데이터에 대응하는 단말 기능 정보를 기능 검출부(70)를 통해서 검출한다. 예를 들어, 편지지 모양의 드로잉 데이터에 대응하여 이메일 기능이 설정된 경우 기능 검출부(70)는 인식된 편지지 모양의 드로잉 데이터에 대응하는 이메일 기능 정보를 검출한다.In step 1103, the controller 10 detects terminal function information, which is set in advance in response to the recognized user data, through the function detector 70. In detail, the controller 10 detects the terminal function information corresponding to the recognition data similar to the recognized user input data through the function detector 70. For example, when the e-mail function is set corresponding to the letter-shaped drawing data, the function detector 70 detects the e-mail function information corresponding to the recognized letter-shaped drawing data.

1104단계에서 제어부(10)는 검출된 단말 기능 정보에 해당하는 단말 기능 정보에 해당하는 단말 기능을 이용하여 생성된 컨텐츠 데이터를 처리한 후 컨텐츠 처리 과정을 종료한다. 구체적으로, 제어부(10)는 검출된 이메일 기능을 이용하여 인식된 이메일 주소로 상기의 컨텐츠 데이터를 전송한다. In step 1104, the controller 10 processes the content data generated using the terminal function corresponding to the terminal function information corresponding to the detected terminal function information, and then ends the content processing process. In detail, the controller 10 transmits the content data to the recognized email address using the detected email function.

이를 통해서 사용자는 사용자가 원하는 멀티미디어 데이터를 보다 정확하게 검색할 수 있고, 더 나아가 검색된 멀티미디어 데이터를 이용하여 생성된 컨텐츠 데이터를 단말 기능을 통해서 처리할 수 있게 된다.Through this, the user can more accurately search for the multimedia data desired by the user, and furthermore, the user can process the content data generated using the searched multimedia data through the terminal function.

10: 제어부
20: 카메라부
30: 특징 정보 추출부
31: 이미지 특징 추출부
32: 동영상 특징 추출부
40: 저장부
50: 터치 스크린부
60: 입력 데이터 인식부
61: 문자 인식부
62: 엣지 인식부
70: 기능 검출부
10:
20: camera unit
30: feature information extraction unit
31: image feature extraction unit
32: video feature extraction unit
40:
50: touch screen unit
60: input data recognition unit
61: character recognition unit
62: edge recognition unit
70: function detection unit

Claims (14)

사용자 입력 장치를 이용한 멀티미디어 검색 장치에 있어서,
터치 입력에 따라 사용자 입력 데이터를 출력하는 터치스크린부와,
하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 특징 정보 추출부와,
상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 저장부와,
상기 사용자 입력 데이터를 인식하는 입력 데이터 인식부와,
상기 특징 정보 추출부를 통해서 상기 사용자 입력 데이터에 대한 특징 정보를 추출하고, 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하여 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 상기 저장부로부터 검색한 후 상기 검색된 후보 멀티미디어 데이터를 제공하는 제어부를 포함하는 것을 특징으로 하는 멀티미디어 검색 장치.
In the multimedia search apparatus using a user input device,
A touch screen unit for outputting user input data according to a touch input;
A feature information extraction unit for extracting feature information about one or more multimedia data;
A storage unit for storing the multimedia data and the extracted feature information in correspondence with each other;
An input data recognition unit recognizing the user input data;
The feature information extractor extracts feature information on the user input data, and compares the feature information on the extracted user input data with the feature information on each multimedia data to obtain candidate multimedia data having similar feature information. And a control unit for providing the searched candidate multimedia data after searching from a storage unit.
제1항에 있어서, 상기 터치스크린부는,
전경(foreground)에 대한 사용자 입력 데이터와 배경(background)에 대한 사용자 입력 데이터를 구분하여 출력하는 것을 특징으로 하는 멀티미디어 검색 장치.
The method of claim 1, wherein the touch screen unit,
And outputting the user input data for the foreground and the user input data for the background.
제1항에 있어서, 상기 사용자 입력 데이터에 대한 특징 정보는,
엣지 데이터, 색상 데이터를 포함하는 것을 특징으로 하는 멀티미디어 검색 장치.
The method of claim 1, wherein the feature information about the user input data is:
Multimedia search apparatus comprising edge data, color data.
제1항에 있어서, 상기 특징 정보 추출부는,
상기 사용자 입력 데이터가 동영상 데이터인 경우 상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터를 생성하고, 상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 추출하는 것을 특징으로 하는 멀티미디어 검색 장치.
The method of claim 1, wherein the feature information extracting unit,
And generating at least one keyframe data for the moving image data and extracting feature information on the generated at least one keyframe data when the user input data is moving image data.
제4항에 있어서, 상기 저장부는,
상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터와 상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 대응시켜 저장하는 것을 특징으로 하는 멀티미디어 검색 장치.
The method of claim 4, wherein the storage unit,
And storing at least one keyframe data of the video data and feature information of the generated at least one keyframe data in correspondence with each other.
제5항에 있어서, 상기 제어부는,
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 키프레임 데이터에 대한 특징 정보를 비교하여 유사한 특징 정보를 가지는 후보 키프레임 데이터를 상기 저장부로부터 검색한 후 상기 검색된 후보 키프레임 데이터에 대응하는 동영상 데이터를 제공하는 것을 특징으로 하는 멀티미디어 검색 장치.
6. The apparatus of claim 5,
After comparing feature information on the extracted user input data and feature information on the keyframe data, the candidate keyframe data having similar feature information is searched from the storage unit, and then the video data corresponding to the retrieved candidate keyframe data. Multimedia search apparatus characterized in that it provides.
제1항에 있어서,
상기 인식된 사용자 입력 데이터에 대응하는 장치 기능 정보를 검출하는 기능 검출부를 더 포함하고,
상기 저장부는 적어도 하나의 인식 데이터에 대응하는 장치 기능 정보를 더 저장하며,
상기 제어부는 상기 제공된 후보 멀티미디어 데이터 중 선택된 적어도 하나의 후보 멀티미디어 데이터를 이용한 컨텐츠 데이터를 생성하고, 상기 저장부로부터 상기 인식된 사용자 입력 데이터에 대응하는 장치 기능 정보를 검출하도록 상기 기능 검출부를 제어한 후 상기 검출된 장치 기능 정보에 해당하는 장치 기능으로 컨텐츠 데이터를 처리하는 것을 특징으로 하는 멀티미디어 검색 장치.
The method of claim 1,
The apparatus may further include a function detector configured to detect device function information corresponding to the recognized user input data.
The storage unit further stores device function information corresponding to at least one piece of recognition data.
The controller generates content data using at least one candidate multimedia data selected from the provided candidate multimedia data, and controls the function detector to detect device function information corresponding to the recognized user input data from the storage. And processing content data by a device function corresponding to the detected device function information.
멀티미디어 검색 장치에서 사용자 입력 장치를 이용한 멀티미디어 검색 방법에 있어서,
하나 이상의 멀티미디어 데이터에 대한 특징 정보를 추출하는 과정과,
상기 각 멀티미디어 데이터와 상기 추출된 특징 정보를 대응시켜 저장하는 과정과,
터치 입력에 따라 사용자 입력 데이터를 수신하는 과정과,
상기 수신된 사용자 입력 데이터에 대한 특징 정보를 추출하는 과정과,
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 각 멀티미디어 데이터에 대한 특징 정보를 비교하는 과정과,
비교 결과 상기 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 후보 멀티미디어 데이터를 검색하는 과정과,
상기 검색된 후보 멀티미디어 데이터를 제공하는 과정을 포함함을 특징으로 하는 멀티미디어 검색 방법.
In the multimedia retrieval method using a user input device in the multimedia retrieval device,
Extracting feature information about one or more multimedia data;
Storing the multimedia data and the extracted feature information in correspondence with each other;
Receiving user input data according to a touch input;
Extracting feature information on the received user input data;
Comparing feature information on the extracted user input data with feature information on each multimedia data;
Searching for candidate multimedia data having feature information similar to that of the extracted user input data as a result of the comparison;
And providing the searched candidate multimedia data.
제8항에 있어서, 상기 사용자 입력 데이터를 수신하는 과정은,
전경(foreground)에 대한 사용자 입력 데이터와 배경(background)에 대한 사용자 입력 데이터를 구분하여 수신하는 과정임을 특징으로 하는 멀티미디어 검색 방법.
The method of claim 8, wherein the receiving of the user input data comprises:
And a process for distinguishing and receiving user input data for foreground and user input data for background.
제8항에 있어서, 상기 사용자 입력 데이터에 대한 특징 정보는,
엣지 데이터, 색상 데이터를 포함하는 것을 특징으로 하는 멀티미디어 검색 방법.
The method of claim 8, wherein the characteristic information about the user input data,
Multimedia search method comprising edge data, color data.
제8항에 있어서,
상기 사용자 입력 데이터가 동영상 데이터인 경우 상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터를 생성하는 과정과,
상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 추출하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.
9. The method of claim 8,
Generating at least one keyframe data for the video data when the user input data is video data;
And extracting feature information on the generated at least one keyframe data.
제11항에 있어서,
상기 동영상 데이터에 대한 적어도 하나의 키프레임 데이터와 상기 생성된 적어도 하나의 키프레임 데이터에 대한 특징 정보를 대응시켜 저장하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.
The method of claim 11,
And storing the at least one keyframe data of the video data and the feature information of the generated at least one keyframe data in correspondence with each other.
제12항에 있어서,
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 상기 키프레임 데이터에 대한 특징 정보를 비교하는 과정과,
상기 추출된 사용자 입력 데이터에 대한 특징 정보와 유사한 특징 정보를 가지는 후보 키프레임 데이터를 검색하는 과정과,
기 검색된 후보 키프레임 데이터에 대응하는 동영상 데이터를 제공하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.
The method of claim 12,
Comparing feature information on the extracted user input data with feature information on the keyframe data;
Retrieving candidate keyframe data having feature information similar to that of the extracted user input data;
And providing video data corresponding to the previously found candidate keyframe data.
제8항에 있어서,
상기 제공된 후보 멀티미디어 데이터 중 선택된 적어도 하나의 후보 멀티미디어 데이터를 이용한 컨텐츠 데이터를 생성하는 과정과,
적어도 하나의 인식 데이터에 대응하는 장치 기능 정보 중 상기 인식된 사용자 입력 데이터에 대응하는 장치 기능 정보를 검출하는 과정과,
상기 검출된 장치 기능 정보에 해당하는 장치 기능으로 컨텐츠 데이터를 처리하는 과정을 더 포함함을 특징으로 하는 멀티미디어 검색 방법.
9. The method of claim 8,
Generating content data using at least one candidate multimedia data selected from the provided candidate multimedia data;
Detecting device function information corresponding to the recognized user input data among device function information corresponding to at least one piece of recognition data;
And processing content data with a device function corresponding to the detected device function information.
KR1020110144902A 2011-12-28 2011-12-28 Apparatus and method for searching multimedia data according to user input KR101900303B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110144902A KR101900303B1 (en) 2011-12-28 2011-12-28 Apparatus and method for searching multimedia data according to user input

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110144902A KR101900303B1 (en) 2011-12-28 2011-12-28 Apparatus and method for searching multimedia data according to user input

Publications (2)

Publication Number Publication Date
KR20130076346A true KR20130076346A (en) 2013-07-08
KR101900303B1 KR101900303B1 (en) 2018-09-20

Family

ID=48989972

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110144902A KR101900303B1 (en) 2011-12-28 2011-12-28 Apparatus and method for searching multimedia data according to user input

Country Status (1)

Country Link
KR (1) KR101900303B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160035234A1 (en) 2014-07-29 2016-02-04 Samsung Electronics Co., Ltd. Server, information providing method of server, display apparatus, controlling method of display apparatus and information providing system
US9654685B2 (en) 2012-04-13 2017-05-16 Samsung Electronics Co., Ltd Camera apparatus and control method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9654685B2 (en) 2012-04-13 2017-05-16 Samsung Electronics Co., Ltd Camera apparatus and control method thereof
US20160035234A1 (en) 2014-07-29 2016-02-04 Samsung Electronics Co., Ltd. Server, information providing method of server, display apparatus, controlling method of display apparatus and information providing system
US10242586B2 (en) 2014-07-29 2019-03-26 Samsung Electronics Co., Ltd. Server, information providing method of server, display apparatus, controlling method of display apparatus and information providing system

Also Published As

Publication number Publication date
KR101900303B1 (en) 2018-09-20

Similar Documents

Publication Publication Date Title
US11157577B2 (en) Method for searching and device thereof
CN109189879B (en) Electronic book display method and device
US9244923B2 (en) Hypervideo browsing using links generated based on user-specified content features
US20150339348A1 (en) Search method and device
EP2613549A1 (en) Display apparatus, remote control apparatus, and searching methods therof
TW201322050A (en) Electronic device and read guiding method thereof
WO2015101289A1 (en) Image management method, apparatus and system
JP2004234228A (en) Image search device, keyword assignment method in image search device, and program
US11734370B2 (en) Method for searching and device thereof
TW201322049A (en) Electronic device and read guiding method thereof
CN112738556A (en) Video processing method and device
WO2019105457A1 (en) Image processing method, computer device and computer readable storage medium
KR20090068380A (en) Improved mobile communication terminal
CN110825928A (en) Searching method and device
JP2014229091A (en) Program for character input
TWI294100B (en) Mobile handset and the method of the character recognition on a mobile handset
EP3910496A1 (en) Search method and device
CN113869063A (en) Data recommendation method and device, electronic equipment and storage medium
US20170200062A1 (en) Method of determination of stable zones within an image stream, and portable device for implementing the method
KR101900303B1 (en) Apparatus and method for searching multimedia data according to user input
KR102408256B1 (en) Method for Searching and Device Thereof
KR20150097250A (en) Sketch retrieval system using tag information, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor
US10489460B2 (en) Method and apparatus for providing local search suggestion
KR20160125599A (en) Apparatus and methodology for an emotion event extraction and an emotion sketch based retrieval
US11328178B2 (en) System and method for automated photo-ideophone matching and placement

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right