KR20140121156A - Search Method by Object Recognition on Image and Search Server thereof - Google Patents

Search Method by Object Recognition on Image and Search Server thereof Download PDF

Info

Publication number
KR20140121156A
KR20140121156A KR20130037550A KR20130037550A KR20140121156A KR 20140121156 A KR20140121156 A KR 20140121156A KR 20130037550 A KR20130037550 A KR 20130037550A KR 20130037550 A KR20130037550 A KR 20130037550A KR 20140121156 A KR20140121156 A KR 20140121156A
Authority
KR
South Korea
Prior art keywords
image
search
user
target object
extracting
Prior art date
Application number
KR20130037550A
Other languages
Korean (ko)
Other versions
KR101462473B1 (en
Inventor
오유미
Original Assignee
주식회사 브이플랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이플랩 filed Critical 주식회사 브이플랩
Priority to KR1020130037550A priority Critical patent/KR101462473B1/en
Publication of KR20140121156A publication Critical patent/KR20140121156A/en
Application granted granted Critical
Publication of KR101462473B1 publication Critical patent/KR101462473B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/50Information retrieval; Database structures therefor; File system structures therefor of still image data
    • G06F16/58Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/583Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Library & Information Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

Disclosed is a search method by recognizing an object in an image. The search method of the present invention is able to recognize an object by separating the object which is selected by a user from an image and is also able to search content from a database based on the recognized image part. For the forementioned, the present invention proposes a method to extract an object in a method of grouping pixels having high coherence after calculating coherence between pixels based on color similarity, a pixel distance, etc. Furthermore, the method of the present invention is able to search content which has same or similar specific point information as an identifier from a database, etc. and provide the content by extracting the specific point information of an object if the corresponding object to be searched is selected from extracted objects.

Description

이미지상의 객체 인식을 통한 검색방법 및 그 검색방법에 의한 검색서버{Search Method by Object Recognition on Image and Search Server thereof}[0001] The present invention relates to a search method by object recognition on an image and a search server by the search method,

본 발명은 하나의 이미지 내에서 사용자가 선택한 객체를 분리하여 인식하고, 그 인식된 이미지 부분을 기반으로 하여 데이터베이스 상의 콘텐츠를 검색할 수 있는, 이미지상의 객체 인식을 통한 검색방법 및 그 검색방법에 의한 검색서버에 관한 것이다.
The present invention relates to a retrieval method and a retrieval method through object recognition on an image, in which an object selected by a user is separated and recognized in one image and a content on the database is retrieved based on the recognized image portion Search server.

컴퓨터 기술과 인터넷이 발달하면서 너무나 많은 콘텐츠가 정보화되어 축적되고 저장된다. 이러한 정보들은 하나의 통합 시스템 내에서 통일된 기준에 따라 체계적으로 데이터베이스화된 것이 아니므로, 더불어 검색의 중요성도 매우 높아지고 있으며, 다양한 검색 기술들이 개발되고 있다. With the development of computer technology and the Internet, too many contents are accumulated and stored. Since such information is not structured in a systematic manner in accordance with a unified standard in an integrated system, the importance of searching is also increasing, and various search techniques are being developed.

알려진 검색방법은 검색어로 '텍스트'를 사용하는 것이다. 검색어와 동일하거나 유사한 텍스트를 포함하는 콘텐츠를 제시하는 방법이다. 예컨대, 이미지를 검색하는 경우에도 검색어는 텍스트 형식으로 입력하고, 이미지들 중에서 해당 텍스트와 동일하거나 유사한 텍스트에 결합된 이미지를 추출하여 제시하는 방식이다. A known search method is to use 'text' as the search term. It is a method of presenting contents containing the same or similar text as a search word. For example, in the case of searching an image, a search word is input in a text format, and an image combined with a text identical or similar to the text in the images is extracted and presented.

하지만, 텍스트에 의한 검색에는 일정한 한계가 있다. 예컨대, 도 3의 (a)에서처럼, 어떤 옷을 촬영한 사진(p1)을 가진 사용자가 그 옷을 인터넷에서 검색하고 싶다고 하자. 사용자가 제시할 수 있는 정보는 이미지뿐이다. 더 정확히 말하면, 진짜 정보는 그 사진 이미지(p1) 내에 포함된 특정 객체(옷)의 이미지(p2)뿐이다. 이러한 경우, 현재 알려진 검색방법으로는 이미지 자체를 사용할 수 없고, 그 이미지에 대한 사용자 해석을 텍스트화 하여 텍스트 검색을 하는 방법뿐이다. However, there is a certain limit to the search by text. For example, as shown in Fig. 3 (a), let's say that a user having a picture p1 of a certain clothes wants to search for the clothes on the Internet. The only information the user can present is images. More precisely, the real information is only the image p2 of the specific object (clothes) contained in the photographic image p1. In this case, only the currently known search method can not use the image itself, and the user interprets the image as text and searches for text.

이처럼 종래에는 이미지를 검색어로 사용하는 검색 방법 중에서 실효성 있는 방법이 제시된 바가 없다. 이미지 검색은 텍스트인 검색어를 대신하여 검색 목적물이 될 이미지를 인식하고, 그 이미지로부터 특징 데이터를 추출하는 과정을 거쳐야 하며, 이러한 과정이 용이하지 않기 때문이다.
As described above, there is no effective method for searching images using an image as a search word. The image search is performed by recognizing an image to be a search object instead of a text search word, extracting feature data from the image, and this process is not easy.

[관련 기술 문헌][Related Technical Literature]

1. 대한민국 공개특허 제2002-0075600호 [이미지 검색방법과 장치] 1. Korean Patent Publication No. 2002-0075600 [Image Retrieval Method and Apparatus]

이 발명은 이미지 검색의 부정확한 결과를 보완하기 위하여, 1차 검색결과를 사용자에게 제시하여 유사 선택을 사용자가 하도록 한 다음, 2차 검색하여 검색 결과의 신뢰도를 높이는 방법에 관한 것으로서, 본 발명과 그 관점이 다름.
The present invention relates to a method for improving the reliability of a search result by performing a secondary search after a user makes a similar selection by presenting a primary search result to a user in order to compensate for an incorrect result of an image search. That perspective is different.

본 발명의 목적은, 하나의 이미지 내에서 사용자가 선택한 객체를 분리하여 인식하고, 그 인식된 이미지 부분을 기반으로 하여 데이터베이스 상의 콘텐츠를 검색할 수 있는, 이미지상의 객체 인식을 통한 검색방법 및 그 검색방법에 의한 검색서버를 제공함에 있다.
It is an object of the present invention to provide a search method and an image search method for recognizing an object selected by a user in an image and capable of searching contents in a database based on the recognized image portion, And a search server according to the method.

상기 목적을 달성하기 위한 본 발명에 따른 이미지상의 객체 인식을 통한 검색방법은, 객체추출부가 검색 대상이 되는 객체의 이미지가 포함된 기본 이미지를 사용자로부터 제공받는 단계; 상기 객체추출부가 상기 기본 이미지로부터 검색대상이 되는 대상 객체를 선택하는 선택명령을 사용자로부터 입력받고 상기 대상 객체를 인식하는 단계; 유사검색부가 상기 대상 객체로부터 특징점을 추출하고, 상기 특징점의 기하학적 배치 패턴에 대한 정보인 특징점 정보를 생성하는 단계; 상기 유사검색부가 데이터베이스로부터 상기 생성된 특징점 정보와 동일하거나 유사한 특징점 정보를 식별자로 가지는 콘텐츠를 검색하는 단계; 및 상기 유사검색부가 상기 검색된 콘텐츠를 상기 사용자에게 제공하는 단계를 포함한다.According to another aspect of the present invention, there is provided a method of searching through an object on an image, the method including: receiving a basic image including an image of an object to be searched, Receiving a selection command from the user to select a target object to be searched from the base image and recognizing the target object; Extracting a feature point from the target object and generating feature point information on the geometric arrangement pattern of the feature point; Retrieving a content having the same or similar minutia information as the generated minutia information from the database; And the similarity retrieval section providing the retrieved contents to the user.

실시 예에 따라, 상기 객체추출부의 대상 객체를 인식하는 단계는, (1) 상기 기본 이미지에 포함된 적어도 하나의 객체를 추출하고, (2) 상기 추출된 적어도 하나의 객체 중에서 상기 대상 객체를 선택하는 선택명령을 상기 사용자로부터 입력받는 다음, (3) 상기 대상 객체를 표시할 수도 있고, According to an embodiment of the present invention, the step of recognizing a target object of the object extracting unit includes the steps of (1) extracting at least one object included in the base image, (2) selecting the target object among the extracted at least one object, Receiving a selection command from the user, (3) displaying the target object,

다른 실시 예에 따라, (1) 객체 추출이 되지 않은 기본 이미지에서 상기 대상 객체의 이미지 영역을 선택하는 선택명령을 상기 사용자로부터 먼저 입력받고, (2) 상기 기본 이미지로부터 상기 선택된 영역을 포함하는 객체를 추출한 다음, (3) 상기 추출된 객체를 상기 대상 객체로 표시할 수도 있다. According to another embodiment, there is provided an image processing method comprising the steps of: (1) receiving a selection command for selecting an image area of the target object from a basic image that has not been extracted, from the user; (2) And (3) display the extracted object as the target object.

나아가, 상기 객체를 추출하는 단계는, (a) 상기 기본 이미지 상에서 기 설정된 기준에 따라 조합 가능한 복수 개의 픽셀 쌍을 선택하고, 상기 픽셀 쌍의 색상유사도와 픽셀간거리를 기초로 상기 픽셀 쌍 사이의 결합력을 계산하는 단계; (b) 상기 복수 개의 픽셀 쌍 중에서, 상기 계산된 결합력이 기 설정된 기준 값 이상인 픽셀 쌍을 필터링하고 나머지는 무시하는 단계; (c) 상기 필터링된 픽셀 쌍을 상호 연결하여 그룹핑하는 단계; 및 (d) 상기 그룹핑 단계에서 생성된 그룹 중에서 기준 크기 이상인 그룹을 상기 객체로 추출하고, 나머지는 무시하는 단계를 포함할 수 있다. 여기서, 상기 '색상유사도'는 상기 픽셀 쌍 내의 대비되는 두 개 픽셀의 색상 값의 유사도를 나타내고, 상기 '픽셀간거리'는 결합력을 구하는 두 개 픽셀 간의 상대적 거리를 나타내고, In addition, the step of extracting the object may include the steps of: (a) selecting a plurality of pixel pairs that can be combined according to a predetermined reference on the base image, and determining a binding force between the pixel pairs based on the color similarity of the pixel pair and the inter- ; (b) filtering, among the plurality of pixel pairs, a pair of pixels having the calculated binding force equal to or greater than a preset reference value, and ignoring the others; (c) interconnecting and grouping the filtered pixel pairs; And (d) extracting, from the group generated in the grouping step, a group having a reference size or more as the object, and ignoring the others. Here, the 'color similarity' represents the similarity of color values of two contrasting pixels in the pixel pair, the 'inter-pixel distance' represents a relative distance between two pixels for obtaining a binding force,

상기 결합력은 다음의 수학식,

Figure pat00001
으로부터 구할 수 있다.The binding force is expressed by the following equation,
Figure pat00001
.

본 발명의 다른 실시 예에 의하면, 이상의 기능을 수행하기 위하여, 데이터베이스와 연결되어 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버는 객체추출부와 유사검색부를 포함할 수 있다.
According to another embodiment of the present invention, a search server connected to a database and performing a search through object recognition on an image may include an object extraction unit and a similarity search unit.

본 발명의 이미지상의 객체 인식을 통한 검색방법은 제시된 이미지 내에서 사용자가 선택한 객체 영역을 인식하고, 그 인식된 객체 영역의 특징 데이터를 추출함으로써 해당 객체에 대한 정보를 추정함으로써, 이미지를 기반으로 하는 검색을 가능하게 한다. A retrieval method based on object recognition on an image of the present invention recognizes an object region selected by a user in the presented image and extracts feature data of the recognized object region to estimate information about the object, Search.

본 발명의 검색방법은
The search method of the present invention

도 1은 본 발명의 일 실시 예에 따른 검색시스템을 도시한 도면,
도 2는 본 발명의 이미지상의 객체 인식을 통한 검색방법의 설명에 제공되는 흐름도,
도 3은 기본 이미지와 대상 객체를 표시한 도면,
도 4는 본 발명의 객체 추출방법의 설명에 제공되는 흐름도, 그리고
도 5는 도 4의 객체 추출방법의 설명에 제공되는 도면이다.
1 shows a search system according to an embodiment of the present invention,
FIG. 2 is a flow chart for explaining a search method through object recognition on an image of the present invention;
3 is a diagram showing a basic image and a target object,
Figure 4 is a flow chart provided in the description of the object extraction method of the present invention, and
5 is a diagram provided in the description of the object extraction method of FIG.

이하 도면을 참조하여 본 발명을 더욱 상세히 설명한다.BEST MODE FOR CARRYING OUT THE INVENTION The present invention will be described in more detail with reference to the drawings.

본 발명의 검색방법은 다양한 하드웨어적 구성에 기반하여 동작할 수 있을 것이지만, 그 중에 하나는 도 1과 같은 인터넷을 기반으로 하는 것이다. 이러한 경우, 본 발명의 검색방법은, 데이터베이스(110)와, 검색 서버(130)와, 검색 서버(130)에 접속할 단말기(150)를 구비하는 검색 시스템(100)에서 구현되며, 이들은 인터넷(170)을 통해 상호 연결된다. The search method of the present invention may operate based on various hardware configurations, but one of them is based on the Internet as shown in FIG. In this case, the search method of the present invention is implemented in the search system 100 including the database 110, the search server 130, and the terminal 150 to be connected to the search server 130, ).

데이터베이스(110)에는 각종 콘텐츠(예컨대, 이미지)가 저장되어 있으며, 각 콘텐츠들은 아래에서 설명될 자신의 고유한 '특징점 정보'로 식별된다. 다시 말해, 검색 서버(130)는 '특징정 정보'를 조회하여 원하는 콘텐츠를 검색하게 된다. Various contents (e.g., images) are stored in the database 110, and each of the contents is identified by its own unique feature point information to be described below. In other words, the search server 130 searches for the desired content by querying the 'feature information'.

검색 서버(130)는 본 발명의 이미지 기반 검색을 위하여 객체추출부(131)와 유사검색부(133)를 구비한다. 객체추출부(131)와 유사검색부(133)의 동작은 아래에서 다시 설명한다.The search server 130 includes an object extraction unit 131 and a similarity search unit 133 for the image-based search of the present invention. The operation of the object extracting unit 131 and the similarity search unit 133 will be described below again.

당연하지만, 단말기(150)는 통상의 개인용 컴퓨터 이외에도 스마트 폰(Smart Phone)과 같은 모바일 단말기일 수 있다. 단말기(150)가 스마트 폰(Smart Phone)인 경우, 단말기(150)에는 검색 서버(130)와 연계하여 검색 서비스를 제공할 별도의 어플리케이션 프로그램(Application Program)이 설치될 수도 있다. Of course, the terminal 150 may be a mobile terminal such as a smart phone in addition to a normal personal computer. When the terminal 150 is a smart phone, the terminal 150 may be provided with an application program for providing a search service in connection with the search server 130. [

이러한 시스템(100)에서의 검색방법은 검색 서버(130)가 사용자가 제시하는 기본 이미지로부터 검색대상이 되는 대상 객체를 인식하고, 그 인식된 대상 객체와 유사한 콘텐츠를 데이터베이스(110)로부터 검색함으로써 수행된다. The search method in the system 100 is performed by the search server 130 recognizing the target object to be searched from the basic image presented by the user and searching the database 110 for a content similar to the recognized target object do.

이하에서는 도 2를 참조하여 본 발명의 검색방법을 더 자세하게 설명한다. 먼저 설명의 편리를 위해, 다음의 사항을 가정한다. 사용자가 도 3의 (a)와 같은 이미지(p1)상에 포착된 상의(p2)와 비슷하게 생긴 옷(정확히는 그에 대한 정보)을 인터넷을 통해 검색하기를 원한다고 가정하자. Hereinafter, the search method of the present invention will be described in more detail with reference to FIG. First, for convenience of explanation, the following matters are assumed. Suppose that the user desires to search the Internet for clothes (or information about it) that looks similar to the image p2 captured on the image p1 shown in Fig. 3 (a).

<기본 이미지 제시 : S201><Basic image presentation: S201>

기본 이미지는 결과적으로 검색의 대상이 되는 객체가 포함된 이미지로서, 도 3의 (a)의 이미지(p1)이다. The basic image is an image (p1) of Fig. 3 (a), which is an image including an object to be searched as a result.

사용자는 단말기(150)를 통하여 검색 서버(130)에 접속한 다음, 다양한 방식으로 기본 이미지를 검색 서버(130)에게 제공할 수 있다. 예컨대, (1) 인터넷(170)의 특정 웹 페이지에 존재하는 이미지의 URL을 직접 입력하는 방법 (2) 직접 촬영하거나 동영상 등에서 캡쳐하여 단말기(150)에 저장된 이미지를 검색 서버(130)로 업로드 하는 방법 등이 포함될 수 있다. The user may access the search server 130 through the terminal 150 and then provide a basic image to the search server 130 in various ways. (1) a method of directly inputting a URL of an image existing in a specific web page of the Internet 170 (2) a method of directly capturing the URL of the image present in the terminal 150, Method, and the like.

<'기본 이미지'로부터 적어도 하나의 객체(Object)를 추출 : S203>&Lt; S203 &gt; At least one object (Object) is extracted from the &

검색 서버(130)의 객체추출부(131)는 단말기(150)가 제공하는 기본 이미지로부터 인식 대상이 되는 객체를 추출한다. 예컨대, 도 3의 (a)의 기본 이미지(p1)에서 객체(p2, p3)를 추출하는 것이다. 객체추출부(131)의 동작을 중심으로 하는 객체 추출방법에 대하여는 아래에서 다시 설명한다. The object extracting unit 131 of the search server 130 extracts an object to be recognized from the basic image provided by the terminal 150. For example, the objects p2 and p3 are extracted from the base image p1 in Fig. 3A. The object extraction method based on the operation of the object extraction unit 131 will be described below again.

도 3의 (a)의 기본 이미지(p1)에서 두 개의 객체(p2, p3)를 추출한 객체추출부(131)는, 도 3의 (b)처럼 사용자가 인식할 수 있도록 객체(p2, p3)의 외곽선을 별도로 표시하여 구분되도록 할 수 있다. The object extracting unit 131 extracts the two objects p2 and p3 from the base image p1 shown in FIG. 3A and outputs the objects p2 and p3 to the user as shown in FIG. It is possible to separately display and distinguish the outline of the image.

객체추출부(131)가 추출한 객체를 사용자에게 표시하는 방법은 도 3의 (b)와 같이 외곽선을 별도로 표시하는 방법 이외에도, 추출된 객체만을 컬러로 표시하고 나머지는 무채색으로 표시하는 방법 등이 해당할 수 있다. The method of displaying the object extracted by the object extracting unit 131 to the user is not limited to the method of separately displaying the outline as shown in FIG. 3 (b), the method of displaying only the extracted object in color, can do.

<검색대상의 선택: S205><Selection of Search Object: S205>

S203 단계에서 객체추출부(131)가 기본 이미지(p1)로부터 객체를 추출하여 사용자에게 표시하면, 유사검색부(133)는 표시된 적어도 하나의 객체 중 하나를 선택하는 '선택명령'을 사용자로부터 입력받는다. 이하에서는 설명의 편리를 위해, 사용자가 선택한 객체, 즉 검색의 대상이 되는 객체를 '대상 객체(Target Object)'라 한다. 또한, 사용자가 도 3의 (b)에서 객체 p2를 대상 객체로 선택했다고 가정한다.If the object extracting unit 131 extracts the object from the basic image p1 and displays it to the user in step S203, the similarity search unit 133 may input a 'selection command' for selecting one of the displayed at least one object from the user Receive. Hereinafter, for convenience of description, an object selected by the user, that is, an object to be searched is referred to as a 'target object'. It is also assumed that the user has selected the object p2 as the target object in FIG. 3 (b).

<이미지 기반 검색 : S207><Image based search: S207>

유사검색부(133)는 사용자가 선택한 대상 객체(p2)로부터 '특징점 정보'를 생성하여, 추출한 특징점 정보와 동일하거나 유사한 특징점 정보를 가지는 콘텐츠를 데이터베이스(110)에서 검색하게 된다. 여기서, 특징점 정보는 대상 객체(p3)가 가지는 특징점들의 기하학적 배치 패턴(형태)에 대한 정보를 말하며, 실시 예에 따라 색상 정보도 특징점 정보에 포함될 수 있다. The similarity search unit 133 generates 'minutia information' from the target object p2 selected by the user and searches the database 110 for a content having minutia information identical or similar to the extracted minutia information. Herein, the minutia information is information on the geometrical arrangement pattern (shape) of the minutiae points of the target object p3, and color information may also be included in the minutia information according to the embodiment.

이를 위해, 유사검색부(133)는 먼저 대상 객체(p2)로부터 특징점을 추출한 다음, 검출된 특징점들의 기하학적 배치 패턴 정보, 즉 '특징점 정보'를 수집한다. 특징점 추출 및 특징점 정보 생성은 다양한 방법으로 가능할 것이다. 예컨대, 기본 이미지(p1) 내의 대상 객체(p2)에서 주변 픽셀들과 색상 특성이 독특한(많이 다른) 지점을 특징점으로 검출할 수 있다. To this end, the similarity search unit 133 first extracts feature points from the target object p2, and then collects geometric arrangement pattern information of the detected feature points, that is, 'feature point information'. Extracting feature points and generating feature point information will be possible in various ways. For example, in the target object p2 in the base image p1, a point having unique (much different) color characteristics from surrounding pixels can be detected as a feature point.

유사검색부(133)는 대상 객체(p2)로부터 '특징점 정보'를 생성하면, 생성한 특징점 정보와 동일하거나 유사한 특징점 정보를 식별자로 가지는 콘텐츠를 데이터베이스(110)에서 검색한다. When the 'similarity search unit 133 generates' minutia information' from the target object p2, the similarity searching unit 133 searches the database 110 for a content having minutia information identical or similar to the generated minutia information as an identifier.

앞서 설명한 바와 같이, 데이터베이스(110)에는 이미 복수 개의 콘텐츠가 저장되어 있으며, 이들의 식별자는 각각에 고유한 특징점 정보가 된다. 저장된 콘텐츠가 이미지인 경우, 식별자가 되는 특징점 정보는 그 이미지 내에 포함된 객체 중 하나의 특징점 정보일 수 있다. As described above, a plurality of contents are already stored in the database 110, and the identifiers are unique minutia information. If the stored content is an image, the minutia information to be an identifier may be minutia information of one of the objects included in the image.

일반적으로 동일한 특징점 정보를 가지기는 어렵고 대부분은 일정한 유사도 범위 내의 특징점 정보를 가지는 모든 콘텐츠가 검색될 수 있다. 특징점 정보가 특징점의 기하학적 배치 패턴(실시 예에 따라, 색상 포함)에 관한 것이므로, 일반적으로 대상 객체(p3)의 형태적 특징을 대표하게 된다. 따라서 유사검색부(133)의 검색은 비슷한 형태를 가지는 객체가 포함된 이미지를 검색하는 것과 동일한 것이 된다. In general, all contents having minutia information within a certain range of similarity can be searched. Since the minutia information is related to the geometric arrangement pattern of the minutiae (including color according to the embodiment), it generally represents the morphological characteristic of the target object p3. Therefore, the search of the similarity search unit 133 is the same as the search of an image including an object having a similar shape.

<검색결과 제공 : S209><Search result provided: S209>

유사검색부(133)는 데이터베이스(110)를 검색한 결과를 단말기(150)에게 전송하거나 웹페이지 등을 통해 사용자에게 제공한다. The similarity search unit 133 transmits the search result of the database 110 to the terminal 150 or provides the result to the user through a web page or the like.

도 3의 예로 돌아가면, 데이터베이스(110)에는 각종 쇼핑몰에서 판매하는 옷들의 이미지와, 그 옷을 판매하는 판매자 정보 및 가격 정보가 함께 저장될 수 있다. 유사검색부(133)는 도 3의 (b)에서 사용자가 선택한 대상객체(p2)와 유사한 형태적 특징을 가지는 옷을 검색하고, 그 옷을 판매하는 판매자에 대한 정보 및 가격 정보를 함께 제공해 줄 수 있다.Returning to the example of FIG. 3, the database 110 stores images of clothes sold in various shopping malls, seller information and price information for selling the clothes together. The similarity search unit 133 searches clothes having similar morphological characteristics to the target object p2 selected by the user in (b) of FIG. 3, and provides information about sellers and price information together .

특징점 정보에 매핑된 데이터에 따라 다양한 실시 예가 가능하다. 예컨대, 데이터베이스(110)에 해당 특징점에 매핑되어 음원 데이터나 음성 데이터가 저장된 경우에, 유사검색부(133)는 특징점 정보와 임계 범위 내에서 유사한 특징점 정보를 식별자로 가지는 음원 또는 음성 데이터를 추출하여 재생하는 서비스를 제공할 수도 있다. Various embodiments are possible depending on the data mapped to minutia information. For example, when sound source data or voice data is mapped to the corresponding minutiae in the database 110, the similarity search unit 133 extracts minutia information or voice data having similar minutia information within the critical range as identifiers And may provide a service to reproduce.

이상의 방법으로 본 발명의 이미지 기반 검색이 수행된다. In this way, the image-based search of the present invention is performed.

도 2의 검색방법은 객체추출부(131)가 기본 이미지 내의 모든 객체를 추출하여 표시하고, 그로부터 검색대상이 될 대상 객체를 선택명령으로 확인하는 방법이 제시되었으나, 반드시 이에 한정되지 아니한다. 예컨대, 객체추출부(131)는 객체 추출이 선행되지 않은 기본 이미지(p1)를 그대로 사용자에게 표시하고, 사용자가 자신이 원하는 객체의 일부분을 선택하는 선택명령을 입력받아 해당 선택된 영역을 포함하는 객체를 대상 객체로 바로 인식하는 과정을 수행할 수도 있다. In the search method of FIG. 2, the object extracting unit 131 extracts all the objects in the basic image and displays the objects, and then confirms the target object to be searched as a selection command. However, the method is not limited thereto. For example, the object extracting unit 131 displays the basic image p1, which is not preceded by the object extraction, to the user as it is, receives a selection command for selecting a part of the object that the user desires, As a target object.

나아가, 본 발명의 검색방법이 반드시 도 1의 시스템(100)을 기반으로 하지 않아도 무방하다. 예컨대, 객체추출부(131)과 유사검색부(133)에 대응되는 구성을 포함하는 하나의 장치가 장치 내에 저장된 정보 중에서 하나를 검색하기 위한 방법으로 본 발명이 제시될 수도 있다.
Furthermore, the search method of the present invention does not necessarily have to be based on the system 100 of FIG. For example, the present invention may be presented as a method for one of devices including a configuration corresponding to the object extraction unit 131 and the similarity search unit 133 to search for one of information stored in the device.

이하에서는 도 4 및 도 5를 참조하여 객체추출부(131)의 객체추출방법을 설명한다. Hereinafter, an object extraction method of the object extraction unit 131 will be described with reference to FIGS.

객체추출부(131)는 픽셀(Pixel) 간의 '결합력'을 계산하여 결합력이 높은 픽셀끼리 그룹화하는 방식으로 객체를 추출한다. 여기서, 결합력은 대비되는 두 개의 픽셀 간의 결합 정도에 관한 상대적인 값으로서 동일한 객체에 속할 정도를 나타낸다. 객체추출부(131)는 두 개 픽셀이 비슷한 색상을 가지고 그 사이 거리가 가까울수록 높은 결합력, 다시 말해 동일한 객체에 속하는 것으로 판단한다. 마지막으로, 객체추출부(131)는 결합된 그룹의 크기가 기 설정된 크기 이상인 것만 객체로 인식하고, 기 설정된 크기보다 작은 것은 객체로 인식하지 않고 무시한다. The object extracting unit 131 calculates the 'binding force' between the pixels and extracts the objects by grouping the pixels having high bonding power. Here, the bonding force represents a degree of belonging to the same object as a relative value with respect to the degree of coupling between two contrasting pixels. The object extracting unit 131 determines that the two pixels have similar colors and the closer the distance therebetween, the higher the binding force, that is, belongs to the same object. Finally, the object extracting unit 131 recognizes only the objects having a size of the combined group equal to or larger than a predetermined size, and ignores objects smaller than the predetermined size as objects.

<픽셀 간의 결합력 계산: S401><Calculation of Bonding Force between Pixels: S401>

도 4를 참조하면, 객체추출부(131)는 기본 이미지(p1) 내의 전체 픽셀에서 임의의 기준으로 선택한 두 개의 픽셀로 조합 가능한 모든 복수 개의 가상 픽셀 쌍에 대한 결합력을 계산한다. 여기서, 픽셀 쌍의 조합은 (1) 중복되지 않는 모든 경우를 포함할 수도 있고, (2) 두 개 픽셀 간의 거리가 일정한 범위 내에 있는 경우로서 중복되지 않는 것이 해당할 수도 있다. 결합력은 다음의 수학식 1을 이용하여 구할 수 있다.Referring to FIG. 4, the object extracting unit 131 calculates a binding force for all of a plurality of virtual pixel pairs that can be combined with two pixels selected as an arbitrary reference in all pixels in the base image p1. Here, the combination of the pixel pairs may include (1) all cases where the pixels are not overlapped, and (2) the case where the distance between the two pixels is within a certain range may not be overlapped. The bonding force can be obtained by using the following equation (1).

Figure pat00002
Figure pat00002

여기서, '색상유사도'는 대비되는 픽셀 쌍에 포함된 두 개 픽셀의 색상 값의 유사도를 나타내고, '픽셀간거리'는 픽셀 쌍에 포함된 두 개 픽셀 간의 상대적 거리를 나타낸다. 따라서 결합력은 두 개 픽셀의 관계에 대한 값으로서, 두 개 픽셀의 색상이 유사하고 두 픽셀간 거리가 가까울수록 큰 값을 가진다. 이로써 결합력은 픽셀 쌍에 포함된 두 개 픽셀 간의 결합 정도에 관한 상대적인 값으로 정의할 수 있고, 색상유사도에 비례하고 픽셀간거리에 반비례한다.Here, 'color similarity' represents a degree of similarity between the color values of two pixels included in the pair of contrasting pixels, and 'distance between pixels' represents a relative distance between two pixels included in the pair of pixels. Therefore, the binding force is a value for the relationship of two pixels, and the color of two pixels is similar and the closer the distance between the two pixels is, the larger the value is. Thus, the binding force can be defined as a relative value relative to the degree of coupling between two pixels included in a pixel pair, proportional to the color similarity and inversely proportional to the distance between the pixels.

<유효한 결합력을 가지는 픽셀 쌍을 추출: S403>&Lt; Extracting pixel pairs having effective binding force: S403 >

객체추출부(131)는 S401 단계에서 계산한 결합력이 기 설정된 기준값 이상이 픽셀 쌍을 필터링하여 추출하고, 결합력이 기 설정된 기준값보다 작은 픽셀 쌍은 무시하고 고려하지 않는다. 여기서, 기준값은 실험적으로 구할 수 있다.The object extracting unit 131 filters and extracts the pixel pairs having the binding force calculated in step S401 by a predetermined reference value or more and ignores the pixel pairs having a binding force smaller than the predetermined reference value. Here, the reference value can be obtained experimentally.

이러한 과정을 통해, 색상이 크게 다르거나 그 거리가 멀리 배치된 픽셀 쌍은 배제되고, 결합력이 강한 픽셀 쌍만 남게된다.
Through this process, pixel pairs with greatly different colors or with their distances far removed are excluded, leaving only a pair of stronger pixels.

<픽셀 쌍을 기반으로 한 그룹핑: S405> <Grouping based on pixel pairs: S405>

객체추출부(131)는 S403 단계를 통과한 결합력 강한 픽셀 쌍을 상호 연결하는 그룹핑을 수행한다. 따라서 그룹핑은 일정한 수준 이상의 결합력을 가지는 픽셀 쌍을 대상으로 수행된다. 그룹핑은 S403 단계를 통과한 결합력 강한 픽셀 쌍 내의 두 개 픽셀이 동일한 객체 내에 포함된 것으로 표시함으로써 이루어진다. The object extracting unit 131 performs grouping to connect the stronger pixel pairs having passed the step S403. Therefore, grouping is performed on a pair of pixels having a certain level of cohesion. The grouping is performed by marking that two pixels in the cohesive strong pixel pair that passed step S403 are included in the same object.

예를 들어, 도 5가 8×8 픽셀 크기의 이미지라 가정해 보자. 도 5는 너무 작은 이미지이므로 위에서 설명한 픽셀 쌍의 조합 중 (2)에 따라 직접 접한 픽셀끼리의 픽셀 쌍에 대해서만 결합력을 구한 것으로 가정한다. 예컨대, 픽셀 x2의 결합력 측정은 직접 접한 8 개의 픽셀(x1, x3, x4, x7, x8, x14, x15, x16)과만 진행하고, 1 픽셀 거리보다 더 떨어진 x5나 x17 등과는 결합력을 측정하지 않은 것이다.For example, suppose that FIG. 5 is an 8x8 pixel sized image. Since the image shown in FIG. 5 is too small, it is assumed that the binding force is obtained only for a pair of pixels directly adjacent to each other according to (2) of the pixel pair combination described above. For example, the measurement of the bonding force of the pixel x2 proceeds only with eight pixels (x1, x3, x4, x7, x8, x14, x15, x16) which are in direct contact with each other and not with the x5 or x17 will be.

픽셀 쌍(x1, x2), (x1, x3), (x3, x4), (x3, x5), (x4, x6), (x9, x10), (x10, x11), (x9, x12), (x12, 13) 등은 강한 결합력을 가지는 픽셀 쌍이고, 픽셀 쌍(x14, x15)도 결합력이 기준값 이상이라고 가정한다. 그러나 픽셀 쌍(x2, x7), (x7, x9), (x4, x8), (x8, x12) 등은 결합력이 약한 픽셀 쌍이며, 색깔이 동일한 픽셀 쌍(x2, x9), (x3, x13)도 결합력이 약한 픽셀 쌍이라고 가정한다. (X1, x2), (x1, x3), (x3, x4), (x3, x5), (x4, x6) (x12, 13) and the like are a pair of pixels having a strong coupling force, and the pair of pixels (x14, x15) is also assumed to have a coupling force equal to or greater than a reference value. The pixel pairs (x2, x7), (x7, x9), (x4, x8), (x8, x12) ) Is also assumed to be a weak pixel pair.

픽셀 쌍(x1, x2), (x1, x3)에 의해, 픽셀 x1과 x2이 동일한 객체 내에 속하고, 픽셀 x1과 x3이 동일한 객체에 속하므로, 픽셀 x1, x2, x3이 같은 그룹으로 그룹핑 된다. 이들 픽셀 x1, x2, x3 중 어느 하나와 강한 결합력을 가지는 픽셀 쌍, (x3, x4), (x3, x5)도 이들과 그룹이 되며, 픽셀 x4나 x5와 강한 결합력을 가지는 x6도 하나의 그룹으로 합쳐진다. 하지만, 픽셀 x7, x8 등은 x1 내지 x6 중 어느 픽셀과도 결합력을 가지지 못하므로 같은 그룹으로 합쳐지지 못한다. 픽셀 x9가 비록 이들 그룹의 픽셀들과 색상 유사도가 높다고 하더라도 픽셀 간 거리에 의해 결합력이 약하므로, 같은 그룹이 되지 못하고 별도의 그룹을 형성하게 된다. 만약, 픽셀 x7과 x8이 강한 결합력이 있다면, 픽셀 x7과 x8도 하나의 그룹으로 그룹핑 될 것이다. Because pixels x1 and x2 belong to the same object and pixels x1 and x3 belong to the same object, pixel x1, x2, and x3 are grouped into the same group by the pixel pair (x1, x2), (x1, x3). (X3, x4), (x3, x5) having a strong coupling force with any one of these pixels x1, x2, and x3 are grouped into these groups, and x6, which has a strong coupling force with the pixels x4 and x5, . However, the pixels x7, x8, etc. do not have the coupling force with any of the pixels x1 to x6, and therefore they can not be combined into the same group. Even though the pixel x9 has high color similarity with the pixels of these groups, the bonding force is weak due to the distance between the pixels, so that the same group can not be formed and a separate group is formed. If pixels x7 and x8 have strong cohesion, pixels x7 and x8 will also be grouped into one group.

이러한 그룹핑 과정을 통해 형성된 그룹들이 객체가 된다. Groups formed through this grouping process become objects.

<작은 그룹이나 배경의 배제: S407> <Exclusion of small group or background: S407>

객체추출부(131)는 S405 단계를 거쳐 생성된 그룹들 중에서 그 그룹의 크기가 기 설정된 크기 이하인 그룹은 객체로 인식하지 않고 잡음(Noise)으로 판단하여 무시할 수 있다. 예를 들어, 비록 픽셀 x7과 x8이 강한 결합력이 있다 하더라도, 픽셀 x7과 x8을 하나의 객체로 인식하지 않고 무시하는 것이다. The object extracting unit 131 may determine that the group having the size smaller than the predetermined size among the groups generated through the step S405 does not recognize the object as noise and ignores it as noise. For example, even though pixels x7 and x8 have strong cohesion, pixels x7 and x8 are ignored instead of being recognized as a single object.

도 5를 참조하면, 객체추출부(131)는 이러한 과정을 거쳐 도 5로부터 모두 4개의 그룹, 즉 4 개의 객체를 추출하고 인식한 것이다. 또 도 3의 (b)는 기본 이미지(p1)의 오른쪽 부분에 위치한 신발이 그 크기가 작아 객체로 인식되지 않고 무시된 예에 해당한다. 만약, 기준 크기를 줄인다면 신발도 객체로 인식될 수 있을 것이다. Referring to FIG. 5, the object extracting unit 131 extracts and recognizes all four groups, that is, four objects, from FIG. 5 through such a process. 3 (b) corresponds to an example in which the shoe located at the right side of the basic image p1 is not recognized as an object because its size is small and is ignored. If the reference size is reduced, the shoe can be recognized as an object.

또한, 객체추출부(131)은 배경을 객체로 인정하지 아니하고 무시한다. 이미지에서 배경을 인식하는 방법은 종래에 알려진 방법으로 수행할 수 있다. 예컨대 도 3의 경우처럼, 이미지의 가장자리로부터 이어지는 부분은 배경으로 인식된다. 흑백 이미지로 도시된 도 3의 객체(p2)는 청색 계열이고 객체(p3)은 흰색 계열이어서, 별개의 객체로 인식된다. 그러나 나머지 부분은 기본 이미지(p1)의 가장자리부터 이어지는 갈색부분이 배경으로 처리되었다. Also, the object extracting unit 131 does not recognize the background as an object but ignores it. A method of recognizing a background in an image can be performed by a method known in the art. For example, as in the case of Fig. 3, the portion extending from the edge of the image is recognized as the background. The object p2 in FIG. 3 shown in black and white image is a blue series and the object p3 is a white series, and is recognized as a separate object. However, the remaining part is treated as the background of the brown part extending from the edge of the basic image (p1).

이상의 방법으로 본 발명의 기본 이미지로부터 객체를 추출하는 방법이 수행된다.In this way, a method of extracting an object from the basic image of the present invention is performed.

<다른 실시 예><Other Embodiments>

본 발명의 다른 실시 예에 의하면, 데이터베이스에 저장된 콘텐츠가 이미지인 경우에, 특징점 정보 이외에 기본 이미지 촬영장소, 대상 객체의 외곽성 형태, 그리고 앞에서 언급한 색상 정보, 명암 정보 등을 추가적인 식별자로 구비할 수 있다. According to another embodiment of the present invention, in the case where the content stored in the database is an image, in addition to the minutia information, a basic image photographing location, an outline form of the target object, and color information, contrast information, .

이에 따라, S207 단계에서 유사검색부(133)가 데이터베이스(110)를 검색할 때에, 특징점 정보 이외에 기본 이미지(p1)가 촬영된 장소 정보, 외곽선 형태정보, 및 색상 정보 등을 모두 이용하여 검색함으로써 검색의 신뢰도를 높일 수 있다.
Accordingly, when the similarity search unit 133 searches the database 110 in step S207, the basic image p1 is searched using both the location information on which the basic image p1 was shot, the outline form information, and the color information in addition to the minutia information The reliability of the search can be increased.

이상에서는 본 발명의 바람직한 실시 예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시 예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안 될 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is clearly understood that the same is by way of illustration and example only and is not to be construed as limiting the scope of the invention as defined by the appended claims. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention.

Claims (10)

객체추출부가 검색 대상이 되는 객체의 이미지가 포함된 기본 이미지를 사용자로부터 제공받는 단계;
상기 객체추출부가 상기 기본 이미지로부터 검색대상이 되는 대상 객체를 선택하는 선택명령을 사용자로부터 입력받고 상기 대상 객체를 인식하는 단계;
유사검색부가 상기 대상 객체로부터 특징점을 추출하고, 상기 특징점의 기하학적 배치 패턴에 대한 정보인 특징점 정보를 생성하는 단계;
상기 유사검색부가 데이터베이스로부터 상기 생성된 특징점 정보와 동일하거나 유사한 특징점 정보를 식별자로 가지는 콘텐츠를 검색하는 단계; 및
상기 유사검색부가 상기 검색된 콘텐츠를 상기 사용자에게 제공하는 단계를 포함하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색방법.
Receiving a basic image including an image of an object to be searched by an object extraction unit from a user;
Receiving a selection command from the user to select a target object to be searched from the base image and recognizing the target object;
Extracting a feature point from the target object and generating feature point information on the geometric arrangement pattern of the feature point;
Retrieving a content having the same or similar minutia information as the generated minutia information from the database; And
Wherein the similarity retrieving unit provides the retrieved contents to the user.
제1항에 있어서,
상기 객체추출부의 대상 객체를 인식하는 단계는,
(1) 상기 기본 이미지에 포함된 적어도 하나의 객체를 추출하는 객체추출 단계;
(2) 상기 추출된 적어도 하나의 객체 중에서 상기 대상 객체를 선택하는 선택명령을 상기 사용자로부터 입력받는 선택단계; 및
(3) 상기 대상 객체를 표시하는 표시단계를 포함하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색방법.
The method according to claim 1,
Wherein the step of recognizing a target object of the object extracting unit comprises:
(1) extracting at least one object included in the basic image;
(2) receiving a selection command from the user to select the target object from among the extracted at least one object; And
(3) a display step of displaying the target object.
제1항에 있어서,
상기 객체추출부의 대상 객체를 인식하는 단계는,
(1) 상기 기본 이미지에서 상기 대상 객체의 이미지 영역을 선택하는 선택명령을 상기 사용자로부터 입력받는 선택단계;
(2) 상기 기본 이미지로부터 상기 선택된 영역을 포함하는 객체를 추출하는 객체추출 단계; 및
(3) 상기 추출된 객체를 상기 대상 객체로 표시하는 표시단계를 포함하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색방법.
The method according to claim 1,
Wherein the step of recognizing a target object of the object extracting unit comprises:
(1) receiving a selection command from the user to select an image area of the target object in the basic image;
(2) extracting an object including the selected region from the base image; And
(3) a display step of displaying the extracted object as the target object.
제2항 또는 제3항에 있어서,
상기 객체추출 단계는,
(a) 상기 기본 이미지 상에서 기 설정된 기준에 따라 조합 가능한 복수 개의 픽셀 쌍을 선택하고, 상기 픽셀 쌍의 색상유사도와 픽셀간거리를 기초로 상기 픽셀 쌍 사이의 결합력을 계산하는 단계;
(b) 상기 복수 개의 픽셀 쌍 중에서, 상기 계산된 결합력이 기 설정된 기준 값 이상인 픽셀 쌍을 필터링하고 나머지는 무시하는 단계;
(c) 상기 필터링된 픽셀 쌍을 상호 연결하여 그룹핑하는 단계; 및
(d) 상기 (c) 단계에서 생성된 그룹 중에서 기준 크기 이상인 그룹을 상기 객체로 추출하고, 나머지는 무시하는 단계를 포함하고,
상기 '색상유사도'는 상기 픽셀 쌍 내의 대비되는 두 개 픽셀의 색상 값의 유사도를 나타내고, 상기 '픽셀간거리'는 결합력을 구하는 두 개 픽셀 간의 상대적 거리를 나타내고,
상기 결합력은 다음의 수학식,
Figure pat00003

으로 구하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색방법.
The method according to claim 2 or 3,
In the object extracting step,
(a) selecting a plurality of pixel pairs that can be combined according to a predetermined reference on the basic image, and calculating a binding force between the pixel pairs based on the color similarity of the pixel pairs and the inter-pixel distance;
(b) filtering, among the plurality of pixel pairs, a pair of pixels having the calculated binding force equal to or greater than a preset reference value, and ignoring the others;
(c) interconnecting and grouping the filtered pixel pairs; And
(d) extracting, from the group generated in the step (c), a group having a reference size or more as the object and ignoring the rest,
The 'color similarity' represents the similarity of color values of two contrasting pixels in the pixel pair, and the 'inter-pixel distance' represents a relative distance between two pixels for obtaining a binding force,
The binding force is expressed by the following equation,
Figure pat00003

Wherein the search is performed on the image.
제4항에 있어서,
상기 데이터베이스에 저장된 콘텐츠는 특정 물품의 이미지와 함께 판매자 정보 또는 가격 정보를 포함한 경우에,
상기 검색된 콘텐츠를 상기 사용자에게 제공하는 단계에서,
상기 유사검색부는 상기 데이터베이스로부터 상기 생성된 특징점 정보와 동일하거나 유사한 특징점 정보를 식별자로 가지는 콘텐츠를 검색하여, 상기 검색된 물품의 이미지와 함께 판매자 정보 또는 가격 정보를 상기 사용자에게 제공하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색방법.
5. The method of claim 4,
Wherein the contents stored in the database include seller information or price information together with an image of a specific article,
In providing the retrieved content to the user,
Wherein the similarity search unit searches the database for a content having the same or similar minutia information as the generated minutia information as an identifier and provides the user with seller information or price information together with the image of the searched product A method of searching through object recognition on a computer.
데이터베이스와 연결되어 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버에 있어서,
검색 대상이 되는 객체의 이미지가 포함된 기본 이미지를 사용자로부터 제공받고, 상기 기본 이미지로부터 검색대상이 되는 대상 객체를 선택하는 선택명령을 사용자로부터 입력받고 상기 대상 객체를 인식하는 객체추출부; 및
상기 객체추출부가 인식한 대상 객체로부터 특징점을 추출하고, 상기 특징점의 기하학적 배치 패턴에 대한 정보인 특징점 정보를 생성하여 상기 데이터베이스에 저장된 콘텐츠를 검색하는 유사검색부를 포함하고,
상기 유사검색부는, 상기 데이터베이스로부터 상기 생성된 특징점 정보와 동일하거나 유사한 특징점 정보를 식별자로 가지는 콘텐츠를 검색한 다음, 상기 검색된 콘텐츠를 상기 사용자에게 제공하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버.
1. A search server connected to a database and performing a search through object recognition on an image,
An object extraction unit for receiving a selection instruction from a user and receiving a basic image including an image of an object to be searched from a user and selecting a target object to be searched from the basic image and recognizing the target object; And
And a similarity search unit for extracting a feature point from a target object recognized by the object extraction unit and generating minutia information that is information on a geometric arrangement pattern of the minutiae to search for a content stored in the database,
Wherein the similarity retrieving unit retrieves a content having the same or similar minutia information as the generated minutia information from the database as an identifier and then provides the retrieved content to the user. Perform the search server.
제6항에 있어서,
상기 객체추출부는,
상기 기본 이미지에 포함된 적어도 하나의 객체를 추출하여 사용자에게 표시하고, 상기 추출된 적어도 하나의 객체 중에서 상기 대상 객체를 선택하는 선택명령을 상기 사용자로부터 입력받아 상기 대상 객체를 표시하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버.
The method according to claim 6,
The object extracting unit extracts,
Wherein the display unit displays the target object by extracting at least one object included in the base image and displaying the selected object to the user and receiving a selection command from the user to select the target object from the extracted at least one object, A search server that performs a search through object recognition on an image.
제6항에 있어서,
상기 객체추출부는,
먼저 상기 기본 이미지에서 상기 대상 객체의 이미지 영역을 선택하는 선택명령을 상기 사용자로부터 입력받고, 상기 기본 이미지로부터 상기 선택된 영역을 포함하는 객체를 추출하여 상기 추출된 객체를 상기 대상 객체로 표시하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버.
The method according to claim 6,
The object extracting unit extracts,
A selection command for selecting an image region of the target object from the basic image is first received from the user and an object including the selected region is extracted from the base image to display the extracted object as the target object A search server for performing search through object recognition on the image.
제7항 또는 제8항에 있어서,
상기 객체추출부의 객체 추출은,
상기 기본 이미지 상에서 기 설정된 기준에 따라 조합 가능한 복수 개의 픽셀 쌍을 선택하고, 상기 픽셀 쌍의 색상유사도와 픽셀간거리를 기초로 상기 픽셀 쌍 사이의 결합력을 계산하고, 상기 복수 개의 픽셀 쌍 중에서 상기 계산된 결합력이 기 설정된 기준 값 이상인 픽셀 쌍을 필터링하고 나머지는 무시한 다음, 상기 필터링된 픽셀 쌍을 상호 연결하여 그룹핑함으로써 상기 객체를 추출하되,
상기 그룹핑 과정에서 생성된 그룹 중에서 기준 크기 미만인 그룹은 상기 객체로 추출하지 않고 무시하며,
상기 '색상유사도'는 상기 픽셀 쌍 내의 대비되는 두 개 픽셀의 색상 값의 유사도를 나타내고, 상기 '픽셀간거리'는 결합력을 구하는 두 개 픽셀 간의 상대적 거리를 나타내고,
상기 결합력은 다음의 수학식,
Figure pat00004

으로 구하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버.
9. The method according to claim 7 or 8,
Wherein the object extracting unit extracts an object,
Selecting a plurality of pixel pairs that can be combined according to a predetermined reference on the basic image, calculating a binding force between the pixel pairs based on the color similarity of the pixel pairs and the distance between the pixels, Extracting the object by filtering pixel pairs having a binding force equal to or greater than a predetermined reference value and ignoring the remainder,
A group less than a reference size among the groups generated in the grouping process is ignored without extracting the object,
The 'color similarity' represents the similarity of color values of two contrasting pixels in the pixel pair, and the 'inter-pixel distance' represents a relative distance between two pixels for obtaining a binding force,
The binding force is expressed by the following equation,
Figure pat00004

Wherein the search is performed through object recognition on the image.
제9항에 있어서,
상기 데이터베이스에 저장된 콘텐츠는 특정 물품의 이미지와 함께 판매자 정보 또는 가격 정보를 포함한 경우에,
상기 유사검색부는, 상기 데이터베이스로부터 상기 생성된 특징점 정보와 동일하거나 유사한 특징점 정보를 식별자로 가지는 콘텐츠를 검색하여, 상기 검색된 물품의 이미지와 함께 판매자 정보 또는 가격 정보를 상기 사용자에게 제공하는 것을 특징으로 하는 이미지상의 객체 인식을 통한 검색을 수행하는 검색 서버.
10. The method of claim 9,
Wherein the contents stored in the database include seller information or price information together with an image of a specific article,
Wherein the similarity search unit retrieves a content having the same or similar minutia information as the generated minutia information from the database as an identifier and provides seller information or price information together with an image of the retrieved article to the user A search server that performs a search through object recognition on an image.
KR1020130037550A 2013-04-05 2013-04-05 Search Method by Object Recognition on Image and Search Server thereof KR101462473B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130037550A KR101462473B1 (en) 2013-04-05 2013-04-05 Search Method by Object Recognition on Image and Search Server thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130037550A KR101462473B1 (en) 2013-04-05 2013-04-05 Search Method by Object Recognition on Image and Search Server thereof

Publications (2)

Publication Number Publication Date
KR20140121156A true KR20140121156A (en) 2014-10-15
KR101462473B1 KR101462473B1 (en) 2014-11-18

Family

ID=51992794

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130037550A KR101462473B1 (en) 2013-04-05 2013-04-05 Search Method by Object Recognition on Image and Search Server thereof

Country Status (1)

Country Link
KR (1) KR101462473B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160150404A (en) * 2015-06-22 2016-12-30 삼성중공업 주식회사 Vessel image detecting method
WO2017138766A1 (en) * 2016-02-12 2017-08-17 데이터킹주식회사 Hybrid-based image clustering method and server for operating same
WO2018043859A1 (en) * 2016-09-02 2018-03-08 에스케이플래닛 주식회사 Device for automatically analyzing rental item preference by means of user image, and method using same
CN110532839A (en) * 2018-05-25 2019-12-03 中兴通讯股份有限公司 Target homing method, apparatus and terminal, computer readable storage medium
WO2020032383A1 (en) * 2018-08-08 2020-02-13 삼성전자 주식회사 Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor
KR20220052705A (en) * 2020-10-21 2022-04-28 주식회사 인튜웍스 Method and system for providing video

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102230120B1 (en) 2018-12-28 2021-03-22 고려대학교 산학협력단 Method and system for searching picture on user terminal

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100737974B1 (en) * 2005-07-15 2007-07-13 황후 Image extraction combination system and the method, And the image search method which uses it
KR100681245B1 (en) 2006-03-29 2007-02-09 햄펙스 주식회사 System for providing contents based on image and method of the same
KR100871073B1 (en) * 2007-02-02 2008-11-28 삼성전자주식회사 Method for managing digital contents and mobile terminal thereof
KR101660984B1 (en) * 2010-04-14 2016-09-28 주식회사 엘지유플러스 System and method for providing information according to image data

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160150404A (en) * 2015-06-22 2016-12-30 삼성중공업 주식회사 Vessel image detecting method
WO2017138766A1 (en) * 2016-02-12 2017-08-17 데이터킹주식회사 Hybrid-based image clustering method and server for operating same
WO2018043859A1 (en) * 2016-09-02 2018-03-08 에스케이플래닛 주식회사 Device for automatically analyzing rental item preference by means of user image, and method using same
CN110532839A (en) * 2018-05-25 2019-12-03 中兴通讯股份有限公司 Target homing method, apparatus and terminal, computer readable storage medium
WO2020032383A1 (en) * 2018-08-08 2020-02-13 삼성전자 주식회사 Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor
KR20200017286A (en) * 2018-08-08 2020-02-18 삼성전자주식회사 Electronic device for providing recognition result about external object using recognition information for image, similarity recognition information related to recognition information, and layer information, and operating method thereof
US11995122B2 (en) 2018-08-08 2024-05-28 Samsung Electronics Co., Ltd. Electronic device for providing recognition result of external object by using recognition information about image, similar recognition information related to recognition information, and hierarchy information, and operating method therefor
KR20220052705A (en) * 2020-10-21 2022-04-28 주식회사 인튜웍스 Method and system for providing video

Also Published As

Publication number Publication date
KR101462473B1 (en) 2014-11-18

Similar Documents

Publication Publication Date Title
KR101462473B1 (en) Search Method by Object Recognition on Image and Search Server thereof
EP2894634B1 (en) Electronic device and image compostition method thereof
US10013633B1 (en) Object retrieval
JP6025522B2 (en) Image processing apparatus, image processing method, image processing system, and program
US20100135527A1 (en) Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device
US9607394B2 (en) Information processing method and electronic device
JP2013250882A5 (en)
CN107368550B (en) Information acquisition method, device, medium, electronic device, server and system
CA2656425A1 (en) Recognizing text in images
KR20140102181A (en) Information processing device, information processing method and program
KR101276314B1 (en) Matching point extraction system using feature point of lsh algorithm and thereof
KR20160027862A (en) Method for processing image data and electronic device supporting thereof
CN112991555B (en) Data display method, device, equipment and storage medium
JP5536124B2 (en) Image processing system and image processing method
KR101483611B1 (en) Method and Terminal for Extracting a Object from Image
CN110610178A (en) Image recognition method, device, terminal and computer readable storage medium
US9396405B2 (en) Image processing apparatus, image processing method, and image processing program
CN110443322A (en) Image processing method, device, server and readable storage medium storing program for executing
CN112183149B (en) Graphic code processing method and device
CN107678655B (en) Image element extraction method and image element extraction system
US9292541B2 (en) Method of providing online information using image information
JP6168872B2 (en) Image processing apparatus, image processing method, and program
JP6408055B2 (en) Information processing apparatus, method, and program
JP5967036B2 (en) Image search system, information processing apparatus, and program
CN103970809A (en) Marker placement support apparatus and marker placement support method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171107

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190513

Year of fee payment: 5