KR101483611B1 - Method and Terminal for Extracting a Object from Image - Google Patents

Method and Terminal for Extracting a Object from Image Download PDF

Info

Publication number
KR101483611B1
KR101483611B1 KR20130053932A KR20130053932A KR101483611B1 KR 101483611 B1 KR101483611 B1 KR 101483611B1 KR 20130053932 A KR20130053932 A KR 20130053932A KR 20130053932 A KR20130053932 A KR 20130053932A KR 101483611 B1 KR101483611 B1 KR 101483611B1
Authority
KR
South Korea
Prior art keywords
unit
objects
extracting
image
pixels
Prior art date
Application number
KR20130053932A
Other languages
Korean (ko)
Other versions
KR20140134154A (en
Inventor
오유미
강성진
Original Assignee
주식회사 브이플랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 브이플랩 filed Critical 주식회사 브이플랩
Priority to KR20130053932A priority Critical patent/KR101483611B1/en
Publication of KR20140134154A publication Critical patent/KR20140134154A/en
Application granted granted Critical
Publication of KR101483611B1 publication Critical patent/KR101483611B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 이미지에서 객체를 추출하기 위한 방법에 관한 것이다.
본 발명에 의한 이미지에서 객체를 추출하기 위한 방법은 단위객체 추출부가 이미지에서 픽셀 간의 유사도를 기반으로 하나 이상의 단위객체를 추출하는 제1 단계; 단위객체 추출부가 상기 단위객체를 표시부를 통해서 표시하는 제2 단계; 객체 설정부가 표시부에 표시되는 단위객체들 중에서 입력부를 통해서 둘 이상의 단위객체들이 선택되는지를 판단하는 제3 단계; 및 객체 설정부가 제3 단계에서 선택된 단위객체들을 조합하여 객체로 결정하는 제4 단계;를 포함한다.
The present invention relates to a method for extracting an object from an image.
A method for extracting an object from an image according to the present invention includes: a first step of extracting one or more unit objects based on a degree of similarity between pixels in an unit object extracting unit; A unit object extraction unit displaying the unit object through a display unit; A third step of determining whether two or more unit objects are selected through the input unit among the unit objects displayed on the display unit of the object setting unit; And a fourth step of the object setting unit combining the unit objects selected in the third step and determining them as objects.

Description

이미지에서 객체를 추출하기 위한 방법 및 단말기{Method and Terminal for Extracting a Object from Image}[0001] The present invention relates to a method and a terminal for extracting an object from an image,

본 발명은 이미지에서 객체를 추출하기 위한 방법 및 장치에 관한 것으로, 복수 개의 객체를 그룹화함으로써 새로운 객체를 생성하기 위한 방법 및 장치에 관한 것이다.
The present invention relates to a method and apparatus for extracting an object from an image, and a method and apparatus for creating a new object by grouping a plurality of objects.

현대 사회는 많은 디지털 콘텐츠가 정보화되어 축적되고 저장된다. In modern society, many digital contents are accumulated and stored by information.

텍스트/음성/영상 콘텐츠 등을 포함하는 디지털 콘텐츠의 가장 큰 장점 중에 하나는 사용자가 컴퓨터 환경에서 얼마든지 재가공하는 것이 수월하다는 것이다. 예컨대, 문서로 된 텍스트 파일은 문서 편집기를 이용하여 쉽게 편집할 수 있다. 마찬가지로 이미지 콘텐츠도 편집기를 이용하여 이미지를 구성하는 픽셀들의 일부 또는 전체를 편집할 수 있다. 이러한 장점은 디지털 콘텐츠의 활용을 더욱 폭넓게 할 수 있다.One of the biggest advantages of digital content, including text / audio / video content, is that it is easier for users to rework in the computer environment. For example, a document text file can be easily edited using a text editor. Similarly, the image content can also be edited to edit some or all of the pixels that make up the image. These advantages can make digital content more widely available.

하지만 다른 면에서는 콘텐츠가 수없이 재가공되고 전송되는 과정에서 콘텐츠의 원본이 불분명해지고 콘텐츠의 제목도 변경되기 때문에 콘텐츠를 데이터베이스화하는 것도 더욱 어렵게 된다. 특히, 이미지 콘텐츠는 텍스트 파일과 같이 '키워드'를 이용한 검색이 용이하지 않기 때문에, 이미지 콘텐츠 검색이 난해한 문제점이 있다.On the other hand, in the process of reprocessing and transmitting a large number of contents, the original content of the content becomes unclear and the title of the content is also changed. Particularly, since the image content is not easy to search using a 'keyword' like a text file, it is difficult to search image content.

근래에는 이미지 콘텐츠 검색을 기반으로 인터넷 검색 용도 및 기능을 늘리기 위한 방안들이 제안되고 있지만, 아직은 그 효율성이 아직 미미한 편이다. 특히나, 현재에는 이미지 검색을 위한 객체를 특정하는 방안에 대한 대비책이 취약한 상태이다. In recent years, there have been proposed ways to increase the use and function of the Internet search based on image content search, but the efficiency is still small. Particularly, there are currently no measures to identify objects for image retrieval.

예컨대, 텍스트를 검색하는 방안은 하나의 완성된 키워드 이외에 키워드의 조합을 통한 검색방안이 있지만, 이미지 콘텐츠를 검색하는 과정에서는 검색방법이 매우 한정되어 있다.
For example, in order to search for text, there is a method of searching through a combination of keywords in addition to one completed keyword, but the searching method is very limited in the process of searching for image contents.

따라서, 본 발명의 목적은 상기 전술한 문제점을 해결하기 위한 것으로서, 이미지 검색방법의 효율을 위해서 객체를 추출하기 위한 방법 및 장치를 제공하는 데에 있다.
Accordingly, it is an object of the present invention to provide a method and apparatus for extracting an object for efficiency of an image retrieval method.

상기한 문제점을 해결하기 위해서, 본 발명에 의한 이미지에서 객체를 추출하는 방법은 단위객체 추출부가 이미지에서 픽셀 간의 유사도를 기반으로 하나 이상의 단위객체를 추출하는 제1 단계; 단위객체 추출부가 상기 단위객체를 표시부를 통해서 표시하는 제2 단계; 객체 설정부가 표시부에 표시되는 단위객체들 중에서 입력부를 통해서 둘 이상의 단위객체들이 선택되는지를 판단하는 제3 단계; 및 객체 설정부가 제3 단계에서 선택된 단위객체들을 조합하여 객체로 결정하는 제4 단계;를 포함한다.According to an aspect of the present invention, there is provided a method of extracting objects from an image, the method comprising: a first step of extracting one or more unit objects based on a degree of similarity between pixels in an image; A unit object extraction unit displaying the unit object through a display unit; A third step of determining whether two or more unit objects are selected through the input unit among the unit objects displayed on the display unit of the object setting unit; And a fourth step of the object setting unit combining the unit objects selected in the third step and determining them as objects.

일 실시 예로서, 입력부는 표시부에 결합되는 터치패널을 이용하고, 제3 단계는 객체 설정부가 터치패널 상의 드래그 영역 내에 단위객체들이 존재하는지를 판단할 수 있다.In one embodiment, the input unit uses a touch panel coupled to the display unit, and in the third step, the object setting unit can determine whether unit objects exist in the drag region on the touch panel.

그리고 제3 단계는 객체 설정부가 터치패널 상에서 하나 이상의 터치 동작이 있을 때에, 터치 지점에 단위객체들이 존재하는지를 판단할 수 있다.In the third step, when the object setting unit has one or more touch operations on the touch panel, it can be determined whether or not the unit objects exist at the touch point.

또한 제3 단계에서 둘 이상의 단위객체의 선택 동작이 없을 경우에, 객체 설정부가 각각의 단위객체들을 객체로 결정하는 단계를 더 포함할 수 있다.If there is no selection operation of two or more unit objects in the third step, the object setting unit may determine each unit object as an object.

또는 제3 단계에서 객체를 결정한 이후에, 사용자로부터 객체 및 단위객체들의 선택이 있을 경우에, 객체 설정부가 객체 및 단위객체를 그룹화하여 새로운 객체를 설정하는 단계를 더 포함할 수 있다.Or setting the new object by grouping the object and the unit object when the object and the unit objects are selected from the user after the object is determined in the third step.

그리고 제3 단계에서 객체를 결정한 이후에, 사용자로부터 객체들의 선택이 있을 경우에, 객체 설정부가 객체들을 그룹화하여 객체쌍을 설정하는 단계를 더 포함할 수 있다.In addition, after the object is determined in the third step, when there is a selection of objects from the user, the object setting unit may group the objects to set the object pair.

본 발명에 의한 이미지에서 객체를 추출하는 기능을 갖는 단말기는 이미지에서 픽셀 간의 유사성을 기반으로 하나 이상의 단위객체를 추출하고, 단위객체를 표시부를 통해서 표시하는 단위객체 추출부; 표시부에 표시되는 단위객체들을 하나 이상 선택하기 위한 것으로, 표시부에 결합되는 터치패널 또는 컴퓨터용 마우스 장치를 이용하는 입력부; 및 입력부를 통해서 선택되는 단위객체들을 객체로서 결정하는 객체 설정부;를 구비한다.
A terminal having a function of extracting an object from an image according to the present invention includes a unit object extracting unit for extracting one or more unit objects based on similarity between pixels in an image and displaying the unit object through a display unit; An input unit for selecting one or more unit objects to be displayed on the display unit, the touch panel being connected to the display unit or the mouse unit for a computer; And an object setting unit for determining unit objects selected through the input unit as objects.

본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 이미지에서 픽셀 정보의 유사성을 바탕으로 단위객체를 추출하고, 사용자인터페이스를 통해서 선택되는 단위객체를 기반으로 객체를 생성한다. 따라서, 본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 이미지 검색을 위한 객체를 쉽고 효율적으로 생성할 수 있다. According to the method and apparatus for extracting an object according to the present invention, a unit object is extracted based on the similarity of pixel information in an image, and an object is created based on a unit object selected through a user interface. Therefore, according to the method and apparatus for extracting an object according to the present invention, it is possible to easily and efficiently create an object for image search.

또한, 본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 간편한 사용자인터페이스를 통해서 단위객체-단위객체, 단위객체-객체, 객체-객체들을 조합하여 새로운 객체를 생성할 수 있다. 즉, 본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 텍스트의 검색어 조합과 유사하게 이미지의 결합을 통해서 효율적이고 정확한 검색을 위한 이미지의 객체를 추출할 수 있다.
In addition, according to the method and apparatus for extracting an object according to the present invention, a new object can be created by combining unit object-unit object, unit object-object, and object-object through a simple user interface. That is, according to the method and apparatus for extracting an object according to the present invention, it is possible to extract an object of an image for efficient and accurate searching through combining of images similar to a combination of search terms of text.

도 1은 본 발명에 의한 객체추출 기능을 갖는 단말기의 구성을 나타내는 블록도.
도 2는 본 발명에 의한 객체추출 방법을 나타내는 순서도.
도 3은 단위객체를 표시하는 방법의 일례를 나타내는 모식도.
도 4 내지 도 6은 단위객체를 선택하는 방법의 실시 예를 나타내는 도면들.
도 7은 단위객체 및 객체를 그룹화하는 방법을 나타내는 도면.
도 8은 객체 및 객체를 그룹화하는 방법을 나타내는 도면.
도 9는 단위객체를 추출하는 방법의 실시 예를 나타내는 순서도.
도 10은 단위객체를 표시하는 방법의 일례를 나타내는 모식도.
1 is a block diagram illustrating a configuration of a terminal having an object extraction function according to the present invention;
2 is a flowchart showing an object extraction method according to the present invention;
3 is a schematic diagram showing an example of a method of displaying a unit object;
FIGS. 4-6 illustrate an embodiment of a method for selecting a unit object. FIG.
Figure 7 illustrates a method of grouping unit objects and objects.
8 is a diagram illustrating a method of grouping objects and objects.
9 is a flowchart showing an embodiment of a method of extracting a unit object;
10 is a schematic diagram showing an example of a method of displaying a unit object;

이하 상기 목적이 구체적으로 실현될 수 있는 본 발명의 실시 예들을 첨부된 도면을 참조하여 설명한다. 본 실시 예들을 설명함에 있어서 동일 구성에 대해서는 동일 명칭 및 부호가 사용되며, 이에 따른 부가적인 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention in which the above object can be specifically realized will be described with reference to the accompanying drawings. In the description of the embodiments, the same names and symbols are used for the same components, and further description thereof will be omitted.

도 1은 본 발명에 의한 객체 추출 기능을 갖는 단말기(100)의 구성을 나타내는 블록도이다. 1 is a block diagram showing the configuration of a terminal 100 having an object extraction function according to the present invention.

단말기(100)는 스마트폰(Smart phone) 또는 테블릿 PC와 같이, 응용프로그램이 어플리케이션(application)의 형태로 설치될 수 있는 휴대 단말기가 될 수 있다.The terminal 100 may be a portable terminal, such as a smart phone or a tablet PC, in which an application program can be installed in the form of an application.

메모리(130)는 이미지를 디지털 데이터 형식으로 저장하기 위한 것이다.The memory 130 is for storing images in a digital data format.

표시부(130)는 이미지를 표시하고, 특히 이미지로부터 단위객체를 선택받기 위한 사용자인터페이스의 제공수단이 되기도 한다. 즉, 표시부(130)는 터치 센서를 포함하는 터치패널(132)과 결합하여, 표시부(130)를 통해서 표시되는 이미지의 픽셀을 터치패널(132)을 통해서 선택받을 수 있도록 한다.The display unit 130 may be a means for providing a user interface for displaying an image, in particular, for selecting a unit object from an image. That is, the display unit 130 is coupled with the touch panel 132 including the touch sensor, so that the pixels of the image displayed through the display unit 130 can be selected through the touch panel 132.

제어부(140)는 단말기(100)의 전반적인 동작을 제어하며, 특히 단위객체를 추출하고, 선택되는 단위객체를 그룹화하여 객체를 생성한다.The controller 140 controls the overall operation of the terminal 100, and particularly extracts unit objects and groups the selected unit objects to generate objects.

이러한 제어부(140)는 단말기(100)가 기본적으로 보유한 하드웨어인 프로세서 칩과 그 칩에 의해 동작하는 프로그램으로 구현될 수 있다. 즉, 단말기(100)의 전반적인 기능은 프로세서 칩에 의해 수행되는 운영체제(OS: Operating System) 프로그램과, 그 OS 프로그램을 기반으로 설치(Install)되어 단말기(100) 내부의 하드웨어 구성을 제어하는 응용 프로그램들에 의해 수행하는 구조를 가질 수 있다. 예컨대, 제어부(140)의 객체 추출부(142)를 포함하는 일부 구성이 어플리케이션의 형태로서 메모리(120)에 설치될 수 있다. The control unit 140 may be implemented as a processor chip, which is basically a hardware possessed by the terminal 100, and a program operated by the chip. That is, the overall functions of the terminal 100 include an operating system (OS) program executed by the processor chip, an application program installed on the OS program and controlling the hardware configuration of the terminal 100, Lt; RTI ID = 0.0 > a < / RTI > For example, a part of the configuration including the object extraction unit 142 of the control unit 140 may be installed in the memory 120 as an application form.

이하, 본 명세서에서는 본 발명의 실시를 중심으로 하는 제어부(140)의 구성인 객체 추출부(142)를 중심으로 설명하기로 한다.Hereinafter, the object extracting unit 142, which is a constitution of the control unit 140 centering on the implementation of the present invention, will be described in this specification.

객체 추출부(142)는 이미지에서 배경과 구분되는 전경을 객체로서 추출하기 위한 것이다. 이를 위해서 객체 추출부(142)는 단위객체 추출부(144) 및 객체 설정부(146)를 포함한다. The object extracting unit 142 extracts a foreground distinguished from the background in the image as an object. For this, the object extracting unit 142 includes a unit object extracting unit 144 and an object setting unit 146.

단위객체 추출부(144)는 메모리(130)에 저장된 원본 이미지에서 유사도가 강한 픽셀들을 단위객체로 그룹화하고, 각각의 단위객체들을 표시부(130)를 통해서 표시한다. 이때, 단위객체 추출부(144)는 픽셀 간의 거리를 고려한 색상 유사도를 기준으로 단위객체를 추출할 수 있다. 단위객체 추출부(144)가 단위객체를 추출하는 세부적인 방법은 후술하기로 한다. The unit object extracting unit 144 groups the pixels having strong similarity in the original image stored in the memory 130 into unit objects and displays the unit objects through the display unit 130. At this time, the unit object extracting unit 144 may extract the unit object based on the color similarity considering the distance between the pixels. A detailed method of extracting the unit object by the unit object extracting unit 144 will be described later.

객체 설정부(146)는 표시부(130)에 표시된 단위객체들 중에서 사용자에 의해서 선택되는 단위객체를 그룹화하여 객체로 결정한다. 또한, 객체 설정부(146)는 단위객체와 객체를 그룹화할 수 있고, 객체와 객체를 그룹화할 수도 있다.The object setting unit 146 groups the unit objects selected by the user among the unit objects displayed on the display unit 130 and determines the objects as objects. In addition, the object setting unit 146 may group the unit object and the object, and may group the object and the object.

이와 같은 객체 추출부(142)을 이용하여 메모리(130)에 저장된 원본 이미지에서 객체를 추출하는 방법을 도 2의 순서도를 참조하여 살펴보면 다음과 같다. A method of extracting an object from an original image stored in the memory 130 using the object extracting unit 142 will be described with reference to the flowchart of FIG.

< 단위객체 추출 및 표시 : S201 ><Unit object extraction and display: S201>

단위객체 추출부(144)는 메모리(120)에 저장된 이미지 또는 검색서버(미도시)로부터 전송받은 원본이미지에서 단위객체를 추출한다. 단위객체는 이미지에서 관련성을 갖는 픽셀들이 조합된 부분 이미지로서, 색상의 유사도를 기준으로 조합된 픽셀들로 결정될 수 있다. The unit object extraction unit 144 extracts a unit object from an image stored in the memory 120 or an original image transmitted from a search server (not shown). A unit object is a partial image in which pixels having a relevance in an image are combined, and can be determined by combining pixels based on the similarity of hues.

그리고 단위객체 추출부(144)는 도 3에서와 같이, 추출된 제1 내지 제3 단위객체(401,402,403)를 표시부(130)를 통해서 표시하며, 단위객체 추출부(144)는 제1 내지 제3 단위객체들(401,402,403)의 최외곽 픽셀들을 제1 내지 제3 단위객체들(401,402,403) 단위객체(401,402,403)의 테두리로 표현할 수 있다.3, the unit object extraction unit 144 displays the extracted first through third unit objects 401, 402, and 403 through the display unit 130. The unit object extraction unit 144 extracts the first, second, The outermost pixels of the unit objects 401, 402, and 403 can be represented by the edges of the first, second, and third unit objects 401, 402, and 403 unit objects 401,

< 선택되는 단위객체들을 객체로 설정 : S203, S205 ><Set selected unit objects as objects: S203, S205>

객체 설정부(146)는 S201 단계에서 표시부(130)에 표시된 제1 내지 제3 단위객체들(401,402,403) 중에서 선택되는 단위객체를 조합하여 객체로 설정한다. In step S201, the object setting unit 146 combines unit objects selected from among the first through third unit objects 401, 402, and 403 displayed on the display unit 130 and sets them as objects.

이를 위해서 객체 추출부(142)는 터치패널(132)에 접촉 동작이 행해지는 것을 감지함으로써, 사용자에 의해서 선택되는 단위객체를 확인한다. 즉, 객체 설정부(146)는 터치패널(132)에서 접촉지점의 픽셀이 제1 내지 제3 단위객체들(401,402,403)에 포함되는지 여부를 확인하고, 해당 픽셀이 제1 내지 제3 단위객체들(401,402,403)에 포함될 경우에 접촉지점의 단위객체를 객체의 일부로 판단한다. 예컨대, 도 4에서 도시된 예에서, ⓐ지점에 접촉 동작이 행해진 경우에, 객체 설정부(146)는 제1 단위객체(401)를 객체에 포함되는 단위객체라고 간주한다. 그리고 ⓑ지점과 같이 제1 내지 제3 단위객체들(401,402,403)에 포함되는 영역이 아닌 픽셀에 접촉 동작이 행해진 경우에, 객체 설정부(146)는 해당 접촉 동작을 무시한다. 또한, 객체 설정부(146)는 한 지점에 대한 접촉 동작뿐만 아니라 드래그 동작에 의해서 연속적인 픽셀들의 접촉 동작이 수행될 때에, 각각의 접촉 동작에 대응하는 픽셀들이 단위객체에 속하는지를 판단한다.For this, the object extracting unit 142 recognizes that the touch operation is performed on the touch panel 132, thereby confirming the unit object selected by the user. That is, the object setting unit 146 determines whether the pixel at the contact point is included in the first through third unit objects 401, 402, and 403 in the touch panel 132, (401, 402, 403), the unit object of the contact point is determined as a part of the object. For example, in the example shown in FIG. 4, when the contact operation is performed on the point a, the object setting unit 146 regards the first unit object 401 as a unit object included in the object. When the touch operation is performed on a pixel other than the area included in the first through third unit objects 401, 402, and 403, the object setting unit 146 ignores the touch operation. Also, the object setting unit 146 determines whether the pixels corresponding to each touch operation belong to the unit object when not only the touch operation on one point but also the consecutive pixels are performed by the drag operation.

이때, 객체 설정부(146)는 둘 이상의 단위객체들이 선택될 경우에 선택되는 복수 개의 단위객체들을 조합하여 객체로 결정한다. 이와 같이, 복수 개의 단위객체를 그룹화하여 객체를 결정하는 실시 예를 살펴보면 다음과 같다. At this time, the object setting unit 146 combines a plurality of unit objects selected when two or more unit objects are selected, and determines the object as an object. An embodiment for grouping a plurality of unit objects as described above will be described below.

* 제1 실시 예 - 드래그 동작을 통한 단위객체의 그룹화* First Embodiment - Grouping of Unit Objects by Drag Operation

도 4에서와 같이, ⓐ지점에 터치 동작이 행해진 경우에, 객체 설정부(146)는 제1 단위객체(401)를 객체의 조합에 포함되는 단위객체라고 간주한다.As shown in FIG. 4, when the touch operation is performed on the point a, the object setting unit 146 regards the first unit object 401 as a unit object included in the combination of objects.

이어서, 도 5와 같이, ⓐ지점에서 ⓒ지점으로 드래그 동작이 행해진 경우에, 객체 설정부(146)는 드래그 동작에 의해서 접촉되는 픽셀들을 포함하는 단위객체가 있는지를 판단하고, 드래그 영역에 포함되는 단위객체들을 그룹화하여 객체(410)로 결정한다. 즉, 도 5에서와 같은 드래그 동작이 행해지면, 객체 설정부(146)는 제1 내지 제3 단위객체들(401,402,403)을 조합하여 제1 객체(410)로 설정한다. 5, when the drag operation is performed from the point a to the point c, the object setting unit 146 determines whether or not there is a unit object including the pixels contacted by the drag operation, The unit objects are grouped and determined as the object 410. 5, the object setting unit 146 sets the first object 410 as a combination of the first through third unit objects 401, 402, and 403.

만약 이러한 과정에서 객체 설정부(146)는 드래그 동작에서 선택되는 픽셀이 제1 내지 제3 단위객체들(401,402,403)에 포함되지 않을 경우에, 해당 픽셀 영역은 무시한다.If the pixel selected in the drag operation is not included in the first through third unit objects 401, 402, and 403, the object setting unit 146 ignores the corresponding pixel region.

* 제2 실시 예-클릭 동작을 통한 단위객체의 그룹화* Second Embodiment - Grouping of Unit Objects by Click Operation

도 6은 단위객체를 선택하기 위한 제2 실시 예를 나타내는 도면이다. 객체 설정부(146)는 도6 에서와 같이, 터치패널(132)상에 클릭되는 동작을 바탕으로 제1 내지 제3 단위객체들(401,402,403) 중 하나 이상을 선택할 수 있다. 즉, ⓐ지점, ⓑ지점 및 ⓒ지점에 대해서 개별적인 클릭 동작이 수행되면, 객체 설정부(146)는 ⓐ지점, ⓑ지점 및 ⓒ지점의 픽셀을 포함하는 제1 내지 제3 단위객체들(401,402,403)를 조합하여 제1 객체(410)를 설정한다. 6 is a diagram illustrating a second embodiment for selecting a unit object. The object setting unit 146 may select one or more of the first through third unit objects 401, 402, and 403 based on an operation clicked on the touch panel 132, as shown in FIG. That is, when an individual clicking operation is performed on the point a, point b and point c, the object setting unit 146 sets the first through third unit objects 401, 402, and 403 including the pixels of the point a, point b, The first object 410 is set.

* 제3 실시 예-객체와 단위객체의 그룹화Third Embodiment - Grouping Objects and Unit Objects

제1 및 제2 실시 예에 의해서 선택된 단위객체를 바탕으로 객체를 설정한 객체 설정부(146)는 추가적으로 선택되는 단위객체를 조합하여 객체를 재설정할 수 있다. The object setting unit 146 that sets the object based on the unit object selected by the first and second embodiments can reset the object by combining the selected unit objects.

전술한 실시 예를 이용하여, 제1 내지 제3 단위객체들(401,402,403)를 그룹화하여 제1 객체(410)를 결정한 상태에서, 객체 설정부(146)는 추가적인 단위객체가 선택될 경우에 해당 단위객체를 포함하는 새로운 객체를 설정할 수 있다.In a state where the first object 410 is determined by grouping the first through third unit objects 401, 402, and 403 using the above-described embodiment, when an additional unit object is selected, You can set a new object that contains the object.

예컨대, 도 7에서와 같이 제1 실시 예의 방법과 같이 ⓔ지점에서 ⓕ지점으로 드래그 동작이 수행되어서 제1 객체(410)와 제4 단위객체(404)가 선택되면, 객체 설정부(146)는 제1 객체(410) 및 제4 단위객체(404)를 그룹으로 하는 제2 객체(420)를 설정한다.For example, as shown in FIG. 7, when the first object 410 and the fourth unit object 404 are selected by performing the drag operation from the point ⓔ to the point 과 as in the method of the first embodiment, the object setting unit 146 And sets a second object 420 in which the first object 410 and the fourth unit object 404 are grouped.

이때, 객체 설정부(146)는 드래그 동작이 아닌 제1 객체(410) 및 제4 단위객체(404)를 클릭하는 동작에 대해서도 제2 실시 예에서와 같이 제2 객체(420)를 설정할 수 있다.At this time, the object setting unit 146 may set the second object 420 as in the second embodiment for the operation of clicking the first object 410 and the fourth unit object 404 instead of the drag operation .

* 제4 실시 예-객체와 객체의 그룹화를 통한 객체쌍 설정* Fourth Embodiment - Object Pair Setting by Grouping Objects and Objects

객체 설정부(146)는 제1 내지 제3 실시 예를 통해서 설정한 객체들을 그룹화하여 객체쌍을 설정할 수 있다. The object setting unit 146 may set the object pairs by grouping the objects set through the first to third embodiments.

예컨대, 도 8에서와 같이, 제1 객체(410) 및 제3 객체(430)를 드래그 동작으로 선택하였을 때에, 객체 설정부(146)는 제1 객체(410) 및 제3 객체(430)를 포함하는 객체쌍(450)을 설정한다. 8, when the first object 410 and the third object 430 are selected by the drag operation, the object setting unit 146 sets the first object 410 and the third object 430 as And sets the object pair 450 that contains it.

이때, 객체 설정부(146)는 드래그 동작이 아닌 제1 객체(410) 및 제3 객체(430)를 클릭하는 동작을 통해서도 객체쌍(450)을 설정할 수 있다. At this time, the object setting unit 146 may set the object pair 450 by clicking the first object 410 and the third object 430 instead of the drag operation.

또한, 객체 설정부(146)는 드래그 동작 과정에서 객체 또는 단위객체가 아닌 픽셀이 선택되었을 때에는, 해당 픽셀 영역을 무시한다. Also, when a pixel other than an object or a unit object is selected in the drag operation process, the object setting unit 146 ignores the corresponding pixel area.

이와 같은 객체쌍(450)은 동일한 형태의 객체를 그룹화하여 복수 객체를 단일의 객체쌍으로 선택하거나, 서로 다른 형태의 객체들을 그룹화하여 쌍이 되는 객체들의 조합으로 객체쌍으로 선택할 수도 있다. 즉, 객체쌍(450)은 객체가 복수 개를 포함하는 이미지 검색이나, 찻잔과 받침대 또는 숟가락과 젓가락 등과 같이 쌍으로 구성되는 객체의 검색을 위한 조건으로 이용될 수 있다.Such an object pair 450 may be a group of objects of the same type to select a plurality of objects as a single pair of objects, or a group of objects of different types may be grouped to select a pair of objects as a pair of objects. That is, the object pair 450 can be used as a condition for searching an image that includes a plurality of objects, or a pair of objects such as a mug and a pedestal or a spoon and a chopstick.

그리고, S203 단계에서, 복수 개의 단위객체들이 선택되지 않는다면, 객체 설정부(146)는 제1 내지 제3 단위객체들(401,402,403)을 객체로 결정할 수 있다.If a plurality of unit objects are not selected in step S203, the object setting unit 146 may determine the first through third unit objects 401, 402, and 403 as objects.

상술한 바와 같이, 본 발명에 의한 객체 추출부(142)는 단위객체들을 그룹화하여 객체를 생성할 수 있다. As described above, the object extracting unit 142 according to the present invention can generate objects by grouping unit objects.

이때, 제1 내지 제3 단위객체들(401,402,403)는 원본 이미지에서 유사도를 기반으로 추출될 수 있고, 일례로 색상의 유사도를 기반으로 단위객체를 추출하는 방법을 도 9의 순서도를 참조하여 살펴보면 다음과 같다.In this case, the first through third unit objects 401, 402, and 403 can be extracted based on the degree of similarity in the original image. For example, a method of extracting a unit object based on the similarity of colors will be described with reference to FIG. Respectively.

< 픽셀 간의 결합력 산출 : S901 ><Calculation of Bonding Force between Pixels: S901>

원본 이미지에서 객체를 추출하기 위해서 단위객체 추출부(144)는 먼저 색상 유사도를 기준으로 이미지를 분할한다. 이때 단위객체 추출부(144)는 픽셀 간의 거리에 따른 색상 유사도를 근거로 산출되는 '결합력'을 기준으로 원본 이미지를 분할한다. 결합력은 대비되는 두 개의 픽셀 간의 결합 정도에 관한 상대적인 값으로서 동일한 객체에 속할 정도를 나타내는 것으로서, 다음의 [수학식 1]과 같이 정의된다.In order to extract the object from the original image, the unit object extracting unit 144 first divides the image based on the color similarity. At this time, the unit object extracting unit 144 divides the original image based on the 'binding force' calculated based on the color similarity according to the distance between the pixels. The binding force is a relative value with respect to the degree of coupling between two contrasting pixels, and is defined as the following Equation (1).

Figure 112013042092443-pat00001
Figure 112013042092443-pat00001

여기서, '색상유사도'는 대비되는 픽셀 쌍에 포함된 두 개 픽셀의 색상 값의 유사도를 나타낸다. '픽셀간거리'는 픽셀 쌍에 포함된 두 개 픽셀 간의 상대적 거리를 나타낸다. 즉, 결합력은 두 개 픽셀의 색상이 유사하고 두 픽셀 간의 거리가 가까울수록 큰 값을 갖는 픽셀 쌍의 결합 정도를 나타내는 값이다.Here, 'color similarity' represents a degree of similarity between the color values of two pixels included in the pair of contrast pixels. 'Interpixel distance' represents the relative distance between two pixels included in a pixel pair. That is, the binding force is a value indicating the degree of coupling of pixel pairs having a larger value as the two pixels are similar in color and the distance between the two pixels is closer.

이와 같은 결합력을 구하기 위해서 단위객체 추출부(144)는 원본 이미지에서 두 개의 픽셀로 이루어지는 픽셀 쌍을 선택한다. 단위객체 추출부(144)가 픽셀 쌍을 선택하는 방법은 조합가능한 모든 픽셀 쌍을 선택하거나, 일정 거리 내에 위치한 픽셀들에 한해서 픽셀 쌍을 선택할 수 있다. In order to obtain such a binding force, the unit object extracting unit 144 selects a pixel pair consisting of two pixels in the original image. The unit object extracting unit 144 may select all pairs of pixels that can be combined, or may select a pair of pixels only for pixels located within a certain distance.

< 결합력이 기준치 이상인 픽셀들을 조합하여 단위객체로 결정 : S902 >&Lt; &lt; S902 &gt; Determining a unit object by combining pixels having a bonding strength equal to or greater than a reference value:

S902 단계에서 계산한 결합력을 바탕으로 단위객체 추출부(144)는 두 개의 픽셀 조합인 픽셀 쌍 각각에 대한 결합력을 산출하고, 산출된 결합력이 일정 기준치 이상일 경우에는 해당 픽셀들을 조합하여 단위객체로 설정한다. 이때 기준값은 실험적으로 구할 수 있다.Based on the binding force calculated in step S902, the unit object extracting unit 144 calculates a binding force for each pixel pair, which is a combination of two pixels. If the calculated binding force is equal to or greater than a predetermined reference value, do. At this time, the reference value can be obtained experimentally.

이러한 과정을 통해서 단위객체 추출부(144)는 색상이 크게 다르거나 서로 간의 거리가 멀리 배치된 픽셀 쌍은 배제하고, 결합력이 강한 픽셀 쌍들을 연계함으로써 단위객체를 추출할 수 있다. 즉, 단위객체 추출부(144)는 도 10에서와 같이, 원본 이미지를 P1~P7의 픽셀, P8~P13의 픽셀, P14~P18의 픽셀 및 P19~P20의 픽셀끼리 조합하여 단위객체를 설정할 수 있다. Through this process, the unit object extracting unit 144 can extract the unit object by excluding the pixel pairs in which the colors are largely different or the distances between the pixels are far apart, and by connecting pixel pairs having strong binding force. That is, as shown in FIG. 10, the unit object extracting unit 144 can set a unit object by combining the original image with pixels of P1 to P7, pixels of P8 to P13, pixels of P14 to P18, and pixels of P19 to P20 have.

이때, 단위객체 추출부(144)는 결합력이 강하다고 할지라도 단위객체에 포함되는 픽셀수가 미리 설정된 임계치보다 적을 경우에는, 해당 단위객체를 표시부(130)에 표시하지 않을 수도 있다. 예컨대, P19~P20의 픽셀들은 서로 색상 유사성이 강하더라도 표시부(130)에 단위객체로 표시되지 않을 수 있다.At this time, the unit object extracting unit 144 may not display the corresponding unit object on the display unit 130 when the number of pixels included in the unit object is smaller than a predetermined threshold, even though the unit object extracting unit 144 is strong. For example, the pixels P19 to P20 may not be displayed as a unit object on the display unit 130 even if color similarity is strong.

상술한 실시 예에서 단말기(100)는 스마트폰과 같은 휴대 단말기를 전제로 하여, 표시부(130)에 터치패널(132)이 결합된 단말기에 대해서 설명되었다. 하지만, 본 발명의 실시 예는 다른 개인용 컴퓨터와 같은 단말기로도 이용될 수 있음은 자명하다. 개인용 컴퓨터를 이용할 경우에, 객체 추출부(142)는 응용프로그램으로서 컴퓨터에 설치될 수 있고, 표시부(130)에 표시되는 이미지에서 픽셀들을 선택받기 위한 터치패널(132)은 컴퓨터용 마우스 장치를 이용하여 대체될 수도 있다. In the above-described embodiment, the terminal 100 has been described on the assumption that a portable terminal such as a smart phone is assumed, and a touch panel 132 is coupled to the display unit 130. [ However, it is apparent that the embodiment of the present invention can also be used as a terminal such as another personal computer. In the case of using a personal computer, the object extracting unit 142 may be installed in a computer as an application program, and the touch panel 132 for receiving pixels from the image displayed on the display unit 130 may be a mouse device for a computer .

또한, 본 발명은 단말기에 한정되지 않으며, 객체 추출을 위한 객체 추출부(142)는 검색기능을 갖는 서버의 구성에 포함될 수도 있다. 이러한 경우에 서버는 단말기(100)에 저장되는 이미지 또는 서버의 데이터베이스에 저장된 이미지에서 단위객체를 추출하여, 추출된 단위객체를 단말기(100)의 표시부(130)를 통해서 표시할 수 있다. 그리고 단말기(100)는 마우스장치 또는 터치패널(132)을 이용하여 픽셀을 선택하고, 서버는 단말기가 선택한 픽셀이 단위객체에 해당하는지 여부를 판단하여 객체를 설정할 수도 있다.In addition, the present invention is not limited to the terminal, and the object extraction unit 142 for object extraction may be included in the configuration of the server having the search function. In this case, the server may extract the unit object from the image stored in the terminal 100 or the image stored in the database of the server, and display the extracted unit object through the display unit 130 of the terminal 100. The terminal 100 may select a pixel using the mouse device or the touch panel 132, and the server may determine whether the pixel selected by the terminal corresponds to a unit object and set the object.

위에서 몇몇의 실시 예가 예시적으로 설명되었음에도 불구하고, 본 발명이 이의 취지 및 범주에서 벗어남 없이 다른 여러 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 따라서, 상술한 실시 예는 제한적인 것이 아닌 예시적인 것으로 여겨져야 하며, 첨부된 청구항 및 이의 동등 범위 내의 모든 실시 예는 본 발명의 범주 내에 포함된다. It is to be understood by those skilled in the art that the present invention may be embodied in many other forms without departing from the spirit and scope of the invention, Accordingly, the above-described embodiments are to be considered illustrative and not restrictive, and all embodiments falling within the scope of the appended claims and their equivalents are intended to be included within the scope of the present invention.

Claims (7)

이미지에서 객체를 추출하는 방법으로서,
단위객체 추출부가 이미지에서 픽셀 간의 유사도를 기반으로 하나 이상의 단위객체를 추출하는 제1 단계;
상기 단위객체 추출부가 상기 단위객체를 표시부를 통해서 표시하는 제2 단계;
객체 설정부가 상기 표시부에 표시되는 상기 단위객체들 중에서 입력부를 통해서 둘 이상의 단위객체들이 선택되는지를 판단하는 제3 단계;
상기 객체 설정부가 상기 제3 단계에서 선택된 단위객체들을 조합하여 객체로 결정하는 제4 단계; 및
상기 제3 단계에서 둘 이상의 단위객체의 선택 동작이 없을 경우에, 상기 객체 설정부가 각각의 상기 단위객체들을 객체로 결정하는 제5 단계를 포함하는 이미지에서 객체를 추출하는 방법.
A method of extracting an object from an image,
A first step of extracting at least one unit object based on the degree of similarity between pixels in the unit object extracting unit;
A second step of the unit object extracting unit displaying the unit object through a display unit;
A third step of determining whether two or more unit objects are selected through the input unit among the unit objects displayed on the display unit by the object setting unit;
A fourth step of the object setting unit combining the unit objects selected in the third step and determining the object as an object; And
And a fifth step of the object setting unit determining each of the unit objects as an object when there is no selection operation of two or more unit objects in the third step.
제 1 항에 있어서,
상기 입력부는 표시부에 결합되는 터치패널을 이용하고,
상기 제3 단계는 상기 객체 설정부가 상기 터치패널 상의 드래그 영역 내에 상기 단위객체들이 존재하는지를 판단하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
The method according to claim 1,
Wherein the input unit uses a touch panel coupled to a display unit,
Wherein the object setting unit determines whether the unit objects exist in the drag area on the touch panel.
제 2 항에 있어서,
상기 제3 단계는 상기 객체 설정부가 상기 터치패널 상에서 하나 이상의 접촉 동작이 있을 때에, 접촉지점에 상기 단위객체들이 존재하는지를 판단하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
3. The method of claim 2,
Wherein the third step determines whether the unit objects exist at a contact point when the object setting unit has at least one contact action on the touch panel.
삭제delete 제 1 항 또는 제 3 항 중 어느 한 항에 있어서,
상기 제3 단계에서 상기 객체를 결정한 이후에, 사용자로부터 상기 객체 및 상기 단위객체들의 선택이 있을 경우에,
상기 객체 설정부가 상기 객체 및 상기 단위객체를 그룹화하여 새로운 객체를 설정하는 단계를 더 포함하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
4. The method according to any one of claims 1 to 3,
If there is a selection of the object and the unit objects from the user after determining the object in the third step,
Wherein the object setting unit groups the object and the unit object to set a new object.
제 1 항 또는 제 3 항 중 어느 한 항에 있어서,
상기 제3 단계에서 상기 객체를 결정한 이후에, 사용자로부터 상기 객체들의 선택이 있을 경우에,
상기 객체 설정부가 상기 객체들을 그룹화하여 객체쌍을 설정하는 단계를 더 포함하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
4. The method according to any one of claims 1 to 3,
If there is a selection of the objects from the user after determining the object in the third step,
Wherein the object setting unit groups the objects and sets an object pair.
이미지에서 객체를 추출하는 기능을 갖는 단말기로서,
이미지에서 픽셀 간의 유사성을 기반으로 하나 이상의 단위객체를 추출하고, 상기 단위객체를 표시부를 통해서 표시하는 단위객체 추출부;
상기 표시부에 표시되는 상기 단위객체들을 하나 이상 선택하기 위한 것으로, 상기 표시부에 결합되는 터치패널 또는 컴퓨터용 마우스 장치를 이용하는 입력부; 및
상기 표시부에 표시되는 상기 단위객체들 중에서 상기 입력부를 통해서 둘 이상의 단위객체들이 선택된 경우에 상기 선택된 단위객체들을 조합하여 객체로 결정하며, 상기 입력부를 통해서 둘 이상의 단위객체의 선택 동작이 없을 경우에 각각의 상기 단위객체들을 객체로 결정하는 객체 설정부를 구비하여 이미지에서 객체를 추출하는 기능을 갖는 단말기.
A terminal having a function of extracting an object from an image,
A unit object extraction unit extracting one or more unit objects based on similarity between pixels in an image and displaying the unit objects through a display unit;
An input unit for selecting at least one unit object displayed on the display unit using a touch panel or a computer mouse device coupled to the display unit; And
When two or more unit objects are selected through the input unit among the unit objects displayed on the display unit, the selected unit objects are combined to determine an object, and when there is no selection operation of two or more unit objects through the input unit And an object setting unit for determining the unit objects in the image as an object.
KR20130053932A 2013-05-13 2013-05-13 Method and Terminal for Extracting a Object from Image KR101483611B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR20130053932A KR101483611B1 (en) 2013-05-13 2013-05-13 Method and Terminal for Extracting a Object from Image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130053932A KR101483611B1 (en) 2013-05-13 2013-05-13 Method and Terminal for Extracting a Object from Image

Publications (2)

Publication Number Publication Date
KR20140134154A KR20140134154A (en) 2014-11-21
KR101483611B1 true KR101483611B1 (en) 2015-01-21

Family

ID=52455374

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130053932A KR101483611B1 (en) 2013-05-13 2013-05-13 Method and Terminal for Extracting a Object from Image

Country Status (1)

Country Link
KR (1) KR101483611B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102080145B1 (en) 2019-10-30 2020-02-24 주식회사 뉴로메카 An apparatus for pose estimation of object using latent variable from auto encoder and method thereof
KR102079121B1 (en) 2019-10-30 2020-02-19 주식회사 뉴로메카 An apparatus for identifying a plurality of object from an image and method thereof, and computer readable storage medium
KR102333882B1 (en) 2019-10-30 2021-12-06 주식회사 뉴로메카 An apparatus for identifying a plurality of object from an image and method thereof, and computer readable storage medium
KR102177445B1 (en) 2020-02-17 2020-11-11 주식회사 뉴로메카 An apparatus for pose estimation of object using latent variable from auto encoder and method thereof

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063462A (en) * 1996-06-26 1998-03-06 Xerox Corp Method for expressing group of graphic object and computer control graphic display system
JPH1091323A (en) * 1996-06-26 1998-04-10 Xerox Corp Method for generating and operating group of graphic object and computer control graphic display system
JP2010277431A (en) 2009-05-29 2010-12-09 Secom Co Ltd Object detection device
JP2012088796A (en) * 2010-10-15 2012-05-10 Kddi Corp Image area division device, image area division method, and image area division program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1063462A (en) * 1996-06-26 1998-03-06 Xerox Corp Method for expressing group of graphic object and computer control graphic display system
JPH1091323A (en) * 1996-06-26 1998-04-10 Xerox Corp Method for generating and operating group of graphic object and computer control graphic display system
JP2010277431A (en) 2009-05-29 2010-12-09 Secom Co Ltd Object detection device
JP2012088796A (en) * 2010-10-15 2012-05-10 Kddi Corp Image area division device, image area division method, and image area division program

Also Published As

Publication number Publication date
KR20140134154A (en) 2014-11-21

Similar Documents

Publication Publication Date Title
CN106575195B (en) Improved drag and drop operations on mobile devices
US9111255B2 (en) Methods, apparatuses and computer program products for determining shared friends of individuals
JP6384474B2 (en) Information processing apparatus and information processing method
CN106484266A (en) A kind of text handling method and device
JP5948842B2 (en) Information processing apparatus, information processing method, and program
US20200073903A1 (en) Method and device of tagging links included in a screenshot of webpage
CN107368550B (en) Information acquisition method, device, medium, electronic device, server and system
JP5199939B2 (en) Image search apparatus, image search method and program
US20110314363A1 (en) Information processing device, information processing method, program, and information processing system
CN102520843A (en) Input method used for collecting image as candidate item and system
US20110125731A1 (en) Information processing apparatus, information processing method, program, and information processing system
CN103678704A (en) Picture recognition method, system, equipment and device based on picture information
KR101483611B1 (en) Method and Terminal for Extracting a Object from Image
CN103646122A (en) Picture identification method based on drag picture, picture identification system based on drag picture, picture identification equipment based on drag picture and picture identification device based on drag picture
CN104462590A (en) Information searching method and device
JP6419969B2 (en) Method and apparatus for providing image presentation information
KR101747299B1 (en) Method and apparatus for displaying data object, and computer readable storage medium
EP3910496A1 (en) Search method and device
JP2022091686A (en) Data annotation method, device, electronic apparatus and storage medium
CN103544166A (en) Method and device for achieving segmentation browse of page
CN103034468B (en) A kind of method and device showing text
KR20150097250A (en) Sketch retrieval system using tag information, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor
US10324975B2 (en) Bulk keyword management application
CN113892110A (en) Image-based dish recognition device and method
KR101634431B1 (en) Content provision method of objects and the apparatus using the method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171107

Year of fee payment: 4