KR101483611B1 - Method and Terminal for Extracting a Object from Image - Google Patents
Method and Terminal for Extracting a Object from Image Download PDFInfo
- Publication number
- KR101483611B1 KR101483611B1 KR20130053932A KR20130053932A KR101483611B1 KR 101483611 B1 KR101483611 B1 KR 101483611B1 KR 20130053932 A KR20130053932 A KR 20130053932A KR 20130053932 A KR20130053932 A KR 20130053932A KR 101483611 B1 KR101483611 B1 KR 101483611B1
- Authority
- KR
- South Korea
- Prior art keywords
- unit
- objects
- extracting
- image
- pixels
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 발명은 이미지에서 객체를 추출하기 위한 방법에 관한 것이다.
본 발명에 의한 이미지에서 객체를 추출하기 위한 방법은 단위객체 추출부가 이미지에서 픽셀 간의 유사도를 기반으로 하나 이상의 단위객체를 추출하는 제1 단계; 단위객체 추출부가 상기 단위객체를 표시부를 통해서 표시하는 제2 단계; 객체 설정부가 표시부에 표시되는 단위객체들 중에서 입력부를 통해서 둘 이상의 단위객체들이 선택되는지를 판단하는 제3 단계; 및 객체 설정부가 제3 단계에서 선택된 단위객체들을 조합하여 객체로 결정하는 제4 단계;를 포함한다.The present invention relates to a method for extracting an object from an image.
A method for extracting an object from an image according to the present invention includes: a first step of extracting one or more unit objects based on a degree of similarity between pixels in an unit object extracting unit; A unit object extraction unit displaying the unit object through a display unit; A third step of determining whether two or more unit objects are selected through the input unit among the unit objects displayed on the display unit of the object setting unit; And a fourth step of the object setting unit combining the unit objects selected in the third step and determining them as objects.
Description
본 발명은 이미지에서 객체를 추출하기 위한 방법 및 장치에 관한 것으로, 복수 개의 객체를 그룹화함으로써 새로운 객체를 생성하기 위한 방법 및 장치에 관한 것이다.
The present invention relates to a method and apparatus for extracting an object from an image, and a method and apparatus for creating a new object by grouping a plurality of objects.
현대 사회는 많은 디지털 콘텐츠가 정보화되어 축적되고 저장된다. In modern society, many digital contents are accumulated and stored by information.
텍스트/음성/영상 콘텐츠 등을 포함하는 디지털 콘텐츠의 가장 큰 장점 중에 하나는 사용자가 컴퓨터 환경에서 얼마든지 재가공하는 것이 수월하다는 것이다. 예컨대, 문서로 된 텍스트 파일은 문서 편집기를 이용하여 쉽게 편집할 수 있다. 마찬가지로 이미지 콘텐츠도 편집기를 이용하여 이미지를 구성하는 픽셀들의 일부 또는 전체를 편집할 수 있다. 이러한 장점은 디지털 콘텐츠의 활용을 더욱 폭넓게 할 수 있다.One of the biggest advantages of digital content, including text / audio / video content, is that it is easier for users to rework in the computer environment. For example, a document text file can be easily edited using a text editor. Similarly, the image content can also be edited to edit some or all of the pixels that make up the image. These advantages can make digital content more widely available.
하지만 다른 면에서는 콘텐츠가 수없이 재가공되고 전송되는 과정에서 콘텐츠의 원본이 불분명해지고 콘텐츠의 제목도 변경되기 때문에 콘텐츠를 데이터베이스화하는 것도 더욱 어렵게 된다. 특히, 이미지 콘텐츠는 텍스트 파일과 같이 '키워드'를 이용한 검색이 용이하지 않기 때문에, 이미지 콘텐츠 검색이 난해한 문제점이 있다.On the other hand, in the process of reprocessing and transmitting a large number of contents, the original content of the content becomes unclear and the title of the content is also changed. Particularly, since the image content is not easy to search using a 'keyword' like a text file, it is difficult to search image content.
근래에는 이미지 콘텐츠 검색을 기반으로 인터넷 검색 용도 및 기능을 늘리기 위한 방안들이 제안되고 있지만, 아직은 그 효율성이 아직 미미한 편이다. 특히나, 현재에는 이미지 검색을 위한 객체를 특정하는 방안에 대한 대비책이 취약한 상태이다. In recent years, there have been proposed ways to increase the use and function of the Internet search based on image content search, but the efficiency is still small. Particularly, there are currently no measures to identify objects for image retrieval.
예컨대, 텍스트를 검색하는 방안은 하나의 완성된 키워드 이외에 키워드의 조합을 통한 검색방안이 있지만, 이미지 콘텐츠를 검색하는 과정에서는 검색방법이 매우 한정되어 있다.
For example, in order to search for text, there is a method of searching through a combination of keywords in addition to one completed keyword, but the searching method is very limited in the process of searching for image contents.
따라서, 본 발명의 목적은 상기 전술한 문제점을 해결하기 위한 것으로서, 이미지 검색방법의 효율을 위해서 객체를 추출하기 위한 방법 및 장치를 제공하는 데에 있다.
Accordingly, it is an object of the present invention to provide a method and apparatus for extracting an object for efficiency of an image retrieval method.
상기한 문제점을 해결하기 위해서, 본 발명에 의한 이미지에서 객체를 추출하는 방법은 단위객체 추출부가 이미지에서 픽셀 간의 유사도를 기반으로 하나 이상의 단위객체를 추출하는 제1 단계; 단위객체 추출부가 상기 단위객체를 표시부를 통해서 표시하는 제2 단계; 객체 설정부가 표시부에 표시되는 단위객체들 중에서 입력부를 통해서 둘 이상의 단위객체들이 선택되는지를 판단하는 제3 단계; 및 객체 설정부가 제3 단계에서 선택된 단위객체들을 조합하여 객체로 결정하는 제4 단계;를 포함한다.According to an aspect of the present invention, there is provided a method of extracting objects from an image, the method comprising: a first step of extracting one or more unit objects based on a degree of similarity between pixels in an image; A unit object extraction unit displaying the unit object through a display unit; A third step of determining whether two or more unit objects are selected through the input unit among the unit objects displayed on the display unit of the object setting unit; And a fourth step of the object setting unit combining the unit objects selected in the third step and determining them as objects.
일 실시 예로서, 입력부는 표시부에 결합되는 터치패널을 이용하고, 제3 단계는 객체 설정부가 터치패널 상의 드래그 영역 내에 단위객체들이 존재하는지를 판단할 수 있다.In one embodiment, the input unit uses a touch panel coupled to the display unit, and in the third step, the object setting unit can determine whether unit objects exist in the drag region on the touch panel.
그리고 제3 단계는 객체 설정부가 터치패널 상에서 하나 이상의 터치 동작이 있을 때에, 터치 지점에 단위객체들이 존재하는지를 판단할 수 있다.In the third step, when the object setting unit has one or more touch operations on the touch panel, it can be determined whether or not the unit objects exist at the touch point.
또한 제3 단계에서 둘 이상의 단위객체의 선택 동작이 없을 경우에, 객체 설정부가 각각의 단위객체들을 객체로 결정하는 단계를 더 포함할 수 있다.If there is no selection operation of two or more unit objects in the third step, the object setting unit may determine each unit object as an object.
또는 제3 단계에서 객체를 결정한 이후에, 사용자로부터 객체 및 단위객체들의 선택이 있을 경우에, 객체 설정부가 객체 및 단위객체를 그룹화하여 새로운 객체를 설정하는 단계를 더 포함할 수 있다.Or setting the new object by grouping the object and the unit object when the object and the unit objects are selected from the user after the object is determined in the third step.
그리고 제3 단계에서 객체를 결정한 이후에, 사용자로부터 객체들의 선택이 있을 경우에, 객체 설정부가 객체들을 그룹화하여 객체쌍을 설정하는 단계를 더 포함할 수 있다.In addition, after the object is determined in the third step, when there is a selection of objects from the user, the object setting unit may group the objects to set the object pair.
본 발명에 의한 이미지에서 객체를 추출하는 기능을 갖는 단말기는 이미지에서 픽셀 간의 유사성을 기반으로 하나 이상의 단위객체를 추출하고, 단위객체를 표시부를 통해서 표시하는 단위객체 추출부; 표시부에 표시되는 단위객체들을 하나 이상 선택하기 위한 것으로, 표시부에 결합되는 터치패널 또는 컴퓨터용 마우스 장치를 이용하는 입력부; 및 입력부를 통해서 선택되는 단위객체들을 객체로서 결정하는 객체 설정부;를 구비한다.
A terminal having a function of extracting an object from an image according to the present invention includes a unit object extracting unit for extracting one or more unit objects based on similarity between pixels in an image and displaying the unit object through a display unit; An input unit for selecting one or more unit objects to be displayed on the display unit, the touch panel being connected to the display unit or the mouse unit for a computer; And an object setting unit for determining unit objects selected through the input unit as objects.
본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 이미지에서 픽셀 정보의 유사성을 바탕으로 단위객체를 추출하고, 사용자인터페이스를 통해서 선택되는 단위객체를 기반으로 객체를 생성한다. 따라서, 본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 이미지 검색을 위한 객체를 쉽고 효율적으로 생성할 수 있다. According to the method and apparatus for extracting an object according to the present invention, a unit object is extracted based on the similarity of pixel information in an image, and an object is created based on a unit object selected through a user interface. Therefore, according to the method and apparatus for extracting an object according to the present invention, it is possible to easily and efficiently create an object for image search.
또한, 본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 간편한 사용자인터페이스를 통해서 단위객체-단위객체, 단위객체-객체, 객체-객체들을 조합하여 새로운 객체를 생성할 수 있다. 즉, 본 발명에 의한 객체를 추출하기 위한 방법 및 장치에 의하면, 텍스트의 검색어 조합과 유사하게 이미지의 결합을 통해서 효율적이고 정확한 검색을 위한 이미지의 객체를 추출할 수 있다.
In addition, according to the method and apparatus for extracting an object according to the present invention, a new object can be created by combining unit object-unit object, unit object-object, and object-object through a simple user interface. That is, according to the method and apparatus for extracting an object according to the present invention, it is possible to extract an object of an image for efficient and accurate searching through combining of images similar to a combination of search terms of text.
도 1은 본 발명에 의한 객체추출 기능을 갖는 단말기의 구성을 나타내는 블록도.
도 2는 본 발명에 의한 객체추출 방법을 나타내는 순서도.
도 3은 단위객체를 표시하는 방법의 일례를 나타내는 모식도.
도 4 내지 도 6은 단위객체를 선택하는 방법의 실시 예를 나타내는 도면들.
도 7은 단위객체 및 객체를 그룹화하는 방법을 나타내는 도면.
도 8은 객체 및 객체를 그룹화하는 방법을 나타내는 도면.
도 9는 단위객체를 추출하는 방법의 실시 예를 나타내는 순서도.
도 10은 단위객체를 표시하는 방법의 일례를 나타내는 모식도. 1 is a block diagram illustrating a configuration of a terminal having an object extraction function according to the present invention;
2 is a flowchart showing an object extraction method according to the present invention;
3 is a schematic diagram showing an example of a method of displaying a unit object;
FIGS. 4-6 illustrate an embodiment of a method for selecting a unit object. FIG.
Figure 7 illustrates a method of grouping unit objects and objects.
8 is a diagram illustrating a method of grouping objects and objects.
9 is a flowchart showing an embodiment of a method of extracting a unit object;
10 is a schematic diagram showing an example of a method of displaying a unit object;
이하 상기 목적이 구체적으로 실현될 수 있는 본 발명의 실시 예들을 첨부된 도면을 참조하여 설명한다. 본 실시 예들을 설명함에 있어서 동일 구성에 대해서는 동일 명칭 및 부호가 사용되며, 이에 따른 부가적인 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention in which the above object can be specifically realized will be described with reference to the accompanying drawings. In the description of the embodiments, the same names and symbols are used for the same components, and further description thereof will be omitted.
도 1은 본 발명에 의한 객체 추출 기능을 갖는 단말기(100)의 구성을 나타내는 블록도이다. 1 is a block diagram showing the configuration of a
단말기(100)는 스마트폰(Smart phone) 또는 테블릿 PC와 같이, 응용프로그램이 어플리케이션(application)의 형태로 설치될 수 있는 휴대 단말기가 될 수 있다.The
메모리(130)는 이미지를 디지털 데이터 형식으로 저장하기 위한 것이다.The
표시부(130)는 이미지를 표시하고, 특히 이미지로부터 단위객체를 선택받기 위한 사용자인터페이스의 제공수단이 되기도 한다. 즉, 표시부(130)는 터치 센서를 포함하는 터치패널(132)과 결합하여, 표시부(130)를 통해서 표시되는 이미지의 픽셀을 터치패널(132)을 통해서 선택받을 수 있도록 한다.The
제어부(140)는 단말기(100)의 전반적인 동작을 제어하며, 특히 단위객체를 추출하고, 선택되는 단위객체를 그룹화하여 객체를 생성한다.The
이러한 제어부(140)는 단말기(100)가 기본적으로 보유한 하드웨어인 프로세서 칩과 그 칩에 의해 동작하는 프로그램으로 구현될 수 있다. 즉, 단말기(100)의 전반적인 기능은 프로세서 칩에 의해 수행되는 운영체제(OS: Operating System) 프로그램과, 그 OS 프로그램을 기반으로 설치(Install)되어 단말기(100) 내부의 하드웨어 구성을 제어하는 응용 프로그램들에 의해 수행하는 구조를 가질 수 있다. 예컨대, 제어부(140)의 객체 추출부(142)를 포함하는 일부 구성이 어플리케이션의 형태로서 메모리(120)에 설치될 수 있다. The
이하, 본 명세서에서는 본 발명의 실시를 중심으로 하는 제어부(140)의 구성인 객체 추출부(142)를 중심으로 설명하기로 한다.Hereinafter, the
객체 추출부(142)는 이미지에서 배경과 구분되는 전경을 객체로서 추출하기 위한 것이다. 이를 위해서 객체 추출부(142)는 단위객체 추출부(144) 및 객체 설정부(146)를 포함한다. The
단위객체 추출부(144)는 메모리(130)에 저장된 원본 이미지에서 유사도가 강한 픽셀들을 단위객체로 그룹화하고, 각각의 단위객체들을 표시부(130)를 통해서 표시한다. 이때, 단위객체 추출부(144)는 픽셀 간의 거리를 고려한 색상 유사도를 기준으로 단위객체를 추출할 수 있다. 단위객체 추출부(144)가 단위객체를 추출하는 세부적인 방법은 후술하기로 한다. The unit
객체 설정부(146)는 표시부(130)에 표시된 단위객체들 중에서 사용자에 의해서 선택되는 단위객체를 그룹화하여 객체로 결정한다. 또한, 객체 설정부(146)는 단위객체와 객체를 그룹화할 수 있고, 객체와 객체를 그룹화할 수도 있다.The object setting
이와 같은 객체 추출부(142)을 이용하여 메모리(130)에 저장된 원본 이미지에서 객체를 추출하는 방법을 도 2의 순서도를 참조하여 살펴보면 다음과 같다. A method of extracting an object from an original image stored in the
< 단위객체 추출 및 표시 : S201 ><Unit object extraction and display: S201>
단위객체 추출부(144)는 메모리(120)에 저장된 이미지 또는 검색서버(미도시)로부터 전송받은 원본이미지에서 단위객체를 추출한다. 단위객체는 이미지에서 관련성을 갖는 픽셀들이 조합된 부분 이미지로서, 색상의 유사도를 기준으로 조합된 픽셀들로 결정될 수 있다. The unit
그리고 단위객체 추출부(144)는 도 3에서와 같이, 추출된 제1 내지 제3 단위객체(401,402,403)를 표시부(130)를 통해서 표시하며, 단위객체 추출부(144)는 제1 내지 제3 단위객체들(401,402,403)의 최외곽 픽셀들을 제1 내지 제3 단위객체들(401,402,403) 단위객체(401,402,403)의 테두리로 표현할 수 있다.3, the unit
< 선택되는 단위객체들을 객체로 설정 : S203, S205 ><Set selected unit objects as objects: S203, S205>
객체 설정부(146)는 S201 단계에서 표시부(130)에 표시된 제1 내지 제3 단위객체들(401,402,403) 중에서 선택되는 단위객체를 조합하여 객체로 설정한다. In step S201, the
이를 위해서 객체 추출부(142)는 터치패널(132)에 접촉 동작이 행해지는 것을 감지함으로써, 사용자에 의해서 선택되는 단위객체를 확인한다. 즉, 객체 설정부(146)는 터치패널(132)에서 접촉지점의 픽셀이 제1 내지 제3 단위객체들(401,402,403)에 포함되는지 여부를 확인하고, 해당 픽셀이 제1 내지 제3 단위객체들(401,402,403)에 포함될 경우에 접촉지점의 단위객체를 객체의 일부로 판단한다. 예컨대, 도 4에서 도시된 예에서, ⓐ지점에 접촉 동작이 행해진 경우에, 객체 설정부(146)는 제1 단위객체(401)를 객체에 포함되는 단위객체라고 간주한다. 그리고 ⓑ지점과 같이 제1 내지 제3 단위객체들(401,402,403)에 포함되는 영역이 아닌 픽셀에 접촉 동작이 행해진 경우에, 객체 설정부(146)는 해당 접촉 동작을 무시한다. 또한, 객체 설정부(146)는 한 지점에 대한 접촉 동작뿐만 아니라 드래그 동작에 의해서 연속적인 픽셀들의 접촉 동작이 수행될 때에, 각각의 접촉 동작에 대응하는 픽셀들이 단위객체에 속하는지를 판단한다.For this, the
이때, 객체 설정부(146)는 둘 이상의 단위객체들이 선택될 경우에 선택되는 복수 개의 단위객체들을 조합하여 객체로 결정한다. 이와 같이, 복수 개의 단위객체를 그룹화하여 객체를 결정하는 실시 예를 살펴보면 다음과 같다. At this time, the
* 제1 실시 예 - 드래그 동작을 통한 단위객체의 그룹화* First Embodiment - Grouping of Unit Objects by Drag Operation
도 4에서와 같이, ⓐ지점에 터치 동작이 행해진 경우에, 객체 설정부(146)는 제1 단위객체(401)를 객체의 조합에 포함되는 단위객체라고 간주한다.As shown in FIG. 4, when the touch operation is performed on the point a, the
이어서, 도 5와 같이, ⓐ지점에서 ⓒ지점으로 드래그 동작이 행해진 경우에, 객체 설정부(146)는 드래그 동작에 의해서 접촉되는 픽셀들을 포함하는 단위객체가 있는지를 판단하고, 드래그 영역에 포함되는 단위객체들을 그룹화하여 객체(410)로 결정한다. 즉, 도 5에서와 같은 드래그 동작이 행해지면, 객체 설정부(146)는 제1 내지 제3 단위객체들(401,402,403)을 조합하여 제1 객체(410)로 설정한다. 5, when the drag operation is performed from the point a to the point c, the
만약 이러한 과정에서 객체 설정부(146)는 드래그 동작에서 선택되는 픽셀이 제1 내지 제3 단위객체들(401,402,403)에 포함되지 않을 경우에, 해당 픽셀 영역은 무시한다.If the pixel selected in the drag operation is not included in the first through third unit objects 401, 402, and 403, the
* 제2 실시 예-클릭 동작을 통한 단위객체의 그룹화* Second Embodiment - Grouping of Unit Objects by Click Operation
도 6은 단위객체를 선택하기 위한 제2 실시 예를 나타내는 도면이다. 객체 설정부(146)는 도6 에서와 같이, 터치패널(132)상에 클릭되는 동작을 바탕으로 제1 내지 제3 단위객체들(401,402,403) 중 하나 이상을 선택할 수 있다. 즉, ⓐ지점, ⓑ지점 및 ⓒ지점에 대해서 개별적인 클릭 동작이 수행되면, 객체 설정부(146)는 ⓐ지점, ⓑ지점 및 ⓒ지점의 픽셀을 포함하는 제1 내지 제3 단위객체들(401,402,403)를 조합하여 제1 객체(410)를 설정한다. 6 is a diagram illustrating a second embodiment for selecting a unit object. The
* 제3 실시 예-객체와 단위객체의 그룹화Third Embodiment - Grouping Objects and Unit Objects
제1 및 제2 실시 예에 의해서 선택된 단위객체를 바탕으로 객체를 설정한 객체 설정부(146)는 추가적으로 선택되는 단위객체를 조합하여 객체를 재설정할 수 있다. The
전술한 실시 예를 이용하여, 제1 내지 제3 단위객체들(401,402,403)를 그룹화하여 제1 객체(410)를 결정한 상태에서, 객체 설정부(146)는 추가적인 단위객체가 선택될 경우에 해당 단위객체를 포함하는 새로운 객체를 설정할 수 있다.In a state where the
예컨대, 도 7에서와 같이 제1 실시 예의 방법과 같이 ⓔ지점에서 ⓕ지점으로 드래그 동작이 수행되어서 제1 객체(410)와 제4 단위객체(404)가 선택되면, 객체 설정부(146)는 제1 객체(410) 및 제4 단위객체(404)를 그룹으로 하는 제2 객체(420)를 설정한다.For example, as shown in FIG. 7, when the
이때, 객체 설정부(146)는 드래그 동작이 아닌 제1 객체(410) 및 제4 단위객체(404)를 클릭하는 동작에 대해서도 제2 실시 예에서와 같이 제2 객체(420)를 설정할 수 있다.At this time, the
* 제4 실시 예-객체와 객체의 그룹화를 통한 객체쌍 설정* Fourth Embodiment - Object Pair Setting by Grouping Objects and Objects
객체 설정부(146)는 제1 내지 제3 실시 예를 통해서 설정한 객체들을 그룹화하여 객체쌍을 설정할 수 있다. The
예컨대, 도 8에서와 같이, 제1 객체(410) 및 제3 객체(430)를 드래그 동작으로 선택하였을 때에, 객체 설정부(146)는 제1 객체(410) 및 제3 객체(430)를 포함하는 객체쌍(450)을 설정한다. 8, when the
이때, 객체 설정부(146)는 드래그 동작이 아닌 제1 객체(410) 및 제3 객체(430)를 클릭하는 동작을 통해서도 객체쌍(450)을 설정할 수 있다. At this time, the
또한, 객체 설정부(146)는 드래그 동작 과정에서 객체 또는 단위객체가 아닌 픽셀이 선택되었을 때에는, 해당 픽셀 영역을 무시한다. Also, when a pixel other than an object or a unit object is selected in the drag operation process, the
이와 같은 객체쌍(450)은 동일한 형태의 객체를 그룹화하여 복수 객체를 단일의 객체쌍으로 선택하거나, 서로 다른 형태의 객체들을 그룹화하여 쌍이 되는 객체들의 조합으로 객체쌍으로 선택할 수도 있다. 즉, 객체쌍(450)은 객체가 복수 개를 포함하는 이미지 검색이나, 찻잔과 받침대 또는 숟가락과 젓가락 등과 같이 쌍으로 구성되는 객체의 검색을 위한 조건으로 이용될 수 있다.Such an
그리고, S203 단계에서, 복수 개의 단위객체들이 선택되지 않는다면, 객체 설정부(146)는 제1 내지 제3 단위객체들(401,402,403)을 객체로 결정할 수 있다.If a plurality of unit objects are not selected in step S203, the
상술한 바와 같이, 본 발명에 의한 객체 추출부(142)는 단위객체들을 그룹화하여 객체를 생성할 수 있다. As described above, the
이때, 제1 내지 제3 단위객체들(401,402,403)는 원본 이미지에서 유사도를 기반으로 추출될 수 있고, 일례로 색상의 유사도를 기반으로 단위객체를 추출하는 방법을 도 9의 순서도를 참조하여 살펴보면 다음과 같다.In this case, the first through third unit objects 401, 402, and 403 can be extracted based on the degree of similarity in the original image. For example, a method of extracting a unit object based on the similarity of colors will be described with reference to FIG. Respectively.
< 픽셀 간의 결합력 산출 : S901 ><Calculation of Bonding Force between Pixels: S901>
원본 이미지에서 객체를 추출하기 위해서 단위객체 추출부(144)는 먼저 색상 유사도를 기준으로 이미지를 분할한다. 이때 단위객체 추출부(144)는 픽셀 간의 거리에 따른 색상 유사도를 근거로 산출되는 '결합력'을 기준으로 원본 이미지를 분할한다. 결합력은 대비되는 두 개의 픽셀 간의 결합 정도에 관한 상대적인 값으로서 동일한 객체에 속할 정도를 나타내는 것으로서, 다음의 [수학식 1]과 같이 정의된다.In order to extract the object from the original image, the unit
여기서, '색상유사도'는 대비되는 픽셀 쌍에 포함된 두 개 픽셀의 색상 값의 유사도를 나타낸다. '픽셀간거리'는 픽셀 쌍에 포함된 두 개 픽셀 간의 상대적 거리를 나타낸다. 즉, 결합력은 두 개 픽셀의 색상이 유사하고 두 픽셀 간의 거리가 가까울수록 큰 값을 갖는 픽셀 쌍의 결합 정도를 나타내는 값이다.Here, 'color similarity' represents a degree of similarity between the color values of two pixels included in the pair of contrast pixels. 'Interpixel distance' represents the relative distance between two pixels included in a pixel pair. That is, the binding force is a value indicating the degree of coupling of pixel pairs having a larger value as the two pixels are similar in color and the distance between the two pixels is closer.
이와 같은 결합력을 구하기 위해서 단위객체 추출부(144)는 원본 이미지에서 두 개의 픽셀로 이루어지는 픽셀 쌍을 선택한다. 단위객체 추출부(144)가 픽셀 쌍을 선택하는 방법은 조합가능한 모든 픽셀 쌍을 선택하거나, 일정 거리 내에 위치한 픽셀들에 한해서 픽셀 쌍을 선택할 수 있다. In order to obtain such a binding force, the unit
< 결합력이 기준치 이상인 픽셀들을 조합하여 단위객체로 결정 : S902 >≪ < S902 > Determining a unit object by combining pixels having a bonding strength equal to or greater than a reference value:
S902 단계에서 계산한 결합력을 바탕으로 단위객체 추출부(144)는 두 개의 픽셀 조합인 픽셀 쌍 각각에 대한 결합력을 산출하고, 산출된 결합력이 일정 기준치 이상일 경우에는 해당 픽셀들을 조합하여 단위객체로 설정한다. 이때 기준값은 실험적으로 구할 수 있다.Based on the binding force calculated in step S902, the unit
이러한 과정을 통해서 단위객체 추출부(144)는 색상이 크게 다르거나 서로 간의 거리가 멀리 배치된 픽셀 쌍은 배제하고, 결합력이 강한 픽셀 쌍들을 연계함으로써 단위객체를 추출할 수 있다. 즉, 단위객체 추출부(144)는 도 10에서와 같이, 원본 이미지를 P1~P7의 픽셀, P8~P13의 픽셀, P14~P18의 픽셀 및 P19~P20의 픽셀끼리 조합하여 단위객체를 설정할 수 있다. Through this process, the unit
이때, 단위객체 추출부(144)는 결합력이 강하다고 할지라도 단위객체에 포함되는 픽셀수가 미리 설정된 임계치보다 적을 경우에는, 해당 단위객체를 표시부(130)에 표시하지 않을 수도 있다. 예컨대, P19~P20의 픽셀들은 서로 색상 유사성이 강하더라도 표시부(130)에 단위객체로 표시되지 않을 수 있다.At this time, the unit
상술한 실시 예에서 단말기(100)는 스마트폰과 같은 휴대 단말기를 전제로 하여, 표시부(130)에 터치패널(132)이 결합된 단말기에 대해서 설명되었다. 하지만, 본 발명의 실시 예는 다른 개인용 컴퓨터와 같은 단말기로도 이용될 수 있음은 자명하다. 개인용 컴퓨터를 이용할 경우에, 객체 추출부(142)는 응용프로그램으로서 컴퓨터에 설치될 수 있고, 표시부(130)에 표시되는 이미지에서 픽셀들을 선택받기 위한 터치패널(132)은 컴퓨터용 마우스 장치를 이용하여 대체될 수도 있다. In the above-described embodiment, the terminal 100 has been described on the assumption that a portable terminal such as a smart phone is assumed, and a
또한, 본 발명은 단말기에 한정되지 않으며, 객체 추출을 위한 객체 추출부(142)는 검색기능을 갖는 서버의 구성에 포함될 수도 있다. 이러한 경우에 서버는 단말기(100)에 저장되는 이미지 또는 서버의 데이터베이스에 저장된 이미지에서 단위객체를 추출하여, 추출된 단위객체를 단말기(100)의 표시부(130)를 통해서 표시할 수 있다. 그리고 단말기(100)는 마우스장치 또는 터치패널(132)을 이용하여 픽셀을 선택하고, 서버는 단말기가 선택한 픽셀이 단위객체에 해당하는지 여부를 판단하여 객체를 설정할 수도 있다.In addition, the present invention is not limited to the terminal, and the
위에서 몇몇의 실시 예가 예시적으로 설명되었음에도 불구하고, 본 발명이 이의 취지 및 범주에서 벗어남 없이 다른 여러 형태로 구체화될 수 있다는 사실은 해당 기술에 통상의 지식을 가진 이들에게는 자명한 것이다. 따라서, 상술한 실시 예는 제한적인 것이 아닌 예시적인 것으로 여겨져야 하며, 첨부된 청구항 및 이의 동등 범위 내의 모든 실시 예는 본 발명의 범주 내에 포함된다. It is to be understood by those skilled in the art that the present invention may be embodied in many other forms without departing from the spirit and scope of the invention, Accordingly, the above-described embodiments are to be considered illustrative and not restrictive, and all embodiments falling within the scope of the appended claims and their equivalents are intended to be included within the scope of the present invention.
Claims (7)
단위객체 추출부가 이미지에서 픽셀 간의 유사도를 기반으로 하나 이상의 단위객체를 추출하는 제1 단계;
상기 단위객체 추출부가 상기 단위객체를 표시부를 통해서 표시하는 제2 단계;
객체 설정부가 상기 표시부에 표시되는 상기 단위객체들 중에서 입력부를 통해서 둘 이상의 단위객체들이 선택되는지를 판단하는 제3 단계;
상기 객체 설정부가 상기 제3 단계에서 선택된 단위객체들을 조합하여 객체로 결정하는 제4 단계; 및
상기 제3 단계에서 둘 이상의 단위객체의 선택 동작이 없을 경우에, 상기 객체 설정부가 각각의 상기 단위객체들을 객체로 결정하는 제5 단계를 포함하는 이미지에서 객체를 추출하는 방법.
A method of extracting an object from an image,
A first step of extracting at least one unit object based on the degree of similarity between pixels in the unit object extracting unit;
A second step of the unit object extracting unit displaying the unit object through a display unit;
A third step of determining whether two or more unit objects are selected through the input unit among the unit objects displayed on the display unit by the object setting unit;
A fourth step of the object setting unit combining the unit objects selected in the third step and determining the object as an object; And
And a fifth step of the object setting unit determining each of the unit objects as an object when there is no selection operation of two or more unit objects in the third step.
상기 입력부는 표시부에 결합되는 터치패널을 이용하고,
상기 제3 단계는 상기 객체 설정부가 상기 터치패널 상의 드래그 영역 내에 상기 단위객체들이 존재하는지를 판단하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
The method according to claim 1,
Wherein the input unit uses a touch panel coupled to a display unit,
Wherein the object setting unit determines whether the unit objects exist in the drag area on the touch panel.
상기 제3 단계는 상기 객체 설정부가 상기 터치패널 상에서 하나 이상의 접촉 동작이 있을 때에, 접촉지점에 상기 단위객체들이 존재하는지를 판단하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
3. The method of claim 2,
Wherein the third step determines whether the unit objects exist at a contact point when the object setting unit has at least one contact action on the touch panel.
상기 제3 단계에서 상기 객체를 결정한 이후에, 사용자로부터 상기 객체 및 상기 단위객체들의 선택이 있을 경우에,
상기 객체 설정부가 상기 객체 및 상기 단위객체를 그룹화하여 새로운 객체를 설정하는 단계를 더 포함하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
4. The method according to any one of claims 1 to 3,
If there is a selection of the object and the unit objects from the user after determining the object in the third step,
Wherein the object setting unit groups the object and the unit object to set a new object.
상기 제3 단계에서 상기 객체를 결정한 이후에, 사용자로부터 상기 객체들의 선택이 있을 경우에,
상기 객체 설정부가 상기 객체들을 그룹화하여 객체쌍을 설정하는 단계를 더 포함하는 것을 특징으로 하는 이미지에서 객체를 추출하는 방법.
4. The method according to any one of claims 1 to 3,
If there is a selection of the objects from the user after determining the object in the third step,
Wherein the object setting unit groups the objects and sets an object pair.
이미지에서 픽셀 간의 유사성을 기반으로 하나 이상의 단위객체를 추출하고, 상기 단위객체를 표시부를 통해서 표시하는 단위객체 추출부;
상기 표시부에 표시되는 상기 단위객체들을 하나 이상 선택하기 위한 것으로, 상기 표시부에 결합되는 터치패널 또는 컴퓨터용 마우스 장치를 이용하는 입력부; 및
상기 표시부에 표시되는 상기 단위객체들 중에서 상기 입력부를 통해서 둘 이상의 단위객체들이 선택된 경우에 상기 선택된 단위객체들을 조합하여 객체로 결정하며, 상기 입력부를 통해서 둘 이상의 단위객체의 선택 동작이 없을 경우에 각각의 상기 단위객체들을 객체로 결정하는 객체 설정부를 구비하여 이미지에서 객체를 추출하는 기능을 갖는 단말기.
A terminal having a function of extracting an object from an image,
A unit object extraction unit extracting one or more unit objects based on similarity between pixels in an image and displaying the unit objects through a display unit;
An input unit for selecting at least one unit object displayed on the display unit using a touch panel or a computer mouse device coupled to the display unit; And
When two or more unit objects are selected through the input unit among the unit objects displayed on the display unit, the selected unit objects are combined to determine an object, and when there is no selection operation of two or more unit objects through the input unit And an object setting unit for determining the unit objects in the image as an object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130053932A KR101483611B1 (en) | 2013-05-13 | 2013-05-13 | Method and Terminal for Extracting a Object from Image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130053932A KR101483611B1 (en) | 2013-05-13 | 2013-05-13 | Method and Terminal for Extracting a Object from Image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140134154A KR20140134154A (en) | 2014-11-21 |
KR101483611B1 true KR101483611B1 (en) | 2015-01-21 |
Family
ID=52455374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130053932A KR101483611B1 (en) | 2013-05-13 | 2013-05-13 | Method and Terminal for Extracting a Object from Image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101483611B1 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102080145B1 (en) | 2019-10-30 | 2020-02-24 | 주식회사 뉴로메카 | An apparatus for pose estimation of object using latent variable from auto encoder and method thereof |
KR102079121B1 (en) | 2019-10-30 | 2020-02-19 | 주식회사 뉴로메카 | An apparatus for identifying a plurality of object from an image and method thereof, and computer readable storage medium |
KR102333882B1 (en) | 2019-10-30 | 2021-12-06 | 주식회사 뉴로메카 | An apparatus for identifying a plurality of object from an image and method thereof, and computer readable storage medium |
KR102177445B1 (en) | 2020-02-17 | 2020-11-11 | 주식회사 뉴로메카 | An apparatus for pose estimation of object using latent variable from auto encoder and method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1063462A (en) * | 1996-06-26 | 1998-03-06 | Xerox Corp | Method for expressing group of graphic object and computer control graphic display system |
JPH1091323A (en) * | 1996-06-26 | 1998-04-10 | Xerox Corp | Method for generating and operating group of graphic object and computer control graphic display system |
JP2010277431A (en) | 2009-05-29 | 2010-12-09 | Secom Co Ltd | Object detection device |
JP2012088796A (en) * | 2010-10-15 | 2012-05-10 | Kddi Corp | Image area division device, image area division method, and image area division program |
-
2013
- 2013-05-13 KR KR20130053932A patent/KR101483611B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1063462A (en) * | 1996-06-26 | 1998-03-06 | Xerox Corp | Method for expressing group of graphic object and computer control graphic display system |
JPH1091323A (en) * | 1996-06-26 | 1998-04-10 | Xerox Corp | Method for generating and operating group of graphic object and computer control graphic display system |
JP2010277431A (en) | 2009-05-29 | 2010-12-09 | Secom Co Ltd | Object detection device |
JP2012088796A (en) * | 2010-10-15 | 2012-05-10 | Kddi Corp | Image area division device, image area division method, and image area division program |
Also Published As
Publication number | Publication date |
---|---|
KR20140134154A (en) | 2014-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106575195B (en) | Improved drag and drop operations on mobile devices | |
US9111255B2 (en) | Methods, apparatuses and computer program products for determining shared friends of individuals | |
JP6384474B2 (en) | Information processing apparatus and information processing method | |
CN106484266A (en) | A kind of text handling method and device | |
JP5948842B2 (en) | Information processing apparatus, information processing method, and program | |
US20200073903A1 (en) | Method and device of tagging links included in a screenshot of webpage | |
CN107368550B (en) | Information acquisition method, device, medium, electronic device, server and system | |
JP5199939B2 (en) | Image search apparatus, image search method and program | |
US20110314363A1 (en) | Information processing device, information processing method, program, and information processing system | |
CN102520843A (en) | Input method used for collecting image as candidate item and system | |
US20110125731A1 (en) | Information processing apparatus, information processing method, program, and information processing system | |
CN103678704A (en) | Picture recognition method, system, equipment and device based on picture information | |
KR101483611B1 (en) | Method and Terminal for Extracting a Object from Image | |
CN103646122A (en) | Picture identification method based on drag picture, picture identification system based on drag picture, picture identification equipment based on drag picture and picture identification device based on drag picture | |
CN104462590A (en) | Information searching method and device | |
JP6419969B2 (en) | Method and apparatus for providing image presentation information | |
KR101747299B1 (en) | Method and apparatus for displaying data object, and computer readable storage medium | |
EP3910496A1 (en) | Search method and device | |
JP2022091686A (en) | Data annotation method, device, electronic apparatus and storage medium | |
CN103544166A (en) | Method and device for achieving segmentation browse of page | |
CN103034468B (en) | A kind of method and device showing text | |
KR20150097250A (en) | Sketch retrieval system using tag information, user equipment, service equipment, service method and computer readable medium having computer program recorded therefor | |
US10324975B2 (en) | Bulk keyword management application | |
CN113892110A (en) | Image-based dish recognition device and method | |
KR101634431B1 (en) | Content provision method of objects and the apparatus using the method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20171107 Year of fee payment: 4 |