KR101652022B1 - Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image - Google Patents

Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image Download PDF

Info

Publication number
KR101652022B1
KR101652022B1 KR1020140117279A KR20140117279A KR101652022B1 KR 101652022 B1 KR101652022 B1 KR 101652022B1 KR 1020140117279 A KR1020140117279 A KR 1020140117279A KR 20140117279 A KR20140117279 A KR 20140117279A KR 101652022 B1 KR101652022 B1 KR 101652022B1
Authority
KR
South Korea
Prior art keywords
edge
pixels
pixel
image
area
Prior art date
Application number
KR1020140117279A
Other languages
Korean (ko)
Other versions
KR20160028310A (en
Inventor
염기원
유범재
Original Assignee
재단법인 실감교류인체감응솔루션연구단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 재단법인 실감교류인체감응솔루션연구단 filed Critical 재단법인 실감교류인체감응솔루션연구단
Priority to KR1020140117279A priority Critical patent/KR101652022B1/en
Publication of KR20160028310A publication Critical patent/KR20160028310A/en
Application granted granted Critical
Publication of KR101652022B1 publication Critical patent/KR101652022B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/181Segmentation; Edge detection involving edge growing; involving edge linking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Abstract

본 발명의 일 태양에 따르면, 이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 방법으로서, (a) 이미지 처리 장치가, 상기 제2 객체가 상기 제1 객체에 중첩된 상태의 이미지인 중첩된 이미지 및 상기 제2 객체가 상기 제1 객체에 중첩되지 않은 상태에서의 상기 제1 객체의 이미지에 대한 템플릿이 결합된 상태에서 추출된 엣지 중 상기 중첩된 이미지에 포함된 제1 엣지를 식별하는 단계; (b) 상기 이미지 처리 장치가, 상기 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부를 판단하는 단계; 및 (c) 상기 이미지 처리 장치가, 상기 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 단계를 포함하는 방법이 제공된다. 본 발명에 의하면, 색상이 유사한 제1 객체와 제2 객체를 손쉽고 안정적으로 분리할 수 있는 효과가 달성된다.According to an aspect of the present invention, there is provided a method for separating a second object superimposed on a first object in an image, the method comprising the steps of: (a) determining whether the second object is an image A first edge included in the superimposed image among the extracted edges of the superimposed image and the template for the image of the first object in a state in which the second object is not overlapped with the first object is identified ; (b) the image processing apparatus judges whether or not at least one edge pixel of the second edge exists in a predetermined area including edge pixels of the first edge; And (c) the image processing apparatus determines an edge pixel of the first edge as one of a pixel of the first object and a pixel of the second object based on whether at least one edge pixel of the second edge exists The method comprising the steps of: According to the present invention, it is possible to easily and stably separate the first object and the second object having similar colors.

Description

이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체{METHOD, APPARATUS AND COMPUTER-READABLE RECORDING MEDIUM FOR SEGMENTING A SECOND OBEJCT WHICH IS OVERLAPPED WITH A FIRST OBJECT IN IMAGE}METHOD, APPARATUS AND COMPUTER READABLE RECORDING MEDIUM FOR SEGMENTING A SECOND OBJECT WHICH IS OVERLAPPED WITH A FIRST OBJECT IN IMAGE FOR DETACHING A SECOND OBJECT NAMED INTO A FIRST OBJECT IN AN IMAGE,

본 발명은 이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체에 관한 것으로, 보다 상세하게는, 예를 들어, 이미지에서 손이 얼굴에 중첩된 상태의 제1 엣지를 식별하고, 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 얼굴 템플릿의 제2 엣지가 존재하는지 여부를 판단하고, 제2 엣지가 존재하는지 여부에 기반하여 상기 제1 엑지의 엣지 픽셀을 얼굴의 영역의 픽셀 또는 손의 영역의 픽셀로 결정함으로써 이미지에서 얼굴에 중첩된 손을 분리할 수 있게 하는 방법, 장치 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.The present invention relates to a method, an apparatus and a computer-readable recording medium for separating a second object superimposed on a first object in an image. More particularly, the present invention relates to a method, apparatus and computer- Determining whether a second edge of the face template is present in a predetermined area including an edge pixel of the first edge and determining whether a second edge of the face template exists in an edge of the edge of the first edge, An apparatus and a computer-readable recording medium that enable a user to separate a hand overlapping a face in an image by determining the pixel as a pixel of the area of the face or a pixel of the area of the hand.

카메라를 이용하여 사용자의 손 동작, 즉 제스처를 인식하는 다양한 어플리케이션이 제시되었다. 어플리케이션은 사용자의 제스처의 의미를 정확하게 인식함에 따라 인식된 의미에 대응하는 명령 또는 처리의 과정을 수행한다. 이러한 제스처의 인식은 인간-컴퓨터 상호작용 분야에서 주로 연구되어 왔다. 스마트폰을 이용하는 원격제어, 의사소통, 게임 및 어플리케이션의 실행과 같은 제스처의 인식에 관련된 다양한 시도가 이루어지고 있다.A variety of applications for recognizing the user's hand movements, or gestures, have been presented using cameras. The application accurately recognizes the meaning of the gesture of the user, and executes a command or process corresponding to the recognized meaning. The recognition of these gestures has been mainly studied in the field of human-computer interaction. Various attempts have been made to recognize gestures such as remote control using a smartphone, communication, and execution of games and applications.

그러나, 카메라를 이용해서 사용자의 제스처를 인식하는 다양한 방법이 제시되었음에도 불구하고, 경우에 따라서 이러한 제스처의 인식은 제한되거나 정확하지 않은 결과를 도출할 수 있다. 예를 들면, 사용자의 손이 사용자의 얼굴 또는 사용자의 피부색과 유사한 색을 갖는 다른 객체와 중첩될 경우, 카메라에 의해 획득된 이미지의 정보에서 사용자의 손을 얼굴 또는 다른 객체로부터 분리하는 것이 어렵고, 따라서 사용자의 실제의 제스처를 정확하게 인식할 수 없다는 문제가 발생할 수 있다.However, although various methods of recognizing a user's gesture using a camera have been proposed, recognition of such a gesture may be limited or inaccurate in some cases. For example, if the user's hand overlaps with the user's face or another object having a color similar to the user's skin color, it is difficult to separate the user's hand from the face or other object in the information of the image acquired by the camera, Therefore, there is a problem that the user can not accurately recognize the actual gesture.

얼굴 및 손과 같은 사용자의 신체를 인식하는 것에 관련하여 한국등록특허 제10-0826878호 등의 출원 및 특허가 공개된 바 있다. 그러나, 이러한 출원 및 특허들은 전술된 사용자의 얼굴에 중첩된 손을 인식하는 것과 관련된 문제에 대한 직접적인 해결책을 제시하지는 못한다.Korean Patent No. 10-0826878 and the like have been disclosed in relation to recognition of a user's body such as a face and a hand. However, these applications and patents do not provide a direct solution to the problem associated with recognizing hand superimposed on the user's face as described above.

이에, 본 발명자는, 사용자의 손이 얼굴에 중첩된 상태의 얼굴의 영역의 엣지 픽셀에 대하여, 엣지 픽셀을 얼굴의 영역의 픽셀 또는 손의 영역의 픽셀로 결정함으로써 이미지에서 사용자의 얼굴에 중첩된 손을 분리하는 기술을 개발하기에 이르렀으며, 후술하는 바와 같이 얼굴에 중첩된 손을 분리하는 기술을 일반화하여 제1 객체에 중첩된 제2 객체를 분리하는 기술에까지 적용할 수 있는 기술을 개발하였다.Thus, the present inventor has found that by determining an edge pixel as a pixel of a face area or a pixel of a hand area with respect to an edge pixel of an area of a face where a user's hand is superimposed on a face, A technique for separating hands has been developed and a technology for separating a second object superimposed on a first object has been developed by generalizing a technique of separating a hand superimposed on a face as described later .

본 발명은 상술한 문제점을 모두 해결하는 것을 그 목적으로 한다.It is an object of the present invention to solve all the problems described above.

또한, 본 발명은 사용자의 제스처를 인식함에 있어서, 사용자의 움직임을 촬영된 이미지에서 사용자의 손이 사용자의 얼굴과 중첩될 때, 적은 연산량만으로도 얼굴의 영역 및 손의 영역을 안정적으로 분리함으로써 사용자의 동작 및 동작의 의미가 정확하게 인식될 수 있도록 하는 것을 다른 목적으로 한다.In addition, in recognizing the user's gesture, the present invention stably separates the area of the face and the area of the hand with only a small amount of calculation when the user's hand overlaps the user's face in the photographed image, So that the meaning of the operation and the operation can be accurately recognized.

또한, 본 발명은 얼굴 템플릿과 중첩된 이미지에서의 엣지 픽셀의 엣지 그래디언트 오리엔테이션을 이용하여 얼굴 및 손이 중첩된 이미지로부터 손을 분리할 수 있도록 하는 것을 다른 목적으로 한다.It is another object of the present invention to allow a hand to be separated from an image in which a face and a hand are superimposed using an edge gradient orientation of an edge pixel in an image superposed with a face template.

또한, 본 발명은 제1 객체와 제2 객체의 컬러 정보가 유사한 경우라고 하더라도 제1 객체에 중첩된 제2 객체를 안정적으로 분리할 수 있도록 하는 것을 또 다른 목적으로 한다.Another object of the present invention is to stably separate a second object superimposed on a first object even if the color information of the first object and the second object are similar.

상기 목적을 달성하기 위한 본 발명의 대표적인 구성은 다음과 같다.In order to accomplish the above object, a representative structure of the present invention is as follows.

본 발명의 일 실시예에 따르면, 이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 방법으로서, (a) 이미지 처리 장치가, 상기 제2 객체가 상기 제1 객체에 중첩된 상태의 이미지인 중첩된 이미지 및 상기 제2 객체가 상기 제1 객체에 중첩되지 않은 상태에서의 상기 제1 객체의 이미지에 대한 템플릿이 결합된 상태에서 추출된 엣지 중 상기 중첩된 이미지에 포함된 제1 엣지를 식별하는 단계; (b) 상기 이미지 처리 장치가, 상기 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부를 판단하는 단계; 및 (c) 상기 이미지 처리 장치가, 상기 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 단계를 포함하는 방법이 제공된다.According to an embodiment of the present invention, there is provided a method for separating a second object superimposed on a first object in an image, the method comprising the steps of: (a) And a first edge included in the superimposed image among the edges extracted in a state in which the template for the image of the first object in a state in which the second object is not superimposed on the first object is combined Identifying; (b) the image processing apparatus judges whether or not at least one edge pixel of the second edge exists in a predetermined area including edge pixels of the first edge; And (c) the image processing apparatus determines an edge pixel of the first edge as one of a pixel of the first object and a pixel of the second object based on whether at least one edge pixel of the second edge exists The method comprising the steps of:

본 발명의 일 태양에 따르면, 이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 이미지 처리 장치로서, 제2 객체가 제1 객체에 중첩된 상태의 이미지인 중첩된 이미지 및 상기 제2 객체가 상기 제1 객체에 중첩되지 않은 상태에서의 상기 제1 객체의 이미지에 대한 템플릿이 결합된 상태에서 추출된 엣지 중 상기 중첩된 이미지에 포함된 제1 엣지를 식별하고, 상기 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부를 판단하는 이미지 처리부; 및 상기 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 영역 결정부를 포함하는 장치가 제공된다.According to an aspect of the present invention, there is provided an image processing apparatus for separating a second object superimposed on a first object in an image, the apparatus comprising: a superimposed image in which a second object is an image superimposed on a first object; Identifies a first edge included in the superimposed image among edges extracted in a state in which a template for an image of the first object is not overlapped with the first object, An image processing unit for determining whether at least one edge pixel of the second edge exists in a predetermined area including the pixel; And an area determining unit that determines an edge pixel of the first edge as one of the pixel of the first object and the pixel of the second object based on whether at least one edge pixel of the second edge exists do.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 장치, 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하기 위한 컴퓨터 판독 가능한 기록 매체가 더 제공된다.In addition, there is further provided another method, apparatus, system for implementing the invention and a computer readable recording medium for recording a computer program for executing the method.

본 발명에 의하면, 게임기 및 기타 장치에서 요구되는 사용자의 제스처의 인식에 있어서, 캡쳐된 이미지에서 사용자의 얼굴 및 얼굴에 중첩된 손을 안정적으로 분리함으로써 사용자의 동작 및 동작의 의미가 정확하게 인식될 수 있다.According to the present invention, in recognition of a gesture of a user required in a game machine and other devices, it is possible to stably separate hands superimposed on a user's face and a face in a captured image, have.

또한, 본 발명에 의하면, 사용자의 움직임을 촬영한 이미지에서 사용자의 손이 사용자의 얼굴과 중첩될 때, 얼굴의 영역 및 손의 영역을 안정적으로 분리함에 있어서 적은 연산량만으로도 수행이 가능할 수 있다.In addition, according to the present invention, when the user's hand is superimposed on the user's face in the image of the movement of the user, the area of the face and the area of the hand can be stably separated and can be performed with only a small amount of calculation.

또한, 본 발명에 의하면, 제1 객체와 제2 객체의 컬러 정보가 유사한 경우라고 하더라도 제1 객체에 중첩된 제2 객체를 안정적으로 분리함에 있어서 적은 연산량만으로도 수행이 가능할 수 있다.According to the present invention, even if the color information of the first object and the second object is similar, the second object superimposed on the first object can be stably separated and can be performed with only a small amount of computation.

도 1은 본 발명에 따라 이미지에서 제1 객체에 중첩된 제2 객체를 분리하여 식별하기 위한 이미지 처리 장치(100)의 구성을 개략적으로 나타내는 도면이다.
도 2는 본 발명에 따라 사용자의 손이 사용자의 얼굴에 중첩된 이미지에서 얼굴로부터 손을 분리하여 식별하기 위한 방법의 흐름도이다.
도 3은 본 발명의 일 실시예에 따른 피부색 모델을 설명하는 도면이다.
도 4는 본 발명의 일 실시예에 따른 사용자의 손 및 얼굴이 중첩되었는지 여부를 판단하기 위한 방법을 설명한다.
도 5는 본 발명의 일 실시예에 따른 손 및 얼굴의 중첩의 여부에 따라 변화하는 피부색의 픽셀의 개수를 나타낸다.
도 6은 본 발명의 일 실시예에 따른 중첩된 이미지의 엣지 픽셀을 포함하는 소정의 영역 내에 다른 엣지가 존재하는지 여부를 판단하는 방식을 설명한다.
도 7은 본 발명의 일 실시예에 따른 식별된 엣지 픽셀을 얼굴의 영역의 픽셀 및 손의 영역의 픽셀 중 하나로 분류하는 방법을 나타낸다.
도 8(a) 내지 도 8(j)는 본 발명의 일 실시예에 따른 엣지 픽셀을 얼굴의 영역의 픽셀 및 손의 영역의 픽셀 중 하나로 분류하는 방법을 보다 자세히 설명하기 위한 도면을 나타낸다.
도 9는 본 발명의 일 실시예에 따른 중첩된 이미지에서 손의 엣지를 분리해 낸 결과에 대한 예시를 나타낸다.
1 is a view schematically showing the configuration of an image processing apparatus 100 for separating and identifying a second object superimposed on a first object in an image according to the present invention.
2 is a flowchart of a method for separating and identifying a hand from a face in an image in which a user's hand is superimposed on a user's face in accordance with the present invention.
3 is a view for explaining a skin color model according to an embodiment of the present invention.
FIG. 4 illustrates a method for determining whether a user's hands and faces are overlapped according to an embodiment of the present invention.
FIG. 5 shows the number of pixels of a skin color varying depending on whether a hand or a face is overlapped according to an embodiment of the present invention.
FIG. 6 illustrates a method of determining whether another edge exists in a predetermined area including an edge pixel of a superimposed image according to an embodiment of the present invention.
Figure 7 illustrates a method of classifying an identified edge pixel according to an embodiment of the present invention into one of the pixels of the face area and one of the pixels of the hand area.
8 (a) to 8 (j) show drawings for explaining a method of classifying an edge pixel according to an embodiment of the present invention into one of a pixel of a face area and a pixel of a hand area.
FIG. 9 illustrates an example of a result of separating a hand edge from a superimposed image according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는, 적절하게 설명된다면, 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which such claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

이하에서는, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있도록 하기 위하여, 본 발명의 바람직한 실시예들에 관하여 첨부된 도면을 참조하여 상세히 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

이미지 처리 장치의 구성Configuration of image processing device

도 1은 본 발명에 따라 이미지에서 제1 객체에 중첩된 제2 객체를 분리하여 식별하기 위한 이미지 처리 장치(100)의 구성을 개략적으로 나타내는 도면이다. 참고로, 제1 객체와 제2 객체는 컬러 정보가 유사한 경우를 상정할 수 있을 것이며, 본 발명의 실시예에서는 이해를 돕고자 제1 객체가 얼굴이고 제2 객체가 손인 경우를 일례로서 상정하여 설명을 하고자 한다. 또한, 본 발명은 얼굴에 중첩된 손을 분리하는 것뿐만 아니라 일반화하여 제1 객체에 중첩된 제2 객체를 분리하는 것에까지 권리범위가 미침을 명확히 밝혀둔다. 또한, 제1 객체와 제2 객체의 컬러 정보가 유사하다는 것은 색상 모델링 상의 마할라노비스 거리가 소정의 임계치보다 작은 경우를 의미할 수도 있으나, 반드시 이에 한정되는 것은 아니며, 일반적으로 제1 객체와 제2 객체의 색상, 명도, 채도 등이 기설정된 조건 이내에 근접한 경우를 상정할 수도 있을 것이다.1 is a view schematically showing the configuration of an image processing apparatus 100 for separating and identifying a second object superimposed on a first object in an image according to the present invention. It is assumed that the first object and the second object have similar color information. In an embodiment of the present invention, assume that the first object is a face and the second object is a hand in order to facilitate understanding. I want to explain. It is also clear that the present invention extends not only to separating the hands overlapping the face but also to generalizing and separating the second object superimposed on the first object. The similarity of the color information of the first object and the second object may mean that the Mahalanobis distance on the color modeling is smaller than the predetermined threshold value. However, the present invention is not limited to this, 2 It may be assumed that the object's color, brightness, saturation, etc. are close to the predetermined conditions.

이미지 처리 장치(100)는 색상 처리부(110), 이미지 처리부(120) 및 영역 결정부(130)를 포함할 수 있다.The image processing apparatus 100 may include a color processing unit 110, an image processing unit 120, and an area determination unit 130.

본 발명의 일 실시예에 따르면, 색상 처리부(110), 이미지 처리부(120) 및 영역 결정부(130)는 그 중 적어도 일부가 외부 시스템과 통신하는 프로그램 모듈들일 수 있다. 이러한 프로그램 모듈들은 운영 시스템, 응용 프로그램 모듈 및 기타 프로그램 모듈의 형태로 이미지 처리 장치(100)에 포함될 수 있으며, 물리적으로는 여러 가지 공지의 기억 장치 상에 저장될 수 있다. 또한, 이러한 프로그램 모듈 중 적어도 일부는 이미지 처리 장치(100)와 통신 가능한 원격 기억 장치에 저장될 수도 있다. 한편, 이러한 프로그램 모듈들은 본 발명에 따라 후술할 특정 업무를 수행하거나 특정 추상 데이터 유형을 실행하는 루틴, 서브루틴, 프로그램, 오브젝트, 컴포넌트 및 데이터 구조 등을 포괄하지만, 이에 제한되지는 않는다.According to an embodiment of the present invention, the color processing unit 110, the image processing unit 120, and the area determining unit 130 may be program modules in which at least a part of them communicate with an external system. Such program modules may be included in the image processing apparatus 100 in the form of an operating system, an application program module, and other program modules, and may be physically stored on various known memory devices. In addition, at least some of these program modules may be stored in a remote storage device capable of communicating with the image processing apparatus 100. [ Such program modules include, but are not limited to, routines, subroutines, programs, objects, components, data structures, etc. that perform particular tasks or perform particular abstract data types as described below in accordance with the present invention.

우선, 색상 처리부(110)는 피부색 모델을 정의할 수 있다. 이미지 처리 장치(100)는 정의된 피부색 모델에 기반하여 이미지 중 얼굴의 영역을 식별할 수 있다. 참고로, 일반화하여 제1 객체에 중첩된 제2 객체를 분리하고자 하는 경우에는 피부색 모델이 아니라 제1 객체 및 제2 객체에 해당되는 색채에 대한 색상 모델링이 있을 것이다.First, the color processing unit 110 can define a skin color model. The image processing apparatus 100 can identify the area of the face in the image based on the defined skin color model. For reference, in the case of separating a second object superimposed on the first object, there will be color modeling for colors corresponding to the first object and the second object instead of the skin color model.

이미지 처리부(120)는 사용자의 손과 얼굴이 중첩된 이미지에서 엣지를 식별할 수 있다. 또한, 이미지 처리부(120)는 식별된 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 얼굴 템플릿의 다른 엣지가 존재하는지 여부를 판단할 수 있다. 여기서, 얼굴 템플릿은 사용자의 얼굴 및 사용자의 손이 중첩되지 않은 상태에서의 사용자의 얼굴 이미지일 수 있다(참고로, 일반화하여 제1 객체에 중첩된 제2 객체를 분리하고자 하는 경우에는 제1 객체 템플릿을 상정할 수 있을 것이다). 또한, 이미지 처리부(120)는 엣지 픽셀의 엣지 그래디언트 오리엔테이션을 생성할 수 있다.The image processing unit 120 can identify the edge in the image in which the user's hand and face are superimposed. In addition, the image processing unit 120 can determine whether another edge of the face template exists in a predetermined area including the edge pixels of the identified edge. Here, the face template may be a face image of the user in a state in which the face of the user and the user's hand are not overlapped (for reference, when it is generalized to separate a second object superimposed on the first object, You can assume a template). In addition, the image processing unit 120 may generate the edge gradient orientation of the edge pixels.

영역 결정부(130)는 상기의 소정의 영역 내에 얼굴 템플릿의 다른 엣지가 존재하는지 여부에 기반하여 식별된 엣지의 엣지 픽셀을 얼굴의 영역의 픽셀 또는 손의 영역의 픽셀로 결정할 수 있다. 구체적으로, 영역 결정부(130)는 엣지 픽셀의 엣지 그래디언트 오리엔테이션에 기반하여 엣지 픽셀을 중첩된 손이 제외된 얼굴의 영역의 픽셀 및 중첩된 손의 영역의 픽셀 중 하나로 결정할 수 있다. 영역 결정부(130)는 엣지 픽셀을 얼굴의 영역의 픽셀 또는 손의 영역의 픽셀로 결정함으로써 얼굴의 영역에 중첩된 손의 영역을 분리할 수 있다.The area determination unit 130 may determine the edge pixels of the identified edge as pixels of the face area or pixels of the hand area based on whether or not another edge of the face template exists in the predetermined area. Specifically, the area determining unit 130 may determine the edge pixel based on the edge-gradient orientation of the edge pixel as one of the pixels of the area of the face excluding the overlapped hand and the area of the overlapping hand. The area determination unit 130 can separate the area of the hand superimposed on the area of the face by determining the edge pixel as the pixel of the area of the face or the pixel of the area of the hand.

색상 처리부(110), 이미지 처리부(120) 및 영역 결정부(130)의 구체적인 기능에 대하여, 하기에서 도 2 내지 도 9를 참조하여 상세하게 설명된다.Specific functions of the color processing unit 110, the image processing unit 120, and the area determination unit 130 will be described in detail below with reference to FIG. 2 to FIG.

손의 영역을 결정하기 위한 방법.A method for determining an area of a hand.

도 2는 본 발명에 따라 사용자의 손이 사용자의 얼굴에 중첩된 이미지에서 얼굴로부터 손을 분리하여 식별하기 위한 방법의 흐름도이다.2 is a flowchart of a method for separating and identifying a hand from a face in an image in which a user's hand is superimposed on a user's face in accordance with the present invention.

(i) 색상 처리부(110)는 피부색 모델을 정의할 수 있다(S210).(i) The color processing unit 110 can define a skin color model (S210).

본 발명의 일 실시예에 따르면, 색상 처리부(110)는 이미지의 RGB 컬러 프로파일(Profile)을 YCbCr의 형태로 변형할 수 있다. 이미지 처리부(120)는 변환된 YCbCr의 형태를 사용하여 이미지의 객체의 고유한 색 영역을 설정할 수 있고, 객체의 엣지, 및 엣지 픽셀의 엣지 그래디언트 오리엔테이션을 설정할 수 있다. 또한, 색상 처리부(110)는 CbCr을 이용하여 피부색의 영역을 결정 또는 분해할 수 있다. 예를 들면, 이미지의 객체는 고유의 CbCr 분포를 가질 수 있다. 이미지 처리 장치(100)는 객체의 CbCr 분포에 따라 객체가 사용자의 신체에 해당하는지 여부를 결정할 수 있고, 사용자의 얼굴의 영역을 결정할 수 있다.According to an embodiment of the present invention, the color processing unit 110 may transform an RGB color profile of an image into a YCbCr form. The image processing unit 120 can set the unique color gamut of the object of the image using the transformed YCbCr shape and set the edge of the object and the edge gradient orientation of the edge pixel. In addition, the color processing unit 110 can determine or decompose a skin color region using CbCr. For example, an object in an image may have a unique CbCr distribution. The image processing apparatus 100 can determine whether the object corresponds to the user's body according to the CbCr distribution of the object and can determine the area of the user's face.

본 발명의 일 실시예에서, 색상 처리부(110)는 상기의 변형에 있어서 중간(median) 필터를 사용할 수 있다. 색상 처리부(110)는 중간 필터를 사용함으로써 엣지를 보호할 수 있고, 피부색 영역 내에서의 이상점(outlier)들을 제거할 수 있다. 중간 필터는 소정의 윈도우 크기를 가질 수 있다.In an embodiment of the present invention, the color processing unit 110 may use a median filter in the above modification. The color processing unit 110 can protect the edge by using an intermediate filter and can remove outliers in the skin color region. The intermediate filter may have a predetermined window size.

본 발명의 일 실시예에 따르면, 색상 처리부(110)는 초기화의 과정 중 단순한 트레이닝(Training) 이미지들을 사용하여 피부색 모델을 생성할 수 있다.According to an embodiment of the present invention, the color processing unit 110 may generate a skin color model using simple training images during the initialization process.

이미지 처리부(120)는 피부색 모델에 기반하여 이미지 중 사용자의 신체를 나타내는 영역, 말하자면 얼굴의 영역을 식별할 수 있다. 얼굴의 영역의 식별에 관련하여, 본 발명의 일 실시예에 따른 피부색 모델이 하기에서 도 3을 참조하여 상세하게 설명된다.The image processing unit 120 can identify an area representing a user's body, that is, a face area, of the image based on the skin color model. With respect to the identification of the area of the face, the skin color model according to one embodiment of the present invention will be described in detail below with reference to Fig.

(ii) 이미지 처리부(120)는 얼굴 템플릿을 획득할 수 있다(S220). (ii) The image processing unit 120 can acquire a face template (S220).

또한, 이미지 처리부(120)는 얼굴 템플릿을 저장할 수 있다.In addition, the image processing unit 120 may store a face template.

이미지 처리 장치(100)는 시간적으로 연속된 일련의 이미지들을 처리할 수 있다. 사용자의 움직임에 따라, 일련의 이미지들은 사용자의 얼굴 및 손이 중첩되지 않은 상태의 이미지와, 사용자의 얼굴 및 손이 중첩된 상태의 이미지로 분류될 수 있다. 즉, 얼굴 템플릿은 사용자의 손이 얼굴에 중첩되기 전의 얼굴의 영역을 포함하는 이미지일 수 있다. 또한, 얼굴 템플릿은 사용자의 손이 얼굴에 중첩된 상태의 이미지와 비교되는 대상일 수 있다. 이하에서, 사용자의 손이 사용자의 얼굴에 중첩된 상태의 이미지를 중첩된 이미지로 약술한다.The image processing apparatus 100 may process a series of images that are temporally sequential. Depending on the movement of the user, the series of images can be classified into an image in which the user's face and hands are not overlapped and an image in which the user's face and hands are superimposed. That is, the face template may be an image including an area of a face before the user's hand is superimposed on the face. Further, the face template may be an object that is compared with an image in which the user's hand is superimposed on the face. Hereinafter, an image in a state in which a user's hand is superimposed on a user's face is outlined as a superimposed image.

얼굴 템플릿은 하나 이상의 얼굴 영역을 포함할 수 있고, 이미지 처리부(120)는 피부색 모델에 기반하여 하나 이상의 얼굴 객체를 식별할 수 있다. 본 발명의 일 실시예에 따르면, 얼굴의 위치는 피부색 모델에 기반한 피부 분리(Segmentation)에 의해 결정될 수 있다.The face template may include one or more face regions, and the image processing unit 120 may identify one or more face objects based on the skin color model. According to an embodiment of the present invention, the position of the face may be determined by skin segmentation based on the skin color model.

또한, 본 발명의 일 실시예에 따르면, 얼굴의 영역의 텍스쳐가 얼굴 템플릿으로서 저장될 수도 있고, 후술될 단계(S225)의 수행에 의해 엣지의 정보가 생성되면, 엣지 오리엔테이션이 얼굴 템플릿으로서 저장될 수도 있다.Also, according to an embodiment of the present invention, the texture of the area of the face may be stored as a face template, and when the information of the edge is generated by performing the step S225 described later, the edge orientation is stored as a face template It is possible.

(iii) 이미지 처리부(120)는 저장된 얼굴 템플릿을 사용하여 얼굴 템플릿의 엣지의 정보를 생성할 수 있다(S225).(iii) The image processing unit 120 may generate the information of the edge of the face template using the stored face template (S225).

본 발명의 일 실시예에서, 얼굴 템플릿은 엣지를 포함할 수 있다. 이미지 처리부(120)는 가령 캐니(Canny) 엣지 검출기를 사용하여 얼굴 템플릿 및 후술될 중첩된 이미지로부터 엣지를 추출할 수 있다.In one embodiment of the invention, the face template may comprise an edge. The image processing unit 120 may extract an edge from a face template and a superimposed image to be described later, for example, using a Canny edge detector.

본 발명의 일 실시예에서, 전술된 것과 같이, 얼굴 템플릿은 사용자의 손이 중첩되지 않은 상태에서의 사용자의 얼굴 이미지일 수 있다. 이미지 처리부(120)는 얼굴 템플릿의 하나 이상의 엣지들의 각 엣지에 대하여 엣지의 정보, 엣지의 엣지 픽셀의 엣지 그래디언트(Gradient)의 정보 및 엣지 픽셀의 그래디언트 오리엔테이션(Orientation)의 정보를 생성 및 저장할 수 있다.In one embodiment of the present invention, as described above, the face template may be a face image of the user without the user's hands overlapping. The image processing unit 120 may generate and store information of an edge, information of an edge gradient of an edge pixel of an edge, and information of a gradient orientation of an edge pixel for each edge of one or more edges of the face template .

(iv) 이미지 처리부(120)는 이미지에서 사용자의 손이 얼굴에 중첩된 상태인지 여부를 판단할 수 있다(S230). 사용자의 손이 얼굴에 중첩되지 않은 상태인 경우, 이미지 처리부(120)는 판단의 대상이 된 이미지를 얼굴 템플릿인 것으로 판단할 수 있고, 전술된 단계(S220)가 반복될 수 있다. 사용자의 손이 얼굴에 중첩된 상태인 경우, 이미지 처리부(120)는 판단의 대상이 된 이미지를 중첩된 이미지인 것으로 판단할 수 있고, 하기의 단계(S240)가 다음으로 수행될 수 있다.(iv) The image processing unit 120 may determine whether the user's hand is superimposed on the face in the image (S230). If the user's hand is not superimposed on the face, the image processing unit 120 may determine that the image to be judged is a face template, and the above-described step S220 may be repeated. If the user's hand is superimposed on the face, the image processing unit 120 may determine that the image subjected to the judgment is an overlaid image, and the following step S240 may be performed next.

하기에서, 본 발명의 일 실시예에 따른 이미지에서 사용자의 손이 얼굴에 중첩된 상태인지 여부를 판단하기 위한 구체적인 방법이 도 4를 참조하여 상세하게 설명된다.In the following, a specific method for determining whether or not a user's hand is superimposed on a face in an image according to an embodiment of the present invention will be described in detail with reference to FIG.

(v) 이미지 처리부(120)는 중첩된 이미지에서 손이 얼굴에 중첩된 상태의 제1 엣지를 식별할 수 있다(S240). 제1 엣지는 손이 얼굴에 중첩된 상태의 얼굴 및 손의 영역의 하나 이상의 엣지를 나타낼 수 있다.(v) The image processing unit 120 may identify the first edge of the superimposed image with the hand superimposed on the face (S240). The first edge may represent one or more edges of the face and the area of the hand with the hand superimposed on the face.

(vi) 이미지 처리부(120)는 식별된 제1 엣지의 정보를 사용하여 제1 엣지의 하나 이상의 엣지 픽셀의 엣지 그래디언트의 정보를 생성할 수 있다(S245). (vi) The image processing unit 120 may generate information of an edge gradient of one or more edge pixels of the first edge using the information of the identified first edge (S245).

이미지 처리부(120)는 중첩된 이미지의 하나 이상의 엣지들의 각 엣지에 대하여, 엣지 픽셀의 엣지 그래디언트를 계산할 수 있고, 계산된 엣지 그래디언트의 정보를 저장할 수 있다.The image processing unit 120 can calculate the edge gradients of the edge pixels and store the information of the calculated edge gradients for each edge of one or more edges of the superimposed image.

(vii) 이미지 처리부(120)는 중첩된 이미지의 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역에 다른 엣지가 적어도 하나 존재하는지 여부를 판단할 수 있다(S250). 이때, 기존의 얼굴 템플릿과 중첩된 이미지를 겹쳐놓거나 이에 준하는 비교 가능한 상태에서 다른 엣지가 존재하는지 여부를 판단하는 것을 상정할 수 있다. 즉, 얼굴 템플릿의 하나 이상의 엣지들 및 중첩된 이미지의 하나 이상의 엣지들을 포함하는 결합된 이미지의 영역을 상정할 수 있을 것이다.(vii) The image processing unit 120 may determine whether there is at least one other edge in a predetermined area including the edge pixels of the first edge of the superimposed image (S250). At this time, it can be assumed that the existing face template and the overlapped image are overlapped, or whether or not another edge exists in a state comparable to the existing face template. That is, one can imagine an area of the combined image comprising one or more edges of the face template and one or more edges of the superimposed image.

본 발명의 일 실시예에서, 소정의 영역은 상기의 제1 엣지의 엣지 픽셀의 위치를 중심으로 하는 소정의 크기를 갖는 영역일 수 있다. 예를 들면, 소정의 크기를 갖는 영역은 3x3 또는 5x5의 픽셀들의 사각형의 영역일 수 있다. 말하자면, 이미지 처리부(120)는 제1 엣지의 엣지 픽셀의 위치를 중심으로 갖는 얼굴 템플릿의 소정의 영역 내에 다른 엣지가 존재하는지 여부를 판단할 수 있다.In one embodiment of the present invention, the predetermined region may be a region having a predetermined size centered on the position of the edge pixel of the first edge. For example, an area having a predetermined size may be a rectangular area of 3x3 or 5x5 pixels. That is to say, the image processing unit 120 can determine whether or not there is another edge within a predetermined area of the face template centered on the position of the edge pixel of the first edge.

제1 엣지의 엣지 픽셀을 포함하는(즉, 제1 엣지의 엣지 픽셀을 중심으로 한) 소정의 영역에 얼굴 템플릿의 다른 엣지가 존재하지 않는 경우, 단계(S260)가 수행될 수 있고, 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역에 다른 엣지가 존재하는 경우, 단계(S255)가 수행될 수 있다.If there is no other edge of the face template in the predetermined area including the edge pixel of the first edge (i.e., centered on the edge pixel of the first edge), step S260 may be performed, If another edge exists in a predetermined area including edge pixels of the edge, step S255 may be performed.

본 발명의 일 실시예에서, 중첩된 이미지의 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역에 다른 엣지가 존재하는지 여부에 따라, 영역 결정부(130)는 제1 엣지의 엣지 픽셀을 얼굴의 영역 또는 손의 영역의 픽셀로 분류하거나, 중첩된 이미지의 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역에 다른 엣지가 적어도 하나 존재하는 경우 해당 엣지 간의 엣지 그래디언트 오리엔테이션 값에 따라, 영역 결정부(130)는 제1 엣지의 엣지 픽셀을 얼굴의 영역 또는 손의 영역의 픽셀로 분류할 수 있다(S260).In one embodiment of the present invention, depending on whether or not another edge exists in a predetermined area including edge pixels of the first edge of the superimposed image, the area determining unit 130 sets the edge pixels of the first edge to the face Or an area of a hand, or when at least one other edge exists in a predetermined area including an edge pixel of the first edge of the overlapped image, the edge determination unit 130 may classify the edge pixels of the first edge into pixels of a face area or a hand area (S260).

전술된 것처럼, 얼굴 템플릿은 사용자의 얼굴 및 손이 중첩되지 않은 상태에서의 얼굴 이미지일 수 있다. 따라서, 중첩된 이미지의 얼굴의 영역에서 식별된 제1 엣지의 엣지 픽셀의 위치에 기반하여 결정된 소정의 영역 내에 얼굴 템플릿의 제2 엣지가 존재할 경우, 상기의 식별된 제1 엣지의 엣지 픽셀은 얼굴의 픽셀일 가능성이 상대적으로 높은 것으로 간주될 수 있다. 반면, 식별된 제1 엣지의 엣지 픽셀의 위치에 기반하여 결정된 소정의 영역 내에 얼굴 템플릿의 제2 엣지가 존재하지 않는 경우, 상기의 제1 엣지의 엣지 픽셀은 (얼굴 템플릿에서는 나타나지 않은) 중첩된 손의 픽셀인 가능성이 상대적으로 높은 것으로 간주될 수 있다.As described above, the face template may be the face image of the user's face and the hand without overlapping. Thus, if there is a second edge of the face template within a predetermined area determined based on the position of the edge pixel of the first edge identified in the area of the face of the superimposed image, then the edge pixel of the identified first edge is the face May be considered to be relatively high. On the other hand, if there is no second edge of the face template in the predetermined area determined based on the position of the edge pixel of the identified first edge, the edge pixels of the first edge are overlapped (not shown in the face template) The likelihood of being a pixel of a hand may be considered relatively high.

하기에서 도 6 및 도 7을 참조하여 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역에 얼굴 템플릿의 제2 엣지가 존재하는지 여부를 판단하는 방식이 상세하게 설명된다.A method of determining whether or not a second edge of a face template exists in a predetermined area including an edge pixel of the first edge will be described in detail with reference to FIGS. 6 and 7 below.

한편, 중첩된 이미지의 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역에 다른 엣지가 적어도 하나 존재하는 경우 해당 엣지 간의 엣지 그래디언트 오리엔테이션 값에 따라, 영역 결정부(130)가 제1 엣지의 엣지 픽셀을 얼굴의 영역 또는 손의 영역의 픽셀로 분류함에 있어서, 수행되는 내용을 설명하면 다음과 같다.On the other hand, when at least one other edge exists in a predetermined area including an edge pixel of the first edge of the superimposed image, the area determining unit 130 determines that the edge of the first edge of the first edge Is classified into a face region or a hand region region, the following description will be made.

본 발명의 일 실시예에서, 영역 결정부(130)는 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 및 다른 엣지 픽셀의 엣지 그래디언트 오리엔테이션 간의 차이 값에 기반하여 제1 엣지의 엣지 픽셀을 얼굴의 영역의 픽셀 또는 손의 영역의 픽셀로 결정할 수 있다. 예를 들면, 영역 결정부(130)는 제1 엣지 픽셀의 엣지 그래디언트 오리엔테이션 및 제1 엣지의 엣지 픽셀에 대응하는 적어도 하나의 다른 픽셀의 엣지 그래디언트 오리엔테이션 간의 차이 값이 소정의 값의 이하인 경우 제1 엣지 픽셀을 얼굴의 영역의 픽셀로 분류할 수 있고, 상기의 차이 값이 상기의 소정의 값보다 더 큰 경우 제1 엣지 픽셀을 손의 영역의 픽셀로 결정할 수 있다(이에 대해서는 도 7을 참조로 하여 후술됨). 여기서, 중첩된 이미지의 제1 엣지 픽셀에 대응하는 적어도 하나의 다른 픽셀은 제1 엣지의 엣지 픽셀과 소정 거리 내에 인접해 있는 다른 엣지 픽셀일 수 있다. 또한, 제1 엣지 픽셀에 대응하는 적어도 하나의 다른 픽셀은 얼굴 템플릿 상의 제2 엣지의 엣지 픽셀을 포함할 수 있으며, 이 경우 제1 엣지 픽셀과 가장 가까운 얼굴 템플릿의 소정의 영역 내의 엣지 픽셀일 수 있다. 상기의 소정의 영역은 단계(S250)에서 전술된 제1 엣지 픽셀의 위치에 기반하여 결정된 얼굴 템플릿의 영역일 수 있다. In one embodiment of the present invention, the area determination unit 130 determines the edge pixel of the first edge based on the difference value between the edge gradient orientation of the edge pixels of the first edge and the edge gradient orientation of the other edge pixels, Pixel or a pixel of a region of the hand. For example, when the difference value between the edge gradient orientation of the first edge pixel and the edge gradient orientation of at least one other pixel corresponding to the edge pixel of the first edge is less than or equal to a predetermined value, The edge pixel can be classified into the pixels of the area of the face and the first edge pixel can be determined as the pixel of the area of the hand if the difference value is larger than the predetermined value (refer to FIG. 7 Described later). Here, at least one other pixel corresponding to the first edge pixel of the superimposed image may be another edge pixel adjacent to the edge pixel of the first edge within a predetermined distance. Also, at least one other pixel corresponding to the first edge pixel may comprise an edge pixel of the second edge on the face template, in which case it may be an edge pixel in a predetermined area of the face template closest to the first edge pixel have. The predetermined area may be an area of the face template determined based on the position of the first edge pixel described above in step S250.

(viii) 엣지 픽셀이 얼굴의 영역의 픽셀 또는 손의 영역의 픽셀 중 어느 하나로 분류되면, 영역 결정부(130)는 중첩된 이미지 및 얼굴 템플릿 사이에서의 변화가 소정의 기준을 충족시키는 얼굴 부분을 중첩된 손의 영역에 추가할 수 있다(S270).(viii) If the edge pixels are classified into one of the pixels of the face region or the pixels of the hand region, the region determining unit 130 determines whether the change between the superimposed image and the face template satisfies a predetermined criterion May be added to the area of the overlapping hands (S270).

손에 의한 중첩이 발생하면, 얼굴 템플릿의 얼굴의 영역에 비해 중첩된 이미지의 얼굴의 영역에서는 색상 및 밝기 등에 있어서 변화가 발생할 수 있다. 예를 들면, 얼굴의 색상 및 손의 색상 간의 차이에 기인하여, 중첩된 이미지의 얼굴의 영역의 일부에서는 색상의 변화가 일어날 수 있다. 또는, 중첩된 이미지의 얼굴의 영역의 일부에서는 밝기의 변화가 일어날 수 있다. 영역 결정부(130)는 상기의 변화를 참조하여, 중첩된 손의 영역의 경계를 더 정확하게 확정할 수 있다.When overlapping by hand occurs, a change in color, brightness, etc. may occur in the area of the face of the superimposed image as compared with the area of the face of the face template. For example, due to the difference between the color of the face and the color of the hand, a change in color may occur in a part of the area of the face of the superimposed image. Alternatively, a change in brightness may occur in a portion of the face region of the superimposed image. The area determining unit 130 can refer to the above change and can more accurately determine the boundary of the area of the overlapping hands.

본 발명의 일 실시예에서, 영역 결정부(130)는 손이 얼굴에 중첩된 상태의 얼굴의 영역 중, 얼굴 템플릿 및 중첩된 이미지 사이에서의 색상의 차이가 소정의 값 이상인 소정의 부분을 중첩된 손의 영역에 추가할 수 있다. 여기서, 소정의 부분은 중첩된 손의 영역으로 결정된 엣지 픽셀에 인접한 부분 또는 인접한 픽셀로 제한될 수 있다. 또한, 소정의 부분은 중첩된 손의 영역으로 결정된 엣지 픽셀과의 거리가 소정의 값 이하인 부분 또는 픽셀로 제한될 수도 있다. 영역 결정부(130)는 손이 얼굴에 중첩된 상태의 얼굴의 영역 중, 얼굴 템플릿 및 중첩된 이미지 사이에서의 밝기의 차이가 소정의 값 이상인 소정의 부분을 중첩된 손의 영역에 추가할 수 있다.In one embodiment of the present invention, the area determining unit 130 determines whether or not the area of the face in which the hand is superimposed on the face is overlapped with the face template and the predetermined part in which the difference in color between the superimposed images is equal to or larger than the predetermined value Can be added to the area of the hand. Here, the predetermined portion may be limited to a portion adjacent to or adjacent to the edge pixel determined as the area of the overlapping hand. Further, the predetermined portion may be limited to a portion or pixel whose distance from the edge pixel determined as the region of the overlapping hand is equal to or less than a predetermined value. The area determining unit 130 can add a predetermined portion of the area of the face where the hand is superimposed on the face with the difference in brightness between the face template and the superimposed image to a region of the overlapping hands have.

(ix) 영역 결정부(130)는 중첩된 이미지에서 손실된 엣지의 정보를 보충할 수 있다(S280).(ix) The area determining unit 130 may supplement the information of the lost edge in the superimposed image (S280).

손의 영역은 중첩된 손의 영역의 엣지 픽셀로 결정된 엣지 픽셀에 의해 둘러싸인 영역일 수 있으며, 단계(S270)에서 추가된 영역을 포함하는 영역일 수 있다.The area of the hand may be an area surrounded by the edge pixels determined by the edge pixels of the area of the overlapping hands and may be an area including the area added in step S270.

중첩된 손의 영역의 엣지 픽셀들 중 일부는 중첩된 이미지에서 손실될 수 있으며, 단계(S260)에서 중첩된 손이 제외된 얼굴의 영역의 픽셀로 잘못 분류될 수 있다. 영역 결정부(130)는 중첩된 손의 영역의 컨투어(Contour)(즉, 외곽선)을 최종적으로 결정할 수 있다. 예를 들면, 영역 결정부(130)는 중첩된 손의 영역의 픽셀로 결정된 엣지 픽셀들의 사이의 엣지 픽셀 또는 영역을 중첩된 손의 영역의 픽셀로 추가적으로 분류할 수 있고, 단계(S270)에서 추가된 영역의 외곽선을 중첩된 손의 엣지로 추가적으로 분류할 수 있다.Some of the edge pixels of the area of the overlapping hands may be lost in the overlapping image and the overlapped hands in step S260 may be misclassified as pixels of the area of the face that is excluded. The area determining unit 130 can finally determine the contour (i.e., outline) of the area of the overlapping hands. For example, the region determining unit 130 may further classify edge pixels or regions between edge pixels determined as pixels of the region of the overlapping hands as pixels of the overlapping region of the hand, The outline of the region to be overlapped can be further classified into the edges of the overlapping hands.

피부색 모델A skin color model

도 3은 본 발명의 일 실시예에 따른 피부색 모델을 설명하는 도면이다.3 is a view for explaining a skin color model according to an embodiment of the present invention.

도 3에서 도시된 것과 같이, 특성 공간 내에서의 피부색 분포는 이변량(Bivariate) 정규 분포로 모델링될 수 있다. 도 3에서, σ는 표준 편차를 나타낼 수 있다. 점(310)은 피부색의 중심 값을 나타낼 수 있고, 영역(320)은 피부색에 해당하는 영역을 나타낼 수 있다.As shown in FIG. 3, the skin color distribution in the characteristic space can be modeled as a Bivariate normal distribution. In Figure 3, the standard deviation σ can be expressed. The point 310 may represent the center value of the skin color, and the region 320 may represent a region corresponding to the skin color.

C는 픽셀의 C bC r에 의한 특성 벡터(Feature vector)일 수 있으며, 2-D(차원) 유클리드(Euclidean) 공간 R2 또는 특성 공간 S에서의 벡터일 수 있다. C는 하기의 수학식 1과 같이 정의될 수 있다. C may be a feature vector by C b and C r of a pixel and may be a 2-D (dimensional) Euclidean space R 2 Or may be a vector in the feature space S. C can be defined as: " (1) "

Figure 112014084523203-pat00001
Figure 112014084523203-pat00001

μs는 중심 값을 나타내고, ∑s는 공분산을 나타낼 때, C로부터 μs로의 마할라노비스(Mahalanobis) 거리 d는 하기의 수학식 2와 같이 정의될 수 있다.mu s denotes the center value, and when S denotes the covariance, the Mahalanobis distance d from C to s can be defined as Equation 2 below.

Figure 112014084523203-pat00002
Figure 112014084523203-pat00002

말하자면, 수학식 2에서 설명된 것처럼, 피부색 모델은 2D 특성 공간으로부터 1D 거리 공간으로의 매핑을 제공할 수 있다. d의 값이 작을수록 c가 피부색에 가깝다는 것을 의미할 수 있다.That is to say, as described in equation (2), the skin color model can provide a mapping from the 2D feature space to the 1D distance space. The smaller the value of d, the more likely it is that c is closer to skin color.

수학식 2에 따르면, d가 상수일 때, 상수 밀도의 외곽선(말하자면, 영역(320))은 타원일 수 있다. 이러한 타원의 주 축들(Principal axes)는 ∑s의 고유 벡터(Eigenvector)들에 의해 주어질 수 있다. 또한, ∑s의 고유 값(Eigenvalue)들은 축들의 길이를 결정할 수 있다.According to equation (2), when d is a constant, the outline of the constant density (that is, area 320) may be an ellipse. Principal axes of these ellipses can be given by eigenvectors of Σ s . In addition, the eigenvalues of S can determine the lengths of the axes.

이미지 처리부(120)는 객체의 특성 벡터 및 μs간의 측정된 거리에 기반하여 상기의 객체가 피부를 나타내는 것인지 여부를 판단할 수 있다. 객체는 이미지의 영역, 엣지 및 픽셀 등을 포함할 수 있다.The image processing unit 120 may determine whether the object is indicative of the skin based on the measured distance between the feature vector of the object and μ s . The object may include regions, edges, pixels, etc. of the image.

본 발명의 일 실시예에서, 거리는 전술된 마할라노비스 거리일 수 있으나 이에 한정되는 것은 아니다.In one embodiment of the present invention, the distance may be the Mahalanobis distance described above, but is not limited thereto.

만약, 측정된 거리가 소정의 임계 값보다 더 작은 경우 이미지 처리부(120)는 객체가 얼굴의 피부를 나타내는 것으로 판단할 수 있다. 측정된 거리가 소정의 임계 값의 이상인 경우 이미지 처리부(120)는 객체가 얼굴의 피부를 나타내지 않는 것으로 판단할 수 있다. If the measured distance is smaller than a predetermined threshold value, the image processing unit 120 may determine that the object represents skin of the face. When the measured distance is equal to or greater than a predetermined threshold value, the image processing unit 120 may determine that the object does not represent the skin of the face.

사용자의 손 및 얼굴의 중첩 여부의 판단Determining whether the user's hand or face is overlapping

도 4는 본 발명의 일 실시예에 따른 사용자의 손 및 얼굴이 중첩되었는지 여부를 판단하기 위한 방법을 설명한다.FIG. 4 illustrates a method for determining whether a user's hands and faces are overlapped according to an embodiment of the present invention.

이미지 처리부(120)는 이미지(400)에서 얼굴의 영역(410)을 검출할 수 있고, 전술된 경계로서, 제1 검사 영역(420) 및 제2 검사 영역(430)을 설정할 수 있다.The image processing unit 120 can detect the area 410 of the face in the image 400 and set the first inspection area 420 and the second inspection area 430 as the aforementioned boundary.

본 발명의 일 실시예에서, 제1 검사 영역(420)은 얼굴의 영역(410)을 포함하는 최소의 크기의 다각형 또는 원형일 수 있다. 제2 검사 영역(430)은 제1 검사 영역(420)을 포함하는, 제1 검사 영역(420)보다 더 큰 영역일 수 있다. 예를 들면, 제2 검사 영역(430)은 제1 검사 영역(420)에 비해 사용자의 귀 또는 목을 더 포함할 수 있는 영역일 수 있다. 또는, 제2 검사 영역(430)은 제1 검사 영역(420)에 비해 상하좌우의 각각으로 소정의 크기 또는 소정의 개수의 픽셀만큼을 더 포함하는 영역일 수 있다. In one embodiment of the present invention, the first examination area 420 may be a polygon or a circle of the minimum size including the area 410 of the face. The second inspection region 430 may be a region larger than the first inspection region 420 including the first inspection region 420. For example, the second examination area 430 may be an area that may further include the user's ear or neck as compared to the first examination area 420. [ Alternatively, the second inspection region 430 may be a region having a predetermined size or a predetermined number of pixels in each of the upper, lower, left, and right regions, as compared with the first inspection region 420.

제1 검사 영역(420)의 픽셀들 중 일부의 픽셀들은 피부색에 대응할 수 있다. 또한, 제2 검사 영역(430)의 픽셀들 중 일부의 픽셀들은 피부색에 대응할 수 있다. 여기서, 피부색에 대응하는 픽셀은 피부색인 확률이 소정의 값 이상이 픽셀일 수 있고, 도 3을 참조하여 전술된 거리 d 가 소정의 값 이하인 픽셀일 수 있다.Some of the pixels of the first inspection region 420 may correspond to the skin color. In addition, some of the pixels of the second inspection region 430 may correspond to the skin color. Here, the pixel corresponding to the skin color may be a pixel having a probability that the skin color is a predetermined value or more, and the pixel having the distance d described above with reference to Fig. 3 may be a predetermined value or less.

본 발명의 일 실시예에 따르면, 손 및 얼굴이 중첩되지 않은 경우, 제1 검사 영역(420) 및 제2 검사 영역(430)의 사이에는 손을 비롯한 팔 등의 사용자의 신체는 없다고 볼 수 있다. 말하자면, 손 및 얼굴이 중첩되지 않은 경우, 제1 검사 영역(420)의 피부색에 대응하는 픽셀들의 개수 및 제2 검사 영역(430)의 피부색에 대응하는 픽셀들의 개수는 크게 차이 나지는 않을 것이라고 가정될 수 있다. 반면, 손 및 얼굴이 중첩되는 경우 제1 검사 영역(420) 및 제2 검사 영역(430)의 사이에 손을 비롯한 팔 등의 사용자의 신체가 있다고 볼 수 있다. 따라서, 이미지 처리부(120)는 제1 검사 영역(420)의 색상 및 제2 검사 영역(430)의 색상 간의 차이에 기반하여 이미지(400)에서 얼굴의 영역(410)이 손이 얼굴에 중첩된 상태인지 여부를 판단할 수 있다. 구체적으로, 이미지 처리부(120)는 제1 검사 영역(420)의 피부색에 대응하는 픽셀들의 개수 및 제2 검사 영역(430)의 피부색에 대응하는 픽셀들의 개수의 차에 기반하여 이미지(400)에서 손 및 얼굴이 중첩되었는지 여부를 판단할 수 있다. 이미지 처리부(120)는 상기의 차가 소정의 임계 값의 이상일 경우 얼굴의 영역(410)이 손이 얼굴에 중첩된 상태인 것으로 판단할 수 있고, 상기의 차가 소정의 임계 값보다 더 작은 경우 얼굴의 영역(410)이 손이 얼굴에 중첩되지 않은 상태인 것으로 판단될 수 있다. 본 발명의 일 실시예에서, 제1 검사 영역(420)의 크기 및 제2 검사 영역(430)의 크기 간의 차이와, 전술된 임계 값은 손이 얼굴이 중첩되지 않은 상태라는 것을 소정의 확률 이상으로 확실하게 할 정도로 충분히 크게 결정될 수 있다.According to an embodiment of the present invention, when the hand and the face are not overlapped, it can be seen that there is no user's body such as an arm or the like between the first examination region 420 and the second examination region 430 . It is assumed that the number of pixels corresponding to the skin color of the first inspection region 420 and the number of pixels corresponding to the skin color of the second inspection region 430 will not greatly differ when the hands and the face are not overlapped . On the other hand, when the hand and the face are overlapped, the user's body such as the hand and the arm may be present between the first inspection region 420 and the second inspection region 430. Thus, the image processing unit 120 may determine that the area of the face 410 in the image 400 is located at a position where the hand is superimposed on the face (e.g., State or not. Specifically, the image processing unit 120 calculates the difference between the number of pixels corresponding to the skin color of the first inspection region 420 and the number of pixels corresponding to the skin color of the second inspection region 430, It is possible to judge whether or not the hand and the face are overlapped. The image processing unit 120 may determine that the face region 410 is in a state where the hand is superimposed on the face when the difference is greater than or equal to a predetermined threshold value and if the difference is smaller than the predetermined threshold value, It can be determined that the area 410 is in a state where the hand is not superimposed on the face. In one embodiment of the present invention, the difference between the size of the first inspection region 420 and the size of the second inspection region 430 and the above-mentioned threshold value indicates whether or not the hand is in a state in which no face is overlapped, As shown in Fig.

도 2에 대한 설명에서 전술된 것과 같이, 이미지 처리 장치(100)는 시간적으로 연속된 일련의 이미지들을 처리할 수 있다. 일련의 이미지들은 손이 얼굴에 중첩되지 않은 상태인 이미지(예를 들면, 얼굴 템플릿으로서 사용될 이미지) 및 손이 얼굴에 중첩된 상태인 이미지(예를 들면, 중첩된 이미지로서 사용될 이미지)로 분류될 수 있다. 하기의 도 5에서, 시간의 흐름에 따라 손 및 얼굴의 중첩의 여부가 변화하는 일련의 이미지들이 예시된다.As described above in the description of FIG. 2, the image processing apparatus 100 may process a series of temporally sequential images. A series of images may be classified into an image in which the hand is not superimposed on the face (e.g., an image to be used as a face template) and an image in which a hand is superimposed on a face (e.g., an image to be used as a superimposed image) . In Fig. 5 below, a series of images in which whether or not the hand and face are superimposed change with time, are illustrated.

도 5는 본 발명의 일 실시예에 따른 손 및 얼굴의 중첩의 여부에 따라 변화하는 피부색의 픽셀의 개수를 나타낸다.FIG. 5 shows the number of pixels of a skin color varying depending on whether a hand or a face is overlapped according to an embodiment of the present invention.

도 5에서, x 축은 시각을 나타내고, y 축은 피부색에 대응하는 픽셀들의 개수를 나타낸다. 5, the x-axis represents time and the y-axis represents the number of pixels corresponding to the skin color.

도 5에서 도시된 것과 같이, 왼쪽에서 첫 번째의 상태는 얼굴 영역에 손이 중첩되지 않은 상태로서 제2 검사 영역(430)의 외부에 손이 있는 경우이며, 이 경우에는 제1 검사 영역(420)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(520)과 제2 검사 영역(430)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(510)의 차이가 거의 나지 않음을 알 수 있다. As shown in FIG. 5, the first state on the left is a state in which no hand is superimposed on the face region, and a hand exists outside the second examination region 430. In this case, the first examination region 420 The curve 520 indicating the number of pixels corresponding to the skin color included in the second inspection area 430 and the curve 510 indicating the number of pixels corresponding to the skin color included in the second inspection area 430 have.

다음으로, 왼쪽에서 두 번째 상태는 얼굴 영역에 손이 중첩되기 직전 상태로서 제2 검사 영역(430)의 내부에 손이 진입한 경우이며, 이 경우에는 제1 검사 영역(420)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(520)과 제2 검사 영역(430)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(510)을 비교할 때, 곡선(510)이 나타내는 픽셀들의 개수가 곡선(520)이 나타내는 픽셀들의 개수와 비슷하게 유지되다가 곡선(520)보다 점점 커지고 있음을 알 수 있다. Next, the second state from the left is a state in which the hand enters the second inspection area 430 immediately before the hand is superimposed on the face area. In this case, the skin color of the first inspection area 420 A curve 510 indicating the number of pixels corresponding to the skin color included in the second inspection area 430 and a curve 510 indicating the number of pixels corresponding to the skin color included in the second inspection area 430 It can be seen that the number of pixels represented by the curve 520 is maintained to be similar to that of the curve 520, which is larger than the curve 520.

다음으로, 왼쪽에서 세 번째 상태는 얼굴 영역에 손이 중첩된 상태로서 제1 검사 영역(420)의 내부에 손이 진입한 경우이며, 이 경우에는 제1 검사 영역(420)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(520)과 제2 검사 영역(430)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(510)을 비교할 때, 곡선(510)이 나타내는 픽셀들의 개수가 곡선(520)이 나타내는 픽셀들의 개수보다 확연히 커진 상태임을 알 수 있다. Next, the third state from the left is a state in which the hand is superimposed on the face region and the hand enters the first inspection region 420. In this case, the skin color included in the first inspection region 420 When comparing the curve 520 representing the number of corresponding pixels and the curve 510 representing the number of pixels corresponding to the skin color included in the second inspection region 430, And the number of pixels represented by the pixel 520 is significantly larger than the number of pixels.

다음으로, 왼쪽에서 네 번째 상태는 얼굴 영역에 손이 중첩된 상태가 해제된 직후의 상태로서 제1 검사 영역(420)의 내부에는 손이 거의 존재하지 않으며 제2 검사 영역(430)의 내부에 손이 존재하는 경우이며, 이 경우에는 제1 검사 영역(420)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(520)과 제2 검사 영역(430)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(510)을 비교할 때, 곡선(510)이 나타내는 픽셀들의 개수가 곡선(520)이 나타내는 픽셀들의 개수보다 큰 상태를 유지하다가 곡선(520)과 거의 비슷해지고 있음을 알 수 있다. Next, the fourth state from the left is a state immediately after the state in which the hand is superimposed on the face area is released, and there is almost no hand inside the first inspection area 420, and the inside of the second inspection area 430 In this case, a curve 520 indicating the number of pixels corresponding to the skin color included in the first examination region 420 and a curve 520 indicating the number of pixels corresponding to the skin color included in the second examination region 430 It can be seen that the number of pixels represented by the curve 510 is larger than the number of pixels represented by the curve 520 and is substantially similar to the curve 520. In this case,

다음으로, 왼쪽에서 다섯 번째 상태는 얼굴 영역에 손이 중첩되지 않은 상태로서 손이 제2 검사 영역(430)의 외부로 완전히 빠져나간 경우이며, 이 경우에는 제1 검사 영역(420)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(520)과 제2 검사 영역(430)에 포함된 피부색에 대응하는 픽셀들의 개수를 나타내는 곡선(510)의 차이가 거의 나지 않음을 알 수 있다.Next, the fifth state from the left is a state in which the hand is not superimposed on the face region and the hand completely exits to the outside of the second examination region 430. In this case, the fifth examination region 420 included in the first examination region 420 The difference between the curve 520 indicating the number of pixels corresponding to the skin color and the curve 510 indicating the number of pixels corresponding to the skin color contained in the second examination region 430 is almost not different.

즉, 곡선(510)이 나타내는 픽셀들의 개수가 곡선(520)이 나타내는 픽셀들의 개수보다 기설정된 임계치 이상 큰 구간인 왼쪽에서 세 번째 상태의 구간에 대해서는 손 및 얼굴이 중첩된 이미지로 판단될 것이다.That is, the third and fourth states in which the number of pixels represented by the curve 510 is larger than the number of pixels represented by the curve 520 by a predetermined threshold or more are judged to be images in which the hand and the face are overlapped.

즉, 본 발명의 일 실시예에서, 이미지 처리부(120)는 제1 검사 영역(420)의 피부색에 대응하는 픽셀들의 개수 및 제2 검사 영역(430)의 피부색에 대응하는 픽셀들의 개수의 차에 기반하여 일련의 이미지들 중에서 손 및 얼굴의 중첩의 시작 및 종료를 감지할 수 있다.That is, in one embodiment of the present invention, the image processing unit 120 calculates the difference between the number of pixels corresponding to the skin color of the first inspection region 420 and the number of pixels corresponding to the skin color of the second inspection region 430 Based on which the start and end of overlapping of hands and faces among a series of images can be detected.

엣지의Edge's 분류 Classification

도 6은 본 발명의 일 실시예에 따른 중첩된 이미지의 엣지 픽셀을 포함하는 소정의 영역 내에 다른 엣지가 존재하는지 여부를 판단하는 방식을 설명한다.FIG. 6 illustrates a method of determining whether another edge exists in a predetermined area including an edge pixel of a superimposed image according to an embodiment of the present invention.

도 6에서, 중첩된 이미지의 엣지들(611, 612, 613 및 614)이 실선으로 표시되었고, 얼굴 템플릿의 엣지들(621 및 622)이 점선으로 표시되었다.6, the edges 611, 612, 613 and 614 of the superimposed image are indicated by solid lines, and the edges 621 and 622 of the face template are indicated by dotted lines.

도 6에서, 엣지들(612 및 613)은 손(또는, 손가락)에 대응하는 엣지들이다. 말하자면, 엣지들(612 및 613)은 도 2를 참조하여 전술된 단계(S260)에서 중첩된 손의 윤곽선으로 결정될 예정인 엣지 픽셀을 포함하는 엣지들이다. 또한, 엣지들(611 및 614)는 얼굴의 윤곽선으로 결정될 예정인 엣지 픽셀을 포함하는 엣지들이다. 얼굴 템플릿은 손이 얼굴에 중첩되지 않은 상태에서의 얼굴 이미지이다. 따라서, 엣지들(611 및 614)의 엣지 픽셀에 대해서는 대응하는 얼굴 템플릿의 엣지들(621 및 622)가 존재하는 반면, 엣지들(612 및 613)의 엣지 픽셀에 대해서는 대응하는 얼굴 템플릿의 엣지들은 대부분 존재하지 않는다.In Fig. 6, the edges 612 and 613 are edges corresponding to the hand (or finger). That is to say, the edges 612 and 613 are the edges including the edge pixels to be determined as the outline of the hand superimposed in the step S260 described above with reference to Fig. In addition, edges 611 and 614 are edges that include edge pixels that are to be determined as the outline of the face. A face template is a face image in which the hand is not superimposed on the face. Thus, for edges pixels of edges 611 and 614, there are edges 621 and 622 of the corresponding face template, while for edges pixels of edges 612 and 613, the edges of the corresponding face template are Most do not exist.

도 2를 참조하여 전술된 것처럼, 이미지 처리부(120)는 중첩된 이미지의 엣지의 특정 엣지 픽셀을 참조로 하여 결정되는 소정의 영역 내에 다른 엣지가 존재하는지 여부를 판단할 수 있다. 도 6에서, 인접한 영역은 예시적으로 5x5의 사각형(또는, 윈도우)로 도시되었지만, 실험 상으로는 3x3의 사각형일 때 가장 성능이 좋았음을 밝혀둔다.As described above with reference to FIG. 2, the image processing unit 120 can determine whether another edge exists in a predetermined area determined by referring to a specific edge pixel of the edge of the superimposed image. In FIG. 6, adjacent regions are illustrated as a 5x5 rectangle (or window) by way of example, but it is experimentally found that the best performance is achieved with a 3x3 rectangle.

도 6에서 도시된 것처럼, 엣지 픽셀(630)을 포함하는 영역(631)(즉, 윈도우) 내에는 다른 엣지가 존재한다. 말하자면, 영역(631) 내에서는 얼굴 템플릿의 엣지(621)가 존재한다. 반면, 엣지 픽셀(640)을 포함하는 영역(641) 내에서는 다른 엣지가 존재하지 않는다. 따라서, 엣지 픽셀(630)은 도 2를 참조하여 전술된 단계(S250)에서 엣지 픽셀(630)을 포함하는 소정의 영역 내에 다른 엣지가 존재하는 엣지 픽셀로 분류될 수 있으며, 단계(S255)에서 엣지 픽셀(630)의 엣지 그래디언트 오리엔테이션이 생성될 수 있고, 엣지 그래디언트 오리엔테이션에 기반하여 단계(S260)에서 엣지 픽셀(630)은 얼굴의 영역의 픽셀로 분류될 수 있다. 반면, 제4 엣지 픽셀(640)은 단계(S260)에서 손의 영역의 픽셀로 분류될 수 있다.As shown in FIG. 6, there is another edge in an area 631 (i.e., a window) that includes edge pixels 630. In other words, in the area 631, there is an edge 621 of the face template. On the other hand, in the region 641 including the edge pixel 640, there is no other edge. Thus, the edge pixel 630 may be classified as an edge pixel having another edge in a predetermined area including the edge pixel 630 in the above described step S250 with reference to FIG. 2, and in step S255 An edge-gradient orientation of the edge pixel 630 may be generated, and in step S260, the edge pixel 630 may be classified as a pixel of the area of the face based on the edge-gradient orientation. On the other hand, the fourth edge pixel 640 may be classified as a pixel in the area of the hand in step S260.

도 7은 본 발명의 일 실시예에 따른 엣지 픽셀을 얼굴의 영역의 픽셀 및 손의 영역의 픽셀 중 하나로 분류하는 방법을 나타낸다.Figure 7 illustrates a method of classifying an edge pixel according to an embodiment of the present invention into one of the pixels of the face area and one of the pixels of the hand area.

도 7에서, 중첩된 이미지의 얼굴 선(710) 및 얼굴 템플릿의 얼굴 선(720)이 도시되었다. 또한, 중첩된 이미지의 얼굴 선(710) 상의 엣지 픽셀(711)이 도 2를 참조하여 전술된 제1 엣지의 엣지 픽셀로서 도시되었고, 얼굴 템플릿의 얼굴 선(720) 상의 엣지 픽셀(721)이 중첩된 이미지의 얼굴 선(710) 상의 엣지 픽셀(711)에 대응하는 엣지 픽셀로서 도시되었다. 말하자면, 얼굴 템플릿의 얼굴 선(720) 상의 엣지 픽셀(721)은 얼굴 선(720)의 하나 이상의 엣지 픽셀들 중 중첩된 이미지의 얼굴 선(710) 상의 엣지 픽셀(711)에 가장 가까운 엣지 픽셀일 수 있다.7, the face line 710 of the superimposed image and the face line 720 of the face template are shown. An edge pixel 711 on the face line 710 of the superimposed image is shown as the edge pixel of the first edge described above with reference to Figure 2 and an edge pixel 721 on the face line 720 of the face template Is shown as an edge pixel corresponding to an edge pixel 711 on the face line 710 of the superimposed image. The edge pixel 721 on the face line 720 of the face template is the edge pixel 711 closest to the edge pixel 711 on the face line 710 of the superimposed image among the one or more edge pixels of the face line 720 .

또한, 도 7에서, 중첩된 이미지의 얼굴 선(710) 상의 엣지 픽셀(711)의 엣지 그래디언트 오리엔테이션(712) 및 얼굴 템플릿의 얼굴 선(720) 상의 엣지 픽셀(721)의 엣지 그래디언트 오리엔테이션(722)이 도시되었다. Δθ는 엣지 그래디언트 오리엔테이션(712) 및 엣지 그래디언트 오리엔테이션(722) 사이의 끼인 각일 수 있다.7, the edge gradient orientation 712 of the edge pixel 711 on the face line 710 of the superimposed image and the edge gradient orientation 722 of the edge pixel 721 on the face line 720 of the face template, Was shown. [Delta] [theta] may be the intercept angle between the edge gradient orientation 712 and the edge gradient orientation 722. [

본 발명의 일 실시예에서, 엣지 픽셀(711)의 엣지 그래디언트 오리엔테이션 차는 끼인 각 Δθ에 대응하는 값일 수 있다. 말하자면, 도 2를 참조하여 전술된 제1 엣지의 엣지 픽셀에 있어서, 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 차는, 중첩된 이미지의 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 및 얼굴 템플릿의 상기의 제1 엣지의 엣지 픽셀에 대응하는 제2 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 간의 차이를 나타내는 값일 수 있다. 예를 들면, Δθ에 대한 정규화가 수행될 때, 엣지 픽셀의 엣지 그래디언트 오리엔테이션 차는 엣지 픽셀의 끼인 각 Δθ을 π/2로 나눈 값일 수 있다.In one embodiment of the present invention, the edge gradient orientation difference of the edge pixel 711 may be a value corresponding to the intercepted angle [Delta] [theta]. In other words, in the edge pixel of the first edge described above with reference to FIG. 2, the edge gradient orientation difference of the edge pixel of the first edge is determined by the edge gradient orientation of the edge pixel of the first edge of the superimposed image, And the edge-gradient orientation of the edge pixel of the second edge corresponding to the edge pixel of the first edge. For example, when the normalization for ?? is performed, the edge gradient orientation difference of the edge pixels may be a value obtained by dividing the inclined angle ?? of the edge pixels by? / 2.

전술된 것처럼, 도 2의 단계(S260)의 설명에 따르면, 중첩된 이미지의 엣지 픽셀을 포함하는 소정의 영역 내에 얼굴 템플릿의 다른 엣지가 존재하지 않는 경우, 영역 결정부(130)는 엣지 픽셀의 엣지 그래디언트 오리엔테이션 차의 값이 존재할 수 없지만 연산의 편의를 위하여 엣지 그래디언트 오리엔테이션 차의 값을 소정의 값으로 결정할 수 있다. 예를 들어, 영역 결정부(130)는 중첩된 이미지의 엣지 픽셀에 대응하는 다른 엣지가 존재하지 않아서 끼인 각 Δθ 및 엣지 그래디언트 오리엔테이션 차가 계산될 수 없는 경우, 엣지 픽셀에 대해서, 끼인 각 Δθ을 최대 값인 π/2로 결정할 수 있고, 엣지 그래디언트 오리엔테이션 차를 최대 값(예를 들면, 끼인 각 Δθ에 대한 정규화가 적용되었을 때의 최대 값인 1)으로 결정할 수 있다.As described above, according to the description of step S260 of FIG. 2, when there is no other edge of the face template in the predetermined area including the edge pixels of the superimposed image, the area determining unit 130 determines The value of the edge gradient orientation difference may not exist, but the value of the edge gradient orientation difference may be determined to be a predetermined value for convenience of operation. For example, the area determining unit 130 may set the intercepted angle [Delta] [theta] to the maximum for the edge pixels when the interleaved angle [Delta] [theta] and the edge gradient orientation difference can not be calculated because there is no other edge corresponding to the edge pixel of the superposed image / 2, and the edge gradient orientation difference can be determined as a maximum value (for example, 1, which is the maximum value when the normalization is applied to the interposed angle ??).

엣지 픽셀의 끼인 각 및 엣지 그래디언트 오리엔테이션 차는 엣지 픽셀 또는 엣지 픽셀의 지점에 대해서 정의될 수 있다. 예를 들면, 지점 (x, y)의 끼인 각이 Δθ(x, y)일 때, 지점 (x, y)에서의 엣지 그래디언트 오리엔테이션 차 θdiff(x, y)는 하기의 수학식 3과 같이 정의될 수 있다.The interleaved angle of edge pixels and the edge gradient orientation difference may be defined for edge pixels or edge pixel points. For example, when the inclined angle of the point (x, y) is ?? (x, y), the edge gradient orientation difference? Diff (x, y) at the point (x, y) Can be defined.

Figure 112014084523203-pat00003
Figure 112014084523203-pat00003

도 2를 참조하여 전술된 단계(S260)에서, 영역 결정부(130)는 지점 (x, y)의 엣지 픽셀에 대하여, 엣지 그래디언트 오리엔테이션 차 θdiff(x, y)에 기반하여 엣지 픽셀을 중첩된 손이 제외된 얼굴의 영역의 픽셀 및 중첩된 손의 영역의 픽셀 중 하나로 분류할 수 있다. 예를 들면, 영역 결정부(130)는 엣지 픽셀의 엣지 그래디언트 오리엔테이션 차 θdiff(x, y)가 소정의 값의 이하인 경우 지점 (x, y)의 엣지 픽셀을 중첩된 손이 제외된 얼굴의 영역의 픽셀로 분류할 수 있고, 엣지 그래디언트 오리엔테이션 차 θdiff(x, y)가 소정의 값보다 더 큰 경우 지점 (x, y)의 엣지 픽셀을 중첩된 손의 영역의 픽셀로 분류할 수 있다.In the step S260 described above with reference to Fig. 2, the area determining unit 130 determines whether or not the edge pixels overlap the edge pixels based on the edge gradient orientation difference? Diff (x, y) A pixel in the area of the face where the hand is removed and a pixel in the area of the overlapping hand. For example, the area determining unit 130 determines the edge pixels of the point (x, y) when the edge gradient orientation difference? Diff (x, y) of the edge pixels is less than or equal to a predetermined value, (X, y) can be classified into pixels of a region of overlapping hands if the edge gradient orientation difference [theta] diff (x, y) is larger than a predetermined value .

도 8(a) 내지 도 8(j)는 본 발명의 일 실시예에 따른 엣지 픽셀을 얼굴의 영역의 픽셀 및 손의 영역의 픽셀 중 하나로 분류하는 방법을 보다 자세히 설명하기 위한 도면을 나타낸다.8 (a) to 8 (j) show drawings for explaining a method of classifying an edge pixel according to an embodiment of the present invention into one of a pixel of a face area and a pixel of a hand area.

도 8(a) 내지 도 8(j)에서 검정색 선은 얼굴 템플릿의 엣지를 나타내고 하늘색 선은 중첩된 이미지에 포함된 얼굴 엣지를 나타내며 회색은 중첩된 이미지에 포함된 손의 엣지를 나타내고 연두색 점선은 기 수행된 노말 선분을 나타낸다.8 (a) to 8 (j), the black line represents the edge of the face template, the sky blue line represents the face edge included in the superimposed image, the gray represents the edge of the hand contained in the superimposed image, Represents the normalized line segment.

도 8(a)와 같이 얼굴 템플릿 엣지(검정색)와 중첩된 이미지(하늘색과 회색)를 겹쳐 놓은 상태에서 도 8(b)에서와 같이 중첩된 이미지의 얼굴 엣지 상의 엣지 픽셀 P(x, y)에서 노말 방향으로 선분 l1 을 긋고, 도 8(c)에서와 같이 선분 l1 과 얼굴 템플릿이 만나는 점을 Q라고 할 때, Q에 대한 노말 선분 l2 를 구한다.8 (b), the edge pixel P (x, y) on the face edge of the superimposed image is superimposed on the face template edge (black) and the overlapped image (sky blue and gray) in drawing a line l 1 in the normal direction, and Fig. 8 when a line segment is called Q l 1 and the face that the template is met, as shown in (c), obtains a normal line segment l 2 for Q.

다음으로, 도 8(d)에서와 같이 선분 l1 과 선분 l2 의 사잇각 Δθ는 다음과 같은 식으로 구할 수 있다.
Next, as shown in FIG. 8 (d), the angle ?? of the line segment l 1 and the line segment l 2 can be obtained by the following equation.

Figure 112014084523203-pat00004
Figure 112014084523203-pat00004

한편, 도 8(a)~8(d)의 프로세스를 모든 엣지에 대해 탐색 윈도우 3x3(위도우의 사이즈가 이에 한정되는 것은 아님)으로 수행하여 빨간 색 화살표 방향으로 훑고 내려가는 과정을 도 8(e)에 도시하였다. 참고로, 탐색 윈도우의 위치는 탐색 윈도우의 중심 부분이 하늘색 선을 타고 이동하는 경우를 상정하여 도시하였지만, 이에 한정되는 것은 아니고 탐색 윈도우의 적어도 하나의 꼭지점이 하늘색 선을 타고 이동하는 경우를 상정할 수도 있는 등 다양한 변형예를 상정할 수 있을 것이다.8 (a) to 8 (d) is performed for all the edges by the search window 3x3 (the size of the widow is not limited thereto) Respectively. For reference, the position of the search window is assumed on the assumption that the central portion of the search window moves on the sky blue line. However, the present invention is not limited to this, and it is assumed that at least one vertex of the search window moves on the sky blue line And the like.

다음으로, 도 8(f)를 참조하면, 탐색 윈도우가 손 엣지 부분에까지 이동한 상태를 도시하는데, 이와 같이 탐색 윈도우가 손 엣지 부분으로 이동하기 직전까지는 탐색 윈도우 내에서 탐색되는 엣지 픽셀이 한 종류(즉, 검정색으로 표시된 얼굴 템플릿의 엣지 픽셀)만 존재한 반면, 도 8(f)에서와 같이 손 엣지 부분에 탐색 윈도우가 도달하면, 도 8(g)에서와 같이 선분 l1 이 얼굴 템플릿 엣지와 교차하는 점 Q1 은 탐색 윈도우 내에서 탐색되지만, 선분 l1 이 손 엣지와 만나는 점 R1 은 탐색 윈도우 내에서 탐색되지 않으므로, 얼굴 엣지로 간주하지 않게 된다. 여기서, 도 8(h)에서와 같이 손 엣지 교점인 R1 에서 노말 성분의 선분 l3 를 긋고, 도 8(i)에서와 같이 손 엣지와 노발 성분의 사잇각을 구하면 거의 90도에 가까움을 알 수 있다. 또한, 점 R1 을 중심으로 한 탐색 윈도우 내에서 탐색되는 다른 엣지 픽셀은 없음을 알 수 있으며, 이에 따라 회색 부위가 손의 엣지임을 알 수 있다. 한편, 앞의 과정을 반복하면 도 8(j)에서와 같이 손 엣지 픽셀 상의 또 다른 점을 찾을 수 있게 된다.Next, referring to FIG. 8 (f), a state in which the search window has moved to the hand edge portion is shown. In this way, until the search window moves to the hand edge portion, (that is, the edge pixel in the face template is displayed in black) only one present, while Figure 8 when the search window has reached the hand edge portion, as shown in (f), 8 (g), the line segment l 1 face template edge, as shown in Point Q 1 intersects with the edge of the search window, but the point R 1 at which the line segment l 1 meets the edge of the hand is not detected in the search window, so it is not regarded as the edge of the face. Here, as shown in Fig. 8 (h), when the line segment l 3 of the normal component is drawn at R 1 , which is the intersection of the hand edge, and the angle of the hand edge and the elongated component are found as shown in Fig. 8 (i) . Also, it can be seen that there are no other edge pixels searched in the search window centered on the point R 1 , thus indicating that the gray area is the edge of the hand. On the other hand, if the above process is repeated, another point on the hand edge pixel can be found as shown in FIG. 8 (j).

본 발명의 중첩된 손의 분리의 처리의 예Example of processing of separation of overlapping hands of the present invention

도 9는 본 발명의 일 실시예에 따른 중첩된 이미지에서 손의 엣지를 분리해 낸 결과에 대한 예시를 나타낸다.FIG. 9 illustrates an example of a result of separating a hand edge from a superimposed image according to an embodiment of the present invention.

앞선 수학식 3에서 볼 수 있듯이, 엣지 픽셀의 엣지 그래디언트 오리엔테이션 차 Δθ가 0에 가까워서 θdiff(x, y)가 소정의 값의 이하(즉, 0 에 가까운 값)인 경우, 중첩된 이미지의 얼굴 부위의 엣지 픽셀로 분류할 수 있으며 도 9에서는 이러한 부분을 점선으로 나타내고 있음을 알 수 있고, 엣지 그래디언트 오리엔테이션 차 θdiff(x, y)가 소정의 값보다 더 큰 경우(즉, 도 8(i)에서와 설명한 바와 같이 사잇각이 90도에 가까워서 1에 가까운 값인 경우), 중첩된 이미지의 손 부위의 엣지 픽셀로 분류할 수 있으며 도 9에서는 이러한 부분을 실선으로 나타내고 있음을 알 수 있다.As can be seen from Equation (3), when the edge gradient orientation difference ?? of the edge pixel is close to zero and? Diff (x, y) is less than or equal to a predetermined value (X, y) is larger than a predetermined value (i.e., when the edge gradient orientation difference [theta] diff (x, y) is larger than a predetermined value ), It can be classified into the edge pixels of the hand portion of the superimposed image. In FIG. 9, this portion is indicated by a solid line.

이상 설명된 본 발명에 따른 실시예들은 다양한 컴퓨터 구성요소를 통하여 수행될 수 있는 프로그램 명령어의 형태로 구현되어 컴퓨터 판독 가능한 기록 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능한 기록 매체는 프로그램 명령어, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 컴퓨터 판독 가능한 기록 매체에 기록되는 프로그램 명령어는 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 분야의 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능한 기록 매체의 예에는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM, DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 ROM, RAM, 플래시 메모리 등과 같은 프로그램 명령어를 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령어의 예에는, 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드도 포함된다. 상기 하드웨어 장치는 본 발명에 따른 처리를 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The embodiments of the present invention described above can be implemented in the form of program instructions that can be executed through various computer components and recorded on a computer-readable recording medium. The computer-readable recording medium may include program commands, data files, data structures, and the like, alone or in combination. The program instructions recorded on the computer-readable recording medium may be those specially designed and constructed for the present invention or may be those known and used by those skilled in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like. Examples of program instructions include machine language code such as those generated by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware device may be configured to operate as one or more software modules for performing the processing according to the present invention, and vice versa.

이상에서 본 발명이 구체적인 구성요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나, 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명이 상기 실시예들에 한정되는 것은 아니며, 본 발명이 속하는 기술분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형을 꾀할 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Those skilled in the art will appreciate that various modifications, additions and substitutions are possible, without departing from the scope and spirit of the invention as disclosed in the accompanying claims.

따라서, 본 발명의 사상은 상기 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐만 아니라 이 특허청구범위와 균등하게 또는 등가적으로 변형된 모든 것들은 본 발명의 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be construed as being limited to the above-described embodiments, and all of the equivalents or equivalents of the claims, as well as the following claims, I will say.

100: 이미지 처리 장치
110: 색상 처리부
120: 이미지 처리부
130: 영역 결정부
100: Image processing device
110: Color processor
120:
130:

Claims (25)

이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 방법으로서,
(a) 이미지 처리 장치가, 상기 제2 객체가 상기 제1 객체에 중첩된 상태의 이미지인 중첩된 이미지 및 상기 제2 객체가 상기 제1 객체에 중첩되지 않은 상태에서의 상기 제1 객체의 이미지에 대한 템플릿이 결합된 상태에서 추출된 엣지 중 상기 중첩된 이미지에 포함된 제1 엣지를 식별하는 단계;
(b) 상기 이미지 처리 장치가, 상기 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부를 판단하는 단계; 및
(c) 상기 이미지 처리 장치가, 상기 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 단계
를 포함하되,
상기 (c) 단계에서,
상기 제2 엣지의 엣지 픽셀이 존재하면
(c1) 상기 이미지 처리 장치가, 상기 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션(Gradient orientation)을 생성하는 단계; 및
(c2) 상기 이미지 처리 장치가, 상기 엣지 그래디언트 오리엔테이션에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 단계를 포함하고,
상기 (c2) 단계에서,
상기 이미지 처리 장치는, 상기 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 및 상기 제2 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 간의 차이 값에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 것을 특징으로 하는 방법.
CLAIMS 1. A method for separating a second object nested in a first object in an image,
(a) an image processing apparatus, comprising: a superimposed image in which the second object is an image in a state in which the second object is superimposed on the first object; and an image of the first object in a state in which the second object is not superimposed on the first object Identifying a first edge included in the superimposed image among the extracted edges in a state in which the template for the superimposed image is combined;
(b) the image processing apparatus judges whether or not at least one edge pixel of the second edge exists in a predetermined area including edge pixels of the first edge; And
(c) the image processing apparatus determines an edge pixel of the first edge as one of the pixels of the first object and the pixels of the second object based on whether at least one edge pixel of the second edge exists step
, ≪ / RTI &
In the step (c)
If edge pixels of the second edge are present
(c1) the image processing apparatus generating an edge gradient orientation of edge pixels of the first edge; And
(c2) the image processing apparatus determining an edge pixel of the first edge as one of the pixels of the first object and the pixels of the second object based on the edge gradient orientation,
In the step (c2)
Wherein the image processing apparatus is configured to calculate an edge pixel of the first edge based on a difference value between an edge gradient orientation of the edge pixel of the first edge and an edge gradient orientation of the edge pixel of the second edge, And determining one of the pixels of the second object.
제1항에 있어서,
상기 (c) 단계에서,
상기 이미지 처리 장치는, 상기 제2 엣지의 엣지 픽셀이 존재하지 않으면 상기 제1 엣지의 엣지 픽셀을 상기 제2 객체의 픽셀로 결정하는 것을 특징으로 하는 방법.
The method according to claim 1,
In the step (c)
Wherein the image processing apparatus determines an edge pixel of the first edge as a pixel of the second object if edge pixels of the second edge do not exist.
삭제delete 삭제delete 제1항에 있어서,
상기 (c2) 단계에서,
상기 이미지 처리 장치는, 상기 차이 값이 소정의 값의 이하인 경우 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀로 분류하고, 상기 차이 값이 상기 소정의 값보다 더 큰 경우 상기 제1 엣지의 엣지 픽셀을 상기 제2 객체의 픽셀로 분류하는 것을 특징으로 하는 방법.
The method according to claim 1,
In the step (c2)
Wherein the image processing apparatus classifies edge pixels of the first edge into pixels of the first object when the difference value is less than or equal to a predetermined value and if the difference value is larger than the predetermined value, The edge pixels of the second object are classified into pixels of the second object.
제1항에 있어서,
상기 (c2) 단계에서,
상기 제2 엣지의 엣지 픽셀은 상기 제1 엣지의 엣지 픽셀과 가장 가까운 상기 템플릿의 엣지 픽셀인 것을 특징으로 하는 방법.
The method according to claim 1,
In the step (c2)
Wherein the edge pixel of the second edge is the edge pixel of the template closest to the edge pixel of the first edge.
제2항에 있어서,
상기 (c) 단계 이후에,
(d) 상기 이미지 처리 장치가, 상기 제2 객체가 상기 제1 객체에 중첩된 상태의 상기 제1 객체의 영역 중 상기 템플릿 및 상기 중첩된 이미지 사이에서의 변화가 소정의 기준을 충족시키는 부분을 상기 제2 객체에 추가하는 단계
를 더 포함하는 방법.
3. The method of claim 2,
After the step (c)
(d) the image processing apparatus further comprises: a part of the area of the first object in a state where the second object is superimposed on the first object, the part where the change between the template and the superimposed image satisfies a predetermined criterion Adding to the second object
≪ / RTI >
제1항에 있어서,
상기 (a) 단계 이전에,
(a0) 상기 이미지 처리 장치가, 상기 제1 객체의 영역을 포함하는 제1 검사 영역의 색상 및 상기 제1 검사 영역을 포함하는 제2 검사 영역의 색상 간의 차이에 기반하여 상기 중첩된 이미지에 해당되는지 여부를 판단하는 단계
를 더 포함하는 방법.
The method according to claim 1,
Before the step (a)
(a0). The image processing apparatus according to any one of claims 1 to 3, wherein the image processing apparatus is configured to calculate the color of the first inspection area based on the difference between the colors of the first inspection area including the area of the first object and the colors of the second inspection area including the first inspection area Whether or not
≪ / RTI >
제8항에 있어서,
상기 제1 검사 영역은 상기 제1 객체의 영역을 포함하는 최소의 크기의 다각형 또는 원형인 것을 특징으로 하는 방법.
9. The method of claim 8,
Wherein the first inspection area is a polygon or a circle having a minimum size including the area of the first object.
제1항에 있어서,
상기 (a) 단계 이전에,
(a1) 상기 제1 객체 및 상기 제2 객체에 해당되는 색상 모델을 정의하는 단계
를 더 포함하고,
상기 이미지 처리 장치는, 상기 색상 모델에 기반하여 상기 이미지 중 상기 제1 객체의 영역을 식별하는 것을 특징으로 하는 방법.
The method according to claim 1,
Before the step (a)
(a1) defining a color model corresponding to the first object and the second object
Further comprising:
Wherein the image processing device identifies an area of the first one of the images based on the color model.
제1항에 있어서,
상기 제1 객체 및 상기 제2 객체의 컬러 정보가 유사한 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the color information of the first object and the color of the second object are similar.
제1항에 있어서,
상기 제1 객체는 사용자의 얼굴이고, 상기 제2 객체는 사용자의 손인 것을 특징으로 하는 방법.
The method according to claim 1,
Wherein the first object is a user's face and the second object is a user's hand.
제1항, 제2항 및 제5항 내지 제12항 중 어느 한 항에 따른 방법을 실행하기 위한 컴퓨터 프로그램을 기록한 컴퓨터 판독 가능한 기록 매체.12. A computer program for executing the method according to any one of claims 1, 2 and 5 to 12. 이미지에서 제1 객체에 중첩된 제2 객체를 분리하기 위한 이미지 처리 장치로서,
제2 객체가 제1 객체에 중첩된 상태의 이미지인 중첩된 이미지 및 상기 제2 객체가 상기 제1 객체에 중첩되지 않은 상태에서의 상기 제1 객체의 이미지에 대한 템플릿이 결합된 상태에서 추출된 엣지 중 상기 중첩된 이미지에 포함된 제1 엣지를 식별하고, 상기 제1 엣지의 엣지 픽셀을 포함하는 소정의 영역 내에 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부를 판단하는 이미지 처리부; 및
상기 제2 엣지의 엣지 픽셀이 적어도 하나 존재하는지 여부에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 영역 결정부
를 포함하되,
상기 제2 엣지의 엣지 픽셀이 존재하면,
상기 이미지 처리부는,
상기 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션(Gradient orientation)을 생성하고,
상기 영역 결정부는,
상기 엣지 그래디언트 오리엔테이션에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 단계
를 포함하고,
상기 이미지 처리부는,
상기 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 및 상기 제2 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 간의 차이 값을 구하고,
상기 영역 결정부는,
상기 제1 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 및 상기 제2 엣지의 엣지 픽셀의 엣지 그래디언트 오리엔테이션 간의 차이 값에 기반하여 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀 및 상기 제2 객체의 픽셀 중 하나로 결정하는 것을 특징으로 하는 장치.
An image processing apparatus for separating a second object superimposed on a first object in an image,
Wherein the first object is an image in a state in which the second object is superimposed on the first object, and the second image is a superimposed image in a state in which the template for the image of the first object in a state in which the second object is not superimposed on the first object is combined An image processing unit that identifies a first edge included in the superimposed image of the edge and determines whether there is at least one edge pixel of the second edge within a predetermined area including edge pixels of the first edge; And
And determining an edge pixel of the first edge as one of a pixel of the first object and a pixel of the second object based on whether at least one edge pixel of the second edge exists,
, ≪ / RTI &
If edge pixels of the second edge are present,
Wherein the image processing unit comprises:
Generating an edge gradient orientation of the edge pixel of the first edge,
Wherein the area determining unit
Determining an edge pixel of the first edge as one of the pixels of the first object and the pixels of the second object based on the edge gradient orientation
Lt; / RTI >
Wherein the image processing unit comprises:
A difference value between an edge-gradient orientation of the edge pixel of the first edge and an edge-gradient orientation of the edge pixel of the second edge,
Wherein the area determining unit
Edge pixels of the first edge and pixels of the second object based on the difference between the edge-gradient orientation of the edge pixels of the first edge and the edge-gradient orientation of the edge pixels of the second edge, ≪ / RTI >
제14항에 있어서,
상기 영역 결정부는,
상기 제2 엣지의 엣지 픽셀이 존재하지 않으면 상기 제1 엣지의 엣지 픽셀을 상기 제2 객체의 픽셀로 결정하는 것을 특징으로 하는 장치.
15. The method of claim 14,
Wherein the area determining unit
And determines an edge pixel of the first edge as a pixel of the second object if edge pixels of the second edge do not exist.
삭제delete 삭제delete 제14항에 있어서,
상기 영역 결정부는,
상기 차이 값이 소정의 값의 이하인 경우 상기 제1 엣지의 엣지 픽셀을 상기 제1 객체의 픽셀로 분류하고, 상기 차이 값이 상기 소정의 값보다 더 큰 경우 상기 제1 엣지의 엣지 픽셀을 상기 제2 객체의 픽셀로 분류하는 것을 특징으로 하는 장치.
15. The method of claim 14,
Wherein the area determining unit
Classifying edge pixels of the first edge into pixels of the first object when the difference value is less than or equal to a predetermined value and outputting edge pixels of the first edge to the pixels of the first object when the difference value is less than a predetermined value, Lt; RTI ID = 0.0 > 2 < / RTI > objects.
제14항에 있어서,
상기 제2 엣지의 엣지 픽셀은 상기 제1 엣지의 엣지 픽셀과 가장 가까운 상기 템플릿의 엣지 픽셀인 것을 특징으로 하는 장치.
15. The method of claim 14,
Wherein the edge pixel of the second edge is the edge pixel of the template closest to the edge pixel of the first edge.
제15항에 있어서,
상기 영역 결정부는,
상기 제2 객체가 상기 제1 객체에 중첩된 상태의 제1 객체의 영역 중 상기 템플릿 및 상기 중첩된 이미지 사이에서의 변화가 소정의 기준을 충족시키는 부분을 상기 제2 객체의 영역에 추가하는 단계
를 더 포함하는 장치.
16. The method of claim 15,
Wherein the area determining unit
Adding a portion of a region of the first object in a state where the second object is superimposed on the first object to a region of the second object in which a change between the template and the superimposed image satisfies a predetermined criterion
Lt; / RTI >
제14항에 있어서,
상기 이미지 처리부는,
상기 제1 객체의 영역을 포함하는 제1 검사 영역의 색상 및 상기 제1 검사 영역을 포함하는 제2 검사 영역의 색상 간의 차이에 기반하여 상기 중첩된 이미지에 해당되는지 여부를 판단하는 단계
를 더 포함하는 장치.
15. The method of claim 14,
Wherein the image processing unit comprises:
Determining whether the image corresponds to the superimposed image based on a difference between a hue of a first inspection area including an area of the first object and a hue of a second inspection area including the first inspection area
Lt; / RTI >
제21항에 있어서,
상기 제1 검사 영역은 상기 제1 객체의 영역을 포함하는 최소의 크기의 다각형 또는 원형인 것을 특징으로 하는 장치.
22. The method of claim 21,
Wherein the first inspection area is a polygon or a circle having a minimum size including the area of the first object.
제14항에 있어서,
색상 모델을 정의하는 색상 처리부를 더 포함하고,
상기 이미지 처리부는, 상기 색상 모델에 기반하여 상기 이미지 중 상기 제1 객체의 영역을 식별하는 것을 특징으로 하는 장치.
15. The method of claim 14,
Further comprising a color processing section for defining a color model,
Wherein the image processing unit identifies an area of the first one of the images based on the color model.
제14항에 있어서,
상기 제1 객체 및 상기 제2 객체의 컬러 정보가 유사한 것을 특징으로 하는 장치.
15. The method of claim 14,
Wherein the color information of the first object and the color of the second object are similar.
제14항에 있어서,
상기 제1 객체는 사용자의 얼굴이고, 상기 제2 객체는 사용자의 손인 것을 특징으로 하는 장치.
15. The method of claim 14,
Wherein the first object is a user's face and the second object is a user's hand.
KR1020140117279A 2014-09-03 2014-09-03 Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image KR101652022B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140117279A KR101652022B1 (en) 2014-09-03 2014-09-03 Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140117279A KR101652022B1 (en) 2014-09-03 2014-09-03 Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image

Publications (2)

Publication Number Publication Date
KR20160028310A KR20160028310A (en) 2016-03-11
KR101652022B1 true KR101652022B1 (en) 2016-08-29

Family

ID=55582950

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140117279A KR101652022B1 (en) 2014-09-03 2014-09-03 Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image

Country Status (1)

Country Link
KR (1) KR101652022B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092262A (en) * 2003-09-11 2005-04-07 Secom Co Ltd Face detecting device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101355974B1 (en) * 2010-08-24 2014-01-29 한국전자통신연구원 Method and devices for tracking multiple object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092262A (en) * 2003-09-11 2005-04-07 Secom Co Ltd Face detecting device

Also Published As

Publication number Publication date
KR20160028310A (en) 2016-03-11

Similar Documents

Publication Publication Date Title
US10956719B2 (en) Depth image based face anti-spoofing
US10216979B2 (en) Image processing apparatus, image processing method, and storage medium to detect parts of an object
WO2019232866A1 (en) Human eye model training method, human eye recognition method, apparatus, device and medium
KR102290392B1 (en) Method and apparatus for registering face, method and apparatus for recognizing face
WO2019232862A1 (en) Mouth model training method and apparatus, mouth recognition method and apparatus, device, and medium
KR102357326B1 (en) Method and apparatus for extracting face feature, method and apparatus for recognizing face
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US7929734B2 (en) Method and apparatus for detecting eyes in face region
US20160279791A1 (en) Information processing apparatus, information processing method, and storage medium
US9690988B2 (en) Image processing apparatus and image processing method for blink detection in an image
US9443137B2 (en) Apparatus and method for detecting body parts
EP2980755B1 (en) Method for partitioning area, and inspection device
US9824263B2 (en) Method for processing image with depth information and computer program product thereof
CN105844248B (en) Face detection method and device
US8718362B2 (en) Appearance and context based object classification in images
KR102530516B1 (en) Automatic Sign Language Recognition Method and System
KR20220063256A (en) Method and device for controlling the cabin environment
Wang et al. A fast and robust ellipse-detection method based on sorted merging
JP2011248525A (en) Object detection device and detection method thereof
Singh et al. Template matching for detection & recognition of frontal view of human face through Matlab
KR20170012191A (en) Image processing method and image processing apparatus
US20160292529A1 (en) Image collation system, image collation method, and program
Das Human’s facial parts extraction to recognize facial expression
KR101652022B1 (en) Method, apparatus and computer-readable recording medium for segmenting a second obejct which is overlapped with a first object in image
KR102182540B1 (en) Methods and apparatus for accurate pedestrian detection using disparity map and pedestrian upper and lower recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant