KR20110044392A - Image processing apparatus and method - Google Patents

Image processing apparatus and method Download PDF

Info

Publication number
KR20110044392A
KR20110044392A KR1020090101029A KR20090101029A KR20110044392A KR 20110044392 A KR20110044392 A KR 20110044392A KR 1020090101029 A KR1020090101029 A KR 1020090101029A KR 20090101029 A KR20090101029 A KR 20090101029A KR 20110044392 A KR20110044392 A KR 20110044392A
Authority
KR
South Korea
Prior art keywords
type
pixel
region
pixels
probability distribution
Prior art date
Application number
KR1020090101029A
Other languages
Korean (ko)
Inventor
최욱
이기창
김도균
임화섭
강병민
김용선
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020090101029A priority Critical patent/KR20110044392A/en
Publication of KR20110044392A publication Critical patent/KR20110044392A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/41Analysis of texture based on statistical description of texture
    • G06T7/44Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes

Abstract

PURPOSE: An image processing apparatus and a method thereof are provided to separate an extracted interest region into sub regions and change the region color information of the sub region. CONSTITUTION: A silhouette extraction unit(110) extracts a silhouette region corresponding to a target object of a 3D model from an inputted color image. An interest region extraction unit(120) extracts a cloth region from the extracted silhouette region, and an interest region separation unit(130) separates the extracted interest region into plural sub regions. An image edition unit(140) substitutes some sub regions for other colors stored in a database(150).

Description

영상 처리 장치 및 방법{IMAGE PROCESSING APPARATUS AND METHOD}Image processing apparatus and method {IMAGE PROCESSING APPARATUS AND METHOD}

사용자의 인체(human body)와 같은 타킷 오브젝트에 대한 3D 모델에 있어서, 상기 3D 모델을 분할(segmentation) 하는 영상 처리에 연관되며, 보다 특정하게는 3D 모델의 텍스처 정보를 변경하는 영상 처리에 연관된다.In a 3D model for a target object such as a human body of a user, it is associated with image processing for segmenting the 3D model, and more particularly, for image processing for changing texture information of the 3D model. .

최근 영상 처리 기술의 발달에 따라, 사용자의 인체와 같은 타킷 오브젝트를 3D 모델링 하는 분야의 관심도 커지고 있다. 인체를 3D 모델링 하는 경우, 가상 현실(virtual reality), 영화 또는 비디오 게임에서의 컴퓨터 그래픽(computer graphic. CG) 등에 활용될 수 있다.Recently, with the development of image processing technology, interest in the field of 3D modeling of a target object such as a user's human body is also increasing. In 3D modeling of the human body, the human body may be used for virtual reality, computer graphic (CG) in a movie or video game.

3D 모델은 오브젝트의 기하(geometry) 정보 및 텍스처(texture) 정보를 포함한다. 여기서, 기하 정보는 포인트 기반 또는 선으로 이루어진 복수 개의 메쉬(Mesh)(또는 폴리곤(Polygon)이라고도 함)에 의해 표현된다. 그리고 텍스처 정보는 각각의 폴리곤에 대응되는 텍스처(texture) 정보, 이를테면 칼라 값으로 표현된다.The 3D model includes geometry information and texture information of the object. Here, the geometric information is represented by a plurality of meshes (or also called polygons) made of points or lines. The texture information is represented by texture information corresponding to each polygon, for example, a color value.

한편 3D 모델은 아티스트가 기하 정보 및 텍스처 정보가 디자인함으로써 생성될 수 있다. 그리고, 가상 현실, 영화, 비디오 게임 등의 다양한 산업 분야에 서는, 타킷 오브젝트, 이를테면 인체를 직접 스캔하여 3D 모델을 생성하는 기술도 연구되었다.Meanwhile, the 3D model may be generated by the artist designing the geometric information and the texture information. In addition, in various industrial fields such as virtual reality, movies, and video games, a technology of generating a 3D model by directly scanning a target object, such as a human body, has also been studied.

또한 인체를 촬영한 칼라 영상과 깊이 영상을 이용한 영상 처리를 통하여 3D 모델을 생성하기도 한다.In addition, a 3D model may be generated through image processing using a color image and a depth image of a human body.

그런데, 아티스트가 직접 디자인하여 생성한 3D 모델 이외에, 타킷 오브젝트를 스캔하거나, 타킷 오브젝트를 촬영한 칼라 영상과 깊이 영상을 이용하여 영상 처리를 함으로써 생성된 3D 모델의 경우, 생성된 기하 정보와 텍스처 정보의 매칭에 일부 오류가 있을 수 있다.However, in the case of 3D models generated by scanning a target object or image processing using a color image and a depth image of the target object, in addition to the 3D model designed and created by the artist, the generated geometric information and the texture information There may be some error in the matching of.

이를 테면, 하의 부분의 폴리곤에 상의 부분의 칼라 값이 매칭되는 등이다. 따라서, 3D 모델 중 관심 영역을 분리하거나, 복수 개의 영역으로 분리하는 경우, 활용도가 높을 것으로 예상된다.For example, the color value of the upper part matches the polygon of the lower part, and so on. Therefore, when the region of interest is separated from the 3D model or separated into a plurality of regions, the utilization is expected to be high.

인체의 3D 모델과 같은 타킷 오브젝트 중 특정 관심 영역을 추출하는 영상 처리 장치 및 방법이 제공된다.Provided are an image processing apparatus and method for extracting a specific region of interest from a target object such as a 3D model of a human body.

또한, 추출된 관심 영역을 몇 개의 소 영역으로 분리하고, 그 중 일부의 소 영역의 칼라 정보를 바꾸는 영상 처리 장치 및 방법이 제공된다.There is also provided an image processing apparatus and method for dividing an extracted region of interest into several small regions and changing color information of some of the small regions.

본 발명의 일측에 따르면, 입력 3D 모델과 매칭된 입력 칼라 영상으로부터, 상기 3D 모델 내의 타킷 오브젝트에 대응하는 실루엣 영역을 추출하는 실루엣 추출 부, 상기 실루엣 영역으로부터 관심 영역을 추출하는 관심 영역 추출부, 및 상기 추출된 관심 영역을 복수 개의 소 영역(sub region)으로 분리하는 관심 영역 분리부를 포함하는, 영상 처리 장치가 제공된다.According to an aspect of the present invention, a silhouette extractor for extracting a silhouette region corresponding to a target object in the 3D model from an input color image matched with an input 3D model, a region of interest extractor for extracting a region of interest from the silhouette region; And a region of interest separator configured to separate the extracted region of interest into a plurality of sub regions.

여기서 상기 타킷 오브젝트는, 이를테면 인체(human body)이다.Wherein the target object is, for example, a human body.

한편, 상기 실루엣 추출부는, 상기 입력 3D 모델의 인체 부분을 상기 입력 칼라 영상에 투영(project)하여, 투영된 부분에 대응하는 제1 픽셀 그룹을 선택하는 제1 계산부, 상기 제1 픽셀 그룹의 픽셀들 각각을 상기 타킷 오브젝트에 속하는 제1 유형의 픽셀, 상기 타킷 오브젝트에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류되지 않는 제3 유형의 픽셀로 분류하는 제2 계산부, 및 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 제3 계산부를 포함할 수 있다.The silhouette extractor may include: a first calculator configured to project a human body part of the input 3D model to the input color image, and select a first pixel group corresponding to the projected part; Each of the pixels is classified into a pixel of a first type belonging to the target object, a pixel of a second type not belonging to the target object, and a pixel of a third type not classified as either the first type or the second type. Obtaining a second color probability distribution function for the pixels of the first type and a second color probability distribution function for the pixels of the second type; If the result of substituting the color value of one pixel into the first color probability distribution function is greater than the result of substituting the color value of the first pixel into the second color probability distribution function, the first pixel is assigned to the first prevalence. It may comprise a third calculation unit configured to determine a pixel-by-pixel.

여기서 상기 제1 칼라 확률 분포 함수 및 상기 제2 칼라 확률 분포 함수는 가우시안(Gaussian) 함수일 수 있다.Here, the first color probability distribution function and the second color probability distribution function may be Gaussian functions.

본 발명의 일부 실시예에 따르면, 상기 관심 영역은 옷(cloth) 영역이다. 이 경우, 상기 관심 영역 추출부는, 상기 실루엣 영역에 포함되는 복수 개의 픽셀들 각각을 상기 인체의 옷 영역에 속하는 제1 유형의 픽셀, 상기 옷 영역에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류 되지 않는 제3 유형의 픽셀로 분류하는 제1 계산부, 및 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 제2 계산부를 포함할 수 있다.According to some embodiments of the invention, the region of interest is a cloth region. In this case, the ROI extractor may include a first type of pixel belonging to the clothing area of the human body, a second type of pixel not belonging to the clothing area, and each of the plurality of pixels included in the silhouette area. A first calculation unit classifying a pixel of a third type not classified into one of the types or the second type, and a first color probability distribution function for the pixels of the first type and the pixels of the second type. Obtaining a second color probability distribution function for the second color probability and substituting the color value of the first pixel of the third type of pixels into the first color probability distribution function If greater than the result of substituting the distribution function, a second calculator may be configured to determine the first pixel as the first type pixel.

그리고, 여기서 상기 제2 유형의 픽셀들은 인체의 얼굴, 손, 발 중 적어도 하나에 대응하는 픽셀이다.In this case, the second type of pixels are pixels corresponding to at least one of a face, a hand, and a foot of a human body.

본 발명의 일 실시예에 따르면, 상기 복수 개의 소 영역(sub region)은, 하의 영역, 상의 셔츠 영역, 상의 재킷 영역 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the plurality of sub regions includes at least one of a lower region, an upper shirt region, and an upper jacket region.

한편, 상기 영상 처리 장치는, 상기 분리된 복수 개의 소 영역 중 적어도 하나에 대응하는 이미지 데이터를 저장하는 데이터베이스, 및 상기 데이터베이스에 저장된 데이터를 이용하여, 상기 분리된 복수 개의 소 영역 중 선택된 제1 소 영역의 이미지를 변경하는 이미지 편집부를 더 포함할 수 있다.The image processing apparatus may further include a database configured to store image data corresponding to at least one of the plurality of separated small regions, and a first small region selected from the plurality of separated small regions using data stored in the database. The apparatus may further include an image editor configured to change an image of the area.

본 발명의 다른 일측에 따르면, 입력 3D 모델과 매칭된 입력 칼라 영상으로부터, 상기 3D 모델 내의 타킷 오브젝트에 대응하는 실루엣 영역을 추출하는 단계, 상기 실루엣 영역으로부터 관심 영역을 추출하는 단계, 및 상기 추출된 관심 영역을 복수 개의 소 영역으로 분리하는 단계를 포함하는, 영상 처리 방법이 제공된다.According to another aspect of the present invention, extracting a silhouette region corresponding to a target object in the 3D model from the input color image matched with the input 3D model, extracting the region of interest from the silhouette region, and the extracted An image processing method is provided, comprising separating a region of interest into a plurality of small regions.

상기 실시예들에 의하면, 인체의 3D 모델에서 특정 관심 영역, 이를테면 옷 영역을 추출하고, 이를 상의와 하의 등의 소 영역으로 분리하는 영상 처리에 의해, 3D 모델 내의 일부 영역의 칼라 정보를 바꾸는 응용이 가능하다.According to the above embodiments, an application for changing color information of a part of the 3D model by image processing of extracting a specific region of interest, such as a clothes region, from the 3D model of the human body and separating the region of interest into a small region such as a top and a bottom, etc. This is possible.

그리고 이러한 영상 처리에 의하면, 가상 현실 속의 아바타, 영화나 비디오 게임 속의 캐릭터의 옷을 갈아 입히거나, 또는 온라인 쇼핑에서 구입하고자 하는 아이템을 사용자의 아바타에 미리 입히는 시뮬레이션이 가능하다.According to the image processing, it is possible to change the clothes of the avatar in the virtual reality, the character in the movie or the video game, or to simulate the user's avatar with the item to be purchased in the online shopping in advance.

이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Like reference numerals in the drawings denote like elements.

도 1은 본 발명의 일 실시예에 따른 영상 처리 장치(100)를 도시한다.1 illustrates an image processing apparatus 100 according to an embodiment of the present invention.

본 발명의 영상 처리 장치(100)에는, 칼라 영상 및 상기 칼라 영상과 매칭된 3D 모델의 기하 정보와 텍스처 정보가 입력될 수 있다.In the image processing apparatus 100 of the present invention, geometric information and texture information of a color image and a 3D model matched with the color image may be input.

실루엣 추출부(110)는 입력된 칼라 영상으로부터 상기 3D 모델의 타킷 오브젝트, 이를테면 인체에 대응하는 실루엣 영역을 추출한다.The silhouette extractor 110 extracts a target object of the 3D model, for example, a silhouette region corresponding to a human body, from the input color image.

이러한 실루엣 추출부의 동작은 도 4 내지 도 6을 참조하여 보다 상세히 후술한다.The operation of the silhouette extractor will be described later in more detail with reference to FIGS. 4 to 6.

단, 상기 3D 모델이 상기 칼라 영상을 이용한 영상 처리 방법에 의해 생성된 것인 경우, 상기 3D 모델의 상기 타킷 오브젝트에 대응하는 실루엣 영역은 이미 추출되었을 수 있다. 본 발명의 일 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 이러한 가능성을 배제하지 않으며, 이 경우 실루엣 추출부(110)는 상기 칼 라 영상으로부터 이미 추출된 실루엣 영역을 그대로 가져오거나, 약간의 수정을 가하여 가져올 수 있다.However, when the 3D model is generated by an image processing method using the color image, a silhouette region corresponding to the target object of the 3D model may have already been extracted. The image processing apparatus and the image processing method according to the embodiment of the present invention do not exclude such a possibility, and in this case, the silhouette extracting unit 110 may bring the silhouette region extracted from the color image as it is, or slightly modify it. You can get it by adding

관심 영역 추출부(120)는 상기 추출된 실루엣 영역으로부터 관심 영역, 이를테면 옷 영역을 추출한다. 관심 영역 추출부(120)의 동작은 도 6 내지 도 9를 참조하여 보다 상세히 후술한다.The ROI extractor 120 extracts an ROI, for example, a clothes region, from the extracted silhouette region. An operation of the ROI extractor 120 will be described later in more detail with reference to FIGS. 6 to 9.

관심 영역 분리부(130)는 상기 추출된 관심 영역을 복수 개의 소 영역(sub region)으로 분리한다.The ROI separator 130 divides the extracted ROI into a plurality of subregions.

이를테면, 상기 추출된 관심 영역이 옷(cloth) 영역인 경우, 상기 관심 영역 분리부(130)는 이를 재킷 부분 소 영역, 셔츠 부분 소 영역 및 하의 부분 소 영역으로 분리할 수 있다.For example, when the extracted region of interest is a clothes region, the region of interest separator 130 may divide it into a jacket portion small region, a shirt portion small region and a lower portion small region.

이러한 관심 영역 분리부(130)의 동작은 도 9 내지 도 10을 참조하여 보다 상세히 후술한다.The operation of the ROI separator 130 will be described later in more detail with reference to FIGS. 9 through 10.

이렇게 관심 영역이 복수 개의 소 영역으로 분리되는 경우, 이미지 편집부(140)는 이 중 적어도 일부를, 미리 데이터베이스(150)에 저장되어 있던 다른 이미지로 대체할 수 있다.When the ROI is divided into a plurality of small regions, the image editing unit 140 may replace at least a portion of the ROI with another image previously stored in the database 150.

이를테면, 재킷 부분 소 영역을 변경하여, 재킷 칼라를 변경할 수 있다.For example, the jacket collar may be changed by changing the jacket portion small area.

이러한 이미지 편집부(140)의 동작은 도 11을 참조하여 보다 상세히 후술한다.The operation of the image editing unit 140 will be described later in more detail with reference to FIG. 11.

이하에서는, 구체적인 실시예를 통해 상기 각 구성의 동작을 서술한다.Hereinafter, the operation of each configuration will be described through specific embodiments.

도 2는 본 발명의 일 실시예에 따라 입력되는 칼라 영상(200)을 도시한다.2 illustrates a color image 200 input according to an embodiment of the present invention.

본 실시예에서 칼라 영상(200)은, 하기 도 3에서 도시되는 3D 모델과 매칭되어 있다.In the present embodiment, the color image 200 is matched with the 3D model shown in FIG. 3.

칼라 영상(200)에는 인체 부분(210), 뒷 배경 부분(201) 및 바닥 부분(202)이 포함된다.The color image 200 includes a human body part 210, a back background part 201, and a bottom part 202.

본 발명의 실시예에 따른 영상 처리 방법에 따르면, 도 1의 실루엣 추출부(110)에 의해 칼라 영상(200)으로부터 인체 부분(210)에 대응하는 실루엣 영역이 추출된다. 그리고, 관심 영역 추출부(120)에 의해 상기 추출된 실루엣 영역으로부터 특정의 관심 영역(Region of Interest; ROI)이 추출된다.According to the image processing method according to the exemplary embodiment of the present invention, the silhouette region corresponding to the human body 210 is extracted from the color image 200 by the silhouette extractor 110 of FIG. 1. In addition, a region of interest (ROI) is extracted from the extracted silhouette region by the region of interest extractor 120.

관심 영역 추출부(120)는 상기 실루엣 영역으로부터 얼굴 부분(251), 손 부분(252), 및 구두 부분(253) 등을 제거하여, 외한 옷 영역을 관심 영역으로서 추출한다.The region of interest extracting unit 120 removes the face portion 251, the hand portion 252, the shoe portion 253, and the like from the silhouette region, and extracts the outer garment region as the region of interest.

추출되는 관심 영역인 옷 영역에는, 상의 재킷(220) 소 영역, 상의 셔츠 소 영역(240) 및 하의 소 영역(230)이 포함된다. 이 경우 각 소 영역들은 관심 영역 분리부(130)에 의해 각각 분리될 수 있다.The clothes region, which is the region of interest to be extracted, includes the upper jacket 220 small region, the upper shirt small region 240, and the lower small region 230. In this case, each of the small regions may be separated by the ROI separator 130.

이렇게 소 영역들이 분리되는 경우, 이미지 편집부(140)에 의해 분리된 소 영역 중 일부가 데이터베이스(150)에 저장된 다른 데이터를 이용하여 변경될 수 있다.When the small areas are separated in this way, some of the small areas separated by the image editing unit 140 may be changed using other data stored in the database 150.

실루엣 영역의 추출, 관심 영역 추출 및 관심 영역 분리 등, 상기 영상 처리의 각 단계에 대한 구체적 내용은 도 3 이하를 참조하여 후술한다.Details of each step of the image processing, such as silhouette region extraction, region of interest extraction, region of interest separation, and the like, will be described below with reference to FIG. 3.

도 3은 본 발명의 일 실시예에 따라 입력되는 3D 모델(300)을 도시한다.3 illustrates a 3D model 300 input according to an embodiment of the present invention.

3D 모델에는 타킷 오브젝트(310)가 포함된다. 본 실시예에서 상기 타킷 오브젝트(310)는 인체에 대응한다.The 3D model includes a target object 310. In the present embodiment, the target object 310 corresponds to a human body.

상기한 바와 같이, 3D 모델은 기하 정보와 텍스처 정보에 의해 표현되며, 폴리곤(311)은 상기 타킷 오브젝트(310)의 기하 정보에 포함되는 일 예이다.As described above, the 3D model is represented by geometric information and texture information, and the polygon 311 is an example included in the geometric information of the target object 310.

이하의 실시예에서는 3D 모델(300)이 아티스트에 의해 디자인 된 것인 경우가 아니라, 타킷 오브젝트를 스캔된 것이거나, 또는 타킷 오브젝트를 촬영한 칼라 영상과 깊이 영상을 이용한 영상 처리에 의해 생성된 것인 경우임을 전제한다. 물론, 직접 디자인된 3D 모델이 아니라 현실 세계의 오브젝트를 모델링하기 위해 다른 어떤 방법에 의해 생성된 3D 모델인 경우를 배제하는 것은 아니다.In the following embodiments, the 3D model 300 is not designed by an artist, but is scanned by a target object or generated by image processing using a color image and a depth image of the target object. It is assumed that Of course, this does not exclude the case that the 3D model is generated by some other method for modeling an object in the real world rather than a 3D model designed directly.

본 발명의 일 실시예에 따른 영상 처리를 위해, 도 2의 칼라 영상(200) 및 도 3의 3D 모델(300)이 입력된다.For image processing according to an embodiment of the present invention, the color image 200 of FIG. 2 and the 3D model 300 of FIG. 3 are input.

여기서, 상기 칼라 영상(200)과 상기 3D 모델(300)은 서로 매칭된 것이다. 따라서, 3D 모델의 각 폴리곤들, 이를테면 폴리곤(311)이 상기 칼라 영상(200) 내의 어느 픽셀에 대응되는지에 관한 정보는 함께 주어진다.Here, the color image 200 and the 3D model 300 are matched with each other. Thus, information about which pixels in the color image 200 each polygon of the 3D model, such as polygon 311, is given together.

이를 테면, 상기 3D 모델(300)이 칼라 영상(200) 및 상기 칼라 영상(200)에 매칭되는 깊이 영상(도시되지 않음)을 이용한 영상 처리 방법에 의해 생성된 경우, 이 3D 모델(300)의 각 폴리곤들이 칼라 영상(200) 내의 어느 픽셀에 대응하는 지의 정보도 미리 주어지는 것으로 이해될 수 있다.For example, when the 3D model 300 is generated by an image processing method using a color image 200 and a depth image (not shown) that matches the color image 200, the 3D model 300 may be configured. It may be understood that information of which pixels in each of the polygons corresponds to the color image 200 is also given in advance.

본 발명의 일 실시예에 따른 영상 처리 방법에 따르면, 상기 3D 모델의 타킷 오브젝트(310)의 각 폴리곤들, 이를테면 폴리곤(311)이 상기 칼라 영상(200)으 로 투영(projection)된다.According to an image processing method according to an embodiment of the present invention, each polygon of the target object 310 of the 3D model, for example, the polygon 311 is projected onto the color image 200.

상기 투영(projection)은 도 1의 실루엣 추출부(110)의 제1 계산부(도시되지 않음)에 의해 수행된다.The projection is performed by a first calculator (not shown) of the silhouette extractor 110 of FIG. 1.

그러면, 상기 각 폴리곤들의 각각이 상기 칼라 영상(200) 내의 어느 픽셀에 투영되는지를 이용하여, 상기 타킷 오브젝트(310)에 대응하는 픽셀들이 선택될 수 있다.Then, pixels corresponding to the target object 310 may be selected by using which pixel in the color image 200 each of the polygons is projected.

도 4는 본 발명의 일 실시예에 따라, 도 3의 3D 모델의 타킷 오브젝트(310)를 도 2의 입력 칼라 영상(200)에 투영한 결과를 도시한다.4 illustrates a result of projecting the target object 310 of the 3D model of FIG. 3 onto the input color image 200 of FIG. 2, according to an exemplary embodiment.

칼라 영상(400) 위에 상기 타킷 오브젝트(310)의 각 폴리곤들이 투영된 위치가 산발적인 포인트들(scattered points)에 의해 표시되었다.The locations where the respective polygons of the target object 310 are projected on the color image 400 are indicated by scattered points.

그런데, 상기 3D 모델(300)의 타킷 오브젝트(310)와 상기 칼라 영상(200)의 인체 부분(210)이 매칭되어 있기는 하지만, 매칭 오차에 의한 오류가 있을 수 있다.However, although the target object 310 of the 3D model 300 and the human body 210 of the color image 200 are matched, there may be an error due to a matching error.

본 실시예에서는, 상기 포인트들 중 일부는 상기 칼라 영상(200)의 뒷 배경 부분(201)에 위치되는 등, 어느 정도의 오류가 발견된다.In this embodiment, some errors are found, such as some of the points being located in the back background portion 201 of the color image 200.

매칭 오류가 존재하지 않는다면, 상기 포인트 중 최외곽 부분의 포인트는 포인트(410)와 같이, 정확히 상기 인체 부분(210)의 경계에 위치될 것이다. 그러나, 상기한 매칭 오차에 의해, 포인트(420)와 같이 뒷 배경 부분(201)에 위치하는 포인트도 존재하고, 포인트(430)와 같이 인체 부분(210)의 경계보다 안쪽에 위치하는 포인트도 존재한다.If there is no matching error, the point of the outermost part of the point will be located exactly at the boundary of the human body part 210, such as point 410. However, due to the above matching error, there are also points located in the background part 201, such as the point 420, and also points located inward of the boundary of the human body 210, such as the point 430. do.

따라서, 상기 포인트들이 위치한 픽셀들을 인체 부분(210)의 실루엣 영역으로 바로 추출하는 경우, 뒤 배경 부분(201)이 함께 포함될 수 있는 여지가 발생한다.Therefore, when the pixels in which the points are located are directly extracted into the silhouette region of the human body 210, there is a possibility that the rear background portion 201 may be included together.

따라서, 실루엣 추출부(110)는 추가적인 과정을 통해 상기 포인트들이 위치한 픽셀들 중 일부만 인체 부분(210)에 대응한 실루엣 영역으로 추출한다.Therefore, the silhouette extractor 110 extracts only a portion of the pixels in which the points are located as the silhouette region corresponding to the human body 210 through an additional process.

이러한 과정은 도 5를 참조하여 설명된다.This process is described with reference to FIG.

도 5는 본 발명의 일 실시예에 따라, 도 4의 입력 칼라 영상(200) 중 3D 모델이 투영된 부분을 추출하고, 추출된 부분을 다시 3 개의 영역으로 분리한 결과를 도시한다.FIG. 5 illustrates a result of extracting a projected part of the 3D model from the input color image 200 of FIG. 4 and dividing the extracted part into three areas according to an embodiment of the present invention.

영역(510)은 상기 인체 부분(210)에 대응될 것으로 간주되는 영역이다. 상기한 매칭 오차가 존재하더라도, 오차의 정도가 심각하게 크지는 않을 것이므로, 상기 실루엣 추출부(110)의 제1 계산부가 상기 투영의 결과 선택하는 일부 픽셀들 중, 가장자리로부터 소정의 제1 임계치 이상의 거리만큼 안쪽에 위치한 픽셀들은 인체 부분(210)에 대응된다고 간주되는 것이다.Region 510 is an area that is considered to correspond to the human body portion 210. Even if the above matching error exists, the degree of the error will not be seriously large, and therefore, among some pixels selected by the first calculation unit of the silhouette extraction unit 110 as a result of the projection, it is equal to or greater than a predetermined first threshold value. Pixels located inward by the distance are considered to correspond to the human body portion 210.

그리고, 영역(520)은 상기 인체 부분(210)에 대응되지 않는다고 간주되는 영역이다. 도 4의 포인트(410)와 같이 바깥쪽의 포인트가 인체 부분(210)의 경계를 정확히 반영하고 있는 경우도 있지만, 포인트(420)와 같이 뒷 배경 부분(201)에 위치된 것도 있다. 따라서, 이러한 매칭 오차를 보정하기 위해, 영역(520)은 상기 인체 부분(210)에 대응되지 않는다고 간주된다.In addition, the area 520 is an area deemed not to correspond to the human body part 210. Although the outer point may accurately reflect the boundary of the human body 210 as in the point 410 of FIG. 4, the outer point may be located at the rear background part 201 as in the point 420. Therefore, to correct this matching error, the area 520 is considered to not correspond to the human body portion 210.

이 경우, 상기 가장자리로부터 소정의 제2 임계치 마만의 거리에 존재하는 픽셀들을 상기 영역(520)으로 결정할 수 있다.In this case, pixels existing at a distance less than a predetermined second threshold value from the edge may be determined as the area 520.

그리고, 상기 영역(510) 또는 상기 영역(520) 중 어느 것에도 속하지 않는 것으로 결정되는 나머지 픽셀들은 영역(530)으로 결정된다.The remaining pixels determined to not belong to either the region 510 or the region 520 are determined as the region 530.

이 영역(530)은 확실히 인체 부분(210)에 대응된다고 간주되지도 않고, 확실히 인체 부분(210)에 대응되지 않는다고 간주되지도 않는 애매한 영역이다.This area 530 is an ambiguous area that is not considered to correspond to the human body portion 210 certainly, and is not necessarily considered to correspond to the human body portion 210.

상기 영역(510) 내지 영역(530)의 분리는 실루엣 추출부(110)의 제2 계산부에 의해 수행된다. 그리고, 상기 제1 임계치 및 상기 제2 임계치는 미리 설정된 값일 수 있으며, 사용자에 의해 설정되거나 조정될 수도 있다.Separation of the regions 510 to 530 is performed by the second calculator of the silhouette extractor 110. The first threshold and the second threshold may be preset values, or may be set or adjusted by a user.

본 발명의 실시예들에서는, 실루엣 추출부(110)의 제3 계산부에 의해, 영역(530)에 속하는 픽셀들을 상기 영역(510) 또는 상기 영역(520)에 속하는 것으로 다시 결정하는 과정이 수행된다.In embodiments of the present disclosure, the process of determining again the pixels belonging to the region 530 as belonging to the region 510 or the region 520 is performed by the third calculator of the silhouette extractor 110. do.

여기서 실루엣 추출부(110)의 제3 계산부는, 상기 영역(510)에 속하는 모든 픽셀들의 칼라 값들에 대하여, 칼라 값의 확률 분포 함수를 구한다.Here, the third calculator of the silhouette extractor 110 calculates a probability distribution function of color values with respect to color values of all pixels belonging to the region 510.

이를 테면, 상기 영역(510)에 속하는 모든 픽셀에 대한 제1 칼라 확률 분포 함수 Pr(c)는 K 개의 Gaussian 분포의 Linear combination 으로써 표현될 수 있다.For example, the first color probability distribution function Pr (c) for all pixels belonging to the region 510 may be expressed as a linear combination of K Gaussian distributions.

[수학식 1][Equation 1]

Figure 112009064946282-PAT00001
Figure 112009064946282-PAT00001

여기서

Figure 112009064946282-PAT00002
는 양수이고,
Figure 112009064946282-PAT00003
이다.here
Figure 112009064946282-PAT00002
Is positive,
Figure 112009064946282-PAT00003
to be.

그리고, C는 R(Red), G(Green), B(Blue)의 세 가지 칼라 엘리먼트를 갖는 벡터이며, C = (R, G, B) 이다. 물론, 칼라 코디네이션 시스템이 RGB 시스템이 아니라, YCbCr 시스템, x.v. 칼라 시스템 등인 경우, 상기 C는 다른 차원(dimension)의 벡터일 수도 있다.C is a vector having three color elements of R (Red), G (Green), and B (Blue), and C = (R, G, B). Of course, the color coordination system is not an RGB system, but a YCbCr system, x.v. In the case of a color system or the like, the C may be a vector of another dimension.

또한 본 발명의 일 실시예에 따르면,

Figure 112009064946282-PAT00004
는 Gaussian 분포이고,
Figure 112009064946282-PAT00005
는 Gaussian 분포의 평균,
Figure 112009064946282-PAT00006
는 Gaussian 분포의 Covariance matrix 이다.Also in accordance with one embodiment of the present invention,
Figure 112009064946282-PAT00004
Is the Gaussian distribution,
Figure 112009064946282-PAT00005
Is the mean of the Gaussian distribution,
Figure 112009064946282-PAT00006
Is the covariance matrix of the Gaussian distribution.

그리고, Pr(c)는 Expectation Maximization 기법 또는 PCA(Principal Component Analysis) 기법 등을 이용해서 구해질 수 있으며, 이러한 기법은 본 기술 분야의 통상의 지식을 가진 자에게 알려진 예시적인 것에 불과하다.In addition, Pr (c) may be obtained by using an Expectation Maximization technique or a Principal Component Analysis (PCA) technique. Such a technique is merely an example known to those skilled in the art.

상기 영역(520)에 속하는 모든 픽셀에 대한 제2 칼라 확률 분포 함수 Pb(c) 역시 K 개의 Gaussian 분포의 Linear combination 으로써 표현될 수 있다.The second color probability distribution function Pb (c) for all pixels belonging to the region 520 may also be expressed as a linear combination of K Gaussian distributions.

그리고, 이렇게 제1 칼라 확률 분포 함수 Pr(c) 및 제2 칼라 확률 분포 함수 Pb(c)가 구해지면, 실루엣 추출부(110)의 제3 계산부는 영역(530)에 속하는 모든 픽셀들 각각에 대해, 상기 제1 칼라 확률 분포 함수에 대입한 값과 상기 제2 칼라 확률 분포 함수에 대입한 값을 비교한다.Then, when the first color probability distribution function Pr (c) and the second color probability distribution function Pb (c) are obtained, the third calculation unit of the silhouette extractor 110 may apply to each of all pixels belonging to the region 530. For example, the value substituted into the first color probability distribution function and the value substituted into the second color probability distribution function are compared.

이를테면, 상기 영역(530)에 속하는 모든 픽셀들 중, n 번째의 픽셀의 칼라 벡터 Cn을 상기 제1 칼라 확률 분포 함수에 대입한 결과 값인 Pr(Cn)와, 상기 제2 칼라 확률 분포 함수에 대입한 결과 값인 Pb(Cn)을 비교한다.For example, among all the pixels belonging to the region 530, Pr (Cn), which is a result of substituting the color vector Cn of the nth pixel into the first color probability distribution function, and the second color probability distribution function, are substituted. Compare the resultant Pb (Cn).

만약, Pr(Cn)이 Pb(Cn)보다 크다면, 상기 n 번째의 픽셀은 상기 영역(510)에 속하는 것으로 판단된다. 그렇지 않다면, 상기 n 번째의 픽셀은 상기 영역(520)에 속하는 것으로 판단된다.If Pr (Cn) is larger than Pb (Cn), the n-th pixel is determined to belong to the region 510. Otherwise, the nth pixel is determined to belong to the region 520.

이러한 과정을 영역(530)에 속하는 모든 픽셀들 각각에 대해 수행함으로써, 이제 인체 부분(210)에 속하는 최종 실루엣 영역이 추출된다.By performing this process on each of all the pixels belonging to the area 530, the final silhouette area belonging to the human body part 210 is now extracted.

한편, 본 발명의 일 실시예에 따르면, 상기 과정에서, 본 기술 분야의 통상의 지식을 가진 자에게 알려져 있는 Markov Random Field Modeling에 기반한 최적화 방법(Graph Cuts, Belief Propagation) 등을 적용할 수도 있다.Meanwhile, according to an embodiment of the present invention, in the above process, an optimization method (Graph Cuts, Belief Propagation) based on Markov Random Field Modeling, which is known to those skilled in the art, may be applied.

도 6은 본 발명의 일 실시예에 따라, 도 5의 결과를 이용하여 실루엣 영역(610)을 추출한 결과(600)를 도시한다.FIG. 6 illustrates a result 600 of extracting the silhouette region 610 using the result of FIG. 5, according to an exemplary embodiment.

추출된 실루엣 영역(610)에는 인체 부분(210)에 대응하는 픽셀들이 포함된다.The extracted silhouette area 610 includes pixels corresponding to the human body part 210.

상기한 바와 같이, 본 실시예에서는 도 1의 관심 영역 추출부(120)에 의해 상기 추출된 실루엣 영역(610) 중, 얼굴 영역(621), 손 영역(622), 및 신발 영역(623)이 제거되고, 옷 영역(611, 612 등)이 관심 영역(ROI)으로서 추출된다.As described above, in the present exemplary embodiment, among the silhouette regions 610 extracted by the ROI extractor 120 of FIG. 1, the face region 621, the hand region 622, and the shoe region 623 may be formed. The clothes area 611, 612, etc. are extracted as the region of interest ROI.

관심 영역 추출부(120)가 상기 실루엣 영역(610) 중 관심 영역인 옷 영역을 추출하는 과정은 도 7을 참조하여 설명된다.A process of extracting the clothes region, which is the region of interest, from the silhouette region 610 by the region of interest extractor 120 will be described with reference to FIG. 7.

도 7은 본 발명의 일 실시예에 따라, 도 6의 실루엣 영역(610)을 3 개의 부분으로 나눈 결과(700)를 도시한다.FIG. 7 illustrates the result 700 of dividing the silhouette region 610 of FIG. 6 into three portions, according to one embodiment of the invention.

본 발명의 일 실시예에 따르면, 관심 영역 추출부(120)의 제1 계산부(도시되지 않음)는, 상기 실루엣 영역(610)을, 옷 영역에 속하는 것으로 간주되는 영역(710), 옷 영역에 속하지 않는 것으로 간주되는 영역(720) 및 상기 영역(710) 중 어느 것도 아닌 나머지 영역(730)으로 분리한다.According to one embodiment of the invention, the first calculation unit (not shown) of the region of interest extraction unit 120, the silhouette area 610, the area 710 that is considered to belong to the clothes area, clothes area It is divided into the region 720 and the remaining region 730 which are not considered to belong to any of the regions 720 and 710.

이러한 과정은, 상기 실루엣 추출부(110)의 동작과 유사하다.This process is similar to the operation of the silhouette extraction unit 110.

이를테면, 상기 관심 영역 추출부(120)의 제1 계산부는, 학습 데이터를 통해 가지고 있는 머리 부분이 확실한 픽셀들을 영역(720)에 속하는 것으로 결정하고, 옷 부분(또는 몸통 부분)에 속하는 것이 확실한 픽셀들을 영역(710)에 속하는 것으로 결정한다.For example, the first calculation unit of the region of interest extractor 120 determines that the head having the training data belongs to the region 720, and the pixel is sure to belong to the clothes portion (or the body portion). Determine that they belong to the area 710.

그리고, 그 사이에 일정한 넓이의 밴드를 판단이 불확실한 영역(730)으로 결정한다.In the meantime, a band having a predetermined width is determined as the region 730 where the judgment is uncertain.

그리고, 관심 영역 추출부(120)의 제2 계산부(도시되지 않음)는, 영역(710)에 속한 모든 픽셀들에 대한 제3 칼라 확률 분포 함수를 구하고, 영역(720)에 속한 모든 픽셀들에 대한 제4 칼라 확률 분포 함수를 구한다.Then, the second calculator (not shown) of the ROI extractor 120 obtains a third color probability distribution function for all the pixels in the area 710, and all the pixels in the area 720. Obtain a fourth color probability distribution function for.

그리고, 영역(730)에 속한 모든 픽셀들 각각에 대하여, 상기 제3 칼라 확률 분포 함수에 대입한 결과와 상기 제4 칼라 확률 분포 함수에 대입한 결과를 비교함으로써, 상기 영역(730)에 속한 모든 픽셀들 각각을 영역(710) 또는 영역(720) 중 어느 하나에 속하는 것으로 다시 결정한다.For each of the pixels in the area 730, the result of substituting the third color probability distribution function with the result of substituting the fourth color probability distribution function is compared with each other. Each of the pixels is again determined to belong to either the region 710 or the region 720.

이러한 과정에 의해 실루엣 영역(610)으로부터 인체의 머리(또는 얼굴) 영역이 제거된다.By this process, the head (or face) area of the human body is removed from the silhouette area 610.

도 8은 본 발명의 일 실시예에 따라, 상기 도 7의 결과를 이용하여 실루엣 영역으로부터 관심 영역이 아닌 얼굴 영역을 제거한 결과(800)를 도시한다.FIG. 8 illustrates a result 800 of removing a face region other than the region of interest from the silhouette region by using the result of FIG. 7 according to an embodiment of the present invention.

여기서, 얼굴 영역이 제거된 경우, 옷 영역(810, 820, 및 830) 이외에, 손 영역(841) 및 신발 영역(842)이 그대로 존재한다.In this case, when the face region is removed, the hand region 841 and the shoe region 842 are present as they are, in addition to the clothes regions 810, 820, and 830.

이 경우, 관심 영역 추출부(120)는 도 7의 과정을 반복적으로 수행하여 상기 손 영역(841) 및 신발 영역(842)을 제거하고, 관심 영역(ROI)인 옷 영역(810, 820, 및 830)을 남길 수 있다.In this case, the ROI extractor 120 repeatedly performs the process of FIG. 7 to remove the hand area 841 and the shoe area 842, and the clothes area 810, 820, and the ROI. 830).

도 9는 본 발명의 일 실시예에 따라, 상기 도 8의 방식에 의해 상기 실루엣 영역(610)으로부터 관심 영역인 옷 영역(910)을 추출한 결과(900)를 도시한다.FIG. 9 illustrates a result 900 of extracting a clothes region 910 of a region of interest from the silhouette region 610 according to the method of FIG. 8 according to an exemplary embodiment of the present invention.

한편, 본 발명의 일 실시예에 따르면, 도 1의 관심 영역 분리부(130)는 이렇게 추출된 옷 영역(910)을 복수 개의 소 영역(sub region)들(1010 내지 1030)으로 분리한다.Meanwhile, according to an exemplary embodiment, the ROI separator 130 of FIG. 1 separates the clothes region 910 thus extracted into a plurality of subregions 1010 to 1030.

이 경우, 관심 영역 분리부(130)의 제1 계산부(도시되지 않음)는 상기 옷 영역(910)을, 확실히 하의 부분에 속하는 영역과 확실히 속하지 않는 영역으로 나눈다. 이 경우, 학습 데이터가 활용될 수 있다.In this case, the first calculation unit (not shown) of the region of interest separation unit 130 divides the clothes region 910 into a region that does not certainly belong to the region that belongs to the lower portion. In this case, the training data can be utilized.

그리고 상기 관심 영역 분리부(130)의 제2 계산부(도시되지 않음)는, 상기 각 영역에 대해 상기한 수학식 1과 유사한 확률 분포 함수를 구한다.The second calculator (not shown) of the ROI separator 130 obtains a probability distribution function similar to the above Equation 1 for each of the regions.

그리고, 상기 관심 영역 분리부(130)의 제2 계산부는, 상기 각 영역 중 어 느 것에도 속하지 않는 경계 부분의 각 픽셀에 대하여, 구해진 확률 분포 함수들 각각에 대입한 결과를 비교함으로써, 상기 각 픽셀을 하의 부분에 속하는지 그렇지 않은지 판단할 수 있고, 따라서 하의 부분 소 영역과 그 이외의 부분을 분리할 수 있다.The second calculation unit of the ROI separator 130 compares the result of substituting each of the obtained probability distribution functions with respect to each pixel of the boundary portion which does not belong to any of the areas. It can be determined whether the pixel belongs to the lower part or not, and thus the lower part small area and the other part can be separated.

상세한 과정은 도 5 및 수학식 1을 참조하여 상술한 바와 유사하게 이해될 수 있다.The detailed process may be understood similarly to that described above with reference to FIG. 5 and Equation 1.

나아가, 관심 영역 분리부(130)는 유사한 과정을 통하여, 상의 재킷 부분 소 영역과 셔츠 부분 소 영역을 분리할 수도 있다.Furthermore, the ROI separator 130 may separate the jacket portion small region and the shirt portion small region through a similar process.

도 10은 본 발명의 일 실시예에 따라 상기 도 9에서 추출된 관심 영역(910)을 복수 개의 소 영역들로 분리한 결과(1000)를 도시한다.FIG. 10 illustrates a result 1000 of dividing the region of interest 910 extracted from FIG. 9 into a plurality of small regions according to an embodiment of the present invention.

소 영역(1010)은 상의 셔츠 부분에 대응하며, 소 영역(1020)은 상의 재킷 부분, 그리고 소 영역(1030)은 하의 부분에 대응한다.Small region 1010 corresponds to the shirt portion of the top, small region 1020 corresponds to the jacket portion of the top, and small region 1030 corresponds to the bottom portion.

이러한 과정을 통해, 비교적 정확하고 간단하게 상기 입력 칼라 영상(200) 내에서 인체의 옷들이 종류 별로 분리된다.Through this process, clothes of the human body are separated by type in the input color image 200 relatively accurately and simply.

또한, 도 3의 3D 모델(300)의 타킷 오브젝트(310)는 상기 입력 칼라 영상(200)에 매칭되어 있으므로, 상기 타킷 오브젝트(310)의 폴리곤들 중 어느 것이 상의 셔츠에 대응하며, 어느 것이 상의 재킷에 대응하고, 어느 것이 하의에 대응하는지도 판단될 수 있다.In addition, since the target object 310 of the 3D model 300 of FIG. 3 is matched with the input color image 200, which of the polygons of the target object 310 corresponds to the top shirt, and which top It may be determined which corresponds to the jacket and which corresponds to the bottoms.

본 발명의 일 실시예에 따르면, 이렇게 분리된 소 영역들(1010, 1020, 1030) 중 적어도 일부를 도 1의 데이터베이스(150)에 저장된 다른 이미지 데이터로 대체할 수 있다. 즉, 재킷을 다른 것으로 바꾸거나, 바지를 다른 것으로 바꿀 수 있다.According to an embodiment of the present invention, at least some of the divided small regions 1010, 1020, and 1030 may be replaced with other image data stored in the database 150 of FIG. 1. In other words, you can change your jacket to something else, or your pants to something else.

이러한 이미지 편집 과정은 도 1의 이미지 편집부(140)에 의해 수행된다. 상기 이미지 편집부(140)는 칼라 영상(200)의 일부 픽셀 값을 바꿀 수도 있고, 3D 모델의 타킷 오브젝트(310) 중 일부의 폴리곤의 텍스처 정보를 바꿀 수도 있다.This image editing process is performed by the image editing unit 140 of FIG. The image editing unit 140 may change some pixel values of the color image 200 or may change texture information of some polygons of the target object 310 of the 3D model.

도 11은 본 발명의 일 실시예에 따라, 도 10의 복수 개의 소 영역 중 일부분을 다른 이미지로 변경한 결과(1100)를 도시한다.FIG. 11 illustrates a result 1100 of changing a portion of the plurality of small regions of FIG. 10 to another image according to an embodiment of the present invention.

셔츠에 대응하는 소 영역(1010)은 소 영역(1110)으로 대체되었고, 재킷에 대응하는 소 영역(1020)은 소 영역(1120)으로 대체되었으며, 하의에 대응하는 소 영역(1030)은 소 영역(1130)으로 대체되었다.The small region 1010 corresponding to the shirt was replaced by a small region 1110, the small region 1020 corresponding to the jacket was replaced by a small region 1120, and the small region 1030 corresponding to the bottom was a small region. (1130).

본 발명의 다른 실시예에 따르면, 상기 관심 영역 분리부(140)가 넥타이 부분에 대응하는 소 영역(1111)을 추가로 분리할 수도 있고, 이 경우는 넥타이를 다른 것으로 바꾸는 영상 처리도 가능하다.According to another embodiment of the present invention, the region of interest separator 140 may further separate the small region 1111 corresponding to the tie portion, and in this case, image processing for changing the tie to another one is also possible.

상기 과정을 통해 설명된 영상 처리 장치 및 영상 처리 방법에 따르면, 가상 현실 분야에서, 사용자를 촬영한 칼라 영상에 기초하여 생성된 3D 모델 아바타의 옷을 다른 것으로 바꿀 수 있다.According to the image processing apparatus and the image processing method described through the above process, in the virtual reality field, the clothes of the 3D model avatar generated based on the color image of the user may be changed to another.

또한, 특정 인물을 모델링 한, 영화나 비디오 게임 내의 캐릭터의 옷을 바꾸어 입히는 것도 가능하다.It is also possible to change the clothes of characters in a movie or video game modeling a specific person.

나아가, 현재 관심이 높아지고 있는 온라인 쇼핑 분야에서, 사용자의 체형과 동일한 가상의 모델에 구입하고자 하는 재킷을 미리 입히는 시뮬레이션을 수행 할 수 있으며, 이는 온라인 산업의 성장에 큰 계기가 될 수 있다.Furthermore, in the field of online shopping, which is currently increasing in interest, it is possible to perform a simulation of pre-coating a jacket to be purchased on a virtual model identical to a user's body shape, which can be a great opportunity for the growth of the online industry.

도 12는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.12 illustrates an image processing method according to an embodiment of the present invention.

단계(S1210)에서 입력 칼라 영상(200)으로부터 3D 모델의 타킷 오브젝트, 이를테면 인체에 대응하는 실루엣 영역이 추출된다. 실루엣 영역의 추출은 도 4 내지 도 6을 참조하여 상술한 바와 같다.In operation S1210, a target object of a 3D model, for example, a silhouette region corresponding to a human body is extracted from the input color image 200. Extraction of the silhouette region is as described above with reference to FIGS. 4 to 6.

그리고, 단계(S1220)에서 추출된 실루엣 영역으로부터 관심 영역, 이를테면 옷 영역이 추출된다.Then, the region of interest, such as the clothes region, is extracted from the silhouette region extracted in step S1220.

도 6의 실루엣 영역(610)으로부터 관심 영역인 옷 영역, 이를테면 도 9의 옷 영역(910)을 추출하는 과정은 도 6 내지 도 9를 참조하여 상술한 바와 같다.The process of extracting the clothes area, that is, the clothes area 910 of FIG. 9, from the silhouette area 610 of FIG. 6 is as described above with reference to FIGS. 6 to 9.

그리고, 단계(S1230)에서 상기 추출된 관심 영역이 복수 개의 소 영역으로 분리된다. 도 9 내지 도 10을 참조하여 상술한 관심 영역 분리 과정은, 본 발명의 일 실시예에 불과하며, 관심 영역의 종류, 관심 영역을 분리한 소 영역의 개수나 종류 등은 얼마든지 변경될 수 있다. 이러한 정도의 변경이 본 발명의 사상을 벗어나는 것으로 해석될 수 없음은, 본 기술 분야의 통상의 지식을 가진 자에게 자명하다.In operation S1230, the extracted region of interest is divided into a plurality of small regions. The above-described region of interest separation process described above with reference to FIGS. 9 to 10 is merely an embodiment of the present disclosure, and the type of the region of interest and the number or type of the small regions that divide the region of interest may be changed. . It will be apparent to those skilled in the art that such changes in degree cannot be interpreted as departing from the spirit of the present invention.

그리고, 단계(S1240)에서 상기 분리된 소 영역 중 일부의 이미지가 데이터베이스에 저장되어 있던 다른 이미지로 대체될 수 있다. 이러한 과정은 도 11을 참조하여 상술한 바와 같다. 그리고 이 경우 소 영역 중 일부의 변경은 입력 칼라 영상(200)에 대해서도 가능하고, 3D 모델(300)의 타킷 오브젝트(310)의 텍스처 정보에 대해서도 가능하다.In operation S1240, an image of some of the separated small regions may be replaced with another image stored in a database. This process is as described above with reference to FIG. In this case, a part of the small region may be changed for the input color image 200, and also for texture information of the target object 310 of the 3D model 300.

사용자가 소 영역의 텍스처 정보가 변경된 3D 모델을 렌더링한다면, 상기한 응용예와 같이 가상 현실 속의 아바타에 특정한 옷을 입혀보는 시뮬레이션이 가능하다.If the user renders a 3D model in which the texture information of the small area is changed, as in the above-described application example, it is possible to simulate a specific clothes on the avatar in the virtual reality.

본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통 상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from these descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.

도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 도시한다.1 illustrates an image processing apparatus according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따라 입력되는 칼라 영상을 도시한다.2 illustrates a color image input according to an embodiment of the present invention.

도 3은 본 발명의 일 실시예에 따라 입력되는 3D 모델을 도시한다.3 illustrates an input 3D model according to an embodiment of the present invention.

도 4는 본 발명의 일 실시예에 따라, 도 3의 3D 모델의 타킷 오브젝트를 도 2의 입력 칼라 영상에 투영한 결과를 도시한다.FIG. 4 illustrates a result of projecting the target object of the 3D model of FIG. 3 onto the input color image of FIG. 2, according to an exemplary embodiment.

도 5는 본 발명의 일 실시예에 따라, 도 4의 입력 칼라 영상 중 3D 모델이 투영된 부분을 추출하고, 추출된 부분을 다시 3 개의 영역으로 분리한 결과를 도시한다.FIG. 5 illustrates a result of extracting a portion from which the 3D model is projected from the input color image of FIG. 4 and separating the extracted portion into three regions again according to an embodiment of the present invention.

도 6은 본 발명의 일 실시예에 따라, 도 5의 결과를 이용하여 실루엣 영역을 추출한 결과를 도시한다.FIG. 6 illustrates a result of extracting a silhouette region using the result of FIG. 5, according to an exemplary embodiment.

도 7은 본 발명의 일 실시예에 따라, 도 6의 실루엣 영역을 3 개의 부분으로 나눈 결과를 도시한다.FIG. 7 illustrates a result of dividing the silhouette region of FIG. 6 into three parts, according to an embodiment of the present disclosure.

도 8은 본 발명의 일 실시예에 따라, 상기 도 7의 결과를 이용하여 실루엣 영역으로부터 관심 영역이 아닌 얼굴 영역을 제거한 결과를 도시한다.FIG. 8 illustrates a result of removing a face region other than the region of interest from the silhouette region using the result of FIG. 7 according to an embodiment of the present invention.

도 9는 본 발명의 일 실시예에 따라, 상기 도 8의 방식에 의해 상기 실루엣 영역으로부터 관심 영역인 옷 영역을 추출한 결과를 도시한다.FIG. 9 illustrates a result of extracting a clothes region, which is a region of interest, from the silhouette region by the method of FIG. 8 according to an embodiment of the present invention.

도 10은 본 발명의 일 실시예에 따라 상기 도 9에서 추출된 관심 영역을 복수 개의 소 영역으로 분리한 결과를 도시한다.FIG. 10 illustrates a result of dividing the region of interest extracted in FIG. 9 into a plurality of small regions according to an embodiment of the present invention.

도 11은 본 발명의 일 실시예에 따라, 도 10의 복수 개의 소 영역 중 일부 분을 다른 이미지로 변경한 결과를 도시한다.FIG. 11 illustrates a result of changing a portion of the plurality of small regions of FIG. 10 to another image according to an embodiment of the present invention.

도 12는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.12 illustrates an image processing method according to an embodiment of the present invention.

Claims (18)

입력 3D 모델과 매칭된 입력 칼라 영상으로부터, 상기 3D 모델 내의 타킷 오브젝트에 대응하는 실루엣 영역을 추출하는 실루엣 추출부;A silhouette extractor configured to extract a silhouette region corresponding to a target object in the 3D model from an input color image matched with an input 3D model; 상기 실루엣 영역으로부터 관심 영역을 추출하는 관심 영역 추출부; 및An ROI extractor configured to extract an ROI from the silhouette region; And 상기 추출된 관심 영역을 복수 개의 소 영역(sub region)으로 분리하는 관심 영역 분리부A region of interest separator that separates the extracted region of interest into a plurality of sub regions. 를 포함하는, 영상 처리 장치.Image processing apparatus comprising a. 제1항에 있어서,The method of claim 1, 상기 타킷 오브젝트는 인체(human body)인, 영상 처리 장치.The target object is a human body (human body), the image processing device. 제2항에 있어서,The method of claim 2, 상기 실루엣 추출부는,The silhouette extraction unit, 상기 입력 3D 모델의 인체 부분을 상기 입력 칼라 영상에 투영(project)하여, 투영된 부분에 대응하는 제1 픽셀 그룹을 선택하는 제1 계산부;A first calculator configured to project a human body part of the input 3D model onto the input color image to select a first pixel group corresponding to the projected part; 상기 제1 픽셀 그룹의 픽셀들 각각을 상기 타킷 오브젝트에 속하는 제1 유형의 픽셀, 상기 타킷 오브젝트에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류되지 않는 제3 유형의 픽셀로 분류하는 제2 계산부; 및Each of the pixels of the first pixel group is classified into a first type of pixel belonging to the target object, a second type of pixel not belonging to the target object, and a first type or a second type not classified into the second type. A second calculation unit classifying the three types of pixels; And 상기 제1 유형의 픽셀들의 칼라 확률 분포 및 상기 제2 유형의 픽셀들의 칼라 확률 분포를 구하고, 구해진 칼라 확률 분포들을 참고하여, 상기 제3 유형의 픽셀들의 각각을 상기 제1 유형 또는 상기 제2 유형에 속하는 것으로 판단하는 제3 계산부A color probability distribution of the first type of pixels and a color probability distribution of the second type of pixels are obtained, and with reference to the obtained color probability distributions, each of the third type of pixels is referred to as the first type or the second type. Third calculation unit judged to belong to 를 포함하는, 영상 처리 장치.Image processing apparatus comprising a. 제3항에 있어서,The method of claim 3, 상기 제3 계산부는, 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는, 영상 처리 장치.The third calculator calculates a first color probability distribution function for the first type of pixels and a second color probability distribution function for the second type of pixels, and obtains a first one of the third type of pixels. If the result of substituting the color value of the pixel into the first color probability distribution function is greater than the result of substituting the color value of the first pixel into the second color probability distribution function, the first pixel is converted into the first type pixel. Determined by, the image processing device. 제4항에 있어서,The method of claim 4, wherein 상기 제1 칼라 확률 분포 함수 및 상기 제2 칼라 확률 분포 함수는 가우시안(Gaussian) 함수인, 영상 처리 장치.And the first color probability distribution function and the second color probability distribution function are Gaussian functions. 제2항에 있어서,The method of claim 2, 상기 관심 영역은 옷(cloth) 영역인, 영상 처리 장치.And the region of interest is a cloth region. 제6항에 있어서,The method of claim 6, 상기 관심 영역 추출부는,The region of interest extraction unit, 상기 실루엣 영역에 포함되는 복수 개의 픽셀들 각각을 상기 인체의 옷 영역에 속하는 제1 유형의 픽셀, 상기 옷 영역에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류 되지 않는 제3 유형의 픽셀로 분류하는 제1 계산부; 및Each of the plurality of pixels included in the silhouette area is one of a first type of pixel belonging to the clothing area of the human body, a second type of pixel not belonging to the clothes area, and any one of the first type or the second type. A first calculation unit classifying the third type of pixels which are not classified; And 상기 제1 유형의 픽셀들의 칼라 확률 분포 및 상기 제2 유형의 픽셀들의 칼라 확률 분포를 구하고, 구해진 칼라 확률 분포들을 참고하여, 상기 제3 유형의 픽셀들의 각각을 상기 제1 유형 또는 상기 제2 유형에 속하는 것으로 판단하는 제2 계산부A color probability distribution of the first type of pixels and a color probability distribution of the second type of pixels are obtained, and with reference to the obtained color probability distributions, each of the third type of pixels is referred to as the first type or the second type. Second calculation unit judged to belong to 를 포함하는, 영상 처리 장치.Image processing apparatus comprising a. 제7항에 있어서,The method of claim 7, wherein 상기 제2 계산부는, 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는, 영상 처리 장치.The second calculator calculates a first color probability distribution function for the first type of pixels and a second color probability distribution function for the second type of pixels, and obtains a first one of the third type of pixels. If the result of substituting the color value of the pixel into the first color probability distribution function is greater than the result of substituting the color value of the first pixel into the second color probability distribution function, the first pixel is converted into the first type pixel. Determined by, the image processing device. 제7항에 있어서,The method of claim 7, wherein 상기 제2 유형의 픽셀들은 인체의 얼굴, 손, 발 중 적어도 하나에 대응하는 픽셀인, 영상 처리 장치.The pixel of the second type is a pixel corresponding to at least one of a face, a hand, and a foot of a human body. 제6항에 있어서,The method of claim 6, 상기 복수 개의 소 영역(sub region)은, 하의 영역, 상의 셔츠 영역, 상의 재킷 영역 중 적어도 하나를 포함하는, 영상 처리 장치.The plurality of sub regions may include at least one of a lower region, an upper shirt region, and an upper jacket region. 제10항에 있어서,The method of claim 10, 상기 관심 영역 분리부는,The region of interest separator, 상기 옷 영역에 포함되는 복수 개의 픽셀들 각각을 상기 하의 영역에 속하는 제1 유형의 픽셀, 상기 하의 영역에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류되지 않는 제3 유형의 픽셀로 분류하는 제1 계산부; 및Each of the plurality of pixels included in the clothes area is not classified into a first type of pixel belonging to the lower area, a second type of pixel not belonging to the lower area, and one of the first type or the second type. A first calculating unit to classify the non-third type pixel; And 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 제2 계산부Obtaining a first color probability distribution function for the first type of pixels and a second color probability distribution function for the second type of pixels, and calculating the color value of the first one of the third type of pixels; A second calculation for determining the first pixel as the first type pixel when the result of substituting the first color probability distribution function is greater than the result of substituting the color value of the first pixel with the second color probability distribution function; part 를 포함하는, 영상 처리 장치.Image processing apparatus comprising a. 제11항에 있어서,The method of claim 11, 상기 관심 영역 분리부는,The region of interest separator, 상기 제2 유형의 픽셀들 각각을 상기 셔츠 영역에 속하는 제4 유형의 픽셀, 상기 셔츠 영역에 속하지 않는 제5 유형의 픽셀, 및 상기 제4 유형 또는 상기 제5 유형 중 어느 하나로 분류되지 않는 제6 유형의 픽셀로 분류하는 제3 계산부; 및Each of the second type of pixels is classified into a fourth type of pixel belonging to the shirt area, a fifth type of pixel not belonging to the shirt area, and a sixth type not classified into any of the fourth type or the fifth type. A third calculation unit classifying the pixel of the type; And 상기 제4 유형의 픽셀들에 대한 제3 칼라 확률 분포 함수 및 상기 제5 유형의 픽셀들에 대한 제4 칼라 확률 분포 함수를 구하고, 상기 제6 유형의 픽셀들 중 제2 픽셀의 칼라 값을 상기 제3 칼라 확률 분포 함수에 대입한 결과가 상기 제2 픽셀의 칼라 값을 상기 제4 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제2 픽셀을 상기 제4 유형 픽셀로 판단하는 제4 계산부Obtaining a third color probability distribution function for the fourth type of pixels and a fourth color probability distribution function for the fifth type of pixels, and calculating a color value of a second pixel of the sixth type of pixels; A fourth calculation that determines the second pixel as the fourth type pixel when the result of substituting the third color probability distribution function is greater than the result of substituting the color value of the second pixel into the fourth color probability distribution function part 를 더 포함하는, 영상 처리 장치.Further comprising, the image processing device. 제1항에 있어서,The method of claim 1, 상기 분리된 복수 개의 소 영역 중 적어도 하나에 대응하는 이미지 데이터를 저장하는 데이터베이스; 및A database storing image data corresponding to at least one of the plurality of separated small regions; And 상기 데이터베이스에 저장된 데이터를 이용하여, 상기 분리된 복수 개의 소 영역 중 선택된 제1 소 영역의 이미지를 변경하는 이미지 편집부An image editing unit configured to change an image of a first selected small area among the plurality of separated small areas by using data stored in the database 를 더 포함하는, 영상 처리 장치.Further comprising, the image processing device. 입력 3D 모델과 매칭된 입력 칼라 영상으로부터, 상기 3D 모델 내의 타킷 오브젝트에 대응하는 실루엣 영역을 추출하는 단계;Extracting a silhouette region corresponding to a target object in the 3D model from an input color image matched with the input 3D model; 상기 실루엣 영역으로부터 관심 영역을 추출하는 단계; 및Extracting a region of interest from the silhouette region; And 상기 추출된 관심 영역을 복수 개의 소 영역으로 분리하는 단계Separating the extracted region of interest into a plurality of small regions 를 포함하는, 영상 처리 방법.Image processing method comprising a. 제14항에 있어서,The method of claim 14, 상기 실루엣 영역을 추출하는 단계는,Extracting the silhouette region, 상기 입력 3D 모델의 인체 부분을 상기 입력 칼라 영상에 투영하여, 투영된 부분에 대응하는 제1 픽셀 그룹을 선택하는 단계;Projecting a human body part of the input 3D model onto the input color image to select a first pixel group corresponding to the projected part; 상기 제1 픽셀 그룹의 픽셀들 각각을 상기 타킷 오브젝트에 속하는 제1 유형의 픽셀, 상기 타킷 오브젝트에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류되지 않는 제3 유형의 픽셀로 분류하는 단계; 및Each of the pixels of the first pixel group is classified into a first type of pixel belonging to the target object, a second type of pixel not belonging to the target object, and a first type or a second type not classified into the second type. Classifying into three types of pixels; And 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 단계Obtaining a first color probability distribution function for the first type of pixels and a second color probability distribution function for the second type of pixels, and calculating the color value of the first one of the third type of pixels; Determining the first pixel as the first type pixel when the result of substituting the first color probability distribution function is greater than the result of substituting the color value of the first pixel with the second color probability distribution function. 를 포함하는, 영상 처리 방법.Image processing method comprising a. 제14항에 있어서,The method of claim 14, 상기 관심 영역을 추출하는 단계는,Extracting the ROI may include: 상기 실루엣 영역에 포함되는 복수 개의 픽셀들 각각을 관심 영역에 속하는 제1 유형의 픽셀, 상기 관심 영역에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류되지 않는 제3 유형의 픽셀로 분류하는 단계; 및Each of the plurality of pixels included in the silhouette region is not classified into a first type of pixel belonging to the ROI, a second type of pixel not belonging to the ROI, and one of the first type or the second type. Categorizing into a third type of pixel; And 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 단계Obtaining a first color probability distribution function for the first type of pixels and a second color probability distribution function for the second type of pixels, and calculating the color value of the first one of the third type of pixels; Determining the first pixel as the first type pixel when the result of substituting the first color probability distribution function is greater than the result of substituting the color value of the first pixel with the second color probability distribution function. 를 포함하는, 영상 처리 방법.Image processing method comprising a. 제14항에 있어서,The method of claim 14, 상기 분리된 복수 개의 소 영역 중 선택된 제1 소 영역에 대응하는 이미지 데이터를 데이터베이스로부터 독출하는 단계; 및Reading image data corresponding to a first selected small area of the separated plurality of small areas from a database; And 상기 독출된 데이터를 이용하여, 상기 제1 소 영역의 이미지를 변경하는 단계Changing the image of the first small region by using the read data; 를 더 포함하는, 영상 처리 방법.Further comprising, the image processing method. 제14항 내지 제17항 중 어느 한 항의 영상 처리 방법을 수행하기 위한 프로그램을 수록한 컴퓨터 판독 가능 기록 매체.A computer-readable recording medium containing a program for performing the image processing method of any one of claims 14 to 17.
KR1020090101029A 2009-10-23 2009-10-23 Image processing apparatus and method KR20110044392A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090101029A KR20110044392A (en) 2009-10-23 2009-10-23 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090101029A KR20110044392A (en) 2009-10-23 2009-10-23 Image processing apparatus and method

Publications (1)

Publication Number Publication Date
KR20110044392A true KR20110044392A (en) 2011-04-29

Family

ID=44049128

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090101029A KR20110044392A (en) 2009-10-23 2009-10-23 Image processing apparatus and method

Country Status (1)

Country Link
KR (1) KR20110044392A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068869A1 (en) * 2014-10-28 2016-05-06 Hewlett-Packard Development Company, L.P. Three dimensional object recognition
US10242249B2 (en) 2014-11-19 2019-03-26 Samsung Electronics Co., Ltd. Method and apparatus for extracting facial feature, and method and apparatus for facial recognition

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016068869A1 (en) * 2014-10-28 2016-05-06 Hewlett-Packard Development Company, L.P. Three dimensional object recognition
US10242249B2 (en) 2014-11-19 2019-03-26 Samsung Electronics Co., Ltd. Method and apparatus for extracting facial feature, and method and apparatus for facial recognition

Similar Documents

Publication Publication Date Title
KR101877711B1 (en) Apparatus and method of face tracking
KR101636370B1 (en) Image processing apparatus and method
WO2016066038A1 (en) Image body extracting method and system
CN110335277A (en) Image processing method, device, computer readable storage medium and computer equipment
Ge et al. Co-saliency detection via inter and intra saliency propagation
US9443137B2 (en) Apparatus and method for detecting body parts
JP2008015641A (en) Method, apparatus and program for extracting human body area
WO2016066042A1 (en) Segmentation method for commodity picture and device thereof
EP2977932B1 (en) Image processing apparatus, image processing method and image processing program
JP2008009576A (en) Human body area extraction method and device, and program
Yang et al. Ranking 3D feature correspondences via consistency voting
Arbelot et al. Automatic texture guided color transfer and colorization
CN105868767B (en) Face feature point positioning method and device
Tang et al. Video matting via opacity propagation
CN113705579B (en) Automatic image labeling method driven by visual saliency
Liu et al. Planogram compliance checking based on detection of recurring patterns
KR20110043279A (en) Apparatus and method for extracting interest object
KR20110044392A (en) Image processing apparatus and method
Zohrizadeh et al. Image segmentation using sparse subset selection
KR20110087620A (en) Layout based page recognition method for printed medium
CN109785283B (en) Texture feature matching method and device for fabric segmentation
KR101749029B1 (en) Apparatus and Method of Body Part Detection in Image
Liang et al. Sketch-based retrieval using content-aware hashing
CN112861860B (en) Text detection method in natural scene based on upper and lower boundary extraction
JP2016081472A (en) Image processing device, and image processing method and program

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination