KR20110044392A - Image processing apparatus and method - Google Patents
Image processing apparatus and method Download PDFInfo
- Publication number
- KR20110044392A KR20110044392A KR1020090101029A KR20090101029A KR20110044392A KR 20110044392 A KR20110044392 A KR 20110044392A KR 1020090101029 A KR1020090101029 A KR 1020090101029A KR 20090101029 A KR20090101029 A KR 20090101029A KR 20110044392 A KR20110044392 A KR 20110044392A
- Authority
- KR
- South Korea
- Prior art keywords
- type
- pixel
- region
- pixels
- probability distribution
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/40—Analysis of texture
- G06T7/41—Analysis of texture based on statistical description of texture
- G06T7/44—Analysis of texture based on statistical description of texture using image operators, e.g. filters, edge density metrics or local histograms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Abstract
Description
사용자의 인체(human body)와 같은 타킷 오브젝트에 대한 3D 모델에 있어서, 상기 3D 모델을 분할(segmentation) 하는 영상 처리에 연관되며, 보다 특정하게는 3D 모델의 텍스처 정보를 변경하는 영상 처리에 연관된다.In a 3D model for a target object such as a human body of a user, it is associated with image processing for segmenting the 3D model, and more particularly, for image processing for changing texture information of the 3D model. .
최근 영상 처리 기술의 발달에 따라, 사용자의 인체와 같은 타킷 오브젝트를 3D 모델링 하는 분야의 관심도 커지고 있다. 인체를 3D 모델링 하는 경우, 가상 현실(virtual reality), 영화 또는 비디오 게임에서의 컴퓨터 그래픽(computer graphic. CG) 등에 활용될 수 있다.Recently, with the development of image processing technology, interest in the field of 3D modeling of a target object such as a user's human body is also increasing. In 3D modeling of the human body, the human body may be used for virtual reality, computer graphic (CG) in a movie or video game.
3D 모델은 오브젝트의 기하(geometry) 정보 및 텍스처(texture) 정보를 포함한다. 여기서, 기하 정보는 포인트 기반 또는 선으로 이루어진 복수 개의 메쉬(Mesh)(또는 폴리곤(Polygon)이라고도 함)에 의해 표현된다. 그리고 텍스처 정보는 각각의 폴리곤에 대응되는 텍스처(texture) 정보, 이를테면 칼라 값으로 표현된다.The 3D model includes geometry information and texture information of the object. Here, the geometric information is represented by a plurality of meshes (or also called polygons) made of points or lines. The texture information is represented by texture information corresponding to each polygon, for example, a color value.
한편 3D 모델은 아티스트가 기하 정보 및 텍스처 정보가 디자인함으로써 생성될 수 있다. 그리고, 가상 현실, 영화, 비디오 게임 등의 다양한 산업 분야에 서는, 타킷 오브젝트, 이를테면 인체를 직접 스캔하여 3D 모델을 생성하는 기술도 연구되었다.Meanwhile, the 3D model may be generated by the artist designing the geometric information and the texture information. In addition, in various industrial fields such as virtual reality, movies, and video games, a technology of generating a 3D model by directly scanning a target object, such as a human body, has also been studied.
또한 인체를 촬영한 칼라 영상과 깊이 영상을 이용한 영상 처리를 통하여 3D 모델을 생성하기도 한다.In addition, a 3D model may be generated through image processing using a color image and a depth image of a human body.
그런데, 아티스트가 직접 디자인하여 생성한 3D 모델 이외에, 타킷 오브젝트를 스캔하거나, 타킷 오브젝트를 촬영한 칼라 영상과 깊이 영상을 이용하여 영상 처리를 함으로써 생성된 3D 모델의 경우, 생성된 기하 정보와 텍스처 정보의 매칭에 일부 오류가 있을 수 있다.However, in the case of 3D models generated by scanning a target object or image processing using a color image and a depth image of the target object, in addition to the 3D model designed and created by the artist, the generated geometric information and the texture information There may be some error in the matching of.
이를 테면, 하의 부분의 폴리곤에 상의 부분의 칼라 값이 매칭되는 등이다. 따라서, 3D 모델 중 관심 영역을 분리하거나, 복수 개의 영역으로 분리하는 경우, 활용도가 높을 것으로 예상된다.For example, the color value of the upper part matches the polygon of the lower part, and so on. Therefore, when the region of interest is separated from the 3D model or separated into a plurality of regions, the utilization is expected to be high.
인체의 3D 모델과 같은 타킷 오브젝트 중 특정 관심 영역을 추출하는 영상 처리 장치 및 방법이 제공된다.Provided are an image processing apparatus and method for extracting a specific region of interest from a target object such as a 3D model of a human body.
또한, 추출된 관심 영역을 몇 개의 소 영역으로 분리하고, 그 중 일부의 소 영역의 칼라 정보를 바꾸는 영상 처리 장치 및 방법이 제공된다.There is also provided an image processing apparatus and method for dividing an extracted region of interest into several small regions and changing color information of some of the small regions.
본 발명의 일측에 따르면, 입력 3D 모델과 매칭된 입력 칼라 영상으로부터, 상기 3D 모델 내의 타킷 오브젝트에 대응하는 실루엣 영역을 추출하는 실루엣 추출 부, 상기 실루엣 영역으로부터 관심 영역을 추출하는 관심 영역 추출부, 및 상기 추출된 관심 영역을 복수 개의 소 영역(sub region)으로 분리하는 관심 영역 분리부를 포함하는, 영상 처리 장치가 제공된다.According to an aspect of the present invention, a silhouette extractor for extracting a silhouette region corresponding to a target object in the 3D model from an input color image matched with an input 3D model, a region of interest extractor for extracting a region of interest from the silhouette region; And a region of interest separator configured to separate the extracted region of interest into a plurality of sub regions.
여기서 상기 타킷 오브젝트는, 이를테면 인체(human body)이다.Wherein the target object is, for example, a human body.
한편, 상기 실루엣 추출부는, 상기 입력 3D 모델의 인체 부분을 상기 입력 칼라 영상에 투영(project)하여, 투영된 부분에 대응하는 제1 픽셀 그룹을 선택하는 제1 계산부, 상기 제1 픽셀 그룹의 픽셀들 각각을 상기 타킷 오브젝트에 속하는 제1 유형의 픽셀, 상기 타킷 오브젝트에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류되지 않는 제3 유형의 픽셀로 분류하는 제2 계산부, 및 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 제3 계산부를 포함할 수 있다.The silhouette extractor may include: a first calculator configured to project a human body part of the input 3D model to the input color image, and select a first pixel group corresponding to the projected part; Each of the pixels is classified into a pixel of a first type belonging to the target object, a pixel of a second type not belonging to the target object, and a pixel of a third type not classified as either the first type or the second type. Obtaining a second color probability distribution function for the pixels of the first type and a second color probability distribution function for the pixels of the second type; If the result of substituting the color value of one pixel into the first color probability distribution function is greater than the result of substituting the color value of the first pixel into the second color probability distribution function, the first pixel is assigned to the first prevalence. It may comprise a third calculation unit configured to determine a pixel-by-pixel.
여기서 상기 제1 칼라 확률 분포 함수 및 상기 제2 칼라 확률 분포 함수는 가우시안(Gaussian) 함수일 수 있다.Here, the first color probability distribution function and the second color probability distribution function may be Gaussian functions.
본 발명의 일부 실시예에 따르면, 상기 관심 영역은 옷(cloth) 영역이다. 이 경우, 상기 관심 영역 추출부는, 상기 실루엣 영역에 포함되는 복수 개의 픽셀들 각각을 상기 인체의 옷 영역에 속하는 제1 유형의 픽셀, 상기 옷 영역에 속하지 않는 제2 유형의 픽셀, 및 상기 제1 유형 또는 상기 제2 유형 중 어느 하나로 분류 되지 않는 제3 유형의 픽셀로 분류하는 제1 계산부, 및 상기 제1 유형의 픽셀들에 대한 제1 칼라 확률 분포 함수 및 상기 제2 유형의 픽셀들에 대한 제2 칼라 확률 분포 함수를 구하고, 상기 제3 유형의 픽셀들 중 제1 픽셀의 칼라 값을 상기 제1 칼라 확률 분포 함수에 대입한 결과가 상기 제1 픽셀의 칼라 값을 상기 제2 칼라 확률 분포 함수에 대입한 결과보다 큰 경우, 상기 제1 픽셀을 상기 제1 유형 픽셀로 판단하는 제2 계산부를 포함할 수 있다.According to some embodiments of the invention, the region of interest is a cloth region. In this case, the ROI extractor may include a first type of pixel belonging to the clothing area of the human body, a second type of pixel not belonging to the clothing area, and each of the plurality of pixels included in the silhouette area. A first calculation unit classifying a pixel of a third type not classified into one of the types or the second type, and a first color probability distribution function for the pixels of the first type and the pixels of the second type. Obtaining a second color probability distribution function for the second color probability and substituting the color value of the first pixel of the third type of pixels into the first color probability distribution function If greater than the result of substituting the distribution function, a second calculator may be configured to determine the first pixel as the first type pixel.
그리고, 여기서 상기 제2 유형의 픽셀들은 인체의 얼굴, 손, 발 중 적어도 하나에 대응하는 픽셀이다.In this case, the second type of pixels are pixels corresponding to at least one of a face, a hand, and a foot of a human body.
본 발명의 일 실시예에 따르면, 상기 복수 개의 소 영역(sub region)은, 하의 영역, 상의 셔츠 영역, 상의 재킷 영역 중 적어도 하나를 포함한다.According to an embodiment of the present invention, the plurality of sub regions includes at least one of a lower region, an upper shirt region, and an upper jacket region.
한편, 상기 영상 처리 장치는, 상기 분리된 복수 개의 소 영역 중 적어도 하나에 대응하는 이미지 데이터를 저장하는 데이터베이스, 및 상기 데이터베이스에 저장된 데이터를 이용하여, 상기 분리된 복수 개의 소 영역 중 선택된 제1 소 영역의 이미지를 변경하는 이미지 편집부를 더 포함할 수 있다.The image processing apparatus may further include a database configured to store image data corresponding to at least one of the plurality of separated small regions, and a first small region selected from the plurality of separated small regions using data stored in the database. The apparatus may further include an image editor configured to change an image of the area.
본 발명의 다른 일측에 따르면, 입력 3D 모델과 매칭된 입력 칼라 영상으로부터, 상기 3D 모델 내의 타킷 오브젝트에 대응하는 실루엣 영역을 추출하는 단계, 상기 실루엣 영역으로부터 관심 영역을 추출하는 단계, 및 상기 추출된 관심 영역을 복수 개의 소 영역으로 분리하는 단계를 포함하는, 영상 처리 방법이 제공된다.According to another aspect of the present invention, extracting a silhouette region corresponding to a target object in the 3D model from the input color image matched with the input 3D model, extracting the region of interest from the silhouette region, and the extracted An image processing method is provided, comprising separating a region of interest into a plurality of small regions.
상기 실시예들에 의하면, 인체의 3D 모델에서 특정 관심 영역, 이를테면 옷 영역을 추출하고, 이를 상의와 하의 등의 소 영역으로 분리하는 영상 처리에 의해, 3D 모델 내의 일부 영역의 칼라 정보를 바꾸는 응용이 가능하다.According to the above embodiments, an application for changing color information of a part of the 3D model by image processing of extracting a specific region of interest, such as a clothes region, from the 3D model of the human body and separating the region of interest into a small region such as a top and a bottom, etc. This is possible.
그리고 이러한 영상 처리에 의하면, 가상 현실 속의 아바타, 영화나 비디오 게임 속의 캐릭터의 옷을 갈아 입히거나, 또는 온라인 쇼핑에서 구입하고자 하는 아이템을 사용자의 아바타에 미리 입히는 시뮬레이션이 가능하다.According to the image processing, it is possible to change the clothes of the avatar in the virtual reality, the character in the movie or the video game, or to simulate the user's avatar with the item to be purchased in the online shopping in advance.
이하에서, 본 발명의 일부 실시예를, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Hereinafter, some embodiments of the present invention will be described in detail with reference to the accompanying drawings. However, the present invention is not limited or limited by the embodiments. Like reference numerals in the drawings denote like elements.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치(100)를 도시한다.1 illustrates an
본 발명의 영상 처리 장치(100)에는, 칼라 영상 및 상기 칼라 영상과 매칭된 3D 모델의 기하 정보와 텍스처 정보가 입력될 수 있다.In the
실루엣 추출부(110)는 입력된 칼라 영상으로부터 상기 3D 모델의 타킷 오브젝트, 이를테면 인체에 대응하는 실루엣 영역을 추출한다.The
이러한 실루엣 추출부의 동작은 도 4 내지 도 6을 참조하여 보다 상세히 후술한다.The operation of the silhouette extractor will be described later in more detail with reference to FIGS. 4 to 6.
단, 상기 3D 모델이 상기 칼라 영상을 이용한 영상 처리 방법에 의해 생성된 것인 경우, 상기 3D 모델의 상기 타킷 오브젝트에 대응하는 실루엣 영역은 이미 추출되었을 수 있다. 본 발명의 일 실시예에 따른 영상 처리 장치 및 영상 처리 방법은 이러한 가능성을 배제하지 않으며, 이 경우 실루엣 추출부(110)는 상기 칼 라 영상으로부터 이미 추출된 실루엣 영역을 그대로 가져오거나, 약간의 수정을 가하여 가져올 수 있다.However, when the 3D model is generated by an image processing method using the color image, a silhouette region corresponding to the target object of the 3D model may have already been extracted. The image processing apparatus and the image processing method according to the embodiment of the present invention do not exclude such a possibility, and in this case, the
관심 영역 추출부(120)는 상기 추출된 실루엣 영역으로부터 관심 영역, 이를테면 옷 영역을 추출한다. 관심 영역 추출부(120)의 동작은 도 6 내지 도 9를 참조하여 보다 상세히 후술한다.The
관심 영역 분리부(130)는 상기 추출된 관심 영역을 복수 개의 소 영역(sub region)으로 분리한다.The
이를테면, 상기 추출된 관심 영역이 옷(cloth) 영역인 경우, 상기 관심 영역 분리부(130)는 이를 재킷 부분 소 영역, 셔츠 부분 소 영역 및 하의 부분 소 영역으로 분리할 수 있다.For example, when the extracted region of interest is a clothes region, the region of
이러한 관심 영역 분리부(130)의 동작은 도 9 내지 도 10을 참조하여 보다 상세히 후술한다.The operation of the
이렇게 관심 영역이 복수 개의 소 영역으로 분리되는 경우, 이미지 편집부(140)는 이 중 적어도 일부를, 미리 데이터베이스(150)에 저장되어 있던 다른 이미지로 대체할 수 있다.When the ROI is divided into a plurality of small regions, the
이를테면, 재킷 부분 소 영역을 변경하여, 재킷 칼라를 변경할 수 있다.For example, the jacket collar may be changed by changing the jacket portion small area.
이러한 이미지 편집부(140)의 동작은 도 11을 참조하여 보다 상세히 후술한다.The operation of the
이하에서는, 구체적인 실시예를 통해 상기 각 구성의 동작을 서술한다.Hereinafter, the operation of each configuration will be described through specific embodiments.
도 2는 본 발명의 일 실시예에 따라 입력되는 칼라 영상(200)을 도시한다.2 illustrates a
본 실시예에서 칼라 영상(200)은, 하기 도 3에서 도시되는 3D 모델과 매칭되어 있다.In the present embodiment, the
칼라 영상(200)에는 인체 부분(210), 뒷 배경 부분(201) 및 바닥 부분(202)이 포함된다.The
본 발명의 실시예에 따른 영상 처리 방법에 따르면, 도 1의 실루엣 추출부(110)에 의해 칼라 영상(200)으로부터 인체 부분(210)에 대응하는 실루엣 영역이 추출된다. 그리고, 관심 영역 추출부(120)에 의해 상기 추출된 실루엣 영역으로부터 특정의 관심 영역(Region of Interest; ROI)이 추출된다.According to the image processing method according to the exemplary embodiment of the present invention, the silhouette region corresponding to the
관심 영역 추출부(120)는 상기 실루엣 영역으로부터 얼굴 부분(251), 손 부분(252), 및 구두 부분(253) 등을 제거하여, 외한 옷 영역을 관심 영역으로서 추출한다.The region of
추출되는 관심 영역인 옷 영역에는, 상의 재킷(220) 소 영역, 상의 셔츠 소 영역(240) 및 하의 소 영역(230)이 포함된다. 이 경우 각 소 영역들은 관심 영역 분리부(130)에 의해 각각 분리될 수 있다.The clothes region, which is the region of interest to be extracted, includes the
이렇게 소 영역들이 분리되는 경우, 이미지 편집부(140)에 의해 분리된 소 영역 중 일부가 데이터베이스(150)에 저장된 다른 데이터를 이용하여 변경될 수 있다.When the small areas are separated in this way, some of the small areas separated by the
실루엣 영역의 추출, 관심 영역 추출 및 관심 영역 분리 등, 상기 영상 처리의 각 단계에 대한 구체적 내용은 도 3 이하를 참조하여 후술한다.Details of each step of the image processing, such as silhouette region extraction, region of interest extraction, region of interest separation, and the like, will be described below with reference to FIG. 3.
도 3은 본 발명의 일 실시예에 따라 입력되는 3D 모델(300)을 도시한다.3 illustrates a
3D 모델에는 타킷 오브젝트(310)가 포함된다. 본 실시예에서 상기 타킷 오브젝트(310)는 인체에 대응한다.The 3D model includes a
상기한 바와 같이, 3D 모델은 기하 정보와 텍스처 정보에 의해 표현되며, 폴리곤(311)은 상기 타킷 오브젝트(310)의 기하 정보에 포함되는 일 예이다.As described above, the 3D model is represented by geometric information and texture information, and the
이하의 실시예에서는 3D 모델(300)이 아티스트에 의해 디자인 된 것인 경우가 아니라, 타킷 오브젝트를 스캔된 것이거나, 또는 타킷 오브젝트를 촬영한 칼라 영상과 깊이 영상을 이용한 영상 처리에 의해 생성된 것인 경우임을 전제한다. 물론, 직접 디자인된 3D 모델이 아니라 현실 세계의 오브젝트를 모델링하기 위해 다른 어떤 방법에 의해 생성된 3D 모델인 경우를 배제하는 것은 아니다.In the following embodiments, the
본 발명의 일 실시예에 따른 영상 처리를 위해, 도 2의 칼라 영상(200) 및 도 3의 3D 모델(300)이 입력된다.For image processing according to an embodiment of the present invention, the
여기서, 상기 칼라 영상(200)과 상기 3D 모델(300)은 서로 매칭된 것이다. 따라서, 3D 모델의 각 폴리곤들, 이를테면 폴리곤(311)이 상기 칼라 영상(200) 내의 어느 픽셀에 대응되는지에 관한 정보는 함께 주어진다.Here, the
이를 테면, 상기 3D 모델(300)이 칼라 영상(200) 및 상기 칼라 영상(200)에 매칭되는 깊이 영상(도시되지 않음)을 이용한 영상 처리 방법에 의해 생성된 경우, 이 3D 모델(300)의 각 폴리곤들이 칼라 영상(200) 내의 어느 픽셀에 대응하는 지의 정보도 미리 주어지는 것으로 이해될 수 있다.For example, when the
본 발명의 일 실시예에 따른 영상 처리 방법에 따르면, 상기 3D 모델의 타킷 오브젝트(310)의 각 폴리곤들, 이를테면 폴리곤(311)이 상기 칼라 영상(200)으 로 투영(projection)된다.According to an image processing method according to an embodiment of the present invention, each polygon of the
상기 투영(projection)은 도 1의 실루엣 추출부(110)의 제1 계산부(도시되지 않음)에 의해 수행된다.The projection is performed by a first calculator (not shown) of the
그러면, 상기 각 폴리곤들의 각각이 상기 칼라 영상(200) 내의 어느 픽셀에 투영되는지를 이용하여, 상기 타킷 오브젝트(310)에 대응하는 픽셀들이 선택될 수 있다.Then, pixels corresponding to the
도 4는 본 발명의 일 실시예에 따라, 도 3의 3D 모델의 타킷 오브젝트(310)를 도 2의 입력 칼라 영상(200)에 투영한 결과를 도시한다.4 illustrates a result of projecting the
칼라 영상(400) 위에 상기 타킷 오브젝트(310)의 각 폴리곤들이 투영된 위치가 산발적인 포인트들(scattered points)에 의해 표시되었다.The locations where the respective polygons of the
그런데, 상기 3D 모델(300)의 타킷 오브젝트(310)와 상기 칼라 영상(200)의 인체 부분(210)이 매칭되어 있기는 하지만, 매칭 오차에 의한 오류가 있을 수 있다.However, although the
본 실시예에서는, 상기 포인트들 중 일부는 상기 칼라 영상(200)의 뒷 배경 부분(201)에 위치되는 등, 어느 정도의 오류가 발견된다.In this embodiment, some errors are found, such as some of the points being located in the
매칭 오류가 존재하지 않는다면, 상기 포인트 중 최외곽 부분의 포인트는 포인트(410)와 같이, 정확히 상기 인체 부분(210)의 경계에 위치될 것이다. 그러나, 상기한 매칭 오차에 의해, 포인트(420)와 같이 뒷 배경 부분(201)에 위치하는 포인트도 존재하고, 포인트(430)와 같이 인체 부분(210)의 경계보다 안쪽에 위치하는 포인트도 존재한다.If there is no matching error, the point of the outermost part of the point will be located exactly at the boundary of the
따라서, 상기 포인트들이 위치한 픽셀들을 인체 부분(210)의 실루엣 영역으로 바로 추출하는 경우, 뒤 배경 부분(201)이 함께 포함될 수 있는 여지가 발생한다.Therefore, when the pixels in which the points are located are directly extracted into the silhouette region of the
따라서, 실루엣 추출부(110)는 추가적인 과정을 통해 상기 포인트들이 위치한 픽셀들 중 일부만 인체 부분(210)에 대응한 실루엣 영역으로 추출한다.Therefore, the
이러한 과정은 도 5를 참조하여 설명된다.This process is described with reference to FIG.
도 5는 본 발명의 일 실시예에 따라, 도 4의 입력 칼라 영상(200) 중 3D 모델이 투영된 부분을 추출하고, 추출된 부분을 다시 3 개의 영역으로 분리한 결과를 도시한다.FIG. 5 illustrates a result of extracting a projected part of the 3D model from the
영역(510)은 상기 인체 부분(210)에 대응될 것으로 간주되는 영역이다. 상기한 매칭 오차가 존재하더라도, 오차의 정도가 심각하게 크지는 않을 것이므로, 상기 실루엣 추출부(110)의 제1 계산부가 상기 투영의 결과 선택하는 일부 픽셀들 중, 가장자리로부터 소정의 제1 임계치 이상의 거리만큼 안쪽에 위치한 픽셀들은 인체 부분(210)에 대응된다고 간주되는 것이다.
그리고, 영역(520)은 상기 인체 부분(210)에 대응되지 않는다고 간주되는 영역이다. 도 4의 포인트(410)와 같이 바깥쪽의 포인트가 인체 부분(210)의 경계를 정확히 반영하고 있는 경우도 있지만, 포인트(420)와 같이 뒷 배경 부분(201)에 위치된 것도 있다. 따라서, 이러한 매칭 오차를 보정하기 위해, 영역(520)은 상기 인체 부분(210)에 대응되지 않는다고 간주된다.In addition, the
이 경우, 상기 가장자리로부터 소정의 제2 임계치 마만의 거리에 존재하는 픽셀들을 상기 영역(520)으로 결정할 수 있다.In this case, pixels existing at a distance less than a predetermined second threshold value from the edge may be determined as the
그리고, 상기 영역(510) 또는 상기 영역(520) 중 어느 것에도 속하지 않는 것으로 결정되는 나머지 픽셀들은 영역(530)으로 결정된다.The remaining pixels determined to not belong to either the
이 영역(530)은 확실히 인체 부분(210)에 대응된다고 간주되지도 않고, 확실히 인체 부분(210)에 대응되지 않는다고 간주되지도 않는 애매한 영역이다.This
상기 영역(510) 내지 영역(530)의 분리는 실루엣 추출부(110)의 제2 계산부에 의해 수행된다. 그리고, 상기 제1 임계치 및 상기 제2 임계치는 미리 설정된 값일 수 있으며, 사용자에 의해 설정되거나 조정될 수도 있다.Separation of the
본 발명의 실시예들에서는, 실루엣 추출부(110)의 제3 계산부에 의해, 영역(530)에 속하는 픽셀들을 상기 영역(510) 또는 상기 영역(520)에 속하는 것으로 다시 결정하는 과정이 수행된다.In embodiments of the present disclosure, the process of determining again the pixels belonging to the
여기서 실루엣 추출부(110)의 제3 계산부는, 상기 영역(510)에 속하는 모든 픽셀들의 칼라 값들에 대하여, 칼라 값의 확률 분포 함수를 구한다.Here, the third calculator of the
이를 테면, 상기 영역(510)에 속하는 모든 픽셀에 대한 제1 칼라 확률 분포 함수 Pr(c)는 K 개의 Gaussian 분포의 Linear combination 으로써 표현될 수 있다.For example, the first color probability distribution function Pr (c) for all pixels belonging to the
[수학식 1][Equation 1]
여기서 는 양수이고, 이다.here Is positive, to be.
그리고, C는 R(Red), G(Green), B(Blue)의 세 가지 칼라 엘리먼트를 갖는 벡터이며, C = (R, G, B) 이다. 물론, 칼라 코디네이션 시스템이 RGB 시스템이 아니라, YCbCr 시스템, x.v. 칼라 시스템 등인 경우, 상기 C는 다른 차원(dimension)의 벡터일 수도 있다.C is a vector having three color elements of R (Red), G (Green), and B (Blue), and C = (R, G, B). Of course, the color coordination system is not an RGB system, but a YCbCr system, x.v. In the case of a color system or the like, the C may be a vector of another dimension.
또한 본 발명의 일 실시예에 따르면, 는 Gaussian 분포이고, 는 Gaussian 분포의 평균, 는 Gaussian 분포의 Covariance matrix 이다.Also in accordance with one embodiment of the present invention, Is the Gaussian distribution, Is the mean of the Gaussian distribution, Is the covariance matrix of the Gaussian distribution.
그리고, Pr(c)는 Expectation Maximization 기법 또는 PCA(Principal Component Analysis) 기법 등을 이용해서 구해질 수 있으며, 이러한 기법은 본 기술 분야의 통상의 지식을 가진 자에게 알려진 예시적인 것에 불과하다.In addition, Pr (c) may be obtained by using an Expectation Maximization technique or a Principal Component Analysis (PCA) technique. Such a technique is merely an example known to those skilled in the art.
상기 영역(520)에 속하는 모든 픽셀에 대한 제2 칼라 확률 분포 함수 Pb(c) 역시 K 개의 Gaussian 분포의 Linear combination 으로써 표현될 수 있다.The second color probability distribution function Pb (c) for all pixels belonging to the
그리고, 이렇게 제1 칼라 확률 분포 함수 Pr(c) 및 제2 칼라 확률 분포 함수 Pb(c)가 구해지면, 실루엣 추출부(110)의 제3 계산부는 영역(530)에 속하는 모든 픽셀들 각각에 대해, 상기 제1 칼라 확률 분포 함수에 대입한 값과 상기 제2 칼라 확률 분포 함수에 대입한 값을 비교한다.Then, when the first color probability distribution function Pr (c) and the second color probability distribution function Pb (c) are obtained, the third calculation unit of the
이를테면, 상기 영역(530)에 속하는 모든 픽셀들 중, n 번째의 픽셀의 칼라 벡터 Cn을 상기 제1 칼라 확률 분포 함수에 대입한 결과 값인 Pr(Cn)와, 상기 제2 칼라 확률 분포 함수에 대입한 결과 값인 Pb(Cn)을 비교한다.For example, among all the pixels belonging to the
만약, Pr(Cn)이 Pb(Cn)보다 크다면, 상기 n 번째의 픽셀은 상기 영역(510)에 속하는 것으로 판단된다. 그렇지 않다면, 상기 n 번째의 픽셀은 상기 영역(520)에 속하는 것으로 판단된다.If Pr (Cn) is larger than Pb (Cn), the n-th pixel is determined to belong to the
이러한 과정을 영역(530)에 속하는 모든 픽셀들 각각에 대해 수행함으로써, 이제 인체 부분(210)에 속하는 최종 실루엣 영역이 추출된다.By performing this process on each of all the pixels belonging to the
한편, 본 발명의 일 실시예에 따르면, 상기 과정에서, 본 기술 분야의 통상의 지식을 가진 자에게 알려져 있는 Markov Random Field Modeling에 기반한 최적화 방법(Graph Cuts, Belief Propagation) 등을 적용할 수도 있다.Meanwhile, according to an embodiment of the present invention, in the above process, an optimization method (Graph Cuts, Belief Propagation) based on Markov Random Field Modeling, which is known to those skilled in the art, may be applied.
도 6은 본 발명의 일 실시예에 따라, 도 5의 결과를 이용하여 실루엣 영역(610)을 추출한 결과(600)를 도시한다.FIG. 6 illustrates a
추출된 실루엣 영역(610)에는 인체 부분(210)에 대응하는 픽셀들이 포함된다.The extracted
상기한 바와 같이, 본 실시예에서는 도 1의 관심 영역 추출부(120)에 의해 상기 추출된 실루엣 영역(610) 중, 얼굴 영역(621), 손 영역(622), 및 신발 영역(623)이 제거되고, 옷 영역(611, 612 등)이 관심 영역(ROI)으로서 추출된다.As described above, in the present exemplary embodiment, among the
관심 영역 추출부(120)가 상기 실루엣 영역(610) 중 관심 영역인 옷 영역을 추출하는 과정은 도 7을 참조하여 설명된다.A process of extracting the clothes region, which is the region of interest, from the
도 7은 본 발명의 일 실시예에 따라, 도 6의 실루엣 영역(610)을 3 개의 부분으로 나눈 결과(700)를 도시한다.FIG. 7 illustrates the
본 발명의 일 실시예에 따르면, 관심 영역 추출부(120)의 제1 계산부(도시되지 않음)는, 상기 실루엣 영역(610)을, 옷 영역에 속하는 것으로 간주되는 영역(710), 옷 영역에 속하지 않는 것으로 간주되는 영역(720) 및 상기 영역(710) 중 어느 것도 아닌 나머지 영역(730)으로 분리한다.According to one embodiment of the invention, the first calculation unit (not shown) of the region of
이러한 과정은, 상기 실루엣 추출부(110)의 동작과 유사하다.This process is similar to the operation of the
이를테면, 상기 관심 영역 추출부(120)의 제1 계산부는, 학습 데이터를 통해 가지고 있는 머리 부분이 확실한 픽셀들을 영역(720)에 속하는 것으로 결정하고, 옷 부분(또는 몸통 부분)에 속하는 것이 확실한 픽셀들을 영역(710)에 속하는 것으로 결정한다.For example, the first calculation unit of the region of
그리고, 그 사이에 일정한 넓이의 밴드를 판단이 불확실한 영역(730)으로 결정한다.In the meantime, a band having a predetermined width is determined as the
그리고, 관심 영역 추출부(120)의 제2 계산부(도시되지 않음)는, 영역(710)에 속한 모든 픽셀들에 대한 제3 칼라 확률 분포 함수를 구하고, 영역(720)에 속한 모든 픽셀들에 대한 제4 칼라 확률 분포 함수를 구한다.Then, the second calculator (not shown) of the
그리고, 영역(730)에 속한 모든 픽셀들 각각에 대하여, 상기 제3 칼라 확률 분포 함수에 대입한 결과와 상기 제4 칼라 확률 분포 함수에 대입한 결과를 비교함으로써, 상기 영역(730)에 속한 모든 픽셀들 각각을 영역(710) 또는 영역(720) 중 어느 하나에 속하는 것으로 다시 결정한다.For each of the pixels in the
이러한 과정에 의해 실루엣 영역(610)으로부터 인체의 머리(또는 얼굴) 영역이 제거된다.By this process, the head (or face) area of the human body is removed from the
도 8은 본 발명의 일 실시예에 따라, 상기 도 7의 결과를 이용하여 실루엣 영역으로부터 관심 영역이 아닌 얼굴 영역을 제거한 결과(800)를 도시한다.FIG. 8 illustrates a
여기서, 얼굴 영역이 제거된 경우, 옷 영역(810, 820, 및 830) 이외에, 손 영역(841) 및 신발 영역(842)이 그대로 존재한다.In this case, when the face region is removed, the
이 경우, 관심 영역 추출부(120)는 도 7의 과정을 반복적으로 수행하여 상기 손 영역(841) 및 신발 영역(842)을 제거하고, 관심 영역(ROI)인 옷 영역(810, 820, 및 830)을 남길 수 있다.In this case, the
도 9는 본 발명의 일 실시예에 따라, 상기 도 8의 방식에 의해 상기 실루엣 영역(610)으로부터 관심 영역인 옷 영역(910)을 추출한 결과(900)를 도시한다.FIG. 9 illustrates a
한편, 본 발명의 일 실시예에 따르면, 도 1의 관심 영역 분리부(130)는 이렇게 추출된 옷 영역(910)을 복수 개의 소 영역(sub region)들(1010 내지 1030)으로 분리한다.Meanwhile, according to an exemplary embodiment, the
이 경우, 관심 영역 분리부(130)의 제1 계산부(도시되지 않음)는 상기 옷 영역(910)을, 확실히 하의 부분에 속하는 영역과 확실히 속하지 않는 영역으로 나눈다. 이 경우, 학습 데이터가 활용될 수 있다.In this case, the first calculation unit (not shown) of the region of
그리고 상기 관심 영역 분리부(130)의 제2 계산부(도시되지 않음)는, 상기 각 영역에 대해 상기한 수학식 1과 유사한 확률 분포 함수를 구한다.The second calculator (not shown) of the
그리고, 상기 관심 영역 분리부(130)의 제2 계산부는, 상기 각 영역 중 어 느 것에도 속하지 않는 경계 부분의 각 픽셀에 대하여, 구해진 확률 분포 함수들 각각에 대입한 결과를 비교함으로써, 상기 각 픽셀을 하의 부분에 속하는지 그렇지 않은지 판단할 수 있고, 따라서 하의 부분 소 영역과 그 이외의 부분을 분리할 수 있다.The second calculation unit of the
상세한 과정은 도 5 및 수학식 1을 참조하여 상술한 바와 유사하게 이해될 수 있다.The detailed process may be understood similarly to that described above with reference to FIG. 5 and Equation 1.
나아가, 관심 영역 분리부(130)는 유사한 과정을 통하여, 상의 재킷 부분 소 영역과 셔츠 부분 소 영역을 분리할 수도 있다.Furthermore, the
도 10은 본 발명의 일 실시예에 따라 상기 도 9에서 추출된 관심 영역(910)을 복수 개의 소 영역들로 분리한 결과(1000)를 도시한다.FIG. 10 illustrates a
소 영역(1010)은 상의 셔츠 부분에 대응하며, 소 영역(1020)은 상의 재킷 부분, 그리고 소 영역(1030)은 하의 부분에 대응한다.
이러한 과정을 통해, 비교적 정확하고 간단하게 상기 입력 칼라 영상(200) 내에서 인체의 옷들이 종류 별로 분리된다.Through this process, clothes of the human body are separated by type in the
또한, 도 3의 3D 모델(300)의 타킷 오브젝트(310)는 상기 입력 칼라 영상(200)에 매칭되어 있으므로, 상기 타킷 오브젝트(310)의 폴리곤들 중 어느 것이 상의 셔츠에 대응하며, 어느 것이 상의 재킷에 대응하고, 어느 것이 하의에 대응하는지도 판단될 수 있다.In addition, since the
본 발명의 일 실시예에 따르면, 이렇게 분리된 소 영역들(1010, 1020, 1030) 중 적어도 일부를 도 1의 데이터베이스(150)에 저장된 다른 이미지 데이터로 대체할 수 있다. 즉, 재킷을 다른 것으로 바꾸거나, 바지를 다른 것으로 바꿀 수 있다.According to an embodiment of the present invention, at least some of the divided
이러한 이미지 편집 과정은 도 1의 이미지 편집부(140)에 의해 수행된다. 상기 이미지 편집부(140)는 칼라 영상(200)의 일부 픽셀 값을 바꿀 수도 있고, 3D 모델의 타킷 오브젝트(310) 중 일부의 폴리곤의 텍스처 정보를 바꿀 수도 있다.This image editing process is performed by the
도 11은 본 발명의 일 실시예에 따라, 도 10의 복수 개의 소 영역 중 일부분을 다른 이미지로 변경한 결과(1100)를 도시한다.FIG. 11 illustrates a
셔츠에 대응하는 소 영역(1010)은 소 영역(1110)으로 대체되었고, 재킷에 대응하는 소 영역(1020)은 소 영역(1120)으로 대체되었으며, 하의에 대응하는 소 영역(1030)은 소 영역(1130)으로 대체되었다.The
본 발명의 다른 실시예에 따르면, 상기 관심 영역 분리부(140)가 넥타이 부분에 대응하는 소 영역(1111)을 추가로 분리할 수도 있고, 이 경우는 넥타이를 다른 것으로 바꾸는 영상 처리도 가능하다.According to another embodiment of the present invention, the region of
상기 과정을 통해 설명된 영상 처리 장치 및 영상 처리 방법에 따르면, 가상 현실 분야에서, 사용자를 촬영한 칼라 영상에 기초하여 생성된 3D 모델 아바타의 옷을 다른 것으로 바꿀 수 있다.According to the image processing apparatus and the image processing method described through the above process, in the virtual reality field, the clothes of the 3D model avatar generated based on the color image of the user may be changed to another.
또한, 특정 인물을 모델링 한, 영화나 비디오 게임 내의 캐릭터의 옷을 바꾸어 입히는 것도 가능하다.It is also possible to change the clothes of characters in a movie or video game modeling a specific person.
나아가, 현재 관심이 높아지고 있는 온라인 쇼핑 분야에서, 사용자의 체형과 동일한 가상의 모델에 구입하고자 하는 재킷을 미리 입히는 시뮬레이션을 수행 할 수 있으며, 이는 온라인 산업의 성장에 큰 계기가 될 수 있다.Furthermore, in the field of online shopping, which is currently increasing in interest, it is possible to perform a simulation of pre-coating a jacket to be purchased on a virtual model identical to a user's body shape, which can be a great opportunity for the growth of the online industry.
도 12는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.12 illustrates an image processing method according to an embodiment of the present invention.
단계(S1210)에서 입력 칼라 영상(200)으로부터 3D 모델의 타킷 오브젝트, 이를테면 인체에 대응하는 실루엣 영역이 추출된다. 실루엣 영역의 추출은 도 4 내지 도 6을 참조하여 상술한 바와 같다.In operation S1210, a target object of a 3D model, for example, a silhouette region corresponding to a human body is extracted from the
그리고, 단계(S1220)에서 추출된 실루엣 영역으로부터 관심 영역, 이를테면 옷 영역이 추출된다.Then, the region of interest, such as the clothes region, is extracted from the silhouette region extracted in step S1220.
도 6의 실루엣 영역(610)으로부터 관심 영역인 옷 영역, 이를테면 도 9의 옷 영역(910)을 추출하는 과정은 도 6 내지 도 9를 참조하여 상술한 바와 같다.The process of extracting the clothes area, that is, the
그리고, 단계(S1230)에서 상기 추출된 관심 영역이 복수 개의 소 영역으로 분리된다. 도 9 내지 도 10을 참조하여 상술한 관심 영역 분리 과정은, 본 발명의 일 실시예에 불과하며, 관심 영역의 종류, 관심 영역을 분리한 소 영역의 개수나 종류 등은 얼마든지 변경될 수 있다. 이러한 정도의 변경이 본 발명의 사상을 벗어나는 것으로 해석될 수 없음은, 본 기술 분야의 통상의 지식을 가진 자에게 자명하다.In operation S1230, the extracted region of interest is divided into a plurality of small regions. The above-described region of interest separation process described above with reference to FIGS. 9 to 10 is merely an embodiment of the present disclosure, and the type of the region of interest and the number or type of the small regions that divide the region of interest may be changed. . It will be apparent to those skilled in the art that such changes in degree cannot be interpreted as departing from the spirit of the present invention.
그리고, 단계(S1240)에서 상기 분리된 소 영역 중 일부의 이미지가 데이터베이스에 저장되어 있던 다른 이미지로 대체될 수 있다. 이러한 과정은 도 11을 참조하여 상술한 바와 같다. 그리고 이 경우 소 영역 중 일부의 변경은 입력 칼라 영상(200)에 대해서도 가능하고, 3D 모델(300)의 타킷 오브젝트(310)의 텍스처 정보에 대해서도 가능하다.In operation S1240, an image of some of the separated small regions may be replaced with another image stored in a database. This process is as described above with reference to FIG. In this case, a part of the small region may be changed for the
사용자가 소 영역의 텍스처 정보가 변경된 3D 모델을 렌더링한다면, 상기한 응용예와 같이 가상 현실 속의 아바타에 특정한 옷을 입혀보는 시뮬레이션이 가능하다.If the user renders a 3D model in which the texture information of the small area is changed, as in the above-described application example, it is possible to simulate a specific clothes on the avatar in the virtual reality.
본 발명의 일 실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Method according to an embodiment of the present invention is implemented in the form of program instructions that can be executed by various computer means may be recorded on a computer readable medium. The computer readable medium may include program instructions, data files, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware devices specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware device described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통 상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from these descriptions. This is possible.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined not only by the claims below but also by the equivalents of the claims.
도 1은 본 발명의 일 실시예에 따른 영상 처리 장치를 도시한다.1 illustrates an image processing apparatus according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따라 입력되는 칼라 영상을 도시한다.2 illustrates a color image input according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따라 입력되는 3D 모델을 도시한다.3 illustrates an input 3D model according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따라, 도 3의 3D 모델의 타킷 오브젝트를 도 2의 입력 칼라 영상에 투영한 결과를 도시한다.FIG. 4 illustrates a result of projecting the target object of the 3D model of FIG. 3 onto the input color image of FIG. 2, according to an exemplary embodiment.
도 5는 본 발명의 일 실시예에 따라, 도 4의 입력 칼라 영상 중 3D 모델이 투영된 부분을 추출하고, 추출된 부분을 다시 3 개의 영역으로 분리한 결과를 도시한다.FIG. 5 illustrates a result of extracting a portion from which the 3D model is projected from the input color image of FIG. 4 and separating the extracted portion into three regions again according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따라, 도 5의 결과를 이용하여 실루엣 영역을 추출한 결과를 도시한다.FIG. 6 illustrates a result of extracting a silhouette region using the result of FIG. 5, according to an exemplary embodiment.
도 7은 본 발명의 일 실시예에 따라, 도 6의 실루엣 영역을 3 개의 부분으로 나눈 결과를 도시한다.FIG. 7 illustrates a result of dividing the silhouette region of FIG. 6 into three parts, according to an embodiment of the present disclosure.
도 8은 본 발명의 일 실시예에 따라, 상기 도 7의 결과를 이용하여 실루엣 영역으로부터 관심 영역이 아닌 얼굴 영역을 제거한 결과를 도시한다.FIG. 8 illustrates a result of removing a face region other than the region of interest from the silhouette region using the result of FIG. 7 according to an embodiment of the present invention.
도 9는 본 발명의 일 실시예에 따라, 상기 도 8의 방식에 의해 상기 실루엣 영역으로부터 관심 영역인 옷 영역을 추출한 결과를 도시한다.FIG. 9 illustrates a result of extracting a clothes region, which is a region of interest, from the silhouette region by the method of FIG. 8 according to an embodiment of the present invention.
도 10은 본 발명의 일 실시예에 따라 상기 도 9에서 추출된 관심 영역을 복수 개의 소 영역으로 분리한 결과를 도시한다.FIG. 10 illustrates a result of dividing the region of interest extracted in FIG. 9 into a plurality of small regions according to an embodiment of the present invention.
도 11은 본 발명의 일 실시예에 따라, 도 10의 복수 개의 소 영역 중 일부 분을 다른 이미지로 변경한 결과를 도시한다.FIG. 11 illustrates a result of changing a portion of the plurality of small regions of FIG. 10 to another image according to an embodiment of the present invention.
도 12는 본 발명의 일 실시예에 따른 영상 처리 방법을 도시한다.12 illustrates an image processing method according to an embodiment of the present invention.
Claims (18)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090101029A KR20110044392A (en) | 2009-10-23 | 2009-10-23 | Image processing apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090101029A KR20110044392A (en) | 2009-10-23 | 2009-10-23 | Image processing apparatus and method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110044392A true KR20110044392A (en) | 2011-04-29 |
Family
ID=44049128
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090101029A KR20110044392A (en) | 2009-10-23 | 2009-10-23 | Image processing apparatus and method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110044392A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016068869A1 (en) * | 2014-10-28 | 2016-05-06 | Hewlett-Packard Development Company, L.P. | Three dimensional object recognition |
US10242249B2 (en) | 2014-11-19 | 2019-03-26 | Samsung Electronics Co., Ltd. | Method and apparatus for extracting facial feature, and method and apparatus for facial recognition |
-
2009
- 2009-10-23 KR KR1020090101029A patent/KR20110044392A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016068869A1 (en) * | 2014-10-28 | 2016-05-06 | Hewlett-Packard Development Company, L.P. | Three dimensional object recognition |
US10242249B2 (en) | 2014-11-19 | 2019-03-26 | Samsung Electronics Co., Ltd. | Method and apparatus for extracting facial feature, and method and apparatus for facial recognition |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101877711B1 (en) | Apparatus and method of face tracking | |
KR101636370B1 (en) | Image processing apparatus and method | |
WO2016066038A1 (en) | Image body extracting method and system | |
CN110335277A (en) | Image processing method, device, computer readable storage medium and computer equipment | |
Ge et al. | Co-saliency detection via inter and intra saliency propagation | |
US9443137B2 (en) | Apparatus and method for detecting body parts | |
JP2008015641A (en) | Method, apparatus and program for extracting human body area | |
WO2016066042A1 (en) | Segmentation method for commodity picture and device thereof | |
EP2977932B1 (en) | Image processing apparatus, image processing method and image processing program | |
JP2008009576A (en) | Human body area extraction method and device, and program | |
Yang et al. | Ranking 3D feature correspondences via consistency voting | |
Arbelot et al. | Automatic texture guided color transfer and colorization | |
CN105868767B (en) | Face feature point positioning method and device | |
Tang et al. | Video matting via opacity propagation | |
CN113705579B (en) | Automatic image labeling method driven by visual saliency | |
Liu et al. | Planogram compliance checking based on detection of recurring patterns | |
KR20110043279A (en) | Apparatus and method for extracting interest object | |
KR20110044392A (en) | Image processing apparatus and method | |
Zohrizadeh et al. | Image segmentation using sparse subset selection | |
KR20110087620A (en) | Layout based page recognition method for printed medium | |
CN109785283B (en) | Texture feature matching method and device for fabric segmentation | |
KR101749029B1 (en) | Apparatus and Method of Body Part Detection in Image | |
Liang et al. | Sketch-based retrieval using content-aware hashing | |
CN112861860B (en) | Text detection method in natural scene based on upper and lower boundary extraction | |
JP2016081472A (en) | Image processing device, and image processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |