KR20130143405A - 깊이 정보 기반 사람의 피부 영역 검출 방법 - Google Patents

깊이 정보 기반 사람의 피부 영역 검출 방법 Download PDF

Info

Publication number
KR20130143405A
KR20130143405A KR1020120066939A KR20120066939A KR20130143405A KR 20130143405 A KR20130143405 A KR 20130143405A KR 1020120066939 A KR1020120066939 A KR 1020120066939A KR 20120066939 A KR20120066939 A KR 20120066939A KR 20130143405 A KR20130143405 A KR 20130143405A
Authority
KR
South Korea
Prior art keywords
region
skin
depth information
image
color
Prior art date
Application number
KR1020120066939A
Other languages
English (en)
Other versions
KR101357581B1 (ko
Inventor
장석우
Original Assignee
안양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 안양대학교 산학협력단 filed Critical 안양대학교 산학협력단
Priority to KR1020120066939A priority Critical patent/KR101357581B1/ko
Publication of KR20130143405A publication Critical patent/KR20130143405A/ko
Application granted granted Critical
Publication of KR101357581B1 publication Critical patent/KR101357581B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/004Annotating, labelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

스테레오 3차원 영상으로부터 유사한 깊이 특징을 가지는 화소들을 레이블링하고, 레이블링한 영역 중에서 인간의 피부색상 분포를 가지는 영역들을 실제적인 피부색상 영역으로 검출하는 깊이 정보 기반 사람의 피부 영역 검출 방법에 관한 것으로서, (a) 상기 스테레오 3차원 영상으로부터 깊이 정보를 추출하는 단계; (b) 상기 깊이 정보의 영상을 대상으로 레이블링하는 단계; (c) 상기 3차원 영상으로부터 피부색상 영역을 검출하는 단계; (d) 상기 레이블링 영역과 상기 피부색상 영역을 AND 결합하여 피부 영역의 후보군을 검출하는 단계; 및, (e) 상기 피부 영역의 후보군에서 질감 복잡도를 평가하여 최종적인 피부 영역을 검출하는 단계를 포함하는 구성을 마련한다.
상기와 같은 피부 영역 검출 방법에 의하여, 색상 특징과 깊이 특징을 효과적으로 결합함으로써 기존의 배경 영역에서 부정확하게 검출되는 피부색상 영역의 오류를 상당수 제거할 수 있고, 이로 인해 전반적으로 보다 정확하게 피부영역을 추출할 수 있다.

Description

깊이 정보 기반 사람의 피부 영역 검출 방법 { A Method of Detecting Human Skin Region Utilizing Depth Information }
본 발명은 스테레오 3차원 영상으로부터 유사한 깊이 특징을 가지는 화소들을 레이블링하고, 레이블링한 영역 중에서 인간의 피부색상 분포를 가지는 영역들을 실제적인 피부색상 영역으로 검출하는 깊이 정보 기반 사람의 피부 영역 검출 방법에 관한 것이다.
최근 들어, 저가의 디지털 카메라, 그리고 카메라가 내장된 스마트 폰이나 태블릿 컴퓨터 등의 빠른 보급으로 인해 정지영상이나 동영상을 촬영하기가 매우 용이해졌으며, 이로 인해 영상 자료들의 양도 기하급수적으로 늘어나고 있다. 더불어, 이런 자료들을 효과적으로 관리하기 위한 다양한 영상 분석 기술에 대한 관심도 꾸준히 증가하고 있다.
이런 영상 분석 분야에서 수행되는 중요한 연구주제들 중의 하나는 주어진 영상에서 특정한 색상을 가지고 있는 영역을 찾는 것이다. 이 주제들 중에서 특히 인간의 피부색상(skin color)을 나타내는 영역을 정확하게 추출하는 기법은 입력되는 정지영상 또는 동영상으로부터 사람을 검출하는데 필요한 의미 있는 단서를 제공하므로 매우 중요하다. 그리고 이런 피부색상의 추출은 여러 응용분야, 예를 들어 이동 물체의 감지 및 추적, 손 영역 검출을 이용한 제스처 인식, 얼굴 인식, 내용기반의 영상 검색, 유해 콘텐츠 탐지 및 필터링 등의 분야에서 매우 유용하게 사용된다[문헌 1,2].
관련 문헌에서 2차원 위주의 피부색상 영역을 추출하는 기존의 여러 방법들을 확인할 수 있다. Lee는 YCbCr 공간에서 특별한 조명 효과에 기인한 색상 치우침을 견딜 수 있는 피부 색상 모델들을 이용해 피부 색상을 분할했다[문헌 3]. 그런 다음, 여러 가지 특징들을 이용하여 분할된 피부 영역의 진위 여부를 파악했다. Cho는 HSV 칼라공간을 이용하여 어떤 정해진 임계값을 기준으로 영상 전체의 색상 및 밝기에 따라 임계값을 적응적으로 이동시켜 얼굴 영역을 찾는 방법을 제안하였다[문헌 4]. 이 방법은 한 인종(황인종)만의 피부색상 영역 검출을 시도하였으므로, 다른 인종(백인 또는 흑인)의 피부색상이 존재할 경우에는 문제가 발생하였다. Hsu는 EyeMap과 MouthMap을 이용하여 얼굴을 검출하는 새로운 방법을 제안하였다[문헌 5]. 이 방법에서 얼굴의 구성요소는 피부색상 모델로부터 유도된 특징맵을 사용하여 검출하였으며, 검출된 얼굴 구성요소들의 기하학적인 특징을 기반으로 서로의 관계가 정의되었다. 그러나 이 방법은 간단한 기하학적인 관계만을 사용하였기 때문에 유연성에 여러 가지 제한이 있었다. Fang은 얼굴 검출을 위한 새로운 칼라 히스토그램 기반의 방법을 제안하였다[문헌 6]. 이 방법에서는 얼굴의 서로 다른 영역에 대한 칼라 히스토그램을 연결하여 이 영역들 사이의 공간적인 관계를 설정하는 벡터를 형성하였고, 이 벡터를 이용하여 효과적으로 얼굴을 검출하는 알고리즘을 개발하였다. 위에서 언급한 방법들 이외의 다른 방법들도 계속해서 문헌에 소개되고 있다[문헌 7].
이런 기존의 알고리즘들은 피부 색상 영역 추출 알고리즘에 여전히 많은 문제를 내포하고 있다. 즉, 인간의 피부 색상은 개인 간의 차이나 인종(race) 사이의 차이 등으로 인해 촬영된 영상에 포함된 피부 색상은 기본적으로 동일하지 않다. 뿐만 아니라, 색조화장, 분장, 사용된 카메라, 조명의 변화 등의 여러 가지 다른 환경조건으로 인해서 입력영상 내에 존재하는 피부 색상은 조금씩 다르다. 특히, 색상, 텍스처, 모양, 그리고 기하학적인 관계 등의 2차원적인 특징만을 사용하여 피부색상을 추출하는 것은 제한점이 존재한다.
상기와 같은 피부 색상 영역 추출 방법을 3차원 영상에 적용하여 사람의 얼굴 영역을 검출할 수 있다. 그러나 이 경우에도 2차원 영상의 피부 색상 영역 추출 방법에서 나타나는 문제점이 여전히 존재한다.
따라서 2차원 위주의 피부색상 추출 방법에서 가장 많이 사용하는 색상 특징과, 3차원 영상의 특징인 3차원적인 거리(depth) 정보를 결합하여 보다 정확하게 피부색상 영역을 검출하는 방법이 필요하다.
[문헌 1] A. Drosou, D. Ioannidis, K. Moustakas, and D. Tzovaras, "Spatiotemporal Analysis of Human Activities for Biometric Authentication," Computer Vision and Image Understanding, Vol. 116, No. 3, pp. 411-421, 2012. [문헌 2] S.-W. Jang, Y.-J. Park, G.-Y. Kim, and S.-Y. Lee, "Skin Region Extraction Combining 3D Depth and Color Features," In Proc. of the Winter Conference on the Korea Society of Computer and Information, Vol. 20, No. 1, pp. 201-204, 2012. [문헌 3] J.-S. Lee, Y.-M. Kuo, P.-C. Chung, and E.-L. Chen, "Naked Image Detection based on Adaptive and Extensible Skin Color Model," Pattern Recognition, Vol. 40, No. 8, pp. 2261-2270, 2007. [문헌 4] K.-M. Cho, J.-H. Jang, and K.-S. Hong, "Adaptive Skin-Color Filter," Pattern Recognition, Vol. 34, No. 5, pp. 1067-1073, 2001. [문헌 5] R.-L. Hsu, M. Abdel-Mottaleb, and A. K. Jain, "Face Detection in Color Images," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 24, No. 5, pp. 696-706, 2002. [문헌 6] J. Fang and G. Qiu, "A color histogram-based approach to human face detection," In Proc. of the International Conference on Visual Information Engineering, pp. 133- 136, 2003. [문헌 7] K. M. Lee, "Component-based Face Detection and Verification," Pattern Recognition Letters, Vol. 29, No. 3, pp. 200-214, 2008. [문헌 8] N. Baha and S. Larabi, "Accurate Real-Time Neural Disparity MAP Estimation with FPGA," Pattern Recognition, Vol. 45, No. 3, pp. 1195-1204, 2012. [문헌 9] Y.-M. Paik, H.-J. Choi, Y.-H. Seo, and D.-W. Kim, "A Study on the Outlier Improvement Method Using Cost Function," In Proc. of the Fall Conf. of the Korean Society of Broadcasting Engineers, pp. 269-272, 2009. [문헌 10] G.-J. Liu, X.-L. Tang, H.-D. Cheng, J.-H. Huang, and J.-F. Liu, "A Novel Approach for Tracking High Speed Skaters in Sports Using a Panning Camera," Pattern Recognition, Vol. 42, No. 11, pp. 2922-2935, 2009. [문헌 11] H.-H. Do, S. Melnik, and E. Rahm, "Comparison of Schema Matching Evaluations," Lecture Notes in Computer Science, Vol. 2593, pp.221-237, 2003. [문헌 12] N. Otsu, "A Threshold Selection Method from Gray-Level Histogram," IEEE Transactions on Systems, Man and Cybernetics, Vol. 9, No. 1, pp. 62-66, 1979.
본 발명의 목적은 상술한 바와 같은 문제점을 해결하기 위한 것으로, 스테레오 3차원 영상으로부터 유사한 깊이 특징을 가지는 화소들을 레이블링하고, 레이블링한 영역 중에서 인간의 피부색상 분포를 가지는 영역들을 실제적인 피부색상 영역으로 검출하는 깊이 정보 기반 사람의 피부 영역 검출을 제공하는 것이다.
상기 목적을 달성하기 위해 본 발명은 좌우 영상으로 구성된 스테레오 3차원 영상으로부터 사람의 피부 영역을 검출하는 깊이 정보 기반 사람의 피부 영역 검출 방법에 관한 것으로서, (a) 상기 스테레오 3차원 영상으로부터 깊이 정보를 추출하는 단계; (b) 상기 깊이 정보의 영상을 대상으로 레이블링하는 단계; (c) 상기 3차원 영상으로부터 피부색상 영역을 검출하는 단계; (d) 상기 레이블링 영역과 상기 피부색상 영역을 AND 결합하여 피부 영역의 후보군을 검출하는 단계; 및, (e) 상기 피부 영역의 후보군에서 질감 복잡도를 평가하여 최종적인 피부 영역을 검출하는 단계를 포함하는 것을 특징으로 한다.
또, 본 발명은 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서, 상기 (a)단계에서, 그래프 컷(graph cuts) 기반의 스테레오 매칭 기법을 사용하여 깊이정보를 추출하는 것을 특징으로 한다.
또, 본 발명은 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서, 상기 (a)단계에서, 상기 스테레오 3차원 영상의 좌우 칼라 영상을 좌우 그레이 영상으로 변환하고, 상기 좌우 그레이 영상 간의 스테레오 정합을 적용하여 깊이 정보를 추출하는 것을 특징으로 한다.
또, 본 발명은 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서, 상기 (c)단계에서, 상기 3차원 영상에서 눈 영역을 검출하여, 검출된 눈 영역으로부터 피부맵을 생성하고, 상기 피부맵으로부터 피부색상 모델을 생성하여 피부색상 영역을 추출하는 것을 특징으로 한다.
또, 본 발명은 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서, 상기 (c)단계에서, 추출된 눈 영역에 해당하는 최소 포함 사각형(MER)의 확장된 영역에 위치한 샘플을 선정하고, 선정된 샘플로부터 [수식 1]와 같은 피부 맵(skin map)을 생성하는 것을 특징으로 한다.
[수식 1]
Figure pat00001
단, Cr과 Cb는 눈 영역에 해당하는 최소 포함 사각형(MER)의 확장된 영역에 위치한 YCbCr 공간의 화소값이고,
Figure pat00002
Figure pat00003
는 각각 일반적인 피부 색상의 YCbCr 공간의 화소값 임.
또, 본 발명은 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서, 상기 (e)단계에서, 상기 피부 영역의 후보군에 속하는 영역(이하 후보 영역)에 대하여, 소벨(Sobel) 에지 연산자를 적용하여 에지의 정도를 추출하여 질감 복잡도를 계산하는 것을 특징으로 한다.
또, 본 발명은 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서, 상기 피부 영역의 후보군에 속하는 i번째 후보 피부영역에 대한 질감 복잡도 T(Ri)는 [수식 2]에 의해 계산되는 것을 특징으로 한다.
[수식 2]
Figure pat00004
단, Igray(x,y)는 x와 y 위치에서의 명암값이고,
wh(x,y)와 wv(x,y)는 소벨 에지 연산자의 수평과 수직 마스크이고,
E(x,y)는 x와 y 위치에서의 에지 정도이고,
N(Ri)는 영역 Ri에 속한 화소의 개수임.
상술한 바와 같이, 본 발명에 따른 깊이 정보 기반 사람의 피부 영역 검출 방법에 의하면, 색상 특징과 깊이 특징을 효과적으로 결합함으로써 기존의 배경 영역에서 부정확하게 검출되는 피부색상 영역의 오류를 상당수 제거할 수 있고, 이로 인해 전반적으로 보다 정확하게 피부영역을 추출할 수 있는 효과가 얻어진다.
도 1은 본 발명을 실시하기 위한 전체 시스템의 구성을 도시한 도면이다.
도 2는 본 발명의 일실시예에 따른 깊이 정보 기반 사람의 피부 영역 검출 방법을 설명하는 흐름도이다.
도 3은 스테레오 정합의 기본 개념을 설명하기 위한 도면이다.
도 4는 본 발명에 따라 스테레오 영상에서 깊이정보를 추출하는 일례를 도시한 것이다.
도 5는 본 발명의 일실시예에 따라 피부색상 영역을 추출하는 단계를 설명하는 흐름도이다.
도 6은 본 발명에 따라 피부맵 생성과 이진화 과정의 일례를 도시한 것이다.
도 7은 본 발명에 따른 소벨 연산자 마스크의 일례이다.
도 8은 본 발명의 실험에 따른 피부영역 검출의 일례이다.
도 9는 본 발명의 실험에 따른 종래기술과의 성능 비교에 대한 표이다.
도 10은 본 발명의 실험에 따른 종래기술과의 성능 비교에 대한 그래프이다.
도 11은 본 발명의 일실시예에 따른 깊이 정보 기반 사람의 피부 영역 검출 시스템의 구성에 대한 블록도이다.
이하, 본 발명의 실시를 위한 구체적인 내용을 도면에 따라서 설명한다.
또한, 본 발명을 설명하는데 있어서 동일 부분은 동일 부호를 붙이고, 그 반복 설명은 생략한다.
먼저, 본 발명을 실시하기 위한 전체 시스템의 구성의 예들에 대하여 도 1을 참조하여 설명한다.
도 1에서 보는 바와 같이, 본 발명에 따른 깊이 정보 기반 사람의 피부 영역 검출 방법은 스테레오 영상(또는 이미지)(10)을 입력받아 상기 영상(또는 이미지)에서 사람의 피부 영역을 검출하는 컴퓨터 단말(20) 상의 프로그램 시스템으로 실시될 수 있다. 즉, 상기 피부 영역 검출 방법은 프로그램으로 구성되어 컴퓨터 단말(20)에 설치되어 실행될 수 있다. 컴퓨터 단말(20)에 설치된 프로그램은 하나의 프로그램 시스템(30)과 같이 동작할 수 있다.
한편, 다른 실시예로서, 상기 스테레오 정합 방법은 프로그램으로 구성되어 범용 컴퓨터에서 동작하는 것 외에 ASIC(주문형 반도체) 등 하나의 전자회로로 구성되어 실시될 수 있다. 또는 디지털 영상(또는 이미지)의 피부 영역 검출 등만을 전용으로 처리하는 전용 컴퓨터 단말(20)로 개발될 수도 있다. 이를 피부 영역 검출 장치라 부르기로 한다. 그 외 가능한 다른 형태도 실시될 수 있다.
다음으로, 본 발명의 일실시예에 따른 깊이 정보 기반 사람의 피부 영역 검출 방법을 도 2를 참조하여 보다 구체적으로 설명한다.
도 2에서 보는 바와 같이, 본 발명에 따른 깊이 정보 기반 사람의 피부 영역 검출 방법은 (a) 3차원 영상으로부터 깊이 정보를 추출하는 단계(S10); (b) 깊이정보에서 화소들을 레이블링하여 영역을 분할하는 단계(S20); (c) 피부색상 영역을 추출하는 단계(S30); (d) 레이블링 영역과 상기 피부색상 영역을 AND 결합하여 피부 영역의 후보군을 검출하는 단계(S40); 및, (d) 질감 복잡도를 이용하여 최종적인 피부 영역을 검출하는 단계(S50)로 구성된다.
본 발명은 기본적으로 3차원의 입체영상을 입력 받는다. 일반적으로, 3차원의 입체 디스플레이는 다시점 스테레오스코픽(stereoscopic) 비전 기술을 적용하여 2차원 영상에 깊이 정보를 부가하고, 이 깊이 정보로 인하여 시청자가 마치 영상이 제작되고 있는 현장에 있는 것 같은 생동감 및 현실감을 느낄 수 있게 하는 차세대 신기술이다.
도 2는 본 발명에 따른 피부색상 영역 추출 방법의 전체적인 개요도를 블록 다이어그램의 형태로 보여준다. 제안된 방법은 먼저 입력된 칼라 영상을 그레이 영상으로 변환한 후, 스테레오 정합 기법을 이용하여 좌우 영상으로부터 카메라와 물체 사이의 거리를 나타내는 3차원의 깊이 특징을 추출한다. 그런 다음, 유사한 깊이 특징을 가지는 화소들을 레이블링하고, 레이블링한 영역 중에서 2차원의 피부색상 분포를 가지는 영역들만을 실제적인 피부색상 영역이라고 판단한다.
먼저, 3차원 영상으로부터 깊이 정보를 추출하는 단계(S10)를 설명한다.
3차원의 깊이정보 추출을 위한 스테레오(stereo) 정합은 컴퓨터 비전 분야의 고전적인 문제 중의 하나이며, 로봇 네비게이션, 3차원 모델링, 영상 기반 렌더링 등의 많은 응용 분야에서 유용하게 사용된다. 스테레오 정합의 목적은 동일한 장면에 대한 두 개 이상의 영상이 주어질 때 참조(reference) 영상에 대한 변이(disparity) 맵을 계산하는 것인데, 여기서 변이는 대응하는 두 개 화소 사이의 위치의 차이를 의미한다. 그리고 변이 맵을 계산하기 위해서는 각 화소에 대한 대응성(correspondence) 문제를 해결해야 한다[문헌 8].
일반적으로, 양안 스테레오인 경우 두 개의 입력영상은 보정된 카메라로 촬영되었고 교정(rectification)되었다고 가정하면 에피폴라 라인들은 수평이 된다. 그러나 이런 제약사항에도 불구하고 스테레오 정합의 불량조건(ill-posed) 특성 때문에 변이를 정확하게 결정하는 것은 여전히 어려운 문제로 남아 있다. 특히, 중첩되거나 텍스처가 부족한 영역에서는 더욱 어렵다[문헌 9].
보통, 스테레오 정합 알고리즘은 크게 지역적인 방법과 전역적인 방법으로 분류될 수 있다. 지역적인 방법은 대응점 검색의 구분력을 증가시키기 위해서 정합을 위한 일정한 크기의 윈도우를 사용한다. 이 방법에서 대응점은 지역적인 윈도우 안에서 다양한 정합 척도를 사용하여 명암값을 비교함으로써 추출될 수 있다. 이 방법은 매우 빠르나 지역적으로 중첩되거나 텍스처가 부족한 영역, 그리고 변이가 불연속적인 경계 부분에서는 정확도가 저하된다는 단점이 있다.
전역적인 방법은 스테레오 정합의 불량조건(ill-posed) 문제를 해결하기 위해서 완만성(smoothness) 제한조건을 가진 에너지 최소화 알고리즘을 사용한다. 따라서 이 방법은 텍스처가 부족한 영역에서도 대응점을 찾을 수 있다. 그러나 완만성 제한조건으로 인해 변이정보의 불연속성을 제거시킨다. 따라서 불연속성을 보존하는 완만성 제한조건을 사용하는 스테레오 정합 알고리즘이 소개되었다. 전역적인 방법은 다양한 최소화 기법에 의해 대응점을 추출하는데, 최근에는 그래프 컷(graph cuts)과 신뢰 전파(belief propagation) 기반의 알고리즘들이 우수한 성능 때문에 많이 사용되고 있다. 그러나 상당수의 전역적인 방법들은 중첩 문제를 명확히 고려하지 않고 있다.
본 발명에서는 그래프 컷(graph cuts) 기반의 스테레오 매칭 기법을 사용하여 거리를 측정한다. 이 방법의 경우 색상정보는 고려하지 않고 그레이 영상을 사용한다.
그래프 컷 기반의 방법은 전역적 최소화 방법 중의 하나이다. 컴퓨터 비전에서 에너지 함수를 최소화 하기 위한 많은 작업 중의 하나는 모든 픽셀에 레이블(label)을 할당하는 것인데, 보통 스테레오 분야에서 레이블은 변이(disparity)를 의미한다. 이 문제는 각각의 픽셀에 레이블 p ∈ P을 fp ∈ L 로 할당하는 f 를 찾아내는 것을 목표로 한다. 여기서 P는 픽셀의 집합이고 L은 레이블의 집합이다. 그리고 이 문제를 해결하기 위해 에너지 함수를 공식화 할 수 있는데 함수의 형태는 다음과 같다.
Figure pat00005
여기서 Dp 는 픽셀 p에 레이블 fp 를 얼마나 잘 할당할 수 있는지를 나타내는 데이터 항이다. Vp ,q 는 완만성 항(Smoothness term)으로 픽셀 p, q 사이의 변이 변화를 나타낸다. 결론적으로, 그래프 컷은 에너지 함수를 최소화하는 f 를 찾기 위해 사용된다.
먼저 [수학식 1]을 이용하여 입력된 스테레오 칼라 영상을 그레이 영상으로 변환한다.
[수학식 1]
Figure pat00006
단, r, g, b는 입력영상의 r, g, b 칼라값을 의미하고, gray는 흑백으로 변환시킨 화소의 명암값을 나타낸다.
입력 영상을 그레이 영상으로 변환한 후에는 좌우 영상 간의 정합을 통해 깊이정보를 추출한다. 좌우 영상으로부터 깊이 정보를 추출하는 기본적인 개념은 도 3과 같다. 도 3과 같이, P는 실세계의 한 점, xl과 xr은 P가 좌우 영상에 맺힌 x좌표, f는 카메라의 초점거리, T는 카메라의 기선장(baseline), 그리고 Z는 추출하고자 하는 깊이 값이라고 하자. 그러면 두 개의 삼각형 (pl,P,pr)과 (Ol,P,Or)은 닮은 형태이므로 [수학식 2]가 성립하고, [수학식 2]를 Z에 대해 전개하면 [수학식 3]과 같이 정리가 되어 깊이 정보인 Z를 추출할 수 있게 된다.
[수학식 2]
Figure pat00007
[수학식 3]
Figure pat00008
스테레오 정합을 통한 좌우 영상의 변이(disparity)를 추출하는 작업은 앞서 설명했듯이 기존의 알고리즘인 그래프 컷 기반의 방법으로 추출한다. 그리고 [수학식 2]에서 변이는 xl - xr 을 나타내며, [수학식 3]에서 xl - xr 은 간단히 d로 표시된다. 결국, [수학식 3]에서 깊이 정보 Z는 변이 d를 이용하여 추출된다.
다음으로, (b) 깊이정보에서 화소들을 레이블링하여 영역을 분할하는 단계(S20)를 설명한다.
본 발명에서는 깊이 정보를 추출한 후에 깊이 값이 유사한 화소들을 레이블링하여 영역 단위로 분할한다. 즉, 깊이 정보로 구성된 2차원 영상을 대상으로 유사한 깊이에 대한 화소들을 레이블링하여 영상을 유사한 깊이 값을 가지는 영역 단위로 분할한다. 이때, 영상의 깊이 값의 차이가 소정의 범위 내인 포함되는 화소들을 동일하게 레이블링함으로써, 영역단위로 분할한다.
도 4는 스테레오 영상으로부터 깊이를 추출한 예를 보여준다. 도 4의 (a)와 (b)는 스테레오 영상의 왼쪽과 오른쪽 영상을 나타내고, (c)는 좌우 입력영상으로부터 스테레오 정합 알고리즘을 적용하여 깊이 정보를 추출한 결과를 보여준다.
다음으로, (c) 피부색상 영역을 추출하는 단계(S30)를 도 5를 참조하여 보다 구체적으로 설명한다.
본 발명에서는 색상을 이용하여 영상으로부터 피부색상 영역을 획득한 후 이전 단계에서 추출한 깊이정보와 결합하여 최종적인 피부색상 영역을 추출한다.
일반적으로, 기존의 대부분의 피부색상 추출 방법은 사전 학습을 통해 미리 정의된 피부색상 분포 모델을 사용하지만 여전히 본질적인 문제를 가지고 있다. 즉, 개개인의 고유한 피부색상의 차이 및 인종 간의 피부색상의 차이로 인해 사람마다 피부색상 자체가 동일하지 않다. 또한, 특수 분장이나 색조화장, 촬영 시 사용하는 광학기기, 조명 효과 등으로 인해 획득된 영상의 피부색상 영역이 동일하지 않다. 따라서 사전에 정의된 피부모델을 이용하는 기존의 알고리즘은 위에서 언급한 여러 가지의 변화를 극복하기가 어렵다. 이런 문제를 해결하기 위한 최적의 솔루션은 서로 다른 영상이 입력될 때마다 사람별로 고유한 피부색상 샘플을 신뢰성 있게 선택하여 입력영상에 적응적인 피부모델을 생성한 후, 이 피부모델을 이용해서 입력영상의 피부색상 영역을 추출해야 한다.
이를 위해, 본 발명에서는 입력영상으로부터 얼굴의 주요 구성요소인 눈을 찾고, 찾아진 눈 영역 주변의 피부색상 샘플을 신뢰성 있게 추출하여 입력영상에 최적으로 적합한 피부모델을 생성한다. 그리고 이 모델을 이용하여 입력영상으로부터 피부영역을 추출한다. 이때, 입력 영상은 스테레오 3차원 영상의 좌우영상 중 어느 하나의 칼라 영상이다.
도 5a에서 보는 바와 같이, (c) 피부색상 영역을 추출하는 단계(S30)는 (c1) 전처리 단계(S31); (c2) 눈 영역을 검출하는 단계(S32); (c3) 눈 영역이 검출되지 않으면, 사전에 정해진 피부맵을 선정하는 단계(S33); (c4) 눈 영역이 검출되면, 눈 영역으로부터 피부맵을 생성하는 단계(S34); (c5) 피부맵으로부터 피부색상 모델을 생성하는 단계(S35); (c6) 피부색상 모델을 이용하여 피부색상 영역을 추출하는 단계(S36)로 구성된다.
먼저, 전처리로서, 입력된 영상의 칼라공간 RGB 를 [수학식 4]와 같이 피부색상 추출에 가장 적합하다고 알려진 YCbCr 공간으로 변환한다(S31).
[수학식 4]
Figure pat00009
다음으로, 색상과 명암 기반의 맵을 혼합한 아이맵(EyeMap)[문헌 5]을 이용하여 양쪽 눈 영역을 검출한다(S32).
다음으로, 눈 영역이 검출되지 않으면, 사전에 정해진 피부맵으로 이용할 피부맵을 선정한다(S33).
다음으로, 눈 영역이 검출되면, 눈 영역으로부터 피부맵을 생성한다(S34).
추출된 눈 영역에 해당하는 최소 포함 사각형(MER)의 5배 확장된 영역에 위치한 샘플을 선정하고, 선정된 샘플로부터 아래 [수학식 5]와 같은 피부 맵(skin map)을 생성한다(S34).
[수학식 5]
Figure pat00010
여기서,
Figure pat00011
Figure pat00012
는 각각 일반적인 피부 색상의 Cr과 Cb 값을 나타낸다. 그리고 피부 맵은 0에서 255사이의 값의 범위를 가지는데, 선택된 샘플이 평균적인 피부 색상에 근접할수록 255와 가까운 값을 가진다.
도 6은 입력영상으로부터 피부 맵을 생성한 후 이를 이진화하는 예를 보여주고 있다. 도 6에서 왼쪽 영상의 양쪽 눈 주변에 있는 사각형이 눈 영역 최소 포함 사각형의 5배 확장된 영역을 나타낸다. 이 영역으로부터 샘플들을 선택하고 피부 맵을 생성하면 도 6의 중앙에 위치한 그림이 된다. 다시 말해, 최소 포함 사각형의 5배 안에 위치한 각각의 샘플들에 [수학식 5]를 적용하면 피부 맵이 생성된다. 그런 다음, 피부 맵을 피부 영역과 비 피부영역으로 이진화하면 도 6의 오른쪽에 위치한 영상이 된다.
[수학식 5]에서 Cr과 Cb는 눈 영역에 해당하는 최소 포함 사각형(MER)의 5배 확장된 영역에 위치한 샘플들의 Cr과 Cb 값을 의미한다. 그리고
Figure pat00013
Figure pat00014
는 일반화된 피부 모델의 Cr과 Cb 값이다.
이와 같이 하는 이유는 3차원 입력영상에서 추출한 샘플의 화소값이 피부색상에 가까운 색상인지 아닌지를 1차적으로 판정하기 위함이다. 즉, 일반화된 피부 모델의 Cr과 Cb 값은 모든 입력영상에 대해서 100퍼센트 정확한 피부색상 값이 아니나, 인간의 피부색상과 유사한 값을 가지고 있다.
다음으로, 피부 맵을 이진화한 후 피부색상이라고 판단된 피부 맵만을 이용하여 피부색상 모델을 생성하고(S35), 위의 과정을 통해 생성된 피부색상 모델을 이용해서 전체 영상으로부터 피부색상 영역을 강건하게 추출한다(S36).
즉, 일반화된 피부 모델의 Cr과 Cb 값을 이용하여 1차적으로 피부 맵을 생성한 후, 피부맵의 이진화를 통하여 1차적으로 생성된 피부맵 중에서 피부색상이 아니라고 판단된 샘플들을 제거하고 실제적인 피부색상 샘플들만을 선택하여 피부색상 모델을 생성한다.
피부 맵에서 피부 샘플 화소만을 선택하기 위해 본 발명에서는 Otsu에 의해 제안된 히스토그램 이진화 방법을 사용한다[문헌 12]. Otsu 방법은 명암 히스토그램을 이진화하는 최적의 임계치를 사전지식 없이 통계적으로 선택하며, 히스토그램이 두 개의 확률밀도를 가질 때 성능이 우수하다고 알려져 있다. 본 논문에서는 피부 맵 내에 포함된 자료들에 대한 히스토그램을 작성하고, Otsu 방법에 의해 히스토그램을 이진화하여 비 피부색상 화소들을 제외하고 피부색상 화소들만을 선택한다.
도 5b는 도 5a의 과정을 다르게 표현한 것으로서, 앞서 기술한 입력영상에 적응적인 피부모델을 이용하여 피부색상 영역을 강건하게 추출하는 방법의 전체적인 개요도를 보여준다. 도 5b에서 확인할 수 있듯이 입력영상에서 사람의 눈이 존재하지 않거나 사람이 눈을 감아서 눈을 검출할 수 없는 경우에는 기존의 방법에서처럼 사전에 정의된 피부 모델을 사용하여 피부색상 영역을 추출하므로 제안된 방법의 실행 안정성에는 전혀 문제가 없다.
다음으로, (d) 레이블링 영역과 상기 피부색상 영역을 AND 결합하여 피부 영역의 후보군을 검출한다(S40). 즉, 앞서 S20 단계의 깊이정보 영상에서 레이블링된 영역과, 3차원 영상의 칼라 영상에서 검출한 색상 기반의 피부영역을 결합하여, 입력영상에서 3차원적인 피부색상 영역을 검출한다(S40).
이를 위해, 먼저 거리 영상으로부터 동일한 레벨을 가지는 거리 영역을 레이블링하는데, 일반적으로 동일한 객체에서는 여러 가지 레벨의 거리가 측정된다. 그런 다음, [수학식 5-2]와 같이 레이블링된 거리 영상(깊이 영상)과 입력 영상에 적응적인 피부색상 모델을 사용하여 추출한 이진화된 피부색상 영상을 AND 연산하여 2차원 피부영역에 대응하는 거리영상만을 선택한다.
[수학식 5-2]
Figure pat00015
다시 말해, 위의 [수학식 5-2]는 아래와 같이 기술할 수 있는데, Idepth(x,y)는 깊이 영상을 의미하고, Ibi _ skin(x,y)는 색상 기반의 이진화된 피부영역을 의미하며, Idepth'(x,y)는 [수학식 5-2]의 AND 연산을 통해 획득한 2차원 피부영역에 대응하는 거리영상을 의미한다. 레이블링 영역과 상기 피부색상 영역을 AND 연산하여 피부 영역을 검출하는 알고리즘은 다음과 같다.
[알고리즘]
IF Ibi _ skin(x,y) ≡ 0 THEN
Idepth'(x,y) = Idepth(x,y)
ELSE
Idepth'(x,y) = 0
END IF
그러면 Idepth'(x,y)와 색상 기반으로 추출한 피부영상인 Iskincolor(x,y)로부터 깊이 특징에 대한 레이블별로 피부색상 영역의 후보군을 추출할 수 있다.
다음으로, (d) 질감 복잡도를 이용하여 최종적인 피부 영역을 검출하는 단계(S50)를 설명한다. 즉, 상기 피부 영역의 후보군에서 질감 복잡도를 평가하여 최종적인 피부 영역을 검출한다(S50).
최종적인 3차원 피부영역을 선택하기 위해서 거리 레이블별 피부영역 후보군의 질감 복잡도(texture smoothness)를 평가한다. 일반적으로, 피부색상 영역은 질감이 거칠지 않고 완만하다는 특성을 가지고 있으므로 3차원 피부영역 후보군의 질감 복잡도를 측정하여 질감이 거친 영역들은 제거하고 완만한 영역들만을 실제적인 피부영역으로 판단한다.
본 발명에서는 질감 복잡도 측정을 위해서 해당하는 영역 내에 소벨(Sobel) 에지 연산자를 적용하여 에지의 정도를 추출한다. 즉, 해당 영역 내에 에지가 많이 존재할수록 질감이 거칠다는 것을 나타내며, 에지가 적게 존재할수록 질감이 완만하다는 의미이다. 보통, 소벨 에지 연산자는 에지를 검출하는 미분 연산자로 x축과 y축으로 각각 한 번씩 미분을 수행하는데, 소벨 연산자에 해당하는 회선(convolution) 마스크는 다음의 도 7과 같다.
깊이 영상과 이진화된 피부영상과의 AND 연산을 통해 추출한 i번째 후보 피부영역 Ri에 대한 질감 복잡도 T(Ri)는 [수학식 6]과 같이 추출할 수 있다. [수학식 6]에서 Igray(x,y)는 x와 y 위치에서의 명암값을 의미하고, wh(x,y)와 wv(x,y)는 소벨 에지 연산자의 수평과 수직 마스크를 의미한다. 그리고 E(x,y)는 x와 y 위치에서의 에지 정도를 나타내고, N(Ri)는 영역 Ri에 속한 화소의 개수를 의미한다.
[수학식 6]
Figure pat00016
본 발명에서는 [수학식 6]을 이용하여 각 후보 피부영역에 대한 질감 복잡도를 계산한 후 적절한 임계치 범위(또는 사전에 정해진 임계치 범위) 내에 포함된 후보영역만을 실제 피부영역이라고 판단한다. 본 발명에서는 다양한 입체 영상을 이용한 실험을 통해서 질감 복잡도에 대한 임계치를 결정하였다.
다음으로, 실험을 통한 본 발명의 효과를 도 8 내지 도 10을 참조하여 보다 구체적으로 설명한다.
본 발명의 실험을 위하여 사용한 컴퓨터는 인텔 코어 i7-2600의 3.40GHz CPU와 8GB의 메모리를 사용하였고, 운영체제는 마이크로소프트사의 Windows 7을 사용하였다. 그리고 응용 소프트웨어의 구현을 위한 컴파일러로는 마이크로소프트사의 Visual C++ 2008을 이용하여 제안된 피부색상 영역 추출 알고리즘을 구현하였다. 또한, 실험에 사용할 영상 데이터베이스의 구축을 위해서 특정한 제약조건이 주어지지 않은 일반적인 환경에서 촬영한 다양한 3차원의 정지 및 동영상을 수집하여 활용하였다.
도 8은 본 발명을 이용하여 입력된 영상으로부터 피부영역을 검출한 예를 보여준다. 도 8(a)는 입력된 스테레오 영상 중에서 좌측 영상을 보여주고, 도 8(b)는 입력영상으로부터 스테레오 정합을 통해 측정한 거리영상을 보여준다. 그리고 도 8(c)는 2차원 피부색상 모델을 이용하여 피부영역을 추출한 이진 결과영상을 보여주며, 도 8(d)는 거리영상과 색상 기반의 피부영역을 결합하여 최종적으로 검출한 3차원적인 피부영역을 나타낸다.
도 8의 (c)에서 확인할 수 있듯이 2차원적인 피부색상 모델을 이용하여 추출한 피부색상 영역은 많은 오 검출을 포함하고 있다. 즉, 사람의 피부영역이 아닌 배경 영역에서 피부색상과 유사한 영역이 존재할 경우 피부영역으로 오 검출한다. 그러나 2차원적인 피부색상 특징에 깊이 특징을 결합하여 검출한 3차원적인 피부색상 영역은 보다 정확하게 피부영역만을 추출함을 확인할 수 있다.
본 발명에서는 입력영상에서 텍스처가 매우 빈약하거나 없는 영역에서는 3차원의 깊이 정보를 추출하기가 어려우므로 피부색상 추출에 어려움이 존재할 수 있다.
본 발명에 따른 피부영역 검출 방법의 성능을 정량적으로 평가하기 위해서 [수학식 7]과 같은 오차의 제곱 평균 제곱근 (RMSE) 척도를 정의하였다. RMSE는 영상 화질의 일반적이면서도 구체적인 관점을 다루는 척도로 실제적인 값과 측정값의 차이를 측정하기 위해 종종 사용되는데, 정확성 측정에 있어 좋은 척도라고 알려져 있다[문헌 10].
[수학식 7]
Figure pat00017
[수학식 7]에서 M과 N은 영상의 가로와 세로의 길이를 나타내고, i와 j는 영상의 위치를 나타내는 행과 열의 인덱스이다. 그리고 OB(i,j)는 그라운드 트루스(ground truth) 이진영상을 의미하며, RB(i,j)는 피부영역을 검출한 이진결과영상을 나타낸다.
성능을 보다 정확히 평가하기 위해서 원래의 테스트 영상을 피부 영역과 비피부 영역으로 수작업으로 변환한 후 결과 영상과 비교 분석하였다. 그리고 피부영역 추출에는 두 가지 종류의 에러, 즉 false positive와 false negative가 존재하므로 다음 [수학식 8]과 같은 척도 overall을 정확도 평가에 사용한다[문헌 11].
[수학식 8]
Figure pat00018
도 9와 도 10은 기존의 2차원 피부영역 검출 방법과 본 발명에 따른 3차원의 피부영역 검출 방법을 비교 평가한 성능의 결과를 표와 그림으로 각각 보여준다.
도 10에서 확인할 수 있듯이 본 발명은 2차원 피부영역 검출 결과를 기반으로 최종적인 피부영역을 검출하기 때문에 precision은 제안된 방법이 조금 낮은 결과를 얻었다. 그러나 배경영역에 피부색상과 유사한 색상이 분포되어 있는 경우 2차원 피부영역 검출은 오 검출이 많이 발생하므로 다소 낮은 recall이 나온다. 이에 비해, 본 발명은 거리영상을 기준으로 영역을 분리하여 피부영역을 검증하기 때문에 오 검출율을 현저히 낮출 수 있으므로 precision과 recall 모두 좋은 결과를 얻을 수 있었다.
다음으로, 본 발명의 일실시예에 따른 깊이 정보 기반 사람의 피부 영역 검출 시스템을 도 11을 참조하여 설명한다.
앞서 설명한 바와 같이, 본 발명에 따른 깊이 정보 기반 사람의 피부 영역 검출 방법은 프로그램 시스템으로 구현될 수 있으며, 상기 방법의 각 단계를 하나의 기능적 수단으로 구성하여 구현될 수 있다.
피부 영역 검출 시스템(30)은 좌우 영상으로 구성된 스테레오 3차원 영상으로부터 사람의 피부 영역을 검출하는 시스템이다.
도 11에서 보는 바와 같이, 본 발명의 일실시예에 따른 깊이 정보 기반 사람의 피부 영역 검출 시스템은 스테레오 3차원 영상으로부터 깊이 정보를 추출하는 깊이정보 추출부(31); 상기 깊이 정보의 영상을 대상으로 레이블링하는 레이블링 수행부(32); 상기 3차원 영상으로부터 피부색상 영역을 검출하는 색상영역 검출부(33); 상기 레이블링 영역과 상기 피부색상 영역을 AND 결합하여 피부 영역의 후보군을 검출하는 후보영역 검출부(34); 및, 상기 피부 영역의 후보군에서 질감 복잡도를 평가하여 최종적인 피부 영역을 검출하는 최종영역 검출부(35)로 구성된다.
본 발명에서는 깊이 특징과 색상 특징을 결합하여 입력되는 3차원의 동영상에 존재하는 인간의 피부색상 영역들을 강건하게 추출하는 방법을 제안하였다. 본 발명에서는 먼저 스테레오 정합 기법을 이용하여 입력된 좌우 영상으로부터 카메라와 물체 사이의 거리인 3차원의 깊이 정보를 추출하였다. 그런 다음, 유사한 깊이 특징을 가지는 영역들을 군집화하고, 군집화된 영역 중에서 2차원의 피부색상 분포를 가지는 영역들을 실제적인 피부색상 영역이라고 판단하였다.
이상, 본 발명자에 의해서 이루어진 발명을 상기 실시 예에 따라 구체적으로 설명하였지만, 본 발명은 상기 실시 예에 한정되는 것은 아니고, 그 요지를 이탈하지 않는 범위에서 여러 가지로 변경 가능한 것은 물론이다.
10 : 3차원 영상 20 : 컴퓨터 단말
30 : 피부 영역 검출 시스템 31 : 깊이정보 추출부
32 : 레이블링 수행부 33 : 색상영역 검출부
34 : 후보영역 검출부 35 : 최종영역 검출부
36 : 메모리

Claims (7)

  1. 좌우 영상으로 구성된 스테레오 3차원 영상으로부터 사람의 피부 영역을 검출하는 깊이 정보 기반 사람의 피부 영역 검출 방법에 있어서,
    (a) 상기 스테레오 3차원 영상으로부터 깊이 정보를 추출하는 단계;
    (b) 상기 깊이 정보의 영상을 대상으로 레이블링하는 단계;
    (c) 상기 3차원 영상으로부터 피부색상 영역을 검출하는 단계;
    (d) 상기 레이블링 영역과 상기 피부색상 영역을 AND 결합하여 피부 영역의 후보군을 검출하는 단계; 및,
    (e) 상기 피부 영역의 후보군에서 질감 복잡도를 평가하여 최종적인 피부 영역을 검출하는 단계를 포함하는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
  2. 제1항에 있어서,
    상기 (a)단계에서, 그래프 컷(graph cuts) 기반의 스테레오 매칭 기법을 사용하여 깊이정보를 추출하는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
  3. 제1항에 있어서,
    상기 (a)단계에서, 상기 스테레오 3차원 영상의 좌우 칼라 영상을 좌우 그레이 영상으로 변환하고, 상기 좌우 그레이 영상 간의 스테레오 정합을 적용하여 깊이 정보를 추출하는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
  4. 제1항에 있어서,
    상기 (c)단계에서, 상기 3차원 영상에서 눈 영역을 검출하여, 검출된 눈 영역으로부터 피부맵을 생성하고, 상기 피부맵으로부터 피부색상 모델을 생성하여 피부색상 영역을 추출하는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
  5. 제4항에 있어서,
    상기 (c)단계에서, 추출된 눈 영역에 해당하는 최소 포함 사각형(MER)의 확장된 영역에 위치한 샘플을 선정하고, 선정된 샘플로부터 [수식 1]와 같은 피부 맵(skin map)을 생성하는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
    [수식 1]
    Figure pat00019

    단, Cr과 Cb는 눈 영역에 해당하는 최소 포함 사각형(MER)의 확장된 영역에 위치한 YCbCr 공간의 화소값이고,
    Figure pat00020
    Figure pat00021
    는 각각 일반적인 피부 색상의 YCbCr 공간의 화소값 임.
  6. 제1항에 있어서,
    상기 (e)단계에서, 상기 피부 영역의 후보군에 속하는 영역(이하 후보 영역)에 대하여, 소벨(Sobel) 에지 연산자를 적용하여 에지의 정도를 추출하여 질감 복잡도를 계산하는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
  7. 제6항에 있어서,
    상기 피부 영역의 후보군에 속하는 i번째 후보 피부영역에 대한 질감 복잡도 T(Ri)는 [수식 2]에 의해 계산되는 것을 특징으로 하는 깊이 정보 기반 사람의 피부 영역 검출 방법.
    [수식 2]
    Figure pat00022

    단, Igray(x,y)는 x와 y 위치에서의 명암값이고,
    wh(x,y)와 wv(x,y)는 소벨 에지 연산자의 수평과 수직 마스크이고,
    E(x,y)는 x와 y 위치에서의 에지 정도이고,
    N(Ri)는 영역 Ri에 속한 화소의 개수임.
KR1020120066939A 2012-06-21 2012-06-21 깊이 정보 기반 사람의 피부 영역 검출 방법 KR101357581B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120066939A KR101357581B1 (ko) 2012-06-21 2012-06-21 깊이 정보 기반 사람의 피부 영역 검출 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120066939A KR101357581B1 (ko) 2012-06-21 2012-06-21 깊이 정보 기반 사람의 피부 영역 검출 방법

Publications (2)

Publication Number Publication Date
KR20130143405A true KR20130143405A (ko) 2013-12-31
KR101357581B1 KR101357581B1 (ko) 2014-02-05

Family

ID=49986661

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120066939A KR101357581B1 (ko) 2012-06-21 2012-06-21 깊이 정보 기반 사람의 피부 영역 검출 방법

Country Status (1)

Country Link
KR (1) KR101357581B1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150130767A (ko) * 2014-05-14 2015-11-24 한국전자통신연구원 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
KR102555166B1 (ko) * 2022-10-04 2023-07-12 인하대학교 산학협력단 매우 미세한 얼굴 피부 정보를 포함하는 얼굴 텍스처 생성 방법 및 시스템

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100982197B1 (ko) * 2004-06-21 2010-09-14 구글 인코포레이티드 얼굴 인식 방법, 얼굴 인식 장치 및 컴퓨터 판독 가능한 기록 매체
KR101581954B1 (ko) * 2009-06-25 2015-12-31 삼성전자주식회사 실시간으로 피사체의 손을 검출하기 위한 장치 및 방법
KR101636370B1 (ko) * 2009-11-10 2016-07-05 삼성전자주식회사 영상 처리 장치 및 방법

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150130767A (ko) * 2014-05-14 2015-11-24 한국전자통신연구원 사용자의 손 영역을 검출하기 위한 사용자 손 검출 장치 및 그 동작 방법
US9342751B2 (en) 2014-05-14 2016-05-17 Electronics And Telecommunications Research Institute User hand detecting device for detecting user's hand region and method thereof
KR102555166B1 (ko) * 2022-10-04 2023-07-12 인하대학교 산학협력단 매우 미세한 얼굴 피부 정보를 포함하는 얼굴 텍스처 생성 방법 및 시스템

Also Published As

Publication number Publication date
KR101357581B1 (ko) 2014-02-05

Similar Documents

Publication Publication Date Title
US20200279121A1 (en) Method and system for determining at least one property related to at least part of a real environment
CN109344701B (zh) 一种基于Kinect的动态手势识别方法
Lai et al. A large-scale hierarchical multi-view rgb-d object dataset
US9305206B2 (en) Method for enhancing depth maps
US8989455B2 (en) Enhanced face detection using depth information
CN112101208A (zh) 高龄老人特征串联融合手势识别方法及装置
CN110751097A (zh) 一种半监督的三维点云手势关键点检测方法
Tian et al. Human Detection using HOG Features of Head and Shoulder Based on Depth Map.
Hu et al. Depth sensor based human detection for indoor surveillance
Pujol-Miro et al. Correspondence matching in unorganized 3D point clouds using Convolutional Neural Networks
KR20110021500A (ko) 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치
Recky et al. Façade segmentation in a multi-view scenario
Hu et al. Fast face detection based on skin color segmentation using single chrominance Cr
CN111435429A (zh) 一种基于双目立体数据动态认知的手势识别方法及系统
CN113724329A (zh) 融合平面与立体信息的目标姿态估计方法、系统和介质
CN110910497B (zh) 实现增强现实地图的方法和系统
KR101357581B1 (ko) 깊이 정보 기반 사람의 피부 영역 검출 방법
Kim et al. Segmentation of salient regions in outdoor scenes using imagery and 3-d data
JP5217917B2 (ja) 物体検知追跡装置,物体検知追跡方法および物体検知追跡プログラム
Hagg et al. On recognizing transparent objects in domestic environments using fusion of multiple sensor modalities
Wang et al. Skin Color Weighted Disparity Competition for Hand Segmentation from Stereo Camera.
Huang et al. Integrating visual and range data for road detection
Huang et al. Stereo object proposals
Totada People Detection from Time-of-flight Imagery with Inpainting-based Preprocessing
CN110532922B (zh) 一种在移动设备上进行实时分割深度图视频帧的方法

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20161121

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20171120

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190409

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191024

Year of fee payment: 7