KR101558031B1 - 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 - Google Patents
깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 Download PDFInfo
- Publication number
- KR101558031B1 KR101558031B1 KR1020120121589A KR20120121589A KR101558031B1 KR 101558031 B1 KR101558031 B1 KR 101558031B1 KR 1020120121589 A KR1020120121589 A KR 1020120121589A KR 20120121589 A KR20120121589 A KR 20120121589A KR 101558031 B1 KR101558031 B1 KR 101558031B1
- Authority
- KR
- South Korea
- Prior art keywords
- hand
- posture
- image
- value
- region
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법이 개시된다. 본 발명은, 영상의 깊이 정보 및 칼라 정보를 이용하여 복수의 프레임으로 이루어진 영상에서 손의 포스처(posture)를 인식하고, 인식한 손을 추적하여 제스처(gesture)를 인식한다. 본 발명에 따르면, 컨벡스-헐 알고리즘과 K-곡률 알고리즘을 통해 손 인식 시 이용되는 파라미터 값을 깊이에 따라 적응적으로 변경함으로써, 손 영역이 카메라로부터 가까워지거나 멀어지더라도 일정한 성능을 유지할 수 있다.
Description
본 발명은 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법에 관한 것으로, 더욱 상세하게는 영상의 깊이 정보 및 칼라 정보를 이용하여 복수의 프레임으로 이루어진 영상에서 손의 포스처(posture)를 인식하고, 인식한 손을 추적하여 제스처(gesture)를 인식하는 장치 및 방법에 관한 것이다.
영상에서 손의 포스처를 인식하는 방법으로 종래에는 다음의 방법이 이용되고 있다. 첫 번째 방법으로 데이터베이스에서 손 포스처와 일치하는 것을 찾는 검색 기반의 방법이 있다. 이 방법은 스케일, 거리, 회전 등의 변화에 따른 손 포스처 데이터베이스를 구비하고 있어야 하며, 검색에 쓰이는 분류기(classfier)를 미리 학습하여야 한다. 그러나, 이 방법은 손 포스처가 변경되거나 새로운 손 포스처가 추가되면 지속적으로 데이터베이스를 변경, 수정 및 보완하여야 하는 불편함이 있다. 두 번째 방법으로 손 포스처의 외형적 특징을 검출하여 인식하는 방법이 있다. 이 방법은 거리에 따라서 정보(손가락 끝을 인식하기 위한 곡률 검출, 손의 길이 및 면적 측정 등)에 왜곡이 발생할 가능성이 높기 때문에 안정적인 인식률을 확보하는 것이 어렵다.
본 발명이 이루고자 하는 기술적 과제는, 영상의 깊이 정보 및 칼라 정보를 이용하여 복수의 프레임으로 이루어진 영상에서 손의 포스처(posture)를 인식하고, 인식한 손을 추적하여 제스처(gesture)를 인식하는 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법을 제공하는 데 있다.
본 발명이 이루고자 하는 기술적 과제는, 영상의 깊이 정보 및 칼라 정보를 이용하여 복수의 프레임으로 이루어진 영상에서 손의 포스처(posture)를 인식하고, 인식한 손을 추적하여 제스처(gesture)를 인식하는 깊이 정보 기반의 포스처와 제스처 인식 장치를 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 깊이 정보 기반의 포스처와 제스처 인식 장치는, 영상에 대한 깊이 정보를 통해 상기 영상에서 전경 영역 영상을 획득하고, 상기 영상에 대한 칼라 정보를 통해 상기 영상에서 피부 색상으로 이루어진 피부 영역 영상을 획득하며, 상기 전경 영역 영상과 상기 피부 영역 영상에서 중복 영역을 검출하고, 상기 중복 영역에 대한 깊이 정보를 통해 상기 중복 영역에서 손 영역을 검출하는 손 영역 검출부; 및 상기 영상에 대한 깊이 정보로부터 획득한 컨벡스-거리(convex-distance) 값을 통해 상기 손 영역에 포함된 객체의 포스처(posture)가 주먹인지 손바닥인지 판단하고, 상기 영상에 대한 깊이 정보로부터 획득한 K-밸류(K-value) 값을 통해 포스처가 손바닥인 객체의 손가락 개수를 판단하여, 상기 손 영역에 포함된 객체의 포스처를 인식하는 포스처 인식부;를 포함한다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 깊이 정보 기반의 포스처와 제스처 인식 방법은, 영상에 대한 깊이 정보를 통해 상기 영상에서 전경 영역 영상을 획득하고, 상기 영상에 대한 칼라 정보를 통해 상기 영상에서 피부 색상으로 이루어진 피부 영역 영상을 획득하며, 상기 전경 영역 영상과 상기 피부 영역 영상에서 중복 영역을 검출하고, 상기 중복 영역에 대한 깊이 정보를 통해 상기 중복 영역에서 손 영역을 검출하는 단계; 및 상기 영상에 대한 깊이 정보로부터 획득한 컨벡스-거리 값을 통해 상기 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단하고, 상기 영상에 대한 깊이 정보로부터 획득한 K-밸류 값을 통해 포스처가 손바닥인 객체의 손가락 개수를 판단하여, 상기 손 영역에 포함된 객체의 포스처를 인식하는 단계;를 포함한다.
상기의 기술적 과제를 달성하기 위한 본 발명에 따른 컴퓨터로 읽을 수 있는 매체는 상기한 방법 중 어느 하나를 컴퓨터에서 실행시키기 위한 프로그램을 기록한다.
본 발명에 따른 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법에 의하면, 컨벡스-헐 알고리즘과 K-곡률 알고리즘을 통해 손 인식 시 이용되는 파라미터 값을 깊이에 따라 적응적으로 변경함으로써, 손 영역이 카메라로부터 가까워지거나 멀어지더라도 일정한 성능을 유지할 수 있다.
또한, 컨벡스-헐 알고리즘을 이용하여 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단한 후, K-곡률 알고리즘을 이용하여 포스처가 손바닥인 객체의 손가락 개수를 판단함으로써, 손의 포스처를 보다 정확하게 인식할 수 있다.
아울러, K-곡률 알고리즘을 이용하여 인식된 손가락 끝 부분이 튀더라도, 컨벡스-헐 알고리즘을 통해 1차적으로 포스처가 주먹인지 손바닥인지 판단하고 K-곡률 알고리즘을 통해 2차적으로 손가락 개수를 판단함으로써, 제스처 인식 동작 중 입력 받는 궤적 정보가 끊어지는 현상을 방지할 수 있어 손의 제스처를 보다 정확하게 인식할 수 있다.
도 1은 본 발명의 바람직한 실시예에 따른 깊이 정보 기반의 포스처와 제스처 인식 장치를 설명하기 위한 블록도,
도 2는 본 발명의 바람직한 실시예에 따른 손 영역 검출 과정을 설명하기 위한 도면,
도 3은 본 발명의 바람직한 실시예에 따른 깊이에 따른 컨벡스-거리 값 및 K-밸류 값의 일례를 나타내는 표,
도 4는 본 발명의 바람직한 실시예에 따른 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단하는 과정을 설명하기 위한 도면,
도 5는 본 발명의 바람직한 실시예에 따른 포스처가 손바닥인 객체의 손가락 개수를 판단하는 과정을 설명하기 위한 도면,
도 6은 본 발명의 바람직한 실시예에 따른 깊이 정보 기반의 포스처와 제스처 인식 방법을 설명하기 위한 흐름도,
도 7은 도 6에 도시한 영상에서 손 영역을 검출하는 단계를 보다 자세히 설명하기 위한 흐름도,
도 8은 도 6에 도시한 포스처를 인식하는 단계를 보다 자세히 설명하기 위한 흐름도,
도 9는 도 8에 도시한 객체의 포스처가 주먹인지 손바닥인지 판단하는 단계를 보다 자세히 설명하기 위한 흐름도, 그리고,
도 10은 도 8에 도시한 포스처가 손바닥인 객체의 손가락 개수를 판단하는 단계를 보다 자세히 설명하기 위한 흐름도이다.
도 2는 본 발명의 바람직한 실시예에 따른 손 영역 검출 과정을 설명하기 위한 도면,
도 3은 본 발명의 바람직한 실시예에 따른 깊이에 따른 컨벡스-거리 값 및 K-밸류 값의 일례를 나타내는 표,
도 4는 본 발명의 바람직한 실시예에 따른 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단하는 과정을 설명하기 위한 도면,
도 5는 본 발명의 바람직한 실시예에 따른 포스처가 손바닥인 객체의 손가락 개수를 판단하는 과정을 설명하기 위한 도면,
도 6은 본 발명의 바람직한 실시예에 따른 깊이 정보 기반의 포스처와 제스처 인식 방법을 설명하기 위한 흐름도,
도 7은 도 6에 도시한 영상에서 손 영역을 검출하는 단계를 보다 자세히 설명하기 위한 흐름도,
도 8은 도 6에 도시한 포스처를 인식하는 단계를 보다 자세히 설명하기 위한 흐름도,
도 9는 도 8에 도시한 객체의 포스처가 주먹인지 손바닥인지 판단하는 단계를 보다 자세히 설명하기 위한 흐름도, 그리고,
도 10은 도 8에 도시한 포스처가 손바닥인 객체의 손가락 개수를 판단하는 단계를 보다 자세히 설명하기 위한 흐름도이다.
이하에서 첨부한 도면을 참조하여 본 발명에 따른 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법의 바람직한 실시예에 대해 상세하게 설명한다.
도 1은 본 발명의 바람직한 실시예에 따른 깊이 정보 기반의 포스처와 제스처 인식 장치를 설명하기 위한 블록도이다.
도 1을 참조하면, 본 발명에 따른 깊이 정보 기반의 포스처와 제스처 인식 장치(100)(이하, '포스처 인식 장치'라 함)는 영상의 깊이 정보 및 칼라 정보를 이용하여 복수의 프레임으로 이루어진 영상에서 손의 포스처(posture)를 인식하고, 인식한 손을 추적하여 제스처(gesture)를 인식한다.
여기서, 영상의 깊이 정보는 카메라 등에 의해 촬영된 영상을 구성하는 픽셀(pixel) 각각에 대한 카메라로부터의 거리 정보를 포함한다. 또한, 영상의 깊이 정보는 촬영된 영상 내에 포함된 객체 각각에 대한 거리 정보를 포함할 수 있다. 그리고, 영상의 칼라 정보는 카메라 등에 의해 촬영된 영상을 구성하는 픽셀 각각에 대한 RGB 색상 정보를 포함한다.
이를 위해, 포스처 인식 장치(100)는 손 영역 검출부(110), 포스처 인식부(130) 및 제스처 인식부(150)를 구비한다.
손 영역 검출부(110)는 영상의 깊이 정보 및 칼라 정보를 이용하여 영상에서 손 영역을 검출한다.
자세히 설명하면, 손 영역 검출부(110)는 영상에 대한 깊이 정보를 통해 영상에서 전경 영역 영상을 획득한다. 즉, 손 영역 검출부(110)는 영상의 깊이 정보를 이용하여 영상에서 앞에 있는 객체를 제외하고 그 뒤에 있는 객체를 제거하여 영상에서 전경 영역 영상을 획득할 수 있다.
그리고, 손 영역 검출부(110)는 영상에 대한 칼라 정보를 통해 영상에서 피부 색상으로 이루어진 피부 영역 영상을 획득한다. 즉, 손 영역 검출부(110)는 영상의 칼라 정보를 이용하여 피부 색상(skin color) 외의 다른 색상을 가지는 객체를 제거하여 영상에서 피부 영역 영상을 획득할 수 있다.
그리고, 손 영역 검출부(110)는 전경 영역 영상과 피부 영역 영상에서 중복 영역을 검출한다. 또한, 손 영역 검출부(110)는 중복 영역에 대한 깊이 정보를 통해 중복 영역에서 손 영역을 검출한다. 즉, 손 영역 검출부(110)는 중복 영역의 깊이 정보를 이용하여 중복 영역에서 제일 앞에 있는 영역을 손 영역으로 검출할 수 있다.
도 2는 본 발명의 바람직한 실시예에 따른 손 영역 검출 과정을 설명하기 위한 도면이다.
도 2를 참조하면, 손 영역 검출부(110)는 영상(IM)의 깊이 정보(DI)를 이용하여 영상(IM)에서 전경 영역 영상(FPI)을 획득하고, 영상(IM)의 칼라 정보(CI)를 이용하여 영상(IM)에서 피부 영역 영상(SPI)을 획득한다. 그리고, 손 영역 검출부(110)는 전경 영역 영상(FPI)과 피부 영역 영상(SPI)에서 중복 영역(DPI)을 획득하고, 중복 영역(DPI)에서 획득한 손 후보 영역(HCPI)에서 손 영역(ROI)을 검출한다.
포스처 인식부(130)는 영상에 대한 깊이 정보로부터 획득한 컨벡스-거리(convex-distance) 값 및 K-밸류(K-value) 값을 이용하여 손 영역에 포함된 객체의 포스처를 인식한다. 여기서, 컨벡스-거리 값은 객체의 포스처가 주먹인지 손바닥인지 판단할 때 이용되는 파라미터 값으로서, 컨벡스-헐(convex-hull) 알고리즘을 이용하여 손을 인식하는 경우에 이용된다. 그리고, K-밸류 값은 포스처가 손바닥인 객체의 손가락 개수를 판단할 때 이용되는 파라미터 값으로서, K-곡률(K-curvature) 알고리즘을 이용하여 손을 인식하는 경우에 이용된다.
자세히 설명하면, 포스처 인식부(130)는 미리 저장된 깊이에 따른 컨벡스-거리 값 및 K-밸류 값과 영상에 대한 깊이 정보로부터 획득한 손 영역의 깊이 값을 비교하여 손 영역에 대한 컨벡스-거리 값 및 K-밸류 값을 획득한다. 여기서, 미리 저장된 깊이에 따른 컨벡스-거리 값 및 K-밸류 값은 사전에 구축된 깊이에 따른 컨벡스-거리 값 및 K-밸류 값을 말한다. 깊이에 따른 컨벡스-거리 값 및 K-밸류 값은 인종, 성별, 연령 등에 따라 상이하므로 실험적으로 구하여 미리 구축한다.
도 3은 본 발명의 바람직한 실시예에 따른 깊이에 따른 컨벡스-거리 값 및 K-밸류 값의 일례를 나타내는 표이다.
도 3을 참조하면, 포스처 인식부(130)는 손 영역의 깊이 값이 '120'인 경우 손 영역에 대한 컨벡스-거리 값 및 K-밸류 값을 각각 'CDV2' 및 'KV2'로 결정하고, 손 영역의 깊이 값이 '470'인 경우 손 영역에 대한 컨벡스-거리 값 및 K-밸류 값을 각각 'CDV5' 및 'KV5'로 결정한다.
그리고, 포스처 인식부(130)는 영상에 대한 깊이 정보로부터 획득한 컨벡스-거리 값과 컨벡스-헐 알고리즘을 통해 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단한다.
도 4는 본 발명의 바람직한 실시예에 따른 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단하는 과정을 설명하기 위한 도면이다.
즉, 포스처 인식부(130)는 손 영역의 중심점(center point)과 손 영역에 포함된 객체의 외곽선(contour)에 위치하는 컨벡스-헐 점(convex-hull point) 사이의 거리(distance) 값들 중에서 가장 큰 거리(max distance) 값과 손 영역의 컨벡스-거리 값을 비교하여 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단한다. 여기서, 중심점과 컨벡스-헐 점 사이의 가장 큰 거리 값은 다음의 [수학식 1]을 통해 계산할 수 있다.
도 4를 참조하면, 포스처 인식부(130)는 손 영역(ROI)의 중심점(C)과 컨벡스-헐 점(CP)들 사이의 거리 값(DV)들 중에서 가장 큰 거리 값과 손 영역(ROI)의 컨벡스-거리 값을 비교하여, 컨벡스-거리 값이 가장 큰 거리 값보다 크면 손 영역(ROI)에 포함된 객체의 포스처를 주먹으로 판단하고, 컨벡스-거리 값이 가장 큰 거리 값보다 작으면 손 영역(ROI)에 포함된 객체의 포스처를 손바닥으로 판단한다.
그리고, 포스처 인식부(130)는 영상에 대한 깊이 정보로부터 획득한 K-밸류 값 및 K-곡률 알고리즘을 통해 포스처가 손바닥인 객체의 손가락 개수를 판단한다.
도 5는 본 발명의 바람직한 실시예에 따른 포스처가 손바닥인 객체의 손가락 개수를 판단하는 과정을 설명하기 위한 도면이다.
즉, 포스처 인식부(130)는 객체의 외곽선에 위치하는 제1점과 제1점을 기준으로 외곽선 상에서 K-밸류 값만큼 앞으로 떨어진 제2점에서 구해진 제1벡터, 및 제1점과 제1점을 기준으로 외곽선 상에서 K-밸류 값만큼 뒤로 떨어진 제3점에서 구해진 제2벡터를 획득한다. 도 5를 참조하면, 포스처 인식부(130)는 제1점()과 제2점()에서 구해진 제1벡터()를 획득하고, 제1점()과 제3점()에서 구해진 제2벡터()를 획득한다.
그런 다음, 포스처 인식부(130)는 제1벡터()와 제2벡터()의 내적과 외적을 통해 포스처가 손바닥인 객체의 외곽선에 위치하는 피크(peak) 구간의 개수를 획득한다. 즉, 포스처 인식부(130)는 다음의 [수학식 2]를 통해 피크 구간(PP)의 개수를 획득하고, 다음의 [수학식 3]을 통해 밸리(valley) 구간(VP)의 개수를 획득할 수 있다.
여기서, 는 실험적으로 구해지는 각도로서, 본 발명에서는 는 45로 설정된다. 는 제1벡터()와 제2벡터()의 내적으로서, 다음의 [수학식 4]를 통해 계산된다. 는 제1벡터()와 제2벡터()의 외적으로서, 다음의 [수학식 5]를 통해 계산된다.
그리고, 포스처 인식부(130)는 피크 구간(PP)의 개수를 포스처가 손바닥인 객체의 손가락 개수로 판단한다.
이와 같이, 컨벡스-헐 알고리즘과 K-곡률 알고리즘을 통해 손 인식 시 이용되는 파라미터 값을 깊이에 따라 적응적으로 변경함으로써, 손 영역이 카메라로부터 가까워지거나 멀어지더라도 일정한 성능을 유지할 수 있다.
또한, 컨벡스-헐 알고리즘을 이용하여 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단한 후, K-곡률 알고리즘을 이용하여 포스처가 손바닥인 객체의 손가락 개수를 판단함으로써, 손의 포스처를 보다 정확하게 인식할 수 있다. 예컨대, 카메라와 가까운 거리에서 주먹을 쥐고 있는 상태의 포스처를 K-곡률 알고리즘만을 이용하여 인식하는 경우, 주먹을 쥐고 있는 상태임에도 손가락으로 인식되는 경우가 발생된다.
아울러, K-곡률 알고리즘을 이용하여 인식된 손가락 끝(finger tip) 부분이 튀더라도, 컨벡스-헐 알고리즘을 통해 1차적으로 포스처가 주먹인지 손바닥인지 판단하고 K-곡률 알고리즘을 통해 2차적으로 손가락 개수를 판단함으로써, 제스처 인식 동작 중 입력 받는 궤적(trajectory) 정보가 끊어지는 현상을 방지할 수 있어 손의 제스처를 보다 정확하게 인식할 수 있다.
한편, 포스처 인식부(130)는 미리 설정된 프레임 수 단위로 포스처를 인식할 수 있다. 즉, 포스처 인식부(130)는 미리 설정된 개수의 프레임 각각에서 손 영역에 포함된 객체의 포스처를 인식한다. 그리고, 포스처 인식부(130)는 미리 설정된 개수의 프레임 각각의 포스처가 서로 일치하지 않으면, 미리 설정된 개수의 과반수 이상에서 인식된 포스처를 미리 설정된 개수의 프레임의 포스처로 판단한다.
이와 같이, 미리 설정된 개수의 프레임 단위로 포스처를 인식함으로써, 인식 속도를 보장하면서도 포스처 인식의 에러율을 낮출 수 있다. 예컨대, 기 구축된 포스처 인식 관련 데이터베이스를 사용하지 않는 인식 알고리즘의 경우, 영상 프레임의 노이즈로 인하여 인식 에러가 발생할 수 있다.
제스처 인식부(150)는 포스처가 인식된 객체의 궤적(trajectory)을 추적한다. 즉, 제스처 인식부(150)는 파티클 필터(particle filter)를 이용하여 포스처가 인식된 객체를 추적할 수 있다.
그리고, 제스처 인식부(150)는 추적한 객체의 시작 포스처가 미리 설정된 포스처이면 추적한 객체의 제스처(gesture)를 인식한다. 예컨대, 제스처를 인식하는 대상의 시작 포스처가 '주먹'으로 설정되어 있으면, 제스처 인식부(150)는 추적한 객체의 시작 포스처가 '주먹'인 객체의 추적 정보를 통해 객체의 제스처를 인식할 수 있다.
도 6은 본 발명의 바람직한 실시예에 따른 깊이 정보 기반의 포스처와 제스처 인식 방법을 설명하기 위한 흐름도이다.
도 6을 참조하면, 포스처 인식 장치(100)는 영상에 대한 깊이 정보 및 칼라 정보를 통해 영상에서 손 영역을 검출한다(S610). 이후, 포스처 인식 장치(100)는 손 영역에 포함된 객체의 포스처를 인식한다(S630).
그런 다음, 포스처 인식 장치(100)는 포스처가 인식된 객체의 궤적을 추적한다(S650). 그리고, 추적한 객체의 시작 포스처가 미리 설정된 포스처이면, 포스처 인식 장치(100)는 추적한 객체의 제스처를 인식한다(S670).
한편, 포스처 인식 장치(100)는 미리 설정된 프레임 수 단위로 포스처를 인식할 수 있다. 즉, 포스처 인식 장치(100)는 미리 설정된 개수의 프레임 각각에서 손 영역에 포함된 객체의 포스처를 인식하고, 미리 설정된 개수의 프레임 각각의 포스처가 서로 일치하지 않으면, 미리 설정된 개수의 과반수 이상에서 인식된 포스처를 미리 설정된 개수의 프레임의 포스처로 판단한다. 이와 같이, 미리 설정된 개수의 프레임 단위로 포스처를 인식함으로써, 인식 속도를 보장하면서도 포스처 인식의 에러율을 낮출 수 있다.
도 7은 도 6에 도시한 영상에서 손 영역을 검출하는 단계를 보다 자세히 설명하기 위한 흐름도이다.
도 7을 참조하면, 포스처 인식 장치(100)는 영상에 대한 깊이 정보를 통해 영상에서 전경 영역 영상을 획득한다(S611). 그리고, 포스처 인식 장치(100)는 영상에 대한 칼라 정보를 통해 영상에서 피부 영역 영상을 획득한다(S613). 이후, 포스처 인식 장치(100)는 전경 영역 영상과 피부 영역 영상에서 중복 영역을 검출한다(S615). 그런 다음, 포스처 인식 장치(100)는 중복 영역에서 손 영역을 검출한다(S617). 즉, 포스처 인식 장치(100)는 중복 영역의 깊이 정보를 이용하여 중복 영역에서 제일 앞에 있는 영역을 손 영역으로 검출할 수 있다.
도 8은 도 6에 도시한 포스처를 인식하는 단계를 보다 자세히 설명하기 위한 흐름도이다.
도 8을 참조하면, 포스처 인식 장치(100)는 영상의 깊이 정보로부터 컨벡스-거리 값 및 K-밸류 값을 획득한다(S631). 즉, 포스처 인식 장치(100)는 미리 저장된 깊이에 따른 컨벡스-거리 값 및 K-밸류 값과 영상에 대한 깊이 정보로부터 획득한 손 영역의 깊이 값을 비교하여 손 영역에 대한 컨벡스-거리 값 및 K-밸류 값을 획득한다.
그런 다음, 포스처 인식 장치(100)는 컨벡스-거리 값을 통해 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단한다(S633). 그리고, 포스처 인식 장치(100)는 K-밸류 값을 통해 포스처가 손바닥인 객체의 손가락 개수를 판단한다(S635).
도 9는 도 8에 도시한 객체의 포스처가 주먹인지 손바닥인지 판단하는 단계를 보다 자세히 설명하기 위한 흐름도이다.
도 9를 참조하면, 포스처 인식 장치(100)는 손 영역의 중심점과 손 영역에 포함된 객체의 외곽선에 위치하는 컨벡스-헐 점 사이의 거리 값들 중에서 가장 큰 거리 값을 획득한다(S633a). 그리고, 포스처 인식 장치(100)는 컨벡스-거리 값과 가장 큰 거리 값을 비교한다(S633b).
이후, 컨벡스-거리 값이 가장 큰 거리 값보다 크면(S633b-N), 포스처 인식 장치(100)는 손 영역에 포함된 객체의 포스처를 주먹으로 판단한다(S633c). 그리고, 컨벡스-거리 값이 가장 큰 거리 값보다 작으면(S633b-Y), 포스처 인식 장치(100)는 손 영역에 포함된 객체의 포스처를 손바닥으로 판단한다(S633d).
도 10은 도 8에 도시한 포스처가 손바닥인 객체의 손가락 개수를 판단하는 단계를 보다 자세히 설명하기 위한 흐름도이다.
도 10을 참조하면, 포스처 인식 장치(100)는 객체의 외곽선에 위치하는 제1점과 제1점을 기준으로 외곽선 상에서 K-밸류 값만큼 앞으로 떨어진 제2점에서 제1벡터를 획득한다(S635a). 그리고, 포스처 인식 장치(100)는 제1점과 제1점을 기준으로 외곽선 상에서 K-밸류 값만큼 뒤로 떨어진 제3점에서 제2벡터를 획득한다(S635b).
이후, 포스처 인식 장치(100)는 제1벡터와 제2벡터의 내적과 외적을 통해 객체의 외곽선에 위치하는 피크 구간의 개수를 획득한다(S635c). 그리고, 포스처 인식 장치(100)는 피크 구간의 개수를 손가락 개수로 판단한다(S635d).
이와 같이, 컨벡스-헐 알고리즘과 K-곡률 알고리즘을 통해 손 인식 시 이용되는 파라미터 값을 깊이에 따라 적응적으로 변경함으로써, 손 영역이 카메라로부터 가까워지거나 멀어지더라도 일정한 성능을 유지할 수 있다.
또한, 컨벡스-헐 알고리즘을 이용하여 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단한 후, K-곡률 알고리즘을 이용하여 포스처가 손바닥인 객체의 손가락 개수를 판단함으로써, 손의 포스처를 보다 정확하게 인식할 수 있다. 예컨대, 카메라와 가까운 거리에서 주먹을 쥐고 있는 상태의 포스처를 K-곡률 알고리즘만을 이용하여 인식하는 경우, 주먹을 쥐고 있는 상태임에도 손가락으로 인식되는 경우가 발생된다.
아울러, K-곡률 알고리즘을 이용하여 인식된 손가락 끝 부분이 튀더라도, 컨벡스-헐 알고리즘을 통해 1차적으로 포스처가 주먹인지 손바닥인지 판단하고 K-곡률 알고리즘을 통해 2차적으로 손가락 개수를 판단함으로써, 제스처 인식 동작 중 입력 받는 궤적 정보가 끊어지는 현상을 방지할 수 있어 손의 제스처를 보다 정확하게 인식할 수 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록 매체는 컴퓨터 장치에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 롬(ROM), 램(RAM), CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 유무선 통신망으로 연결된 컴퓨터 장치에 분산되어 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명은 상술한 특정의 바람직한 실시예에 한정되지 아니하며, 다음의 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변형 실시가 가능한 것은 물론이고, 그와 같은 변경은 청구범위 기재의 범위 내에 있게 된다.
100 : 깊이 정보 기반의 포스처와 제스처 인식 장치,
110 : 손 영역 검출부,
130 : 포스처 인식부,
150 : 제스처 인식부
110 : 손 영역 검출부,
130 : 포스처 인식부,
150 : 제스처 인식부
Claims (13)
- 영상에 대한 깊이 정보를 통해 상기 영상에서 전경 영역 영상을 획득하고, 상기 영상에 대한 칼라 정보를 통해 상기 영상에서 피부 색상으로 이루어진 피부 영역 영상을 획득하며, 상기 전경 영역 영상과 상기 피부 영역 영상에서 중복 영역을 검출하고, 상기 중복 영역에 대한 깊이 정보를 통해 상기 중복 영역에서 손 영역을 검출하는 손 영역 검출부; 및
상기 영상에 대한 깊이 정보와 미리 저장된 깊이에 따른 컨벡스-거리(convex-distance) 값 및 K-밸류(K-value) 값을 비교하여 상기 깊이 정보에 대응되는 컨벡스-거리값 및 K-밸류 값을 획득하고, 상기 손 영역의 중심점(center point)과 상기 손 영역에 포함된 객체의 외곽선(contour)에 위치하는 컨벡스-헐 점(convex-hull point) 사이의 거리(distance) 값들 중에서 가장 큰 거리(max distance) 값과 상기 획득된 컨벡스-거리값을 비교하여 상기 손 영역에 포함된 객체의 포스처(posture)가 주먹인지 손바닥인지 판단하고, 상기 획득된 K-밸류(K-value) 값을 이용하여 손바닥으로 판단된 객체의 손가락 개수를 판단하여, 상기 손 영역에 포함된 객체의 포스처를 인식하는 포스처 인식부;를 포함하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 장치. - 삭제
- 삭제
- 제 1항에 있어서,
상기 포스처 인식부는 상기 포스처가 손바닥인 객체의 외곽선에 위치하는 제1점과 상기 제1점을 기준으로 외곽선 상에서 상기 K-밸류 값만큼 앞으로 떨어진 제2점에서 구해진 제1벡터, 및 상기 제1점과 상기 제1점을 기준으로 외곽선 상에서 상기 K-밸류 값만큼 뒤로 떨어진 제3점에서 구해진 제2벡터를 획득하고, 상기 제1벡터와 상기 제2벡터의 내적과 외적을 통해 상기 포스처가 손바닥인 객체의 외곽선에 위치하는 피크(peak) 구간의 개수를 획득하며, 상기 피크 구간의 개수를 상기 포스처가 손바닥인 객체의 손가락 개수로 판단하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 장치. - 제 1항에 있어서,
상기 포스처가 인식된 객체의 궤적(trajectory)을 추적하고, 상기 추적한 객체의 시작 포스처가 미리 설정된 포스처이면 상기 추적한 객체의 제스처(gesture)를 인식하는 제스처 인식부를 더 포함하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 장치. - 제 1항에 있어서,
상기 영상은 복수의 프레임으로 이루어지며,
상기 포스처 인식부는 미리 설정된 개수의 프레임 각각에서 상기 손 영역에 포함된 객체의 포스처를 인식하고, 상기 미리 설정된 개수의 프레임 각각의 포스처가 서로 일치하지 않으면, 상기 미리 설정된 개수의 과반수 이상에서 인식된 포스처를 상기 미리 설정된 개수의 프레임의 포스처로 판단하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 장치. - 영상에 대한 깊이 정보를 통해 상기 영상에서 전경 영역 영상을 획득하고, 상기 영상에 대한 칼라 정보를 통해 상기 영상에서 피부 색상으로 이루어진 피부 영역 영상을 획득하며, 상기 전경 영역 영상과 상기 피부 영역 영상에서 중복 영역을 검출하고, 상기 중복 영역에 대한 깊이 정보를 통해 상기 중복 영역에서 손 영역을 검출하는 단계;
상기 영상에 대한 깊이 정보와 미리 저장된 깊이에 따른 컨벡스-거리 값 및 K-밸류(K-value) 값을 비교하여 상기 깊이 정보에 대응되는 컨벡스-거리값 및 K-밸류 값을 획득하는 단계; 및
상기 손 영역의 중심점(center point)과 상기 손 영역에 포함된 객체의 외곽선(contour)에 위치하는 컨벡스-헐 점(convex-hull point) 사이의 거리(distance) 값들 중에서 가장 큰 거리(max distance) 값과 상기 획득된 컨벡스-거리값을 비교하여 상기 손 영역에 포함된 객체의 포스처가 주먹인지 손바닥인지 판단하고, 상기 획득된 K-밸류 값을 이용하여 손바닥으로 판단된 객체의 손가락 개수를 판단하여, 상기 손 영역에 포함된 객체의 포스처를 인식하는 단계;를 포함하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 방법. - 삭제
- 삭제
- 제 7항에 있어서,
상기 포스처 인식 단계에서, 상기 포스처가 손바닥인 객체의 외곽선에 위치하는 제1점과 상기 제1점을 기준으로 외곽선 상에서 상기 K-밸류 값만큼 앞으로 떨어진 제2점에서 구해진 제1벡터, 및 상기 제1점과 상기 제1점을 기준으로 외곽선 상에서 상기 K-밸류 값만큼 뒤로 떨어진 제3점에서 구해진 제2벡터를 획득하고, 상기 제1벡터와 상기 제2벡터의 내적과 외적을 통해 상기 포스처가 손바닥인 객체의 외곽선에 위치하는 피크 구간의 개수를 획득하며, 상기 피크 구간의 개수를 상기 포스처가 손바닥인 객체의 손가락 개수로 판단하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 방법. - 제 7항에 있어서,
상기 포스처가 인식된 객체의 궤적을 추적하고, 상기 추적한 객체의 시작 포스처가 미리 설정된 포스처이면 상기 추적한 객체의 제스처를 인식하는 단계를 더 포함하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 방법. - 제 7항에 있어서,
상기 영상은 복수의 프레임으로 이루어지며,
상기 포스처 인식 단계에서, 미리 설정된 개수의 프레임 각각에서 상기 손 영역에 포함된 객체의 포스처를 인식하고, 상기 미리 설정된 개수의 프레임 각각의 포스처가 서로 일치하지 않으면, 상기 미리 설정된 개수의 과반수 이상에서 인식된 포스처를 상기 미리 설정된 개수의 프레임의 포스처로 판단하는 것을 특징으로 하는 깊이 정보 기반의 포스처와 제스처 인식 방법. - 제 7항 및 제 10항 내지 제 12항 중 어느 한 항에 기재된 깊이 정보 기반의 포스처와 제스처 인식 방법을 컴퓨터에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120121589A KR101558031B1 (ko) | 2012-10-30 | 2012-10-30 | 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020120121589A KR101558031B1 (ko) | 2012-10-30 | 2012-10-30 | 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140055172A KR20140055172A (ko) | 2014-05-09 |
KR101558031B1 true KR101558031B1 (ko) | 2015-10-06 |
Family
ID=50886874
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020120121589A KR101558031B1 (ko) | 2012-10-30 | 2012-10-30 | 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101558031B1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190093258A (ko) * | 2018-02-01 | 2019-08-09 | 삼성전자주식회사 | 사용자의 제스처를 인식하는 전자 장치 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160111151A (ko) | 2015-03-16 | 2016-09-26 | (주)이더블유비엠 | 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치 |
CN106650628B (zh) * | 2016-11-21 | 2021-03-23 | 南京邮电大学 | 一种基于三维k曲率的指尖检测方法 |
KR101837482B1 (ko) | 2017-03-28 | 2018-03-13 | (주)이더블유비엠 | 영상처리방법 및 장치, 그리고 이를 이용한 제스처 인식 인터페이스 방법 및 장치 |
KR102019301B1 (ko) * | 2018-04-24 | 2019-09-06 | 군산대학교 산학협력단 | 농축산 도난을 감지하는 영상 감시 장치 및 그 방법 |
KR102187525B1 (ko) * | 2018-11-05 | 2020-12-07 | 주식회사 한글과컴퓨터 | 제스처 인식 기반의 제어 명령의 실행이 가능한 전자 단말 장치 및 그 동작 방법 |
US11106223B2 (en) * | 2019-05-09 | 2021-08-31 | GEOSAT Aerospace & Technology | Apparatus and methods for landing unmanned aerial vehicle |
KR102359136B1 (ko) * | 2019-11-12 | 2022-02-09 | 주식회사 에스오에스랩 | 제스처 인식 방법 및 이를 수행하는 제스처 인식 장치 |
-
2012
- 2012-10-30 KR KR1020120121589A patent/KR101558031B1/ko active IP Right Grant
Non-Patent Citations (2)
Title |
---|
Malik, Shahzad. "Real-time Hand Tracking and Finger Tracking for Interaction CSC2503F Project Report." Department of Computer Science, University of Toronto, Tech. Rep (2003).* |
Ren, Zhou, Junsong Yuan, and Zhengyou Zhang. "Robust hand gesture recognition based on finger-earth mover's distance with a commodity depth camera." Proc. 19th ACM, 2011.* |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190093258A (ko) * | 2018-02-01 | 2019-08-09 | 삼성전자주식회사 | 사용자의 제스처를 인식하는 전자 장치 |
KR102429764B1 (ko) | 2018-02-01 | 2022-08-08 | 삼성전자주식회사 | 사용자의 제스처를 인식하는 전자 장치 |
Also Published As
Publication number | Publication date |
---|---|
KR20140055172A (ko) | 2014-05-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101558031B1 (ko) | 깊이 정보 기반의 포스처와 제스처 인식 장치 및 방법 | |
US9916012B2 (en) | Image processing apparatus, image processing method, and program | |
US10755080B2 (en) | Information processing apparatus, information processing method, and storage medium | |
US10891473B2 (en) | Method and device for use in hand gesture recognition | |
KR101514169B1 (ko) | 정보 처리 장치, 정보 처리 방법 및 기록 매체 | |
US9286694B2 (en) | Apparatus and method for detecting multiple arms and hands by using three-dimensional image | |
TWI476632B (zh) | 運動物體辨識方法及基於運動物體辨識之指令輸入方法 | |
JP5035035B2 (ja) | 対象物追跡方法、対象物追跡装置および対象物追跡プログラム | |
KR102349059B1 (ko) | 영상의 관심영역으로부터 랜드마크를 결정하는 장치 및 방법 | |
KR101511146B1 (ko) | 스마트 3차원 제스처 인식 장치 및 방법 | |
US20110158476A1 (en) | Robot and method for recognizing human faces and gestures thereof | |
WO2016089529A1 (en) | Technologies for learning body part geometry for use in biometric authentication | |
WO2009055148A1 (en) | Hand sign recognition using label assignment | |
JP6648639B2 (ja) | 生体情報処理装置、生体情報処理方法および生体情報処理プログラム | |
US11315341B2 (en) | Information processing apparatus, verification method, and computer-readable recording medium recording verification program | |
CN108596079B (zh) | 手势识别方法、装置及电子设备 | |
KR101796027B1 (ko) | 얼굴 영상 기반 성별 인식 방법 및 장치 | |
CN109145752B (zh) | 用于评估对象检测和跟踪算法的方法、装置、设备和介质 | |
JP2012221162A (ja) | 対象物検出装置及びプログラム | |
EP2998928B1 (en) | Apparatus and method for extracting high watermark image from continuously photographed images | |
KR102063745B1 (ko) | 측면 프로파일링 기반 신원확인 장치 및 방법 | |
Popov et al. | Long Hands gesture recognition system: 2 step gesture recognition with machine learning and geometric shape analysis | |
US20230305634A1 (en) | Gesture recognition apparatus, head-mounted-type display apparatus, gesture recognition method, and non-transitory computer readable medium | |
JP2007334810A (ja) | 画像領域追跡装置及びその方法 | |
JP2008165496A (ja) | 画像正規化装置、対象物検出装置、対象物検出システム及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
X701 | Decision to grant (after re-examination) | ||
FPAY | Annual fee payment |
Payment date: 20180625 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190701 Year of fee payment: 5 |