이하, 첨부된 도면들에 기재된 내용들을 참조하여 본 발명에 따른 실시예를 상세하게 설명한다. 다만, 본 발명이 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조부호는 동일한 부재를 나타낸다.
도 1은 본 발명의 일실시예에 있어서, 모바일 증강현실 시스템을 이용하여 가상물체를 출력하는 화면을 도시한 도면이다.
도 1을 참고하면, 사용자는 단말기(120)에 부착된 카메라(121)를 통해 손(110)의 영상을 촬영할 수 있고, 상기 촬영된 손(123)의 영상은 3차원 가상물체(122)와 함께 디스플레이 화면에 출력될 수 있다. 이때, 단말기는 PDA, UMPC, mobile phones 등의 모바일 단말기를 포함한다. 또한, 사용자는 한 손에 단말기를 들고 다른 손을 촬영하고 상기 다른 손의 움직임에 대응하여 3차원 가상물체(122)가 움직일 수 있도록 제어하여 한 손 기반의 인터랙션이 가능할 수 있다.
도 2는 본 발명의 일실시예에 있어서, 3차원 가상물체와 인터랙션이 가능한 모바일 증강현실 시스템을 도시한 블록도이다.
도 2를 참고하면, 3차원 가상물체와 인터랙션이 가능한 모바일 증강현실 시스템은 카메라(210), 영상처리부(220), 인터랙션부(230) 및 디스플레이부(240)를 포함할 수 있다. 또한, 3차원 가상물체와 인터랙션이 가능한 모바일 증강현실 시스템은 진동 센서를 구비한 장갑(미도시)을 더 포함할 수 있다.
사용자는 모바일 단말기에 부착된 카메라(210)를 이용하여 사용자가 촬영하고자 하는 영상을 촬영할 수 있다. 이때, 사용자는 한 손에 카메라(210)를 들고 다른 손을 촬영하여 다른 손에 3차원 가상물체를 생성하여 출력할 수 있다.
영상처리부(220)는, 상기 단말기의 카메라를 이용하여 손 위에 3차원 가상물체를 생성할 수 있다. 즉, 사용자의 손의 크기, 포즈 등에 따라 손의 영상과 함께 출력할 3차원 가상물체를 렌더링할 수 있다. 여기서, 영상처리부(220)의 세부 구성은 도 3을 참고하여 이하에서 상세하게 설명한다.
도 3은 도 2에 도시한 모바일 증강현실 시스템에 있어서, 영상처리부의 세부 구성을 도시한 도면이다.
도 3을 참고하면, 영상 처리부(220)는, 손 영역 검출부(310), 포즈 결정부(320) 및 가상물체 렌더링부(330)를 포함할 수 있다.
손 영역 검출부(310)는 상기 손의 영상에서 손 영역을 검출할 수 있다. 이때 손 영역은 손 및 손목의 일부를 포함한다. 또한, 손 영역 검출부(310)는 색상 검출부(311) 및 배경 필터부(312)를 포함할 수 있다.
색상 검출부(311)는 generalized statistical color model 등을 이용하여 손의 피부색 또는 장갑색을 검출할 수 있다.
배경 필터부(312)는 배경에서 피부색 또는 장갑색과 동일한 영역을 제거하기 위해서 distance transform 등을 이용하여 배경 부분을 필터링하여 손 영역을 검출할 수 있다.
포즈 결정부(320)는 상기 손의 포즈를 결정할 수 있다. 여기서, 포즈 결정부(320)는 손 분리부(321), 손 방향 결정부(322) 및 포즈 계산부(323)를 포함할 수 있다.
손 분리부(321)는 상기 손 영역 내의 복수 개의 외곽점을 이용하여 상기 손 영역에서 손 부분을 분리할 수 있다. 이를 위해, 상기 복수 개의 외곽점을 이용해 손 영영의 평균방향을 구하고, 상기 평균방향에 수직인 두 외곽점들의 평균점을 구할 수 있다. 또한, 상기 평균점에 수직(평균점의 접선에 수직)인 두 외곽점들의 거리를 구하여, 거리가 일정해지는 지점을 손목 시작점으로 인식하여 손 부분을 분리할 수 있다. 따라서, 손목 시작점을 기준으로 좌우를 구분하여 손 부분과 손목 부분을 분리해 낼 수 있다.
손 방향 결정부(322)는 상기 분리된 손 부분의 방향을 결정할 수 있다. 즉, 손의 영역에서 분리된 손 부분에 대해 다시 평균적인 방향을 산출할 수 있다. 여기서, 분리된 손 부분에 대해 평균적인 방향을 산출하는 경우, 상기 손 영역의 평균방향에 수직인 두 외곽점들의 평균점 중 손 부분에 있는 점들만을 이용하여 손 부분의 방향을 산출할 수 있다.
포즈 계산부(323)는 손바닥의 길이 비를 이용하여 결정되는 프로젝션 모델로부터 손의 포즈를 계산할 수 있다. 즉, 손의 포즈를 결정하기 위해 엄지와 집게 손가락 사이의 홈 부분과 손목의 시작점을 이용하여 손바닥의 기준 길이 비를 구하고, 이를 이용하여 결정되는 프로젝션 모델을 이용하여 손 포즈를 결정할 수 있다.
일실시예로, 마커 대신에 3차원 가상의 사각형 모델을 가정하고, 이를 마커가 손위에 놓여 있는 것처럼 상기 3차원 가상의 사각형 모델을 변형하는 방법을 사용할 수 있다. 이때, 3차원 가상의 사각형 모델은 아래 [수학식 1]에 의해 사각형의 꼭지점을 결정할 수 있다.
[수학식 1]
여기서, 상기 a는 scale factor, width는 손바닥의 너비(엄지골부분(convexity defect point)과 손바닥 경계선상의 한 점-상기 엄지골부분과 상기 손바닥 경계선상의 한 점을 연결하는 선은 손부분 평균방향과 수직-사이의 거리), height는 손바닥의 높이(손목 시작점에서 손바닥 너비 방향 벡터와 최단거리(수직거리))를 각각 의미함.
상기 [수학식 1]에 의해 결정된 네 꼭지점을 z=0 평면으로 퍼스펙티브 프로젝션(perspective projection)시킬 수 있다. 다음으로, 프로젝션된 3차원 가상의 모델을 너비 방향 벡터와 손바닥 평균방향의 교차점인 손바닥 중심으로 이동하고 손 부분의 평균방향으로 화면의 위쪽에서 손 부분의 평균방향으로의 각 만큼 회전 시킬 수 있다. 변형된 3차원 가상의 사각형 모델을 바탕으로 손의 포즈를 계산할 수 있다.
가상물체 렌더링부(330)는 상기 손의 포즈에 대응하여 상기 3차원 가상물체를 생성할 수 있다. 즉, 상기 손의 크기, 방향 등을 고려하여 3차원 컨텐츠에 접근하여 3차원 가상물체를 생성할 수 있다.
다시 도 2를 참고하면, 인터랙션부(230)는 상기 손의 움직임에 대응하여 상기 3차원 가상물체를 제어할 수 있다. 즉, 사용자가 손을 움직이는 경우(ex. 오므리기, 쓰다듬기, 기울이기, 튕기기, 흔들기 등) 사용자의 움직임에 따라 3차원 가상물체가 다양한 움직임 또는 애니메이션을 실행할 수 있다. 즉, 사용자의 움직임에 인터랙션하여 3차원 가상물체가 움직일 수 있다. 또한, 인터랙션부(230)는 무게감 제어부(미도시) 및 촉감 제어부(미도시)를 포함할 수 있다.
무게감 제어부(미도시)는 상기 3차원 가상물체의 움직임에 대응하여 무게감을 느낄 수 있도록 제어할 수 있고, 촉감 제어부(미도시)는 상기 3차원 가상물체의 움직임에 대응하여 촉감을 느낄 수 있도록 제어할 수 있다. 즉, 무게감 제어부(미도시) 및 촉감 제어부(미도시)는 진동 센서를 구비한 장갑의 진동 센서를 제어하여 손의 무게감 및 촉감을 제어할 수 있다. 여기서, 진동 센서를 구비한 장갑은 도 7을 참고하여 이하에서 더욱 상세하게 설명한다.
도 7은 본 발명의 일실시예에 있어서, 손의 무게감 및 촉감을 제어하기 위한 전동 센서를 부착한 장갑을 도시한 도면이다.
도 7을 참고하면, 장갑에 복수 개의 진동 센서(711, 712, 713, 714, 715, 716)를 구비하여 무게감 및 촉감을 제어할 수 있다. 즉, 단말기(740)는 무선통신을 통해 컨트롤러(730)에 진동 모터(720)를 제어하는 명령을 전달할 수 있고, 진동 모터(720)는 복수 개의 진동 센서(711, 712, 713, 714, 715, 716)중 적어도 하나를 제어하여 사용자가 무게감 또는 촉감을 느끼도록 할 수 있다.
다시 도 2를 참고하면, 디스플레이부(240)는 상기 3차원 가상물체 및 상기 손의 영상을 출력할 수 있다. 이때, 손의 움직임에 인터랙션하여 움직이는 3차원 가상물체의 움직임의 변화를 디스플레이 화면을 통해 출력할 수 있다.
상기와 같이, 모바일 단말기를 사용하여, 한 손 기반의 증강현실 시스템을 구현할 수 있고, 진동 센서를 이용하여 촉감 인터랙션 및 무게감 인터랙션이 가능한 증강현실 시스템을 제공할 수 있다.
도 4는 본 발명의 일실시예에 있어서, 손 영역에서 손 부분을 분리하는 과정을 설명하기 위한 도면이다.
도 4를 참고하면, 도 4의 (a)는, 사용자의 손의 영상을 촬영한 영상이 도시되고, 도 4(b)에서는 상기 촬영된 손의 영상으로부터 손 영역을 추출할 수 있다.
도 4의 (c)에서는 손 영역의 외곽점을 추출하고 상기 외곽점을 이용하여 손 영역의 평균적인 방향을 구할 수 있다.
도 4의 (d)에서는 손 영역의 외곽점 세트를 하나 이상 산출하고, 상기 외곽점 세트 각각의 거리를 구하여 그 거리가 일정해지기 시작하는 점을 손목의 시작점으로 인식할 수 있다. 도 4의 (d)를 참고하면, 손 영역의 평균적인 방향(410)에 수직인 두 외곽점 세트(ex. 411과 412, 413과 414, 415와 416, 417과 418 등)를 산 출하고, 상기 외곽점 세트의 거리의 평균점(ex. 411과 412의 중간점, 413과 414의 중간점, 415와 416의 중간점, 417과 418의 중간점 등)을 산출할 수 있다. 이후, 상기 평균점에 수직인 두 외곽점(평균점을 연결한 곡선에서 평균점의 접선에 수직인 두 외곽점)들의 거리를 구하고, 상기 두 외곽점들의 거리가 일정해지는 점을 산출하여 이 점을 손목 시작점으로 인식할 수 있다. 즉, 손목을 제외한 손의 모양은 곡선으로 이루어져 이웃하는 외곽점 세트들의 거리 변화가 크나, 손목 부분은 외곽선이 평행한 두 직선에 가까워 이웃하는 외곽점 세트들의 거리가 거의 일정하다. 따라서, 상기 평균점에 수직인 외곽점들의 거리가 일정해지는 점을 손목 시작점으로 인식할 수 있다.
도 5는 본 발명의 일실시예에 있어서, 손 부분의 방향을 결정하는 과정을 설명하기 위한 도면이다.
도 5를 참고하면, 도 5의 (a)에서는 상기 외곽점 세트의 평균점 중 손 부분에 있는 점들(510)만을 추출하고, 도 5의 (b)에서 분리된 손 부분의 평균적인 방향(520)을 산출할 수 있다.
도 6은 본 발명의 일실시예에 있어서, 손의 포즈를 계산하고 3차원 가상물체를 렌더링하는 과정을 설명하기 위한 도면이다.
도 6을 참고하면, 도 6의 (a)에서 엄지와 집게손가락 사이의 홈 부분의 점(611)과 손목의 시작점(612)을 이용하여 손바닥 기준 길이 비를 구할 수 있다. 따라서, 이를 이용하여 손 포즈를 산출하고, 도 6의 (b)에서 3차원 가상물체(621)를 손의 영상과 함께 출력할 수 있다.
도 8은 본 발명의 일실시예에 있어서, 3차원 가상물체와 인터랙션이 가능한 모바일 증강현실 방법을 도시한 흐름도이다.
도 8을 참고하면, 단계(S810)에서는 단말기의 카메라를 이용하여 손의 영상을 촬영하고 3차원 가상물체를 생성한다. 단계(S810)은 상기 손의 영상에서 손 영역을 검출하는 단계, 상기 손의 포즈를 결정하는 단계 및 상기 손의 포즈에 대응하여 상기 3차원 가상물체를 생성하는 단계를 포함할 수 있다. 즉, 촬영된 영상으로부터 손 영역을 검출하고, 손 포즈를 결정하여 3차원 가상물체를 생성할 수 있다. 이때, 손 영역을 검출하는 단계는 손의 색상을 검출하는 단계 및 배경에서 상기 색상과 동일한 영역을 제거하는 단계를 포함할 수 있다. 또한, 상기 손의 포즈를 결정하는 단계는 상기 손 영역 내의 복수 개의 외곽점을 이용하여 상기 손 영역에서 손 부분을 분리하는 단계, 상기 분리된 손 부분의 방향을 결정하는 단계 및 손바닥의 길이 비를 이용하여 결정되는 프로젝션 모델로부터 손의 포즈를 계산하는 단계를 포함할 수 있다.
즉, 손 영역을 검출한 후 손 영역에서 손 부분을 분리하고, 분리된 손 부분의 방향을 결정하며 손의 포즈를 계산하여 3차원 가상물체를 생성할 수 있다.
단계(S820)에서는 상기 손의 영상 및 상기 3차원 가상물체를 화면 출력한다. 이때, 즉, 상기 손의 실사 영상에 상기 3차원 가상물체를 합하여 하나의 영상으로 출력할 수 있다.
단계(S830)에서는 상기 손의 움직임에 대응하여 상기 3차원 가상물체를 제어한다. 여기서, 진동 센서를 구비한 장갑을 통해 상기 3차원 가상물체의 움직임 에 대응하여 무게감 및 촉감을 느낄 수 있도록 상기 장갑의 진동 센서를 제어할 수 있다. 이때, 진동 센서를 제어하기 위해 상기 단말기와 장갑이 무선 통신하여 진동 센서를 제어할 수 있다.
상기와 같이, 모바일 장치를 이용하여 3차원 가상물체를 생성함으로써, 언제 어디서나 3차원 가상 컨텐츠에 접근할 수 있고, 비마커 기반의 증강현실 시스템을 구현할 수 있다.
또한, 손의 움직임을 인식하여 3차원 가상물체와 인터랙션을 제공하고, 진동 센서를 부착한 장치를 통해 무게감 및 촉감을 제어함으로써 보다 현실적이고, 실재감 있는 증강현실 시스템을 구현할 수 있다.
이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.