본 발명에서의 사용자 인터페이스는, 손의 이물감을 줄이기 위해 손가락에 착용 가능한 밴드 형태로 구현하여 착용감을 편리하게 하였으며, 이로 인해 손 위치 및 좌표 인식의 정확도를 높였다.
본 발명에서는 상기 사용자 인터페이스가 착용되는 손가락으로 서적 페이지의 분할된 특정 영역을 터치하거나 두 개의 손가락 끝을 붙이는 경우를 트리거로 인식한다.
본 발명에서는 인쇄서적의 기하마커 및 상기 인터페이스를 착용한 사용자 손을 인식하기 위한 수단으로, 웹 카메라(web camera)를 사용한 것을 특징으로 한다.
본 발명에서는 상기 웹 카메라를 통해 인식되는 기하마커 및 사용자 손 형상에 따라 해당 콘텐츠를 로딩하여 실사와 정합하여 뷰어(viewer)로 표현하는 것을 특징으로 한다.
본 발명에서의 기하마커란, 가상 콘텐츠의 위치를 지정하기 위해 실제 서적에 특정 그림으로 나타낸 레퍼런스(reference) 정보를 의미하며, 웹 카메라를 통해 인식되어 실감형 콘텐츠를 보여주거나 정의되어진 조작(이동, 확대 등)을 할 수 있도록 정보를 부여한다.
실감형 서적이란, 기존 서적의 페이지 위에 실감형 콘텐츠를 제시하여 실제 서적과 3D 콘텐츠/동영상/오디오/이미지를 함께 이용할 수 있는 서적을 말한다. 실감형 콘텐츠를 제시하기 위하여 서적 내에 특정 그림으로 고안된 마커를 포함하고 있으며, 페이지별 내용구조에 맞추어 투명센서가 서적 내에 삽입되어 손으로 페이지의 특정 영역을 선택하면 실감형 콘텐츠가 구동하게 된다.
본 발명에 적용되는 실감형 콘텐츠는, 3D 객체와 이들 간의 애니메이션을 정의한 3D 콘텐츠, 동영상, 오디오, 이미지 등으로 구성된다.
이하 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대해 설명하고자 한다.
도 1은 본 발명의 일 관점에 따른 혼합현실용 콘텐츠 재생 시스템에 대한 구성 블록도로서, 크게 클라이언트 영역(100)과 시스템 영역(200)을 포함한다.
클라이언트 영역(100)은 사용자의 단말기, 예를 들면 데스크톱(desktop) 내에 설치되는 응용 시스템으로서, 기하마커 인식부(104), 손 인식부(106), ID 통합부(108)를 포함하는 정보 인식부(110)와, 후술하는 시스템 영역(200)의 콘텐츠를 실행시키는 콘텐츠 실행부(112)와, 상기 콘텐츠 실행부(112)의 제어에 따라 실감형 콘텐츠를 실사와 합성 및 렌더링하는 콘텐츠 뷰어(114)로 이루어진다.
이러한 클라이언트 영역(100)에는 인쇄서적(1)의 기하마커(2)와 사용자 손을 촬영하기 위한 웹 카메라(10)와, 상기 웹 카메라(10)에서 촬영된 기하마커 정보 및 손 인식 정보에 따라 로딩되는 실감형 콘텐츠가 실사와 합성되어 디스플레이 되는 디스플레이 수단(12)이 연결된다.
즉, 도 2a 및 도 2b에 예시한 바와 같이, 기하마커(2)를 인쇄한 서적(1)을 인식하여 혼합현실용 콘텐츠를 재생하고 손을 이용하여 콘텐츠를 조작하는 방법을 설명하고 있는데, 웹 카메라(10), 디스플레이 수단(12), 인쇄서적(1), 사용자 손 등을 이용하여 인쇄서적(1)을 사용자가 보면서 동시에 실감형 콘텐츠를 이용할 수 있음을 알 수 있다.
한편, 상기 정보 인식부(110) 내의 기하마커 인식부(104)는 웹 카메라(10)를 통해 인식되는 영상, 즉 인쇄서적(1)의 기하마커 및 사용자 손 등의 영상에서 기하마커를 인식하는 역할을 하며, 손 인식부(106)는 상기 웹 카메라(10)를 통해 인식되는 영상에서 사용자 손 형상을 인식하는 역할을 한다.
ID 통합부(108)는 상기 기하마커와 사용자 손 형상 정보 간의 상이한 ID를 입력받아 통합 처리하여 후술하는 시스템 영역(200)에 전달하는 역할을 한다.
콘텐츠 실행부(112)는 시스템 영역(200)으로부터 제공되는 콘텐츠 정보, 예컨대 3D 콘텐츠, 오디오, 비디오 파일 등을 실사 정보, 예컨대 웹 카메라(10)를 통해 인식되는 기하마커와 손 인식 결과물을 토대로 한 인쇄서적의 임의 페이지를 합성하여 콘텐츠 뷰어(114)로 제공한다.
콘텐츠 뷰어(114)는 상기 콘텐츠 실행부(112)로부터 제공되는 콘텐츠 정보 및 실사 정보의 합성물을 렌더링하여 디스플레이 수단(12)에 제공하는 역할을 한다.
다른 한편, 본 실시예에서는, 사용자 인터페이스를 사용자의 손가락에 착용 가능한 밴드 형태로 구현한 것을 특징으로 한다. 이는, 손의 이질감을 없애고 착용감을 편리하게 하였으며, 이로 인해 손 위치 및 좌표 인식의 정확도를 높이기 위함이다. 본 실시예에서는 상기 사용자 인터페이스가 착용되는 손가락으로 서적 페이지의 분할된 특정 영역을 터치하거나 두 개의 손가락 끝을 붙이는 경우를 트리거(trigger)로 인식한다.
이는 도 3에 도시한 바와 같으며, 도 3에서는 인쇄서적(1)의 페이지의 사진 영역, 텍스트 영역 등 선택 영역(scope)을 찾아내기 위하여 손 인식을 통해 손가락 끝점 좌표와 대표 좌표 정보를 검출한 결과를 예시하였다.
다시 도 1을 살펴보면, 시스템 영역(200)은 본 실시예에 따른 실감형 콘텐츠를 저장 및 관리하며 실감형 콘텐츠 실행 프로그램과 파일정보를 교환하는 역할을 수행한다. 시스템 영역(200)은 상기 클라이언트 영역(100)과 동일한 사용자 단말기 내에 구성되거나, 또는 상기 클라이언트 영역(100)과 별도의 로컬 망(local network)으로 연결된 서버 내에 구성될 수 있다. 즉, 개인 사용자가 적용되는 경우에는 하나의 사용자 단말기 내에 클라이언트 영역 및 시스템 영역이 일체로 구성될 수 있으며, 기업, 학교, 공공기관 등에 소속된 사용자가 적용되는 경우에는 클라이언트 영역은 각각의 사용자 단말기 내에 구성하고 시스템 영역은 로컬 망과 연결된 별도의 서버에 구축하여야 할 것이다.
이러한 시스템 영역(200)은 콘텐츠 관리부(202), 프로파일 DB(Data Base)(204), 콘텐츠 DB(206)로 구성되는데, 콘텐츠 관리부(202)는 상기 클라이언트 영역(100)으로부터 제공되는 기하마커 정보와 손 정보의 인식 결과를 토대로 좌표 정보를 분석하여 인쇄서적의 임의 페이지에 관한 정보에 포함된 3D 콘텐츠, 오디오, 비디오 파일 등을 프로파일 DB(204) 및 콘텐츠 DB(206)에서 검출하고 관리하는 역할을 수행한다. 이때, 프로파일 DB(204) 및 콘텐츠 DB(206) 내의 3D 콘텐츠 오디오, 비디오 파일 등은 상기 클라이언트 영역(100)이 사용자 단말기 내에 설치될 때 저장될 수 있다.
이하, 상술한 구성과 함께, 본 발명의 다른 관점에 따른 혼합현실용 콘텐츠 재생 방법을 첨부한 도 4를 참조하여 상세히 설명하기로 한다. 설명에 앞서, 도 4의 과정은 임의의 기하마커가 인쇄서적을 제작할 때 미리 인쇄되어 있는 것을 전제로 한다.
도 4에 도시한 바와 같이, 단계(S400)에서 웹 카메라(10)를 통해 영상을 인식하였으면, 상기 웹 카메라(10)를 통한 영상은 클라이언트 영역(100)의 정보 인식부(110)로 제공된다.
정보 인식부(110)로 제공되는 영상은 소정의 전처리 과정을 거친 후 기하마커 인식부(104)로 제공되며, 기하마커 인식부(104)에서는 상기 웹 카메라(10)를 통한 영상에서 기하마커를 인식하는 과정을 거친다(S402, S404).
이후 단계(S406)에서는 인쇄서적의 자료특성 정보를 검출하는데, 상기 단계(S406)는 기하마커 인식을 통해 인쇄서적의 각 페이지 정보를 구하고, 상기 페이지의 자료특성에 따라 영역(scope)을 분할하여 삽입된 투명센서의 정보를 검출하는 과정이다.
이후 단계(S408)에서는 손 인식부(106)를 통해 상기 웹 카메라(10)를 통한 영상에서 사용자 손 형상을 인식하고 콘텐츠 조작 정보를 검출한다. 상기 콘텐츠 조작 정보 검출 과정은, 손 인식을 통해 페이지의 임의 위치 또는 기준에 나타나 있는 임의 3D 콘텐츠에 조작을 하는지에 대한 정보를 검출하는 과정이다.
단계(S410)에서는 상기 기하마커 인식부(104)를 통한 기하마커 정보와 상기 손 인식부(106)를 통한 사용자 손 형상 정보(손 인식 좌표 정보) 간의 상이한 ID를 통합하여 시스템 영역(200)에 전달한다.
단계(S412)에서 시스템 영역(200) 내의 콘텐츠 관리부(202)는 기하마커 정보와 손 인식 좌표 정보를 분석하여 프로파일 및 콘텐츠 정보를 프로파일 DB(204) 및 콘텐츠 DB(206)로부터 로딩한다.
이후 시스템 영역(200)은 단계(S414)로 진행하여 상기 프로파일 및 콘텐츠 정보를 클라이언트 영역(100)에 전달한다.
시스템 영역(200)으로부터 프로파일 및 콘텐츠 정보를 전달받은 클라이언트 영역(100)은 단계(S416)에서와 같이 상기 프로파일 및 콘텐츠 정보를 실사 정보와 합성 및 렌더링 처리한다. 이때의 실사 정보는, 예컨대 웹 카메라(10)를 통해 인식되는 기하마커와 손 인식 결과물을 토대로 한 인쇄서적의 임의 페이지 정보일 수 있다.
최종적으로 시스템 영역(200) 내의 콘텐츠 뷰어(114)를 통해 실사 정보와 합성된 실감형 콘텐츠 정보가 디스플레이 수단(12)을 통해 디스플레이될 수 있다(S418).
도 5a 내지 도 5f는 손을 통한 상호작용 방법에서 인쇄서적의 페이지의 특정 영역을 터치스크린과 같이 손으로 터치하여 이벤트를 발생시키는 액션의 예를 설명하는 도면이다.
도 5a 내지 도 5f에서는, 인쇄서적의 임의 페이지를 터치스크린으로 보고, 한 페이지를 자료특성에 따라 영역으로 분할하고 투명센서를 삽입하여 저작한 후 이 영역을 손으로 터치하면 웹 카메라를 통해 손의 위치를 인식하여 선택한 영역에 따른 3D 시뮬레이션, 오디오, 비디오, 이미지, 웹 페이지가 사용자 단말기를 통해 재생(또는 연동)되는 방법을 설명하는 예시도이다.
인쇄서적의 각 페이지 상단과 하단에 2개의 기하마커(2)를 이용하여 한 페이지 내의 각 영역에 설치된 가상의 투명센서가 인식되도록 하여 손으로 선택할 수 있게 하였으며, 한 페이지 내의 자료특성에 따라 텍스트 영역, 그래픽 영역, 표 영역, 사진 영역, 시뮬레이션 영역, 음악 영역, 음성 영역, 웹 연동 영역, 문제풀기 게임 영역 등으로 구분하여 사용자가 손으로 자료 영역을 터치하면 이를 선택한 것 으로 인식하고 해당되는 실감형 콘텐츠(3D 콘텐츠, 오디오, 비디오, 이미지 등)를 시스템 영역(200)에서 불러와 실행하거나 웹 페이지를 띄울 수 있다.
동영상의 경우에는 인쇄서적의 사진으로 제시된 식물, 인체, 우주 등을 손으로 선택하면 사진 위의 동영상을 재생시킬 수 있다(도 5a에 예시).
3D 콘텐츠의 경우에는 서적에 제시된 지층 그림, 화학실험 그림을 손으로 선택하면 과학 시뮬레이션을 할 수 있고, 각 3D 오브젝트를 사용자가 선택, 이동, 확대, 축소, 회전 등의 액션을 할 수 있다(도 5b에 예시).
오디오의 경우에는 서적에 텍스트로 제시된 신문기사나 영어문장 등을 손으로 선택하면 기사를 읽어주거나 원어민 발음을 들려준다(도 5c, 도 5d에 예시).
인쇄서적에 악보가 제시된 경우에는 해당 소절별로 또는 전체 음악을 들을 수 있다(도 5e에 예시).
문항 텍스트를 손으로 선택하면 문제풀기 및 답을 맞출 수 있는 콘텐츠가 제시된다. 또한, 단어 게임이나 줄긋기 등 인쇄서적에 제시된 퀴즈를 손으로 선택하면 게임 콘텐츠로 제시되어 게임을 할 수 있다(도 5f에 예시).
이상, 본 발명의 실시예에 대해 상세히 기술하였으나 본 발명은 이러한 실시예에 국한되는 것은 아니며, 후술하는 청구범위에 기재된 본 발명의 기술적 사상과 범주 내에서 당업자로부터 여러 가지 변형이 가능함은 물론이다.