KR101177058B1 - 마커 기반 3차원 입체 시스템 - Google Patents

마커 기반 3차원 입체 시스템 Download PDF

Info

Publication number
KR101177058B1
KR101177058B1 KR1020100122096A KR20100122096A KR101177058B1 KR 101177058 B1 KR101177058 B1 KR 101177058B1 KR 1020100122096 A KR1020100122096 A KR 1020100122096A KR 20100122096 A KR20100122096 A KR 20100122096A KR 101177058 B1 KR101177058 B1 KR 101177058B1
Authority
KR
South Korea
Prior art keywords
marker
module
image
display
interactive computing
Prior art date
Application number
KR1020100122096A
Other languages
English (en)
Other versions
KR20120060548A (ko
Inventor
정광모
홍성희
박병하
박영충
최광순
안양근
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020100122096A priority Critical patent/KR101177058B1/ko
Publication of KR20120060548A publication Critical patent/KR20120060548A/ko
Application granted granted Critical
Publication of KR101177058B1 publication Critical patent/KR101177058B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32144Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title embedded in the image data, i.e. enclosed or integrated in the image, e.g. watermark, super-imposed logo or stamp
    • H04N1/32352Controlling detectability or arrangements to facilitate detection or retrieval of the embedded information, e.g. using markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 마커 기반 3차원 입체 시스템에 관한 것으로, 더욱 상세하게는 마커 기반 영상 인식 기술과 테이블형 3D 홀로그램 디스플레이 기술을 이용한 3차원 입체 시스템에 관한 것이다.
이를 위해 본 발명의 마커 기반 3D 입체 시스템은 테이블 타입의 3차원 영상을 디스플레이하는 3차원 디스플레이 모듈, 디스플레이된 상기 3차원 영상으로 진입하는 사용자의 손가락의 위치를 감시하는 동작 인식 모듈, 제공받은 마커 정보에 대응되는 3차원 영상을 디스플레이하도록 상기 3차원 디스플레이 모듈을 제어하며, 상기 동작 인식 모듈로부터 제공받은 손가락의 위치에 따라 표시된 상기 3차원 영상을 조절하도록 제어하는 인터렉티브 컴퓨팅 모듈, 촬영된 마커를 분석한 마커 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 마커 인식 모듈을 포함한다.

Description

마커 기반 3차원 입체 시스템{System for 3D based marker}
본 발명은 마커 기반 3차원 입체 시스템에 관한 것으로, 더욱 상세하게는 마커 기반 영상 인식 기술과 테이블형 3D 홀로그램 디스플레이 기술을 이용한 3차원 입체 시스템에 관한 것이다.
3D 입체 영상은 인간이 두 눈으로 봄으로써 입체를 지각한다는 사실에 기초를 두고 있다. 3D 입체 영상은 2대의 카메라 또는 쌍둥이 렌즈가 부착된 카메라로 촬영하는데, 하나는 왼쪽 눈을, 다른 하나는 오른쪽 눈을 나타낸다. 이 두 렌즈는 사람의 두 눈의 간격 만큼인 약 6.3㎝가 떨어져 있다. 여기서 얻어지는 영상은 2대의 동시투사기에 의해 스크린에 투사된다. 유저는 반드시 다른 색조를 띠었거나 편광된 안경을 끼어야만 왼쪽 눈과 오른쪽 눈의 영상들을 그 영상들이 나타내는 대로 볼 수 있다. 유저는 영상들을 현실적으로는 따로따로 보지만 실제로는 이 2개의 약간 다른 영상들이 관객의 정신에 의해 융합되기 때문에 입체 형태로 지각하게 된다.
이와 같이 3D 영상은 복수 개의 카메라와 편광 안경을 이용하여 생성하거나, 편광 안경을 이용하지 않고 생성할 수 있다.
도 1은 종래 박물관의 전시물을 관람하는 일예를 도시하고 있다. 도 1에 의하면, 박물관의 전시물들은 회전, 근접 등이 불가능하여 관람을 하기 위해서는 관람객이 직접 움직여야 하고, 360도 전체 모습을 관람할 수 없는 전시물이 대부분이다. 기존의 전시물 안내 시스템은 전시물과 함께 단순한 설명 또는 간략한 영상을 함께 제공한다. 또는 기존의 전시물 안내 시스템은 대인용 단말기를 박물관 측에서 대여한 후, 이를 가지고 다니며 관람을 해야 한다. 하지만 이러한 방법은 전시물의 단편적인 모습밖에 볼 수 없다.
종래와 같은 이러한 방식의 전시 안내 시스템은 관람객들에 큰 흥미를 유발시키지 못하고, 전시물에 대한 충분한 정보를 제공하지 못한다. 따라서 어느 정도 사전 지식을 갖지 못한 관람객의 경우 전시물을 그냥 한번 훑어보고 지나가게 되고, 박물관 관람 후에도 몇 개의 전시물 외에는 기억하지 못하게 된다.
일반적으로 박물관은 가족단위로, 특히 아이들에게 교육적인 목적으로 방문하는 경우가 있다. 하지만 박물관에 전시된 전시물들을 하나하나 유심히 관람하며 다니는 사람들은 드물고, 박물관을 나온 후에도 몇 가지 전시물밖에는 기억해 내지 못한다. 이것은 전시물에 대한 설명 및 흥미유발 요소가 부족하기 때문이다.
본 발명이 해결하려는 과제는 관람객이 참여하고 체험하면서 전시물을 관람할 수 있는 보다 효과적인 시스템을 제안한다.
본 발명이 해결하려는 다른 과제는 교육산업에 있어, 아동용, 청소년용 입체 콘텐츠를 제작함으로서 기존 교육의 틀에서 벗어나 간접체험의 콘텐츠를 적극 활용하여 고급화된 교육 서비스를 제공할 수 있다.
이를 위해 본 발명의 마커 기반 3D 입체 시스템은 테이블 타입의 3차원 영상을 디스플레이하는 3차원 디스플레이 모듈, 디스플레이된 상기 3차원 영상으로 진입하는 사용자의 손가락의 위치를 감시하는 동작 인식 모듈, 제공받은 마커 정보에 대응되는 3차원 영상을 디스플레이하도록 상기 3차원 디스플레이 모듈을 제어하며, 상기 동작 인식 모듈로부터 제공받은 손가락의 위치에 따라 표시된 상기 3차원 영상을 조절하도록 제어하는 인터렉티브 컴퓨팅 모듈, 촬영된 마커를 분석한 마커 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 마커 인식 모듈을 포함한다.
이를 위해 본 발명의 마커 기반 3D 입체 시스템은 테이블 타입의 3차원 영상을 디스플레이하는 3차원 디스플레이 모듈, 디스플레이된 상기 3차원 영상으로 진입하는 사용자의 손가락의 위치를 감시하는 동작 인식 모듈, 제공받은 마커 정보에 대응되는 3차원 영상을 디스플레이하도록 상기 3차원 디스플레이 모듈을 제어하며, 상기 동작 인식 모듈로부터 제공받은 손가락의 위치에 따라 표시된 상기 3차원 영상을 조절하도록 제어하는 인터렉티브 컴퓨팅 모듈, 촬영된 마커를 분석한 마커 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 마커 인식 모듈, 상기 인터렉티브 컴퓨팅 모듈에서 작성한 영상목록을 평면 표시부에 표시하도록 제어하며, 상기 평면 표시부에 표시된 영상목록 중 선택된 특정 목록에 대한 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 영상처리 모듈을 포함한다.
본 발명에 따른 마커 기반 3D 입체 시스템은 박물관 관람객의 흥미를 유발시키고, 전시물에 대한 이해를 높일 수 있으며, 교육산업에 있어, 아동용, 청소년용 입체 콘텐츠를 제작함으로서 기존 교육의 틀에서 벗어나 간접체험의 콘텐츠를 적극 활용하여 고급화된 교육 서비스를 제공할 수 있다.
즉, 본 발명에 따른 마커 기반 3D 입체 시스템은 관람객이 참여하고 체험하면서 전시물을 관람할 수 있도록 함으로써 보다 효과적으로 전시물을 관람할 수 있게 된다.
도 1은 종래 박물관의 전시물을 관람하는 일예를 도시하고 있으며,
도 2는 본 발명의 일실시 예에 따른 마커 기반 3D 입체 시스템을 도시하고 있으며,
도 3은 본 발명의 일실시 예에 따른 마커 기반 3D 입체 시스템을 구현하기 위한 구성을 도시하고 있다.
전술한, 그리고 추가적인 본 발명의 양상들은 첨부된 도면을 참조하여 설명되는 바람직한 실시 예들을 통하여 더욱 명백해질 것이다. 이하에서는 본 발명의 이러한 실시 예를 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다.
최근 각국에서 동작인식 기능을 이용한 기술을 개발하고 있으나, 인터렉티브(Interactive) 3D 관련 핵심원천기술은 아직 개발 초기 단계이다. 인터렉티브 3D 관련 핵심원천기술은 자유 시각 3D, TOF(Time of Flight) 3D 센서기술, 비접촉식 공간촉감기술, 상황적(Contextual) 3D 오브젝트 프로세싱 기술 등이 포함된다.
즉, IT 기술의 발달과 더불어 대중의 3D 기술에 대한 관심과 시장성이 갈수록 증가하는 추세이며, 새로운 신산업으로 3D 융합산업이 떠오르고 있다. 또한 3D 관련 시장이 전시관이나 체험관 또는 영화관 등에서 대중을 상대로 하는 특수 분야의 시장에서 제한적으로 적용되어 왔으나, 3D 인터랙션 기능이 융합되면서 일반 개인이 사용할 수 있는 정보가전기기 시장으로 기능이 확대되어 대형 산업을 일으킬 것으로 예측된다.
인터렉티브 3D 기술은 홈 네트워크 정보가전 산업의 새로운 비즈모델을 창출하는 역할을 할 것으로 기대된다. 또한 3D 영상에 인터렉티브 UI 기술을 접목할 경우 직관적이고 조작이 쉬워 조작 자체에서 현실감과 흥미를 느끼고, 이로 인해 디지털 기기에서 아날로그 감성을 느낄 수 있게 된다.
이에 본 발명은 마커(marker) 기반 3D 입체 시스템을 제안한다. 마커는 전시물의 그림이 그려진 작은 오브젝트(object)이다. 마커를 정해진 위치에 올려놓으면, 마커 인식 모듈이 마커를 분석하여 해당 영상을 출력한다. 작은 LCD 디스플레이 화면은 상술한 해당 영상 이외에 다른 관련 영상들의 목록을 출력해 준다. 사용자는 3D 입체영상을 만지듯이 회전, 확대, 축소들을 할 수 있고, 특정 부분에 대해서는 상세 설명을 볼 수 있다.
도 2는 본 발명의 일실시 예에 따른 마커 기반 3D 입체 시스템을 도시하고 있다. 이하 도 2를 이용하여 본 발명의 일실시 예에 따른 마커 기반 3D 입체 시스템에 대해 상세하게 알아보기로 한다.
도 2에 의하면, 마커 기반 3D 입체 시스템은 마커인식모듈(200), 동작인식모듈(202), 3D 디스플레이 모듈(204), 영상 처리 모듈(206), 인터렉티브 컴퓨팅 모듈(208)을 포함한다. 물론 상술한 구성 이외에 다른 구성이 마커 기반 3D 큐레이터 시스템에 포함될 수 있음은 자명하다. 즉, 마커 기반 3D 입체 시스템은 마커에 대한 정보를 저장하고 있는 저장부를 부가할 수 있다.
마커인식모듈(200)은 전시물의 그림이 그려진 마커를 정해진 위치에 올려놓으면 마커의 내용을 파악하여 인터렉티브 컴퓨팅 모듈(208)에 전달한다. 마커인식모듈(200)은 영상인식기술을 이용하여 카메라로 촬영한 마커의 캡쳐 이미지를 분석한다. 마커인식모듈(200)은 분석한 캡쳐 이미지에서 노이즈를 제거하고 의미를 가지는 부분만을 인터렉티브 컴퓨팅 모듈(208)에 전달한다.
동작인식 모듈(202)은 사용자가 3D 디스플레이에 의해 디스플레이된 영상의 터치 여부를 인식한다. 즉, 동작인식 모듈(202)은 사용자의 행동이나 손동작을 인식하여 3D 오브젝트와 연동하기 위한 고정밀 3D 공간 감지 기능을 구현한다. 동작인식모듈은 고해상도의 TOF( 방식 3D Depth 센서 모듈을 사용하여 조명의 간섭에 강하고 실시간으로 3D 공간을 해석하여 인터렉션 할 수 있다. 사용자가 입체영상을 축소, 확대, 회전 시킬 수 있는 제스처를 인식하여 인터렉티브 컴퓨팅 모듈(208)에 전달한다.
사용자는 3D 디스플레이 모듈(204)에 의해 디스플레이된 3D 영상을 인지한다. 3D 디스플레이 모듈(204)은 테이블 타입의 3D 디스플레이 기능과 플래쉬 홀로그램 디스플레이 기능을 구현한다. 테이블 타입 자유 시각 3D 디스플레이는 벽에 걸려있는 일반적인 디스플레이가 아니라 테이블 형태의 자유 시각 3D 디스플레이다. 즉, 테이블에 수평으로 존재하는 가상의 3D 오브젝트를 테이블 위에 실제로 존재하는 것처럼 디스플레이함으로써 사용자들에게 사물을 조작하는 느낌을 전달할 수 있다.
본 발명은 3D 디스플레이 모듈(204)에 부가하여 플래쉬 홀로그램(Flash Hologram) 디스플레이 기능을 구현하는 플래쉬 홀로그램 디스플레이 모듈을 포함할 수 있다. 플래쉬 홀로그램 디스플레이 모듈은 테이블 타입 인터렉티브 3D 시스템에서 메인이 되는 3D 디스플레이 모듈(204)과 동시에 사용될 수 있으며, 부분적으로 완벽한 다시점 3D 오브젝트를 표현하는 기능을 수행한다.
일반적으로 홀로그램은 홀로그래피에 의해 생성된 3차원 사진을 의미하며, 필름이나 감광 건판 등 기록 매체에 레이저 광 등 빛의 간섭 패턴을 기록한 것이다. 홀로그래피 방식은 피사체로부터의 빛과 간섭성이 있는 참조광을 겹쳐서 얻어지는 간섭신호를 기록하고 이를 재생하는 원리를 이용하는 것으로, 입체감 있는 영상을 구현하는 이상적인 디스플레이 방식이다. 홀로그램은 어떤 대상 물체의 3차원 입체상을 재생한다. 3D 디스플레이 모듈은 전시물의 3D 영상을 회전, 확대, 축소하여 일반적으로는 볼 수 없었던 물체의 바닥, 내부를 볼 수 있도록 한다.
영상 처리 모듈(206)은 인식한 마커가 가리키는 전시물과 관련된 다른 영상들을 인터렉티브 컴퓨팅 모듈(208)로부터 전달받아 작은 LCD 화면(표시부)에 출력한다. 영상 처리 모듈(206)은 사용자로부터 터치스크린으로 영상을 선택받아 인터렉티브 컴퓨팅 모듈(208)에 전달하여 3D 디스플레이 모듈(204)에서 입체 영상을 출력하도록 한다.
인터렉티브 컴퓨팅 모듈(208)은 마커인식모듈(200)로부터 전달받은 정보를 이용하여 출력할 영상정보를 3D 디스플레이 모듈(204)에 전달한다. 인터렉티브 컴퓨팅 모듈(204)은 동작 인식 모듈(202)로부터 전달받은 신호에 따라 3D 디스플레이에 출력중인 입체영상을 조절한다. 인터렉티브 컴퓨팅 모듈(208)은 관련영상들을 검색하여 목록을 작성한 후 영상 처리 모듈(206)에 전달한다. 인터렉티브 컴퓨팅 모듈(208)은 시스템에 연결된 고성능 스토리지의 3D 미디어 데이터베이스의 인터렉션 데이터를 엑세스하여 처리된다.
도 3은 본 발명의 일실시 예에 따른 마커 기반 3D 입체 시스템을 구현하기 위한 구성을 도시하고 있다. 이하 도 3을 이용하여 본 발명의 일실시 예에 따른 마커 기반 3D 입체 시스템에 대해 상세하게 알아보기로 한다.
도 3에 의하면, 마커 기반 3D 입체 시스템은 3D 입체 디스플레이, 사용자 동작 인식 3D 깊이 카메라, 마커 인식 카메라, 입체 영상 선택용 터치스크린 패널을 포함한다.
3D 입체 디스플레이(300)는 3D 디스플레이 모듈(204)에 의해 출력된 3D 영상을 출력한다. 상술한 바와 같이 3D 디스플레이 모듈(204)은 테이블 타입의 3D 디스플레이 기능과 플래쉬 홀로그램 디스플레이 기능을 구현한다. 테이블 타입 자유 시각 3D 디스플레이는 벽에 걸려있는 일반적인 디스플레이가 아니라 테이블 형태의 자유 시각 3D 디스플레이다. 즉, 테이블에 수평으로 존재하는 가상의 3D 오브젝트를 테이블 위에 실제로 존재하는 것처럼 디스플레이함으로써 사용자들에게 사물을 조작하는 느낌을 전달할 수 있다.
사용자 동작 인식 3D 깊이 카메라(302)는 전면부를 구성하고 적외선 펄스 출력부와 적외선 펄스 수신부를 포함한다. 적외선 펄스 출력부는 사용자 동작 인식 3D 깊이 카메라(302)의 전면부로부터 적외선 펄스를 출력하며, 적외선 펄스 입력부는 적외선 펄스 출력부에서 출력된 적외선 펄스 중 사물에 반사되어 되돌아오는 적외선 펄스를 수신한다. 사용자 동작 인식 3D 깊이 카메라(302)는 적외선 펄스 출력된 적외선 펄스가 사물에 의해 반사되어 되돌아오는 시간을 측정한다. 측정된 시간을 이용하여 사용자 동작 인식 3D 깊이 카메라는 사물까지의 거리를 산출한다.
이에 대해 부가하여 설명하면 3차원 영상을 생성하기 위해서는 다시점 영상과 함께 장면에 대한 깊이 정보가 필요하다. 깊이 정보를 획득하는 방법은 수동형 방식과 능동형 방식의 두 가지로 나눌 수 있다. 수동형 방식은 촬영된 영상을 이용하여 장면의 깊이 정보를 예측하는 것으로써 스테레오 매칭이나 2차원 영상의 3차원 변환과 같은 방법이 이에 해당된다. 능동형 방식은 거리 센서를 이용하는 하드웨어 기반의 방식으로써 TOF(Time of Flight) 센서를 사용하는 깊이 카메라와 3차원 스캐너 등의 장비를 이용한다. TOF 센서를 이용하는 깊이 카메라는 실시간으로 장면의 실제 깊이 정보를 얻을 수 있다는 장점을 있다.
이하 3차원 카메라의 동작에 대해 알아보기로 한다. 3차원 카메라는 카메라로부터 가까운 곳에 위치하고 있는 사물은 백색으로 표시하며, 카메라로부터 먼 곳에 위치하고 있는 사물은 흑색으로 표시한다. 따라서 3차원 영상에서 백색으로 표시된 영상은 카메라로부터 가까운 곳에 위치하고 있는 영상이며, 흑색으로 표시된 영상은 카메라로부터 먼 곳에 위치하고 있는 영상임을 인지할 수 있게 된다.
3차원 카메라는 카메라의 전면부를 구성하고 적외선 펄스 출력부와 적외선 펄스 수신부를 포함한다. 적외선 펄스 출력부는 적외선 펄스를 카메라 전면부로 출력하며, 적외선 펄스 입력부는 적외선 펄스 출력부에서 출력된 적외선 펄스 중 사물에 반사되어 되돌아오는 적외선 펄스를 수신한다. 3차원 카메라는 적외선 펄스 출력된 적외선 펄스가 사물에 의해 반사되어 되돌아오는 시간을 측정한다. 측정된 시간을 이용하여 3차원 카메라는 사물까지의 거리를 산출한다.
마커 인식 카메라(304)는 특정 위치에 놓인 마커를 촬영한다. 마커 인식 카메라(304)에서 촬영한 마커는 마커 인식 모듈(200)에 의해 인터렉티브 컴퓨팅 모듈(208)로 제공한다. 이를 위해 마커 기반 3D 입체 시스템은 마커를 올려놓는 공간을 가지고 있으며, 입체 영상 선택용 터치스크린 패널(306)을 포함한다.
도 3에 의하면, 3D 입체 디스플레이를 이용하여 거북선을 출력한 예를 도시하고 있다. 출력된 거북선 이미지를 이용하여 본 발명의 마커 기반 3D 입체 시스템을 설명한다.
마커 인식 카메라(304)는 특정 위치에 놓인 거북선 마커를 촬영하여 마커 인식 모듈(200)의 제어 하에 인터렉티브 컴퓨팅 모듈(208)로 제공한다. 인터렉티브 컴퓨팅 모듈(208)은 제공받은 마커를 이용하여 3D 디스플레이에 3D 형태의 거북선을 출력하도록 3D 디스플레이 모듈(204)을 제어한다.
3D 디스플레이 모듈(204)은 인터렉티브 컴퓨팅 모듈(208)의 제어 명령에 따라 3D 형태의 거북선을 3D 디스플레이에 표시한다. 3D 디스플레이 모듈(204)은 표시된 거북선의 특정 구성에 대한 설명을 함께 표시한다. 일예로 3D 디스플레이 모듈(204)은 거북선의 노 또는 돛에 대한 설명을 함께 표시한다.
입체 영상 선택용 터치스크린 패널(306)은 표시된 거북선과 관련된 목록들 중 하나를 선택한다. 일예로 입체 영상 선택용 터치스크린 패널(306)에 표시되는 목록은 거북선 전경, 거북선 내부 1층, 거북선 내부 2층, 이순신 등을 포함하며, 사용자는 입체 영상 선택용 터치스크린 패널(306)을 조작하여 표시된 목록 중 특정 하나를 선택한다. 사용자가 선택한 목록에 대한 정보는 인터렉티브 컴퓨팅 모듈(208)로 제공되며, 인터렉티브 컴퓨팅 모듈(208)은 제공된 목록에 대응되는 3D 이미지를 3D 입체 디스플레이(300)에 출력하도록 3D 디스플레이 모듈(204)을 제어한다.
본 발명은 도면에 도시된 일실시 예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.
200: 마커 인식 모듈 202: 동작 인식 모듈
204: 3D 디스플레이 모듈 206: 영상 처리 모듈
208: 인터렉티브 컴퓨팅 모듈 300:3D 입체 디스플레이
302: 사용자 동작 인식 3D 깊이 카메라
304: 마커 인식 카메라 306: 입체 영상 선택 터치스크린 패널

Claims (7)

  1. 테이블 타입의 3차원 영상을 디스플레이하는 3차원 디스플레이 모듈;
    디스플레이된 상기 3차원 영상으로 진입하는 사용자의 손가락의 위치를 감시하는 동작 인식 모듈;
    제공받은 마커 정보에 대응되는 3차원 영상을 디스플레이하도록 상기 3차원 디스플레이 모듈을 제어하며, 상기 동작 인식 모듈로부터 제공받은 손가락의 위치에 따라 표시된 상기 3차원 영상을 조절하도록 제어하는 인터렉티브 컴퓨팅 모듈;
    제공받은 마커를 분석하며, 분석한 마커 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 마커 인식 모듈을 포함함을 특징으로 하는 마커 기반 3D 입체 시스템.
  2. 제 1항에 있어서, 상기 동작 인식 모듈은,
    출력한 적외선 펄스가 사물에 의해 반사되어 돌아오는 시간을 이용하여 사용자의 손가락 위치를 촬영하는 3차원 카메라를 포함함을 특징으로 하는 마커 기반 3D 입체 시스템.
  3. 제 2항에 있어서, 마커를 촬영하는 마커 인식 카메라를 포함하며, 촬영된 상기 마커는 상기 마커 인식 모듈로 제공됨을 특징으로 하는 마커 기반 3D 입체 시스템.
  4. 제 3항에 있어서, 상기 인터렉티브 컴퓨팅 모듈은,
    상기 3차원 디스플레이 모듈에 의해 디스플레이된 3차원 영상과 관련된 영상목록을 작성함을 특징으로 하는 마커 기반 3D 입체 시스템.
  5. 제 4항에 있어서,
    상기 인터렉티브 컴퓨팅 모듈에서 작성한 영상목록을 표시부에 표시하도록 제어하며, 상기 표시부에 표시된 영상목록 중 선택된 특정 목록에 대한 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 영상처리 모듈을 포함함을 특징으로 하는 마커 기반 3D 입체 시스템.
  6. 테이블 타입의 3차원 영상을 디스플레이하는 3차원 디스플레이 모듈;
    디스플레이된 상기 3차원 영상으로 진입하는 사용자의 손가락의 위치를 감시하는 동작 인식 모듈;
    제공받은 마커 정보에 대응되는 3차원 영상을 디스플레이하도록 상기 3차원 디스플레이 모듈을 제어하며, 상기 동작 인식 모듈로부터 제공받은 손가락의 위치에 따라 표시된 상기 3차원 영상을 조절하도록 제어하는 인터렉티브 컴퓨팅 모듈;
    제공받은 마커를 분석하며, 분석한 마커 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 마커 인식 모듈;
    상기 인터렉티브 컴퓨팅 모듈에서 작성한 영상목록을 평면 표시부에 표시하도록 제어하며, 상기 평면 표시부에 표시된 영상목록 중 선택된 특정 목록에 대한 정보를 상기 인터렉티브 컴퓨팅 모듈로 제공하는 영상처리 모듈을 포함함을 특징으로 하는 마커 기반 3D 입체 시스템.
  7. 제 6항에 있어서, 마커를 촬영하는 마커 인식 카메라를 포함하며, 촬영된 상기 마커는 상기 마커 인식 모듈로 제공됨을 특징으로 하는 마커 기반 3D 입체 시스템.
KR1020100122096A 2010-12-02 2010-12-02 마커 기반 3차원 입체 시스템 KR101177058B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100122096A KR101177058B1 (ko) 2010-12-02 2010-12-02 마커 기반 3차원 입체 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100122096A KR101177058B1 (ko) 2010-12-02 2010-12-02 마커 기반 3차원 입체 시스템

Publications (2)

Publication Number Publication Date
KR20120060548A KR20120060548A (ko) 2012-06-12
KR101177058B1 true KR101177058B1 (ko) 2012-08-24

Family

ID=46611442

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100122096A KR101177058B1 (ko) 2010-12-02 2010-12-02 마커 기반 3차원 입체 시스템

Country Status (1)

Country Link
KR (1) KR101177058B1 (ko)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101329529B1 (ko) * 2012-06-27 2013-11-14 주식회사 나무가 동작인식 모듈 및 동작인식 시스템
KR101643569B1 (ko) * 2015-10-08 2016-07-29 주식회사 인솔엠앤티 체험자가 채색한 색상이 적용된 입체 오브젝트의 동영상 출력 방법을 이용한 체험 방법
KR101921140B1 (ko) * 2017-04-20 2018-11-22 한국생산기술연구원 딥러닝을 이용한 3차원 터치 인식 장치 및 이를 이용한 3차원 터치 인식 방법
CN111312116B (zh) * 2019-11-18 2021-02-26 钱才英 一种基于vr技术的可视化展品展示系统及方法
KR102408010B1 (ko) * 2020-10-30 2022-06-14 플링커 주식회사 실감형 유물 발굴 게임 시스템
KR102480387B1 (ko) * 2020-11-13 2022-12-23 건국대학교 글로컬산학협력단 촉감 유도 장치 및 이를 이용한 접촉하지 않고 버튼을 누르는 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100672288B1 (ko) 2005-11-07 2007-01-24 신믿음 마커간 융합을 이용하여 증강현실을 구현하는 방법 및 그장치
KR100929162B1 (ko) 2009-04-20 2009-12-01 (주)디스트릭트홀딩스 제스쳐를 이용한 인터렉티브 홀로그램 정보 서비스 장치 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100672288B1 (ko) 2005-11-07 2007-01-24 신믿음 마커간 융합을 이용하여 증강현실을 구현하는 방법 및 그장치
KR100929162B1 (ko) 2009-04-20 2009-12-01 (주)디스트릭트홀딩스 제스쳐를 이용한 인터렉티브 홀로그램 정보 서비스 장치 및 방법

Also Published As

Publication number Publication date
KR20120060548A (ko) 2012-06-12

Similar Documents

Publication Publication Date Title
US10652522B2 (en) Varying display content based on viewpoint
KR101156734B1 (ko) 테이블 타입 인터렉티브 3차원 시스템
Kulik et al. C1x6: a stereoscopic six-user display for co-located collaboration in shared virtual environments
US7796134B2 (en) Multi-plane horizontal perspective display
US8791989B2 (en) Image processing apparatus, image processing method, recording method, and recording medium
US20110216160A1 (en) System and method for creating pseudo holographic displays on viewer position aware devices
US20050219695A1 (en) Horizontal perspective display
KR101177058B1 (ko) 마커 기반 3차원 입체 시스템
KR20140014160A (ko) 실감형 디스플레이 경험
KR20140082610A (ko) 휴대용 단말을 이용한 증강현실 전시 콘텐츠 재생 방법 및 장치
CN102804169A (zh) 用于立体影院的以观看者为中心的用户界面
US20060221071A1 (en) Horizontal perspective display
KR101304454B1 (ko) 3d 갤러리 생성 장치 및 방법
Sandnes et al. Head-mounted augmented reality displays on the cheap: a DIY approach to sketching and prototyping low-vision assistive technologies
US20060250390A1 (en) Horizontal perspective display
WO2013108285A1 (ja) 画像記録装置、立体画像再生装置、画像記録方法、及び立体画像再生方法
JP2019512177A (ja) 装置および関連する方法
US11057612B1 (en) Generating composite stereoscopic images usually visually-demarked regions of surfaces
CN110554556B (zh) 一种用于多屏幕的空间全息互动操控的方法及系统
Ogi et al. Usage of video avatar technology for immersive communication
Jones et al. Time-offset conversations on a life-sized automultiscopic projector array
Richardt et al. Video for virtual reality
Shumaker Virtual, Augmented and Mixed Reality: Designing and Developing Augmented and Virtual Environments: 5th International Conference, VAMR 2013, Held as Part of HCI International 2013, Las Vegas, NV, USA, July 21-26, 2013, Proceedings, Part I
Regalbuto Remote Visual Observation of Real Places through Virtual Reality Headsets
Hopf et al. Novel autostereoscopic single-user displays with user interaction

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150626

Year of fee payment: 4

LAPS Lapse due to unpaid annual fee