KR20190076416A - 인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템 - Google Patents

인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템 Download PDF

Info

Publication number
KR20190076416A
KR20190076416A KR1020170178198A KR20170178198A KR20190076416A KR 20190076416 A KR20190076416 A KR 20190076416A KR 1020170178198 A KR1020170178198 A KR 1020170178198A KR 20170178198 A KR20170178198 A KR 20170178198A KR 20190076416 A KR20190076416 A KR 20190076416A
Authority
KR
South Korea
Prior art keywords
display device
image content
image
user
interaction
Prior art date
Application number
KR1020170178198A
Other languages
English (en)
Inventor
조홍래
문치우
신종민
Original Assignee
주식회사 바이널아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 바이널아이 filed Critical 주식회사 바이널아이
Priority to KR1020170178198A priority Critical patent/KR20190076416A/ko
Publication of KR20190076416A publication Critical patent/KR20190076416A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명의 일 실시예에 따른 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템은 특정 공간 내의 전면에 설치되어 제1 3D 영상 컨텐츠를 표시하고, 사용자 움직임에 따라 상기 표시된 제1 3D 영상 컨텐츠를 제어하는 메인 디스플레이 장치, 상기 특정 공간 내에서 상기 메인 디스플레이 장치와 일정 간격 이격되도록 설치되어 상기 사용자 움직임을 감지하는 모션 센서, 상기 특정 공간 내의 일 측면에 설치되어 제2 3D 영상 컨텐츠를 표시하고, 사용자의 터치 입력에 따라 상기 표시된 제2 3D 영상 컨텐츠를 제어하는 서브 디스플레이 장치, 상기 특정 공간 내의 타 측면에 매립된 목업(mockup)에 제3 3D 영상 컨텐츠를 오버랩하여 표시하고, 상기 사용자의 터치 입력에 따라 상기 표시된 제3 3D 영상 컨텐츠를 제어하는 투명 디스플레이 장치 및 상기 특정 공간 내의 타 측면에 설치되고, 상기 메인 디스플레이 장치, 상기 서브 디스플레이 장치 및 상기 투명 디스플레이 장치와의 인터랙션(interaction)을 통해 미리 설정된 아바타에 상기 제1 내지 제3 3D 영상 컨텐츠를 반영하여 표시하는 아바타 디스플레이 장치를 포함하는 것을 특징으로 한다.

Description

인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템{SYSTEM FOR CUSTOMIZING 3D IMAGE OF CONTENTS USING INTERACTION}
본 발명은 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템에 관한 것으로, 보다 상세하게는 이종 디바이스간의 인터랙션을 통해 다양한 3D 영상 컨텐츠를 커스터마이징하고, 커스터마이징된 복수의 3D 영상 컨텐츠를 종합하여 표시하는 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템에 관한 것이다.
일반적으로, 키오스크(kiosk) 장치는 무인 정보 단말기라고도 하며, 정부기관이나 지방 자치 단체, 은행, 백화점, 전시장 등과 같은 공공 장소에 설치된다. 이러한 키오스크 장치는 절차 및 장소 안내, 시설물의 이용 방법, 상품 정보 등에 대한 컨텐츠를 제공한다.
이를 위해, 키오스크 장치는 터치 디바이스 기능을 구비한 디스플레이, 사운드 카드, 그래픽 카드 및 통신 카드 등을 구비하여 음성 서비스, 동화상 구현 등 사용자에게 효율적인 정보를 제공한다.
예를 들어, 상품을 생산하는 사업자는 키오스크 장치를 이용하여 해당 상품의 형상, 종류, 디자인 등의 정보를 시각적으로 제공할 수 있고, 사용자는 이러한 상품의 정보를 통해 상품에 대한 흥미를 가짐과 동시에 구매하고자 하는 상품을 선택할 수 있다.
그러나, 종래 키오스크 장치는 협소한 공간에 설치되며 평면적인 이차원 영상만을 제공하므로, 키오스크가 제공하는 컨텐츠의 현실감 및 생동감이 떨어지는 문제점이 있다.
또한, 종래 키오스크 장치는 컨텐츠를 사용자에게 시각적 또는 청각적으로 제공할 뿐, 사용자로 하여금 해당 컨텐츠를 커스터마이징(편집)하도록 할 수 없으므로 사용자의 흥미와 몰입감이 떨어지는 문제점이 있다.
본 발명은 이종 디바이스간의 인터랙션을 통해 다양한 3D 영상 컨텐츠를 커스터마이징하고, 커스터마이징된 복수의 3D 영상 컨텐츠를 종합하여 표시함으로써, 사용자의 흥미와 몰입감을 유발함과 동시에 현실감과 생동감을 제공할 수 있는 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템을 제공하는 것을 목적으로 한다.
본 발명의 목적들은 이상에서 언급한 목적으로 제한되지 않으며, 언급되지 않은 본 발명의 다른 목적 및 장점들은 하기의 설명에 의해서 이해될 수 있고, 본 발명의 실시예에 의해 보다 분명하게 이해될 것이다. 또한, 본 발명의 목적 및 장점들은 특허 청구 범위에 나타낸 수단 및 그 조합에 의해 실현될 수 있음을 쉽게 알 수 있을 것이다.
이러한 목적을 달성하기 위한 본 발명의 일 실시예에 따른 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템은 특정 공간 내의 전면에 설치되어 제1 3D 영상 컨텐츠를 표시하고, 사용자 움직임에 따라 상기 표시된 제1 3D 영상 컨텐츠를 제어하는 메인 디스플레이 장치, 상기 특정 공간 내에서 상기 메인 디스플레이 장치와 일정 간격 이격되도록 설치되어 상기 사용자 움직임을 감지하는 모션 센서, 상기 특정 공간 내의 일 측면에 설치되어 제2 3D 영상 컨텐츠를 표시하고, 사용자의 터치 입력에 따라 상기 표시된 제2 3D 영상 컨텐츠를 제어하는 서브 디스플레이 장치, 상기 특정 공간 내의 타 측면에 매립된 목업(mockup)에 제3 3D 영상 컨텐츠를 오버랩하여 표시하고, 상기 사용자의 터치 입력에 따라 상기 표시된 제3 3D 영상 컨텐츠를 제어하는 투명 디스플레이 장치 및 상기 특정 공간 내의 타 측면에 설치되고, 상기 메인 디스플레이 장치, 상기 서브 디스플레이 장치 및 상기 투명 디스플레이 장치와의 인터랙션(interaction)을 통해 미리 설정된 아바타에 상기 제1 내지 제3 3D 영상 컨텐츠를 반영하여 표시하는 아바타 디스플레이 장치를 포함하는 것을 특징으로 한다.
전술한 바와 같은 본 발명에 의하면 이종 디바이스간의 인터랙션을 통해 다양한 3D 영상 컨텐츠를 커스터마이징하고, 커스터마이징된 복수의 3D 영상 컨텐츠를 종합하여 표시함으로써, 사용자의 흥미와 몰입감을 유발함과 동시에 현실감과 생동감을 제공할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 제어 흐름을 도시한 도면.
도 2는 도 1에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 구조를 도시한 도면.
도 3은 도 2에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 상면도.
도 4 및 도 5는 도 2에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 양 측면을 도시한 도면.
도 6 및 도 7은 도 2에 도시된 메인 디스플레이 장치와 모션 센서를 도시한 도면.
도 8 내지 도 10은 모션 센서에 의해 감지되는 사용자 움직임에 따라 제1 3D 영상 컨텐츠가 제어되는 모습을 도시한 도면.
도 11 내지 도 14는 사용자의 터치 입력에 따라 제2 3D 영상 컨텐츠가 제어되는 모습을 도시한 도면.
도 15는 도 2에 도시된 투명 디스플레이 장치가 목업(mockup)에 제3 3D 영상 컨텐츠를 오버랩하여 표시하는 모습을 도시한 도면.
도 16은 제3 3D 영상 컨텐츠 상에서 재생되는 배경 영상을 도시한 도면.
도 17은 도 2에 도시된 아바타 디스플레이 장치에 표시된 아바타를 도시한 도면.
도 18은 도 17에 도시된 아바타에 제1 내지 제3 3D 영상 컨텐츠가 반영된 모습을 도시한 도면.
전술한 목적, 특징 및 장점은 첨부된 도면을 참조하여 상세하게 후술되며, 이에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 상세한 설명을 생략한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.
명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.
이하, 첨부 도면을 참조하여 본 발명의 실시예를 상세하게 설명한다. 그러나, 다음에 예시하는 본 발명의 실시예는 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 다음에 상술하는 실시예에 한정되는 것은 아니다. 본 발명의 실시예는 당업계에서 통상의 지식을 가진 자에게 본 발명을 보다 완전하게 설명하기 위하여 제공되는 것이다.
도 1은 본 발명의 일 실시예에 따른 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 제어 흐름을 도시한 도면이고, 도 2는 도 1에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 구조를 도시한 도면이다.
도 3은 도 2에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 상면도이고, 도 4 및 도 5는 도 2에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템의 양 측면을 도시한 도면이다.
도 6 및 도 7은 도 2에 도시된 메인 디스플레이 장치와 모션 센서를 도시한 도면, 도 8 내지 도 10은 모션 센서에 의해 감지되는 사용자 움직임에 따라 제1 3D 영상 컨텐츠가 제어되는 모습을 도시한 도면이다.
도 11 내지 도 14는 사용자의 터치 입력에 따라 제2 3D 영상 컨텐츠가 제어되는 모습을 도시한 도면이다.
도 15는 도 2에 도시된 투명 디스플레이 장치가 목업(mockup)에 제3 3D 영상 컨텐츠를 오버랩하여 표시하는 모습을 도시한 도면이고, 도 16은 제3 3D 영상 컨텐츠 상에서 재생되는 배경 영상을 도시한 도면이다.
도 17은 도 2에 도시된 아바타 디스플레이 장치에 표시된 아바타를 도시한 도면이고, 도 18은 도 17에 도시된 아바타에 제1 내지 제3 3D 영상 컨텐츠가 반영된 모습을 도시한 도면이다.
도 1을 참조하면, 본 발명의 일 실시예에 따른 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템(100)은 메인 디스플레이 장치(110), 모션 센서(150), 서브 디스플레이 장치(120), 투명 디스플레이 장치(130) 및 아바타 디스플레이 장치(140)를 포함할 수 있다. 도 1에 도시된 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템(100)은 일 실시예에 따른 것이고, 그 구성요소들이 도 1에 도시된 실시예에 한정되는 것은 아니며, 필요에 따라 일부 구성요소가 부가, 변경 또는 삭제될 수 있다.
본 발명에서, 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템(100)은 특정 공간 내에 설치되어 상품 정보 등에 대한 컨텐츠를 제공하는 키오스크(kiosk) 시스템일 수 있다. 또한, 본 발명에서 커스터마이징(customizing)은 컨텐츠 사용자의 요구에 따라 사용자에게 제공되는 컨텐츠의 형상 및 기능을 편집(변경)하는 동작을 의미할 수 있다.
인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템(100)이 설치되는 특정 공간은 전면과 양 측면으로 둘러싸인 내부 공간을 포함하고, 후면이 개방된 구조일 수 있다.
보다 구체적으로, 도 3을 참조하면 특정 공간은 'C'자 또는 'ㄷ'자 형태로 형성될 수 있고, 사용자는 특정 공간 중 개방된 후면을 통해 특정 공간의 내부로 입장할 수 있다.
이에 따라, 후술되는 특정 공간의 후면은 도 3에 도시된 입구일 수 있고, 특정 공간의 전면은 도 3에 도시된 입구의 맞은편일 수 있다. 다시 말해, 도 2는 도 3에 도시된 입구에서 전방을 향해 바라본 인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템(100)을 도시한 도면이다.
도 2 및 도 3을 참조하면, 메인 디스플레이 장치(110)는 특정 공간 내의 전면에 설치되어 제1 3D 영상 컨텐츠(10)를 표시할 수 있다.
제1 3D 영상 컨텐츠(10)는 다시점(multiview) 또는 초다시점(super-multiview)(바람직하게, 18시점 내지 36시점 정도)의 3D 영상 컨텐츠일 수 있다. 제1 3D 영상 컨텐츠(10)는 예컨대, 3차원의 정지영상 및 동영상 컨텐츠 중 적어도 하나를 포함하는 다 시점 또는 초다 시점의 3D 컨텐츠 영상으로 이루어짐이 바람직하다. 보다 구체적으로, 제1 3D 영상 컨텐츠(10)는 사용자에 의해 커스터마이징 되는 상품의 영상을 포함할 수 있고, 예를 들어, 스키(ski) 또는 스노우보드(snowboard)에 관한 영상을 포함할 수 있다.
한편, 전술한 제1 3D 영상 컨텐츠(10)와 후술하는 제2 및 제3 3D 영상 컨텐츠(20, 30)는 하나의 세트를 이루는 상품에 대한 영상 컨텐츠일 수 있다. 예를 들어, 제1 내지 제3 3D 영상 컨텐츠(10, 20, 30)는 스키 또는 스노우보드 세트를 이루는 상품에 대한 영상 컨텐츠일 수 있고, 스키, 스노우보드, 고글(goggles), 헬멧(helmet), 신발(boots)에 대한 영상 컨텐츠일 수 있다.
메인 디스플레이 장치(110)에 표시되는 제1 3D 영상 컨텐츠(10)는 제1 3D 영상 컨텐츠(10)의 실물과 동일한 크기로 표시될 수 있다.
예를 들어, 도 7에 도시된 바와 같이 제1 3D 영상 컨텐츠(10)가 스노우보드에 대한 영상인 경우, 메인 디스플레이 장치(110)에 표시되는 제1 3D 영상 컨텐츠(10)의 크기는, 스노우보드의 크기와 동일할 수 있다.
이를 위해, 메인 디스플레이 장치(110)의 크기는 제1 3D 영상 컨텐츠(10)의 실물과 동일한 크기의 영상이 표시되도록 설계될 수 있다.
이와 달리, 제1 3D 영상 컨텐츠(10)는 제1 3D 영상 컨텐츠(10)의 실물의 크기를 일정 비율로 축소하여 표시될 수도 있음은 당연하다.
메인 디스플레이 장치(110)는 제1 3D 영상 컨텐츠(10)를 표시할 수 있도록 구비된 복수의 무안경식 초다시점 디스플레이 장치를 포함할 수 있다.
도 6을 참조하면, 메인 디스플레이 장치(110)는 예를 들어, 세 대의 무안경식 초다시점 디스플레이 장치를 포함할 수 있다.
복수의 무안경식 초다시점 디스플레이 장치는, 다시점 또는 초다시점의 제1 3D 영상 컨텐츠(10)를 분할하여 각각 표시할 수 있다. 이에 따라, 복수의 무안경식 초다시점 디스플레이 장치는 서로 인접하여 설치될 수 있고, 사용자는 분할 표시되는 제1 3D 영상 컨텐츠(10)를 하나의 영상 컨텐츠로 인식할 수 있다.
이러한 무안경식 초다시점 디스플레이 장치는 일반적으로 오토스테레오스코피(autostereoscopy) 장치라고도 불리며, 공간적으로 쉬프트된 다시점 영상을 디스플레이하면서 패러랙스 배리어(Parallax Barrier) 기술 또는 렌티큘러(Lenticular) 렌즈를 이용하여 시청자의 좌안 및 우안에 다른 시점의 영상에 해당하는 광이 투사되도록 하여, 사용자가 입체감을 느낄 수 있도록 한다.
전술한 무안경식 초다시점 디스플레이 장치의 경우, 하나의 스크린에서 시점의 개수를 늘리고, 시점 간 간격이 한 눈의 동공 크기보다 작게 만들어서 여러 시점의 영상을 동시에 투사해 볼 수 있도록 만드는 방식으로, 자연스럽게 디스플레이 속 비주얼을 입체적으로 인지하게 되며, 별도의 3D 안경을 사용하지 않고도 3D 컨텐츠 영상 시청이 가능하다는 장점이 있다.
또한, 메인 디스플레이 장치(110)는 사용자 움직임에 따라 제1 3D 영상 컨텐츠(10)를 제어할 수 있다.
이를 위해, 모션 센서(150)는 특정 공간 내에서 메인 디스플레이 장치(110)와 일정 간격 이격되도록 설치되어 사용자 움직임을 감지할 수 있고, 메인 디스플레이 장치(110)는 데이터 통신을 통해 모션 센서(150)로부터 사용자 움직임에 대한 감지 신호를 수신할 수 있다.
도 2, 도 3, 도 6 및 도 7에 도시된 바와 같이, 모션 센서(150)는 메인 디스플레이 장치(110)의 전방으로 일정 간격 이격되어, 바닥으로부터 기립된 형상으로 설치될 수 있다. 이에 따라, 모션 센서(150)는 모션 센서(150) 상부의 사용자 움직임을 감지할 수 있다.
모션 센서(150)는 사용자의 신체 중 임의의 부분의 움직임을 감지할 수 있고, 예를 들어, 사용자의 손동작을 감지할 수 있다.
모션 센서(150)는 사용자 움직임을 촬영하기 위한 하나 이상의 카메라를 포함할 수 있다. 예를 들어, 모션 센서(150)가 영상 촬영 카메라를 포함하는 경우 모션 센서(150)는 사용자 손의 관절을 인식하여 사용자의 손동작을 감지할 수 있다.
또한, 모션 센서(150)가 적외선 카메라를 포함하는 경우, 모션 센서(150)는 적외선 광을 출사하고, 출사된 광이 사용자 손에 반사 및 굴절되는 정도를 파악하여 사용자의 손동작을 감지할 수 있다.
이와 달리, 모션 센서(150)는 사용자의 손동작을 스캔하여 사용자 움직임을 감지할 수 있다. 보다 구체적으로, 모션 센서(150)는 사용자의 손동작을 3차원으로 스캔하여 사용자 움직임을 감지할 수 있다.
이를 위해 모션 센서(150)는 상방으로 레이저를 출사하고, 레이저가 사용자의 손에 반사되어 돌아오는 시간을 통해 사용자 손과의 거리를 측정하고, 측정된 거리를 이용하여 사용자의 손동작을 스캔함으로써 사용자 움직임을 감지할 수 있다.
또한, 모션 센서(150)는 미리 설정된 패턴광을 상방으로 출사하고, 패턴광이 사용자 손에 맺힌 형태를 인식하여 사용자 손과의 거리를 측정하고, 측정된 거리를 이용하여 사용자의 손동작을 스캔함으로써 사용자 움직임을 감지할 수도 있다.
이 뿐만 아니라, 모션 센서(150)는 당해 기술분야에서 이용되는 리얼 센서(real sense) 방식으로 구현되는 다양한 방법을 통해 사용자 움직임을 감지할 수도 있다.
메인 디스플레이 장치(110)는 모션 센서(150)에 의해 감지된 사용자 움직임에 따라 제1 3D 영상 컨텐츠(10)가 변경되거나, 이동하거나, 회전하도록 제어할 수 있다.
먼저 도 8을 참조하면, 사용자가 모션 센서(150)의 감지 영역 내에서 손을 상하로 움직이는 경우, 메인 디스플레이 장치(110)는 제1 3D 영상 컨텐츠(10)의 패턴이 변경되도록 제어할 수 있다.
또한, 사용자가 모션 센서(150)의 감지 영역 내에서 손을 상하로 움직이는 경우, 메인 디스플레이 장치(110)는 제1 3D 영상 컨텐츠(10)가 상방 또는 하방으로 회전하도록 제어할 수 있다.
다음으로 도 9를 참조하면, 사용자가 모션 센서(150)의 감지 영역 내에서 손을 좌우로 움직이는 경우, 메인 디스플레이 장치(110)는 제1 3D 영상 컨텐츠(10)가 좌우로 이동하도록 제어할 수 있다.
또한, 사용자가 모션 센서(150)의 감지 영역 내에서 손을 좌우로 움직이는 경우, 메인 디스플레이 장치(110)는 제1 3D 영상 컨텐츠(10)가 좌측 방향 또는 우측 방향으로 회전하도록 제어할 수 있다.
메인 디스플레이 장치(110)는 모션 센서(150)에 의해 감지된 사용자 움직임에 따라 제1 3D 영상 컨텐츠(10)를 아바타 디스플레이 장치(140)로 전송할 수 있다. 아바타 디스플레이 장치(140)에 대해서는 후술하도록 하며, 여기서는 메인 디스플레이 장치(110)의 동작만을 설명하도록 한다.
도 10을 참조하면, 사용자 모션 센서(150)의 감지 영역 내에서 주먹을 쥐는 경우, 메인 디스플레이 장치(110)는 제1 3D 영상 컨텐츠(10)의 커스터마이징을 완료하고, 커스터마이징된 제1 3D 영상 컨텐츠(10)를 아바타 디스플레이 장치(140)로 전송할 수 있다. 이를 위해, 메인 디스플레이 장치(110)는 통신 모듈을 포함할 수 있다.
전술한 도 8 내지 도 10에 도시된 사용자 움직임은 예시적인 것에 불과하며, 메인 디스플레이 장치(110)는 도면에 도시된 사용자 움직임 외에도 다양한 사용자 움직임을 통해 제1 3D 영상 컨텐츠(10)를 제어할 수 있다.
다시 도 2 내지 도 4를 참조하면, 서브 디스플레이 장치(120)는 특정 공간 내의 일 측면에 설치되어 제2 3D 영상 컨텐츠(20)를 표시할 수 있고, 사용자의 터치 입력에 따라 제2 3D 영상 컨텐츠(20)를 제어할 수 있다.
제2 3D 영상 컨텐츠(20)는 하나의 세트를 이루는 상품 중 어느 하나의 상품에 대한 영상 컨텐츠일 수 있다. 예를 들어, 제2 3D 영상 컨텐츠(20)는 스키 또는 스노우보드 세트를 이루는 상품 중 헬멧 또는 신발에 대한 영상 컨텐츠일 수 있다.
서브 디스플레이 장치(120)는 사용자의 입력을 수신하여, 서브 디스플레이 장치(120)에 표시중인 제2 3D 영상 컨텐츠(20)를 제어할 수 있는 다양한 장치를 포함할 수 있다. 예를 들어, 서브 디스플레이 장치(120)는 도 2 및 도 4에 도시된 바와 같이 태블릿(tablet, 120b), 노트북(note book, 120a) 등을 포함할 수 있다.
서브 디스플레이 장치(120)가 노트북(120a)인 경우 서브 디스플레이 장치(120)는 마우스, 키보드 등을 통해 사용자 입력을 제공받을 수 있고, 서브 디스플레이 장치(120)가 태블릿(120b)인 경우 서브 디스플레이 장치(120)는 사용자의 터치를 통해 사용자 입력을 제공받을 수 있다.
다만, 이하에서는 서브 디스플레이 장치(120)가 태블릿(120b)인 경우를 예로 들어 설명하도록 하며, 후술되는 터치 입력은 사용자의 터치를 통해 제공되는 사용자 입력을 의미한다.
서브 디스플레이 장치(120)는 사용자의 터치 입력에 따라 제2 3D 영상 컨텐츠(20)가 변경되거나, 이동하거나, 확대 및 축소되거나, 회전하도록 제어할 수 있다.
도 11을 참조하면, 서브 디스플레이 장치(120)는 제2 3D 영상 컨텐츠(20)와 함께, 해당 제2 3D 영상 컨텐츠(20)의 디자인을 편집하기 위한 인터페이스(이하, 편집 인터페이스)를 표시할 수 있다.
보다 구체적으로, 도 11에 도시된 바와 같이 서브 디스플레이 장치(120)는 화면 중앙에 표시된 제2 3D 영상 컨텐츠(20)와, 편집 인터페이스, 예를 들어, 복수의 신발 중 어느 하나의 신발을 선택하기 위한 인터페이스 및 제2 3D 영상 컨텐츠(20) 외면의 패턴을 변경하기 위한 복수의 패턴 아이콘(121)을 표시할 수 있다.
복수의 신발 중 어느 하나의 신발을 선택하기 위한 인터페이스를 통해 사용자가 어느 하나의 신발 상에 터치 입력을 제공하면, 서브 디스플레이 장치(120)는 해당 신발이 화면 중앙에 표시되도록 제어할 수 있다.
또한, 사용자가 제2 3D 영상 컨텐츠(20) 외면의 패턴을 변경하기 위한 복수의 패턴 아이콘(121) 중 어느 하나의 패턴 아이콘 상에 터치 입력을 제공하면, 서브 디스플레이 장치(120)는 화면 중앙에 표시된 신발 외면의 패턴이 변경되도록 제어할 수 있다.
다음으로 도 12를 참조하면, 사용자가 화면 중앙에 표시된 신발에 터치 입력을 제공한 상태에서 드래그(drag) 동작을 수행하면, 서브 디스플레이 장치(120)는 해당 신발이 이동하거나, 회전하도록 제어할 수 있다.
뿐만 아니라, 사용자가 화면의 임의의 지점에 손가락 두 개를 이용하여 터치 입력을 제공한 상태에서, 두 개의 손가락 사이의 간격을 넓이거나 좁히는 동작을 수행하면, 서브 디스플레이 장치(120)는 해당 신발이 확대되거나 축소되도록 제어할 수 있다.
편집 인터페이스는 다양한 형태로 구성될 수 있으며, 도 13 및 도 14와 같이 화면 좌측에 복수의 패턴 아이콘(121)을 포함하여 구성될 수 있다.
서브 디스플레이 장치(120)는 제2 3D 영상 컨텐츠(20) 상에서 사용자의 터치 입력을 감지하고, 터치 입력의 위치에 대응하는 제2 3D 영상 컨텐츠(20)의 실물에 대한 촉감을 하나 이상의 진동 패턴을 통해 출력할 수 있다.
제2 3D 영상 컨텐츠(20)의 실물에 대한 촉감을 출력하기 위하여, 햅틱(haptic) 기술이 이용될 수 있다. 보다 구체적으로, 제2 3D 영상 컨텐츠(20)의 실물에 대한 촉감이 랜더링(rendering) 및 모델링(modeling)되어 서브 디스플레이 장치(120)의 내부 메모리에 저장되고, 사용자가 제2 3D 영상 컨텐츠(20) 상에 터치 입력을 제공하면, 서브 디스플레이 장치(120)는 사용자에게 제2 3D 영상 컨텐츠(20)의 실물에 대한 촉감을 제공할 수 있다.
제2 3D 영상 컨텐츠(20)의 실물에 대한 촉감은 서브 디스플레이 장치(120)의 패널이 진동하는 패턴(진동 패턴)에 의해 사용자에게 출력될 수 있다. 예를 들어, 진동 패턴은 제2 3D 영상 컨텐츠(20)의 각 단위 영역에 대응하여 저장될 수 있고, 이에 따라, 사용자가 서브 디스플레이 장치(120)에 표시된 제2 3D 영상 컨텐츠(20) 상에 터치 입력을 제공한 상태에서 드래그 동작을 수행하면, 손가락의 이동 경로에 존재하는 각 단위 영역마다 다른 진동 패턴을 출력할 수 있다.
서브 디스플레이 장치(120)는 사용자의 터치 입력에 따라 제2 3D 영상 컨텐츠(20)를 아바타 디스플레이 장치(140)로 전송할 수 있다. 아바타 디스플레이 장치(140)에 대해서는 후술하도록 하며, 여기서는 서브 디스플레이 장치(120)의 동작만을 설명하도록 한다.
다시 도 13 및 도 14를 참조하면, 서브 디스플레이 장치(120)에 표시되는 편집 인터페이스는 완료 아이콘(122)을 더 포함할 수 있다. 사용자가 완료 아이콘(122) 상에 터치 입력을 제공하면, 서브 디스플레이 장치(120)는 제2 3D 영상 컨텐츠(20)의 커스터마이징을 완료하고, 커스터마이징된 제2 3D 영상 컨텐츠(20)를 아바타 디스플레이 장치(140)로 전송할 수 있다. 이를 위해, 서브 디스플레이 장치(120)는 통신 모듈을 포함할 수 있다.
다시 도 2, 도 3 및 도 5을 참조하면, 투명 디스플레이 장치(130)는 특정 공간 내의 타 측면에 매립된 목업(mockup, 160)에 제3 3D 영상 컨텐츠(30)를 오버랩(overlap)하여 표시할 수 있고, 사용자의 터치 입력에 따라 제3 3D 영상 컨텐츠(30)를 제어할 수 있다.
제3 3D 영상 컨텐츠(30)는 하나의 세트를 이루는 상품 중 어느 하나의 상품에 대한 영상 컨텐츠일 수 있다. 예를 들어, 제3 3D 영상 컨텐츠(30)는 스키 또는 스노우보드 세트를 이루는 상품 중 고글에 대한 영상 컨텐츠일 수 있다.
투명 디스플레이 장치(130)는 전술한 서브 디스플레이 장치(120)가 설치된 측면의 맞은편에 설치될 수 있고, 목업(160)은 투명 디스플레이 장치(130)가 설치되는 벽면에 매립되어 설치될 수 있다.
여기서 목업(160)은 상품의 디자인 평가를 위하여 만들어지는 실물 크기의 정적 모형을 의미할 수 있고, 목재, 플라스틱 성형물 등으로 이루어질 수 있다.
목업(160)은 제3 3D 영상 컨텐츠(30)에 대응하는 실물의 종류에 따라 다양한 모양으로 설치될 수 있고, 전술한 바와 같이 제3 3D 영상 컨텐츠(30)가 고글에 대한 영상 컨텐츠인 경우, 목업(160)은 사용자 얼굴의 정적 모형일 수 있다.
사용자가 투명 디스플레이 장치(130)를 통해 벽면에 매립된 목업(160)을 관찰할 수 있도록 하기 위하여, 투명 디스플레이 장치(130)는 투명한 재질로 구성될 수 있다. 보다 구체적으로, 투명 디스플레이 장치(130)는 얇은 유리판과 유리판 사이에 주입되는 액정 및 투명 전극으로 구성될 수 있다.
투명 디스플레이 장치(130)는 미리 설정된 복수의 제3 3D 영상 컨텐츠(30)를 표시할 수 있고, 사용자의 터치 입력에 따라 복수의 제3 3D 영상 컨텐츠(30) 중 어느 하나의 제3 3D 영상 컨텐츠(30)를 목업(160)에 오버랩하여 표시할 수 있다.
도 15를 참조하면, 투명 디스플레이 장치(130)는 제3 3D 영상 컨텐츠(30)와 함께, 해당 제3 3D 영상 컨텐츠(30)의 디자인을 편집하기 위한 인터페이스(이하, 편집 인터페이스)를 표시할 수 있다.
보다 구체적으로, 도 15에 도시된 바와 같이 투명 디스플레이 장치(130)에서 표시되는 편집 인터페이스는 제3 3D 영상 컨텐츠(30)가 표시될 위치를 특정하는 아이콘(30) 및 제3 3D 영상 컨텐츠(30)의 색상 및 디자인을 선택하기 위한 아이콘(131)을 포함할 수 있다.
제3 3D 영상 컨텐츠(30)의 색상 및 디자인을 선택하기 위한 각각의 아이콘(131)에는 다양한 색상 및 디자인을 갖는 복수의 고글이 표시될 수 있다. 사용자가 복수의 고글 중 어느 하나의 고글을 터치 입력을 통해 제3 3D 영상 컨텐츠(30)가 표시될 위치를 특정하는 아이콘(30)으로 드래그하면, 투명 디스플레이 장치(130)는 사용자에 의해 선택된 고글에 대한 제3 3D 영상 컨텐츠(30)를 목업(160)에 오버랩하여 표시할 수 있다.
투명 디스플레이 장치(130)는 제3 3D 영상 컨텐츠(30) 상에서 재생되는 배경 영상(31)을 더 표시할 수 있다. 이를 위해, 투명 디스플레이 장치(130)의 내부 메모리에는 복수의 배경 영상(31)이 미리 저장될 수 있다.
보다 구체적으로, 도 16을 참조하면 사용자의 터치 입력에 따라 투명 디스플레이 장치(130)는 목업(160)이 투명 디스플레이를 통해 표시되지 않도록 화면을 어둡게 제어할 수 있다.
이 후, 투명 디스플레이 장치(130)는 사용자에 의해 선택된 고글 내부에 내부 메모리에 저장된 복수의 배경 영상(31) 중 어느 하나의 배경 영상(31)을 표시할 수 있다. 이에 따라, 사용자는 고글을 통해 바라보는 풍경 등을 감상할 수 있다.
한편, 배경 영상(31)은 기준 명도로 표시되는 제1 배경 영상(31b) 및 제3 3D 영상 컨텐츠(30)에 대응하는 가변 명도로 표시되는 제2 배경 영상(31a)을 포함할 수 있다.
가변 명도는 제3 3D 영상 컨텐츠(30)에 따라 설정될 수 있고, 기준 명도에 비해 낮은 값을 가질 수 있다. 예를 들어, 제3 3D 영상 컨텐츠(30)가 고글에 대한 영상 컨텐츠인 경우, 가변 명도는 해당 고글의 착용 전과 착용 후의 명도 차이값을 기준 명도에서 뺀 값으로 설정될 수 있다.
제1 배경 영상(31b) 및 제2 배경 영상(31a)이 표시되는 영역은 사용자의 터치 입력에 따라 달라질 수 있다.
보다 구체적으로, 사용자가 도 15에 도시된 제1 배경 영상(31b) 및 제2 배경 영상(31a)의 경계선에 터치 입력을 제공한 상태에서 좌측으로 드래그 하는 경우, 제1 배경 영상(31b)이 표시되는 영역은 넓어지는 반면 제2 배경 영상(31a)이 표시되는 영역은 좁아질 수 있다. 반대로, 제1 배경 영상(31b) 및 제2 배경 영상(31a)의 경계선에 터치 입력을 제공한 상태에서 우측으로 드래그 하는 경우, 제2 배경 영상(31a)이 표시되는 영역은 넓어지는 반면 제1 배경 영상(31b)이 표시되는 영역은 좁아질 수 있다.
이에 따라, 사용자는 제3 3D 영상 컨텐츠(30)에 대응하는 고글의 실물을 착용하지 않더라도, 해당 고글의 착용 시 명도가 감소하는 정도를 파악할 수 있다.
투명 디스플레이 장치(130)는 사용자의 터치 입력에 따라 제3 3D 영상 컨텐츠(30)를 아바타 디스플레이 장치(140)로 전송할 수 있다. 아바타 디스플레이 장치(140)에 대해서는 후술하도록 하며, 여기서는 투명 디스플레이 장치(130)의 동작만을 설명하도록 한다.
다시 도 15를 참조하면, 투명 디스플레이 장치(130)에 표시되는 편집 인터페이스는 완료 아이콘(132)을 더 포함할 수 있다. 사용자가 완료 아이콘(132) 상에 터치 입력을 제공하면, 투명 디스플레이 장치(130)는 제3 3D 영상 컨텐츠(30)의 커스터마이징을 완료하고, 커스터마이징된 제3 3D 영상 컨텐츠(30)를 아바타 디스플레이 장치(140)로 전송할 수 있다. 이를 위해, 투명 디스플레이 장치(130)는 통신 모듈을 포함할 수 있다.
다시 도 1 내지 도 3, 도 5를 참조하면, 아바타 디스플레이 장치(140)는 특정 공간 내의 타 측면에 설치되고, 메인 디스플레이 장치(110), 서브 디스플레이 장치(120) 및 투명 디스플레이 장치(130)와의 인터랙션(interaction)을 통해 미리 설정된 아바타에 제1 내지 제3 3D 영상 컨텐츠(10, 20, 30)를 반영하여 표시할 수 있다.
도 17을 참조하면, 아바타 디스플레이 장치(140)는 기본 영상 컨텐츠를 표시할 수 있다. 기본 영상 컨텐츠는 미리 설정된 아바타(40) 및 배경화면을 포함할 수 있고, 아바타(40)는 미리 설정된 기본 헬멧(41), 기본 고글(42), 기본 신발(43) 및 기본 스노우보드(44)를 착용한 것으로 표시될 수 있다.
전술한 바와 같이, 메인 디스플레이 장치(110)는 스노우보드에 대한 제1 3D 영상 컨텐츠(10)를, 서브 디스플레이 장치(120)는 신발 또는 헬멧에 대한 제2 3D 영상 컨텐츠(20)를, 투명 디스플레이 장치(130)는 고글에 대한 제3 3D 영상 컨텐츠(30)를 아바타 디스플레이 장치(140)에 전송할 수 있다.
아바타 디스플레이 장치(140)는 각각의 장치로부터 수신된 영상 컨텐츠, 표시중인 아바타(40)에 반영하여 표시할 수 있다.
보다 구체적으로, 아바타 디스플레이 장치(140)는 메인 디스플레이 장치(110), 서브 디스플레이 장치(120) 및 투명 디스플레이 장치(130) 중 적어도 하나로부터 제1 내지 제3 3D 영상 컨텐츠(10, 20, 30) 중 적어도 하나의 3D 영상 컨텐츠가 수신되면, 미리 설정된 아바타에 반영되어 있는 기본 영상 컨텐츠를 수신된 3D 영상 컨텐츠로 변경하여 표시할 수 있다.
도 17 및 도 18을 참조하면, 아바타 디스플레이 장치(140)가 메인 디스플레이 장치(110)로부터 스노우보드에 대응하는 제1 3D 영상 컨텐츠(10)를 수신하면, 아바타(40)에 반영되어 있는 기본 스노우보드(44)를 수신한 제1 3D 영상 컨텐츠(10)로 변경하여 표시할 수 있다.
또한, 아바타 디스플레이 장치(140)가 서브 디스플레이 장치(120)로부터 헬멧 및 신발에 대응하는 제2 3D 영상 컨텐츠(20a, 20b)를 수신하면, 아바타(40)에 반영되어 있는 기본 헬멧(41) 및 기본 신발(43)을 수신한 제2 3D 영상 컨텐츠(20a, 20b)로 변경하여 표시할 수 있다.
또한, 아바타 디스플레이 장치(140)가 투명 디스플레이 장치(130)로부터 고글에 대응하는 제3 3D 영상 컨텐츠(30)를 수신하면, 아바타(40)에 반영되어 있는 기본 고글(42)을 수신한 제3 3D 영상 컨텐츠(30)로 변경하여 표시할 수 있다.
전술한 아바타 디스플레이 장치(140)의 동작은 실시간으로 이루어질 수 있다. 다시 말해, 제1 내지 제3 3D 영상 컨텐츠(10, 20, 30)의 수신 시점이 모두 다르더라도, 아바타 디스플레이 장치(140)는 임의의 3D 영상 컨텐츠를 수신할 때마다, 기본 영상 컨텐츠 수신된 3D 영상 컨텐츠로 실시간으로 변경할 수 있다.
이에 따라, 사용자는 메인 디스플레이 장치(110), 서브 디스플레이 장치(120) 및 투명 디스플레이 장치(130)를 통해 커스터마이징 한 각각의 상품의 착용 모습을 종합적으로 확인할 수 있다.
한편, 특정 공간 내의 전면, 일 측면 및 타 측면 중 적어도 하나의 면에는 제1 내지 제3 3D 영상 컨텐츠(10, 20, 30)의 실물 중 적어도 하나가 진열될 수 있다.
보다 구체적으로, 도 2를 참조하면 특정 공간 내의 전면에는 제1 3D 영상 컨텐츠(10)의 실물(10')이 진열될 수 있고, 제1 3D 영상 컨텐츠(10)의 실물(10')은 스노우보드일 수 있다. 또한, 도 4를 참조하면, 특정 공간 내의 일 측면에는 제2 3D 영상 컨텐츠(20)의 실물(20')이 진열될 수 있고, 제2 3D 영상 컨텐츠(20)의 실물(20')은 헬멧 또는 신발일 수 있다. 또한, 도 5를 참조하면, 특정 공간 내의 타 측면에는 제3 3D 영상 컨텐츠(30)의 실물(30')이 진열될 수 있고, 제3 3D 영상 컨텐츠(30)의 실물(30')은 고글일 수 있다.
제1 내지 제3 3D 영상 컨텐츠(10, 20, 30)에 각각 대응하는 실물을 특정 공간 내에 진열함으로써, 사용자가 자신이 커스터마이징 한 상품을 직접 확인할 수 있다.
상술한 바와 같이, 본 발명은 이종 디바이스간의 인터랙션을 통해 다양한 3D 영상 컨텐츠를 커스터마이징하고, 커스터마이징된 복수의 3D 영상 컨텐츠를 종합하여 표시함으로써, 사용자의 흥미와 몰입감을 유발함과 동시에 현실감과 생동감을 제공할 수 있다.
전술한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 있어 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시예 및 첨부된 도면에 의해 한정되는 것이 아니다.

Claims (15)

  1. 특정 공간 내의 전면에 설치되어 제1 3D 영상 컨텐츠를 표시하고, 사용자 움직임에 따라 상기 표시된 제1 3D 영상 컨텐츠를 제어하는 메인 디스플레이 장치;
    상기 특정 공간 내에서 상기 메인 디스플레이 장치와 일정 간격 이격되도록 설치되어 상기 사용자 움직임을 감지하는 모션 센서;
    상기 특정 공간 내의 일 측면에 설치되어 제2 3D 영상 컨텐츠를 표시하고, 사용자의 터치 입력에 따라 상기 표시된 제2 3D 영상 컨텐츠를 제어하는 서브 디스플레이 장치;
    상기 특정 공간 내의 타 측면에 매립된 목업(mockup)에 제3 3D 영상 컨텐츠를 오버랩하여 표시하고, 상기 사용자의 터치 입력에 따라 상기 표시된 제3 3D 영상 컨텐츠를 제어하는 투명 디스플레이 장치; 및
    상기 특정 공간 내의 타 측면에 설치되고, 상기 메인 디스플레이 장치, 상기 서브 디스플레이 장치 및 상기 투명 디스플레이 장치와의 인터랙션(interaction)을 통해 미리 설정된 아바타에 상기 제1 내지 제3 3D 영상 컨텐츠를 반영하여 표시하는 아바타 디스플레이 장치를 포함하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  2. 제1항에 있어서,
    상기 메인 디스플레이 장치는
    초다시점의 3D 영상 컨텐츠를 표시할 수 있도록 구비된 복수의 무안경식 초다시점 디스플레이 장치를 포함하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  3. 제1항에 있어서,
    상기 메인 디스플레이 장치는
    상기 사용자 움직임에 따라 상기 표시된 제1 3D 영상 컨텐츠가 변경되거나, 이동하거나, 회전하도록 제어하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  4. 제1항에 있어서,
    상기 메인 디스플레이 장치는
    상기 사용자 움직임에 따라 상기 표시된 제1 3D 영상 컨텐츠를 상기 아바타 디스플레이 장치로 전송하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  5. 제1항에 있어서,
    상기 메인 디스플레이 장치에 표시되는 상기 제1 3D 영상 컨텐츠는 상기 제1 3D 영상 컨텐츠의 실물과 동일한 크기로 표시되는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  6. 제1항에 있어서,
    상기 모션 센서는
    상기 사용자의 손동작을 스캔하여 상기 사용자 움직임을 감지하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  7. 제1항에 있어서,
    상기 서브 디스플레이 장치는
    상기 사용자의 터치 입력에 따라 상기 표시된 제2 3D 영상 컨텐츠가 변경되거나, 이동하거나, 확대 및 축소되거나, 회전하도록 제어하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  8. 제1항에 있어서,
    상기 서브 디스플레이 장치는
    상기 표시된 제2 3D 영상 컨텐츠 상에서 상기 사용자의 터치 입력을 감지하고, 상기 터치 입력의 위치에 대응하는 상기 제2 3D 영상 컨텐츠의 실물에 대한 촉감을 하나 이상의 진동 패턴을 통해 출력하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  9. 제1항에 있어서,
    상기 투명 디스플레이 장치는
    미리 설정된 복수의 제3 3D 영상 컨텐츠를 표시하고, 상기 사용자의 터치 입력에 따라 상기 복수의 제3 3D 영상 컨텐츠 중 어느 하나의 제3 3D 영상 컨텐츠를 상기 목업에 오버랩하여 표시하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  10. 제1항에 있어서,
    상기 투명 디스플레이 장치는
    상기 제3 3D 영상 컨텐츠 상에서 재생되는 배경 영상을 더 표시하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  11. 제10항에 있어서,
    상기 배경 영상은
    기준 명도로 표시되는 제1 배경 영상 및 상기 표시된 제3 3D 영상 컨텐츠에 대응하는 가변 명도로 표시되는 제2 배경 영상을 포함하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  12. 제1항에 있어서,
    상기 서브 디스플레이 장치 및 상기 투명 디스플레이 장치는
    상기 제2 및 제3 3D 영상 컨텐츠의 디자인을 편집하기 위한 인터페이스를 상기 제2 및 제3 3D 영상 컨텐츠와 함께 표시하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  13. 제1항에 있어서,
    상기 서브 디스플레이 장치 및 상기 투명 디스플레이 장치는
    상기 사용자의 터치 입력에 따라 상기 표시된 제2 및 제3 3D 영상 컨텐츠를 상기 아바타 디스플레이 장치로 전송하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  14. 제1항에 있어서,
    상기 특정 공간 내의 전면, 일 측면 및 타 측면 중 적어도 하나의 면에는 상기 제1 내지 제3 3D 영상 컨텐츠의 실물 중 적어도 하나가 진열되는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
  15. 제1항에 있어서,
    상기 아바타 디스플레이 장치는
    상기 메인 디스플레이 장치, 상기 서브 디스플레이 장치 및 상기 투명 디스플레이 장치 중 적어도 하나로부터 상기 제1 내지 제3 3D 영상 컨텐츠 중 적어도 하나의 3D 영상 컨텐츠가 수신되면, 상기 미리 설정된 아바타에 반영되어 있는 기본 영상 컨텐츠를 상기 수신된 3D 영상 컨텐츠로 변경하여 표시하는
    인터랙션을 통한 3D 영상 컨텐츠 커스터마이징 시스템.
KR1020170178198A 2017-12-22 2017-12-22 인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템 KR20190076416A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170178198A KR20190076416A (ko) 2017-12-22 2017-12-22 인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170178198A KR20190076416A (ko) 2017-12-22 2017-12-22 인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템

Publications (1)

Publication Number Publication Date
KR20190076416A true KR20190076416A (ko) 2019-07-02

Family

ID=67258451

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170178198A KR20190076416A (ko) 2017-12-22 2017-12-22 인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템

Country Status (1)

Country Link
KR (1) KR20190076416A (ko)

Similar Documents

Publication Publication Date Title
US9891704B2 (en) Augmented reality with direct user interaction
US10789760B2 (en) Focus guidance within a three-dimensional interface
US9704285B2 (en) Detection of partially obscured objects in three dimensional stereoscopic scenes
US10656720B1 (en) Mode switching for integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
JP4901539B2 (ja) 立体映像表示システム
US7371163B1 (en) 3D portable game system
US20170150108A1 (en) Autostereoscopic Virtual Reality Platform
JP5300825B2 (ja) 指示受付装置、指示受付方法、コンピュータプログラム及び記録媒体
CN107209565B (zh) 用于显示固定大小的增强现实对象的方法和系统
EP3106963B1 (en) Mediated reality
US20180158385A1 (en) Interactive multiplane display system with transparent transmissive layers
US20150033157A1 (en) 3d displaying apparatus and the method thereof
KR101177058B1 (ko) 마커 기반 3차원 입체 시스템
US11057612B1 (en) Generating composite stereoscopic images usually visually-demarked regions of surfaces
CN108205823A (zh) Mr全息真空体验店和体验方法
CN110121690B (zh) 包括接近传感器和深度变化的界面元素的多层显示器和/或相关联的方法
KR20190076416A (ko) 인터랙션을 통한 3d 영상 컨텐츠 커스터마이징 시스템
KR101649660B1 (ko) 3d 객체에 대한 시각적 안정감을 증가시키는 단말 및 단말의 제어방법
KR101276558B1 (ko) 디아이디 입체영상콘트롤장치
Ballendat Visualization of and interaction with digital devices around large surfaces as a function of proximity
US11697068B2 (en) Mobile platform as a physical interface for interaction
WO2023248381A1 (ja) 映像表示システム、映像制御方法、及び映像制御プログラム
US11417055B1 (en) Integrated display rendering
US11145113B1 (en) Nested stereoscopic projections
Hamadouche Augmented reality X-ray vision on optical see-through head mounted displays