KR102661074B1 - 실감형 콘텐츠 제공 시스템 및 그 방법 - Google Patents

실감형 콘텐츠 제공 시스템 및 그 방법 Download PDF

Info

Publication number
KR102661074B1
KR102661074B1 KR1020230114449A KR20230114449A KR102661074B1 KR 102661074 B1 KR102661074 B1 KR 102661074B1 KR 1020230114449 A KR1020230114449 A KR 1020230114449A KR 20230114449 A KR20230114449 A KR 20230114449A KR 102661074 B1 KR102661074 B1 KR 102661074B1
Authority
KR
South Korea
Prior art keywords
user
content
screen
depth
beam projector
Prior art date
Application number
KR1020230114449A
Other languages
English (en)
Inventor
박희찬
Original Assignee
(주)코드쓰리
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)코드쓰리 filed Critical (주)코드쓰리
Application granted granted Critical
Publication of KR102661074B1 publication Critical patent/KR102661074B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/363Image reproducers using image projection screens
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명은 실감형 콘텐츠 제공 시스템 및 그 방법을 개시한다. 즉, 본 발명은 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 표시하고, 3D 콘텐츠가 표시되는 일측에 위치한 이동하는 사용자의 움직임과 거리를 감지하고, 감지된 이동하는 사용자의 움직임과 거리를 근거로 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 의해 입체감과 원근감을 유발함으로써, 콘텐츠에 대한 흥미를 유발할 수 있다.

Description

실감형 콘텐츠 제공 시스템 및 그 방법{System for providing immersive contents and method thereof}
본 발명은 실감형 콘텐츠 제공 시스템 및 그 방법에 관한 것으로서, 특히 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 표시하고, 3D 콘텐츠가 표시되는 일측에 위치한 이동하는 사용자의 움직임과 거리를 감지하고, 감지된 이동하는 사용자의 움직임과 거리를 근거로 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 의해 입체감과 원근감을 유발하는 실감형 콘텐츠 제공 시스템 및 그 방법에 관한 것이다.
인간은 양안에 구현된 영상의 차이에 의해 원근감을 느끼며 입체감을 느낀다.
이때, 원근감과 입체감의 경우, 2차원 콘텐츠에서는 적용이 어려우며, 3D 콘텐츠의 경우 입체 안경 등을 이용해서 입체감을 체험하거나, 3차원 디스플레이 장치를 이용한 스테레오스코픽 영상 재생을 통해 입체감을 체험할 수 있다.
이러한 3차원 디스플레이 장치를 통한 입체감 체험의 경우, 장시간 시청 시, 눈의 피로감과 불편함이 증가한다.
한국등록특허 제10-1551492호 [제목: 입체 동화상 처리 장치 및 방법 그리고 프로그램]
본 발명의 목적은 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 표시하고, 3D 콘텐츠가 표시되는 일측에 위치한 이동하는 사용자의 움직임과 거리를 감지하고, 감지된 이동하는 사용자의 움직임과 거리를 근거로 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 의해 입체감과 원근감을 유발하는 실감형 콘텐츠 제공 시스템 및 그 방법을 제공하는 데 있다.
본 발명의 다른 목적은 사용자가 움직이는 경우에는 3D 콘텐츠에 대해서 입체감과 원근감을 제공하고, 사용자가 정지하는 경우에는 정지 영상을 제공하는 실감형 콘텐츠 제공 시스템 및 그 방법을 제공하는 데 있다.
본 발명의 실시예에 따른 실감형 콘텐츠 제공 시스템은 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 생성하고, 상기 생성된 3D 콘텐츠를 빔 프로젝터를 통해 스크린에 투사하는 제어부; 및 상기 스크린 주변에 위치한 사용자를 감지할 때, 상기 감지된 사용자의 이동 여부, 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도를 감지하는 센서부를 포함하며, 상기 제어부는, 상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 정지 상태일 때, 상기 감지된 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 조정하여, 깊이감이 조정된 3D 콘텐츠를 생성하고, 상기 생성된 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사할 수 있다.
본 발명과 관련된 일 예로서 상기 3D 콘텐츠는, 상기 깊이감이 있는 공간에 상기 제어부를 포함하는 단말의 사용자 설정에 따른 깊이감이 각각 설정된 복수의 오브젝트를 포함할 수 있다.
본 발명과 관련된 일 예로서 상기 제어부는, 상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 움직일 때, 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 따른 원근감과 입체감을 제공하기 위해서, 상기 사용자의 이동에 따라 미리 설정된 시간 간격으로 감지되는 복수의 상기 스크린과 상기 사용자가 실시간으로 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 실시간으로 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정하여, 깊이감이 수정된 복수의 3D 콘텐츠를 각각 생성하고, 상기 생성된 수정된 복수의 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사할 수 있다.
본 발명과 관련된 일 예로서 상기 제어부는, 상기 센서부에 의해 미리 설정된 사용자의 동작이 감지될 때, 상기 빔 프로젝터를 통해 상기 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사할 수 있다.
본 발명의 실시예에 따른 실감형 콘텐츠 제공 방법은 제어부에 의해, 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 생성하는 단계; 상기 제어부에 의해, 상기 생성된 3D 콘텐츠를 빔 프로젝터를 통해 스크린에 투사하는 단계; 센서부에 의해, 상기 스크린 주변에 위치한 사용자를 감지할 때, 상기 감지된 사용자의 이동 여부, 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도를 감지하는 단계; 상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 정지 상태일 때, 상기 제어부에 의해, 상기 감지된 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 조정하여, 깊이감이 조정된 3D 콘텐츠를 생성하는 단계; 및 상기 제어부에 의해, 상기 생성된 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하는 단계를 포함할 수 있다.
본 발명과 관련된 일 예로서 상기 3D 콘텐츠를 생성하는 단계는, 미리 설치된 전용 앱을 이용해서, 사용자 입력에 따라 상기 깊이감 있는 공간에 사용자 설정에 따른 각각의 깊이감이 설정된 복수의 오브젝트를 배치하는 과정; 및 상기 배치된 깊이감이 각각 설정된 복수의 오브젝트를 포함하는 상기 3D 콘텐츠를 생성하는 과정을 포함할 수 있다.
본 발명과 관련된 일 예로서 상기 생성된 3D 콘텐츠를 빔 프로젝터를 통해 스크린에 투사하는 단계는, 상기 제어부에 의해, 상기 생성된 3D 콘텐츠 및 상기 제어부를 포함하는 단말의 식별 정보를 상기 빔 프로젝터에 전송하는 과정; 및 상기 빔 프로젝터에 의해, 상기 3D 콘텐츠를 상기 스크린에 투사하는 과정을 포함할 수 있다.
본 발명과 관련된 일 예로서 상기 빔 프로젝터를 통해 스크린에 투사되는 3D 콘텐츠는, 상기 스크린의 정면에서 바라보는 시점을 기준으로 하며, 정지 상태에 따라 평면 형태로 인식될 수 있다.
본 발명과 관련된 일 예로서 상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 움직일 때, 상기 제어부에 의해, 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 따른 원근감과 입체감을 제공하기 위해서, 상기 사용자의 이동에 따라 미리 설정된 시간 간격으로 감지되는 복수의 상기 스크린과 상기 사용자가 실시간으로 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 실시간으로 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정하여, 깊이감이 수정된 복수의 3D 콘텐츠를 각각 생성하는 단계; 및 상기 제어부에 의해, 상기 생성된 수정된 복수의 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하는 단계를 더 포함할 수 있다.
본 발명과 관련된 일 예로서 상기 센서부에 의해 미리 설정된 사용자의 동작이 감지될 때, 상기 제어부에 의해, 상기 빔 프로젝터를 통해 상기 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사하는 단계를 더 포함할 수 있다.
본 발명은 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 표시하고, 3D 콘텐츠가 표시되는 일측에 위치한 이동하는 사용자의 움직임과 거리를 감지하고, 감지된 이동하는 사용자의 움직임과 거리를 근거로 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 의해 입체감과 원근감을 유발함으로써, 콘텐츠에 대한 흥미를 유발할 수 있는 효과가 있다.
또한, 본 발명은 사용자가 움직이는 경우에는 3D 콘텐츠에 대해서 입체감과 원근감을 제공하고, 사용자가 정지하는 경우에는 정지 영상을 제공함으로써, 콘텐츠에 대한 관심을 높이고, 이용하는 사용자의 몰입도를 높일 수 있는 효과가 있다.
도 1은 본 발명의 실시예에 따른 실감형 콘텐츠 제공 시스템의 구성을 나타낸 블록도이다.
도 2는 본 발명의 실시예에 따른 단말의 구성을 나타낸 블록도이다.
도 3은 본 발명의 실시예에 따른 실감형 콘텐츠 제공 방법을 나타낸 흐름도이다.
도 4 내지 도 9는 본 발명의 실시예에 따른 빔 프로젝터를 통해 스크린에 투사되는 3D 콘텐츠의 예를 나타낸 도이다.
본 발명에서 사용되는 기술적 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 발명에서 사용되는 기술적 용어는 본 발명에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 발명에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.
또한, 본 발명에서 사용되는 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한 복수의 표현을 포함한다. 본 발명에서 "구성된다" 또는 "포함한다" 등의 용어는 발명에 기재된 여러 구성 요소들 또는 여러 단계를 반드시 모두 포함하는 것으로 해석되지 않아야 하며, 그 중 일부 구성 요소들 또는 일부 단계들은 포함되지 않을 수도 있고, 또는 추가적인 구성 요소 또는 단계들을 더 포함할 수 있는 것으로 해석되어야 한다.
또한, 본 발명에서 사용되는 제 1, 제 2 등과 같이 서수를 포함하는 용어는 구성 요소들을 설명하는데 사용될 수 있지만, 구성 요소들은 용어들에 의해 한정되어서는 안 된다. 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제 1 구성 요소는 제 2 구성 요소로 명명될 수 있고, 유사하게 제 2 구성 요소도 제 1 구성 요소로 명명될 수 있다.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.
또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니 됨을 유의해야 한다.
도 1은 본 발명의 실시예에 따른 실감형 콘텐츠 제공 시스템(10)의 구성을 나타낸 블록도이다.
도 1에 도시한 바와 같이, 실감형 콘텐츠 제공 시스템(10)은 단말(100) 및 빔 프로젝터(200)로 구성된다. 도 1에 도시된 실감형 콘텐츠 제공 시스템(10)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 1에 도시된 구성 요소보다 많은 구성 요소에 의해 실감형 콘텐츠 제공 시스템(10)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 실감형 콘텐츠 제공 시스템(10)이 구현될 수도 있다.
상기 단말(100)은 스마트 폰(Smart Phone), 휴대 단말기(Portable Terminal), 이동 단말기(Mobile Terminal), 폴더블 단말기(Foldable Terminal), 개인 정보 단말기(Personal Digital Assistant: PDA), PMP(Portable Multimedia Player) 단말기, 텔레매틱스(Telematics) 단말기, 내비게이션(Navigation) 단말기, 개인용 컴퓨터(Personal Computer), 노트북 컴퓨터, 슬레이트 PC(Slate PC), 태블릿 PC(Tablet PC), 울트라북(ultrabook), 웨어러블 디바이스(Wearable Device, 예를 들어, 워치형 단말기(Smartwatch), 글래스형 단말기(Smart Glass), HMD(Head Mounted Display) 등 포함), 와이브로(Wibro) 단말기, IPTV(Internet Protocol Television) 단말기, 스마트 TV, 디지털방송용 단말기, AVN(Audio Video Navigation) 단말기, A/V(Audio/Video) 시스템, 플렉시블 단말기(Flexible Terminal), 디지털 사이니지 장치 등과 같은 다양한 단말기에 적용될 수 있다.
도 2에 도시한 바와 같이, 상기 단말(100)은 센서부(110), 통신부(120), 저장부(130), 표시부(140), 음성 출력부(150) 및 제어부(160)로 구성된다. 도 2에 도시된 단말(100)의 구성 요소 모두가 필수 구성 요소인 것은 아니며, 도 2에 도시된 구성 요소보다 많은 구성 요소에 의해 단말(100)이 구현될 수도 있고, 그보다 적은 구성 요소에 의해서도 단말(100)이 구현될 수도 있다.
상기 센서부(110)는 상기 단말(100)의 소정 위치, 상기 단말(100)에 의해 생성된 3D 콘텐츠가 투사되는 스크린(미도시)의 소정 위치(또는 전면/측면의 일측), 해당 스크린 주변의 구조물의 소정 위치(예를 들어 촬상 영역(또는 감지 영역) 내에 해당 스크린이 포함될 수 있도록 해당 스크린이 위치한 공간상의 벽면, 천장, 주변 구조물의 일측 등 포함) 등에 구비(또는 설치/구성)한다.
또한, 상기 센서부(110)는 해당 센서부(110)가 위치한 전면, 후면, 측면 등에 위치한 객체(또는 사용자)의 움직임을 감지하는 동작 인식 센서(Motion Recognition Sensor)를 포함한다. 여기서, 상기 동작 인식 센서는 물체의 움직임이나 위치를 인식하는 센서, 지자기 센서(Geomagnetism Sensor), 가속도 센서(Acceleration Sensor), 자이로 센서(Gyro Sensor), 관성 센서(Inertial Sensor), 고도계(Altimeter), 진동 센서, 레이저 거리 센서(Lidar Sensor) 등의 센서를 포함하며, 동작 인식에 관련된 센서들이 추가로 포함될 수 있다.
또한, 상기 센서부(110)는 해당 스크린 주변에 위치한 사용자를 감지(또는 확인)한다.
또한, 해당 스크린 주변에 위치한 사용자가 감지(또는 확인)되는 경우, 상기 센서부(110)는 상기 사용자의 이동 여부(또는 움직임 여부), 상기 스크린과 상기 사용자 간의 거리, 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도(또는 미리 설정된 기준 좌표(예를 들어 3차원 좌표)를 기준으로 상기 기준 좌표상에서 해당 사용자가 위치한 지점에 대응하는 각도) 등을 감지(또는 측정)한다. 여기서, 상기 기준축은 해당 센서부(110)(또는 스크린)의 기준 방향(예를 들어 기준축/수평 방향/x축) 등을 포함한다. 또한, 상기 기준좌표는 해당 스크린의 화면 또는 해당 스크린에 미리 설정된 중앙 지점을 기준으로 한 3차원 좌표일 수 있다. 이때, 상기 단말(100)에 구성된 카메라(미도시)를 통해 상기 스크린이 포함된 촬상 영역 내에서 상기 사용자를 포함하는 영상을 촬영(또는 획득)하는 경우, 상기 단말(100)은 상기 사용자를 포함하는 영상에 대한 영상 분석을 통해, 상기 미리 설정된 기준축을 기준으로 해당 사용자의 이동 여부(또는 움직임 여부), 상기 스크린과 상기 사용자 간의 거리, 상기 기준축과 상기 사용자가 이루는 각도 등을 확인(또는 측정/감지)할 수도 있다. 여기서, 상기 스크린의 수평 방향의 기준축과 상기 사용자가 위치한 지점 간의 각도는 해당 기준축을 기준으로 시계 방향 또는 반시계 방향으로 측정할 수 있다.
또한, 해당 사용자가 해당 센서부(110)의 감지 영역 내에서 이동(움직임)하는 경우, 상기 센서부(110)는 미리 설정된 시간 단위로 연속하여 상기 스크린과 상기 사용자 간의 거리, 상기 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도 등을 감지(또는 측정)한다.
또한, 상기 센서부(110)는 미리 설정된 사용자의 동작(또는 움직임)을 감지한다. 이때, 상기 미리 설정된 사용자의 동작은 사용자의 손이 시계 방향(또는 반시계 방향)으로 원을 그리는 움직임(또는 회전하는 움직임), 사용자가 위/아래 방향(또는 상/하 방향, 좌/우 방향/대각선 방향)으로의 움직임, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임 등을 포함한다. 여기서, 상기 감지되는 정보들(예를 들어 원을 그리는 움직임, 위/아래 방향, 상/하 방향, 좌/우 방향, 대각선 방향으로의 움직임, 좌/우로의 기울임 등 포함)은 디지털 신호 처리 과정을 통해 디지털화되어, 상기 디지털화된 정보들이 상기 제어부(160)에 전달된다.
상기 통신부(120)는 유/무선 통신망을 통해 내부의 임의의 구성 요소 또는 외부의 임의의 적어도 하나의 단말기와 통신 연결한다. 이때, 상기 외부의 임의의 단말기는 상기 빔 프로젝터(200) 등을 포함할 수 있다. 여기서, 무선 인터넷 기술로는 무선랜(Wireless LAN: WLAN), DLNA(Digital Living Network Alliance), 와이브로(Wireless Broadband: Wibro), 와이맥스(World Interoperability for Microwave Access: Wimax), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), IEEE 802.16, 롱 텀 에볼루션(Long Term Evolution: LTE), LTE-A(Long Term Evolution-Advanced), 광대역 무선 이동 통신 서비스(Wireless Mobile Broadband Service: WMBS) 등이 있으며, 상기 통신부(120)는 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다. 또한, 근거리 통신 기술로는 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association: IrDA), UWB(Ultra Wideband), 지그비(ZigBee), 인접 자장 통신(Near Field Communication: NFC), 초음파 통신(Ultra Sound Communication: USC), 가시광 통신(Visible Light Communication: VLC), 와이 파이(Wi-Fi), 와이 파이 다이렉트(Wi-Fi Direct) 등이 포함될 수 있다. 또한, 유선 통신 기술로는 전력선 통신(Power Line Communication: PLC), USB 통신, 이더넷(Ethernet), 시리얼 통신(serial communication), 광/동축 케이블 등이 포함될 수 있다.
또한, 상기 통신부(120)는 유니버설 시리얼 버스(Universal Serial Bus: USB)를 통해 임의의 단말과 정보를 상호 전송할 수 있다.
또한, 상기 통신부(120)는 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 상기 빔 프로젝터(200) 등과 무선 신호를 송수신한다.
또한, 상기 통신부(120)는 상기 제어부(160)의 제어에 의해, 상기 빔 프로젝터(200)로 3D 콘텐츠 등을 전송한다.
상기 저장부(130)는 다양한 사용자 인터페이스(User Interface: UI), 그래픽 사용자 인터페이스(Graphic User Interface: GUI) 등을 저장한다.
또한, 상기 저장부(130)는 상기 단말(100)이 동작하는데 필요한 데이터와 프로그램 등을 저장한다.
즉, 상기 저장부(130)는 상기 단말(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 단말(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한, 이러한 응용 프로그램 중 적어도 일부는 단말(100)의 기본적인 기능을 위하여 출고 당시부터 단말(100) 상에 존재할 수 있다. 한편, 응용 프로그램은 상기 저장부(130)에 저장되고, 단말(100)에 설치되어, 제어부(160)에 의하여 상기 단말(100)의 동작(또는 기능)을 수행하도록 구동될 수 있다.
또한, 상기 저장부(130)는 플래시 메모리 타입(Flash Memory Type), 하드 디스크 타입(Hard Disk Type), 멀티미디어 카드 마이크로 타입(Multimedia Card Micro Type), 카드 타입의 메모리(예를 들면, SD 또는 XD 메모리 등), 자기 메모리, 자기 디스크, 광디스크, 램(Random Access Memory: RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory: ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory) 중 적어도 하나의 저장매체를 포함할 수 있다. 또한, 단말(100)은 인터넷(internet)상에서 저장부(130)의 저장 기능을 수행하는 웹 스토리지(web storage)를 운영하거나, 또는 상기 웹 스토리지와 관련되어 동작할 수도 있다.
또한, 상기 저장부(130)는 상기 제어부(160)의 제어에 의해 상기 3D 콘텐츠 등을 저장한다.
상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 저장부(130)에 저장된 사용자 인터페이스 및/또는 그래픽 사용자 인터페이스를 이용하여 다양한 메뉴 화면 등과 같은 다양한 콘텐츠를 표시할 수 있다. 여기서, 상기 표시부(140)에 표시되는 콘텐츠는 다양한 텍스트 또는 이미지 데이터(각종 정보 데이터 포함)와 아이콘, 리스트 메뉴, 콤보 박스 등의 데이터를 포함하는 메뉴 화면 등을 포함한다. 또한, 상기 표시부(140)는 터치 스크린 일 수 있다.
또한, 상기 표시부(140)는 액정 디스플레이(Liquid Crystal Display: LCD), 박막 트랜지스터 액정 디스플레이(Thin Film Transistor-Liquid Crystal Display: TFT LCD), 유기 발광 다이오드(Organic Light-Emitting Diode: OLED), 플렉시블 디스플레이(Flexible Display), 3차원 디스플레이(3D Display), 전자잉크 디스플레이(e-ink display), LED(Light Emitting Diode) 중에서 적어도 하나를 포함할 수 있다.
또한, 상기 표시부(140)는 상기 제어부(160)의 제어에 의해 상기 3D 콘텐츠 등을 표시한다.
상기 음성 출력부(150)는 상기 제어부(160)에 의해 소정 신호 처리된 신호에 포함된 음성 정보를 출력한다. 여기서, 상기 음성 출력부(150)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.
또한, 상기 음성 출력부(150)는 상기 제어부(160)에 의해 생성된 안내 음성을 출력한다.
또한, 상기 음성 출력부(150)는 상기 제어부(160)의 제어에 의해 상기 3D 콘텐츠 등에 대응하는 음성 정보(또는 음향 효과)를 출력한다.
상기 제어부(controller, 또는 MCU(microcontroller unit)(160)는 상기 단말(100)의 전반적인 제어 기능을 실행한다.
또한, 상기 제어부(160)는 상기 저장부(130)에 저장된 프로그램 및 데이터를 이용하여 단말(100)의 전반적인 제어 기능을 실행한다. 상기 제어부(160)는 RAM, ROM, CPU, GPU, 버스를 포함할 수 있으며, RAM, ROM, CPU, GPU 등은 버스를 통해 서로 연결될 수 있다. CPU는 상기 저장부(130)에 액세스하여, 상기 저장부(130)에 저장된 O/S를 이용하여 부팅을 수행할 수 있으며, 상기 저장부(130)에 저장된 각종 프로그램, 콘텐츠, 데이터 등을 이용하여 다양한 동작을 수행할 수 있다.
또한, 상기 제어부(160)는 3D 콘텐츠(또는 3차원 콘텐츠)를 생성하기 위해 서버(미도시) 등으로부터 제공되는 전용 앱인 3차원 그래픽스 콘텐츠 장면 저작 도구(scene authoring tool)를 해당 단말(100)에 설치한다.
또한, 상기 제어부(160)는 상기 단말(100)에 설치된 3차원 그래픽스 콘텐츠 장면 저작 도구를 이용해서 사용자 입력(또는 사용자 선택/터치/제어)에 따라 깊이감 있는 공간에 배치된 복수의 오브젝트(또는 객체)로 구성된 3D 콘텐츠를 생성한다. 여기서, 상기 3D 콘텐츠(또는 실감형 콘텐츠/이미지)는 깊이감(또는 원근감)이 있는 공간(또는 3D 공간)에 해당 단말(100)의 사용자 설정(또는 설계/선택/제어)에 따른 깊이감(또는 깊이감 정도)이 각각 설정된 복수의 오브젝트(또는 하나 이상의 오브젝트)를 포함(또는 구성)한다.
즉, 상기 제어부(160)는 상기 3차원 그래픽스 콘텐츠 장면 저작 도구(또는 해당 단말(100)에 미리 설치된 전용 앱/전용 툴)을 이용해서, 해당 단말(100)의 사용자 입력(또는 사용자 선택/터치/제어)에 따라 하나 이상의 3D 콘텐츠 객체(또는 오브젝트)를 상기 표시부(140)에 표시되는 장면(또는 깊이감 있는 공간) 내의 임의의 위치에 배치(또는 구성/형성)한다. 이때, 상기 장면 내의 임의의 위치에 배치되는 객체(또는 오브젝트)는 개별 오브젝트에 각각 설정된 깊이감(또는 3차원의 깊이감 정도/깊이감 정보)에 따라 미리 설정된 기준면을 기준으로 해당 개별 오브젝트의 크기, 선명도 등에 의한 원근감이 적용된 상태일 수 있다.
또한, 상기 제어부(160)는 상기 배치된 해당 깊이감이 각각 설정된 복수의 오브젝트를 포함하는 상기 3D 콘텐츠를 생성한다.
또한, 상기 제어부(160)는 상기 생성된 3D 콘텐츠, 해당 단말(100)의 식별 정보 등을 상기 통신부(120)를 통해 상기 빔 프로젝터(200)에 전송한다. 여기서, 상기 단말(100)의 식별 정보는 MDN(Mobile Directory Number), 모바일 IP, 모바일 MAC, Sim(subscriber identity module: 가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.
또한, 상기 감지된 사용자의 이동 여부에 따라, 해당 사용자가 정지 상태(또는 사용자가 이동하지 않고 정지/멈춘 상태)인 경우, 상기 제어부(160)는 앞서 감지된(또는 측정된) 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 조정(또는 수정/제어/반영)하여, 깊이감이 조정된 3D 콘텐츠를 생성한다.
또한, 상기 제어부(160)는 상기 빔 프로젝터(200)와 연동하여, 상기 생성된 깊이감이 조정된 3D 콘텐츠를 상기 스크린에 투사(또는 투영/출력/표시)한다. 이때, 상기 깊이감이 조정된 3D 콘텐츠는 앞서 스크린의 정면에서 바라보는 시점의 3D 콘텐츠에서 상기 감지된 거리 및 각도가 반영된 상태로 정면 대비해서 해당 각도만큼 옆쪽에서 바라보는 시점의 콘텐츠이며, 해당 사용자가 정지 상태임에 따라, 실질적으로 2D 형태(또는 평면 형태)로 사용자가 인식하게 된다.
또한, 상기 감지된 사용자의 이동 여부에 따라, 해당 사용자가 이동하는 경우, 상기 제어부(160)는 해당 사용자 시점(또는 해당 사용자가 위치한 지점/위치)에서의 절두체(Frustum)의 소실점에 의한 착시 효과에 따른 원근감과 입체감을 제공하기 위해서, 앞서 감지된(또는 측정된) 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 위치한 지점이 이루는 각도와, 해당 사용자의 움직임에 의해 미리 설정된 시간 간격으로 추가로 감지되는 상기 스크린과 상기 사용자가 위치한 다른 지점 간의 거리 및, 상기 기준축과 상기 사용자의 움직임에 의한 다른 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정(또는 조정/제어/반영)하여, 깊이감이 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 각각 생성한다.
즉, 상기 제어부(160)는 해당 사용자의 이동에 따라 미리 설정된 시간 간격으로 감지되는 복수의 상기 스크린과 해당 사용자가 실시간으로 위치한 지점 간의 거리 및, 상기 기준축과 해당 사용자가 실시간으로 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정(또는 조정/제어)하여, 깊이감이 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 각각 생성한다.
또한, 상기 제어부(160)는 상기 빔 프로젝터(200)와 연동하여, 상기 생성된 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 상기 스크린에 투사(또는 출력/표시)한다. 이때, 상기 사용자가 움직임에 따라, 해당 스크린에 투사(또는 출력/표시)되는 3D 콘텐츠는 실질적으로 원근감 및 입체감이 적용된 3D 형태로 사용자가 인식하게 된다.
이와 같이, 상기 제어부(160)는 사용자가 입체감을 느낄 수 있도록, 투사면 FOV(Field Of View)의 변화를 주도록 구성한다.
또한, 상기 단말(100)에 포함된 센서부(110)에 의해 미리 설정된 사용자의 동작(또는 움직임)이 감지되는 경우, 상기 제어부(160)는 상기 빔 프로젝터(200)와 연동하여, 해당 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사(또는 표시/출력)한다. 여기서, 상기 미리 설정된 사용자의 동작은 사용자의 손이 시계 방향(또는 반시계 방향)으로 원을 그리는 움직임(또는 회전하는 움직임), 사용자가 위/아래 방향(또는 상/하 방향, 좌/우 방향/대각선 방향)으로의 움직임, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임 등을 포함한다. 또한, 상기 미리 설정된 애니메이션 효과는 해당 사용자의 손의 시계/반시계 방향으로 원을 그리는 움직임에 대응하여 불꽃이 터지는 애니메이션 효과, 사용자가 위/아래 방향으로의 움직임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 특정 오브젝트에 형광 테두리 적용 애니메이션 효과, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 다른 특정 오브젝트 주변에 조명 애니메이션 효과 등을 포함한다.
또한, 상기 제어부(160)는 상기 스크린에 투사되는 3D 콘텐츠가 미리 설정된 크기 비율로 출력되는지 여부를 확인한다.
상기 확인 결과, 해당 투사되는 3D 콘텐츠가 미리 설정된 크기 비율로 출력되지 않는 경우, 상기 제어부(160)는 해당 빔 프로젝터(200)의 위치 및/또는 각도를 정밀 조정하기 위한 정보, 해당 빔 프로젝터(200)의 광학적 특성값을 조정하기 위한 정보 등을 생성한다.
또한, 상기 제어부(160)는 상기 생성된 해당 빔 프로젝터(200)의 위치 및/또는 각도를 정밀 조정하기 위한 정보, 해당 빔 프로젝터(200)의 광학적 특성값을 조정하기 위한 정보 등을 상기 통신부(120)를 통해 상기 빔 프로젝터(200)에 전송한다. 여기서, 상기 빔 프로젝터(200)의 광학적 특성값(또는 빔 프로젝터의 사양)은 빔 프로젝터의 최소 사거리, 최대 사거리, X축 탄젠트(Tangent) 값(예를 들어 우향 X축 탄젠트 값, 좌향 X축 탄젠트 값 등 포함), Y축 탄젠트 값(예를 들어 상향 Y축 탄젠트 값, 하향 Y축 탄젠트 값 등 포함), 센터 오프셋(center offset) 등을 포함한다. 또한, 상기 제어부(160)는 상기 빔 프로젝터(200)의 줌(zoom) 기능 제공에 따라 탄젠트 값이 가변이므로, 줌 최대/줌 최소에 대한 모든 값을 측정하여 상황에 맞춰 선택할 수 있도록 구성할 수 있다.
이에 따라, 상기 빔 프로젝터(200)는 해당 빔 프로젝터(200)의 위치 및/또는 각도를 정밀 조정하기 위한 정보, 해당 빔 프로젝터(200)의 광학적 특성값을 조정하기 위한 정보 등을 근거로 해당 빔 프로젝터(200)의 위치 및/또는 각도를 조정하는 기능, 해당 빔 프로젝터(200)의 광학적 특성값을 조정하는 기능 등을 수행한다.
본 발명의 실시예에서는 상기 제어부(160)가 상기 센서부(100)에서 해당 스크린 주변에 위치한 단일 사용자 감지에 따라 상기 빔 프로젝트(200)와 연동하여, 깊이감이 조정된 3D 콘텐츠를 상기 스크린에 투사하는 것을 주로 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 제어부(160)는 상기 센서부(100)에서 해당 스크린 주변(또는 대형 미디워월)에 위치한 복수의 사용자 감지에 따라 상기 빔 프로젝터(200)와 연동하여 복수의 사용자별로 깊이감이 조정된 개별 3D 콘텐츠를 투사하도록 구성할 수도 있다.
즉, 상기 센서부(100)에서 해당 스크린(또는 대형 미디어월) 주변에 위치한 단일 사용자를 감지하는 경우, 상기 제어부(160)는 1개의 장면 카메라를 사용하여 1개의 절두체(Frustum)를 이용하여 렌더링(예를 들어 장면 1개당 1개의 카메라(또는 빔 프로젝터(200))를 사용하여 전체 화면에서 통일된 이미지를 만드는 방식)한다.
또한, 상기 센서부(100)에서 해당 스크린(또는 대형 미디어월) 주변에 위치한 복수의 사용자를 감지하는 경우, 상기 제어부(160)는 해당 복수의 사용자의 수에 대응하는 복수의 카메라 위치별로 복수의 장면 카메라를 생성하여, 각 오브젝트별로(또는 사용자별로) 장면 카메라를 달리하여 렌더링을 실시(또는 수행)한다.
즉, 상기 센서부(100)에서 제 1 사용자와 제 2 사용자를 감지하는 경우, 상기 제어부(160)는 해당 제 1 사용자와 제 2 사용자에 대응하여 서로 다른 제 1 절두체와 제 2 절두체를 생성하고, 상기 생성된 제 1 절두체와 제 2 절두체를 각각 렌더링한다. 이때, 상기 제어부(160)는 해당 제 1 사용자의 위치를 기준으로 한 장면 카메라 A와, 해당 제 1 사용자의 스크린(또는 대형 미디어월)에 대한 근접 여부를 판정하여, 해당 장면 카메라 A에 종속된 오브젝트 그룹 C를 관리한다. 또한, 상기 제어부(160)는 해당 제 2 사용자의 위치를 기준으로 한 장면 카메라 B와, 해당 제 2 사용자의 스크린(또는 대형 미디어월)에 대한 근접 여부를 판정하여, 해당 장면 카메라 B에 종속된 오브젝트 그룹 D를 관리한다.
이와 같이, 상기 제어부(160)는 상기 센서부(110)에 의해 감지되는 스크린 주변에 위치한 한 명 이상의 사용자에 대해서, 각 사용자별로 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터(또는 장면 카메라)를 통해 상기 스크린에 투사할 수 있다.
상기 빔 프로젝터(200)는 상기 단말(100) 등과 통신한다. 여기서, 상기 빔 프로젝터(200)는 공연, 학회 등을 위한 다양한 장소에 설치(또는 배치)한다.
또한, 상기 빔 프로젝터(200)는 상기 단말(100)을 구성하는 상기 센서부(110), 상기 통신부(120), 상기 저장부(130), 상기 표시부(140), 상기 음성 출력부(150), 상기 제어부(160)에 대응하는 각 구성 요소를 포함하여 구성할 수 있다.
또한, 상기 빔 프로젝터(200)는 상기 단말(100)로부터 전송되는 3D 콘텐츠, 상기 단말(100)의 식별 정보 등을 수신한다.
또한, 상기 빔 프로젝터(200)는 상기 단말(100)의 제어에 의해(또는 상기 단말(100)과 연동하여), 상기 수신된 3D 콘텐츠(또는 영상)를 비평면 또는 평면의 대형 구조의 스크린(또는 벽면 등 포함)(미도시)에 투사(또는 출력/표시)한다. 이때, 상기 스크린에 투사되는 3D 콘텐츠는 해당 스크린(또는 해당 스크린에 미리 설정된 중앙 지점)의 정면에서 바라보는 시점을 기준으로 하며, 정지 상태에 따라 실질적으로 2D 형태(또는 평면 형태)로 사용자가 인식하게 된다.
또한, 상기 감지된 사용자의 이동 여부에 따라, 해당 사용자가 정지 상태(또는 사용자가 이동하지 않고 정지/멈춘 상태)인 경우, 상기 빔 프로젝터(200)는 상기 단말(100)과 연동하여, 상기 단말(100)에서 생성된 깊이감이 조정된 3D 콘텐츠를 상기 스크린에 투사(또는 출력/표시)한다. 이때, 상기 깊이감이 조정된 3D 콘텐츠는 앞서 스크린의 정면에서 바라보는 시점의 3D 콘텐츠에서 상기 감지된 거리 및 각도가 반영된 상태로 정면 대비해서 해당 각도만큼 옆쪽에서 바라보는 시점의 콘텐츠이며, 해당 사용자가 정지 상태임에 따라, 실질적으로 2D 형태(또는 평면 형태)로 사용자가 인식하게 된다.
또한, 상기 감지된 사용자의 이동 여부에 따라, 해당 사용자가 이동하는 경우, 상기 빔 프로젝터(200)는 상기 단말(100)과 연동하여, 상기 단말(100)에서 생성된 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 상기 스크린에 투사(또는 출력/표시)한다. 이때, 상기 사용자가 움직임에 따라, 해당 스크린에 투사(또는 출력/표시)되는 3D 콘텐츠는 실질적으로 원근감 및 입체감이 적용된 3D 형태로 사용자가 인식하게 된다.
또한, 상기 단말(100)에 포함된 센서부(110)에 의해 미리 설정된 사용자의 동작(또는 움직임)이 감지되는 경우, 상기 빔 프로젝터(200)는 상기 단말(100)과 연동하여, 해당 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사(또는 표시/출력)한다. 여기서, 상기 미리 설정된 사용자의 동작은 사용자의 손이 시계 방향(또는 반시계 방향)으로 원을 그리는 움직임(또는 회전하는 움직임), 사용자가 위/아래 방향(또는 상/하 방향, 좌/우 방향/대각선 방향)으로의 움직임, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임 등을 포함한다. 또한, 상기 미리 설정된 애니메이션 효과는 해당 사용자의 손의 시계/반시계 방향으로 원을 그리는 움직임에 대응하여 불꽃이 터지는 애니메이션 효과, 사용자가 위/아래 방향으로의 움직임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 특정 오브젝트에 형광 테두리 적용 애니메이션 효과, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 다른 특정 오브젝트 주변에 조명 애니메이션 효과 등을 포함한다.
본 발명의 실시예에서는 상기 단말(100) 및 상기 빔 프로젝터(200)를 분리된 구성으로 주로 설명하고 있으나, 이에 한정되는 것은 아니며, 상기 단말(100) 및 상기 빔 프로젝터(200)는 일체형으로 구성할 수도 있다. 이때, 상기 빔 프로젝터(200)가 상기 단말(100)에 구성된 구성 요소들을 모두 포함하도록 구성할 수 있으며, 여기서 해당 센서부(110)는 해당 빔 프로젝터(200) 내에 구성되거나 탈/부착 가능한 형태로 구성되어 해당 스크린의 일측에 배치하도록 구성할 수도 있다.
이와 같이, 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 표시하고, 3D 콘텐츠가 표시되는 일측에 위치한 이동하는 사용자의 움직임과 거리를 감지하고, 감지된 이동하는 사용자의 움직임과 거리를 근거로 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 의해 입체감과 원근감을 유발할 수 있다.
또한, 이와 같이, 사용자가 움직이는 경우에는 3D 콘텐츠에 대해서 입체감과 원근감을 제공하고, 사용자가 정지하는 경우에는 정지 영상을 제공할 수 있다.
이하에서는, 본 발명에 따른 실감형 콘텐츠 제공 방법을 도 1 내지 도 9를 참조하여 상세히 설명한다.
도 3은 본 발명의 실시예에 따른 실감형 콘텐츠 제공 방법을 나타낸 흐름도이다.
먼저, 단말(100)은 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 생성한다. 여기서, 상기 3D 콘텐츠(또는 실감형 콘텐츠/이미지)는 깊이감(또는 원근감)이 있는 공간(또는 3D 공간)에 해당 단말(100)의 사용자 설정(또는 설계/선택/제어)에 따른 깊이감(또는 깊이감 정도)이 각각 설정된 복수의 오브젝트(또는 하나 이상의 오브젝트)를 포함(또는 구성)한다.
즉, 상기 단말(100)은 해당 단말(100)에 미리 설치된 전용 앱(또는 전용 툴)을 이용해서, 해당 단말(100)의 사용자 입력(또는 사용자 선택/터치/제어)에 따라 깊이감 있는 공간(또는 3D 공간)에 사용자 설정에 따른 각각의 깊이감(또는 원근감/깊이감 정보/원근감 정보)이 설정된 복수의 오브젝트를 배치하고, 상기 배치된 해당 깊이감이 각각 설정된 복수의 오브젝트를 포함하는 상기 3D 콘텐츠를 생성한다. 이때, 상기 복수의 오브젝트는 개별 오브젝트에 각각 설정된 깊이감(또는 3차원의 깊이감 정도/깊이감 정보)에 따라 미리 설정된 기준면을 기준으로 해당 개별 오브젝트의 크기, 선명도 등에 의한 원근감이 적용된 상태일 수 있다.
또한, 상기 단말(100)은 상기 생성된 3D 콘텐츠, 해당 단말(100)의 식별 정보 등을 빔 프로젝터(200)에 전송한다. 여기서, 상기 단말(100)의 식별 정보는 MDN, 모바일 IP, 모바일 MAC, Sim(가입자 식별 모듈) 카드 고유정보, 시리얼번호 등을 포함한다.
일 예로, 제 1 단말(100)은 해당 제 1 단말의 제 1 사용자 입력에 따라 각각의 깊이감이 설정된 복수의 오브젝트를 포함하는 명화 형태의 제 1 3D 콘텐츠를 생성한다.
또한, 상기 제 1 단말은 상기 생성된 제 1 3D 콘텐츠, 상기 제 1 단말의 식별 정보 등을 제 1 빔 프로젝터(200)에 전송한다.
다른 일 예로, 제 2 단말(100)은 해당 제 2 단말의 제 2 사용자 입력에 따라 각각의 깊이감이 설정된 복수의 오브젝트를 포함하는 제 2 3D 콘텐츠를 생성한다.
또한, 상기 제 2 단말은 상기 생성된 제 2 3D 콘텐츠, 상기 제 2 단말의 식별 정보 등을 제 2 빔 프로젝터(200)에 전송한다(S310).
이후, 상기 빔 프로젝터(200)는 상기 단말(100)로부터 전송되는 3D 콘텐츠, 상기 단말(100)의 식별 정보 등을 수신한다.
또한, 상기 빔 프로젝터(200)는 상기 수신된 3D 콘텐츠(또는 영상)를 비평면 또는 평면의 대형 구조의 스크린(또는 벽면 등 포함)(미도시)에 투사(또는 출력/표시)한다. 이때, 상기 스크린에 투사되는 3D 콘텐츠는 해당 스크린(또는 해당 스크린에 미리 설정된 중앙 지점)의 정면에서 바라보는 시점을 기준으로 하며, 정지 상태에 따라 실질적으로 2D 형태(또는 평면 형태)로 사용자가 인식하게 된다.
일 예로, 상기 제 1 빔 프로젝터는 상기 제 1 단말로부터 전송되는 상기 제 1 3D 콘텐츠, 상기 제 1 단말의 식별 정보 등을 수신한다.
또한, 도 4에 도시된 바와 같이, 상기 제 1 빔 프로젝터는 상기 수신된 제 1 3D 콘텐츠를 제 1 스크린에 투사한다.
다른 일 예로, 상기 제 2 빔 프로젝터는 상기 제 2 단말로부터 전송되는 상기 제 2 3D 콘텐츠, 상기 제 2 단말의 식별 정보 등을 수신한다.
또한, 도 5에 도시된 바와 같이, 상기 제 2 빔 프로젝터는 상기 수신된 제 2 3D 콘텐츠를 제 2 스크린에 투사한다(S320).
이후, 상기 단말(100)은 해당 스크린 주변(예를 들어 전면의 일측)에 위치한 사용자(또는 객체)를 감지(또는 확인)하고, 상기 감지된 사용자의 이동 여부(또는 사용자의 움직임 여부), 상기 스크린(또는 기준점)과 사용자가 위치한 지점(또는 사용자의 위치) 간의 거리, 해당 사용자가 위치한 지점의 각도(또는 방향) 등을 감지(또는 측정)한다.
즉, 상기 단말(100)에 포함된 센서부(110)는 해당 스크린 주변에 위치한 사용자를 감지(또는 확인)한다. 여기서, 상기 센서부(110)는 상기 스크린의 일측(또는 전면/측면의 일측)에 구성되거나, 촬상 영역(또는 감지 영역) 내에 해당 스크린이 포함될 수 있도록 상기 스크린의 주변 일측(예를 들어 해당 스크린이 위치한 공간상의 벽면, 천장, 주변 구조물의 일측 등 포함)에 구성된 상태일 수 있다.
또한, 해당 스크린 주변에 위치한 사용자가 감지(또는 확인)되는 경우, 상기 센서부(110)는 상기 사용자의 이동 여부, 상기 스크린과 상기 사용자 간의 거리, 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도(또는 미리 설정된 기준 좌표(예를 들어 3차원 좌표)를 기준으로 상기 기준 좌표상에서 해당 사용자가 위치한 지점에 대응하는 각도) 등을 감지(또는 측정)한다. 여기서, 상기 기준축은 해당 센서부(110)(또는 스크린)의 기준 방향(예를 들어 기준축/수평 방향/x축) 등을 포함한다. 또한, 상기 기준좌표는 해당 스크린의 화면 또는 해당 스크린에 미리 설정된 중앙 지점을 기준으로 한 3차원 좌표일 수 있다. 이때, 상기 단말(100)에 구성된 카메라(미도시)를 통해 상기 스크린이 포함된 촬상 영역 내에서 상기 사용자를 포함하는 영상을 촬영(또는 획득)하는 경우, 상기 단말(100)은 상기 사용자를 포함하는 영상에 대한 영상 분석을 통해, 상기 미리 설정된 기준축을 기준으로 해당 사용자의 이동 여부, 상기 스크린과 상기 사용자 간의 거리, 상기 기준축과 상기 사용자가 이루는 각도 등을 확인(또는 측정/감지)할 수도 있다. 여기서, 상기 스크린의 수평 방향의 기준축과 상기 사용자가 위치한 지점 간의 각도는 해당 기준축을 기준으로 시계 방향 또는 반시계 방향으로 측정할 수 있다.
일 예로, 상기 제 1 스크린의 하단 일측에 구성된 제 1 센서부(110)는 상기 제 1 스크린 주변에 위치한 제 1 사용자를 감지하고, 상기 감지된 제 1 사용자의 이동 여부, 상기 감지된 제 1 스크린과 제 1 사용자가 위치한 A 지점 간의 제 1-1 거리, 상기 제 1 스크린의 수평 방향을 기준축으로 상기 기준축과 상기 제 1 사용자가 위치한 A 지점이 이루는 제 1-1 각도를 각각 감지한다.
다른 일 예로, 상기 제 2 스크린의 하단 일측에 구성된 제 2 센서부(110)는 상기 제 2 스크린 주변에 위치한 제 2 사용자를 감지하고, 상기 감지된 제 2 사용자의 이동 여부, 상기 감지된 제 2 스크린과 제 2 사용자가 위치한 C 지점 간의 제 2-1 거리, 상기 제 2 스크린의 수평 방향을 기준축으로 상기 기준축과 상기 제 2 사용자가 위치한 C 지점이 이루는 제 2-1 각도를 각각 감지한다(S330).
이후, 상기 감지된 사용자의 이동 여부에 따라, 해당 사용자가 정지 상태(또는 사용자가 이동하지 않고 정지/멈춘 상태)인 경우, 상기 단말(100)은 앞서 감지된(또는 측정된) 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 조정(또는 수정/제어/반영)하여, 깊이감이 조정된 3D 콘텐츠를 생성한다.
또한, 상기 단말(100)은 상기 빔 프로젝터(200)와 연동하여, 상기 생성된 깊이감이 조정된 3D 콘텐츠를 상기 스크린에 투사(또는 출력/표시)한다. 이때, 상기 깊이감이 조정된 3D 콘텐츠는 앞서 스크린의 정면에서 바라보는 시점의 3D 콘텐츠에서 상기 감지된 거리 및 각도가 반영된 상태로 정면 대비해서 해당 각도만큼 옆쪽에서 바라보는 시점의 콘텐츠이며, 해당 사용자가 정지 상태임에 따라, 실질적으로 2D 형태(또는 평면 형태)로 사용자가 인식하게 된다.
일 예로, 상기 감지된 제 1 사용자의 이동 여부에 의해 해당 제 1 사용자가 정지 상태일 때, 상기 제 1 단말은 상기 감지된 제 1-1 거리 및 상기 제 1-1 각도를 근거로 상기 제 1 3D 콘텐츠에 포함된 복수의 오브젝트의 깊이감(또는 원근감)을 조정하여, 깊이감이 조정된 제 1-1 3D 콘텐츠를 생성한다.
또한, 도 6에 도시된 바와 같이, 상기 제 1 단말은 상기 제 1 빔 프로젝터와 연동하여, 상기 제 1 사용자가 위치한 A 지점에서 상기 제 1 스크린을 바라볼 때의 화면인, 상기 제 1-1 3D 콘텐츠를 상기 제 1 스크린에 투사한다.
다른 일 예로, 상기 감지된 제 2 사용자의 이동 여부에 의해 해당 제 2 사용자가 정지 상태일 때, 상기 제 2 단말은 상기 감지된 제 2-1 거리 및 상기 제 2-1 각도를 근거로 상기 제 2 3D 콘텐츠에 포함된 복수의 오브젝트의 깊이감을 조정하여, 깊이감이 조정된 제 2-1 3D 콘텐츠를 생성한다.
또한, 도 7에 도시된 바와 같이, 상기 제 2 단말은 상기 제 2 빔 프로젝터와 연동하여, 상기 제 2 사용자가 위치한 C 지점에서 상기 제 2 스크린을 바라볼 때의 화면인, 상기 제 2-1 3D 콘텐츠를 상기 제 2 스크린에 투사한다(S340).
또한, 상기 감지된 사용자의 이동 여부에 따라, 해당 사용자가 이동하는 경우, 상기 단말(100)은 해당 사용자 시점(또는 해당 사용자가 위치한 지점/위치)에서의 절두체의 소실점에 의한 착시 효과에 따른 원근감과 입체감을 제공하기 위해서, 앞서 감지된(또는 측정된) 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 위치한 지점이 이루는 각도와, 해당 사용자의 움직임에 의해 미리 설정된 시간 간격으로 추가로 감지되는 상기 스크린과 상기 사용자가 위치한 다른 지점 간의 거리 및, 상기 기준축과 상기 사용자의 움직임에 의한 다른 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정(또는 조정/제어/반영)하여, 깊이감이 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 각각 생성한다.
즉, 상기 제어부(160)는 해당 사용자의 이동에 따라 미리 설정된 시간 간격으로 감지되는 복수의 상기 스크린과 해당 사용자가 실시간으로 위치한 지점 간의 거리 및, 상기 기준축과 해당 사용자가 실시간으로 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정(또는 조정/제어)하여, 깊이감이 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 각각 생성한다.
또한, 상기 단말(100)은 상기 빔 프로젝터(200)와 연동하여, 상기 생성된 수정된 복수의 3D 콘텐츠(또는 깊이감이 수정된 연속된 복수의 3D 콘텐츠)를 상기 스크린에 투사(또는 출력/표시)한다. 이때, 상기 사용자가 움직임에 따라, 해당 스크린에 투사(또는 출력/표시)되는 3D 콘텐츠는 실질적으로 원근감 및 입체감이 적용된 3D 형태로 사용자가 인식하게 된다.
일 예로, 상기 감지된 제 1 사용자의 이동 여부에 의해 해당 제 1 사용자가 A 지점에서 B 지점(또는 좌측에서 우측)으로 이동할 때, 상기 제 1 단말은 상기 제 1 빔 프로젝터와 연동하여, 앞서 A 지점에 대응하여 생성된 제 1-1 3D 콘텐츠를 상기 제 1 스크린에 투사하고 있는 상태에서, 해당 제 1 사용자의 움직임에 따라 미리 설정된 시간 간격으로 추가로 감지되는 상기 제 1 스크린과 상기 제 1 사용자가 위치한 지점 간의 제 1-2 거리 내지 제 1-10 거리 및, 상기 기준축과 상기 제 1 사용자의 이동에 따른 지점에서의 제 1-2 각도 내지 제 1-10 각도 등을 근거로 상기 제 1 3D 콘텐츠에 포함된 복수의 오브젝트의 깊이감(또는 원근감)을 각각 수정하여, 깊이감이 각각 수정된 제 1-2 3D 콘텐츠 내지 제 1-10 3D 콘텐츠를 각각 생성한다.
또한, 상기 제 1 단말은 상기 제 1 빔 프로젝터와 연동하여, 상기 제 1 사용자가 A 지점에서 B 지점으로 이동함에 따라 해당 제 1 스크린을 바라볼 때의 화면인, 상기 생성된 제 1-2 3D 콘텐츠 내지 제 1-10 3D 콘텐츠를 연속하여 상기 제 1 스크린에 투사한다. 이때, 상기 제 1 사용자가 상기 A 지점에서 상기 B 지점으로 이동함에 따라, 상기 제 1 단말은 연속해서 감지되는 거리, 각도 등을 상기 제 1 3D 콘텐츠에 반영(또는 적용)하여, 현실감 있는 수정된 제 1 3D 콘텐츠(예를 들어 제 1-2 3D 콘텐츠 내지 제 1-10 3D 콘텐츠)를 생성 및 상기 제 1 스크린에 투사할 수 있다.
이때, 도 8에 도시된 바와 같이, 상기 제 1 사용자가 A 지점에서 움직일 때, 해당 제 1 사용자는 해당 제 1-1 3D 콘텐츠에 포함된 제 1 오브젝트, 제 2 오브젝트, 제 3 오브젝트를 확인할 수 있다.
또한, 상기 도 8에 도시된 바와 같이, 상기 제 1 사용자가 A 지점에서 B 지점으로 이동하여 B 지점에 도착할 때, 해당 제 1 사용자는 앞선 A 지점에 비해서, 상대적으로 제 3 오브젝트가 상기 제 1 오브젝트에 의해 가려진 상태로 해당 제 1-10 3D 콘텐츠를 확인할 수 있다.
다른 일 예로, 상기 감지된 제 2 사용자의 이동 여부에 의해 해당 제 2 사용자가 C 지점에서 D 지점(또는 우측에서 좌측)으로 이동할 때, 상기 제 2 단말은 상기 제 2 빔 프로젝터와 연동하여, 앞서 C 지점에 대응하여 생성된 제 2-1 3D 콘텐츠를 상기 제 2 스크린에 투사하고 있는 상태에서, 해당 제 2 사용자의 움직임에 따라 미리 설정된 시간 간격으로 추가로 감지되는 상기 제 2 스크린과 상기 제 2 사용자가 위치한 다른 지점 간의 제 2-2 거리 내지 제 2-10 거리 및, 상기 기준축과 상기 제 2 사용자의 이동에 따른 다른 지점에서의 제 2-2 각도 내지 제 2-10 각도 등을 근거로 상기 제 2 3D 콘텐츠에 포함된 복수의 오브젝트의 깊이감(또는 원근감)을 각각 수정하여, 깊이감이 각각 수정된 제 2-2 3D 콘텐츠 내지 제 2-10 3D 콘텐츠를 각각 생성한다.
또한, 상기 제 2 단말은 상기 제 2 빔 프로젝터와 연동하여, 상기 제 2 사용자가 C 지점에서 D 지점으로 이동함에 따라 해당 제 2 스크린을 바라볼 때의 화면인, 상기 생성된 제 2-2 3D 콘텐츠 내지 제 2-10 3D 콘텐츠를 연속하여 상기 제 2 스크린에 투사한다. 이때, 상기 제 2 사용자가 상기 C 지점에서 상기 D 지점으로 이동함에 따라, 상기 제 2 단말은 연속해서 감지되는 거리, 각도 등을 상기 제 2 3D 콘텐츠에 반영(또는 적용)하여, 현실감 있는 수정된 제 2 3D 콘텐츠(예를 들어 제 2-2 3D 콘텐츠 내지 제 2-10 3D 콘텐츠)를 생성 및 상기 제 2 스크린에 투사할 수 있다.
이때, 도 9에 도시된 바와 같이, 상기 제 2 사용자가 C 지점에서 움직일 때, 해당 제 2 사용자는 해당 제 2-1 3D 콘텐츠에 포함된 원근감이 적용된 복수의 오브젝트를 확인할 수 있다.
또한, 상기 도 9에 도시된 바와 같이, 상기 제 2 사용자가 C 지점에서 D 지점으로 이동하여 D 지점에 도착할 때, 해당 제 2 사용자는 앞선 C 지점에 비해서, 상대적으로 다른 오브젝트가 가려지고, 새로운 오브젝트가 좀 더 선명하게 확인되는 상태로 해당 제 2-10 3D 콘텐츠를 확인할 수 있다(S350).
또한, 상기 단말(100)에 포함된 센서부(110)에 의해 미리 설정된 사용자의 동작(또는 움직임)이 감지되는 경우, 상기 단말(100)은 상기 빔 프로젝터(200)와 연동하여, 해당 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사(또는 표시/출력)한다. 여기서, 상기 미리 설정된 사용자의 동작은 사용자의 손이 시계 방향(또는 반시계 방향)으로 원을 그리는 움직임(또는 회전하는 움직임), 사용자가 위/아래 방향(또는 상/하 방향, 좌/우 방향/대각선 방향)으로의 움직임, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임 등을 포함한다. 또한, 상기 미리 설정된 애니메이션 효과는 해당 사용자의 손의 시계/반시계 방향으로 원을 그리는 움직임에 대응하여 불꽃이 터지는 애니메이션 효과, 사용자가 위/아래 방향으로의 움직임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 특정 오브젝트에 형광 테두리 적용 애니메이션 효과, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 다른 특정 오브젝트 주변에 조명 애니메이션 효과 등을 포함한다.
일 예로, 상기 제 1 센서부에 의해 상기 제 1 사용자의 손이 시계 방향으로 원을 그리는 동작이 감지될 때, 상기 제 1 단말은 상기 제 1 빔 프로젝터와 연동하여, 상기 제 1 3D 콘텐츠가 상기 제 1 스크린에 투사되고 있는 상태에서, 상기 원 그리는 동작에 대응하여 미리 설정된 불꽃이 터지는 애니메이션 효과를 추가로 투사한다(S360).
본 발명의 실시예는 앞서 설명된 바와 같이, 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 표시하고, 3D 콘텐츠가 표시되는 일측에 위치한 이동하는 사용자의 움직임과 거리를 감지하고, 감지된 이동하는 사용자의 움직임과 거리를 근거로 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 의해 입체감과 원근감을 유발하여, 콘텐츠에 대한 흥미를 유발할 수 있다.
또한, 본 발명의 실시예는 앞서 설명된 바와 같이, 사용자가 움직이는 경우에는 3D 콘텐츠에 대해서 입체감과 원근감을 제공하고, 사용자가 정지하는 경우에는 정지 영상을 제공하여, 콘텐츠에 대한 관심을 높이고, 이용하는 사용자의 몰입도를 높일 수 있다.
전술된 내용은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
10: 실감형 콘텐츠 제공 시스템 100: 단말
200: 빔 프로젝터 110: 센서부
120: 통신부 130: 저장부
140: 표시부 150: 음성 출력부
160: 제어부

Claims (10)

  1. 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 생성하고, 상기 생성된 3D 콘텐츠를 빔 프로젝터를 통해 스크린에 투사하는 제어부; 및
    상기 스크린 주변에 위치한 사용자를 감지할 때, 상기 감지된 사용자의 이동 여부, 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도를 감지하는 센서부를 포함하며,
    상기 제어부는,
    상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 정지 상태일 때, 상기 감지된 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 조정하여, 깊이감이 조정된 3D 콘텐츠를 생성하고, 상기 생성된 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하며,
    상기 깊이감이 조정된 3D 콘텐츠는,
    상기 스크린의 정면에서 바라보는 시점의 3D 콘텐츠에서 상기 감지된 거리 및 각도가 반영된 상태로 정면 대비해서 상기 각도만큼 옆쪽에서 바라보는 시점의 콘텐츠이며, 상기 사용자가 정지 상태임에 따라, 2D 형태로 사용자가 인식하게 되며,
    상기 3D 콘텐츠는,
    상기 깊이감이 있는 공간에 상기 제어부를 포함하는 단말의 사용자 설정에 따른 깊이감이 각각 설정된 복수의 오브젝트를 포함하며,
    상기 제어부는,
    상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 움직일 때, 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 따른 원근감과 입체감을 제공하기 위해서, 상기 사용자의 이동에 따라 미리 설정된 시간 간격으로 감지되는 복수의 상기 스크린과 상기 사용자가 실시간으로 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 실시간으로 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정하여, 깊이감이 수정된 복수의 3D 콘텐츠를 각각 생성하고, 상기 생성된 수정된 복수의 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하며,
    상기 센서부에 의해 미리 설정된 사용자의 동작이 감지될 때, 상기 빔 프로젝터를 통해 상기 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사하며,
    상기 감지된 동작에 대응하여 미리 설정된 애니메이션 효과는,
    사용자의 손의 시계/반시계 방향으로 원을 그리는 움직임에 대응하여 불꽃이 터지는 애니메이션 효과, 사용자가 위/아래 방향으로의 움직임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 특정 오브젝트에 형광 테두리 적용 애니메이션 효과 및, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 다른 특정 오브젝트 주변에 조명 애니메이션 효과를 포함하며,
    상기 스크린에 투사되는 3D 콘텐츠가 미리 설정된 크기 비율로 출력되는지 여부를 확인하고, 상기 확인 결과, 해당 투사되는 3D 콘텐츠가 미리 설정된 크기 비율로 출력되지 않을 때, 상기 빔 프로젝터의 광학적 특성값을 조정하기 위한 정보를 생성하고,
    상기 빔 프로젝터는,
    상기 제어부에서 생성된 상기 빔 프로젝터의 광학적 특성값을 조정하기 위한 정보를 근거로 빔 프로젝터의 최소 사거리, 최대 사거리, X축 탄젠트(Tangent) 값, Y축 탄젠트 값 및, 센터 오프셋(center offset)을 포함하는 상기 빔 프로젝터의 광학적 특성값을 조정하며,
    상기 제어부는,
    상기 센서부에서 해당 스크린 주변에 위치한 복수의 사용자를 감지할 때, 상기 복수의 사용자의 수에 대응하는 복수의 카메라 위치별로 복수의 장면 카메라를 생성하여, 각 사용자별 장면 카메라를 달리하여 렌더링을 수행하여, 사용자별로 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하도록 제어하는 것을 특징으로 하는 실감형 콘텐츠 제공 시스템.
  2. 삭제
  3. 삭제
  4. 삭제
  5. 제어부에 의해, 깊이감 있는 공간에 배치된 복수의 오브젝트로 구성된 3D 콘텐츠를 생성하는 단계;
    상기 제어부에 의해, 상기 생성된 3D 콘텐츠를 빔 프로젝터를 통해 스크린에 투사하는 단계;
    센서부에 의해, 상기 스크린 주변에 위치한 사용자를 감지할 때, 상기 감지된 사용자의 이동 여부, 상기 스크린과 사용자가 위치한 지점 간의 거리 및, 미리 설정된 기준축을 기준으로 상기 기준축과 상기 사용자가 이루는 각도를 감지하는 단계;
    상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 정지 상태일 때, 상기 제어부에 의해, 상기 감지된 스크린과 사용자가 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 조정하여, 깊이감이 조정된 3D 콘텐츠를 생성하는 단계;
    상기 제어부에 의해, 상기 생성된 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하는 단계;
    상기 감지된 사용자의 이동 여부에 따라, 상기 사용자가 움직일 때, 상기 제어부에 의해, 사용자 시점에서의 절두체의 소실점에 의한 착시 효과에 따른 원근감과 입체감을 제공하기 위해서, 상기 사용자의 이동에 따라 미리 설정된 시간 간격으로 감지되는 복수의 상기 스크린과 상기 사용자가 실시간으로 위치한 지점 간의 거리 및, 상기 기준축과 상기 사용자가 실시간으로 위치한 지점이 이루는 각도를 근거로 상기 3D 콘텐츠 내의 상기 깊이감이 있는 공간에 구성된 복수의 오브젝트의 깊이감을 각각 수정하여, 깊이감이 수정된 복수의 3D 콘텐츠를 각각 생성하는 단계;
    상기 제어부에 의해, 상기 생성된 수정된 복수의 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하는 단계; 및
    상기 센서부에 의해 미리 설정된 사용자의 동작이 감지될 때, 상기 제어부에 의해, 상기 빔 프로젝터를 통해 상기 감지된 동작에 대응하여 미리 설정된 애니메이션 효과를 상기 스크린에 투사 중인 3D 콘텐츠에 적용하여 투사하는 단계를 포함하며,
    상기 깊이감이 조정된 3D 콘텐츠는,
    상기 스크린의 정면에서 바라보는 시점의 3D 콘텐츠에서 상기 감지된 거리 및 각도가 반영된 상태로 정면 대비해서 상기 각도만큼 옆쪽에서 바라보는 시점의 콘텐츠이며, 상기 사용자가 정지 상태임에 따라, 2D 형태로 사용자가 인식하게 되며,
    상기 3D 콘텐츠를 생성하는 단계는,
    미리 설치된 전용 앱을 이용해서, 사용자 입력에 따라 상기 깊이감 있는 공간에 사용자 설정에 따른 각각의 깊이감이 설정된 복수의 오브젝트를 배치하는 과정; 및
    상기 배치된 깊이감이 각각 설정된 복수의 오브젝트를 포함하는 상기 3D 콘텐츠를 생성하는 과정을 포함하며,
    상기 생성된 3D 콘텐츠를 빔 프로젝터를 통해 스크린에 투사하는 단계는,
    상기 제어부에 의해, 상기 생성된 3D 콘텐츠 및 상기 제어부를 포함하는 단말의 식별 정보를 상기 빔 프로젝터에 전송하는 과정; 및
    상기 빔 프로젝터에 의해, 상기 3D 콘텐츠를 상기 스크린에 투사하는 과정을 포함하며,
    상기 감지된 동작에 대응하여 미리 설정된 애니메이션 효과는,
    사용자의 손의 시계/반시계 방향으로 원을 그리는 움직임에 대응하여 불꽃이 터지는 애니메이션 효과, 사용자가 위/아래 방향으로의 움직임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 특정 오브젝트에 형광 테두리 적용 애니메이션 효과 및, 사용자가 미리 설정된 시간 이내에 미리 설정된 각도 이상으로의 좌/우로의 기울임에 대응하여 해당 스크린에 투사되는 3D 콘텐츠에 포함된 다른 특정 오브젝트 주변에 조명 애니메이션 효과를 포함하며,
    상기 제어부는,
    상기 스크린에 투사되는 3D 콘텐츠가 미리 설정된 크기 비율로 출력되는지 여부를 확인하고, 상기 확인 결과, 해당 투사되는 3D 콘텐츠가 미리 설정된 크기 비율로 출력되지 않을 때, 상기 빔 프로젝터의 광학적 특성값을 조정하기 위한 정보를 생성하고,
    상기 빔 프로젝터는,
    상기 제어부에서 생성된 상기 빔 프로젝터의 광학적 특성값을 조정하기 위한 정보를 근거로 빔 프로젝터의 최소 사거리, 최대 사거리, X축 탄젠트(Tangent) 값, Y축 탄젠트 값 및, 센터 오프셋(center offset)을 포함하는 상기 빔 프로젝터의 광학적 특성값을 조정하며,
    상기 제어부는,
    상기 센서부에서 해당 스크린 주변에 위치한 복수의 사용자를 감지할 때, 상기 복수의 사용자의 수에 대응하는 복수의 카메라 위치별로 복수의 장면 카메라를 생성하여, 각 사용자별 장면 카메라를 달리하여 렌더링을 수행하여, 사용자별로 깊이감이 조정된 3D 콘텐츠를 상기 빔 프로젝터를 통해 상기 스크린에 투사하도록 제어하는 것을 특징으로 하는 실감형 콘텐츠 제공 방법.
  6. 삭제
  7. 삭제
  8. 삭제
  9. 삭제
  10. 삭제
KR1020230114449A 2023-07-28 2023-08-30 실감형 콘텐츠 제공 시스템 및 그 방법 KR102661074B1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020230098719 2023-07-28
KR20230098719 2023-07-28

Publications (1)

Publication Number Publication Date
KR102661074B1 true KR102661074B1 (ko) 2024-04-26

Family

ID=90882964

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230114449A KR102661074B1 (ko) 2023-07-28 2023-08-30 실감형 콘텐츠 제공 시스템 및 그 방법

Country Status (1)

Country Link
KR (1) KR102661074B1 (ko)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120137121A (ko) * 2011-06-10 2012-12-20 엘지전자 주식회사 3차원 그래픽 콘텐츠 재생 방법 및 장치
KR101551492B1 (ko) 2008-03-26 2015-09-08 후지필름 가부시키가이샤 입체 동화상 처리 장치 및 방법 그리고 프로그램
KR20160065036A (ko) * 2014-11-28 2016-06-08 선전 이스타 디스프레이테크 컴퍼니., 리미티드. 안구추적을 기반으로 한 상이한 거리 자동적응 홀로그램 디스플레이 방법 및장치
KR101723823B1 (ko) * 2016-08-24 2017-04-19 주식회사 케이쓰리아이 인터랙티브 공간증강 체험전시를 위한 동적 객체와 가상 객체 간의 인터랙션 구현 장치

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101551492B1 (ko) 2008-03-26 2015-09-08 후지필름 가부시키가이샤 입체 동화상 처리 장치 및 방법 그리고 프로그램
KR20120137121A (ko) * 2011-06-10 2012-12-20 엘지전자 주식회사 3차원 그래픽 콘텐츠 재생 방법 및 장치
KR20160065036A (ko) * 2014-11-28 2016-06-08 선전 이스타 디스프레이테크 컴퍼니., 리미티드. 안구추적을 기반으로 한 상이한 거리 자동적응 홀로그램 디스플레이 방법 및장치
KR101723823B1 (ko) * 2016-08-24 2017-04-19 주식회사 케이쓰리아이 인터랙티브 공간증강 체험전시를 위한 동적 객체와 가상 객체 간의 인터랙션 구현 장치

Similar Documents

Publication Publication Date Title
US11762619B2 (en) Controlling external devices using reality interfaces
TWI533162B (zh) 用於擴充實境啓用裝置之使用者介面
US20170092232A1 (en) Optical true time delay circuit in a head-mounted display
US10095461B2 (en) Outside-facing display for head-mounted displays
US20170061692A1 (en) Localizing devices in augmented reality environment
CN110770785B (zh) 用于在vr中显示的屏幕共享
US10356393B1 (en) High resolution 3D content
KR102431712B1 (ko) 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
KR20150084200A (ko) 헤드 마운트 디스플레이 및 제어 방법
US20200142942A1 (en) System and method for coded pattern communication
KR20150129591A (ko) 이동 단말기, 이동 단말기의 제어방법, 그리고, 이동 단말기를 포함하는 제어시스템
CN112105983A (zh) 增强的视觉能力
KR101715828B1 (ko) 단말 및 그의 제어 방법
KR102181084B1 (ko) 실감 콘텐츠 제공 장치 및 그 방법
KR101632220B1 (ko) 이동 단말기, 이동 단말기의 제어방법, 그리고, 제어시스템과 그 제어방법
KR102661074B1 (ko) 실감형 콘텐츠 제공 시스템 및 그 방법
KR101549027B1 (ko) 이동 단말기 및 이동 단말기의 제어방법
US20240032121A1 (en) Secure peer-to-peer connections between mobile devices
JP6374203B2 (ja) 表示システム及びプログラム
KR20110072108A (ko) 태그를 구비하는 모바일 단말기를 이용한 비전기반 증강현실 구현 시스템
CN105468171A (zh) 显示系统及显示系统的显示方法
KR20220057388A (ko) Ar 버츄얼 단말 및 그의 제어 방법
KR20180039954A (ko) 영상을 처리하는 방법, 디바이스 및 기록매체
KR102649670B1 (ko) 실감형 콘텐츠 제공 시스템 및 그 방법
US20230400978A1 (en) Eyewear device user interface

Legal Events

Date Code Title Description
AMND Amendment
X091 Application refused [patent]
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant