KR102484840B1 - 실감형 가상 전시 공간 제공 방법 및 시스템 - Google Patents

실감형 가상 전시 공간 제공 방법 및 시스템 Download PDF

Info

Publication number
KR102484840B1
KR102484840B1 KR1020220051589A KR20220051589A KR102484840B1 KR 102484840 B1 KR102484840 B1 KR 102484840B1 KR 1020220051589 A KR1020220051589 A KR 1020220051589A KR 20220051589 A KR20220051589 A KR 20220051589A KR 102484840 B1 KR102484840 B1 KR 102484840B1
Authority
KR
South Korea
Prior art keywords
content
main content
exhibition space
virtual
virtual exhibition
Prior art date
Application number
KR1020220051589A
Other languages
English (en)
Other versions
KR20220126257A (ko
Inventor
박길홍
김선욱
Original Assignee
(주)디피어소시에이츠
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)디피어소시에이츠 filed Critical (주)디피어소시에이츠
Priority to KR1020220051589A priority Critical patent/KR102484840B1/ko
Publication of KR20220126257A publication Critical patent/KR20220126257A/ko
Application granted granted Critical
Publication of KR102484840B1 publication Critical patent/KR102484840B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/214Specialised server platform, e.g. server located in an airplane, hotel, hospital
    • H04N21/2143Specialised server platform, e.g. server located in an airplane, hotel, hospital located in a single building, e.g. hotel, hospital or museum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Health & Medical Sciences (AREA)
  • Economics (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)

Abstract

본 발명에 따른 실감형 가상 전시 공간 제공 방법은, 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 단계, 상기 메인 컨텐츠의 시각적 특성을 이용하여, 상기 가상 전시 공간의 배경 컨텐츠를 생성하는 단계, 상기 배경 컨텐츠의 적어도 일부에 상기 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 단계, 및 상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 단계를 포함할 수 있다.

Description

실감형 가상 전시 공간 제공 방법 및 시스템{METHOD AND SYSTEM FOR PROVIDING REALISTIC VIRTUAL EXHIBITION SPACE}
본 발명은 실감형 가상 전시 공간을 제공하는 방법 및 시스템에 관한 것이다.
최근 들어, 스마트 기기가 보급화됨에 따라, 스마트 기기의 내장 카메라, 프로세서 및 어플리케이션을 이용하여, 사용자가 방문하는 박물관, 미술관 등의 전시공간에서 활용되는 경우가 늘어나고 있다.
예를 들어, 공개특허 제2000-0054344는 인터넷을 통한 3차원 가상현실 미술관/쇼핑몰 시스템 및 그 운영 방법에 관한 것으로서, 가상 미술관을 제공하는 발명이다.
그러나, 이러한 공개특허는, 가상현실 상에 미술관을 제공하는 것에 그쳐, 사용자가 실제로 해당 공간에 있는 것과 같은 실제감, 생동감을 느끼지 못한다.
따라서, 다양한 기술 발전의 추세에 맞추어, 사용자가 실제 전시공간을 방문하여, 명화 등과 같은 콘텐츠를 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공할 수 있는 방법이 필요하다.
본 발명의 일 목적은, 현장감 및 실제감을 느낄 수 있는 실감형 가상 전시 공간 제공 방법 및 시스템을 제공하기 위한 것이다.
특히, 본 발명은, 사용자가 미술관이나 박물관에서 실제로 작품 또는 전시품을 보는 것과 같은 경험을 제공할 수 있는 실감형 가상 전시 공간 제공 방법 및 시스템을 제공하는 것이다.
본 발명의 다른 일 목적은, 사용자가 가상 전시 공간을 직접 디자인 할 수 있는 실감형 가상 전시 공간 제공 방법 및 시스템을 제공하는 것이다.
위에서 살펴본 과제를 해결하기 위하여, 본 발명에 따른 실감형 가상 전시 공간 제공 방법은, 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 단계, 상기 메인 컨텐츠의 시각적 특성을 이용하여, 상기 가상 전시 공간의 배경 컨텐츠를 생성하는 단계, 상기 배경 컨텐츠의 적어도 일부에 상기 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 단계, 및 상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 단계를 포함할 수 있다.
나아가, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템은, 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하고, 상기 메인 컨텐츠의 시각적 특성을 이용하여, 상기 가상 전시 공간의 배경 컨텐츠를 생성하고, 상기 배경 컨텐츠의 적어도 일부에 상기 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 제어부 및 상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 통신부를 포함할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 메인 컨텐츠의 시각적 특성을 이용하여, 가상 전시 공간의 배경 컨텐츠를 생성함으로써, 실감형 컨텐츠를 생성할 수 있다. 따라서, 사용자는 메인 컨텐츠의 질감이나 색상 등을 더욱 실감나게 느낄 수 있고, 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 제공 받을 수 있다.
나아가, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 시간 및 날씨 등에 따라 가상 전시 공간의 환경을 다르게 제공할 수 있다. 따라서, 사용자는 비오는 날 명화와 같은 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 비오는 날과 같이 설정하고, 밤에 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 밤으로 설정함으로써, 미술 작품 감상에 재미를 느끼고, 실제 체험하지 못하는 경험을 대체하여 경험할 수 있다.
이러한, 실감형 컨텐츠가 가상현실, 증강현실, 혼합현실, 또는 확장현실 등 다양한 기술에 따른 방법으로 사용자에게 제공되는 경우, 사용자는 미술관 또는 박물관 등에서 전시되는 작품을 언제라도 손쉽게 접할 수 있다. 이를 통해, 사용자는 풍부한 문화 예술 콘텐츠를 향유할 수 있다. 나아가, 미술관 또는 박물관은 보다 많은 사용자에게 작품에 해당하는 콘텐츠를 제공함으로써, 사용자의 관심을 향상시킬 수 있다.
도 1은 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템에 의해 제공되는 가상현실, 증강현실, 혼합현실, 또는 확장현실을 설명하기 위한 개념도이다.
도 2는 본 발명에 따른 실감형 가상 전시 공간 제공 시스템의 구성도이다.
도 3은 본 발명에 따른 실감형 가상 전시 공간 제공 방법을 설명하기 위한 흐름도이다.
도 4, 도 5, 도 6, 및 도 7은 본 발명에 따른 실감형 콘텐츠를 설명하기 위한 개념도이다.
도 8, 도 9, 도10, 도 11, 및 도 12는 사용자 인터페이스를 설명하기 위한 개념도이다.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소에는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명은, 실감형 컨텐츠를 전자 기기에 출력함으로써, 가상현실(VR, Virtual Reality), 증강현실(AR, Augmented Reality), 확장현실(XR, eXtended Reality) 또는 혼합현실(MR, Mixed Reality)(이하, 가상현실 등)을 통해, 사용자가 미술관이나, 박물관과 같은 전시 공간 현장에 방문하여 전시물을 소비하는 것과 같은 느낌, 즉, 직접 눈으로 보고, 체험하는 것과 같은 느낌을 제공하기 위한 실감형 가상 전시 공간 제공 방법 및 시스템에 관한 것이다. 이하 첨부된 도면과 함께 실감형 컨텐츠를 생성하는 방법에 대하여 살펴본다.
여기서, 가상현실(VR, Virtual Reality)이란, 가상을 뜻하는 Virtual과 현실을 뜻하는 Reality의 합성어로서, 실제와 유사하지만 실제가 아닌 인공 환경을 의미한다. 가상현실 분야에서는, 단순히 가상의 공간을 구현하는 것을 넘어서서 사용자의 오감에 직접적으로 작용하여 실제에 근접한 공간적, 시간적 체험을 가능케 하기 위한 다양한 노력을 기울이고 있다.
나아가, 증강현실(AR, Augmented Reality)은, 현실의 이미지나 배경에 3차원 가상 이미지를 겹쳐서 하나의 영상으로 보여주는 기술이다. 증강현실은 가상의 물체를 현실 공간에 올려 놓거나 현실의 물체를 인식해서 그 주변에 가상의 공간을 구성하는 기술이며, 증강현실 분야 역시, 가상의 공간을 이질감 없이 실제 환경과 유기적으로 연결하기 위하여 다양한 노력을 기울이고 있다.
또한, 확장현실(XR, eXtended Reality)은, 단순한 콘텐츠의 디스플레이 하는 것을 넘어 공간 매핑, 객체 추적 등 더욱 고도화된 다양한 서비스를 구현하는 기술이다. 사용자는 헤드셋을 쓰지 않아도 360도의 가상 뷰를 체험할 수 있으며, 공간음향 제공을 통해 실제와 같이 자연스러운 체험을 할 수 있다. 마찬가지로, 확장현실 역시, 실제와 같은 생동감 있는 콘텐츠를 제공하기 위한 노력을 기울이고 있다.
이러한, 가상현실, 증강현실 및 확장현실을 비롯한 다양한 콘텐츠 제공 기술은 사용자에게 생동감 있는 콘텐츠를 제공하는 것이 매우 중요하며, 이를 통해 사용자는 실제 특정 공간을 가지 않더라도, 실제 방문한 것과 같은 현장감 및 생동감을 얻을 수 있다.
본 발명에 따른 실감형 가상 전시 공간 제공 방법은, 이러한, 가상현실, 증강현실 및 확장현실을 이용하여 사용자에게 전시공간을 실제 방문한 것과 같은 현장감 및 생동감을 제공할 수 있는 실감형 컨텐츠를 생성하기 위한 것으로서, 이하에서는 첨부된 도면과 함께 구체적으로 설명하도록 한다.
도 1은 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템에 의해 제공되는 가상현실, 증강현실, 혼합현실, 또는 확장현실을 설명하기 위한 개념도이다. 도 2는 본 발명에 따른 실감형 가상 전시 공간 제공 시스템의 구성도이고, 도 3은 본 발명에 따른 실감형 가상 전시 공간 제공 방법을 설명하기 위한 흐름도고, 도 4, 도 5, 도 6, 및 도7은 본 발명에 따른 실감형 콘텐츠를 설명하기 위한 개념도이고, 도 8, 도 9, 도10, 도 11, 및 도 12는 사용자 인터페이스를 설명하기 위한 개념도이다.
본 발명에 따른 실감형 컨텐츠 생성 (100)은, 실감형 컨텐츠를 출력(또는 재생)할 수 있는 전자기기와 연동되어 동작할 수 있다. 도 1에 도시된 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)은 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 및 전자기기(10c)와 연동되어 동작할 수 있다. 본 발명에 따른 시스템(100)은, 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 또는 전자기기(10c)에 실감형 컨텐츠를 출력시킴으로써, 사용자가 미술관이나 박물관 같은 전시 공간(10d)에서 전시물(10e)을 실제로 감상하는 것과 같은 경험을 제공할 수 있다.
여기서, “실감형 컨텐츠”는 실감형 컨텐츠를 출력할 수 있는 전자 기기를 통해 사용자에게 제공될 수 있는 것으로서, 부호, 문자, 도형, 색채, 음성, 음향, 이미지 및 영상 등(또는 이들 중 적어도 두개 이상의 복합체)의 자료, 데이터 또는 정보를 의미할 수 있다.
한편, 헤드 마운티드 디스플레이(10a, Head mounted display, 이하, 'HMD'이라고 명명함)는 안경처럼 착용하고 영상을 즐길 수 있는 영상 표시 장치들을 총칭하며, 최근에는 FMD(Face Mounted Display)라고도 부른다. HMD는, 사용자의 시각 및 청각을 외부와 차단한 후 사용자의 시각에 가상세계를 보여주는 역할을 한다. 일 예로서, HMD는, 눈앞에 디스플레이가 오도록 얼굴에 쓰는 형태로 마이크, 스테레오 스피커를 비롯해 여러 센서 등이 탑재돼 있다.
XR 글래스(eXtended Reality Glasses)(10b)는 렌즈를 통해 전자기기(10c) 속 앱에 올려진 콘텐츠를, 무엇이든지 가상 공간에 띄워놓고 볼 수 있도록 해준다. 야구중계, 유튜브, 뮤직비디오, 뉴스, 미술 작품 등을 전철이나 버스 안, 소파나 침대 위에서 원화는 화면의 크기로 조절해가며 볼 수 있다.
다만, 본 발명에서 설명되는 실감형 컨텐츠를 출력할 수 있는 전자기기는 헤드 마운티드 디스플레이(Head mounted display)(10a) 및 XR 글래스(10b)에 한정되는 것은 아니고, 가상현실 등을 구현할 수 있는 전자기기(10c)라면 그 종류를 구분하지 않는다. 이하에서는, 실감형 컨텐츠를 출력할 수 있는 전자기기를 모두 통칭하여 “실감형 컨텐츠가 출력되는 전자기기” 또는 “전자기기”로 명명하도록 한다.
이하에서는, 첨부된 도면과 함께, 사용자에게 가상현실, 증강현실, 혼합현실 및 확장현실을 통해 더욱 실감나는 콘텐츠를 제공하기 위하여, 실감형 콘텐츠를 생성하는 방법에 대하여 구체적으로 설명하도록 한다.
도 2에 도시된 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)은 통신부(110), 입력부(120), 출력부(130), 저장부(140) 및 제어부(150) 중 적어도 하나를 포함할 수 있다. 이때 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)은 상술한 구성 요소로 제한되는 것은 아니며, 본 명세서의 설명에 따른 기능과 동일 또는 유사한 역할을 수행하는 구성요소를 더 포함할 수 있다.
통신부(110)는 앞서 설명한 헤드 마운티드 디스플레이(10a), XR 글래스(10b), 전자기기(10c)와 및 적어도 하나의 외부 서버와 데이터를 송수신할 수 있다. 예를 들어, 통신부(110)는 본 발명에 따른 실감형 컨텐츠를 실감형 컨텐츠가 출력되는 전자기기에 전송할 수 있다.
입력부(120)는, 영상 신호 입력을 위한 카메라 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등)를 포함할 수 있다.
나아가, 출력부(130)는, 본 발명에 따른 실감형 가상 전시 공간 제공 시스템(100)과 연동된 전자기기의 뷰 영역(예를 들어, 메인 뷰 영역)에 실감형 컨텐츠를 출력할 수 있다
나아가 저장부(140)는 데이터베이스(Database, DB) 라고도 명명될 수 있으며, 본 발명에서 이용 및 생성되는 컨텐츠들이 저장되도록 이루어질 수 있다. 예를 들어, 저장부(140)는 클라우드 서버를 이용하여 본 발명에 따른 실감형 컨텐츠를 저장할 수 있다.
나아가, 저장부(140)에는 메인 컨텐츠의 시각적 정보에 매칭되는 배경 컨텐츠의 구성 정보를 포함하는 “배경 정보”가 저장되어 있을 수 있다.
여기서, “메인 컨텐츠”는 실감형 컨텐츠를 통해 사용자에게 제공되는 전시물로 이해되어 질 수 있다. 예를 들어, 전시물이 그림이면 메인 컨텐츠는 그림에 대한 이미지일 수 있다.
본 발명에서 설명되는 “배경 컨텐츠”는 메인 컨텐츠의 주변을 이루는 컨텐츠로 이해되어 질 수 있다. 보다 구체적으로, 배경 컨텐츠는 메인 컨텐츠가 전시되는 가상 전시 공간을 이루는 컨텐츠이다.
본 발명에서 설명되는 “가상 전시 공간”은 전시 공간이 가상의 현실 속에서 구현된 것으로서, 가상의 미술관, 가상의 박물관 및 가상의 전시관 등과 같이 메인 컨텐츠가 전시될 수 있는 공간으로 이해되어 질 수 있다.
한편, 본 발명에서 설명되는 “메인 컨텐츠의 시각적 특성”은, 메인 컨텐츠를 눈으로 보고 인지할 수 있는 다양한 정보에 관한 것으로서, 예를 들어, ⅰ)모양, ⅱ)색상,ⅲ)명암, ⅳ)채도, ⅴ)질감, ⅵ)입체감, ⅶ)해상도, ⅷ)양감 등이 있을 수 있다.
한편, 제어부(150)는, 위에서 살펴본 구성요소들과, 도 1 도시된 헤드 마운티드 디스플레이(10a), XR 글래스(10b) 및 전자기기(10c)를 전반적으로 제어하도록 이루어질 수 있다.
나아가, 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 일 영역에 오버랩 시켜 실감형 컨텐츠를 생성할 수 있다.
보다 구체적으로, 제어부(150)는 배경 컨텐츠에 시간 정보 및 날씨 정보가 반영된 광원 정보를 더 포함시켜 배경 컨텐츠를 생성할 수 있다. 즉, 제어부(150)는 시간 정보 및 날씨 정보에 따라 광원의 밝기 및 위치가 변경되는 배경 컨텐츠를 생성하고, 이를 이용하여 실감형 컨텐츠를 생성할 수 있다.
여기서, “광원 정보”는 가상 전시 공간에 존재하는 가상의 광원을 정의하는 정보로 이해되어 질 수 있다. 구체적으로, 광원 정보는 가상 전시 공간에 존재하는 가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의할 수 있다
나아가, 제어부(150)는 배경 컨텐츠에 포함되는 광원 정보가 반영되도록 메인 컨텐츠의 빛의 특성을 변경할 수 있다. 따라서, 사용자는, 광원 정보가 반영되지 않은 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때와, 광원 정보가 반영된 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때, 동일한 메인 컨텐츠일지라도 입체감, 질감 등을 서로 다르게 느낄 수 있다. 따라서, 사용자는 실제 전시 공간에서 전시물을 눈으로 보는 것과 같은 체험을 경험할 수 있다.
이하에서는, 흐름도와 함께 본 발명에 따른 실감형 가상 전시 공간 제공 방법에 대하여 보다 구체적으로 살펴보도록 한다.
본 발명에서는 가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 과정이 진행되어 질 수 있다(S310). 제어부(150)는 가상 전시 공간에 전시되는 메인 컨텐츠를 특정할 수 있다.
여기서, “가상 전시 공간”은 전시 공간이 가상의 현실 속에서 구현된 것으로서, 가상의 미술관, 가상의 박물관 및 가상의 전시관 등과 같이 메인 컨텐츠가 전시될 수 있는 공간으로 이해되어 질 수 있다.
가상 전시 공간은 도 4에 도시된 것과 같이, 복수개의 가상 전시 공간으로 이루어질 수 있다. 이러한 경우에, 실감형 컨텐츠가 출력되는 전자기기의 디스플레이에는, 도 5에 도시된 것과 같이, 어느 하나의 가상 전시 공간이 출력될 수 있다.
여기서, “메인 컨텐츠”는 실감형 컨텐츠를 통해 사용자에게 제공되는 전시물로 이해되어 질 수 있다. 예를 들어, 전시물이 그림이면 메인 컨텐츠는 그림에 대한 이미지일 수 있다.
제어부(150)는 통신부(110)를 통해 메인 컨텐츠를 전송받는 과정을 통해, 메인 컨텐츠를 특정할 수 있다. 이러한 경우, 통신부(110)는 외부 서버 또는 외부 전자기기로부터 메인 컨텐츠를 전송 받을 수 있다.
나아가, 제어부(150)는 입력부(120)를 통해 입력받은 사용자의 선택에 근거하여, 메인 컨텐츠를 특정할 수 있다. 이를 위해, 제어부(150)는 출력부(140)를 통해 사용자가 소지하는 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기에 메인 컨텐츠 샘플을 출력할 수 있다.
사용자는 전자기기의 디스플레이에 출력되는 메인 컨텐츠 샘플 중 관람하고 싶은, 즉 가상의 전시 공간에 전시하고 싶은 메인 컨텐츠를 선택하여, 본 발명에 따른 시스템(100)의 통신부(110)로 전송하거나, 입력부(120)에 입력할 수 있다.
제어부(150)는 통신부(110) 또는 입력부(120)를 통해 수신한 사용자의 선택에 근거하여, 메인 컨텐츠를 특정할 수 있다.
한편, 제어부(150)는 저장부(140)에 저장된 사용자의 히스토리에 근거하여, 메인 컨텐츠를 특정할 수 있다. 이러한 경우, 사용자는 본 발명에 따른 시스템(100)에 사용자 계정에 의하여 로그인 된 사용자를 의미할 수 있다.
저장부(140)에 저장된 “사용자 히스토리”에는, 사용자가 과거에 특정한 메인 컨텐츠의 이력(특정된 메인 컨텐츠 명, 특정 횟수, 특정 기간 등)이 포함되어 있을 수 있다 .
제어부(150)는 사용자가 과거에 특정한 메인 컨텐츠의 이력에 근거하여, 메인 컨텐츠를 특정할 수 있다. 예를 들어, 제어부(150)는 사용자로부터 특정된 횟수가 기 설정된 횟수 이상(또는 초과)인 컨텐츠를 메인 컨텐츠로 특정하거나, 사용자로부터 특정된 메인 컨텐츠가 아직 사용자의 전자기기의 디스플레이부에 출력되지 않은 경우, 해당 메인 컨텐츠를 특정할 수 있다. 제어부(150)는 사용자의 히스토리에 근거하여 메인 컨텐츠를 특정할 때에, 기계학습에 의하여 생성된 인공지능 모델을 이용하여 메인 컨텐츠를 특정할 수도 있다.
나아가, 본 발명에서는 메인 컨텐츠의 시각적 특성을 이용하여, 가상 전시 공간의 배경 컨텐츠를 생성하는 과정이 진행되어질 수 있다(S320). 즉, 제어부(150)는 메인 컨텐츠의 시각적 특성을 이용하여, 배경 컨텐츠를 생성할 수 있다.
여기서, “메인 컨텐츠의 시각적 특성”은, 메인 컨텐츠를 눈으로 보고 인지할 수 있는 다양한 정보에 관한 것으로서, 예를 들어, ⅰ)모양, ⅱ)색상,ⅲ)명암, ⅳ)채도, ⅴ)질감, ⅵ)입체감, ⅶ)해상도, ⅷ)양감 등이 있을 수 있다.
본 발명에서 설명되는 “배경 컨텐츠”는 메인 컨텐츠의 주변을 이루는 컨텐츠로 이해되어 질 수 있다. 보다 구체적으로, 배경 컨텐츠는 메인 컨텐츠가 전시되는 가상 전시 공간을 이루는 컨텐츠이다.
제어부(150)는 특정된 메인 컨텐츠로부터, 시각적 특성을 추출하고, 추출된 시각적 특성을 극대화 할 수 있도록 배경 컨텐츠의 구성을 결정할 수 있다. 상기 배경 컨텐츠를 생성하는 단계(S320)는, 상기 메인 컨텐츠의 시각적 특성을 추출하고, 상기 추출된 시각적 특성을 이용하여 상기 배경 컨텐츠의 패턴, 질감 또는 색상을 설정할 수 있다.
일 예로, 제어부(150)는 메인 컨텐츠의 모양(또는 무늬)으로 일정한 패턴을 형성하고, 해당 패턴을 이용하여 배경 컨텐츠를 생성할 수 있다. 이러한 경우, 메인 컨텐츠가 나무로 된 그림이라면, 배경 컨텐츠는 나무가 일정한 패턴(ex: 일정 간격으로 반복되는 패턴)으로 배경 컨텐츠를 생성할 수 있다. 또 다른 일 예로, 제어부(150)는 메인 컨텐츠의 색상의 보색을 이용하여 배경 컨텐츠의 색상을 구성할 수 있다. 메인 컨텐츠의 색상이 노란색이면, 제어부(150)는 노란색의 보색색인 보라색을 이용하여 배경 컨텐츠를 생성할 수 있으며, 메인 컨텐츠의 색상이 초록색이면, 제어부(150)는 초록색의 보색인 빨간색을 이용하여 배경 컨텐츠를 생성할 수 있다. 다만, 이는 설명의 편의를 위한 일 예시에 불과하다.
나아가, 제어부(150)는 저장부(140)에 저장된 배경 정보에 근거하여, 배경 컨텐츠를 생성할 수 있다.
저장부(140)에 저장된 “배경 정보”에는 시각적 정보에 매칭되는 배경 컨텐츠의 구성 정보가 포함되어 있을 수 있다. 이 때에, 상기 시각적 특성에는 상기 배경 컨텐츠의 구성 정보가 매칭되며, 상기 배경 컨텐츠는 상기 추출된 시각적 특성에 매칭된 구성 정보를 이용하여 생성될 수 있다.
이와 같이, 제어부(150)는 메인 컨텐츠로부터 추출된 시각적 정보와 매칭되는 배경 컨텐츠의 구성 정보에 근거하여, 배경 컨텐츠를 생성할 수 있다. 예를 들어, 배경 정보에는 유화 질감에 매칭된 배경 컨텐츠의 구성 정보가 캔버스 질감 및 색상(직물이 교차로 짜여진 질감 및 흰색)이라고 가정하자. 제어부(150)는 메인 컨텐츠로부터 추출된 시각적 정보가 유화 질감이면, 매칭 정보에 근거하여 캔버스 질감 및 색상으로 배경 컨텐츠를 생성할 수 있다.
나아가, 본 발명에서는 배경 컨텐츠의 적어도 일부에 메인 컨텐츠가 중첩되도록 실감형 컨텐츠를 생성하는 과정이 진행되어 질 수 있다(S330). 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 일 영역에 오버랩 시켜 실감형 컨텐츠를 생성할 수 있다.
앞서 설명한 바와 같이, “실감형 컨텐츠” 는 실감형 컨텐츠를 출력할 수 있는 전자 기기를 통해 사용자에게 제공될 수 있는 것으로서, 부호, 문자, 도형, 색채, 음성, 음향, 이미지 및 영상 등(또는 이들 중 적어도 두개 이상의 복합체)의 자료, 데이터 또는 정보를 의미할 수 있다. 예를 들어, 실감형 컨텐츠에는 VR 컨텐츠, XR 컨텐츠가 있다.
제어부(150)는 배경 컨텐츠의 일 영역에 메인 컨텐츠를 배치시킴으로써, 실감형 컨텐츠를 생성할 수 있다. 이 때, 제어부(150)는 메인 컨텐츠에 매칭되는 매칭 좌표에 대응되는 배경 컨텐츠의 일 영역에 메인 컨텐츠를 배치 시킬 수 있다. 예를 들어, 메인 컨텐츠에 매칭되는 좌표가 배경 컨텐츠의 좌측 중앙 영역과 대응되면, 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 좌측 중앙 영역에 배치시키고, 메인 컨텐츠에 매칭되는 좌표가 배경 컨텐츠의 우측 중앙 영역과 대응되면, 제어부(150)는 메인 컨텐츠를 배경 컨텐츠의 우측 중앙 영역에 배치시킴으로써, 실감형 컨텐츠를 생성할 수 있다.
나아가, 제어부(150)는 입력부(120)를 통해 입력받은 사용자의 선택에 근거하여, 메인 컨텐츠를 배경 컨텐츠의 일부에 배치시켜 실감형 컨텐츠를 생성할 수 있다. 이를 위해, 제어부(150)는 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력 되는 전자기기 상에 메인 컨텐츠 및 배경 컨텐츠를 출력시키고, “메인 컨텐츠를 배경 컨텐츠에 배치시키세요”와 같은 안내 멘트를 출력할 수 있다.
사용자는 안내 멘트를 보고 메인 컨텐츠를 배경 컨텐츠의 일 영역으로 이동 시킬 수 있다. 이러한 경우, 사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여, 메인 컨텐츠를 배경 컨텐츠의 일영역으로 위치시킬 수 있다. 사용자는 메인 컨텐츠를 배경 컨텐츠의 일 영역에 배치 시킨 후, 전자기기의 디스플레이 상에 출력되는 “완료”버튼을 출력하거나, 음성으로 “완료” 또는 “실감형 컨텐츠 생성”을 발화할 수 있다. 사용자가 발화하는 음성은 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다.
제어부(150)는 사용자로부터 실감형 컨텐츠의 생성 명령을 수신하거나, 디스플레이에 안내 멘트를 출력한 시점으로부터 기 설정된 시간이 경과하면 실감형 컨텐츠를 생성할 수 있다. 이와 같이 생성된 실감형 컨텐츠는 배경 컨텐츠의 일부에 메인 컨텐츠가 중첩되어, 메인 컨텐츠가 전시되어 있는 모습일 수 있다.
나아가, 제어부(150)는 가상 전시 공간에서 실감형 컨텐츠가 제공되도록 실감형 컨텐츠를 전자기기에 전송할 수 있다. 제어부(150)는 전자기기에 실감형 컨텐츠를 전송하도록 통신부(110)를 제어하거나, 전자기기의 디스플레이에 실감형 컨텐츠가 출력되도록 출력부(140)를 제어할 수 있다.
사용자는 실감형 컨텐츠가 출력되는 전자기기를 통해, 가상 전시 공간에 전시된 메인 컨텐츠를 관람할 수 있다. 본 발명에 따른 실감형 컨텐츠는, 메인 컨텐츠의 시각적 특성에 근거하여 배경 컨텐츠가 생성되었으므로, 사용자는 메인 컨텐츠의 질감이나 색상 등을 더욱 실감나게 느낄 수 있고, 나아가, 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 제공 받을 수 있다.
이하에서는, 사용자가 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 더욱 생동감 있고 현실감 있게 제공할 수 있는 실감형 컨텐츠를 생성하는 방법에 대하여, 구체적으로 살펴보도록 한다.
한편, 본 발명에서는 메인 컨텐츠를, 배경 컨텐츠에 포함되는 광원 정보가 반영되도록 설정될 수 있다. 제어부(150)는 배경 컨텐츠에 포함되는 광원 정보가 반영되도록 메인 컨텐츠의 빛의 특성을 변경할 수 있다.
먼저, 본 발명에서는 메인 컨텐츠에 대응되는 서로 다른 복수개의 조각 이미지를 수신하는 과정이 진행될 수 있다. 즉, 통신부(110)는 메인 컨텐츠에 대응되는 서로 다른 복수개의 조각 이미지를 수신할 수 있다.
조각 이미지는(410), 메인 컨텐츠의 적어도 일 부분을 포함하는 이미지로 이해될 수 있다. 예를 들어, 메인 컨텐츠를 중앙을 기준으로 좌·우로 영역을 구분하고, 좌측 영역을 카메라로 촬영 또는 스캔한 이미지를 제1 조각 이미지, 우측 영역을 카메라로 촬영 또는 스캔한 이미지를 제2 조각 이미지로 이해할 수 있다.
나아가, 복수개의 조각 이미지는 초고화질 이미지일 수 있다. 즉, 복수개의 조각 이미지 각각은 기 설정된 해상도 기준을 만족하는 이미지들일 수 있다.
나아가, 복수개의 조각 이미지의 어느 하나는 다른 하나와 적어도 일부가 중첩되는 이미지 정보를 포함할 수 있다.
여기서 중첩되는 이미지 정보는, 복수의 조각 이미지의 어느 하나와 다른 하나 각각에 포함된, 메인 컨텐츠의 특정 영역에 대응되는 이미지를 의미할 수 있다.
한편, 본 발명에서는 복수개의 조각 이미지 각각의 유사성에 근거하여, 복수개의 조각 이미지를 조합하는 과정이 진행될 수 있다. 제어부(150)는 복수개의 조각 이미지를 조합하여 메인 컨텐츠를 생성할 수 있다.
보다 구체적으로, 제어부(150)는 중첩되는 이미지 정보에 근거하여 조각 이미지를 연결함으로써, 조각 이미지를 병합할 수 있다. 제어부(150)는 서로 인접한 조각 이미지를 매칭하고, 매칭된 조각 이미지끼리 연결할 수 있다.
이 때, 제어부(150)는 복수개의 조각 이미지들 간에 상호 중첩되는 이미지 정보에 근거하여, 조각 이미지들을 조합할 수 있다. 제어부(150)는 중첩되는 이미지를 포함하는 조각 이미지들 상호간을 서로 인접하게 배열함으로써, 이들을 조합할 수 있다.
나아가, 제어부(150)는 조합된 조각 이미지들에 조합된 조각 이미지들에 대해 엣지 블렌딩(Edge blending)을 수행하여 메인 컨텐츠를 생성함으로써, 조각 이미지들의 경계를 자연스럽게 연결할 수 있다.
*여기서, 엣지 블렌딩(Edge blending)이란, 조각 이미지들의 경계에 보간(interpolation)작업을 수행하는 것으로서, 두 개의 이미지의 일부를 서로 중첩 시켜, 두 개의 이미지가 매끄러운 하나의 이미지로 보여질 수 있도록 하는 것을 의미한다. 엣지 블렌딩은 두 개의 이미지가 각각에 포함된 중첩되는 이미지 정보가 서로 중첩될 때까지, 상기 두 개의 이미지 중 어느 하나의 위치를 기 설정된 간격으로 이동시킴으로써, 수행된다.
일 실시 예에 있어서, 제어부(150)는 인접하는 조각 이미지의 투명도를 서로 다르게 보정할 수 있다. 제어부(150)는 어느 하나의 조각 이미지 위에, 투명도가 다른 하나의 조각 이미지를 오버랩 시킬 수 있다. 제어부(150)는 오버랩 된 두개의 조각 이미지 각각에 포함된 중첩된 이미지 정보에 대응되는 영역이 기 설정된 기준 이상으로 겹쳐질 때 까지, 투명도가 다른 조각 이미지의 위치를 변경할 수 있다. 제어부(150)는, 오버랩 된 두개의 조각 이미지에 포함된 동일 영역이 기 설정된 기준 이상으로 겹쳐지면, 오버랩 된 두개의 조각 이미지의 투명도를 0으로 조정할 수 있다. 이를 통해, 두개의 조각 이미지는 서로 연결될 수 있다. 제어부(150)는 서로 다른 복수의 조각 이미지에 모두에 대해, 엣지 블렌딩을 수행하여 메인 컨텐츠를 생성할 수 있다.
본 발명에 따른 시스템(100)은 이러한 엣지 블렌딩을 수행하여, 메인 컨텐츠를 생성함으로써, 연결된 조각 이미지의 어긋난 부분이나, 조각 이미지들의 경계 부분의 쓰레기 데이터를 최소화 할 수 있다.
나아가, 미술 작품을 한번 촬영하여 메인 컨텐츠를 생성하는 경우에 비하여, 미술 작품의 일 영역 마다 촬영하여 조각 이미지를 생성하고, 조각 이미지에 엣지 블렌딩을 수행하여 메인 컨텐츠를 생성함으로써, 보다 초고화질의 이미지를 생성할 수 있다.
이를 통해, 본 발명에 따른 시스템(100)은 가상 현실 등을 통해, 사용자에게 보다 실감나는 전시물을 선사할 수 있다.
한편, 제어부(150)는 특정된 메인 컨텐츠가, 기 특정된 질감을 갖도록 메인 컨텐츠에 캔버스 맵(Canvas Map)을 적용할 수 있다.
여기서, 캔버스 맵(Canvas Map)은, 메인 컨텐츠가 작성된 대상물 또는 메인 컨텐츠를 구성하는 재료의 재질을 표현하는 정보로 이해되어 질 수 있다. 보다 구체적으로, ⅰ)메인 컨텐츠가 캔버스(유화 등의 그림을 그릴 때 사용되는 직물)에 작성된 유화이면, 캔버스 맵은 캔버스 재질에 대응되는 레이어일 수 있고, ⅱ)메인 컨텐츠가 목재(목판화 등을 그릴 때 사용되는 나무 판재)에 작성된 목판화이면, 캔버스 맵은 목재의 재질에 대응되는 레이어일 수 있으며, ⅲ)메인 컨텐츠가 동판(구리를 이용하여 만들어진 널빤지 모양의 판)에 작성된 동판화이면, 캔버스 맵은 구리 재질에 대응되는 레이어일 수 있다.
제어부(150)는 메인 컨텐츠가 작성된 대상물에 근거하여, 캔버스 맵을 생성할 수 있다. 보다 구체적으로, 제어부(150)는 메인 컨텐츠가 그려진 대상물 자체에 대한 이미지를 캔버스 맵으로 사용할 수 있다. 예를 들어, 메인 컨텐츠가 캔버스에 그려진 유화이면, 제어부(150)는 캔버스를 촬영한 이미지를 캔버스 맵으로 사용할 수 있다.
나아가, 제어부(150)는 메인 컨텐츠가 그려진 대상물을 촬영한 이미지를 이용하여, 메인 컨텐츠가 그려진 대상물의 재질을 획득하고, 획득한 재질을 데이터화 하여 캔버스 맵을 생성할 수 있다. 예를 들어, 메인 컨텐츠가 유화이면, 제어부(150)는 캔버스를 촬영한 이미지로부터, 캔버스의 재질(ex: 직물이 교체되어 짜여진 재질)을 획득하고, 캔버스의 재질을 표현하는 정보를 생성함으로써 캔버스 맵을 생성할 수 있다.
나아가, 제어부(150) 메인 컨텐츠로부터 메인 컨텐츠가 그려진 대상물의 재질을 예측할 수 있다. 이 때, 제어부(150)는 기계학습에 의하여 생성된 인공지능 모델을 이용할 수 있다. 제어부(150)는 예측된 재질이 표현되도록 캔버스 맵의 정보를 구성할 수 있다.
제어부(150)는 메인 컨텐츠에 기 특정된 질감에 대응되는 레이어를 합성함으로써, 캔버스 맵이 적용된 메인 컨텐츠를 생성할 수 있다.
즉, 제어부(150)는 이렇게 생성된 캔버스 맵을 메인 컨텐츠에 적용하여 캔버스 맵 이미지를 생성할 수 있다. 즉, 제어부(150)는 메인 컨텐츠와 캔버스 맵을 매핑(또는 블렌딩, 오버레이) 처리할 수 있다.
보다 구체적으로, 제어부(150)는 ⅰ)메인 컨텐츠의 특정 픽셀에 대응되는 픽셀 값 및 ⅱ)캔버스 맵에 포함된 정보 중 상기 특정 픽셀에 대응되는 효과 정보를 제1 기 설정된 함수에 대입하여, 메인 컨텐츠의 특정 픽셀에 대한 픽셀 값을 변경할 수 있다. 제어부(150)는 상술한 방법을 메인 컨텐츠를 구성하는 모든 픽셀 값에 적용한다.
변경 전 메인 컨텐츠의 픽셀 값은 메인 컨텐츠가 그려진 대상물의 질감을 표현하지 않는 픽셀 값이라면, 변경된 메인 컨텐츠의 픽셀 값은 메인 컨텐츠가 그려진 대상물의 질감을 표현하는 픽셀 값일 수 있다. 예를 들어, 변경 전 메인 컨텐츠에 포함된 특정 픽셀 값이 (3, 99, 5)이라고 가정하자. 메인 컨텐츠가 그려진 대상물이 캔버스이면, 캔버스 맵은 상기 특정 픽셀 값에 대응되는 효과 정보를 포함하고, 이를 적용한 변경된 메인 컨텐츠의 픽셀 값은 (34, 104, 29)일 수 있다. 또한, 메인 컨텐츠가 그려진 대상물이 구리이면, 캔버스 맵은 구리 재질에 대한 정보를 가지고 있고, 이를 적용한 변경된 메인 컨텐츠의 픽셀 값은 (8, 52, 124)일 수 있다. 다만, 이는 설명의 편의를 위한 예시에 불과하고, 캔버스 맵이 적용된 메인 컨텐츠가 포함하는 정보가 이에 한정되는 것은 아니다.
따라서, 캔버스 맵이 적용되지 않은 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠가 디스플레이 될 때에 비하여, 캔버스 맵이 적용된 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠가 디스플레이 될 때 사용자는, 전시물을 질감을 느낌으로써, 실제 전시 공간 등에서 전시물을 보는 것과 같은 경험을 제공받을 수 있다.
한편, 본 발명에서는, 캔버스 맵(Canvas Map)이 적용된 메인 컨텐츠에, 가상 전시 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 노말 맵(Normal Map)을 적용하는 과정이 진행될 수 있다. 즉, 제어부(150)는 캔버스 맵이 적용된 메인 컨텐츠에 노말 맵을 적용할 수 있다.
노말 맵은, 메인 컨텐츠의 특정 픽셀에 특정 각도로 빛이 입사되었을 때, 해당 빛이 어떠한 각도로 반사될지 산출할 수 있도록 하는 정보를 포함한다.
노말 맵을 구성하는 픽셀 각각은 메인 컨텐츠를 구성하는 픽셀에 대응된다. 노말 맵을 메인 컨텐츠에 적용할 경우, 노말 맵을 구성하는 픽셀 중 메인 컨텐츠의 특정 픽셀에 대응되는 픽셀에 매칭된 벡터 정보가 메인 컨텐츠에 매칭된다.
다만, 광원 정보가 없을 경우, 상기 노말 맵을 메인 컨텐츠에 적용하더라도, 메인 컨텐츠에 아무런 영향을 주지 않는다.
여기서, 광원 정보는 가상 전시 공간에 존재하는 가상의 광원을 정의하는 정로 이해되어 질 수 있다. 구체적으로, 광원 정보는 가상 전시 공간에 존재하는 가상의 광원에 대한 위치, 형태, 세기, 빛의 진행 방향 중 적어도 하나를 정의할 수 있다.
예를 들어, 가상 전시 공간에 존재하는 가상의 광원이 점 광원인 경우, 상기 광원 정보는 점 광원의 위치 정보 및 점 광원으로부터 모든 방향으로 빛이 방출되는 것을 정의하는 정보를 포함할 수 있다.
본 발명에서는, 가상의 전시 공간에 존재하는 광원 정보는 배경 컨텐츠에 의하여 구현될 수 있다. 제어부(150)는 배경 컨텐츠에 광원(ex: 태양, 달, 조명 등)을 배치시킴으로써, 가상 전시 공간 존재하는 가상의 광원을 형성할 수 있다. 배경 컨텐츠에 광원을 배치하는 자세한 방법은 후술하도록 한다.
한편, 상기 광원 정보를 활용하면, 메인 컨텐츠를 구성하는 픽셀들 각각에 입사하는 가상의 빛의 입사각을 산출할 수 있다. 상기 입사각을 상기 노말 맵이 적용된 메인 컨텐츠(또는 메인 컨텐츠를 구성하는 픽셀 각각에 매칭된 노말 벡터)에 적용하면, 특정 픽셀에서의 빛이 반사각 정보가 산출될 수 있다. 상기 산출된 반사각을 제2 기 설정된 함수에 적용하여, 상기 특정 픽셀의 새로운 픽셀값이 산출될 수 있다. 메인 컨텐츠에 포함된 모든 픽셀에 상술한 과정을 적용하면, 가상의 광원에 대응되는 메인 컨텐츠를 생성할 수 있다.
나아가, 제어부(150)는 노말 맵이 적용된 메인 컨텐츠에 마스크 맵을 적용하여, 메인 컨텐츠가 실제 전시물과 더욱 유사한 질감을 표현하도록 할 수 있다.
여기서, 마스크 맵(Mask Map)은 메탈릭 맵(Metallic Map), AO 맵(Ambient Occlusion Map) 및 스무스 맵(Smoothness Map)을 포함할 수 있다. 보다 구체적으로, 마스크 맵은, Red 채널에 Metalic Map을, Green채널에 OA을 Alpha 채널에는 Smoothness Map을 적용함으로써 핵심데이터만 사용할 수 있는 맵을 의미한다. 마스크 맵은, 불필요한 데이터를 줄일 수 있다는 장점이 있다.
따라서, 본 발명에 따른 메인 컨텐츠는, 배경 컨텐츠가 어떻게 구성되는지에 따라 메인 컨텐츠의 픽셀값이 변경될 수 있다. 극단적으로 예를 들면, 배경 컨텐츠가 광원 정보를 포함하지 않는다면, 메인 컨텐츠는 노말 맵 또는 마스크 맵을 적용하더라도 노말 맵 또는 마스크 맵을 적용하지 않은 메인 컨텐츠와 동일한 픽셀값을 가질 수 있다. 반면에, 배경 컨텐츠가 태양과 같은 광원 정보를 포함한다면, 메인 컨텐츠는 태양의 광원 정보에 의하여 픽셀값이 변경될 수 있다.
사용자는, 광원 정보가 반영되지 않은 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때와, 광원 정보가 반영된 메인 컨텐츠를 이용하여 생성된 실감형 컨텐츠를 제공 받을 때, 동일한 메인 컨텐츠일지라도 입체감, 질감 등을 서로 다르게 느낄 수 있다. 따라서, 사용자는 실제 전시 공간에서 전시물을 눈으로 보는 것과 같은 체험을 경험할 수 있다.
이하에서는, 배경 컨텐츠에 의하여 가상 전시 공간의 광원 정보를 구현하는 과정 을 살펴보도록 한다.
가상 전시 공간은 도 4에 도시된 것과 같이, 복수개의 가상 전시 공간으로 이루어질 수 있다. 이러한 경우에, 제어부(150)는 각각의 가상 전시 공간에 대하여, 서로 다른 배경 컨텐츠를 생성할 수 있다.
실감형 컨텐츠는 서로 다른 배경 컨텐츠를 갖는 복수개의 가상 전시 공간을 포할 수 있다. 이러한 경우에, 실감형 컨텐츠가 출력되는 전자기기의 디스플레이에는, 도 5에 도시된 것과 같이, 어느 하나의 가상 전시 공간이 출력될 수 있다.
제어부(150)는 사용자의 선택에 근거하여 복수개의 가상 전시 공간을 생성할 수 있다. 이를 위해, 제어부(150)는 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기에 가상 전시 공간을 설계할 수 있는 사용자 인터페이스를 출력할 수 있다. 예를 들어, 제어부(150)는 전자기기의 디스플레이 또는 오디오를 통해 “가상 전시 공간의 개수를 선택해 주세요”와 같은 멘트를 출력함으로써, 사용자가 복수개의 가상 전시 공간을 설계할 수 있도록 할 수 있다.
사용자는 전자기기의 안내 멘트에 따라 원하는 가상 전시 공간의 개수를 선택할 수 있다. 이러한 경우, 사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여 원하는 가상 전시 공간의 개수(ex: 6)를 선택할 수 있다. 또한, 사용자는 “여섯개”를 음성으로 발화할 수 있다. 사용자가 발화한 음성은, 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다.
제어부(150)는 사용자의 선택에 근거하여 도 4에 도시된 것과 같이, 6개의 가상 전시 공간(400)을 형성할 수 있다. 이하에서는 설명의 편의를 위하여, 복수개의 가상 전시 공간을 제1 가상 전시 공간(410), 제2 가상 전시 공간(420)으로 표현하도록 한다. 나아가, 제1 가상 전시 공간(410)에 전시되는 메인 컨텐츠를 제1 메인 컨텐츠, 제1 가상 전시 공간이 가지는 배경 컨텐츠를 제1 배경 컨텐츠라고 표현하도록 한다.
한편, 앞서 설명한 바와 같이, 복수개의 가상의 전시 공간은, 각각의 가상 전시 공간에 전시되는 메인 컨텐츠의 시각적 특성을 이용하여, 각각 서로 다른 배경 컨텐츠를 가질 수 있다.
예를 들어, 제1 가상 전시 공간(410)은, 도 5(a)에 도시된 것과 같이, 제1 가상 전시 공간(410)에 전시되는 제1 메인 컨텐츠들(511)을 이용하여 생성된 제1 배경 컨텐츠(510)를 가질 수 있다. 제1 배경 컨텐츠(510)는 도트 무늬의 벽지를 가지는 8개의 벽(512)과, 흰색의 바닥(513)과, 유리로 구성된 천장(514)를 포함할 수 있다.
또 다른 예를 들어, 제2 가상 공간(420)은, 도 5(b)에 도시된 것과 제2 메인 컨텐츠들(521)을 이용하여 생성된 제2 배경 컨텐츠(520)를 가질 수 있다. 제2 배경 컨텐츠(520)는 빗살 무늬의 벽지를 가지는 8개의 벽(522)과, 흰색의 바닥과(523), 유리로 구성된 천장(524)를 포함하는 배경 컨텐츠를 가질 수 있다. 즉, 제1 배경 컨텐츠(510) 및 제2 배경 컨텐츠(520)는 제1 메인 컨텐츠(511) 및 제2 메인 컨텐츠(521) 각각의 시각적 특성에 근거하여, 서로 다르게 설정될 수 있다.
한편, 저장부(140)에 저장된 배경 정보에는, 메인 컨텐츠의 시각적 특성과 매칭되는 복수개의 배경 컨텐츠 구성 정보가 포함될 수 있다. 설명의 편의를 위하여, 이하에서는, 메인 컨텐츠의 특정 시각적 특성과 매칭되는 복수개의 배경 컨텐츠의 구성 정보를 제1 구성 정보, 제2 구성 정보와 같이 표현하도록 한다.
예를 들어, 배경 정보에는 유화 질감에 매칭되어 제1 구성 정보 및 제2 구성 정보가 포함될 수 있다고 가정하자. 제어부(150)는, 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기의 디스플레이에 제1 구성 정보 및 제2 구성 정보가 전송되도록 통신부(110)를 제어할 수 있다. 또는 제어부(150)는 제1 구성 정보 및 제2 구성 정보가 본 발명에 따른 시스템(100)의 출력부(130)에 출력되도록 제어할 수 있다.
사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 출력부(130)에 출력되는 제1 구성 정보 및 제2 구성 정보 중 어느 하나를 선택할 수 있다. 사용자의 선택은, 전자기기로부터 본 발명의 통신부(110)로 전송되거나, 본 발명의 입력부(120)를 통해 입력되어질 수 있다.
제어부(150)는 사용자의 선택에 근거하여, 배경 컨텐츠를 생성할 수 있다.
나아가, 제어부(150)는 배경 컨텐츠에 시간 정보를 반영하여, 배경 컨텐츠를 생성할 수 있다. 제어부(150)는 시간의 흐름에 따라 밝기가 변경되는 배경 컨텐츠를 이용하여 실감형 컨텐츠를 생성할 수 있다.
저장부(140)에는 시간에 따른 배경 컨텐츠의 밝기를 정의하는 밝기 정보가 저장되어 있을 수 있다. 예를 들어, 상대적으로 가장 어두운 밝기를 0으로, 상대적으로 가장 밝은 밝기를 10라고 가정하자. 저장부(140)에 저장된 밝기 정보에는 ⅰ)6시 내지 8시와 매칭되어 밝기 2, ⅱ)8시 내지 11시와 매칭되어 밝기 3, ⅲ) 11시 내지 13시와 매칭되어 밝기 5, ⅳ)13시 내지 18시와 매칭되어 밝기 3, ⅴ)18시 내지 22시와 매칭되어 밝기 1, ⅵ)22시 내지 24시와 매칭되어 밝기 0, ⅶ)24시 내지 5시와 매칭되어 밝기 0, ⅷ)5시 내지 6시와 매칭되어 밝기 1을 포함되어 있을 수 있다. 다만, 이는 설명의 편의를 위한 일 예시로서, 밝기 정보는 보다 세분화되어 있을 수 있다.
제어부(150)는 실감형 컨텐츠가 전자기기를 통해 출력될 때, 출력되는 시간에 근거하여 배경 컨텐츠의 밝기가 변경되도록 배경 컨텐츠를 생성할 수 있다. 예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 12시일 경우, 사용자는 밝기 5로 설정된 배경 컨텐츠를 제공받음으로써, 실제 낮에 전시공간에서 전시물을 관람하는 것과 같은 느낌을 받을 수 있다. 또 다른 일 예로, 실감형 컨텐츠가 출력되는 시간이 밤 12시(24시)인 경우, 사용자는 밝기 0으로 설정된 배경 컨텐츠를 제공받음으로써, 실제 밤에 전시공간에서 전시물을 관람하는 것과 같은 느낌을 받을 수 있다.
나아가, 제어부(150)는 저장부(140)의 밝기 정보에 근거하여 변경되는 배경 컨텐츠의 밝기에 따라, 메인 컨텐츠의 픽셀값을 변경할 수 있다. 즉, 제어부(150)는 배경 컨텐츠의 밝기 정보에 따른 가상 전시 공간에 입사되는 가상의 빛의 반사 특성이 반영되도록 메인 컨텐츠의 픽셀값을 변경할 수 있다.
예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 12시이고, 이에 따른 배경 컨텐츠의 밝기가 5일 경우, 메인 컨텐츠는 배경 컨텐츠의 밝기 5에 대응되는 가상 전시 공간의 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다.
또 다른 일 예로, 실감형 컨텐츠가 출력되는 시간이 밤 12시(24시)이고, 이에 따른 배경 컨텐츠의 밝기가 0일 경우, 메인 컨텐츠는 배경 컨텐츠의 밝기 0에 대응되는 가상 전시 공간의 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다.
따라서, 사용자는, 낮에 실감형 컨텐츠를 통해 메인 컨텐츠를 볼 때와, 밤에 실감형 컨텐츠를 통해 메인 컨텐츠를 볼 때 서로 다른 입체감, 질감 등을 제공받음으로써, 더욱 실제 전시공간에서 전시물을 보는 것과 같은 생동감 넘치는 경험을 제공받을 수 있다.
한편, 제어부(150)는 배경 컨텐츠에 시간이 반영된 광원 정보를 더 포함시켜 배경 컨텐츠를 생성할 수 있다. 예를 들어, 상기 배경 컨텐츠에는 비추어지는 광에 해당하는 이미지가 형성되고, 상기 광에 해당하는 이미지는 시간의 흐름에 따라 비추어지는 방향이 변화될 수 있다.
제어부(150)는 시간의 흐름에 따라 광원의 밝기 및 위치가 변경되는 배경 컨텐츠를 생성하고, 이를 이용하여 실감형 컨텐츠를 생성할 수 있다. 이 때, 광원은 태양, 달 및 조명 중 적어도 하나 일 수 있다. 즉, 제어부(150)는 시간의 흐름에 따라 위치(고도) 또는 세기가 변경되는 태양, 달 및 조명과 같은 광원에 대한 정보를 반영하여, 상기 광에 해당하는 이미지를 포함하여 상기 배경 컨텐츠를 생성시킬 수 있다.
이러한 경우, 제어부(150)는 배경 컨텐츠를 통해, 가상 전시 공간의 벽 및 천장 중 적어도 하나를 유리로 설정할 수 있다. 예를 들어, 상기 배경 컨텐츠에는 상기 가상 전시 공간의 벽 및 천장 중 적어도 하나에 배치되는 유리가 포함될 수 있다. 또는 제어부(150)는 가상 전시 공간을 실외로 설정할 수 있다.
즉, 배경 컨텐츠에는 비추어지는 광에 해당하는 이미지가 형성되고, 광에 해당하는 이미지는 시간의 흐름에 따라 비추어지는 방향이 변화될 수 있다.
제어부(150)는 실감형 컨텐츠가 전자기기를 통해 출력될 때, 출력되는 시간에 근거하여 태양, 달 및 조명과 같은 광원의 위치 및 세기가 변경되도록 배경 컨텐츠를 생성할 수 있다.
예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 1시(13시) 일 경우, 도6(a)에 도시된 것과 같이, 제어부(150)는 사용자를 기준으로 일정 위치(고도)에 태양(611)과 같은 광원을 배치시키고, 일정 위치(고도)에 배치된 태양으로부터 가상 전시 공간에 입사되는 빛이 반영되도록 배경 컨텐츠(610)를 생성할 수 있다. 이러한, 경우 배경 컨텐츠(610)는 태양(611)으로부터 가상 전시 공간에 입사되는 빛에 의하여 상대적으로 밝게 구성될 수 있다. 나아가, 실감형 컨텐츠가 출력되는 시간이 낮 3시(15시) 일 경우, 제어부(150)는 도 6(a)의 태양(611)이 보다 서쪽(도 6(a)의 왼쪽)에 배치되도록 배경 컨텐츠를 생성할 수 있다.
또 다른 일 예로, 실감형 컨텐츠가 출력되는 시간이 밤 8 시(20시)일 경우, 도6(b)에 도시된 것과 같이, 제어부(150)는 사용자를 기준으로 일정 위치(고도)에 달(621)과 같은 광원을 배치시키고, 일정 위치(고도)에 배치된 달(621)로부터 가상 전시 공간에 입사되는 빛이 반영되도록 배경 컨텐츠(620)를 생성할 수 있다. 이러한, 경우 배경 컨텐츠(620)는 달(621)로부터 가상 전시 공간에 입사되는 빛에 의하여 상대적으로 어둡게 구성될 수 있다. 나아가, 제어부(150)는 조명(622)과 같은 광원을 더 포함시켜 배경 컨텐츠(620)를 생성할 수 있다. 이러한 경우, 배경 컨텐츠(620)는, 조명(622)이 비추는 영역(623)을 주변 타 영역(624)에 비하여 상대적으로 밝게 하여 배경 컨텐츠(620)를 생성할 수 있다.
나아가, 배경 컨텐츠에 비추어지는 광에 매칭되도록 가상 전시 공간에 입사되는 빛의 반사 특성이 설정되고, 반사 특성이 반영되도록 상기 메인 컨텐츠의 픽셀값을 변경될 수 있다.
즉, 제어부(150)는 배경 컨텐츠에 포함된 광원 정보에 근거하여, 메인 컨텐츠의 픽셀값을 변경할 수 있다. 즉, 제어부(150)는 배경 컨텐츠로 인하여, 가상 전시 공간에 입사되는 빛의 반사 특성이 반영되도록 메인 컨텐츠의 픽셀값을 변경할 수 있다. 보다 구체적으로, 상기 배경 컨텐츠에 비추어지는 광에 매칭되도록 상기 가상 전시 공간에 입사되는 빛의 반사 특성이 설정되고, 상기 반사 특성이 반영되도록 상기 메인 컨텐츠의 픽셀값을 변경될 수 있다.
예를 들어, 실감형 컨텐츠가 출력되는 시간이 낮 1시(13시) 이고, 이에 따른 배경 컨텐츠의 일 영역에 태양과 같은 광원 정보가 포함된 경우, 메인 컨텐츠는 배경 컨텐츠에 포함된 광원 정보에 의한 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다.
또 다른 일 예를 들어, 실감형 컨텐츠가 출력되는 시간이 밤 8시(20시)이고, 이에 따른 배경 컨텐츠의 일 영역에 달 및 조명과 같은 광원 정보가 포함된 경우, 메인 컨텐츠는 배경 컨텐츠에 포함된 광원 정보에 의한 빛의 반사 특성이 반영되도록 픽셀값이 변경될 수 있다.
한편, 이러한 시간의 흐름에 따른 광원 정보는, 구성 정보와 매칭되어 저장부(140)에 저장되어 이을 수 있다.
즉, 본 발명에서는, 특정된 메인 컨텐츠의 시각적 정보에 근거하여, 배경 컨텐츠가 생성되고, 생성된 배경 컨텐츠의 광원 정보에 근거하여 메인 컨텐츠의 픽셀값이 변경될 수 있다.
이에 따라, 사용자는 실감형 컨텐츠를 관람하는 시간에 따른 광원 정보를 포함하는 가상 전시 공간에서, 가상 전시 공간에 입사된 가상의 빛이 반영된 메인 컨텐츠를 제공받게 됨으로써, 보다 실제 전시 공간에서 전시물을 관람하는 것과 같은 경험을 제공받을 수 있다.
나아가, 제어부(150)는 배경 컨텐츠에 날씨 정보가 반영된 광원 정보를 더 포함시켜 배경 컨텐츠를 생성할 수 있다. 제어부(150)는 날씨에 따라 광원의 밝기 및 위치가 변경되는 배경 컨텐츠를 생성하고, 이를 이용하여 실감형 컨텐츠를 생성할 수 있다. 이 때, 날씨 정보는 사용자로부터 입력부(120)를 통해 입력 받거나, 외부 서버로부터 통신부(110)를 통해, 사용자가 현재 위치하는 지역의 날씨 정보를 수신할 수 있다. 즉, 날씨 정보는 상기 전자기기가 위치하는 지역에 해당하는 정보일 수 있다. 이와 같이, 상기 배경 컨텐츠는 날씨 정보를 반영하여 생성되며, 이를 통하여 광에 해당하는 이미지의 밝기 등이 상기 날씨 정보에 따라 설정될 수 있다.
또한, 상기 날씨 정보는 상기 전자기기가 위치하는 지역에 해당하는 정보가 될 수 있다. 이러한 경우, 실감형 컨텐츠가 출력되는 시간이 낮 1시(13시)로 동일할 지라도, 사용자가 서울에서 실감형 컨텐츠를 이용하는 경우와, 제주도에서 실감형 컨텐츠를 이용하는 경우, 배경 컨텐츠에 포함된 광원 정보는 상이할 수 있다. 더욱 구체적으로, 서울의 날씨가 맑은 경우, 서울에서 실감형 컨텐츠를 이용하는 사용자는, 맑은 날씨가 반영된 광원 정보를 포함하는 실감형 컨텐츠를 제공받을 수 있다. 반면에, 제주도에 비가 오는 경우, 제주도에서 실감형 컨텐츠를 이용하는 사용자는, 비 오는 날씨가 반영된 광원 정보를 포함하는 실감형 컨텐츠를 제공 받을 수 있다.
한편, 본 발명에서는, 메인 컨텐츠 및 배경 컨텐츠에 도스튼(docent) 컨텐츠를 더 반영하여, 실감형 컨텐츠를 생성하는 과정이 진행되어 질 수 있다. 제어부(150)는 도스튼 컨텐츠를 포함시켜 실감형 컨텐츠를 생성할 수 있다.
여기서, 도스트 컨텐츠는, 가상 전시 공간에 전시된 메인 컨텐츠를 설명하는 기능으로 이해되어 질 수 있다.
제어부(150)는 도 7의 (a)에 도시된 것과 같이, 실감형 컨텐츠가 출력되는 전자기기의 메인 뷰(710)의 일 영역에 안내인(713)을 출력시킬 수 있다. 나아가, 제어부(150)는 사용자의 메인 뷰(710)의 특정 영역에 특정 메인 컨텐츠(711)가 출력되는 경우, 해당 메인 컨텐츠(711)에 대한 설명이 오디오를 통해 출력되도록 제어할 수 있다. 나아가, 제어부(150)는 해당 메인 컨텐츠(711)에 대한 설명(712)이 메인 뷰(710)의 일 영역에 출력되도록 제어할 수 있다.
여기서, “메인 뷰”는 전자기기가 제공하는 복수의 뷰 영역(또는 디스플레이 영역 ) 중 사용자의 시선에 대응하는 뷰 영역을 의미할 수 있다.
나아가, 제어부(150)는 도 7의 (b)에 도시된 것과 같이, 가상 전시 공간에 전시된 메인 컨텐츠(721) 주변에 버튼(722)을 함께 출력시킬 수 있다.
사용자는 설명이 필요한 메인 컨텐츠(721) 주변에 위치하는 버튼(722)을 누름으로써, 본 발명에 따른 시스템(100)에 해당 메인 컨텐츠(721)에 대한 설명 요청을 전송할 수 있다. 이 때, 사용자의 설명 요청은, 실감형 컨텐츠가 출력되는 전자기기 또는 본 발명에 따른 사용자 입력부(예를 들어, 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등)를 통해 입력될 수 있다. 나아가, 본 발명에 따른 시스템(100)의 센싱부(미도시)에 의해, 특정 메인 컨텐츠에 대한 설명 요청을 검출할 수 있다.
여기서, 본 발명에 따른 센싱부(미도시)는, 근접센서(proximity sensor), 조도 센서(illumination sensor), 터치 센서(touch sensor), 가속도 센서(accelerationsensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라), 마이크로폰(microphone), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다.
한편, 본 발명에 따른 실감형 컨텐츠는 사용자의 입력에 근거하여, 생성될 수 있다. 사용자의 입력에 근거하여 생성되는 실감형 컨텐츠는, 사용자의 취향 및 목적(교육, 행사, 강연 등)에 따라 다양하게 구성될 수 있다는 장점이 있다. 이하에서는 사용자가 실감형 컨텐츠를 구성할 수 있도록, 사용자에게 제공되는 사용자 인터페이스를 설명하도록 한다. 설명의 편의를 위하여, 가상 전시 공간이 미술관이고, 가상 전시 공간에 전시되는 메인 컨텐츠가 미술작품(또는 그림)인 경우를 예시로 설명하도록 한다.
제어부(150)는 사용자가 소지한 단말기와 같은 전자기기 또는 실감형 컨텐츠가 출력되는 전자기기의 디스플레이부(이하, “디스플레이부” 라 명명하도록 함)에 도 8(a)와 같은, 가상 전시 공간(미술관)의 관람 환경 설정 의사를 묻는 화면이 출력되도록 제어할 수 있다. 제어부(150)는 디스플레이부에 “미술관 관람 환경을 설정하시겠습니까?”와 같은 안내 멘트와 함께, 가상 전시 공간의 관람 환경을 직접 선택할 수 있는 선택지(811)와 본 발명에 따른 시스템(100)에서 추천하는 추천 환경을 선택할 수 있는 선택지(812)를 출력시킬 수 있다.
사용자는 디스플레이부에 출력되는 선택지를 보고, 어느 하나의 선택지를 선택할 수 있다. 이러한 경우, 사용자는 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여 선택지를 선택할 수 있다. 나아가, 사용자는 음성으로 “직접 선택(811)”또는 “추천 환경 선택(812)”을 발화할 수 있다. 사용자가 발화하는 음성은 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다.
사용자가 직접 선택(811)의 선택지를 선택하는 경우, 제어부(150)는 디스플레이부에 배경 컨텐츠를 구성하는 다양한 인테리어 정보를 출력시킬 수 있다. 예를 들어, 배경 컨텐츠를 구성하는 다양한 인테리어 정보는 ⅰ)가상 전시 공간의 모양(ex: 실내 또는 실외, 육면체의 실내 공간, 8기둥 형상의 실내 공간 등), ⅱ)가상 전시 공간의 벽의 재료(ex: 콘크리트 재질, 나무 재질 등) 또는 벽지(벽지의 색상, 벽지의 무늬 등), ⅲ)바닥 재료(콘크리트, 대리석 등) 또는 색상, ⅳ)천정의 재료(유리, 나무, 콘크리트 등) 또는 색상, ⅴ)가구(의자, 조명기구, 화분 등)를 포함할 수 있다.
제어부(150)는 디스플레이부에 다양한 인테리어 정보를 출력시켜, 사용자가 가상 전시 공간의 배경 컨텐츠를 직접 구성할 수 있는 인터페이스를 제공할 수 있다. 예를 들어, 제어부(150)는 사용자가 다양한 인테리어 정보를 드래그 인 드롭(drag-and-drop)하는 방식을 통해, 하나의 배경 컨텐츠를 생성할 수 있는 인터페이스환경을 제공할 수 있다.
나아가, 사용자가 추천 환경 선택(812) 선택지를 선택하는 경우, 제어부(150)는 저장부(140)에 저장되어 있는 배경 컨텐츠의 샘플을 디스플레이부에 출력할 수 있다. 이러한 경우, 제어부(150)는 특정된 메인 컨텐츠의 시각적 정보와 매칭되는 배경 컨텐츠의 구성 정보를 추천 정보(821, 822)로 디스플레이부에 출력할 수 있다.
사용자는 디스플레이부에 출력되는 추천 정보(821, 822) 중 어느 하나를 선택하여, 배경 컨텐츠를 생성할 수 있다.
한편, 제어부(150)는 사용자로부터 배경 컨텐츠에 반영되는 날씨 정보를 입력받을 수 있다. 이러한 경우, 제어부(150)는 도 9의 (a)에 도시된 것과 같이, 디스플레이부에 “미술작품을 관람하고 싶은 날씨를 선택하세요”와 같은 멘트와 함께, 날씨 이모티콘(emoticon, 911, 912, 913, 914)를 출력할 수 있다.
제어부(150)는 사용자가 디스플레이에 출력된 날씨 이모티콘 중 어느 하나의 이모티콘을 선택하는 것에 근거하여, 해당 날씨 정보가 반영된 광원 정보를 포함시켜 배경 컨텐츠를 생성할 수 있다. 예를 들어, 사용자가 해 이모티콘(911)을 선택하는 경우, 제어부(150)는 맑은 날씨 정보가 반영된 광원 정보를 포함시켜 배경 컨텐츠를 생성할 수 있다.
나아가, 제어부(150)는 사용자가 위치한 지역을 기반으로, 외부 서버로부터 날씨 정보를 수집할 수 있다. 이러한 경우, 제어부(150)는 도 9의 (b)에 도시된 것과 같이, 디스플레이부에 “현재 위치 접근을 허용하시겠습니까?”와 같은 안내 멘트와 함께 위치 접근 허용 여부 선택지를 출력할 수 있다.
제어부(150)는 사용자가 디스플레이부에 출력된 허용 선택지(921)를 선택하거나, 음성으로 “허용”을 발화하는 것을 입력받은 경우, GPS 등을 통해 사용자의 위치를 검출하고, 검출된 위치에 해당되는 날씨 정보를 외부 서버로부터 수신할 수 있다. 제어부(150)는 도 9의 (c)에 도시된 것과 같이, 사용자가 위치한 위치의 날씨 정보를 디스플레이에 출력할 수 있다.
나아가, 제어부(150)는 사용자로부터 배경 컨텐츠에 반영되는 시간 정보를 입력받을 수 있다. 이러한 경우, 제어부(150)는 도10에 도시된 것과 같이, 디스플레이부에 “미술작품을 관람하고 싶은 시간을 선택하세요”와 같은 멘트와 함께, 시간을 입력할 수 있는 인터페이스를 출력할 수 있다.
제어부(150)는 사용자가 입력하는 시간에 근거하여, 해당 시간 정보가 반영된 광원 정보를 포함시켜 배경 컨텐츠를 생성할 수 있다. 예를 들어, 도 10과 같이, 사용자가 낮 12시 53분을 입력하면, 제어부(150)는 낮 12시 53분에 대응되는 위치(고도)에 태양을 배치시키고, 해당 위치(고도)에 배치된 태양으로부터 가상 전시 공간에 입사되는 가상의 빛이 반영되도록 배경 컨텐츠를 생성할 수 있다.
나아가, 제어부(150)는 사용자로부터 입력받은 날씨 정보 및 시간 정보가 반영된 광원 정보를 포함하여 배경 컨텐츠를 생성한 경우, 배경 컨텐츠에 포함된 광원 정보에 의하여 메인 컨텐츠의 픽셀값을 변경 시킬 수 있다. 이 과정에 대한 설명은 앞서 설명하였으므로 생략하도록 한다.
나아가, 제어부(150)는 사용자로부터 특정 메인 컨텐츠를 입력받을 수 있다. 이를 위해, 제어부(150)는 도 11에 도시된 것과 같이 디스플레이부에 “관람하고 싶은 작가를 선택하세요”와 같은 멘트와 함께 작가의 이름 및 이미지(클림트(1111), 고흐(1112), 르누아르(1113) 등)를 출력할 수 있다.
사용자는 디스플레이부에 출력된 작가의 이름 및 이미지 중 관람하고 싶은 어느 하나의 작가(ex: 고흐(1112))를 선택할 수 있다. 또는 작가의 이름을 “고흐”와 같이 발화할 수 있다
제어부(150)는 사용자로부터 어느 하나의 작가가 선택되면, 선택된 작가(1121)의 작품명(1122)들을 디스플레이부에 출력할 수 있다. 사용자는, 전자기기 또는 본 발명에 따른 시스템(100)의 터치키(touch key), 푸시키(mechanical key), 키보드(Keyboard), 마우스(mouse), 조이패드(joypad) 등을 이용하여 관람하고 싶은 적어도 하나의 작품명을 선택하거나, “별이 빛나는 밤에”와 같이 음성을 발화 할 수 있다. 사용자가 발화하는 음성은 전자기기 또는 본 발명에 따른 시스템(100)의 마이크로폰(microphone) 또는 오디오 입력부를 통해 입력될 수 있다.
한편, 사용자는 가상 전시 공간에 전시된 메인 컨텐츠들 중 어느 하나의 메인 컨텐츠에 대한 확대 요청을 본 발명에 따른 시스템(100)으로 전송할 수 있다.
제어부(150)는 통신부(110) 또는 입력부(120를 통해 특정 메인 컨텐츠에 대한 확대 요청을 수신하면, 도 12의 (a)와 같이 “선택한 그림을 확대하시겠습니까?”와 같은 안내 멘트를 출력할 수 있다. 제어부(150)는 사용자로부터 선택한 그림의 확대 승낙을 수신하면, 도 12(b)에 도시된 것과 같이, 해당 메인 컨텐츠를 메인 뷰에 단독으로 출력할 수 있다.
사용자는 특정 제스처(1210)를 입력받아, 메인 컨텐츠의 특정 영역(1220)를 확대 또는 축소할 수 있다. 예를 들어, 제어부(150)는 사용자가 두 손가락을 오므리면 메인 컨텐츠의 특정 영역(1220)을 축소시키고, 두 손가락을 펴면 메인 컨텐츠의 특정 영역(1220)을 확대 시킬 수 있다. 이러한 사용자의 제스처는 본 발명에 따른 센싱부(미도시)의 의하여 검출될 수 있다.
한편, 앞서 설명한 바와 같이, 본 발명에서의 메인 컨텐츠는, 전시물(예를 들어, 그림과 같은 미술 작품)의 일 영역을 촬영한 서로 다른 복수개의 조각 이미지를 조합함으로써 생성되는, 초고화질 이미지일 수 있다.
따라서, 본 발명에 따른 시스템(100)은 사용자가 메인 컨텐츠를 확대하는 경우에도, 메인 컨텐츠의 화질이 깨지지 않고, 고화질의 선명한 이미지를 사용자에게 제공할 수 있다.
위에서 살펴본 것과 같이, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 메인 컨텐츠의 시각적 특성을 이용하여, 가상 전시 공간의 배경 컨텐츠를 생성함으로써, 실감형 컨텐츠를 생성할 수 있다. 따라서, 사용자는 메인 컨텐츠의 질감이나 색상 등을 더욱 실감나게 느낄 수 있고, 나아가, 실제 전시 공간에서 전시물을 관람하는 것과 같은 느낌을 제공 받을 수 있다.
나아가, 본 발명에 따른 실감형 가상 전시 공간 제공 방법 및 시스템은, 시간 및 날씨 등에 따라 가상 전시 공간의 환경을 다르게 제공할 수 있다. 따라서, 사용자는 비오는 날 명화와 같은 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 비오는 날과 같이 설정하고, 밤에 미술 작품을 관람하고 싶으면 가상 전시 공간의 분위기를 밤으로 설정함으로써, 미술 작품 감상에 재미를 느끼고, 실제 체험하지 못하는 경험을 대체하여 경험할 수 있다.
이러한, 실감형 컨텐츠가 가상 현실, 증강현실, 혼합현실, 또는 확장현실 등 다양한 기술에 따른 방법으로 사용자에게 제공되는 경우, 사용자는 미술관 또는 박물관 등에서 전시되는 작품을 언제라도 손쉽게 접할 수 있다. 이를 통해, 사용자는 풍부한 문화 예술 콘텐츠를 향유할 수 있다. 나아가, 미술관 또는 박물관은 보다 많은 사용자에게 작품에 해당하는 콘텐츠를 제공함으로써, 사용자의 관심을 향상시킬 수 있다.
한편, 위에서 살펴본 본 발명은, 컴퓨터에서 하나 이상의 프로세스에 의하여 실행되며, 이러한 컴퓨터로 판독될 수 있는 매체(또는 기록 매체)에 저장 가능한 프로그램으로서 구현될 수 있다.
나아가, 위에서 살펴본 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드 또는 명령어로서 구현하는 것이 가능하다. 즉, 본 발명은 프로그램의 형태로 제공될 수 있다.
한편, 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있다.
나아가, 컴퓨터가 읽을 수 있는 매체는, 저장소를 포함하며 전자기기가 통신을 통하여 접근할 수 있는 서버 또는 클라우드 저장소일 수 있다. 이 경우, 컴퓨터는 유선 또는 무선 통신을 통하여, 서버 또는 클라우드 저장소로부터 본 발명에 따른 프로그램을 다운로드 받을 수 있다.
나아가, 본 발명에서는 위에서 설명한 컴퓨터는 프로세서, 즉 CPU(Central Processing Unit, 중앙처리장치)가 탑재된 전자기기로서, 그 종류에 대하여 특별한 한정을 두지 않는다.
한편, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.

Claims (10)

  1. 실감형 가상 전시 공간 제공 방법에 있어서,
    가상 전시 공간에 전시되는 메인 컨텐츠를 특정하는 단계;
    상기 메인 컨텐츠가 기 특정된 질감을 표현하도록, 상기 기 특정된 질감을 갖는 대상물을 촬영한 이미지를 상기 메인 컨텐츠에 매핑하는 단계;
    상기 메인 컨텐츠의 색상, 패턴 및 질감 중 적어도 하나를 포함하는 시각적 특성에 매칭되는 배경 정보를 이용하여, 상기 가상 전시 공간을 이루는 배경 컨텐츠를 생성하는 단계;
    전자기기로부터 상기 배경 컨텐츠에 반영되는 시간 정보를 수신하고, 외부 서버로부터 상기 전자기기가 위치한 지역의 날씨 정보를 수신하는 단계;
    상기 가상 전시 공간 상에 상기 시간 정보 및 상기 날씨 정보가 반영된 가상의 광원이 존재하도록, 상기 배경 컨텐츠에서 상기 시간 정보에 대응되는 영역 상에 상기 가상의 광원을 배치하는 단계;
    상기 가상 전시 공간 상에 상기 메인 컨텐츠가 전시되도록, 상기 배경 컨텐츠에서 상기 메인 컨텐츠에 매칭된 매칭 좌표에 대응되는 영역 상에 상기 메인 컨텐츠를 중첩하여 실감형 컨텐츠를 생성하는 단계;
    상기 가상 전시 공간 상에서, 상기 가상의 광원이 상기 메인 컨텐츠의 픽셀들 각각에 입사된 후 반사되는 반사각을 산출하고, 상기 반사각을 상기 메인 컨텐츠의 픽셀들 각각에 반영하여 상기 메인 컨텐츠의 픽셀들 각각의 픽셀 값을 변경하는 단계; 및
    상기 가상의 광원에 의해 상기 메인 컨텐츠의 픽셀들 각각의 픽셀 값이 변경된 상기 메인 컨텐츠를 포함하는 상기 실감형 컨텐츠를 전자기기를 통해 출력하는 단계;를 포함하고,
    상기 실감형 컨텐츠를 이루는 상기 배경 컨텐츠는,
    상기 실감형 컨텐츠가 상기 전자기기를 통해 출력되는 시간에 근거하여, 상기 가상 전시 공간에 존재하는 상기 가상의 광원의 밝기 및 위치가 결정되고,
    상기 실감형 컨텐츠를 이루는 상기 메인 컨텐츠는,
    상기 가상의 광원의 밝기 및 위치에 근거하여, 상기 메인 컨텐츠의 픽셀들 각각의 픽셀값이 결정되는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  2. 제1항에 있어서,
    상기 가상의 광원은,
    시간의 흐름에 따라 상기 가상 전시 공간에서의 밝기 및 위치 중 적어도 하나가 변경되고,
    상기 실감형 컨텐츠를 이루는 상기 배경 컨텐츠는,
    상기 가상의 광원의 밝기 및 위치 중 적어도 하나가 변경되는 것에 근거하여, 상기 배경 컨텐츠의 밝기와 관련된 밝기 정보가 변경되는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법,
  3. 제2항에 있어서,
    상기 실감형 컨텐츠를 이루는 상기 메인 컨텐츠는,
    상기 가상의 광원의 밝기 및 위치 중 적어도 하나가 변경되는 것에 근거하여, 상기 메인 컨텐츠의 픽셀들 각각의 픽셀값이 변경되는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  4. 제3항에 있어서,
    상기 메인 컨텐츠의 픽셀들 각각의 픽셀값은,
    상기 메인 컨텐츠에 적용되는 노말 맵(Normal Map)에 의해 변경되고,
    상기 노말 맵은,
    상기 메인 컨텐츠의 픽셀들 각각에 상기 가상의 광원이 특정 각도로 입사되었을 때, 상기 메인 컨텐츠의 픽셀들 각각에서 상기 가상의 광원이 반사되는 반사각을 산출할 수 있는 정보를 포함하는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  5. 제4항에 있어서,
    상기 대상물을 촬영한 이미지를 상기 메인 컨텐츠에 매핑하는 단계에서는,
    상기 메인 컨텐츠가 유화(乳化)와 관련된 컨텐츠이면, 상기 메인 컨텐츠에는, 직물이 교체되어 짜여진 캔버스(Canvas)를 촬영한 이미지를 매핑하고,
    상기 메인 컨텐츠가 동판화(銅版畵)와 관련된 컨텐츠이면, 상기 메인 컨텐츠에는 구리를 촬영한 이미지를 매핑하는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  6. 제5항에 있어서,
    상기 메인 컨텐츠는,
    서로 다른 복수의 조각 이미지들 간에 상호 중첩되는 이미지 정보에 근거하여, 상기 서로 다른 복수의 조각 이미지들을 연결하여 조합하고,
    상기 조합된 조각 이미지들에 대해 엣지 블렌딩(edge blending)을 수행하여 생성되는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  7. 제1항에 있어서,
    상기 가상 전시 공간은,
    제1 가상 전시 공간 및 제2 가상 전시 공간을 포함하고,
    상기 제1 가상 전시 공간을 이루는 배경 컨텐츠는,
    상기 제1 가상 전시 공간에 전시되는 제1 메인 컨텐츠의 시각적 특성을 이용하여 생성되고,
    상기 제2 가상 전시 공간을 이루는 배경 컨텐츠는,
    상기 제2 가상 전시 공간에 전시되는 제2 메인 컨텐츠의 시각적 특성을 이용하여 생성되는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  8. 제1항에 있어서,
    메인 컨텐츠를 특정하는 단계에서는,
    특정 작가와 관련된 적어도 하나의 메인 컨텐츠를 특정하는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  9. 제1항에 있어서,
    상기 배경 컨텐츠는,
    상기 가상 전시 공간에 전시된 상기 메인 컨텐츠에 대한 설명 요청을 입력 받는 버튼을 포함하고,
    상기 버튼에 대한 사용자 입력이 가해지는 것에 근거하여, 상기 실감형 컨텐츠를 출력하는 상기 전자기기를 통해 상기 메인 컨텐츠에 대한 설명을 출력하는 단계를 더 포함하는 것을 특징으로 하는 실감형 가상 전시 공간 제공 방법.
  10. 실감형 가상 전시 공간을 제공하기 위하여 실감형 컨텐츠를 생성하는 제어부; 및
    상기 가상 전시 공간에서 상기 실감형 컨텐츠가 제공되도록 상기 실감형 컨텐츠를 전자기기에 전송하는 통신부를 포함하고,
    상기 제어부는,
    가상 전시 공간에 전시되는 메인 컨텐츠를 특정하고,
    상기 메인 컨텐츠가 기 특정된 질감을 표현하도록, 상기 기 특정된 질감을 갖는 대상물을 촬영한 이미지를 상기 메인 컨텐츠에 매핑하고,
    상기 메인 컨텐츠의 색상, 패턴 및 질감 중 적어도 하나를 포함하는 시각적 특성에 매칭되는 배경 정보를 이용하여, 상기 가상 전시 공간을 이루는 배경 컨텐츠를 생성하고,
    전자기기로부터 상기 배경 컨텐츠에 반영되는 시간 정보를 수신하고, 외부 서버로부터 상기 전자기기가 위치한 지역의 날씨 정보를 수신하고,
    상기 가상 전시 공간 상에 상기 시간 정보 및 상기 날씨 정보가 반영된 가상의 광원이 존재하도록, 상기 배경 컨텐츠에서 상기 시간 정보에 대응되는 영역 상에 상기 가상의 광원을 배치하고,
    상기 가상 전시 공간 상에 상기 메인 컨텐츠가 전시되도록, 상기 배경 컨텐츠에서 상기 메인 컨텐츠에 매칭된 매칭 좌표에 대응되는 영역 상에 상기 메인 컨텐츠를 중첩하여 실감형 컨텐츠를 생성하고,
    상기 가상 전시 공간 상에서, 상기 가상의 광원이 상기 메인 컨텐츠의 픽셀들 각각에 입사된 후 반사되는 반사각을 산출하고, 상기 반사각을 상기 메인 컨텐츠의 픽셀들 각각에 반영하여 상기 메인 컨텐츠의 픽셀들 각각의 픽셀 값을 변경하며,
    상기 통신부는,
    상기 가상의 광원에 의해 상기 메인 컨텐츠의 픽셀들 각각의 픽셀 값이 변경된 상기 메인 컨텐츠를 포함하는 상기 실감형 컨텐츠가 상기 전자기기를 통해 출력되도록, 상기 실감형 컨텐츠를 상기 전자기기에 전송하는 것을 특징으로 하는 실감형 가상 전시 공간 제공 시스템.
KR1020220051589A 2021-03-08 2022-04-26 실감형 가상 전시 공간 제공 방법 및 시스템 KR102484840B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220051589A KR102484840B1 (ko) 2021-03-08 2022-04-26 실감형 가상 전시 공간 제공 방법 및 시스템

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210030352 2021-03-08
KR1020220051589A KR102484840B1 (ko) 2021-03-08 2022-04-26 실감형 가상 전시 공간 제공 방법 및 시스템

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020210030352 Division 2021-03-03 2021-03-08

Publications (2)

Publication Number Publication Date
KR20220126257A KR20220126257A (ko) 2022-09-15
KR102484840B1 true KR102484840B1 (ko) 2023-01-05

Family

ID=83281746

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220051589A KR102484840B1 (ko) 2021-03-08 2022-04-26 실감형 가상 전시 공간 제공 방법 및 시스템

Country Status (1)

Country Link
KR (1) KR102484840B1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102633816B1 (ko) * 2023-03-03 2024-02-05 주식회사 숲페이드 인공지능에 기반한 복합 문화 공간 구현 시스템

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180008345A (ko) * 2016-07-15 2018-01-24 네이버 주식회사 컨텐츠 제작 장치, 방법 및 컴퓨터 프로그램

Also Published As

Publication number Publication date
KR20220126257A (ko) 2022-09-15

Similar Documents

Publication Publication Date Title
JP6967043B2 (ja) 3次元コンテンツ内の場所に基づく仮想要素モダリティ
US10437347B2 (en) Integrated gestural interaction and multi-user collaboration in immersive virtual reality environments
Craig Understanding augmented reality: Concepts and applications
US20230143891A1 (en) Controlling physical displays based on usage of wearable extended reality appliances
CN102540464B (zh) 提供环绕视频的头戴式显示设备
US11804019B2 (en) Media compositor for computer-generated reality
US20230070130A1 (en) Light field display system for performance events
EP3503083B1 (en) Image processing method and display apparatus therefor
JP2022553613A (ja) モバイルデバイスのライトフィールドディスプレイ
KR102484840B1 (ko) 실감형 가상 전시 공간 제공 방법 및 시스템
CN109074680A (zh) 基于通信的增强现实中实时图像和信号处理方法和系统
CN108346178A (zh) 混合现实对象呈现
KR101773891B1 (ko) 실시간 환경객체 선택을 통한 합성동영상 재생 시스템 및 컴퓨터 구현 방법
KR102336156B1 (ko) 초고화질 이미지 구현 방법 및 시스템
US11711494B1 (en) Automatic instancing for efficient rendering of three-dimensional virtual environment
US11423621B1 (en) Adaptive rendering in artificial reality environments
Letellier et al. Visualization and interaction techniques in virtual reality for guided tours
KR101843024B1 (ko) 실시간 환경객체 선택을 통한 합성동영상 재생 시스템 및 컴퓨터 구현 방법
US20240104863A1 (en) Contextual presentation of extended reality content
US20230334791A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20240185546A1 (en) Interactive reality computing experience using multi-layer projections to create an illusion of depth
US20230334790A1 (en) Interactive reality computing experience using optical lenticular multi-perspective simulation
US20240161390A1 (en) Method, apparatus, electronic device and storage medium for control based on extended reality
US11809618B2 (en) Controlling a user selection queue
US20230418374A1 (en) Controlling a user selection queue

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant