KR20230093643A - 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치 - Google Patents

메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치 Download PDF

Info

Publication number
KR20230093643A
KR20230093643A KR1020210182451A KR20210182451A KR20230093643A KR 20230093643 A KR20230093643 A KR 20230093643A KR 1020210182451 A KR1020210182451 A KR 1020210182451A KR 20210182451 A KR20210182451 A KR 20210182451A KR 20230093643 A KR20230093643 A KR 20230093643A
Authority
KR
South Korea
Prior art keywords
display
virtual space
content
electronic device
designated
Prior art date
Application number
KR1020210182451A
Other languages
English (en)
Inventor
이현만
Original Assignee
이현만
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이현만 filed Critical 이현만
Priority to KR1020210182451A priority Critical patent/KR20230093643A/ko
Publication of KR20230093643A publication Critical patent/KR20230093643A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Computer Interaction (AREA)
  • Tourism & Hospitality (AREA)
  • General Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예에 따르면, 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계; 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계; 및 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계;를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치를 개시한다.

Description

메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치{METHOD FOR PROVIDING CONTENTS DISPLAYING SERVICE BASED ON METAVERSE AND ELECTRONIC DEVICE THEREOF}
본 발명은 컨텐츠를 표시하는 방법 및 그 전자장치에 관한 것이다. 상세하게는, 메타버스에 기반하여 가상공간에서 컨텐츠를 표시하는 방법 및 그 전자장치를 개시한다.
일반적으로, 증강현실(增强現實: Augmented Reality)이란 사용자가 눈으로 보는 현실세계와 부가정보를 갖는 가상세계를 합쳐 새로운 환경을 생성한 것을 의미한다. 현실환경과 가상환경을 융합하는 증강현실 시스템은 미국, 일본을 중심으로 연구 및 개발이 진행되었다. 현실세계를 가상세계로 보완해주는 개념인 증강현실은 컴퓨터 그래픽으로 만들어진 가상환경을 사용하지만 주역은 현실환경이다. 컴퓨터 그래픽은 현실환경에 필요한 정보를 추가 제공하는 역할을 한다.
증강현실의 3차원 표현방식은 물리적 공간에서 발생하는 현상들에 대한 이해를 높여준다. 특히 직접적인 체험을 강화해주는 1인칭 관점과 전지적 시점에서 현상을 이해하도록 돕는 3인칭 시점 등 다양한 각도에서의 관점을 제공함으로써 현상에 대한 이해의 폭을 넓히고 깊이를 더해 준다. 또한 증강현실은 가상적 객체를 활용하는 특성으로 인해 현실세계에 대한 시뮬레이션 뿐만 아니라 현실세계에서 불가능한 체험을 다양한 감각기관을 활용해 현실화해주는 장점을 지니고 있다.
전통적 인터페이스 환경에서는 사용자가 실제세계와 가상세계의 연속선상을 마음대로 쉽게 이동할 수 없다. 그러나 인간의 행동은 분절된 요소로 나눠질 수 없는 경우가 더 많으며, 사용자들은 특정 과제를 수행하는데 있어 실세계와 가상세계가 이음새 없이(seamless) 자연스럽게 전환될 수 있기를 기대한다. 이러한 점은 가상의 모델을 새롭게 만들거나 보려고 할 때, 3차원 그래픽 콘텐츠와 상호작용하고자 할 때 더욱 그러하다.
예를 들어 3차원 모델링을 통해 빌딩을 설계하는 소프트웨어를 활용할 때 사람들은 종종 작업을 멈추고 컴퓨터 스크린으로부터 실제 종이에 아이디어를 스케치하려고 하는데, 이때 발생하게 되는 가상환경과 실제 환경과의 의도치 않은 분절은 작업의 흐름을 방해한다. 반면, 증강현실 인터페이스에서 가상의 이미지에 의해 증가되거나 대체되는 실제 세계의 양은 전적으로 증강현실 어플리케이션에 달려 있다. 따라서 증강현실 인터페이스는 설계자의 의도에 따라 순수한 현실세계에서 순수한 가상세계로 사용자가 자연스럽게 이동할 수 있도록 하는 전환적 인터페이스(transitional interface)를 제공할 수 있게 된다.
증강현실의 이러한 특성은 더 이상 분절된 이분법적 개념으로서의 현실세계와 가상 세계가 아닌, 아날로그와 디지털, 원자(atom)의 세계와 비트(bit)의 세계를 연결하는 진일보한 매체 특성을 보여준다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상공간에 가상의 객체를 출력하는 데 그 목적이 있다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상의 객체를 출력함으로써, 사용자로 하여금 현장감과 함께 정보를 제공하는 것에 그 목적이 있다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상공간에서 가상의 객체를 출력함으로써 가상공간에서 사용자에게 현실과 같은 컨텐츠의 체험을 제공하는 것에 그 목적이 있다.
본 발명의 다양한 실시 예를 통하여 해결하려는 과제들은 언급한 과제로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
본 발명의 일 실시 예에 따르면, 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계; 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계; 및 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계;를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법을 개시한다.
여기서, 메타버스에 기반하여 컨텐츠를 표시하는 방법은, 상기 사용자 캐릭터의 동작으로 상기 둘 이상의 표시영역 중 하나의 표시영역을 선택하는 단계; 및 선택된 상기 하나의 표시영역의 지정된 컨텐츠를 상기 가상공간에서 상기 하나의 표시영역에 대하여 지정된 영역에 구현하고, 상기 하나의 표시영역의 지정된 컨텐츠에 대한 정보를 출력하는 단계;를 더 포함할 수 있다.
여기서, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는, 상기 가상공간에 구현된, 연결된 적어도 둘 이상의 면을 가지는 디스플레이를 통하여 상기 적어도 둘 이상의 표시영역을 출력할 수 있다.
여기서, 상기 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계는, 상기 가상공간에 구현된, 적어도 하나의 면을 가지는 디스플레이를 통하여 상기 디스플레이 뒤 공간 및 상기 공간에 구현된 적어도 하나의 객체를 출력할 수 있다.
여기서, 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계는, 상기 지정된 컨텐츠에 대하여 지정된 객체를 상기 객체의 질감, 기능, 움직임 중 적어도 하나에 있어서, 시각적, 촉각적, 청각적 특징 중 적어도 하나에 기반하여 3D(3 dimensional) 이미지로 구현할 수 있다.
여기서, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는, 상기 사용자 캐릭터로부터 지정된 위치에 출력할 수 있다.
여기서, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는, 상기 가상공간에 구현된, 적어도 하나의 면을 가지는 복수의 디스플레이를 구현하는 단계, 상기 사용자 캐릭터의 위치를 확인하는 단계; 및 상기 복수의 디스플레이 중 상기 사용자 캐릭터의 위치에 기반하여 지정된 디스플레이에 상기 적어도 둘 이상의 표시영역을 출력하는 단계; 를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 적어도 하나의 외부장치와 통신하는 통신부; 상기 통신부를 통하여 송수신하는 데이터를 저장하는 저장부; 및 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하고, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하며, 및 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간에서 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 처리부를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 전자장치를 개시한다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상공간에 가상의 객체를 출력함으로써, 사용자로 하여금 현실의 이동 없이 객체의 정보를 현실감 있게 확인할 수 있다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상의 객체를 출력함으로써, 사용자로 하여금 큰 비용 없이 안전하게 특정 상황에 대한 경험을 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상공간에서 가상의 객체를 출력함으로써 가상공간에서 사용자에게 현실과 같은 컨텐츠의 체험을 제공함으로써, 사업자는 컨텐츠를 통한 수익 향상을 이룰 수 있다.
도 1은 본 발명의 일 실시 예에 따른 장치의 구성을 나타내는 도면이다.
도 2는 본 발명의 일 실시 예에 따른 전자장치를 통하여 구현하는 가상공간에서 컨텐츠를 출력하는 동작을 도시한다.
도 3은 본 발명의 일 실시 예에 따른 전자장치를 통하여 구현하는 가상공간에서 컨텐츠를 출력하는 동작을 도시한다.
도 4는 본 발명의 일 실시 예에 따른 전자장치를 통하여 구현하는 가상공간에서 컨텐츠를 출력하는 동작을 도시한다.
도 5는 본 발명의 일 실시 예에 따른 전자장치의 가상공간에서 컨텐츠를 표시하는 동작의 흐름도이다.
이하에서, 첨부된 도면을 참조하여 실시 예들을 상세하게 설명한다. 그러나, 실시 예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시 예들에 의해 제한되거나 한정되는 것은 아니다. 실시 예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시 예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안 된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시 예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시 예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
또한, 실시 예의 구성 요소를 설명하는 데 있어서, 제1, 제2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질이나 차례 또는 순서 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 접속될 수 있지만, 각 구성 요소 사이에 또 다른 구성 요소가 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.
어느 하나의 실시 예에 포함된 구성요소와, 공통적인 기능을 포함하는 구성요소는, 다른 실시 예에서 동일한 명칭을 사용하여 설명하기로 한다. 반대되는 기재가 없는 이상, 어느 하나의 실시 예에 기재한 설명은 다른 실시 예에도 적용될 수 있으며, 중복되는 범위에서 구체적인 설명은 생략하기로 한다.
본 발명의 다양한 실시 예에 따르면, 전자장치는 메타버스에 기반하는 가상공간을 구현하고, 가상현실의 구현된 공간에서 객체 및 객체와 관련된 정보를 출력할 수 있다. 보다 상세하게 설명하면, 전자장치는 메타버스에 기반하는 가상공간에서 사용자와 연결된 사용자 캐릭터 주변 또는 지정된 위치에 컨텐츠를 포함하는 표시영역을 표시하고, 사용자 캐릭터의 선택에 기반하여 표시영역의 컨텐츠를 가상공간에 구현할 수 있다.
이하, 도 1 내지 도 5를 참조하여 본 발명의 바람직한 실시 예들을 설명한다.
본 명세서에 첨부되는 도면들은 본 발명의 바람직한 일 실시 예를 예시하는 것이며, 발명의 상세한 설명과 함께 본 발명의 기술적 사상을 더욱 이해시키는 역할을 하는 것이므로, 본 발명은 그러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 일 실시 예에 따른 장치의 구성을 나타내는 도면이다.
도 1을 참조하면, 전자장치(100)는 처리부(110), 저장부(120), 및 통신부(130)를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자장치(100)는 통신부(130)를 통하여 적어도 하나의 다른 전자장치들과 연결되어 데이터를 송수신할 수 있다. 예를 들면, 전자장치(100)는 적어도 하나의 서버와 연결되어 메타버스를 위한 데이터를 송수신할 수 있다.
여기서, 사용자 입력은 사용자에 의하여 전자장치(100)에 입력 및/또는 처리되는 데이터일 수 있다. 또한, 사용자에 의하여 전자장치(100)에서 구현된 가상공간을 제어하기 위한 입력일 수 있고, 가상공간에 구현된 사용자 캐릭터를 제어하기 위한 입력일 수 있다.
여기서, 가상공간을 구현하는 것은, 전자장치(100)가 가상공간을 생성 및 구현하는 것일 수 있지만, 적어도 하나의 서버에서 생성된 가상공간에 대한 정보를 전자장치(100)가 수신하여 출력하는 것일 수 있다.
본 발명의 다양한 실시 예를 설명함에 있어서, “구현”의 용어를 사용함에 있어서, 가상공간에서 단순히 객체를 표시하는 것에 더하여, 객체의 시각적, 촉각적, 청각적 특징과 함께 컨텐츠를 표현하는 것으로 설명할 수 있다.
여기서, 사용자는 전자장치(100)를 통하여 가상공간에 연결되는 사용자 또는 가상현실 컨텐츠의 소비자의 의미를 포함할 수 있다.
처리부(110)는 가상공간에서 컨텐츠를 표시하는 서비스를 제공할 수 있다. 일 실시 예에 따르면, 처리부(110)는 통신부(130)를 통하여 적어도 하나의 서버와 연결되며 가상공간 및 가상공간에 구현하기 위한 컨텐츠의 데이터를 송수신할 수 있다.
다양한 실시 예에 따르면, 전자장치(100)를 통하여 제공하는 가상공간 및 컨텐츠는 메타버스에 기반하여 제공되는 것일 수 있다. 더하여, 가상공간은, 전자장치(100)의 디스플레이를 통하여 구현된 가상공간일 있고, 사용자의 시각을 통하여 현장감을 제공하는 가상공간일 수 있고, 또는 사용자의 뇌 또는 감각기관과 연결되어 가상공간을 체험하도록 제공하는 등 다양한 방법을 통하여 제공되는 가상공간일 수 있다.
이때, 전자장치(100)는 가상공간을 구현하고 사용자에게 가상공간 및 컨텐츠를 제공하기 위한 프로그램(앱, 어플, 툴, 플러그인 등, 이하 가상현실 프로그램)이 설치된 상태에서 가상현실 프로그램을 통하여 가상현실 컨텐츠를 제공할 수 있다.
이하, 다양한 실시 예들에서, 전자장치(100)를 통하여 컨텐츠 표시 서비스를 제공하는 것은, 가상현실 프로그램을 통하여 컨텐츠 표시 서비스를 제공하는 것으로 이해될 수 있다.
여기서, 가상현실을 통해서 컨텐츠를 표시하는 서비스의 제공은 전자장치(100)에 설치된 가상현실 프로그램을 통해서 제공되는 것으로 설명하고 있지만, 이에 한정하지 않고, 기 설치된 다른 프로그램, 임시 설치 프로그램, 또는 프로그램의 플러그인(plug-in)을 통하여 제공될 수도 있다. 일 실시 예에 따르면, 전자장치(100)는 컨텐츠 표시 서비스는 전자장치(100) 외부 장치에서 무료 또는 유로로 제공되는 데이터베이스의 적어도 일부를 통하여(또는 연결)하여 제공될 수 있다.
처리부(110)는 메타버스에 기반하여 컨텐츠를 표시하기 위한 가상공간을 3차원(3 dimensional, 3D)으로 구현할 수 있다. 이때, 처리부(110)는 사용자와 연결된 사용자 캐릭터를 가상공간에 구현할 수 있다.
처리부(110)는 가상공간 내에서 컨텐츠를 구현할 수 있다. 이때, 가상공간에 구현하는 컨텐츠는 지정된 표시영역에 표시하는 객체 또는 객체와 관련된 정보일 수 있다. 여기서, 객체와 관련된 정보는 적어도 하나의 이미지를 포함할 수 있고, 이미지는 동영상과 같이 복수의 프레임으로 구성된 이미지를 포함할 수 있다. 여기서, 표시영역은 이미지를 표시하기 위한 박스(box), 타일(tile), 창(윈도우, window) 등으로 구성될 수 있다.
여기서, 표시영역을 통하여 표시하는 컨텐츠는 적어도 하나의 객체와 관련된 컨텐츠일 수 있다. 예를 들면, 처리부(110)는 적어도 하나의 상품과 연결된 동영상을 표시영역을 통하여 출력할 수 있다.
다양한 실시 예에 따르면, 사용자는 가상공간에서 전시회를 경험할 수 있다. 이때, 사용자는 가상공간의 지정된 영역에 표시된 표시영역을 통해서 특정 작품과 관련된 동영상이 출력되는 것을 확인할 수 있다.
이때, 처리부(110)는 다중 채널 스트리밍 서비스에 기반하여 표시영역을 통해 컨텐츠를 출력할 수 있다. 일 실시 예에 따르면, 동영상을 출력하는 표시영역은 복수 개 표시될 수 있고, 각각의 표시영역은 다른 컨텐츠의 정보를 출력하는 다중 채널 스트리밍 서비스에 기반하여 처리될 수 있다.
예를 들면, 처리부(110)는 하나의 작품과 연결된 둘 이상의 동영상을 출력하거나, 둘 이상의 작품에 연결된 하나의 동영상들을 출력하거나, 복수의 작품에 대하여 1:1 매칭된 동영상을 출력할 수 있다.
처리부(110)는 이미지를 출력하는 표시영역을 가상공간의 지정된 위치에 출력할 수 있다. 예를 들면, 처리부(110)는 가상공간에 작품을 전시하기 위한 적어도 하나의 부스(booth)를 구현할 수 있고, 작품 및/또는 작품과 관련된 정보를 출력하기 위한 패널(panel)을 구현할 수 있다.
처리부(110)는 가상공간에서 구현된 패널 상에 표시영역을 통하여 작품 및/또는 관련된 이미지를 출력할 수 있다. 이때, 전자장치(100)는 현실감을 주기 위해서 패널에 디스플레이를 구현하고, 디스플레이에 표시된 표시영역을 통해 작품 및/또는 작품과 관련된 정보를 출력할 수 있다.
처리부(100)는 표시영역을 패널에 표시하는 것으로 설명하고 있지만, 표시영역은 패널 뿐 아니라, 벽, 바닥, 가상공간의 허공 중 어디에도 표시할 수 있고, 평면, 곡면, 2차원 이미자, 3차원 이미지, 홀로그램 등 다양한 방법으로 표시할 수 있다. 즉, 사용자에게 현실감을 주기 위하여 디스플레이의 구분을 하고 있지만, 가상공간의 모든 객체들이 컨텐츠를 표시하는 디스플레이 역할을 수행할 수 있다.
처리부(110)는 가상공간에서 표시영역을 통하여 객체 및/또는 객체와 관련된 정보를 출력함에 있어서, 상술한 바와 같이 가상공간의 지정된 위치에 출력하는 것에 한정하지 않고, 사용자 캐릭터 주변에 출력할 수 있다.
예를 들면, 처리부(110)는 사용자 캐릭터의 특정 부위로부터 지정된 거리 떨어진 위치를 기준으로 표시영역을 표시할 수 있고, 표시영역을 통하여 객체 및/또는 객체와 관련된 정보를 출력할 수 있다.
일 실시 예에 따르면, 처리부(110)는 사용자 캐릭터의 얼굴 또는 가슴 부위로부터 지정된 거리 떨어진 위치를 기준으로 복수의 표시영역을 표시하고, 각각의 표시영역에 대하여 다중 채널 스트리밍에 기반하는 컨텐츠를 출력할 수 있다.
처리부(110)는 사용자 캐릭터의 동작에 기반하여 패널 또는 사용자 캐릭터 주변에 출력한 표시영역을 제어하고, 사용자 캐릭터의 동작에 기반하여 선택된 표시영역의 컨텐츠와 관련된 이벤트를 가상공간에 구현할 수 있다.
여기서 사용자 캐릭터의 동작은, 가상공간과 연결된 사용자의 움직임에 기반하는 사용자 입력으로 처리될 수 있고, 또는 사용자가 조작하는 입력부에 기반하는 사용자 입력으로 처리될 수 있다.
처리부(110)는 사용자 캐릭터의 동작에 기반하여 가상공간에 출력된 표시영역들을 스크롤링(scrolling) 등을 통해 흐르듯이 움직일 수 있고, 스크롤링 과정을 통해서 다양한 컨텐츠를 표시하는 표시영역들을 표시 및 숨김 처리할 수 있다.
처리부(110)는 사용자 캐릭터의 동작에 기반하여 표시영역들을 스크롤함에 있어서, 포커싱(focusing)된 표시영역의 컨텐츠와 관련된 객체를 표시할 수 있다. 여기서, 포커싱된 표시영역은 실행을 선택한 상태가 아닌 예비 선택일 수 있다.
일 실시 예에 따르면, 처리부(110)는 복수의 표시영역들 중 사용자 캐릭터의 시선이 위치한 하나의 표시영역을 예비 선택한 표시영역으로 결정할 수 있다. 또한, 처리부(110)는 사용자 캐릭터의 동작에 기반하는 터치(touch), 드래그앤드롭(drag and drop)을 이용한 스크롤링 동작에서 터치 시 선택한 표시영역을 예비 선택한 표시영역으로 결정할 수 있다. 또한, 처리부(110)는 사용자 캐릭터의 특정 부위와의 거리에 기반하여 지정된 거리 내의 표시영역 또는 가장 가까운 거리의 표시영역을 예비 선택한 표시영역으로 결정할 수 있다.
처리부(110)는 표시영역의 스크롤 중 예비 선택된 표시영역의 컨텐츠를 출력함에 있어서 소리를 함께 출력할 수 있다. 이때, 예비 선택된 컨텐츠가 변경되는 경우, 처리부(110)는 기존의 재생 중인 컨텐츠의 소리는 줄이고, 예비 선택된 컨텐츠의 소리를 키울 수 있다.
처리부(110)는 구현된 가상공간에 적절한 소리를 출력할 수 있다. 일 실시 예에 따르면, 처리부(110)는 현실의 공간에서 발생되는 소리 또는 소음과 동일 또는 유사한 소리를 구현된 가상공간에서 출력할 수 있다. 예를 들면, 처리부(110)는 전시회의 가상공간을 구현한 경우, 현실의 동일 또는 유사한 전시회에서 발생되는 소리 및 소음을 가상공간에서 출력할 수 있다. 이를 통하여, 전시회의 가상공간에서 사용자는 사용자 캐릭터를 통하여 현장감을 경험할 수 있다.
처리부(110)는 표시영역 각각에서 정지 이미지를 출력하는 상태에서 예비 선택된 표시영역에서 동영상 이미지를 출력할 수 있다. 다양한 실시 예에 따르면, 처리부(110)는 표시영역 각각에 동영상 이미지를 출력할 수 있고, 동영상 이미지를 재생하는 상태에서 표시영역들을 스크롤할 수 있다.
처리부(110)는 예비 선택 또는 선택된 표시영역의 컨텐츠를 출력함에 있어서 출력 위치를 변경할 수 있다. 일 실시 예에 따르면, 처리부(110)는 사용자 캐릭터의 정면 지정된 위치에 대형 화면으로 표시영역을 생성하고, 컨텐츠를 출력할 수 있다.
이때, 처리부(110)는 대형 화면의 표시영역을 제외한 나머지 복수의 표시영역들을 숨김 처리하거나 투명도(transparency)를 제어할 수 있다.
다양한 실시 예에 따르면, 처리부(110)는 예비 선택된 표시영역의 컨텐츠와 관련된 객체를 가상공간의 지정된 위치에 표시할 수 있다. 일 실시 예에 따르면, 처리부(110)는 예비 선택된 표시영역의 컨텐츠가 판매를 위한 상품인 경우, 상품의 3D 이미지를 가상공간의 지정된 위치에 표시할 수 있다. 일 실시 예에 따르면, 처리부(110)는 상품의 3D 이미지를 표시함에 있어서 상품을 만질 수 없는, 또는 홀로그램과 같은 미리보기 방식으로 표시할 수 있다.
사용자 캐릭터의 동작에 기반하여 하나의 가상공간을 선택하는 경우, 처리부(110)는 선택된 표시영역의 컨텐츠와 관련된 객체를 가상공간의 지정된 위치에 구현할 수 있다. 일 실시 예에 따르면, 처리부(110)는 선택된 표시영역의 컨텐츠가 판매를 위한 상품인 경우, 상품의 3D 이미지를 가상공간의 지정된 위치에 구현할 수 있다.
처리부(110)는 상품의 3D 이미지를 구현함에 있어서, 상품의 질감 표현, 기능, 움직임에 있어서, 시각적, 촉각적, 청각적 특징을 표현할 수 있다. 처리부(110)는 사용자 캐릭터가 상품을 만지고 조작할 수 있도록 처리함으로써, 사용자는 사용자 캐릭터를 통해서 상품의 상태 및 기능을 체험할 수 있다.
처리부(110)는 상품을 가상공간에 구현함에 있어서, 사용자 캐릭터 주변 지정된 영역의 환경을 상품과 관련된 환경으로 변경할 수 있다. 예를 들면, 상품이 골재를 이동시키기 위한 덤프트럭인 경우, 처리부(110)는 덤프트럭을 구현하고, 덤프트럭 및 사용자 캐릭터 주변 지정된 영역의 환경을 공사장 환경으로 변경하여 골재 상차, 운반, 및/또는 하차의 기능을 체험하도록 제공할 수 있다.
처리부(110)는 가상공간에 상품 및 관련된 환경을 구현함에 있어서, 상품의 동작 및 관련된 환경의 소리를 구현할 수 있다. 일 실시 예에 따르면 덤프트럭의 동작, 상차, 이동, 및/또는 하차 과정에서 발생되는 소리 및 주변 환경의 소리를 구현하여 출력할 수 있다.
다양한 실시 예에 따르면, 처리부(110)는 복수 선택이 가능한 컨텐츠에 대한 표시영역들을 표시할 수 있다. 이때, 복수의 표시영역들 중 둘 이상의 표시영역을 선택하는 사용자 캐릭터의 동작에 기반하여, 처리부(110)는 선택된 복수의 컨텐츠와 관련된 상품들 및 관련된 환경을 구현할 수 있다.
처리부(110)는 사용자 캐릭터의 동작에 기반하여 예비 선택된 표시영역 또는 선택된 표시영역의 컨텐츠와 관련된 다양한 정보를 확인할 수 있는 별도의 표시영역을 출력할 수 있다.
일 실시 예에 따르면, 처리부(110)는 표시영역에 표시된 객체를 선택함으로써 객체에 지정된 별도의 표시영역을 출력할 수 있다. 예를 들면, 컨텐츠의 이미지를 표시하는 표시영역에서 이미지를 구성하는 적어도 하나의 객체는 특정 정보와 연결될 수 있다. 예를 들면, 처리부(110)는 이미지에 포함된 캐릭터, 텍스트, 도형 중 적어도 하나를 포함하여 객체를 구성할 수 있다.
여기서, 객체들은 각각에 인코딩 된 명령어에 기반하여 컨텐츠 정보, 상품 정보, 작품 정보, 관련된 전시 정보, 회사 정보, 구매 링크 중 적어도 하나의 정보들과 연결되도록 설정될 수 있고, 처리부(110)는 선택된 객체와 대응되는 정보를 별도의 표시영역에 출력할 수 있다.
저장부(120)는 전자장치(100)의 적어도 하나의 구성요소(예: 처리부(110) 또는 통신부(130)에 의해 처리되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 컨텐츠 위한 프로그램(또는 소프트웨어), 등록상품 및 등록상품에 기반하여 생성된 다양한 테이블들, 및 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다.
저장부(120)는 적어도 하나의 사업자가 판매하는 적어도 하나의 상품에 대한 정보, 상품에 대한 누적된 거래 데이터, 누적된 평가정보 확인, 누적된 가상 이벤트에 대한 평가, 및 누적된 평가정보를 저장할 수 있다.
저장부(120)는 가상공간에서 컨텐츠를 출력 및 구현하기 위한 인공신경망 알고리즘 및 이와 관련된 메커니즘, 연산자, 언어모델 중 적어도 일부를 포함할 수 있다.
저장부(120)에 저장된 데이터는 전자장치(100)의 관리자 입력 또는 전자장치(100)의 사용자 입력에 기반하여 처리부(110)를 통하여 변경, 수정, 삭제, 또는 생성될 수 있다.
저장부(120)는, 휘발성 메모리 또는 비휘발성 메모리를 포함하여 구성될 수 있다.
통신부(130)는 전자장치(100)와 적어도 하나의 다른 전자장치(예: 다른 전자장치 또는 서버)의 유선 통신 채널의 수립, 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다.
통신부(130)는 처리부(110)에 종속적 또는 독립적으로 운영되고, 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신부(130)는 무선 통신 모듈(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다.
통신부(130)는 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크 및/또는 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자장치와 통신할 수 있다.
통신부(130)를 구성하는 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다.
다양한 실시 예에 따르면, 전자장치(100)는 상술한 구성요소들에 한정하지 않고, 데이터를 입력하는 입력부(미도시), 및 데이터를 출력하는 출력부(미도시) 중 적어도 하나를 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 전자장치(100)는 이동통신단말기, 멀티미디어 단말기, 유선 단말기, 고정형 단말기 및 internet protocol(IP) 단말기, 메타버스 접속기기 등을 비롯한 모든 정보통신기기가 적용될 수 있다. 일례로, 전자장치(100)는 휴대폰, 피씨(personal computer, PC), 피엠피(portable multimedia player, PMP), 엠아이디(mobile internet device, MID), 스마트폰(smartphone), 태블릿 PC, 패블릿 PC, 노트북(notebook), VR(virtual reality) 기기 등을 예시할 수 있다.
여기서, 서버는 네트워크 상에 존재하는 하나의 엔티티로, 웹 서버(web server), 데이터베이스 서버(database server) 및 애플리케이션 서버(application server)의 역할을 수행한다. 바람직한 일 실시 예에 따르면, 서버는 전자장치(100)의 처리에 기반하여 전자장치(100)에 다양한 컨텐츠를 제공하고, 제공된 컨텐츠에 대한 사용자의 조회 이력을 저장하며, 그 조회 이력을 기초로 사용자가 선호하는 컨텐츠를 추천할 수 있다.
도 2는 본 발명의 일 실시 예에 따른 전자장치를 통하여 구현하는 가상공간에서 컨텐츠를 출력하는 동작을 도시한다.
도 2를 참고하면, 전자장치(100)는 상품을 전시하는 가상공간을 구현할 수 있다. 예를 들면, 상품은 공산품, 예술품, 식품 중 적어도 하나를 포함할 수 있고, 상품을 전시하기 위한 가상공간은 전시회 또는 박람회일 수 있다.
본 발명이 다양한 실시 예에 따르면, 가상공간에서 장치들을 구현하고 동작시키는 실시 예들을 설명한다. 이때, 가상공간에 구현되는 장치 및 기능들은 전자장치(100)를 통해서 처리되는 데이터 및 이와 관련된 가상장치를 의미하는 것일 수 있고, 가상공간에 구현된 가상장치들은 사용자 캐릭터에 의하여 실제 장치와 동일 또는 유사한 방식으로 조작되고 기능할 수 있다.
전자장치(110)는 가상공간에서 다양한 상품 또는 기업에 대한 부스를 구현할 수 있다. 각각의 부스에는 상품을 광고 또는 전시하기 위한 적어도 하나의 패널(200)을 포함할 수 있다. 여기서, 구현되는 패널 각각은 전자장치로서 구현 및 기능할 수 있다.
패널(200)는 적어도 하나의 디스플레이(210)를 포함하여 구현될 수 있다. 여기서, 도2에 도시된 바와 같이 패널(200)은 하나의 모서리를 형성하는 굴곡을 포함할 수 있고, 디스플레이(210)는 모서리에 기반하여 연속된 두 면을 포함하여 구성될 수 있다. 또한, 디스플레이는 연속된 복수의 면을 포함하여 구성되는 것에 한정하지 않고, 복수의 디스플레이를 포함하여 구성될 수 있다.
전자장치(100)는 패널210)의 디스플레이에 컨텐츠를 출력하는 복수의 표시영역(231, 233, 및 235)들을 출력할 수 있다. 도 2에 따르면, 3개의 표시영역(231, 233, 및 235)들을 나란히 출력하고 있지만 이에 한정하지 않고, 더 많은 수의 표시영역들을 지정된 행으로 출력할 수 있다.
전자장치(100)는 사용자 캐릭터(202)의 동작에 기반하여 디스플레이(210)에 표시된 표시영역들을 스크롤할 수 있다. 전자장치(100)는 사용자 캐릭터의 동작에 기반하여 적어도 하나의 표시영역을 예비 선택 또는 선택할 수 있다.
전자장치(100)는 예비 선택된 표시영역의 컨텐츠를 활성화할 수 있다. 예를 들면, 전자장치(100)는 다른 표시영역의 컨텐츠는 비활성 된 상태에서 예비 선택된 표시영역의 컨텐츠를 활성상태로 표시할 수 있다.
여기서, 비활성 된 상태는 표시영역의 컨텐츠가 동영상인 경우 동영상을 정지 이미지 상태로 표시하는 것일 수 있고, 활성 된 상태는 동영상을 재생 상태로 표시하는 것일 수 있다.
전자장치(100)는 예비 선택된 표시영역의 컨텐츠와 관련된 상품을 확인하면, 디스플레이(210)의 지정된 위치에 상품(221)을 표시할 수 있다. 다양한 실시 예에 따르면, 전자장치(100)는 표시영역들이 스크롤링 되면서 예비 선택된 표시영역들이 변경되고, 예비 선택된 표시영역에 관련된 상품을 확인하면, 각각의 표시영역이 예비 선택되는 시점에 따라서 지정된 위치에 표시된 상품들을 변경하여 표시할 수 있다.
전자장치(100)는 다른 사용자 캐릭터에 의하여 선택된 또는 예비 선택된 컨텐츠와 연결된 상품(223)을 디스플레이(210)에 표시할 수 있다. 전자장치(100)는 디스플레이(210)에 표시된 상품(223)에 대한 정보를 별도의 표시영역(237)에 표시할 수 있다. 또한, 전자장치(100)는 디스플레이(210)에 표시된 상품(223)을 선택한 또는 예비 선택한 사용자의 캐릭터(214)를 디스플레이(210)에 표시할 수 있다.
다양한 실시 예에 따르면, 패널(200)에 구성되는 디스플레이(210)는 설정 가능한 투명도를 가지고 반대 공간을 투영할 수 있는 디스플레이일 수 있고, 또는 전자장치(100)에 의하여 디스플레이(210)의 반대 영역을 배경 화면으로 출력하도록 구성될 수 있다.
도 2를 참고하면, 전자장치(100)는 디스플레이(210)의 반대 공간에 위치한 테이블(201) 및 의자(203)를 디스플레이(210)에서 테이블(211) 및 의자(213)로 표시할 수 있다.
또한, 전자장치(100)는 디스플레이(210) 반대편에 위치하는 객체라도 디스플레이(210)에 출력하는 것을 활성 또는 비활성할 수 있다. 예를 들면, 전자장치(100)는 상술한 바와 같이, 디스플레이(210)에 다른 사용자 캐릭터(204)가 선택한 컨텐츠의 상품(223)을 표시하는 경우, 해당 다른 사용자 캐릭터를 디스플레이(210)에 표시(214)할 수 있다.
전자장치(100)는 사용자 캐릭터의 동작에 기반하여 사용자가 지정된 다른 사용자 캐릭터(204)와의 통신 수단을 제공할 수 있다.
다양한 실시 예에 따르면, 전자장치(100)는 디스플레이(210)에 다른 사용자 캐릭터(204)로부터 선택된 상품을 표시하지 않는 경우 디스플레이(210)에 사용자 캐릭터(214)를 표시하지 않을 수 있다.
다양한 실시 예에 따르면, 각각의 사용자 캐릭터는 동일한 디스플레이(210)를 통하여 사용자 캐릭터 각각의 컨텐츠 만을 이용하도록 설정할 수 있다. 도 2에 따르면, 디스플레이(210)를 통하여 표시되는 다양한 컨텐츠들은 사용자 캐릭터(202)의 컨텐츠일 수 있고, 다른 사용자 캐릭터(204)의 컨텐츠는 사용자 캐릭터(202)와 공유하지 않고 사용자 캐릭터(204)에만 적용될 수 있다.
즉, 각각의 사용자 캐릭터는 가상공간은 공유하지만, 가상장치를 통해서 표시 또는 구현되는 컨텐츠는 독립된 차원을 통하여 처리될 수 있다. 하지만, 이러한 차원은 설정에 의해서 공유될 수 있고, 특정 사용자 캐릭터를 그룹핑(grouping)함으로써 지정된 사용자 캐릭터들에게 지정된 컨텐츠를 공유할 수 있다.
전자장치(100)는 사용자 캐릭터(202)의 동작에 기반하여 표시된 상품(221)에 해당하는 표시영역(231)을 선택한 것을 확인하는 경우, 해당 상품을 구현할 수 있다. 예를 들면 전자장치(100)는 사용자 캐릭터로 하여금 상품을 만지고 조작 가능하도록 그 특징을 구현할 수 있다.
사용자 캐릭터는 디스플레이(210)에 구현된 상품(221)을 만지거나 조작할 수 있고, 디스플레이(210)에서 꺼내 가상공간에 구현할 수 있다. 예를 들면, 전자장치(100)는 사용자 캐릭터가 디스플레이(210)에 구현된 상품(221)을 잡고 꺼내는 동작에 기반하여 상품(221)을 가상공간에 3D로 구현할 수 있다.
다양한 실시 예에 따르면, 전자장치(100)는 사용자 캐릭터가 상품(221)을 가상공간에 구현하는 동작에 기반하여, 사용자 캐릭터의 환경을 변경할 수 있다. 예를 들면, 전자장치(100)는 상품이 전동 드라이버인 경우, 나사못을 이용하여 전동드라이버의 기능을 체험할 수 있는 환경, 예를 들면, 인테리어 공사 환경 등으로 사용자 캐릭터의 환경을 변경할 수 있다.
여기서, 전자장치(100)가 사용자의 환경을 변경하는 것은, 사용자 캐릭터 주변의 환경을 변경하는 것일 수 있고, 사용자 캐릭터를 해당 환경으로 텔레포트(teleport)시키는 것일 수 있다.
상술한 바와 같이, 전자장치(100)는 상품에 따라서 사용자의 주변 환경을 변경시킴에 따라서 소형 상품 뿐 아니라, 사용자 캐릭터가 탑승해야 하는 차량 또는 비행기 등의 상품을 제공할 수 있다.
전자장치(100)는 사용자 캐릭터의 동작에 따라서 상품의 체험을 종료하면, 사용자 캐릭터의 환경을 복수할 수 있다.
도 2에 따른 설명에서 가상공간에서 수행되는 동작 및 기능들은 전자장치(100)가 처리하는 것으로 설명하고 있지만, 적어도 일부는 서버와 송수신하는 데이터에 기반하여 가상공간에 구현하는 것일 수 있다.
도 3은 본 발명의 일 실시 예에 따른 전자장치를 통하여 구현하는 가상공간에서 컨텐츠를 출력하는 동작을 도시한다.
도 3을 참고하면, 가상공간의 부스는 복수의 패널(300-1, 300-3, 및 300-5)을 포함하여 구성될 수 있다. 여기서, 가상공간은 4개의 패널(300-1, 300-3, 및 300-5)을 구현하는 것으로 설명하고 있지만, 이에 한정하지 않고, 다양한 수의 패널을 구현할 수 있다. 패널들(300-1, 300-3, 및 300-5) 각각은 적어도 하나의 디스플레이(310-1, 310-3, 및 310-5)를 포함할 수 있다.
전자장치(100)는 사용자 캐릭터의 위치에 기반하여 지정된 패널의 디스플레이에 컨텐츠를 출력할 수 있다. 예를 들면, 전자장치(100)는 사용자 캐릭터 근처, 예를 들면 가장 가까이에 위치한 패널(300-1)을 확인인하고, 패널(300-1)의 디스플레이(310-1)를 통해서 표시영역들(331, 333, 335)을 출력할 수 있다. 전자장치(110)는 디스플레이(310-1)을 통해서 수행되는 사용자 캐릭터의 동작에 기반하여 예비 선택된 상품(321)을 지정된 위치에 표시할 수 있다.
여기서, 디스플레이(310-1, 310-3, 및 310-5)에 표시된 테이블(311, 313, 및 315)은 가상공간에 구현된 테이블(301)일 수 있다. 전자장치(100)는 사용자 캐릭터의 동작에 기반하여 테이블(311)에 놓인 상품(321)을 표시할 수 있다.
그 후, 전자장치(100)는 사용자 캐릭터가 이동하여 가장 가까이에 위치한 패널(300-3)을 확인하면, 패널(300-3)의 디스플레이(310-3)을 통해서 컨텐츠를 출력할 수 있다.
여기서, 디스플레이(310-3)에 출력하는 컨텐츠는 디스플레이(310-1)을 통해서 사용자 캐릭터가 이용 중인 컨텐츠일 수 있다. 일 실시 예에 따르면, 도 3의 디스플레이(310-3)에 표시된 표시영역들(341, 343, 345)은 디스플레이(310-1)에 표시된 표시영역들(331, 333, 335)일 수 있다.
전자장치(100)는 사용자 캐릭터의 동작에 기반하여 테이블 및 테이블에 놓인 상품(323)의 상태를 변경할 수 있다. 예를 들면, 디스플레이(310-1) 및 디스플레이(310-3), 및 디스플레이(310-5)에 표시된 테이블(311, 313, 315) 각각은 가상공간에 구현된 301을 표시한 것이고, 디스플레이(310-1) 및 디스플레이(310-3)에 표시된 상품(321, 및 323)은 동일한 상품이지만, 테이블(301)에 놓인 상품을 바라보는 것처럼 사용자 캐릭터의 시선에 기반하여 테이블(311, 313, 및 315), 및 테이블(311, 313) 각각에 놓인 상품(321, 323)의 상태를 변경할 수 있다.
더하여, 전자장치(100)는 사용자 캐릭터의 동작에 기반하여 디스플레이(310-3)에 표시된 상품(323)을 회전시킬 수 있다.
전자장치(100)는 사용자 캐릭터의 이동에 따라서 디스플레이(310-1)에 표시한 표시영역(331, 333, 335) 및 상품(321)을 연속하여 디스플레이(310-3)에 표시영역(341, 343, 345) 및 상품(323)과 같이 표시하면, 디스플레이(310-1)에 표시한 표시영역(331, 333, 335) 및 상품(321)을 제거할 수 있다.
마찬가지로, 전자장치(100)는 사용자 캐릭터가 이동하여 가장 가까운 패널(311-5)을 확인하는 경우, 디스플레이(310-5)에 표시영역들을 표시하고, 상품을 테이블(315)에 표시할 수 있다.
다양한 실시 예에 따르면, 전자장치(100)는 사용자 캐릭터의 이동에 따라서 근처에 위치한 패널로 표시중인 컨텐츠를 연속하여 표시하는 동작을 설명하고 있지만, 이에 한정하지 않고, 각각의 패널에 다른 카테고리의 컨텐츠를 표시할 수 있다.
도 4는 본 발명의 일 실시 예에 따른 전자장치를 통하여 구현하는 가상공간에서 컨텐츠를 출력하는 동작을 도시한다.
도 4에 따르면, 전자장치(100)는 VR 기기로서 사용자에게 가상공간의 체험을 제공할 수 있다. 도 4의 일 실시 예에 따르면, 전자장치(100)는 가상공간에서 일인칭 시점으로 사용자 캐릭터를 구현할 수 있고, 사용자 캐릭터로부터 지정된 위치에 컨텐츠를 표시하는 표시영역들(431, 433, 435)을 표시할 있다.
본 발명의 다양한 실시 예에 따르면, 전자장치(100)는 사용자 캐릭터의 동작에 기반하여 예비 선택한 표시영역에 관련된 상품(421)을 지정된 위치에 표시할 수 있다.
이때, 전자장치(100)는 상품(421)을 가상공간의 지정된 위치 예를 들면, 가상공간에 구현된 테이블(401)에 놓여진 것처럼 상품(421)을 표시할 수 있다.
전자장치(100)는 사용자 캐릭터의 동작에 기반하여 해당 표시영역을 선택한 것을 확인하면, 상품(421)을 가상공간에 구현할 수 있다. 예를 들면, 전자장치(100)는 예비 선택된 상태의 상품(421)을 표시한 위치에서 상품의 질감 표현, 기능, 움직임에 있어서, 시각적, 촉각적, 청각적 특징이 표현된 상품을 구현할 수 있다.
다양한 실시 예에 따르면, 전자장치(100)는 가상공간에 구현된 상품(423)을 선택 또는 조작하는 사용자 캐릭터의 동작을 확인할 수 있다. 전자장치(100)는 사용자 캐릭터의 선택에 기반하여 해당 상품(423)과 관련된 정보(437)를 가상공간의 지정된 위치에 표시할 수 있다.
또는, 전자장치(100)는 상품과 관련된 정보를 사용자 캐릭터 앞에 표시된 표시영역을 이용하여 표시할 수 있다.
도 5는 본 발명의 일 실시 예에 따른 전자장치의 가상공간에서 컨텐츠를 표시하는 동작의 흐름도이다.
501 단계에서, 전자장치(100)는 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현한다.
전자장치(100)는 메타버스에 기반하여 가상공간을 구현하고, 사용자와 시각, 촉각, 및 청각 중 적어도 하나의 감각을 통하여 연결된 사용자 캐릭터를 가상공간에 구현할 수 있다.
503 단계에서, 전자장치(100)는 사용자 캐릭터의 동작에 기반하여 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력한다.
전자장치(100)는 표시영역을 출력하기 위한 적어도 하나의 객체, 예를 들면, 패널, 벽, 바닥 등을 구현하고, 구현된 객체에 표시영역을 표시할 수 있다. 전자장치(100)는 표시영역을 표시하는 객체를 둘 이상 포함할 수 있다.
전자장치(100)는 표시영역을 표시하기 위한 디스플레이를 객체에 구현할 수 있다. 전자장치(100)는 연속된 둘 이상의 면을 가지도록 디스플레이를 구성할 수 있다. 전자장치(100)는 디스플레이 뒤 공간 및 공간에 구현된 적어도 하나의 객체를 디스플레이에 출력할 수 있다.
전자장치(100)는 사용자 캐릭터의 동작에 기반하여 표시된 표시영역을 스크롤링할 수 있다. 전자장치(100)는 스크롤링 동작에 기반하여 지정된 영역(또는 위치)에 표시된 표시영역 외 나머지 표시영역, 즉, 지정된 영역을 벗어나는 표시영역들은 제거 또는 숨김 처리할 수 있고, 새로운 표시영역들을 표시할 수 있다.
505 단계에서, 전자장치(100)는 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 가상공간에서 적어도 하나의 표시영역에 대하여 지정된 영역에 출력한다.
전자장치(100)는 표시영역 각각에 대하여 특정 컨텐츠를 표시할 수 있다. 여기서, 각각의 컨텐츠는 다중 채널 스트리밍 컨텐츠로 구성될 수 있다. 전자장치(100)는 각각의 표시영역을 통하여 다양한 컨텐츠를 표시하며, 표시영역들 중 선택된 표시영역의 컨텐츠와 관련된 정보를 별도의 표시영역에 표시할 수 있다.
또한, 전자장치(100)는 선택된 표시영역의 컨텐츠에 대하여 지정된 상품을 구현할 수 있다. 예를 들면, 전자장치(100)는 선택된 표시영역의 컨텐츠에 대하여 지정된 상품을 상품의 질감, 기능, 움직임 중 적어도 하나에 있어서, 시각적, 촉각적, 청각적 특징을 활용하여 3D(3 dimensional) 이미지로 구현할 수 있다.
전자장치(100)는 505 단계를 수행하면 도 5의 동작을 종료할 수 있다.
본 발명의 일 실시 예에 따르면, 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계; 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계; 및 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계;를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법을 개시한다.
여기서, 메타버스에 기반하여 컨텐츠를 표시하는 방법은, 상기 사용자 캐릭터의 동작으로 상기 둘 이상의 표시영역 중 하나의 표시영역을 선택하는 단계; 및 선택된 상기 하나의 표시영역의 지정된 컨텐츠를 상기 가상공간에서 상기 하나의 표시영역에 대하여 지정된 영역에 구현하고, 상기 하나의 표시영역의 지정된 컨텐츠에 대한 정보를 출력하는 단계;를 더 포함할 수 있다.
여기서, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는, 상기 가상공간에 구현된, 연결된 적어도 둘 이상의 면을 가지는 디스플레이를 통하여 상기 적어도 둘 이상의 표시영역을 출력할 수 있다.
여기서, 상기 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계는, 상기 가상공간에 구현된, 적어도 하나의 면을 가지는 디스플레이를 통하여 상기 디스플레이 뒤 공간 및 상기 공간에 구현된 적어도 하나의 객체를 출력할 수 있다.
여기서, 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계는, 상기 지정된 컨텐츠에 대하여 지정된 객체를 상기 객체의 질감, 기능, 움직임 중 적어도 하나에 있어서, 시각적, 촉각적, 청각적 특징 중 적어도 하나에 기반하여 3D(3 dimensional) 이미지로 구현할 수 있다.
여기서, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는, 상기 사용자 캐릭터로부터 지정된 위치에 출력할 수 있다.
여기서, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는, 상기 가상공간에 구현된, 적어도 하나의 면을 가지는 복수의 디스플레이를 구현하는 단계, 상기 사용자 캐릭터의 위치를 확인하는 단계; 및 상기 복수의 디스플레이 중 상기 사용자 캐릭터의 위치에 기반하여 지정된 디스플레이에 상기 적어도 둘 이상의 표시영역을 출력하는 단계; 를 포함할 수 있다.
본 발명의 다양한 실시 예에 따르면, 적어도 하나의 외부장치와 통신하는 통신부; 상기 통신부를 통하여 송수신하는 데이터를 저장하는 저장부; 및 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하고, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하며, 및 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간에서 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 처리부를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 전자장치를 개시한다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상공간에 가상의 객체를 출력함으로써, 사용자로 하여금 현실의 이동 없이 객체의 정보를 현실감 있게 확인할 수 있다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상의 객체를 출력함으로써, 사용자로 하여금 큰 비용 없이 안전하게 특정 상황에 대한 경험을 제공할 수 있다.
본 발명의 다양한 실시 예에 따르면, 메타버스에 기반하여 가상공간에서 가상의 객체를 출력함으로써 가상공간에서 사용자에게 현실과 같은 컨텐츠의 체험을 제공함으로써, 사업자는 컨텐츠를 통한 수익 향상을 이룰 수 있다.
이상과 같이 실시 예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다. 그러므로, 다른 구현들, 다른 실시 예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다 해야 할 것이다.
100: 전자장치 110: 처리부
120: 저장부 130: 통신부

Claims (8)

  1. 메타버스에 기반하여 컨텐츠를 표시하는 방법에 있어서,
    사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계;
    상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계; 및
    상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계;를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  2. 제1항에 있어서,
    상기 사용자 캐릭터의 동작으로 상기 둘 이상의 표시영역 중 하나의 표시영역을 선택하는 단계; 및
    선택된 상기 하나의 표시영역의 지정된 컨텐츠를 상기 가상공간에서 상기 하나의 표시영역에 대하여 지정된 영역에 구현하고, 상기 하나의 표시영역의 지정된 컨텐츠에 대한 정보를 출력하는 단계;를 더 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  3. 제1항에 있어서,
    상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는,
    상기 가상공간에 구현된, 연결된 적어도 둘 이상의 면을 가지는 디스플레이를 통하여 상기 적어도 둘 이상의 표시영역을 출력하는 것을 특징으로 하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  4. 제1항에 있어서,
    상기 사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하는 단계는,
    상기 가상공간에 구현된, 적어도 하나의 면을 가지는 디스플레이를 통하여 상기 디스플레이 뒤 공간 및 상기 공간에 구현된 적어도 하나의 객체를 출력하는 것을 특징으로 하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  5. 제1항에 있어서,
    상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간의 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 단계는,
    상기 지정된 컨텐츠에 대하여 지정된 객체를 상기 객체의 질감, 기능, 움직임 중 적어도 하나에 있어서, 시각적, 촉각적, 청각적 특징 중 적어도 하나에 기반하여 3D(3 dimensional) 이미지로 구현하는 것을 특징으로 하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  6. 제1항에 있어서,
    상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는,
    상기 사용자 캐릭터로부터 지정된 위치에 출력하는 것을 특징으로 하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  7. 제1항에 있어서,
    상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하는 단계는,
    상기 가상공간에 구현된, 적어도 하나의 면을 가지는 복수의 디스플레이를 구현하는 단계,
    상기 사용자 캐릭터의 위치를 확인하는 단계; 및
    상기 복수의 디스플레이 중 상기 사용자 캐릭터의 위치에 기반하여 지정된 디스플레이에 상기 적어도 둘 이상의 표시영역을 출력하는 단계; 를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 방법.
  8. 메타버스에 기반하여 컨텐츠를 표시하는 전자장치에 있어서,
    적어도 하나의 외부장치와 통신하는 통신부;
    상기 통신부를 통하여 송수신하는 데이터를 저장하는 저장부; 및
    사용자와 연결된 가상공간 및 사용자 캐릭터를 구현하고, 상기 사용자 캐릭터의 동작에 기반하여 상기 가상공간의 지정된 위치에 각각 특정 컨텐츠를 포함하는 적어도 둘 이상의 표시영역을 출력하며, 및 상기 둘 이상의 표시영역 중 적어도 하나의 표시영역의 제어에 기반하여 지정된 컨텐츠를 상기 가상공간에서 상기 적어도 하나의 표시영역에 대하여 지정된 영역에 출력하는 처리부를 포함하는, 메타버스에 기반하여 컨텐츠를 표시하는 전자장치.

    .
KR1020210182451A 2021-12-20 2021-12-20 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치 KR20230093643A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210182451A KR20230093643A (ko) 2021-12-20 2021-12-20 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210182451A KR20230093643A (ko) 2021-12-20 2021-12-20 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치

Publications (1)

Publication Number Publication Date
KR20230093643A true KR20230093643A (ko) 2023-06-27

Family

ID=86947187

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210182451A KR20230093643A (ko) 2021-12-20 2021-12-20 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치

Country Status (1)

Country Link
KR (1) KR20230093643A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612320B1 (ko) * 2023-06-28 2023-12-08 가천대학교 산학협력단 멀티모달 기반 메타버스 환경 구현 시스템, 방법, 및컴퓨터-기록가능 매체
KR102612321B1 (ko) * 2023-06-28 2023-12-08 가천대학교 산학협력단 멀티모달 기반 메타버스 상 npc동작 구현 시스템, 방법,및 컴퓨터-기록가능 매체

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102612320B1 (ko) * 2023-06-28 2023-12-08 가천대학교 산학협력단 멀티모달 기반 메타버스 환경 구현 시스템, 방법, 및컴퓨터-기록가능 매체
KR102612321B1 (ko) * 2023-06-28 2023-12-08 가천대학교 산학협력단 멀티모달 기반 메타버스 상 npc동작 구현 시스템, 방법,및 컴퓨터-기록가능 매체

Similar Documents

Publication Publication Date Title
US11823256B2 (en) Virtual reality platform for retail environment simulation
US11531791B2 (en) Virtual reality immersion with an architectural design software application
US9524482B2 (en) Retail space planning system
US20130179841A1 (en) System and Method for Virtual Touring of Model Homes
KR20230093643A (ko) 메타버스에 기반하여 컨텐츠를 표시하는 방법 및 그 전자장치
KR20210040474A (ko) 거울 메타포를 사용한 원격 몰입 경험 제공
EP2930671A1 (en) Dynamically adapting a virtual venue
Marner et al. Large scale spatial augmented reality for design and prototyping
Kersten et al. The historic wooden model of Solomon’s Temple: 3D recording, modelling and immersive virtual reality visualisation
US20220245888A1 (en) Systems and methods to generate an interactive environment using a 3d model and cube maps
CN107783648B (zh) 互动方法及系统
CN106327300A (zh) 在虚拟现实环境中的商品定制方法及装置
US20190311538A1 (en) Method and system for mapping of products to architectural design in real time
Park et al. DesignAR: Portable projection-based AR system specialized in interior design
Blach Virtual reality technology-an overview
US20230206530A1 (en) Importation and transformation tool for utilizing computer-aided design files in a web browser or customized client interface
Rosenblum et al. VR reborn
KR20200000288A (ko) 가상현실 모델하우스 운영시스템 및 운영방법
Horst et al. The shared view paradigm in asymmetric virtual reality setups
Petridis et al. The EPOCH multimodal interface for interacting with digital heritage artefacts
Peake et al. The virtual experiences portals—a reconfigurable platform for immersive visualization
Peinl et al. Presence in VR Experiences—An Empirical Cost–Benefit Analysis
Vodilka et al. Designing a Workplace in Virtual and Mixed Reality Using the Meta Quest VR Headset
Brown et al. Towards a service framework for remote sales support via augmented reality
Sjöström Virtual reality as a sales tool for industrial companies