KR20240062353A - 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 - Google Patents
가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 Download PDFInfo
- Publication number
- KR20240062353A KR20240062353A KR1020220142797A KR20220142797A KR20240062353A KR 20240062353 A KR20240062353 A KR 20240062353A KR 1020220142797 A KR1020220142797 A KR 1020220142797A KR 20220142797 A KR20220142797 A KR 20220142797A KR 20240062353 A KR20240062353 A KR 20240062353A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- multimedia content
- signal
- virtual space
- external electronic
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000004044 response Effects 0.000 claims abstract description 56
- 238000004891 communication Methods 0.000 claims abstract description 33
- 230000000007 visual effect Effects 0.000 claims description 80
- 230000009471 action Effects 0.000 claims description 42
- 230000015654 memory Effects 0.000 claims description 39
- 230000008859 change Effects 0.000 claims description 12
- 230000003993 interaction Effects 0.000 claims description 10
- 230000033001 locomotion Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 description 14
- 238000012545 processing Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 2
- 238000007667 floating Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 244000035744 Hura crepitans Species 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L51/00—User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
- H04L51/21—Monitoring or handling of messages
- H04L51/224—Monitoring or handling of messages providing notification on incoming messages, e.g. pushed notifications of received messages
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Architecture (AREA)
- Health & Medical Sciences (AREA)
- Economics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Strategic Management (AREA)
- General Business, Economics & Management (AREA)
- Information Transfer Between Computers (AREA)
Abstract
일 실시예에 따른, 전자 장치의 프로세서는, 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 통신 회로를 통해 연결된 외부 전자 장치로, 상기 외부 전자 장치에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호를 송신하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호를 수신하는 것에 기반하여 상기 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를 제공하도록, 구성될 수 있다.
Description
본 개시(present disclosure)는 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법에 관한 것이다.
통신 기술의 발전에 의하여, 네트워크를 통해 송신되는 정보의 타입이 다양화되고(diversified) 있다. 네트워크를 이용하여, 물리적으로 분리된 사용자들 사이의 정보의 교환을 지원하기 위한 서비스가, 상기 사용자들 각각에 의해 소유되는 전자 장치들, 및 상기 전자 장치들 각각에 연결된 다른 전자 장치(에, 서버)를 통해 제공될 수 있다.
일 실시예(an embodiment)에 따른, 전자 장치는, 통신 회로, 하나 이상의 센서들, 디스플레이, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 상기 통신 회로를 통해 연결된 외부 전자 장치로, 상기 외부 전자 장치에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호를 송신하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호를 수신하는 것에 기반하여 상기 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션에 의하여 실행가능한 상태 내에서, 상기 제2 신호 내에 포함된 정보를 제공하도록, 구성될 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치 내 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 상기 전자 장치 내 통신 회로를 통해 연결된 외부 전자 장치로, 상기 외부 전자 장치에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호를 송신하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호를 수신하는 것에 기반하여 상기 전자 장치 내 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를 제공하는 동작을 포함할 수 있다.
일 실시예에 따른, 전자 장치(electronic device)는, 통신 회로, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 통신 회로를 통하여 외부 전자 장치로부터, 상기 전자 장치에 의해 제공되는 가상 공간과 관련된 정보를 요청하기 위한 제1 신호를 수신하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 신호에 의해 지시되고, 상기 외부 전자 장치에 의해 탐지된 지정된 이벤트에 기반하여, 상기 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 전자 장치로, 상기 가상 공간과 관련된 제1 어플리케이션과 상이한 제2 어플리케이션을 이용하여 상기 획득된 정보를 제공하기 위한 제2 신호를 송신하도록, 구성될 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치 내 통신 회로를 통하여 외부 전자 장치로부터, 상기 전자 장치에 의해 제공되는 가상 공간과 관련된 정보를 요청하기 위한 제1 신호를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 신호에 의하여 지시되고(indicated by), 상기 외부 전자 장치에 의해 탐지된 지정된 이벤트에 기반하여, 상기 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 전자 장치로, 상기 가상 공간과 관련된 제1 어플리케이션과 상이한 제2 어플리케이션을 이용하여 상기 획득된 정보를 제공하기 위한 제2 신호를 송신하는 동작을 포함할 수 있다.
도 1은, 일 실시예에 따른, 서버를 통해 메타버스 서비스를 제공받는 제1 실시예 환경에 대한 예시도이다.
도 2는, 일 실시예에 따른, 사용자 단말들 및 제2 단말의 직접 연결을 통해 메타버스 서비스를 제공받는 제2 실시예 환경에 대한 예시도이다.
도 3은, 일 실시예에 따른, 전자 장치가, 전자 장치에 의해 식별된 이벤트에 기반하여, 가상 공간 내에서 상기 이벤트와 관련된 정보를 획득하는 동작의 일 예를 도시한다.
도 4는, 일 실시예에 따른, 전자 장치, 및 외부 전자 장치의 블록도의 일 예를 도시한다.
도 5는, 일 실시예에 따른, 전자 장치를 포함하는 단말에 의하여 액세스가능한(accessible) 가상 공간의 일 예를 도시한다.
도 6은, 일 실시예에 따른, 전자 장치가, 전자 장치의 위치에 기반하여, 가상 공간에 대한 정보를 획득하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른, 전자 장치가 가상 공간에 대한 정보에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다.
도 8은, 일 실시예에 따른, 전자 장치가, 가상 공간의 적어도 일부분을 포함하는 멀티미디어 콘텐트를 획득하는 동작의 일 예를 도시한다.
도 9는, 일 실시예에 따른, 전자 장치가, 가상 공간과 관련된 멀티미디어 콘텐트를 표시하는 UI의 일 예를 도시한다.
도 10은, 일 실시예에 따른, 전자 장치가, 가상 공간과 관련된 멀티미디어 콘텐트를 표시하는 UI의 일 예를 도시한다.
도 11은, 일 실시예에 따른, 전자 장치, 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다.
도 12는, 일 실시예에 따른, 전자 장치의 흐름도의 일 예를 도시한다.
도 13은, 일 실시예에 따른, 전자 장치의 흐름도의 일 예를 도시한다.
도 2는, 일 실시예에 따른, 사용자 단말들 및 제2 단말의 직접 연결을 통해 메타버스 서비스를 제공받는 제2 실시예 환경에 대한 예시도이다.
도 3은, 일 실시예에 따른, 전자 장치가, 전자 장치에 의해 식별된 이벤트에 기반하여, 가상 공간 내에서 상기 이벤트와 관련된 정보를 획득하는 동작의 일 예를 도시한다.
도 4는, 일 실시예에 따른, 전자 장치, 및 외부 전자 장치의 블록도의 일 예를 도시한다.
도 5는, 일 실시예에 따른, 전자 장치를 포함하는 단말에 의하여 액세스가능한(accessible) 가상 공간의 일 예를 도시한다.
도 6은, 일 실시예에 따른, 전자 장치가, 전자 장치의 위치에 기반하여, 가상 공간에 대한 정보를 획득하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른, 전자 장치가 가상 공간에 대한 정보에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다.
도 8은, 일 실시예에 따른, 전자 장치가, 가상 공간의 적어도 일부분을 포함하는 멀티미디어 콘텐트를 획득하는 동작의 일 예를 도시한다.
도 9는, 일 실시예에 따른, 전자 장치가, 가상 공간과 관련된 멀티미디어 콘텐트를 표시하는 UI의 일 예를 도시한다.
도 10은, 일 실시예에 따른, 전자 장치가, 가상 공간과 관련된 멀티미디어 콘텐트를 표시하는 UI의 일 예를 도시한다.
도 11은, 일 실시예에 따른, 전자 장치, 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다.
도 12는, 일 실시예에 따른, 전자 장치의 흐름도의 일 예를 도시한다.
도 13은, 일 실시예에 따른, 전자 장치의 흐름도의 일 예를 도시한다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
메타버스는 '가상', '초월' 등을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회·경제·문화 활동이 이뤄지는 3차원의 가상세계를 가리킨다. 메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 사회·문화적 활동을 할 수 있다는 특징이 있다.
이와 같은 메타버스 서비스는 적어도 2가지 형태로 제공될 수 있다. 첫번째는 서버를 이용하여 사용자에게 서비스가 제공되는 것이고, 두번째는 사용자 간의 개별 접촉을 통해 서비스가 제공되는 것이다.
도 1은 서버(110)를 통해 메타버스 서비스를 제공받는 제 1 실시예 환경(101)에 대한 예시도이다.
도 1을 보면, 제 1 실시예 환경(101)은, 메타버스 서비스를 제공하는 서버(110), 서버(110)와 각각의 사용자 단말(예, 제1 단말(120-1), 및 제2 단말(120-2)을 포함하는 사용자 단말(120))을 연결하는 네트워크(예, AP(access point), 및/또는 기지국을 포함하는 적어도 하나의 중간 노드(130)에 의해 형성된 네트워크), 네트워크를 통해 서버로 접속하여 사용자에게 메타버스 서비스에 입출력을 함으로써 서비스를 이용하게 하는 사용자 단말로 구성된다.
이 때, 서버(110)는 가상 공간을 제공하여 사용자 단말(120)이 가상 공간에서 활동을 할 수 있도록 한다. 또한, 사용자 단말(120)은 서버(110)가 제공하는 가상 공간에 접속하기 위한 S/W 에이전트를 설치하여 서버(110)가 사용자에게 제공하는 정보를 표현하거나, 사용자가 가상 공간에서 표현하고자 하는 정보를 서버로 전송한다.
상기 S/W 에이전트는 서버(110)를 통해서 직접 제공받거나, 공용 서버로부터 다운로드받거나, 단말 구매시에 임베딩(embedded)되어 제공될 수 있다.
도 2는 사용자 단말들(예, 제1 단말(120-1) 및 제2 단말(120-2))의 직접 연결을 통해 메타버스 서비스를 제공받는 제 2 실시예 환경(102)에 대한 예시도이다.
도 2를 보면, 제 2 실시예 환경(102)은, 메타버스 서비스를 제공하는 제 1 단말(120-1), 각각의 사용자 단말을 연결하는 네트워크(예, 적어도 하나의 중간 노드(130)에 의해 형성된 네트워크), 네트워크를 통해 제 1 단말(120-1)과 접속하여 제 2 사용자에게 메타버스 서비스에 입출력을 함으로써 서비스를 이용하게 하는 제 2 단말(120-2)로 구성된다.
제 2 실시예는 제 1 실시예에서 서버(예, 도 1의 서버(110))의 역할을 제 1 단말(120-1)이 수행함으로써 메타버스 서비스를 제공하는 것을 특징으로 한다. 즉, 디바이스와 디바이스의 연결만으로 메타버스 환경을 구성할 수 있음을 알 수 있다.
제 1 실시예와 제 2 실시예에서, 사용자 단말(120)(혹은 제 1 단말(120-1), 제 2 단말(120-2)을 포함하는 사용자 단말(120))은 다양한 폼팩터로 만들어질 수 있으며, 사용자에게 영상 또는/및 소리를 제공하는 출력 장치와 메타버스 서비스에 정보를 입력하기 위한 입력 장치를 포함하는 것을 특징으로 한다. 사용자 단말(120)의 다양한 폼팩터를 예시하면, 스마트폰(예, 제2 단말(120-2)), AR 기기(예, 제1 단말(120-1)), VR 기기, MR 기기, VST 기기, 입출력 가능한 TV 또는 프로젝터 등을 포함할 수 있다.
본 발명의 네트워크(예, 적어도 하나의 중간 노드(130)에 의해 형성된 네트워크)는 3G, 4G, 5G를 포함하는 다양한 광대역 네트워크와 Wifi, BT 등을 포함하는 근거리 네트워크(예, 제1 단말(120-1), 및 제2 단말(120-2)을 직접적으로 연결하는 유선 네트워크 또는 무선 네트워크)를 다 포함한다.
도 3은, 일 실시예에 따른, 전자 장치(302)가, 전자 장치(302)에 의해 식별된 이벤트에 기반하여, 가상 공간(320) 내에서 상기 이벤트와 관련된 정보를 획득하는 동작의 일 예를 도시한다. 도 3은 네트워크에 기반하여 서로 연결된 복수의 전자 장치들을 도시한 도면이다. 도 3을 참고하면, 전자 장치(302), 및 외부 전자 장치(304)가 유선 네트워크 및/또는 무선 네트워크에 기반하여 서로 연결된 예시적인 상황이 도시된다. 전자 장치(302), 및 외부 전자 장치(304)에 포함된 하드웨어 컴포넌트는 도 4를 참고하여 설명한다. 전자 장치(302)의 관점에서, 전자 장치(304)가 외부 전자 장치(304)로 지칭될(referred as) 수 있다. 실시예가 이에 제한되는 것은 아니다. 예를 들어, 외부 전자 장치(304)가 전자 장치(304)로 지칭되는 경우, 전자 장치(302)는 외부 전자 장치(302)로 지칭될 수 있다. 상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(bluetooth low-energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록 전자 장치(302), 및 외부 전자 장치(304)가 직접적으로 연결된(directly connected) 것으로 도시되었으나, 전자 장치(302), 및 외부 전자 장치(304)는 중간 노드(예, 도 1 내지 도 2의 중간 노드(130))를 통해 간접적으로 연결될 수 있다.
도 3을 참고하면, 전자 장치(302)는 단말(terminal)일 수 있다. 단말은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(personal computer, PC), 스마트폰(smartphone), 스마트패드(smartpad), 및/또는 태블릿 PC를 포함할 수 있다. 단말은, 스마트워치(smartwatch), 및/또는 HMD(head-mounted device)와 같은 스마트액세서리를 포함할 수 있다. 소유자의 관점에서(in terms of), 전자 장치(302)는 사용자 단말로 지칭될(referred as) 수 있다. 도 3의 전자 장치(302)는, 도 1 내지 도 2의 사용자 단말(120)을 포함할 수 있다. 전자 장치(302)의 사용자(310)는 외부 전자 장치(304)에 의해 제공되는 서비스의 가입자(subscriber)일 수 있다.
도 3을 참고하면, 외부 전자 장치(304)는, 서비스 제공자의 서버를 포함할 수 있다. 서버는, 하나 이상의 PC 및/또는 워크스테이션을 포함할 수 있다. 외부 전자 장치(304)는, 메타버스 서비스를 제공하는 서버, 예를 들어, 도 1의 서버(110)를 포함할 수 있다. 외부 전자 장치(304)는, 메타버스 서비스에 기반하여, 물리적으로 분리된 사용자들 사이의 상호연결성(interconnectivity)을 강화하기 위한 적어도 하나의 기능을 실행할 수 있다. 예를 들어, 외부 전자 장치(304)는, 외부 전자 장치(304)에 연결된 상이한 단말들에 의해 액세스가능한(accessible) 가상 공간(320)을 이용하여, 상기 단말들의 사용자들(예, 사용자(310))의 상호연결성을 강화할 수 있다. 외부 전자 장치(304) 내에, 3차원 좌표계에 기반하여 하나 이상의 가상 객체들을 포함하는 가상 공간(320)을 표시하기 위한 정보가 저장될 수 있다.
일 실시예에 따른, 전자 장치(302)는, 외부 전자 장치(304)에 의해 제공되는 가상 공간(320)으로 액세스하기 위한 기능을 실행할 수 있다. 전자 장치(302)는, 사용자(310)로부터 가상 공간(320)으로 액세스함을 지시하는 입력을 식별할 수 있다. 상기 입력에 응답하여, 전자 장치(302)는 외부 전자 장치(304)로 가상 공간(320)의 적어도 일부분과 관련된 정보를 획득할 수 있다. 가상 공간(320) 내에서, 전자 장치(302)의 사용자(310)에 대응하는 가상 객체인, 아바타(330)를 표시할 수 있다. 아바타(330)의 형태, 크기, 및/또는 가상 공간(320) 내 위치 중 적어도 하나는, 사용자(310)에 대응하고, 외부 전자 장치(304) 내에 저장된, 사용자 정보(예, 계정 정보(account information))에 의하여 설정(set by)될 수 있다. 외부 전자 장치(304)는 전자 장치(302)로, 아바타(330)가 배치된 가상 공간(320)의 일부분을 표시하기 위한 정보를 송신할 수 있다. 전자 장치(302)는 외부 전자 장치(304)로, 아바타(330)를 제어하기 위한 정보를 송신할 수 있다. 외부 전자 장치(304)는 외부 전자 장치(304)로부터 송신된 상기 정보에 기반하여, 가상 공간(320) 내에서 아바타(330)의 형태, 크기, 및/또는 위치를 변경할 수 있다. 외부 전자 장치(304)는 가상 공간(320) 내에서 수행된 아바타(330)의 액션을 모니터링, 및/또는 저장할 수 있다. 가상 공간(320) 내 아바타(330)의 액션이 모니터링, 및/또는 저장되는 예시적인 동작이 도 5를 참고하여 설명된다.
일 실시예에 따른, 전자 장치(302)는, 아바타(330)에 대응하는 사용자(310)의 제1 액션을, 가상 공간(320) 내에서 수행된 아바타(330)의 제2 액션과 연계하여(by linking), 사용자(310)에게 가상 공간(320), 및 실제 공간(real space)의 경계없는(borderless) 사용자 경험을 제공할 수 있다. 예를 들어, 상기 제1 액션에 기반하여, 아바타(330)가 실제 공간 내에서 지리적으로 특정된(geographically specified) 장소(place)와 연계된 가상 공간(320)의 일부분으로 이동된 경우, 전자 장치(302)는, 사용자(310)에 이동된 전자 장치(302)의 위치가 상기 장소 내에 포함되는지 여부에 기반하여, 상기 일부분과 관련된 기능을 실행할 수 있다. 도 3을 참고하면, 실제 공간 내에서 지리적으로 특정된 상기 장소와 연계된 상기 가상 공간(320)의 상기 일부분은, 스토어(350)와 같이, 실제 공간의 스토어와 연계된 가상 객체를 포함할 수 있다. 가상 공간(320) 내 아바타(330)가 전자 장치(302)에 의해 제어됨에 따라, 스토어(350)로 이동되는 경우, 외부 전자 장치(304)는 스토어(350)에 대한 아바타(330)의 액션을 저장할 수 있다. 전자 장치(302)가 스토어(350)와 연계된 실제 공간의 스토어 안으로 진입함을 식별하는 것에 기반하여, 외부 전자 장치(304)는 전자 장치(302)로, 아바타(330)의 상기 저장된 액션과 관련된 정보를 송신할 수 있다. 전자 장치(302)는, 상기 정보에 기반하여, 실제 공간의 스토어와 연계된 가상 공간(320) 내 스토어(350)와 관련된 UI(user interface)를 표시할 수 있다. 일 실시예에 따른, 전자 장치(302)가, 가상 공간(320)의 일부분(예, 스토어(350))이 전자 장치(302)의 위치와 연계되었는지 여부에 기반하여 수행하는 동작의 일 예가, 도 6 내지 도 7을 참고하여 설명된다.
일 실시예에 따른, 전자 장치(302)는, 카메라를 제어하여 획득된 멀티미디어 콘텐트(340)(예, 이미지, 및/또는 비디오), 및 가상 공간(320)에 기반하여 생성된 멀티미디어 콘텐트를 연계로 저장할 수 있다. 예를 들어, 멀티미디어 콘텐트(340)에 대응하는 메타 데이터에 기반하여, 전자 장치(302)는 상기 멀티미디어 콘텐트(340)에 대응하고, 가상 공간(320)에 기반하여 생성된 복수의 멀티미디어 콘텐트들을 검색할 수 있다. 상기 메타 데이터는, 상기 멀티미디어 콘텐트(340)가 획득된 위치, 또는 멀티미디어 콘텐트(340) 내에 포함된 하나 이상의 사용자들 중 적어도 하나를 지시하는(indicating) 정보를 포함할 수 있다. 예를 들어, 멀티미디어 콘텐트(340)가 획득된 위치와 연계된 가상 공간(320)의 일부분에 기반하여 생성된 다른 멀티미디어 콘텐트를 식별한 전자 장치(302)는, 멀티미디어 콘텐트(340), 및 상기 다른 멀티미디어 콘텐트를 연계하여(by linking) 저장할 수 있다. 전자 장치(302)가 멀티미디어 콘텐트(340), 및 상기 다른 멀티미디어 콘텐트를 연계하여 저장하는 예시적인 동작이 도 8 내지 도 9를 참고하여 설명된다.
일 실시예에 따른, 전자 장치(302)는, 외부 전자 장치(304)로부터, 외부 전자 장치(304)에 의해 제공되는 가상 공간(320) 내에서 수행된 아바타(330)의 액션을 표현하는(representing) 정보를 수신할 수 있다. 전자 장치(302)는 가상 공간(320)의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션을 이용하여, 상기 수신된 정보에 기반하는 적어도 하나의 멀티미디어 콘텐트를 표시할 수 있다. 상기 제2 어플리케이션은, 갤러리 어플리케이션과 같이, 전자 장치(302) 내에 저장된 하나 이상의 멀티미디어 콘텐트들을 열람하기 위한(for browsing) 어플리케이션을 포함할 수 있다. 전자 장치(302)가 외부 전자 장치(304)로부터 수신한 상기 정보에 기반하여 상기 제2 어플리케이션을 통해 표시하는 상기 멀티미디어 콘텐트의 일 예가, 도 10을 참고하여 설명된다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(302)는, 가상 공간(320)과 관련된 정보를, 상기 정보의 표시, 및/또는 획득을 위한 지정된 이벤트의 발생에 기반하여, 사용자(310)에게 표시할 수 있다. 상기 지정된 이벤트는, 전자 장치(302)에 의해 탐지된 사용자(310)의 액션에 의해 발생될 수 있다. 상기 지정된 이벤트는, 전자 장치(302)가 가상 공간(320)의 적어도 일부분(예, 스토어(350))과 연계된 실제 공간의 장소로 이동되는지 여부, 및/또는 가상 공간(320)에 기반하는 멀티미디어 콘텐트를 획득할지 여부 중 적어도 하나에 의해 발생될 수 있다. 가상 공간(320)과 관련된 정보가, 전자 장치(302)에 의해 식별된 상기 지정된 이벤트의 발생에 기반하여 사용자(310)에게 표시되기 때문에, 전자 장치(302)는 가상 공간(320)과 연계된 사용자 경험을 제공할 수 있다.
이하에서는, 도 4를 참고하여, 가상 공간(320)에 기반하는 사용자 경험을 제공하기 위한 전자 장치(302), 및 외부 전자 장치(304)의 구조의 일 예가 설명된다.
도 4는, 일 실시예에 따른, 전자 장치(302), 및 외부 전자 장치(304)의 블록도의 일 예를 도시한다. 도 4의 전자 장치(302)는, 도 3의 전자 장치(302), 및 도 1 내지 도 2의 사용자 단말(120)을 포함할 수 있다. 도 4의 외부 전자 장치(304)는, 도 3의 외부 전자 장치(304), 및 도 1 내지 도 2의 서버(110)를 포함할 수 있다.
도 4를 참고하면, 전자 장치(302)는, 프로세서(410-1), 메모리(415-1), 디스플레이(420), 카메라(425), 센서(430), 또는 통신 회로(435-1) 중 적어도 하나를 포함할 수 있다. 프로세서(410-1), 메모리(415-1), 디스플레이(420), 카메라(425), 센서(430), 및 통신 회로(435-1)는 통신 버스(a communication bus)(405-1)와 같은 전자 부품(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 4의 하드웨어들 중 일부분(예, 프로세서(410-1), 메모리(415-1), 및 통신 회로(435-1)의 적어도 일부분)이 SoC(system on a chip)와 같은 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 전자 장치(302) 내에 포함된 하드웨어의 타입, 및/또는 개수는 도 4의 일 실시예에 제한되지 않는다. 예를 들어, 전자 장치(302)는 도 4에 도시된 하드웨어들 중 일부분만 포함하거나, 도 4 내에 도시되지 않은 하드웨어를 더 포함할 수 있다.
일 실시예에 따른, 전자 장치(302) 내 프로세서(410-1)는, 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit), 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(410-1)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(410-1)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.
일 실시예에 따른, 전자 장치(302) 내 메모리(415-1)는 프로세서(410-1)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어를 포함할 수 있다. 메모리(415-1)는, 예를 들어, RAM(random-access memory)과 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)과 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른, 전자 장치(302) 내 디스플레이(420)는 사용자에게 시각화된 정보(예를 들어, 도 7, 도 9, 및/또는 도 10의 화면들 중 적어도 하나)를 출력할 수 있다. 예를 들어, 디스플레이(420)는, 프로세서(410-1), 및/또는 GPU(graphic processing unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(420)는 FPD(flat panel display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(liquid crystal display), PDP(plasma display panel) 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는 OLED(organic LED)를 포함할 수 있다.
일 실시예에 따른, 전자 장치(302) 내 디스플레이(420)는, 디스플레이(420) 상의 외부 객체(예, 사용자의 손가락)를 탐지하기 위한 센서(예, TSP(touch sensor panel))를 포함할 수 있다. 예를 들어, TSP에 기반하여, 전자 장치(302)는 디스플레이(420)와 접촉되거나, 또는 디스플레이(420) 상을 부유하는(floating) 외부 객체를 탐지할 수 있다. 상기 외부 객체를 탐지하는 것에 응답하여, 전자 장치(302)는 디스플레이(420) 내에 표시되고 있는 시각적 객체들 중에서, 상기 외부 객체가 탐지된 상기 디스플레이(420) 상의 위치에 대응하는 특정 시각적 객체와 관련된 기능을 실행할 수 있다.
일 실시예에 따른, 전자 장치(302) 내 카메라(425)는 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 카메라(425) 내 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(425)는 복수의 광 센서들 각각의 전기 신호들을 실질적으로 동시에(substantially simultaneously) 획득하여, 2차원 격자의 상기 광 센서들에 도달한 빛에 대응하는 2차원 프레임을 생성할 수 있다. 예를 들어, 카메라(425)를 이용하여 캡쳐한 사진 데이터는 카메라(425)로부터 획득한 하나의 2차원 프레임을 의미할 수 있다. 예를 들어, 카메라(425)를 이용하여 캡쳐한 비디오 데이터는 카메라(425)로부터 획득한 복수의 2차원 프레임들의 시퀀스(sequence)를 의미할 수 있다. 상기 시퀀스는, 지정된 프레임율(frame rate)을 따라 주기적으로 획득된 프레임들을 포함할 수 있다. 도 3의 멀티미디어 콘텐트(340)는 상기 예시된 사진 데이터, 및/또는 비디오 데이터를 포함할 수 있다. 카메라(425)는, 빛을 수신하는 방향을 향하여 배치되고, 상기 방향으로 빛을 출력하기 위한 플래시 라이트를 더 포함할 수 있다. 빛을 탐지하는 관점에서, 카메라(425)는 이미지 센서로 지칭되거나, 또는 센서(430)의 일부로 포함될 수 있다.
일 실시예에 따른, 전자 장치(302) 내 센서(430)는 전자 장치(302)와 관련된 비-전기적 정보(non-electronic information)로부터, 전자 장치(302)의 프로세서(410-1), 및/또는 메모리(415-1)에 의해 처리될 수 있는 전기적 정보를 생성할 수 있다. 예를 들어, 센서(430)는 전자 장치(302)의 지리적 위치(geographic location)를 탐지하기 위한 GPS(global positioning system) 센서를 포함할 수 있다. 상기 GPS 방식 외에도, 센서(430)는, 예를 들어, 갈릴레오(galileo), 베이더우(beidou, compass)와 같은 GNSS(global navigation satellite system)에 기반하여 전자 장치(302)의 지리적 위치를 나타내는 정보를 생성할 수 있다. 상기 정보는, 전자 장치(302) 내 메모리(415-1)에 저장되거나, 전자 장치(302) 내 프로세서(410-1)에 의해 처리되거나, 및/또는 전자 장치(302) 내 통신 회로(435-1)를 통하여 외부 전자 장치(304)로 송신될 수 있다. 전자 장치(302) 내에 포함된 센서(430)의 타입, 및/또는 개수는 상술한 바에 제한되지 않는다. 예를 들어, 센서(430)는, 빛을 포함하는 전자기파를 탐지하기 위한 이미지 센서, 조도 센서, ToF(time-of-flight) 센서, 및/또는 IMU(inertia measurement unit)를 포함할 수 있다.
일 실시예에서, 센서(430) 내에 포함된 IMU는, 가속도 센서, 자이로 센서, 지자기 센서, 또는 이들의 조합(or a combination thereof)을 포함할 수 있다. 가속도 센서는, 서로 수직인 복수의 축들(예, x축, y축 및 z축)을 따라 상기 가속도 센서로 적용되는(applied to) 중력 가속도의 방향, 및/또는 크기를 나타내는 데이터를 출력할 수 있다. 자이로 센서는, 상기 복수의 축들 각각의 회전을 나타내는 데이터를 출력할 수 있다. 지자기 센서는, 상기 지자기 센서가 포함된 자계의 방향(예, N 극, 또는 S 극의 방향)을 나타내는 데이터를 출력할 수 있다. 센서(430) 내 상기 IMU는, 전자 장치(302)의 모션을 탐지하는 관점에서, 모션 센서로 지칭될 수 있다.
일 실시예에 따른, 전자 장치(302) 내 통신 회로(435-1)는, 전자 장치(302), 및 외부 전자 장치(304) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 통신 회로(435-1)를 통해 전자 장치(302)와 연결된 다른 전자 장치로, 외부 전자 장치(304) 만이 도시되었으나, 실시예가 이에 제한되는 것은 아니다. 통신 회로(435-1)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(435-1)는, 이더넷(ethernet), LAN(local area network), WAN(wide area network), WiFi(wireless fidelity), Bluetooth, BLE(bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.
비록 도시되지 않았지만, 일 실시예에 따른, 전자 장치(302)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(302)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(302)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.
도 4를 참고하면, 일 실시예에 따른, 외부 전자 장치(304)는, 통신 버스(405-2)와 같은 전자 부품에 의해 서로 전기적으로, 및/또는 작동적으로 연결된, 프로세서(410-2), 메모리(415-1), 및 통신 회로(435-2)를 포함할 수 있다. 전자 장치(302), 및 외부 전자 장치(304) 내에서, 유사한 기능을 수행하는 하드웨어들(예, 프로세서들(410-1, 410-2), 메모리(415-1, 415-2), 및/또는 통신 회로(435-1, 435-2))이 일치된 참조 번호에 기반하여 도시될 수 있다. 전자 장치(302), 및 외부 전자 장치(304) 각각에 포함된 상기 하드웨어들의 설명이, 설명의 반복을 줄이기 위하여 생략될 수 있다.
일 실시예에 따른, 전자 장치(302)의 메모리(415-1) 내에서, 전자 장치(302)의 프로세서(410-1)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 상기 하나 이상의 인스트럭션들의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(302), 및/또는 전자 장치(302)의 프로세서(410-1)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션들의 집합(set of a plurality of instructions)이 실행될 시에, 도 11 내지 도 13의 동작들 중 적어도 하나를 수행할 수 있다. 유사하게, 외부 전자 장치(304), 및/또는 외부 전자 장치(304)의 프로세서들(410-1, 410-2)는, 복수의 인스트럭션들의 집합이 실행될 시에, 도 11의 동작을 수행할 수 있다. 이하에서, 어플리케이션이 전자 장치(예, 전자 장치(302), 및/또는 외부 전자 장치(304))에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 상기 전자 장치의 메모리 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 상기 전자 장치의 프로세서에 의해 실행 가능한(executable) 포맷(예, 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다.
도 4를 참고하면, 전자 장치(302)의 메모리(415-1), 및 외부 전자 장치(304)의 메모리(415-2) 내에 저장된 어플리케이션들(예, 제1 어플리케이션(440), 제2 어플리케이션(445), 및/또는 서버 어플리케이션(450)), 및 정보(예, 사용자 프로파일(455), 및/또는 위치 프로파일(460))의 일 예가 도시된다. 외부 전자 장치(304), 및/또는 외부 전자 장치(304)의 프로세서들(410-1, 410-2)는 서버 어플리케이션(450)의 실행에 기반하여, 가상 공간(예, 도 3의 가상 공간(320))과 관련된 기능을 실행할 수 있다. 서버 어플리케이션(450)이 실행된 상태 내에서, 외부 전자 장치(304)는, 메모리(415-2) 내에 저장된 데이터베이스(database, DB)인, 사용자 프로파일(455), 및/또는 위치 프로파일(460)에 기반하여, 메모리(415-2) 내에 상기 가상 공간을 제공하기 위한 정보를 저장할 수 있다. DB는 가상 공간의 형성을 위해 체계화된(systematized) 정보의 집합, 및/또는 상기 정보를 관리하기 위해 실행되는 어플리케이션(예, 서버 어플리케이션(450)과 상이한 데이터베이스 관리 어플리케이션(미도시)) 중 적어도 하나를 포함할 수 있다. 상기 정보의 집합에서, 서로 다른 정보가 타입, 필드, 컬럼(column), 레코드, 및/또는 테이블과 같은 단위에 기반하여 서로 조합될 수 있다. 정보의 조합은, DB 내에서 정보의 추가, 삭제, 업데이트, 및/또는 검색에 이용될 수 있다.
예를 들어, 외부 전자 장치(304)는 위치 프로파일(460)의 추가, 삭제, 및/또는 업데이트에 기반하여, 가상 공간을 형성하기 위한 정보를 저장할 수 있다. 위치 프로파일(460) 내에 저장된 정보는, 가상 공간의 상이한 일부분들에 배치된 가상 객체(예, 도 3의 스토어(350))의 형태, 및/또는 크기를 포함할 수 있다. 위치 프로파일(460) 내에 저장된 정보는, 가상 공간의 일부분, 및/또는 상기 일부분에 배치된 상기 가상 객체와 연계된 서버(예, 외부 전자 장치(304)와 상이한 또 다른 전자 장치)를 네트워크 내에서 식별하기 위한 데이터(예, IP 주소, 및/또는 URL(uniform resource identifier))를 포함할 수 있다. 위치 프로파일(460) 내에 저장된 정보는, 가상 공간의 일부분, 및/또는 상기 일부분에 배치된 상기 가상 객체와 연계된 어플리케이션을 지시하는 데이터(예, 패키지 명칭)를 포함할 수 있다. 위치 프로파일(460) 내에 저장된 정보는, 가상 공간의 일부분, 및/또는 상기 일부분에 배치된 상기 가상 객체와 연계된 실제 공간의 장소를 지시하는 데이터(예, GPS 좌표)를 포함할 수 있다.
예를 들어, 외부 전자 장치(304)는 사용자 프로파일(455)의 추가, 삭제, 및/또는 업데이트에 기반하여, 가상 공간으로 액세스한 사용자(예, 도 3의 사용자(310))에 대한 정보를 저장할 수 있다. 사용자 프로파일(455) 내에 저장되고, 특정 사용자에 대응하는 정보가, 계정 정보, 및/또는 사용자 정보로 지칭될 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 아바타(예, 도 3의 아바타(330))를, 가상 공간 내에서 시각화하기 위한 데이터를 포함할 수 있다. 아바타를 시각화하기 위한 데이터는, 상기 아바타의 형태, 및/또는 크기를 지시하기 위한 포인트 클라우드, 버텍스 데이터, 및/또는 텍스쳐 데이터를 포함할 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 사용자가 외부 전자 장치(304)와 상이한 전자 장치(302)를 이용함을 인증하기 위한 데이터(예, ID, 패스워드, 및/또는 상기 사용자를 인증하기 위한 SSO(single sign on) 데이터)를 포함할 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 사용자가 가상 공간으로 액세스하기 위해 이용하는 하나 이상의 전자 장치들(예, 전자 장치(302))의 리스트를 포함할 수 있다. 상기 리스트는, MAC 주소와 같이, 상기 하나 이상의 전자 장치들에 고유하게 할당된(uniquely assigned) 데이터를 포함할 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 사용자가 상기 가상 공간에 기반하여 수행한 액션의 이력을 포함할 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 아바타의 액션의 이력(예, 상기 아바타에 의해 수행된 액션들의 시퀀스)을 포함할 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 아바타가 가상 공간 내에서 이동된 경로를 포함할 수 있다. 사용자 정보는, 상기 사용자 정보에 대응하는 사용자에 의해 상기 가상 공간 내에서 획득된, 하나 이상의 멀티미디어 콘텐트들을 포함할 수 있다.
일 실시예에서, 서버 어플리케이션(450)이 실행된 상태 내에서, 외부 전자 장치(304)는 가상 공간으로 액세스하기 위하여 외부 전자 장치(304)와 연결되는 하나 이상의 전자 장치들(예, 전자 장치(302))을 식별할 수 있다. 전자 장치(302)는, 제1 어플리케이션(440)의 실행에 기반하여, 외부 전자 장치(304)와 통신하거나, 또는 외부 전자 장치(304)에 의해 제공되는 가상 공간으로 액세스할 수 있다. 메타버스 서비스를 위한 상기 가상 공간으로 액세스하는 관점에서, 제1 어플리케이션(440)은 메타버스 어플리케이션으로 지칭될 수 있다. 전자 장치(101) 내에서, 제1 어플리케이션(440)과 상이한 제2 어플리케이션(445)이 설치될 수 있다. 제2 어플리케이션(445)은, 서드-파티 어플리케이션을 포함할 수 있다. 상기 제1 어플리케이션(440)과 제1 어플리케이션(440)이 실행된 상태 내에서, 전자 장치(302)는 외부 전자 장치(304)와 통신하여, 외부 전자 장치(304)에 의해 제공되는 가상 공간의 적어도 일부분을 표시하기 위한 정보를 획득할 수 있다. 전자 장치(302)는 상기 획득된 정보에 기반하여, 디스플레이(420) 내에 상기 가상 공간의 적어도 일부분을 표시할 수 있다.
일 실시예에 따른, 전자 장치(302)는 하나 이상의 센서들(예, 센서(430))로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별할 수 있다. 상기 지정된 이벤트는, 전자 장치(302)의 상태의 변화에 의해 발생될 수 있다. 예를 들어, 상기 지정된 이벤트가, 전자 장치(302)의 이동(예, 사용자에 의한 전자 장치(302)의 이동)에 응답하여, 발생될 수 있다. 상기 지정된 이벤트는, 전자 장치(302), 및 사용자 사이의 상호작용(interaction)에 의해 발생될 수 있다. 예를 들어, 상기 지정된 이벤트가, 카메라(425)를 이용하여 멀티미디어 콘텐트를 획득함을 지시하는 입력(예, 촬영 입력(shooting input))에 응답하여, 발생될 수 있다. 상기 지정된 이벤트는, 외부 전자 장치(304)로부터 가상 공간과 관련된 정보를 수신하기 위하여 제1 어플리케이션(440)에 의해 설정된 조건에 기반하여, 발생될 수 있다. 상기 조건은, 외부 전자 장치(304)로부터 상기 정보를 수신하도록 예약된 시간, 및/또는 주기와 관련될 수 있다.
일 실시예에서, 지정된 이벤트의 발생을 식별하는 것에 응답하여, 전자 장치(302)는 통신 회로(435-1)를 통해 연결된 외부 전자 장치(304)로, 외부 전자 장치(304)에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호를 송신할 수 있다. 상기 제1 신호는, 상기 지정된 이벤트를 지시하는 정보를 포함할 수 있다. 상기 제1 신호는, 제1 어플리케이션(440)에 의해 구분되는, 상기 가상 공간에 액세스하거나, 또는 제1 어플리케이션(440)을 이용하기 위해 전자 장치(302)로 로그인된, 사용자를 지시하는 정보를 포함할 수 있다. 상기 제1 신호는, 예를 들어, 상기 사용자에 고유하게 할당된 ID를 포함할 수 있다.
일 실시예에 따른, 외부 전자 장치(304)는, 상기 제1 신호에 의하여 지시되고, 상기 전자 장치(302)에 의해 탐지된 지정된 이벤트에 기반하여, 가상 공간, 및 지정된 이벤트 전부와 관련된 정보를 획득할 수 있다. 상기 정보는, 전자 장치(302)의 디스플레이(420)를 통해 출력되거나, 전자 장치(302)의 메모리(415-1) 내에 저장되기 위한 멀티미디어 콘텐트를 포함할 수 있다. 상기 정보는, 전자 장치(302)의 제1 어플리케이션(440)과 상이한 제2 어플리케이션(445)의 실행을 위한 푸쉬 메시지(push message)를 포함할 수 있다. 상기 정보는, 전자 장치(302)의 사용자가 상기 사용자에 대응하는 아바타에 기반하여 가상 공간 내에서 수행한 액션과 관련될 수 있다. 외부 전자 장치(304)는, 전자 장치(302)로 가상 공간과 관련된 제1 어플리케이션(440)과 상이한 제2 어플리케이션(445)을 이용하여 상기 획득된 정보를 제공하기 위한 제2 신호를 송신할 수 있다. 외부 전자 장치(304)가 전자 장치(302)로 상기 푸쉬 메시지에 기반하는 상기 제2 신호를 송신하는 경우, 푸쉬 메시지를 송신하는 관점에서, 외부 전자 장치(304)는 푸쉬 서버로 지칭될 수 있다.
일 실시예에 따른, 전자 장치(302)는, 외부 전자 장치(304)로부터 상기 제1 신호에 대응하는 제2 신호를 수신할 수 있다. 전자 장치(302)는 상기 제2 신호를 수신하는 것에 기반하여 디스플레이(420)를 제어하여, 가상 공간의 표시를 위한 제1 어플리케이션(440)과 상이한 제2 어플리케이션(445)에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를, 제공할 수 있다. 상기 정보의 상태가 제2 어플리케이션(445)에 의하여 실행가능한 상기 상태에 포함되는 것은, 상기 정보가 전자 장치(302)의 메모리(415-1) 내에서 상기 제2 어플리케이션(445)에 의하여 액세스가능한 지정된 영역(예, 어플리케이션 샌드박스), 및/또는 파티션 내에 저장됨을 의미할 수 있다.
상술한 바와 같이, 가상 공간과 관련된 기능을 실행하기 위한 어플리케이션들(예, 제1 어플리케이션(440), 및/또는 서버 어플리케이션(450))이, 일 실시예에 따른, 전자 장치(302), 및 외부 전자 장치(304) 내에 설치될 수 있다. 서버 어플리케이션(450)의 실행에 기반하여 외부 전자 장치(304)의 메모리(415-2) 내에 누적된(accumulated), 가상 공간, 및 전자 장치(302)의 사용자 사이의 상호작용에 대한 정보가, 전자 장치(302)에 의해 식별된 상기 지정된 이벤트에 기반하여, 전자 장치(302)로 송신될 수 있다. 예를 들어, 전자 장치(302)는 상기 지정된 이벤트의 발생에 응답하여, 외부 전자 장치(304)로 상기 정보의 적어도 일부분을 요청할 수 있다. 상기 정보를 수신한 전자 장치(302)는, 메모리(415-1) 내에 상기 정보를 저장하거나, 또는 디스플레이(420) 내에 상기 정보를 표시하여, 상기 지정된 이벤트, 및 상기 가상 공간 전부와 관련된 상기 정보를, 전자 장치(302)의 사용자에게 제공할 수 있다.
이하에서는, 도 5를 참고하여, 일 실시예에 따른, 전자 장치(302)의 사용자가 외부 전자 장치(304)에 의해 제공되는 가상 공간으로 액세스하는 동작의 일 예가 설명된다.
도 5는, 일 실시예에 따른, 전자 장치(302)를 포함하는 단말에 의하여 액세스가능한(accessible) 가상 공간(320)의 일 예를 도시한다. 도 5의 전자 장치(302), 및 외부 전자 장치(304)는, 도 3 내지 도 4의 전자 장치(302), 및 외부 전자 장치(304)의 일 예일 수 있다. 예를 들어, 도 4의전자 장치(302), 및 외부 전자 장치(304)는 도 5의 전자 장치(302), 및 외부 전자 장치(304)를 포함할 수 있다. 도 5의 외부 전자 장치(304)는, 도 3의 가상 공간(320)을 제공하기 위한 서버일 수 있다.
도 5를 참고하면, 사용자(310)에 의해 소유되는 사용자 단말(예, 도 1 내지 도 2의 사용자 단말(120))은, 전자 장치(302), 및 HMD(510)를 포함할 수 있다. 사용자(310)는, 전자 장치(302), 및/또는 HMD(510) 중 어느 하나를 선택하여, 외부 전자 장치(304)에 의해 제공되는 가상 공간(320)으로 액세스할 수 있다. 예를 들어, 사용자(310)는 HMD(510)를 착용한 상태 내에서, HMD(510) 내에 설치된 어플리케이션(예, 도 4의 제1 어플리케이션(440))을 실행하여, 가상 공간(320)으로 액세스하기 위한 정보(예, 사용자(310)를 인증하기 위한 정보)를 입력할 수 있다. 상기 정보에 기반하여, HMD(510)는 외부 전자 장치(304)로, 가상 공간(320)의 적어도 일부분을 표시하기 위한 정보를 요청할 수 있다.
일 실시예에 따른, 외부 전자 장치(304)는 상기 요청에 응답하여, 가상 공간(320) 내에 상기 사용자(310)에 대응하는 아바타(330)를 식별할 수 있다. 외부 전자 장치(304)는 서버 어플리케이션(예, 도 4의 서버 어플리케이션(450))의 실행에 기반하여, 가상 공간(320) 내에 아바타(330)를 추가하기 위한 정보(예, 도 4의 사용자 프로파일(455)의 적어도 일부분)를 식별할 수 있다. 상기 식별된 정보에 기반하여, 외부 전자 장치(304)는 가상 공간(320) 내에 아바타(330)를 추가할 수 있다. 외부 전자 장치(304)는 HMD(510)로, 아바타(330)가 배치된 가상 공간(320)의 적어도 일부분을 표시하기 위한 정보를 송신할 수 있다. HMD(510)는, 상기 정보를 수신하는 것에 기반하여 사용자(310)에게, 아바타(330)의 관점에 기반하는 가상 공간(320)의 적어도 일부분을 출력할 수 있다.
일 실시예에 따른, HMD(510)는, 아바타(330)를 제어함을 지시하는 입력을 식별할 수 있다. HMD(510)에 의해 탐지된 사용자(310)의 모션은, 아바타(330)를 제어함을 지시하는 입력을 포함할 수 있다. 가상 공간(320)의 적어도 일부분을 표시하는 상태 내에서, HMD(510)는 사용자(310)의 모션에 기반하여, 아바타(330)의 변형, 및/또는 이동을 위한 정보를 획득할 수 있다. HMD(510)는, 외부 전자 장치(304)로 상기 획득된 정보에 기반하여, 아바타(330)를 제어하기 위한 신호를 송신할 수 있다. 외부 전자 장치(304)는 상기 신호에 응답하여, 가상 공간(320) 내에 배치된 아바타(330)의 형태, 및/또는 위치를 변경할 수 있다. 외부 전자 장치(304)는 HMD(510)로, 상기 형태, 및/또는 상기 위치가 변경된 아바타(330)가 배치된 가상 공간(320)의 적어도 일부분을 표시하기 위한 정보를 송신할 수 있다. 외부 전자 장치(304)는 아바타(330)의 상기 형태, 및/또는 상기 위치가 변경된 이력을, 외부 전자 장치(304) 내에 저장할 수 있다.
도 5를 참고하면, 외부 전자 장치(304)에 의해 제공되는 가상 공간(320) 내에서, 사용자(310)에 대응하는 아바타(330)가, HMD(510)에 의해 탐지된 사용자(310)의 모션에 기반하여, 가상 공간(320) 내에 형성된 가상 객체인 스토어(350)로 이동하는 예시적인 케이스가 도시된다. 스토어(350)는, 가상 공간(320)의 일부분에 배치된 가상 객체로써, 외부 전자 장치(304) 내에 저장된 정보(예, 도 4의 위치 프로파일(460))에 의해 가상 공간(320) 내에 형성될 수 있다. 상기 정보는, 스토어(350)와 연계된 어플리케이션, 및/또는 스토어(350)와 연계된 실제 공간 내 장소를 식별하기 위한 데이터를 포함할 수 있다. 예를 들어, 상기 정보는, 상기 어플리케이션의 패키지 명칭, 및/또는 상기 장소의 GPS 좌표 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른, 아바타(330)의 가상 공간(320) 내 액션, 및/또는 경로에 기반하여, 외부 전자 장치(304)는 가상 공간(320)으로 액세스한 사용자(310)의 액션을 모니터링, 및/또는 파라미터화(parameterize)할 수 있다. 아바타(330)가 스토어(350)로 이동함을 식별하는 것에 기반하여, 외부 전자 장치(304)는 스토어(350)로 이동된 아바타(330)의 경로를 저장할 수 있다. 아바타(330)가 스토어(350)로 이동함을 식별하는 것에 기반하여, 외부 전자 장치(304)는 아바타(330), 및/또는 사용자(310)에 대한 POI(point of interest) 내에, 스토어(350)를 저장할 수 있다.
일 실시예에 따른, 외부 전자 장치(304)가 가상 공간(320)에 기반하여 사용자(310)에게 제공하는 서비스는, 스토어(350)와 같이, 가상 공간(320) 내에 포함된 가상 객체, 및/또는 가상 공간(320) 내 위치에 따라 구분될 수 있다. 예를 들어, 스토어(350)는, 상품의 검색, 및/또는 구입을 위한 서비스(예, 외부 전자 장치(304)와 상이한 서버에 의해 제공되는 서드-파티 서비스)의 제공을 위해 가상 공간(320) 내에 임베딩될 수 있다. 스토어(350)로 이동된 아바타(330)를 식별하는 것에 기반하여, 외부 전자 장치(304)는 HMD(510)로, 상기 스토어(350)와 관련된 화면을 표시하기 위한 정보를 송신할 수 있다. 외부 전자 장치(304)가 HMD(510)에 의해 탐지된 사용자(310)의 모션에 기반하여 HMD(510)로, 가상 공간(320)을 통해 제공되는 하나 이상의 상품들(예, 스토어(350) 내에 포함된 하나 이상의 상품들)에 대한 정보를 제공한 경우, 외부 전자 장치(304)는 상기 하나 이상의 상품들을, 상기 사용자(310)에게 제공한 상품으로 저장할 수 있다. 외부 전자 장치(304)가 가상 공간(320), 및 사용자(310) 사이의 상호작용을 모니터링, 및/또는 파라미터화하는 것은 상기 예시에 제한되지 않는다. 예를 들어, 외부 전자 장치(304)는 가상 공간(320)의 적어도 일부분을 표현하는 멀티미디어 콘텐트를 획득함을 지시하는 입력에 응답하여, 상기 멀티미디어 콘텐트와 함께, 상기 멀티미디어 콘텐트를 획득하기 위한 사용자(310)의 액션에 대한 정보(예, 메타 데이터)를 저장할 수 있다.
비록, HMD(510), 및 HMD(510)에 연결된 외부 전자 장치(304)에 기반하여, 사용자(310), 및 가상 공간(320) 사이의 상호작용이 수행되는 일 실시예가 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 사용자(310)는 전자 장치(302)를 이용하여 가상 공간(320)으로 액세스할 수 있다. 사용자(310)가 상이한 전자 장치들(예, HMD(510), 및/또는 전자 장치(302))을 소유한 예시적인 케이스 내에서, 외부 전자 장치(304)는, 사용자(310)가 로그인된 HMD(510), 및 전자 장치(302) 전부로, 사용자(310)에 대응하는 아바타(330)와 관련된 가상 공간(320)의 정보를 제공할 수 있다. 예를 들어, 사용자(310)의 아바타(330)가 HMD(510)에 기반하여 가상 공간(320) 내 스토어(350)로 이동된 이력이, 전자 장치(302)로 공유될 수 있다.
일 실시예에 따른, 전자 장치(302)는, 지정된 이벤트가 발생되었는지 여부에 기반하여, 외부 전자 장치(304)로 가상 공간(320) 내에서 아바타(330)에 기반하여 수행된 사용자(310)의 액션과 관련된 정보를 요청할 수 있다. 외부 전자 장치(304)로부터 상기 정보를 수신하는 것에 기반하여, 전자 장치(302)는 상기 지정된 이벤트와 연계된 상기 정보를 표시할 수 있다. 상기 정보를 표시하는 것에 기반하여, 전자 장치(302)는 사용자(310)에게, 사용자(310)에 의해 실제 공간 내에서 발생된 상기 지정된 이벤트, 및 가상 공간(320) 전부와 연계된 상기 정보를 표시할 수 있다. 전자 장치(302)를 통해 표시되는 상기 정보가, 실제 공간 내에서 발생된 상기 지정된 이벤트, 및 가상 공간(320) 전부와 연계되기 때문에, 전자 장치(302)는 실제 공간, 및 가상 공간(320) 사이의 경계없는 사용자 경험을 제공할 수 있다.
이하에서는, 도 6 내지 도 7을 참고하여, 일 실시예에 따른, 전자 장치(302)가, 전자 장치(302)의 위치에 기반하여 발생되는 지정된 이벤트에 기반하여, 외부 전자 장치(304)로 가상 공간(320)과 관련된 정보를 요청하는 동작의 일 예가 설명된다
도 6은, 일 실시예에 따른, 전자 장치(302)가, 전자 장치(302)의 위치에 기반하여, 가상 공간(320)에 대한 정보를 획득하는 동작의 일 예를 도시한다. 도 6의 전자 장치(302), 및 외부 전자 장치(304)는, 도 3 내지 도 4의 전자 장치(302), 및 외부 전자 장치(304)의 일 예일 수 있다. 예를 들어, 도 4의 전자 장치(302), 및 외부 전자 장치(304)는 도 6의 전자 장치(302), 및 외부 전자 장치(304)를 포함할 수 있다. 도 6의 외부 전자 장치(304)는, 도 3의 가상 공간(320)을 제공하기 위한 서버일 수 있다.
도 6을 참고하면, 전자 장치(302)에 의해 액세스가능하고, 외부 전자 장치(304)에 의해 제공되는, 가상 공간(320)은, 실제 공간과 적어도 부분적으로(at least partially) 연계될 수 있다. 도 3 내지 도 5를 참고하여 상술한 바와 같이, 외부 전자 장치(304)는 가상 공간(320) 내에, 실제 공간의 장소(610)와 연계된 스토어(350)를 배치할 수 있다. 비록 건물의 형태를 가진 가상 객체인 스토어(350)가 예시되지만, 실시예가 이에 제한되는 것은 아니다. 전자 장치(302)의 사용자(예, 도 3의 사용자(310))는, 전자 장치(302)에 기반하여 가상 공간(320)을 열람하는 상태 내에서, 아바타(330)에 기반하여 스토어(350)와 관련된 액션을 수행할 수 있다. 상기 액션은, 외부 전자 장치(304)에 의해 모니터링될 수 있다.
일 실시예에 따른, 전자 장치(302)는 실제 공간과 관련된 이벤트를 탐지할 수 있다. 예를 들어, 전자 장치(302)는 센서(예, 도 4의 센서(430))의 데이터에 기반하여, 전자 장치(302)의 위치의 변경을 식별할 수 있다. 상기 예시 내에서, 전자 장치(302)는, 데이터에 의하여 지시되는 상기 위치의 변경에 기반하여, 전자 장치(302)가 실제 공간 내 장소(610)로 이동되는 이벤트를 탐지할 수 있다. 전자 장치(302)는, 가상 공간(320), 및 실제 공간 사이의 연계에 기반하여, 상기 탐지된 이벤트가 가상 공간(320)과 연계된 장소(610) 내에서 발생되었는지 여부를 식별할 수 있다. 상기 이벤트가 가상 공간(320)과 연계된 실제 공간의 장소(610) 내에서 발생됨을 식별하는 것에 응답하여, 전자 장치(302)는 외부 전자 장치(304)로, 장소(610), 및/또는 장소(610) 내 전자 장치(302)의 위치와 연계된 가상 공간(320)과 관련된 정보를 요청하기 위한 제1 신호를 송신할 수 있다. 예를 들어, 전자 장치(302)의 위치의 변경에 의해 발생된 지정된 이벤트에 기반하여, 전자 장치(302)는 외부 전자 장치(304)로, 전자 장치(302)의 변경된 위치와 연계된 가상 공간(320)의 일부분과 관련된 정보를 요청하기 위한 상기 제1 신호를 송신할 수 있다.
일 실시예에 따른, 외부 전자 장치(304)는, 상기 제1 신호에 기반하여 지정된 이벤트가 발생된 전자 장치(302)의 위치를 식별할 수 있다. 외부 전자 장치(304)는 식별된 위치와 연계된 가상 공간(320)의 일부분과 관련된 정보를 식별할 수 있다. 전자 장치(302)가 가상 공간(320) 내 스토어(350)와 연계된 실제 공간 내 장소(610) 내에 포함된 도 6의 예시적인 케이스 내에서, 외부 전자 장치(304)는 가상 공간(320) 내 스토어(350)와 관련된 정보를, 전자 장치(302)로 송신할 수 있다. 외부 전자 장치(304)는, 스토어(350) 내에서 수행되었던 아바타(330)의 액션에 기반하여, 전자 장치(302)로 송신될 상기 정보를 획득할 수 있다. 예를 들어, 스토어(350) 내에서, 전자 장치(302)의 사용자가 아바타(330)를 이용하여 하나 이상의 상품들을 열람, 및/또는 검색한 경우, 외부 전자 장치(304)는 상기 하나 이상의 상품들에 대한 정보(예, 상품 정보, 상품 추천 정보, 및/또는 쿠폰 정보)를 획득할 수 있다. 예를 들어, 스토어(350) 내에서, 전자 장치(302)의 사용자가 스토어(350)를 통해 제공되는 적어도 하나의 가상 객체에 기반하여, 아바타(330)의 의류, 및/또는 액세서리를 스위칭한 경우, 외부 전자 장치(304)는 상기 적어도 하나의 가상 객체에 대한 정보를 획득할 수 있다. 외부 전자 장치(304)는 상기 제1 신호에 대한 응답으로(as a response to), 획득된 정보를 포함하는 제2 신호를, 전자 장치(302)로 송신할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 외부 전자 장치(304)는 전자 장치(302)로, 전자 장치(302)의 위치(예, 장소(610))와 연계된 가상 공간(320)의 일부분(예, 스토어(350))에 대한 정보를 알리기 위한 상기 정보를 포함하는 상기 제2 신호를 송신할 수 있다. 예를 들어, 외부 전자 장치(304)는 전자 장치(302)로, 특정 어플리케이션을 실행하기 위한 푸쉬 메시지를 포함하는 상기 제2 신호를, 전자 장치(302)로 송신할 수 있다. 상기 제2 신호 내 상기 푸쉬 메시지에 의해 실행되는 전자 장치(302) 내 어플리케이션은, 가상 공간(320)으로 액세스하거나, 또는 외부 전자 장치(304)와 통신하도록 설정된, 제1 어플리케이션(예, 도 4의 제1 어플리케이션(440))과 상이한 제2 어플리케이션(에, 도 4의 제2 어플리케이션(445)) 일 수 있다.
이하에서는, 도 7을 참고하여, 상기 푸쉬 메시지를 포함하는 상기 제2 신호를 수신한 전자 장치(302)의 동작의 일 예가 설명된다.
도 7은, 일 실시예에 따른, 전자 장치(302)가 가상 공간에 대한 정보에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다. 도 3 내지 도 4의 전자 장치(302)는 도 7의 전자 장치(302)를 포함할 수 있다.
도 6을 참고하여 상술한 바와 같이, 일 실시예에 따른, 전자 장치(302)는 실제 공간 내 위치의 변경에 기반하여, 전자 장치(302)에 연결된 외부 전자 장치(예, 도 6의 외부 전자 장치(304))로, 전자 장치(302)의 위치와 연계된 가상 공간(예, 도 3, 및/또는 도 5 내지 도 6의 가상 공간(320))의 일부분과 관련된 정보를 요청하기 위한 제1 신호를 송신할 수 있다. 예를 들어, 전자 장치(302)가 장소(610)로 이동됨을 식별하는 것에 기반하여, 전자 장치(302)는 상기 외부 전자 장치로, 상기 제1 신호를 송신할 수 있다. 전자 장치(302)는 외부 전자 장치로부터 상기 제1 신호에 대한 응답으로, 제2 신호를 수신할 수 있다.
도 7을 참고하면, 외부 전자 장치(예, 도 6의 외부 전자 장치(304))로부터 푸쉬 메시지를 포함하는 상기 제2 신호를 수신한 상태 내에서, 전자 장치(302)가 디스플레이(420) 내에 표시하는 화면들(screens)(701, 702, 703)이 도시된다. 이하에서, 화면(screen)은 디스플레이의 적어도 일부분 내에서 표시되는 UI(user interface)를 의미할 수 있다. 화면은, 예를 들어, 안드로이드(android) 운영체제의 액티비티(activity)를 포함할 수 있다. 전자 장치(302)는 외부 전자 장치로부터 송신된 상기 제2 신호 내에 포함된 상기 푸쉬 메시지에 응답하여, 상기 푸쉬 메시지에 기반하는 팝업 알람(pop-up notification)의 형태를 가지는 시각적 객체(710)를 포함하는 화면(701)을 표시할 수 있다. 비록 시각적 객체(710)가 화면(701)의 일 가장자리(예, 화면(701)의 상단)를 따라 표시된 일 예가 도시되지만, 실시예가 이에 제한되지 않으며, 전자 장치(302)는, 토스트(toast)와 같이, 화면(701)의 가장자리들로부터 이격된 화면(701) 내 일부분 상에 시각적 객체(710)를 표시할 수 있다.
도 7을 참고하면, 화면(701) 내에서, 시각적 객체(710)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 외부 전자 장치로부터 수신된 상기 제2 신호 내 정보를 표시하기 위한 화면(702)을 출력할 수 있다. 시각적 객체(710)를 선택함을 지시하는 입력은, 시각적 객체(710)를 터치, 및/또는 클릭하는 제스쳐, 및/또는 지정된 방향(예, 시각적 객체(710)가 표시된 화면(701)의 일 가장자리에 수직이고, 화면(701)의 내부로 향하는 일 방향)을 따라 시각적 객체(710)를 드래그하는 제스쳐에 의하여 식별될 수 있다.
도 7을 참고하면, 화면(702) 내에서, 상기 제2 신호 내 정보에 기반하여, 전자 장치(302)는, 전자 장치(302)의 위치가 가상 공간의 적어도 일부분과 연계됨을 가이드하기 위한 텍스트(예, "메타버스에서 방문했었던 A 스토어입니다.")를 표시할 수 있다. 외부 전자 장치로부터 송신된 상기 제2 신호 내에, 전자 장치(302)의 위치(예, 장소(610))와 연계된 가상 공간의 일부분(예, 도 6의 스토어(350)) 내에서 수집된 액션(예, 전자 장치(302)의 사용자에 의해 제어된 아바타의 액션)에 기반하는 정보(예, 쿠폰)가 포함된 경우, 전자 장치(302)는 화면(702) 내에 상기 정보와 관련된 텍스트(예, "메타버스에서 본 B 상품의 쿠폰을 받으세요.")를 표시할 수 있다. 전자 장치(302)는 화면(702) 내에, 화면(702)의 표시를 적어도 일시적으로 중단(cease at least temporary)하기 위한 버튼의 형태를 가지는 시각적 객체(722)를 표시할 수 있다. 시각적 객체(722) 내에, 전자 장치(302)는 화면(702)을 표시하기 이전의 다른 화면을 표시함을 가이드하기 위한 지정된 텍스트(예, "취소")를 표시할 수 있다.
도 7의 화면들(701, 702) 내에서, 전자 장치(302)는 외부 전자 장치로부터 수신된 제2 신호에 의해 지시되고, 전자 장치(302)의 위치와 관련된 어플리케이션을 실행함을 지시하는 입력을 식별할 수 있다. 화면(702) 내에서, 전자 장치(302)는 상기 입력을 수신하기 위한 버튼의 형태를 가지는 시각적 객체(724)를 표시할 수 있다. 시각적 객체(724) 내에, 전자 장치(302)는 상기 어플리케이션의 실행을 가이드하기 위한 지정된 텍스트(예, "쿠폰 확인", 및/또는 "어플리케이션 실행")를 표시할 수 있다. 일 실시예에서, 전자 장치(302)는 화면(701) 내 시각적 객체(710)에 기반하는 상이한 제스쳐들에 기반하여, 상기 입력을 식별할 수 있다. 예를 들어, 전자 장치(302)는 시각적 객체(710)를 드래그하는 제스쳐에 기반하여 화면(702)을 스위칭하고, 시각적 객체(710)를 두드리는(tapping) 제스쳐에 기반하여 상기 입력을 식별할 수 있다. 상기 입력을 식별하는 것에 응답하여, 전자 장치(302)는 상기 입력에 대응하는 상기 어플리케이션을 실행할 수 있다.
일 실시예에 따른, 전자 장치(302)는 외부 전자 장치로부터 송신된 제2 신호에 의해 지시되는 어플리케이션을 실행함을 지시하는 입력에 응답하여, 상기 외부 전자 장치에 의해 제공되는 가상 공간(예, 도 3, 및/또는 도 5 내지 도 6의 가상 공간(320))을 표시하기 위한 제1 어플리케이션과 상이한 제2 어플리케이션을 실행할 수 있다. 상기 제1 어플리케이션은, 도 4의 제1 어플리케이션(440)에 대응하고, 상기 제2 어플리케이션은 도 4의 제2 어플리케이션(445)에 대응할 수 있다.
도 7을 참고하면, 상기 입력에 응답하여, 전자 장치(302)는 상기 제2 어플리케이션을 실행하여, 상기 제2 어플리케이션으로부터 제공된 화면(703)을 표시할 수 있다. 상기 입력에 응답하여 상기 제2 어플리케이션을 실행하는 상태 내에서, 전자 장치(302)는 상기 제2 어플리케이션에 의해 지원되는 상이한 화면들 중에서, 상기 제2 신호 내 푸쉬 메시지에 의해 선택된 화면(703)을 표시할 수 있다. 화면(703) 내에서, 전자 장치(302)는 외부 전자 장치로부터 송신된 제2 신호 내에 포함된 정보의 적어도 일부분을 표시할 수 있다. 도 7의 화면(703)을 참고하면, 전자 장치(302)가 상기 제2 신호 내에서 쿠폰과 관련된 상기 정보를 식별한 경우, 전자 장치(302)는 화면(703) 내에 상기 쿠폰에 대응하는 QR(quick response) 코드를 표시할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(302)는 외부 전자 장치로, 전자 장치(302)의 사용자가 상기 외부 전자 장치에 의해 제공된 가상 공간 내에서 수행한 액션(예, 도 6의 아바타(330)를 제어하여 수행한 액션) 중에서, 전자 장치(302)의 위치와 연계된 상기 가상 공간의 일부분에서 수행한 액션과 관련된 정보를 요청할 수 있다. 전자 장치(302)가 상기 외부 전자 장치로 상기 정보를 요청하는 것은, 가상 공간의 적어도 일부분(예, 도 6의 스토어(350))과 연계된 실제 공간 내 장소(610)로 이동된 지정된 이벤트의 발생에 응답하여, 수행될 수 있다. 전자 장치(302)는 외부 전자 장치로부터 상기 정보를 수신하는 것에 기반하여, 상기 수신된 정보의 적어도 일부분을 표시할 수 있다. 상기 정보의 적어도 일부분은, 도 7의 화면(703)과 같이, 상기 가상 공간과 관련된 기능을 실행하기 위한 제1 어플리케이션과 상이한 제2 어플리케이션을 통해 표시될 수 있다.
이하에서는, 도 8 내지 도 9를 참고하여, 일 실시예에 따른, 전자 장치(302)가 전자 장치(302)의 카메라를 통해 획득된 제1 멀티미디어 콘텐트와 관련되고, 상기 외부 전자 장치에 의해 제공된 가상 공간 내에서 획득된 제2 멀티미디어 콘텐트를 검색하는 동작의 일 예가 설명된다.
도 8은, 일 실시예에 따른, 전자 장치(302)가, 가상 공간(320)의 적어도 일부분을 포함하는 멀티미디어 콘텐트(840)를 획득하는 동작의 일 예를 도시한다. 도 8의 전자 장치(302), 및 외부 전자 장치(304)는, 도 3 내지 도 4의 전자 장치(302), 및 외부 전자 장치(304)의 일 예일 수 있다. 예를 들어, 도 4의 전자 장치(302), 및 외부 전자 장치(304)는 도 8의 전자 장치(302), 및 외부 전자 장치(304)를 포함할 수 있다.
도 8의 외부 전자 장치(304)는, 도 3, 도 4 내지 도 5의 가상 공간(320)을 제공하기 위한 서버일 수 있다. 외부 전자 장치(304)는 외부 전자 장치(304)에 연결된 전자 장치들(예, 전자 장치(302))을 이용하여 상이한 사용자들(예, 사용자(310))에게, 가상 공간(320)과 관련된 상이한 기능들을 제공할 수 있다. 상기 기능은, 가상 공간(320)의 적어도 일부분을 표현하는 이미지, 및/또는 비디오를 획득하는 기능을 포함할 수 있다.
도 8을 참고하면, 전자 장치(302)의 사용자(310)가 가상 공간(320) 내에 배치된 아바타(330)를 제어하는 예시적인 케이스 내에서, 전자 장치(302)는 아바타(330)를 제어하여 가상 공간(320)의 적어도 일부분을 촬영함을 지시하는 입력을 식별할 수 있다. 상기 입력에 응답하여, 전자 장치(302)는 외부 전자 장치(304)로, 상기 가상 공간(320)의 상기 적어도 일부분을 표현하는 이미지, 및/또는 비디오를 포함하는 멀티미디어 콘텐트의 획득을 요청할 수 있다. 도 8의 예시적인 상기 케이스 내에서, 외부 전자 장치(304)는 상기 요청에 기반하여, 가상 공간(320) 내에서 아바타들(832, 834)을 포함하는 가상 공간(320)의 일부분을 표현하는 멀티미디어 콘텐트(840)를 획득할 수 있다. 도 8을 참고하면, 멀티미디어 콘텐트(840)는, 아바타들(832, 834) 각각에 대응하는 시각적 객체들(852, 854)을 포함할 수 있다. 멀티미디어 콘텐트(840)에 대응하는 메타 데이터는, 아바타들(832, 834) 각각에 대응하는 사용자들을 식별하기 위한 정보를 포함할 수 있다. 외부 전자 장치(304)는 멀티미디어 콘텐트(840)를 외부 전자 장치(304) 내에 저장할 수 있다.
도 8을 참고하면, 일 실시예에 따른, 전자 장치(302)는, 카메라(예, 도 4의 카메라(425))와 같은 이미지 센서를 이용하여, 실제 공간에 대한 멀티미디어 콘텐트(예, 이미지, 및/또는 비디오)를 획득할 수 있다. 도 8을 참고하면, 전자 장치(302)가 이미지를 획득하기 위한 입력(예, 촬영 입력)에 응답하여, 멀티미디어 콘텐트(840)를 획득한 예시적인 케이스가 도시된다. 멀티미디어 콘텐트(840)는, 상이한 사용자들에 대응하는 시각적 객체들(822, 824)을 포함할 수 있다. 전자 장치(302)는 멀티미디어 콘텐트(840)와 관련된 입력, 및/또는 이미지 인식에 기반하여, 멀티미디어 콘텐트(840) 내 시각적 객체들(822, 824)에 대응하는 사용자들을 식별할 수 있다. 예를 들어, 전자 장치(302)는 사용자(310)에 의해 입력된 정보(예, 태그)에 기반하여, 멀티미디어 콘텐트(840) 내에서 시각적 객체들(822, 824), 및 시각적 객체들(822, 824) 각각에 매핑된 사용자들을 식별할 수 있다. 예를 들어, 전자 장치(302)는 이미지 인식에 기반하여, 멀티미디어 콘텐트(840) 내에서 사용자들의 얼굴을 포함하는 시각적 객체들(822, 824)을 식별할 수 있다. 전자 장치(302)는 멀티미디어 콘텐트(840)에 대응하는 메타 데이터 내에, 시각적 객체들(822, 824)을 구분하기 위한 정보를 저장할 수 있다.
도 8을 참고하면, 멀티미디어 콘텐트(810)를 획득하는 것에 기반하여, 전자 장치(302)는 외부 전자 장치(304)로, 멀티미디어 콘텐트(810)와 관련된 다른 멀티미디어 콘텐트를 요청할 수 있다. 예를 들어, 멀티미디어 콘텐트(810)의 획득에 의하여 발생된 지정된 이벤트에 기반하여, 전자 장치(302)는 외부 전자 장치(304)로, 가상 공간(320) 내에서 획득되고, 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 다른 멀티미디어 콘텐트를 요청하기 위한 제1 신호를 송신할 수 있다. 전자 장치(302)는 외부 전자 장치(304)로, 멀티미디어 콘텐트(810)에 대응하는 메타 데이터를 포함하는 제1 신호를 송신할 수 있다. 제1 신호는, 멀티미디어 콘텐트(810), 또는 상기 메타 데이터 중 적어도 하나를 포함할 수 있다. 상기 메타 데이터는, 멀티미디어 콘텐트(810)가 획득된 위치, 또는 멀티미디어 콘텐트(810) 내에 포함된 하나 이상의 사용자들(예, 시각적 객체들(822, 824)에 대응하는 사용자들)을 식별하기 위한 데이터를 포함할 수 있다.
일 실시예에 따른, 전자 장치(302)에 연결된 외부 전자 장치(304)는, 상기 제1 신호를 수신하는 것에 응답하여, 외부 전자 장치(304) 내에 저장된 멀티미디어 콘텐트들(예, 멀티미디어 콘텐트(840)) 중에서, 상기 제1 신호에 의해 식별된 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 멀티미디어 콘텐트를 식별할 수 있다. 외부 전자 장치(304)는 상기 제1 신호에 기반하여, 제1 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 사용자(예, 시각적 객체들(822, 824)에 대응하는 사용자들), 또는 상기 제1 멀티미디어 콘텐트(810)가 획득된 위치 중 적어도 하나를 식별할 수 있다. 외부 전자 장치(304)는 상기 제1 신호 내에 포함되고, 제1 멀티미디어 콘텐트(810)에 대응하는 메타 데이터에 기반하여, 상기 적어도 하나의 사용자, 또는 상기 위치 중 적어도 하나를 식별할 수 있다.
일 실시예에 따른, 외부 전자 장치(304)는, 제1 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 사용자에 대응하는 적어도 하나의 아바타, 또는 제1 멀티미디어 콘텐트(810)와 관련된 가상 공간(320) 내 위치에 기반하여, 외부 전자 장치(304) 내에 저장된 멀티미디어 콘텐트들 중에서, 제1 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 멀티미디어 콘텐트를 식별하거나, 또는 검색할 수 있다. 예를 들어, 외부 전자 장치(304)는, 외부 전자 장치(304) 내에 저장된 멀티미디어 콘텐트들 중에서, 제1 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 사용자에 매칭된 적어도 하나의 아바타를 포함하는 적어도 하나의 멀티미디어 콘텐트를 선택할 수 있다. 예를 들어, 외부 전자 장치(304)는, 외부 전자 장치(304) 내에 저장된 멀티미디어 콘텐트들 중에서, 제1 멀티미디어 콘텐트(810)가 획득된 실제 공간의 위치와 연계된 가상 공간(320)의 일부분 내에서 획득된 적어도 하나의 멀티미디어 콘텐트를 선택할 수 있다.
도 8의 예시적인 상기 케이스 내에서, 가상 공간(320) 내 아바타들(832, 834)이, 제1 멀티미디어 콘텐트(810)의 시각적 객체들(822, 824)에 대응하는 사용자들에 매칭되는 경우, 외부 전자 장치(304)는 아바타들(832, 834)에 대응하는 시각적 객체들(852, 854)을 포함하는 제2 멀티미디어 콘텐트(840)를, 제1 멀티미디어 콘텐트(810)와 관련된 멀티미디어 콘텐트로써 선택할 수 있다. 외부 전자 장치(304)는 제1 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 콘텐트(예, 제2 멀티미디어 콘텐트(840))를 포함하는 제2 신호를, 상기 제1 신호에 대한 응답으로, 전자 장치(302)로 송신할 수 있다. 외부 전자 장치(304)는 전자 장치(302)로, 제1 멀티미디어 콘텐트(810)와 연계로 제2 멀티미디어 콘텐트(840)를 저장하기 위한 상기 제2 신호를 송신할 수 있다.
일 실시예에 따른, 전자 장치(302)는 외부 전자 장치(304)로부터 송신된 제2 신호에 응답하여, 상기 제2 신호 내에 포함된 적어도 하나의 콘텐트(예, 제2 멀티미디어 콘텐트(840))를, 전자 장치(302)의 메모리(예, 도 4의 전자 장치(302)의 메모리(415-1)) 내에 저장할 수 있다. 전자 장치(302)는 상기 적어도 하나의 콘텐트를, 전자 장치(302) 내에 저장된 하나 이상의 멀티미디어 콘텐트들을 열람하기 위한(for browsing) 지정된 어플리케이션(예, 갤러리 어플리케이션)에 의해 열람가능(browsable)한 상태 내에서 저장할 수 있다. 외부 전자 장치(304)가 전자 장치(302)로 제2 멀티미디어 콘텐트(840)를 포함하는 제2 신호를 송신한 도 8의 예시적인 상기 케이스 내에서, 전자 장치(302)는 제2 멀티미디어 콘텐트(840)를, 제1 멀티미디어 콘텐트(810)와 연계하여 저장할 수 있다.
이하에서는, 제1 멀티미디어 콘텐트(810)와 연계된 상태의 제2 멀티미디어 콘텐트(840)를 저장한 상태 내에서, 전자 장치(302)가 상기 지정된 어플리케이션에 기반하여 표시하는 UI의 일 예가 설명된다.
도 9는, 일 실시예에 따른, 전자 장치(302)가, 가상 공간과 관련된 멀티미디어 콘텐트를 표시하는 UI의 일 예를 도시한다. 도 3 내지 도 4의 전자 장치(302)는 도 9의 전자 장치(302)를 포함할 수 있다. 예를 들어, 도 4의 전자 장치(302), 및 디스플레이(420)는, 도 9의 전자 장치(302), 및 디스플레이(420)를 포함할 수 있다.
도 8을 참고하여 상술한 바와 같이, 일 실시예에 따른, 전자 장치(302)는 실제 공간과 관련된 이미지, 및/또는 비디오를 포함하는 제1 멀티미디어 콘텐트(810)와 관련되고, 가상 공간(예, 도 8의 외부 전자 장치(304)에 의해 제공되는 가상 공간(320))과 관련된 이미지, 및/또는 비디오를 포함하는 제2 멀티미디어 콘텐트(840)를 획득할 수 있다. 전자 장치(302)는 상기 가상 공간과 관련된 어플리케이션(예, 도 4의 서버 어플리케이션(450))이 실행된 외부 전자 장치(예, 도 8의 외부 전자 장치(304))로, 상기 제1 멀티미디어 콘텐트(810)와 관련된 적어도 하나의 멀티미디어 콘텐트를 요청하기 위한 제1 신호를 송신할 수 있다. 외부 전자 장치는 전자 장치(302)로, 상기 제1 신호에 대한 응답으로, 제2 멀티미디어 콘텐트(840)를 포함하는 제2 신호를 송신할 수 있다. 비록 외부 전자 장치가 전자 장치(302)로 하나의 멀티미디어 콘텐트(예, 제2 멀티미디어 콘텐트(840))를 송신한 일 실시예가 설명되지만, 외부 전자 장치가 전자 장치(302)로 송신하는 멀티미디어 콘텐트의 개수가 이에 제한되는 것은 아니다. 상기 제2 신호에 기반하여, 전자 장치(302)는, 전자 장치(302)의 메모리 내에, 제1 멀티미디어 콘텐트(810)와 연계된 상태 내에서, 상기 제2 신호 내에 포함된 제2 멀티미디어 콘텐트(840)를 저장할 수 있다.
도 9를 참고하면, 일 실시예에 따른, 전자 장치(302)가 디스플레이(420) 내에, 가상 공간과 관련된 기능을 지원하는 제1 어플리케이션(예, 도 4의 제1 어플리케이션(440))과 상이한 제2 어플리케이션(예, 도 4의 제2 어플리케이션(445))으로부터 제공된 화면들을 표시하는 상태들(901, 902)이 도시된다. 상기 제2 어플리케이션은, 갤러리 어플리케이션과 같이, 전자 장치(302) 내에 저장된 하나 이상의 멀티미디어 콘텐트들을 열람하기 위한 어플리케이션을 포함할 수 있다. 상기 제2 어플리케이션은, 상기 가상 공간으로 액세스하기 위한 기능을 지원하지 않을 수 있다. 상태들(901, 902)은, 상기 제2 어플리케이션을 실행함을 지시하는 입력에 응답하여, 전자 장치(302)가 디스플레이(420) 내에 상기 제2 어플리케이션에 의해 제공된 화면들을 표시하는 예시적인 상태일 수 있다.
도 9의 상태(901) 내에서, 전자 장치(302)는 디스플레이(420) 내에, 전자 장치(302) 내에 저장된 멀티미디어 콘텐트들의 열람을 위한 화면을 표시할 수 있다. 상태(901) 내에서, 전자 장치(302)는 디스플레이(420)를 통해 표시되는 멀티미디어 콘텐트들의 카테고리를 변경하기 위한 시각적 객체들(911, 912, 913)을 표시할 수 있다. 예를 들어, 시각적 객체(911)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는, 전자 장치(302) 내에 저장된 멀티미디어 콘텐트들 중에서, 디스플레이(420) 내에 이미지들의 리스트를 표시할 수 있다. 시각적 객체(912)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는, 전자 장치(302) 내에 저장된 멀티미디어 콘텐트들을 그룹핑하여 생성된, 적어도 하나의 그룹의 리스트를 표시할 수 있다. 상기 적어도 하나의 그룹은, 하나 이상의 멀티미디어 콘텐트들을 그룹핑하기 위한 입력에 기반하여 생성될 수 있다. 상기 적어도 하나의 그룹은, 앨범으로 지칭될 수 있다. 시각적 객체(913)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 디스플레이(420) 내에, 전자 장치(302) 내에 저장된 멀티미디어 콘텐트들의 결합에 의해 생성된 멀티미디어 콘텐트(예, 스토리 콘텐트)의 리스트를 표시할 수 있다.
도 9의 상태(901)는, 시각적 객체(913)를 선택함을 지시하는 입력에 기반하여, 전자 장치(302)가 디스플레이(420) 내에 멀티미디어 콘텐트들을 결합하여 생성한 적어도 하나의 멀티미디어 콘텐트의 리스트를 표시하는 예시적인 상태일 수 있다. 예를 들어, 시각적 객체(914)에 대응하는 멀티미디어 콘텐트는, 전자 장치(302) 내에 저장된 멀티미디어 콘텐트들 중에서, 서로 연계된 복수의 멀티미디어 콘텐트들(예, 제1 멀티미디어 콘텐트(810), 및 제2 멀티미디어 콘텐트(840))이 합성되어 생성될 수 있다. 예를 들어, 전자 장치(302)는, 시간 영역 내에서(in a time domain) 서로 연계된 복수의 멀티미디어 콘텐트들을 결합하여, 시각적 객체(914)에 대응하는 멀티미디어 콘텐트(예, 비디오 데이터)를 생성할 수 있다. 예를 들어, 전자 장치(302)는, 프레임 내에서 서로 연계된 복수의 멀티미디어 콘텐트들을 병렬로(in parallel) 연결하여, 시각적 객체(914)에 대응하는 멀티미디어 콘텐트(예, 비디오 데이터, 및/또는 이미지 데이터)를 생성할 수 있다.
도 9를 참고하면, 시각적 객체(914)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 시각적 객체(914)에 대응하는 멀티미디어 콘텐트를 표시하기 위한 상태(902)로 변경될 수 있다. 상태(902) 내에서, 전자 장치(302)는 디스플레이(420) 내에 시각적 객체(914)에 대응하는 멀티미디어 콘텐트에 의해 결합된 제1 멀티미디어 콘텐트(810), 및 제2 멀티미디어 콘텐트(840)를 표시할 수 있다. 시각적 객체(914)에 대응하는 멀티미디어 콘텐트 내에서, 제1 멀티미디어 콘텐트(810), 및 제2 멀티미디어 콘텐트(840)가 도 9의 상태(902)와 같이 평행하게 연결될 수 있다. 실시예가 이에 제한되는 것은 아니며, 제1 멀티미디어 콘텐트(810), 및 제2 멀티미디어 콘텐트(840)는, 시각적 객체(914)에 대응하는 멀티미디어 콘텐트 내에서, 상이한 시간 구간들에 배치될 수 있다.
상술한 바와 같이, 시각적 객체(914)에 대응하는 멀티미디어 콘텐트가, 제1 멀티미디어 콘텐트(810), 및 제2 멀티미디어 콘텐트(840) 전부를 포함하기 때문에, 전자 장치(302)는 사용자에게 실제 공간, 및 가상 공간이 상호결합된(interconnected) 멀티미디어 콘텐트를 제공할 수 있다. 예를 들어, 특정 사용자의 얼굴, 및 아바타 각각에 대응하는 시각적 객체들(822, 852)을 포함하는 제1 멀티미디어 콘텐트(810), 및 제2 멀티미디어 콘텐트(840)가 그룹으로 표시되기 때문에, 전자 장치(302)는 실제 공간, 및 가상 공간 사이의 경계 없는 사용자 경험을 제공할 수 있다.
일 실시예에 따른, 전자 장치(302)가 외부 전자 장치로부터 획득하는 멀티미디어 콘텐트는, 제2 멀티미디어 콘텐트(840)와 같이, 사용자에 의해 촉발된(triggered) 액션(예, 가상 공간의 적어도 일부분을 캡쳐하기 위한 액션)에 의해 생성된 멀티미디어 콘텐트에 제한되지 않는다. 예를 들어, 전자 장치(302)는, 상기 외부 전자 장치에 의해 자동적으로 생성되고, 전자 장치(302)의 가상 공간과 관련된 사용자의 액션을 표현하는, 하나 이상의 멀티미디어 콘텐트들을 획득할 수 있다.
이하에서는, 도 10을 참고하여, 일 실시예에 따른, 전자 장치(302)가 외부 전자 장치로부터 가상 공간과 관련된 사용자의 액션을 표현하는 하나 이상의 멀티미디어 콘텐트들을 획득하는 동작의 일 예가 설명된다.
도 10은, 일 실시예에 따른, 전자 장치(302)가, 가상 공간(320)과 관련된 멀티미디어 콘텐트를 표시하는 UI의 일 예를 도시한다. 도 10의 전자 장치(302), 및 외부 전자 장치(304)는, 도 3 내지 도 4의 전자 장치(302), 및 외부 전자 장치(304)를 포함할 수 있다. 도 10의 HMD(510)는, 도 5의 HMD(510)를 포함할 수 있다.
일 실시예에 따른, 외부 전자 장치(304)는, 가상 공간(320)을 제공하기 위한 서버로써, 사용자(310)에 의해 소유되는 사용자 단말(예, 전자 장치(302), 및/또는 HMD(510))로 가상 공간(320)과 관련된 정보를 송신할 수 있다. 도 5를 참고하여 상술한 바와 같이, 외부 전자 장치(304)는 상기 사용자 단말로부터, 가상 공간(320), 및/또는 사용자(310)에 대응하는 가상 공간(320) 내 아바타(330)를 제어하기 위한 정보를 수신할 수 있다. 사용자(310)는, 상기 사용자 단말을 이용하여 가상 공간(320)으로 액세스할 수 있다. 외부 전자 장치(304)는, 상기 사용자 단말로부터 수신되는 상기 정보에 기반하여, 가상 공간(320) 내에서 수행된 사용자(310)의 액션을 누적, 및/또는 저장할 수 있다. 외부 전자 장치(304)는, 예를 들어, 도 4의 사용자 프로파일(455)과 같은 데이터베이스 내에, 사용자 단말에 의해 식별되고, 가상 공간(320)에 대하여 수행된, 사용자(310)의 액션의 이력을 저장할 수 있다.
일 실시예에 따른, 전자 장치(302)는 외부 전자 장치(304)로, 외부 전자 장치(304) 내에 저장된 상기 이력과 관련된 정보를 요청할 수 있다. 전자 장치(302)가 상기 정보를 요청하는 것은, 가상 공간(320)으로 액세스하기 위한 제1 어플리케이션(예, 도 4의 제1 어플리케이션(440))과 상이한 제2 어플리케이션(예, 도 4의 제2 어플리케이션(445))의 실행에 기반하여, 수행될 수 있다. 상기 제2 어플리케이션은, 도 9의 갤러리 어플리케이션과 같이, 전자 장치(302) 내에 저장된 하나 이상의 멀티미디어 콘텐트들을 열람하기 위한 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 전자 장치(302)는 외부 전자 장치(304)로, 외부 전자 장치(304) 내에 저장된 상기 이력과 관련된 정보를 요청하기 위한 제1 신호를 송신할 수 있다.
일 실시예에서, 상기 제1 신호를 수신하는 것에 기반하여, 외부 전자 장치(304)는 전자 장치(302)로, 외부 전자 장치(304) 내에 저장되고, 가상 공간(320)에 대하여 수행된, 사용자(310)의 액션을 표현하는 하나 이상의 멀티미디어 콘텐트들을 포함하는 제2 신호를 송신할 수 있다. 전자 장치(302)는 상기 제2 신호 내에 포함된 상기 하나 이상의 멀티미디어 콘텐트들을, 상기 제2 어플리케이션에 의하여 액세스가능한 상태에 기반하여 저장할 수 있다. 도 10을 참고하면, 전자 장치(302)는 상기 제2 어플리케이션의 실행에 기반하여, 디스플레이(420) 내에 상기 제2 신호에 기반하여, 전자 장치(302) 내에 저장된 상기 하나 이상의 멀티미디어 콘텐트들의 리스트를 포함하는 화면(1010)을 표시할 수 있다. 화면(1010)은, 지정된 명칭(예, 메타버스 갤러리)을 가지는 버튼의 형태를 가지는 시각적 객체를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)에 의해 표시될 수 있다.
도 10을 참고하면, 화면(1010) 내에서, 전자 장치(302)는 멀티미디어 콘텐트들 각각에 대응하는 시각적 객체들(1020, 1030)을 표시할 수 있다. 시각적 객체(1020)는, 가상 공간(320)과 관련된 사용자(310)의 액션 중에서, 가상 공간(320) 내 일부분(예, 에펠탑과 같이, 실제 공간의 랜드마크와 연계된 가상 공간(320)의 일부분)에 액세스한 액션을 표현한 멀티미디어 콘텐트에 대응할 수 있다. 시각적 객체(1030)는, 가상 공간(320)과 관련된 사용자(310)의 액션 중에서, 스토어(350)에 액세스한 액션을 표현한 멀티미디어 콘텐트에 대응할 수 있다.
도 10을 참고하면, 전자 장치(302)는 시각적 객체(1020) 내에, 시각적 객체(1020)에 대응하는 멀티미디어 콘텐트의 썸네일(1022), 상기 멀티미디어 콘텐트와 관련된 텍스트(1024), 또는 상기 멀티미디어 콘텐트를 공유하기 위한 기능을 실행하기 위한 아이콘(1026) 중 적어도 하나를 표시할 수 있다. 시각적 객체(1020)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 디스플레이(420) 내에 시각적 객체(1020)에 대응하는 멀티미디어 콘텐트를 표시할 수 있다. 시각적 객체(1020) 내 아이콘(1026)을 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 시각적 객체(1020)에 대응하는 멀티미디어 콘텐트를, 화면(1010)에 대응하는 상기 제2 어플리케이션과 상이한 다른 어플리케이션, 및/또는 전자 장치(302)와 상이한 다른 전자 장치(예, HMD(510), 및/또는 사용자(310)와 상이한 다른 사용자에 의해 소유되는 단말)로 공유하기 위한 기능을 실행할 수 있다.
일 실시예에서, 시각적 객체들(1020, 1030)의 레이아웃은, 시각적 객체들(1020, 1030) 각각에 대응하는 멀티미디어 콘텐트의 속성에 종속될 수 있다. 도 10을 참고하면, 시각적 객체(1030)에 대응하는 멀티미디어 콘텐트는, 가상 공간(320) 내 스토어(350)에 액세스하였던 사용자의 액션을 표현하는 멀티미디어 콘텐트에 대응할 수 있다. 전자 장치(302)는 시각적 객체(1030) 내에, 시각적 객체(1030)에 대응하는 멀티미디어 콘텐트와 관련된 상기 스토어(350)에 매칭된 어플리케이션(예, 도 7의 화면(703)을 제공하기 위한 어플리케이션)의 실행을 위한 아이콘(1036)을 표시할 수 있다. 시각적 객체(1030)를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 시각적 객체(1030)에 대응하는 멀티미디어 콘텐트를, 디스플레이(420) 내에 표시할 수 있다. 아이콘(1036)을 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 아이콘(1036)에 대응하는 상기 어플리케이션을 실행하여, 디스플레이(420) 내에 표시되는 화면(1010)을 아이콘(1036)에 대응하는 상기 어플리케이션으로부터 제공된 다른 화면으로 스위칭할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(302)는 외부 전자 장치(304)와 통신하여, 가상 공간(320) 내에서 수행된 사용자(310)의 액션과 관련된 정보를 획득할 수 있다. 가상 공간(320) 내에서 수행된 사용자(310)의 액션은, 도 5를 참고하여 상술한 바와 같이, 사용자(310)가 하나 이상의 사용자 단말들을 이용하여 상기 외부 전자 장치(304)와 통신하기 때문에, 상기 사용자 단말들과 신호들을 교환하는 것에 기반하여, 외부 전자 장치(304) 내에 저장될 수 있다. 전자 장치(302)는 가상 공간(320)으로 액세스하기 위해 전자 장치(302) 내에 설치된 제1 어플리케이션과 상이한 제2 어플리케이션에 의해 처리가능한 상태로, 상기 정보를 저장할 수 있다. 상기 정보는, 도 6 내지 도 7을 참고하여 상술한 바와 같이, 상기 제2 어플리케이션을 실행하기 위한 푸쉬 메시지를 포함할 수 있다. 상기 정보는, 도 8 내지 도 9의 제2 멀티미디어 콘텐트(840)와 같이, 가상 공간(320) 내에서 사용자(310)에 의해 획득된 적어도 하나의 멀티미디어 콘텐트를 포함할 수 있다. 상기 정보는, 도 10을 참고하여 상술한 바와 같이, 가상 공간(320) 내에서 수행된 사용자(310)의 액션을 표현한 적어도 하나의 멀티미디어 콘텐트를 포함할 수 있다.
이하에서는, 도 11 내지 도 13을 참고하여, 일 실시예에 따른, 전자 장치(302), 및 외부 전자 장치(304)의 동작이 설명된다.
도 11은, 일 실시예에 따른, 전자 장치(302), 및 외부 전자 장치(304) 사이의 신호 흐름도의 일 예를 도시한다. 도 3 내지 도 4의 전자 장치(302), 및 외부 전자 장치(304)는, 도 11의 전자 장치(302), 및 외부 전자 장치(304)의 일 예일 수 있다. 도 11의 동작들(1110, 1140)은, 도 4의 외부 전자 장치(304), 및 외부 전자 장치(304) 내 프로세서(410-2)에 의해 수행될 수 있다. 도 11의 동작들(1120, 1130, 1150)은, 도 4의 전자 장치(302), 및 전자 장치(302)의 프로세서(410-1)에 의해 수행될 수 있다.
도 11을 참고하면, 동작(1110) 내에서, 일 실시예에 따른, 외부 전자 장치(304)는 가상 공간(예, 도 3, 도 5 내지 도 6, 도 8, 및/또는 도 10의 가상 공간(320))에 기반하는 정보를 저장할 수 있다. 상기 정보는, 도 4의 사용자 프로파일(455), 및/또는 위치 프로파일(460) 내에 저장될 수 있다. 외부 전자 장치(304)는, 전자 장치(302)로부터 가상 공간을 제어하기 위한 신호를 식별하는 것에 기반하여, 상기 신호에 의해 변경된 상기 가상 공간을 지시하는 상기 정보를 저장할 수 있다. 상기 신호는, 전자 장치(302)에 의하여 식별된, 상기 가상 공간, 및/또는 상기 가상 공간 내에 포함된 아바타(예, 도 3, 도 5 내지 도 6, 도 8, 및/또는 도 10의 아바타(330))를 제어하기 위한 입력을 지시하는 정보를 포함할 수 있다. 외부 전자 장치(304)는, 도 5를 참고하여 상술된 동작에 기반하여, 동작(1110)을 수행할 수 있다.
도 11을 참고하면, 동작(1120) 내에서, 일 실시예에 따른, 전자 장치(302)는 센서(예, 도 4의 센서(430))의 데이터에 기반하여, 지정된 이벤트를 식별할 수 있다. 상기 지정된 이벤트는, 전자 장치(302)의 위치가 가상 공간과 연계된 실제 공간 내 장소(예, 도 6의 장소(610))로 이동되는 것에 의하여 발생될 수 있다. 상기 지정된 이벤트는, 전자 장치(302)가 실제 공간을 포함하는 멀티미디어 콘텐트(예, 도 8의 제1 멀티미디어 콘텐트(810))를 획득하는 것에 의하여 발생될 수 있다.
지정된 이벤트를 식별하는 것에 기반하여, 동작(1130) 내에서, 일 실시예에 따른, 전자 장치(302)는 외부 전자 장치(304)로, 가상 공간, 및 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호(1135)를 송신할 수 있다. 상기 제1 신호(1135)는, 상기 지정된 이벤트를 지시하는 정보를 포함할 수 있다. 예를 들어, 상기 제1 신호(1135)는, 전자 장치(302)의 위치, 전자 장치(302)가 포함된 실제 공간의 장소, 또는 전자 장치(302)에 의해 획득된 적어도 하나의 멀티미디어 콘텐트 중 적어도 하나에 대한 정보를 포함할 수 있다.
제1 신호(1135)를 수신하는 것에 응답하여, 동작(1140) 내에서, 일 실시예에 따른, 외부 전자 장치(304)는 가상 공간 내 정보에 기반하여, 전자 장치(302)로 제2 신호(1145)를 송신할 수 있다. 상기 제2 신호(1145)는, 동작(1120)의 지정된 이벤트, 및 가상 공간 전부와 관련된 정보를 포함할 수 있다. 상기 제2 신호(1145) 내에 포함된 정보는, 상기 지정된 이벤트가 발생된 전자 장치(302)의 위치와 연계된 가상 공간의 일부분(예, 도 3, 도 6, 및/또는 도 10의 스토어(350))과 관련된 정보를 포함할 수 있다. 상기 제2 신호(1145) 내에 포함된 정보는, 상기 지정된 이벤트가 발생된 전자 장치(302)의 위치와 연계된 어플리케이션(예, 도 4의 제2 어플리케이션(445))과 관련된 푸쉬 메시지를 포함할 수 있다. 상기 제2 신호(1145) 내에 포함된 정보는, 상기 지정된 이벤트에 대응하는 제1 멀티미디어 콘텐트(예, 도 8의 제1 멀티미디어 콘텐트(810))와 관련된 제2 멀티미디어 콘텐트(예, 도 8의 제2 멀티미디어 콘텐트(840))를 포함할 수 있다.
제2 신호(1145)를 수신하는 것에 기반하여, 동작(1150) 내에서, 일 실시예에 따른, 전자 장치(302)는 제2 신호(1145) 내에 포함된 정보를, 가상 공간의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션을 이용하여 제공할 수 있다. 예를 들어, 전자 장치(302)는 제2 신호(1145) 내에 포함된 정보에 대응하는 상기 제2 어플리케이션을 실행하기 위한 시각적 객체(예, 도 7의 시각적 객체들(710, 724))를 표시할 수 있다. 상기 시각적 객체를 선택함을 지시하는 입력에 응답하여, 전자 장치(302)는 상기 제2 어플리케이션을 실행하여, 상기 정보를 포함하는 화면(예, 도 7의 화면(703))을 표시할 수 있다. 예를 들어, 전자 장치(302)는 제2 신호(1145) 내에 포함된 정보에 의해 식별된 멀티미디어 콘텐트(예, 도 8의 제2 멀티미디어 콘텐트(840))를, 전자 장치(302) 내에서 상기 제2 어플리케이션에 의해 실행가능한 상태 내에서 저장할 수 있다. 상기 제2 어플리케이션은, 가상 공간으로 액세스하기 위해 전용되는(dedicated to) 제1 어플리케이션과 상이한 어플리케이션으로, 갤러이 어플리케이션과 같이, 전자 장치(302) 내에 저장된 멀티미디어 콘텐트들을 열람하기 위한 어플리케이션, 및/또는 실제 공간의 장소와 연계된 어플리케이션을 포함할 수 있다.
도 12는, 일 실시예에 따른, 전자 장치의 흐름도의 일 예를 도시한다. 도 3의 전자 장치(302)는, 도 12의 전자 장치를 포함할 수 있다. 도 12의 전자 장치의 동작은, 도 3의 전자 장치(302), 및/또는 전자 장치(302) 내 프로세서(410-1)에 의해 수행될 수 있다. 도 12의 동작들 중 적어도 하나는 도 11의 전자 장치(302)의 동작들 중 적어도 하나와 관련될 수 있다.
도 12를 참고하면, 동작(1210) 내에서, 일 실시예에 따른, 전자 장치는 하나 이상의 센서들(예, 도 4의 센서(430))의 데이터에 기반하여 식별된 전자 장치의 위치의 변경에 기반하여, 지정된 이벤트를 식별할 수 있다. 상기 지정된 이벤트는, 전자 장치에 연결된 외부 전자 장치(예, 도 4의 외부 전자 장치(304))로, 상기 외부 전자 장치에 의해 제공되는 가상 공간과 관련된 정보를 요청하기 위하여, 발생될 수 있다. 예를 들어, 지정된 이벤트는, 도 6 내지 도 7을 참고하여 상술한 바와 같이, 전자 장치가 가상 공간의 적어도 일부분과 연계된 실제 공간 내 장소(예, 도 6의 장소(610))로 이동되는 이벤트를 포함할 수 있다. 도 12의 동작(1210)은, 도 11의 동작(1120)과 관련될 수 있다.
도 12를 참고하면, 동작(1220) 내에서, 일 실시예에 따른, 전자 장치는 외부 전자 장치로, 외부 전자 장치에 의해 제공되는 가상 공간 내에서, 전자 장치의 위치와 연계된 가상 공간의 일부분과 관련된 정보를 요청하기 위한 제1 신호를 송신할 수 있다. 상기 제1 신호는, 도 11의 제1 신호(1135)를 포함할 수 있다. 동작(1210)의 지정된 이벤트가, 가상 공간과 연계된 실제 공간의 장소로 이동된 전자 장치에 의해 발생된 경우, 전자 장치는 외부 전자 장치로, 전자 장치의 위치, 및/또는 상기 장소와 관련된 가상 공간의 일부분과 관련된 정보를 요청하기 위한 상기 제1 신호를 송신할 수 있다. 도 12의 동작(1220)은, 도 11의 동작(1130)과 관련될 수 있다.
도 12를 참고하면, 동작(1230) 내에서, 일 실시예에 따른, 전자 장치는 제1 신호에 대한 응답으로써 외부 전자 장치로부터 송신된, 제2 신호에 기반하여, 제2 어플리케이션을 실행하기 위한 시각적 객체를 표시할 수 있다. 도 12의 시각적 객체는, 도 7의 시각적 객체(710), 및/또는 화면(702)과 같이, 제2 어플리케이션을 실행을 가이드하기 위하여, 전자 장치의 디스플레이(예, 도 4의 디스플레이(420)) 내에 표시될 수 있다. 전자 장치는 시각적 객체 내에, 상기 제2 신호 내에 포함된 정보의 적어도 일부분을 표시할 수 있다.
도 12를 참고하면, 동작(1240) 내에서, 일 실시예에 따른, 전자 장치는 시각적 객체를 선택함을 지시하는 입력에 응답하여, 제2 신호 내에 포함된 정보에 기반하여, 제2 어플리케이션을 실행할 수 있다. 제2 어플리케이션의 실행에 기반하여, 전자 장치는 디스플레이 내에 상기 제2 어플리케이션으로부터 제공된 화면(예, 도 7의 화면(703))을 표시할 수 있다. 전자 장치가 제2 신호 내에 포함된 정보에 기반하여 제2 어플리케이션을 실행하기 때문에, 동작(1240)에 기반하여 전자 장치의 디스플레이 내에 표시되는 상기 화면 내에서, 전자 장치는 상기 정보의 적어도 일부분을 시각화(예, 도 7의 화면(703) 내에 포함된 QR 코드)할 수 있다. 도 12의 동작들(1230, 1240)은, 도 11의 동작(1150)과 관련될 수 있다.
도 13은, 일 실시예에 따른, 전자 장치의 흐름도의 일 예를 도시한다. 도 3의 전자 장치(302)는, 도 13의 전자 장치를 포함할 수 있다. 도 13의 전자 장치의 동작은, 도 3의 전자 장치(302), 및/또는 전자 장치(302) 내 프로세서(410-1)에 의해 수행될 수 있다. 도 13의 동작들 중 적어도 하나는 도 11의 전자 장치(302)의 동작들 중 적어도 하나와 관련될 수 있다.
도 13을 참고하면, 동작(1310) 내에서, 일 실시예에 따른, 전자 장치는 전자 장치의 이미지 센서(예, 도 4의 카메라(425))를 이용한 제1 멀티미디어 콘텐트(예, 도 8의 제1 멀티미디어 콘텐트(810))의 획득에 의해 발생된 지정된 이벤트를 식별할 수 있다. 도 13의 동작(1310)은, 도 11의 동작(1120)과 관련될 수 있다.
도 13을 참고하면, 동작(1320) 내에서, 일 실시예에 따른, 전자 장치는 외부 전자 장치(예, 도 3 내지 도 4의 외부 전자 장치(304))로, 제1 멀티미디어 콘텐트가 획득된 위치, 또는 제1 멀티미디어 콘텐트 내에 포함된 하나 이상의 사용자들 중 적어도 하나가 포함된 제1 신호를 송신할 수 있다. 전자 장치는 제1 멀티미디어 콘텐트, 및/또는 상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터가 포함된 상기 제1 신호를, 외부 전자 장치로 송신할 수 있다. 상기 제1 신호는, 도 11의 제1 신호(1135)를 포함할 수 있다. 도 13의 동작(1320)은, 도 11의 동작(1130)과 관련될 수 있다. 상기 제1 신호는, 외부 전자 장치 내에 저장된 멀티미디어 콘텐트들 중에서, 상기 제1 멀티미디어 콘텐트와 연계될 수 있는 적어도 하나의 멀티미디어 콘텐트의 검색, 및/또는 송신을 요청하기 위하여, 전자 장치로부터 외부 전자 장치로 송신될 수 있다. 외부 전자 장치 내에 저장된 멀티미디어 콘텐트들은, 상기 외부 전자 장치에 의해 제공되는 가상 공간의 적어도 일부분을 표현한 이미지, 및/또는 비디오를 포함할 수 있다.
도 13을 참고하면, 동작(1330) 내에서, 일 실시예에 따른, 전자 장치는 제1 신호에 대한 응답으로써 외부 전자 장치로부터 송신된, 제2 신호에 기반하여, 외부 전자 장치에 의해 제공되는 가상 공간 내에서 획득된 하나 이상의 제2 멀티미디어 콘텐트들(예, 도 8의 제2 멀티미디어 콘텐트(840))을 획득할 수 있다.
도 13을 참고하면, 동작(1340) 내에서, 일 실시예에 따른, 전자 장치는 전자 장치의 메모리 내에, 하나 이상의 제2 멀티미디어 콘텐트들을, 제1 멀티미디어 콘텐트와 연계로 저장할 수 있다. 하나 이상의 제2 멀티미디어 콘텐트들이 제1 멀티미디어 콘텐트와 연계로 저장되는 것은, 상기 제1 멀티미디어 콘텐트, 및 상기 하나 이상의 제2 멀티미디어 콘텐트들이 합성된 다른 멀티미디어 콘텐트가 전자 장치 내에 저장되는 동작을 포함할 수 있다. 하나 이상의 제2 멀티미디어 콘텐트들이 제1 멀티미디어 콘텐트와 연계로 저장되기 때문에, 상기 제1 멀티미디어 콘텐트, 및 상기 하나 이상의 제2 멀티미디어 콘텐트들 중에서 어느 하나가 전자 장치의 디스플레이 내에 표시되는 상태 내에서, 전자 장치는 상기 제1 멀티미디어 콘텐트, 및 상기 하나 이상의 제2 멀티미디어 콘텐트들 중에서 디스플레이 내에 표시된 멀티미디어 콘텐트와 상이한 다른 멀티미디어 콘텐트를 연속적으로 표시할 수 있다. 도 13의 동작들(1330, 1340)은, 도 11의 동작(1150)과 관련될 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치는, 외부 전자 장치에 의해 제공되는 가상 공간과 관련된 정보를, 상기 외부 전자 장치로부터 획득할 수 있다. 전자 장치는, 전자 장치에 의해 탐지되는 이벤트에 기반하여 상기 가상 공간과 관련된 정보를 획득할 수 있다. 상기 이벤트는, 상기 가상 공간과 연계된 실제 공간 내 장소로 이동되는 이벤트와 같이, 상기 가상 공간과 연계된 사용자 경험을 제공하는데 적합한 상태를 포함할 수 있다. 전자 장치가 외부 전자 장치로부터 획득하는 정보는, 실제 공간으로부터 획득된 제1 멀티미디어 콘텐트와 연계된, 가상 공간과 관련된 제2 멀티미디어 콘텐트를 포함할 수 있다.
전자 장치를 통해, 가상 공간, 및 사용자 사이의 상호작용에 의해 생성된 정보를, 실제 공간 내에서 발생된 이벤트에 기반하여 제공하는 방안이 요구될 수 있다. 상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)(예, 도 3 내지 도 11의 전자 장치(302))는, 통신 회로(예, 도 4의 통신 회로(435-1)), 하나 이상의 센서들(예, 도 4의 센서(430)), 디스플레이(예, 도 4의 디스플레이(420)), 및 프로세서(예, 도 4의 프로세서(410-1))를 포함할 수 있다. 상기 프로세서는, 상기 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 상기 통신 회로를 통해 연결된 외부 전자 장치(예, 도 3 내지 도 6, 도 8, 및/또는 도 10 내지 도 11의 외부 전자 장치(304))로, 상기 외부 전자 장치에 의해 제공된 가상 공간(예, 도 3, 도 5 내지 도 6, 도 8, 및/또는 도 10의 가상 공간(320)), 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호(예, 도 11의 제1 신호(1135))를 송신하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호(예, 도 11의 제2 신호(1145))를 수신하는 것에 기반하여 상기 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션(예, 도 4의 제1 어플리케이션(440))과 상이한 제2 어플리케이션(예, 도 4의 제2 어플리케이션(445))에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를, 제공하도록, 구성될 수 있다. 일 실시예에 따른, 전자 장치는 실제 공간 내에서 발생된 이벤트에 기반하여, 상기 이벤트와 관련된 가상 공간의 정보를 획득할 수 있다.
예를 들어, 상기 프로세서는, 상기 데이터에 의하여 지시되는(indicated by) 상기 전자 장치의 위치의 변경에 기반하여, 상기 지정된 이벤트가 발생되었는지 여부를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 지정된 이벤트가 발생됨을 식별하는 것에 기반하여, 상기 외부 전자 장치로, 상기 변경된 위치와 연계된(linked) 상기 가상 공간의 일부분과 관련된 상기 정보를 요청하기 위한 상기 제1 신호를 송신하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제2 신호를 수신하는 것에 기반하여, 상기 제2 신호에 포함된 푸쉬 메시지(push message)에 대응하고, 상기 변경된 위치와 관련된, 상기 제2 어플리케이션을 실행하기 위한 시각적 객체(예, 도 7의 시각적 객체(710))를, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 시각적 객체를 선택함을 지시하는 입력에 응답하여, 상기 제2 어플리케이션을 실행하도록, 구성될 수 있다. 상기 프로세서는, 상기 디스플레이 내에, 상기 제2 어플리케이션으로부터 제공되고, 상기 제2 신호 내에 포함된 상기 정보의 적어도 일부분을 포함하는, 화면(예, 도 7의 화면(703))을 표시하도록, 구성될 수 있다.
예를 들어, 상기 하나 이상의 센서들은, 이미지 센서를 포함할 수 있다. 상기 프로세서는, 상기 이미지 센서를 이용한 제1 멀티미디어 콘텐트(예, 도 8 내지 도 9의 제1 멀티미디어 콘텐트(810))의 획득에 의하여 발생된 상기 지정된 이벤트에 기반하여, 상기 외부 전자 장치로, 상기 가상 공간 내에서 획득되고, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트(예, 도 8 내지 도 9의 제2 멀티미디어 콘텐트(840))를 요청하기 위한 상기 제1 신호를 송신하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터를 포함하는 상기 제1 신호를, 상기 외부 전자 장치로 송신하도록, 구성될 수 있다. 상기 메타 데이터는, 상기 제1 멀티미디어 콘텐트가 획득된 위치, 또는 상기 제1 멀티미디어 콘텐트 내에 포함된 하나 이상의 사용자들을 식별하기 위한 데이터를 포함하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제2 어플리케이션을 실행함을 지시하는 입력에 응답하여, 상기 디스플레이 내에 상기 제2 어플리케이션에 의해 제공된 화면을 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 화면 내에, 상기 정보에 의해 식별된, 상기 제1 멀티미디어 콘텐트, 및 상기 적어도 하나의 제2 멀티미디어 콘텐트의 그룹에 매칭된 시각적 객체(예, 도 9의 시각적 객체(914))를 표시하도록, 구성될 수 있다.
예를 들어, 상기 전자 장치는, 메모리(예, 도 4의 메모리(415-1))를 더 포함할 수 있다. 상기 프로세서는, 상기 외부 전자 장치로부터 수신된 상기 제2 신호 내에 포함되고, 상기 가상 공간, 및 상기 전자 장치 사이의 상호작용을 표현한(representing) 제1 멀티미디어 콘텐트를, 상기 메모리 내에 저장된 하나 이상의 제2 멀티미디어 콘텐트들을 열람하기 위한(for browsing) 상기 제2 어플리케이션에 의해 열람가능(browsable)한 상태 내에서 저장하도록, 구성될 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)(예, 도 3 내지 도 6, 도 8, 및/또는 도 10 내지 도 11의 외부 전자 장치(304))의 방법은, 상기 전자 장치 내 통신 회로를 통하여 외부 전자 장치로부터, 상기 전자 장치에 의해 제공되는 가상 공간과 관련된 정보를 요청하기 위한 제1 신호를 수신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 신호에 의하여 지시되고(indicated by), 상기 외부 전자 장치에 의해 탐지된 지정된 이벤트에 기반하여, 상기 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 전자 장치로, 상기 가상 공간과 관련된 제1 어플리케이션과 상이한 제2 어플리케이션을 이용하여 상기 획득된 정보를 제공하기 위한 제2 신호를 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 획득하는 동작은, 상기 제1 신호에 기반하여, 상기 지정된 이벤트가 발생된 상기 외부 전자 장치의 위치를 식별하는 동작을 포함할 수 있다. 상기 획득하는 동작은, 상기 식별된 위치와 연계된 상기 가상 공간의 일부분에 기반하여, 상기 정보를 획득하는 동작을 포함할 수 있다.
예를 들어, 상기 송신하는 동작은, 상기 제2 어플리케이션을 실행하기 위한 푸쉬 메시지를 포함하는 상기 제2 신호를, 상기 외부 전자 장치로 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 획득하는 동작은, 상기 외부 전자 장치에 의하여 획득된 제1 멀티미디어 콘텐트를 포함하는 상기 제1 신호를 수신하는 것에 기반하여, 상기 제1 멀티미디어 콘텐트 내에 포함된 적어도 하나의 사용자, 또는 상기 제1 멀티미디어 콘텐트가 획득된 위치 중 적어도 하나를 식별하는 동작을 포함할 수 있다. 상기 획득하는 동작은, 상기 가상 공간 내에서, 상기 적어도 하나의 사용자에 대응하는 적어도 하나의 아바타, 또는 상기 위치와 연계된 상기 가상 공간의 일부분에 기반하여, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트를 획득하는 동작을 포함할 수 있다.
예를 들어, 상기 송신하는 동작은, 상기 외부 전자 장치로, 상기 적어도 하나의 제2 멀티미디어 콘텐트를 포함하는 상기 제2 신호를 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 획득하는 동작은, 상기 제1 신호 내에 포함되고, 상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터에 기반하여, 상기 적어도 하나의 사용자, 또는 상기 제1 멀티미디어 콘텐트가 획득된 상기 위치 중 적어도 하나를 식별하는 동작을 포함할 수 있다.
예를 들어, 상기 송신하는 동작은, 상기 제1 신호에 의해 식별된, 상기 외부 전자 장치에 로그인된 사용자, 및 상기 가상 공간 사이의 상호작용을 표현한(representing) 제1 멀티미디어 콘텐트를 식별하는 동작을 포함할 수 있다. 상기 송신하는 동작은, 상기 외부 전자 장치의 메모리 내에 저장된 하나 이상의 제2 멀티미디어 콘텐트들을 열람하기 위한 상기 제2 어플리케이션에 의해 열람가능한 상태의, 상기 제1 멀티미디어 콘텐트를 포함하는 상기 제2 신호를, 상기 외부 전자 장치로 송신하는 동작을 포함할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치 내 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하는 동작(예, 도 11의 동작(1120))을 포함할 수 있다. 상기 방법은, 상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 상기 전자 장치 내 통신 회로를 통해 연결된 외부 전자 장치로, 상기 외부 전자 장치에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호를 송신하는 동작(예, 도 11의 동작(1130))을 포함할 수 있다. 상기 방법은, 상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호를 수신하는 것에 기반하여 상기 전자 장치 내 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를 제공하는 동작(예, 도 11의 동작(1150))을 포함할 수 있다.
예를 들어, 상기 송신하는 동작은, 상기 데이터에 의하여 지시되는 상기 전자 장치의 위치의 변경에 기반하여, 상기 지정된 이벤트가 발생되었는지 여부를 식별하는 동작을 포함할 수 있다. 상기 송신하는 동작은, 상기 지정된 이벤트가 발생됨을 식별하는 것에 기반하여, 상기 외부 전자 장치로, 상기 변경된 위치와 연계된 상기 가상 공간의 일부분과 관련된 상기 정보를 요청하기 위한 상기 제1 신호를 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 제공하는 동작은, 상기 제2 신호를 수신하는 것에 기반하여, 상기 제2 신호에 포함된 푸쉬 메시지에 대응하고, 상기 변경된 위치와 관련된, 상기 제2 어플리케이션을 실행하기 위한 시각적 객체를, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제공하는 동작은, 상기 시각적 객체를 선택함을 지시하는 입력에 응답하여, 상기 제2 어플리케이션을 실행하는 동작을 포함할 수 있다. 상기 제공하는 동작은, 상기 디스플레이 내에, 상기 제2 어플리케이션으로부터 제공되고, 상기 제2 신호 내에 포함된 상기 정보의 적어도 일부분을 포함하는, 화면을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 송신하는 동작은, 상기 전자 장치 내 이미지 센서를 이용한 제1 멀티미디어 콘텐트의 획득에 의하여 발생된 상기 지정된 이벤트에 기반하여, 상기 외부 전자 장치로, 상기 가상 공간 내에서 획득되고, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트를 요청하기 위한 상기 제1 신호를 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 송신하는 동작은, 상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터를 포함하는 상기 제1 신호를, 상기 외부 전자 장치로 송신하는 동작을 포함할 수 있다. 상기 메타 데이터는, 상기 제1 멀티미디어 콘텐트가 획득된 위치, 또는 상기 제1 멀티미디어 콘텐트 내에 포함된 하나 이상의 사용자들을 식별하기 위한 데이터를 포함할 수 있다.
예를 들어, 상기 제공하는 동작은, 상기 제2 어플리케이션을 실행함을 지시하는 입력에 응답하여, 상기 디스플레이 내에 상기 제2 어플리케이션에 의해 제공된 화면을 표시하는 동작을 포함할 수 있다. 상기 제공하는 동작은, 상기 화면 내에, 상기 정보에 의해 식별된, 상기 제1 멀티미디어 콘텐트, 및 상기 적어도 하나의 제2 멀티미디어 콘텐트의 그룹에 매칭된 시각적 객체를 표시하는 동작을 포함할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)(예, 도 3 내지 도 6, 도 8, 및/또는 도 10 내지 도 11의 외부 전자 장치(304))는, 통신 회로(예, 도 4의 통신 회로(435-2)), 및 프로세서(예, 도 4의 프로세서(410-2))를 포함할 수 있다. 상기 프로세서는, 상기 통신 회로를 통하여 외부 전자 장치(예, 도 3 내지 도 11의 전자 장치(302))로부터, 상기 전자 장치에 의해 제공되는 가상 공간(예, 도 3, 도 5 내지 도 6, 도 8, 및/또는 도 10의 가상 공간(320))과 관련된 정보를 요청하기 위한 제1 신호(예, 도 11의 제1 신호(1135))를 수신하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 신호에 의해 지시되고, 상기 외부 전자 장치에 의해 탐지된 지정된 이벤트에 기반하여, 상기 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 전자 장치로, 상기 가상 공간과 관련된 제1 어플리케이션(예, 도 4의 제1 어플리케이션(440))과 상이한 제2 어플리케이션(예, 도 4의 제2 어플리케이션(445))을 이용하여 상기 획득된 정보를 제공하기 위한 제2 신호(예, 도 11의 제2 신호(1145))를 송신하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 신호에 기반하여, 상기 지정된 이벤트가 발생된 상기 외부 전자 장치의 위치를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 식별된 위치와 연계된 상기 가상 공간의 일부분에 기반하여, 상기 정보를 획득하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제2 어플리케이션을 실행하기 위한 푸쉬 메시지를 포함하는 상기 제2 신호를, 상기 외부 전자 장치로 송신하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 외부 전자 장치에 의하여 획득된 제1 멀티미디어 콘텐트(예, 도 8 내지 도 9의 제1 멀티미디어 콘텐트(810))를 포함하는 상기 제1 신호를 수신하는 것에 기반하여, 상기 제1 멀티미디어 콘텐트 내에 포함된 적어도 하나의 사용자, 또는 상기 제1 멀티미디어 콘텐트가 획득된 위치 중 적어도 하나를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 가상 공간 내에서, 상기 적어도 하나의 사용자에 대응하는 적어도 하나의 아바타, 또는 상기 위치와 연계된 상기 가상 공간의 일부분에 기반하여, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트(예, 도 8 내지 도 9의 제2 멀티미디어 콘텐트(840))를 획득하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 외부 전자 장치로, 상기 적어도 하나의 제2 멀티미디어 콘텐트를 포함하는 상기 제2 신호를 송신하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 신호 내에 포함되고, 상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터에 기반하여, 상기 적어도 하나의 사용자, 또는 상기 제1 멀티미디어 콘텐트가 획득된 상기 위치 중 적어도 하나를 식별하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 신호에 의해 식별된, 상기 외부 전자 장치에 로그인된 사용자(예, 도 3, 도 5, 도 8, 및/또는 도 10의 사용자(310)), 및 상기 가상 공간 사이의 상호작용을 표현한 제1 멀티미디어 콘텐트를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 전자 장치의 메모리 내에 저장된 하나 이상의 제2 멀티미디어 콘텐트들을 열람하기 위한 상기 제2 어플리케이션에 의해 열람가능한 상태의, 상기 제1 멀티미디어 콘텐트를 포함하는 상기 제2 신호를, 상기 외부 전자 장치로 송신하도록, 구성될 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.
Claims (20)
- 전자 장치(electronic device)(302)에 있어서,
통신 회로(435-1);
하나 이상의 센서들(430);
디스플레이(420); 및
프로세서(410-1)를 포함하고, 상기 프로세서는,
상기 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하고;
상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 상기 통신 회로를 통해 연결된 외부 전자 장치(304)로, 상기 외부 전자 장치에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호(1135)를 송신하고; 및
상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호(1145)를 수신하는 것에 기반하여 상기 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션(440)과 상이한 제2 어플리케이션(445)에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를 제공하도록, 구성된,
전자 장치. - 제1항에 있어서, 상기 프로세서는,
상기 데이터에 의하여 지시되는(indicated by) 상기 전자 장치의 위치의 변경에 기반하여, 상기 지정된 이벤트가 발생되었는지 여부를 식별하고;
상기 지정된 이벤트가 발생됨을 식별하는 것에 기반하여, 상기 외부 전자 장치로, 상기 변경된 위치와 연계된(linked) 상기 가상 공간의 일부분과 관련된 상기 정보를 요청하기 위한 상기 제1 신호를 송신하도록, 구성된,
전자 장치. - 제1항 내지 제2항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제2 신호를 수신하는 것에 기반하여, 상기 제2 신호에 포함된 푸쉬 메시지(push message)에 대응하고, 상기 변경된 위치와 관련된, 상기 제2 어플리케이션을 실행하기 위한 시각적 객체(710)를, 상기 디스플레이 내에 표시하도록, 구성된,
전자 장치. - 제1항 내지 제3항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 시각적 객체를 선택함을 지시하는 입력에 응답하여, 상기 제2 어플리케이션을 실행하고;
상기 디스플레이 내에, 상기 제2 어플리케이션으로부터 제공되고, 상기 제2 신호 내에 포함된 상기 정보의 적어도 일부분을 포함하는, 화면(703)을 표시하도록, 구성된,
전자 장치. - 제1항 내지 제4항 중 어느 한 항에 있어서, 상기 하나 이상의 센서들은,
이미지 센서를 포함하고,
상기 프로세서는,
상기 이미지 센서를 이용한 제1 멀티미디어 콘텐트(810)의 획득에 의하여 발생된 상기 지정된 이벤트에 기반하여, 상기 외부 전자 장치로, 상기 가상 공간 내에서 획득되고, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트(840)를 요청하기 위한 상기 제1 신호를 송신하도록, 구성된,
전자 장치. - 제1항 내지 제5항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터를 포함하는 상기 제1 신호를, 상기 외부 전자 장치로 송신하고;
상기 메타 데이터는,
상기 제1 멀티미디어 콘텐트가 획득된 위치, 또는 상기 제1 멀티미디어 콘텐트 내에 포함된 하나 이상의 사용자들을 식별하기 위한 데이터를 포함하도록, 구성된,
전자 장치. - 제1항 내지 제6항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제2 어플리케이션을 실행함을 지시하는 입력에 응답하여, 상기 디스플레이 내에 상기 제2 어플리케이션에 의해 제공된 화면을 표시하고;
상기 화면 내에, 상기 정보에 의해 식별된, 상기 제1 멀티미디어 콘텐트, 및 상기 적어도 하나의 제2 멀티미디어 콘텐트의 그룹에 매칭된 시각적 객체(914)를 표시하도록, 구성된,
전자 장치. - 제1항 내지 제7항 중 어느 한 항에 있어서, 메모리(415-1)를 더 포함하고,
상기 프로세서는,
상기 외부 전자 장치로부터 수신된 상기 제2 신호 내에 포함되고, 상기 가상 공간, 및 상기 전자 장치 사이의 상호작용을 표현한(representing) 제1 멀티미디어 콘텐트를, 상기 메모리 내에 저장된 하나 이상의 제2 멀티미디어 콘텐트들을 열람하기 위한(for browsing) 상기 제2 어플리케이션에 의해 열람가능(browsable)한 상태 내에서 저장하도록, 구성된,
전자 장치. - 전자 장치(electronic device)의 방법에 있어서,
상기 전자 장치 내 통신 회로를 통하여 외부 전자 장치로부터, 상기 전자 장치에 의해 제공되는 가상 공간과 관련된 정보를 요청하기 위한 제1 신호를 수신하는 동작;
상기 제1 신호에 의하여 지시되고(indicated by), 상기 외부 전자 장치에 의해 탐지된 지정된 이벤트에 기반하여, 상기 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 획득하는 동작; 및
상기 외부 전자 장치로, 상기 가상 공간과 관련된 제1 어플리케이션과 상이한 제2 어플리케이션을 이용하여 상기 획득된 정보를 제공하기 위한 제2 신호를 송신하는 동작을 포함하는,
방법. - 제9항에 있어서, 상기 획득하는 동작은,
상기 제1 신호에 기반하여, 상기 지정된 이벤트가 발생된 상기 외부 전자 장치의 위치를 식별하는 동작;
상기 식별된 위치와 연계된 상기 가상 공간의 일부분에 기반하여, 상기 정보를 획득하는 동작을 포함하는,
방법. - 제9항 내지 제10항 중 어느 한 항에 있어서, 상기 송신하는 동작은,
상기 제2 어플리케이션을 실행하기 위한 푸쉬 메시지를 포함하는 상기 제2 신호를, 상기 외부 전자 장치로 송신하는 동작을 포함하는,
방법. - 제9항 내지 제11항 중 어느 한 항에 있어서, 상기 획득하는 동작은,
상기 외부 전자 장치에 의하여 획득된 제1 멀티미디어 콘텐트를 포함하는 상기 제1 신호를 수신하는 것에 기반하여, 상기 제1 멀티미디어 콘텐트 내에 포함된 적어도 하나의 사용자, 또는 상기 제1 멀티미디어 콘텐트가 획득된 위치 중 적어도 하나를 식별하는 동작;
상기 가상 공간 내에서, 상기 적어도 하나의 사용자에 대응하는 적어도 하나의 아바타, 또는 상기 위치와 연계된 상기 가상 공간의 일부분에 기반하여, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트를 획득하는 동작을 포함하는,
방법. - 제9항 내지 제12항 중 어느 한 항에 있어서, 상기 송신하는 동작은,
상기 외부 전자 장치로, 상기 적어도 하나의 제2 멀티미디어 콘텐트를 포함하는 상기 제2 신호를 송신하는 동작을 포함하는,
방법. - 제9항 내지 제13항 중 어느 한 항에 있어서, 상기 획득하는 동작은,
상기 제1 신호 내에 포함되고, 상기 제1 멀티미디어 콘텐트에 대응하는 메타 데이터에 기반하여, 상기 적어도 하나의 사용자, 또는 상기 제1 멀티미디어 콘텐트가 획득된 상기 위치 중 적어도 하나를 식별하는 동작을 포함하는,
방법. - 제9항 내지 제14항 중 어느 한 항에 있어서, 상기 송신하는 동작은,
상기 제1 신호에 의해 식별된, 상기 외부 전자 장치에 로그인된 사용자, 및 상기 가상 공간 사이의 상호작용을 표현한(representing) 제1 멀티미디어 콘텐트를 식별하는 동작;
상기 외부 전자 장치의 메모리 내에 저장된 하나 이상의 제2 멀티미디어 콘텐트들을 열람하기 위한 상기 제2 어플리케이션에 의해 열람가능한 상태의, 상기 제1 멀티미디어 콘텐트를 포함하는 상기 제2 신호를, 상기 외부 전자 장치로 송신하는 동작을 포함하는,
방법. - 전자 장치의 방법에 있어서,
상기 전자 장치 내 하나 이상의 센서들로부터 출력된 데이터에 기반하여, 지정된 이벤트를 식별하는 동작(1120);
상기 지정된 이벤트의 발생을 식별하는 것에 응답하여, 상기 전자 장치 내 통신 회로를 통해 연결된 외부 전자 장치로, 상기 외부 전자 장치에 의해 제공된 가상 공간, 및 상기 지정된 이벤트 전부와 관련된 정보를 요청하기 위한 제1 신호를 송신하는 동작(1130); 및
상기 외부 전자 장치로부터 상기 제1 신호에 대응하는 제2 신호를 수신하는 것에 기반하여 상기 전자 장치 내 디스플레이를 제어하여, 상기 가상 공간의 표시를 위한 제1 어플리케이션과 상이한 제2 어플리케이션에 의하여 실행가능한(executable) 상태 내에서, 상기 제2 신호 내에 포함된 정보를 제공하는 동작(1150)을 포함하는,
방법. - 제16항에 있어서, 상기 송신하는 동작은,
상기 데이터에 의하여 지시되는 상기 전자 장치의 위치의 변경에 기반하여, 상기 지정된 이벤트가 발생되었는지 여부를 식별하는 동작; 및
상기 지정된 이벤트가 발생됨을 식별하는 것에 기반하여, 상기 외부 전자 장치로, 상기 변경된 위치와 연계된 상기 가상 공간의 일부분과 관련된 상기 정보를 요청하기 위한 상기 제1 신호를 송신하는 동작을 포함하는,
방법. - 제16항 내지 제17항 중 어느 한 항에 있어서, 상기 제공하는 동작은,
상기 제2 신호를 수신하는 것에 기반하여, 상기 제2 신호에 포함된 푸쉬 메시지에 대응하고, 상기 변경된 위치와 관련된, 상기 제2 어플리케이션을 실행하기 위한 시각적 객체를, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법. - 제16항 내지 제18항 중 어느 한 항에 있어서, 상기 제공하는 동작은,
상기 시각적 객체를 선택함을 지시하는 입력에 응답하여, 상기 제2 어플리케이션을 실행하는 동작; 및
상기 디스플레이 내에, 상기 제2 어플리케이션으로부터 제공되고, 상기 제2 신호 내에 포함된 상기 정보의 적어도 일부분을 포함하는, 화면을 표시하는 동작을 포함하는,
방법. - 제16항 내지 제19항 중 어느 한 항에 있어서, 상기 송신하는 동작은,
상기 전자 장치 내 이미지 센서를 이용한 제1 멀티미디어 콘텐트의 획득에 의하여 발생된 상기 지정된 이벤트에 기반하여, 상기 외부 전자 장치로, 상기 가상 공간 내에서 획득되고, 상기 제1 멀티미디어 콘텐트와 관련된 적어도 하나의 제2 멀티미디어 콘텐트를 요청하기 위한 상기 제1 신호를 송신하는 동작을 포함하는,
방법.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142797A KR20240062353A (ko) | 2022-10-31 | 2022-10-31 | 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 |
PCT/KR2023/009670 WO2024096244A1 (ko) | 2022-10-31 | 2023-07-07 | 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 |
US18/359,287 US20240144547A1 (en) | 2022-10-31 | 2023-07-26 | Electronic device for providing information on virtual space and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220142797A KR20240062353A (ko) | 2022-10-31 | 2022-10-31 | 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240062353A true KR20240062353A (ko) | 2024-05-09 |
Family
ID=90930666
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220142797A KR20240062353A (ko) | 2022-10-31 | 2022-10-31 | 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20240062353A (ko) |
WO (1) | WO2024096244A1 (ko) |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140236775A1 (en) * | 2013-02-19 | 2014-08-21 | Amazon Technologies, Inc. | Purchase of physical and virtual products |
KR102471977B1 (ko) * | 2015-11-06 | 2022-11-30 | 삼성전자 주식회사 | 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치 |
KR20170060485A (ko) * | 2015-11-24 | 2017-06-01 | 삼성전자주식회사 | 표시 모드에 따른 콘텐트를 표시하기 위한 전자 장치 및 방법 |
EP3252599B1 (en) * | 2016-03-25 | 2021-02-17 | Cloudminds (Shenzhen) Robotics Systems Co., Ltd. | Method and apparatus for starting application program |
KR20210127054A (ko) * | 2020-04-10 | 2021-10-21 | 삼성전자주식회사 | 증강 현실에서 커뮤니케이션을 위한 전자 장치 및 그에 관한 방법 |
-
2022
- 2022-10-31 KR KR1020220142797A patent/KR20240062353A/ko unknown
-
2023
- 2023-07-07 WO PCT/KR2023/009670 patent/WO2024096244A1/ko unknown
Also Published As
Publication number | Publication date |
---|---|
WO2024096244A1 (ko) | 2024-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9928627B2 (en) | Method and apparatus for grouping and de-overlapping items in a user interface | |
US9104293B1 (en) | User interface points of interest approaches for mapping applications | |
US10063996B2 (en) | Methods and systems for providing geospatially-aware user-customizable virtual environments | |
US9934754B2 (en) | Dynamic sensor array for augmented reality system | |
US20160063671A1 (en) | A method and apparatus for updating a field of view in a user interface | |
JP2017505923A (ja) | 画像のジオロケーションのためのシステムおよび方法 | |
US10448213B2 (en) | Methods for location of persons with electronic wearables | |
CN114902208A (zh) | 增强现实对象登记表 | |
WO2015081032A1 (en) | Methods and systems for locating persons and places with mobile devices | |
KR102632639B1 (ko) | 이미지 기반 컨텐츠의 개인화 추천을 위한 방법, 시스템, 및 비-일시적인 컴퓨터 판독가능한 기록 매체 | |
KR20210004973A (ko) | 근거리 무선 통신을 기반으로 근처 지인을 파악하기 위한 방법과 시스템 및 비-일시적인 컴퓨터 판독 가능한 기록 매체 | |
CN113209616A (zh) | 虚拟场景中的对象标记方法、装置、终端以及存储介质 | |
KR102225175B1 (ko) | 영상 통화를 이용한 길안내 방법 및 시스템 | |
US9538319B1 (en) | Synchronization for mapping applications | |
KR101317869B1 (ko) | 메쉬데이터 생성장치, 그 방법, 도우미 서비스 제공 서버 그리고 스마트 단말기 | |
JP2022536554A (ja) | 大量の時系列データの滑らか且つ解像度が扱いやすいビュー | |
KR102368953B1 (ko) | 가상 현실 공간 제공 방법 및 시스템 | |
KR20240062353A (ko) | 가상 공간의 정보를 제공하기 위한 전자 장치 및 그 방법 | |
US20240144547A1 (en) | Electronic device for providing information on virtual space and method thereof | |
CN112083845B (zh) | 气泡控件处理方法及装置 | |
CN109565644A (zh) | 用于基于位置的服务的设备 | |
KR102309243B1 (ko) | Pip 모드에서 대화방에 컨텐츠를 공유하는 방법, 시스템, 및 컴퓨터 프로그램 | |
TW202131204A (zh) | 具有可預測之查詢回應時間之地理定位資料的分區式儲存 | |
US12114231B2 (en) | Content notification using a multi-dimensional fabric interface | |
KR20200127683A (ko) | 스팟 정보를 공유하는 방법 및 시스템 |