KR20240058013A - 가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법 - Google Patents

가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법 Download PDF

Info

Publication number
KR20240058013A
KR20240058013A KR1020230140766A KR20230140766A KR20240058013A KR 20240058013 A KR20240058013 A KR 20240058013A KR 1020230140766 A KR1020230140766 A KR 1020230140766A KR 20230140766 A KR20230140766 A KR 20230140766A KR 20240058013 A KR20240058013 A KR 20240058013A
Authority
KR
South Korea
Prior art keywords
electronic device
visual object
avatar
user
displaying
Prior art date
Application number
KR1020230140766A
Other languages
English (en)
Inventor
이화준
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/016427 priority Critical patent/WO2024090914A1/ko
Publication of KR20240058013A publication Critical patent/KR20240058013A/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • Devices For Indicating Variable Information By Combining Individual Elements (AREA)

Abstract

일 실시예에 따른, 웨어러블 장치의 적어도 하나의 프로세서는, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 디스플레이 상에 가상 공간을 표시할 수 있다. 상기 적어도 하나의 프로세서는, 제1 모습을 가지고, 사용자의 현재 표현인 제1 아바타를 상기 가상 공간 내에 표시할 수 있다. 상기 적어도 하나의 프로세서는, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시할 수 있다. 예를 들면, 상기 메타버스 서비스는, 5G(fifth generation), 및/또는 6G(sixth generation)에 기반하는 네트워크를 통해 제공될 수 있다.

Description

가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법{ELECTRONIC DEVICE FOR DISPLAYING MODIFICATION OF VIRTUAL OBJECT AND METHOD THEREOF}
본 개시(present disclosure)는 가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법에 관한 것이다.
강화된(enhanced) 사용자 경험(user experience)을 제공하기 위해, 실제 세계(real-world) 내 외부 객체와 연계로 컴퓨터에 의해 생성된 정보를 표시하는 증강 현실(augmented reality, AR) 서비스를 제공하는 전자 장치가 개발되고 있다. 상기 전자 장치는, 사용자에 의해 착용될 수 있는 웨어러블 장치일 수 있다. 예를 들면, 상기 전자 장치는, AR 안경(glasses), 및/또는 머리 착용형 장치(head-mounted device, HMD)일 수 있다.
일 실시예에 따른, 웨어러블 장치는, 디스플레이, 프로세서, 및 인스트럭션들을 저장하기 위한 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 디스플레이 상에 상기 가상 공간을 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가, 제1 모습(appearance)을 가지고, 사용자의 현재 표현(current representation)인 제1 아바타를, 상기 가상 공간 내에 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하도록, 야기할 수 있다.
일 실시예에 따른, 비-일시적 컴퓨터 판독 가능 저장 매체는 인스트럭션들을 저장하도록, 구성될 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 가상 웨어러블 장치의 디스플레이 상에 상기 가상 공간을 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 제1 모습(appearance)을 가지고, 사용자의 현재 표현인 제1 아바타를, 상기 가상 공간 내에 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
일 실시예에서, 디스플레이, 메모리 및 프로세서를 포함하는 전자 장치의 방법이 제공된다. 상기 방법은, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 디스플레이 상에 상기 가상 공간을 표시하는 동작을 포함할 수 있다. 상기 방법은, 제1 모습(appearance)을 가지고, 사용자의 현재 표현(current representation)인 제1 아바타를, 상기 가상 공간 내에 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하는 동작을 포함할 수 있다.
일 실시예에 따른, 웨어러블 장치는, 디스플레이, 인스트럭션들을 저장하기 위한 메모리 및 상기 인스트럭션들을 실행하기 위한 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 가상 공간으로 진입함을 나타내는 입력에 기반하여, 상기 가상 공간 내에 위치된 아바타와 관련된 외부 전자 장치로부터 정보를 수신하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 정보를 수신하는 것에 기반하여, 제1 모습(appearance)의 제1 아바타를 포함하는 상기 가상 공간의 적어도 일부분을 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 입력을 식별하기 이전에 상기 웨어러블 장치에 의해 표시되었던 제2 모습의 상기 아바타를 더(further) 포함하는 상기 정보에 기반하여, 상기 아바타와 함께, 상기 제2 모습의 상기 아바타를 표현하는 시각적 객체를 표시하도록, 구성될 수 있다.
일 실시예에 따른, 비-일시적 컴퓨터 판독 가능 저장 매체는 인스트럭션들을 저장하도록, 구성될 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 가상 공간으로 진입함을 나타내는 입력에 기반하여, 상기 가상 공간 내에 위치된 아바타와 관련된 외부 전자 장치로부터 정보를 수신하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 시에, 상기 정보를 수신하는 것에 기반하여, 제1 모습(appearance)의 제1 아바타를 포함하는 상기 가상 공간의 적어도 일부분을 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 시에, 상기 입력을 식별하기 이전에 상기 웨어러블 장치에 의해 표시되었던 제2 모습의 상기 아바타를 더 포함하는 상기 정보에 기반하여, 상기 아바타와 함께, 상기 제2 모습의 상기 아바타를 표현하는 시각적 객체를 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 가상 공간으로 진입하기 위한 웨어러블 장치의 요청에 기반하여, 상기 가상 공간 내에서 아바타의 정보를 식별하는 동작을 포함할 수 있다. 상기 방법은, 제1 모습의 상기 제1 아바타의 상기 정보를 식별하는 것에 기반하여, 상기 요청 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 아바타의 제2 모습이 상기 아바타의 상기 제1 모습과 다름을 식별하는 것에 기반하여, 상기 제1 모습의 상기 아바타를 포함하고, 상기 제1 모습으로부터 상기 제2 모습으로 상기 아바타의 변경 이력을 포함하는 상기 정보를 상기 웨어러블 장치로 송신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 모습의 상기 제1 아바타의 상기 정보를 식별하는 것에 기반하여, 상기 아바타의 상기 제1 모습이 상기 제2 모습과 동일함을 식별하는 것에 기반하여, 상기 이력 없이 상기 제1 모습의 상기 아바타를 포함하는 상기 정보를 상기 웨어러블 장치로 송신하는 동작을 포함할 수 있다.
일 실시예(an embodiment)에 따른, 전자 장치(electronic device)는, 디스플레이, 통신 회로, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 통신 회로를 통해 연결된 외부 전자 장치로부터 수신된 정보에 기반하여, 상기 디스플레이 내에, 사용자를 표현하는 제1 시각적 객체를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 정보에 기반하여, 상기 제1 시각적 객체가 상기 디스플레이를 통해 표시된 횟수를 식별하도록, 구성될 수 있다. 상기 프로세서는, 지정된 횟수 미만의 횟수를 식별하는 것에 기반하여, 상기 디스플레이 내에서 상기 제1 시각적 객체와 함께, 상기 제1 시각적 객체 이전에 상기 사용자를 표현하는 제2 시각적 객체를 표시하도록, 구성될 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 통신 회로를 통해 연결된 외부 전자 장치로부터 수신된 정보에 기반하여, 상기 전자 장치의 디스플레이 내에, 사용자를 표현하는 제1 시각적 객체를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여, 상기 제1 시각적 객체가 상기 디스플레이를 통해 표시된 횟수를 식별하는 동작을 포함할 수 있다. 상기 방법은, 지정된 횟수 미만의 횟수를 식별하는 것에 기반하여, 상기 디스플레이 내에서 상기 제1 시각적 객체와 함께, 상기 제1 시각적 객체 이전에 상기 사용자를 표현하는 제2 시각적 객체를 표시하는 동작을 포함할 수 있다.
일 실시예에 따른, 전자 장치(electronic device)는, 디스플레이, 통신 회로 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통하여 상기 전자 장치의 제1 사용자에게, 가상 공간 내에 포함되고, 제2 사용자를 표현하는 제1 시각적 객체를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 통신 회로를 통하여 외부 전자 장치로부터, 상기 제1 사용자에 의해 열람되었던(has been browsed) 일(a) 시각적 객체를 지시하는 정보를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 정보로부터, 상기 제1 시각적 객체와 상이한 제2 시각적 객체를 식별하는 것에 기반하여, 상기 제1 사용자에게 표시되는 상기 제1 시각적 객체와 함께, 상기 제2 시각적 객체를 표시하도록, 구성될 수 있다.
일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 제1 사용자에게, 가상 공간 내에 포함되고, 제2 사용자를 표현하는 제1 시각적 객체를 표시하는 동작을 포함할 수 있다. 상기 방법은, 외부 전자 장치로부터, 상기 제1 사용자에 의해 열람되었던(has been browsed) 일(a) 시각적 객체를 지시하는 정보를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 정보로부터, 상기 제1 시각적 객체와 상이한 제2 시각적 객체를 식별하는 것에 기반하여, 상기 제1 사용자에게 표시되는 상기 제1 시각적 객체와 함께, 상기 제2 시각적 객체를 표시하는 동작을 포함할 수 있다.
도 1은, 일 실시예에 따른, 전자 장치가, 외부 전자 장치로부터 획득된 정보에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다.
도 2는, 일 실시예에 따른, 전자 장치의 블록도이다.
도 3은, 일 실시예에 따른, 전자 장치가 가상 공간의 적어도 일부분을 표시하는 동작의 일 예를 도시한다.
도 4a, 도 4b 및 도 4c는, 일 실시예에 따른, 전자 장치가, 가상 객체를 표현한 시각적 객체를 표시하는 동작의 일 예를 도시한다.
도 5a 및 도 5b는, 일 실시예에 따른, 전자 장치가, 가상 객체가 변경된 히스토리에 기반하여 시각적 객체를 표시하는 동작의 일 예를 도시한다.
도 6은, 일 실시예에 따른, 전자 장치가 가상 객체에 대응하는 시각적 객체에 대한 입력을 식별하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른, 전자 장치 및 외부 전자 장치 사이의 신호 흐름도의 일 예를 도시한다.
도 8은, 일 실시예에 따른, 전자 장치에 대한 흐름도의 일 예를 도시한다.
도 9는, 일 실시예에 따른, 전자 장치에 대한 흐름도의 일 예를 도시한다.
도 10은, 서버를 통해 메타버스 서비스를 제공받는 제1 실시예 환경에 대한 예시도이다.
도 11은 사용자 단말들 및 제2 단말의 직접 연결을 통해 메타버스 서비스를 제공받는 제2 실시예 환경에 대한 예시도이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.
도 1은, 일 실시예에 따른, 전자 장치가, 외부 전자 장치로부터 획득된 정보에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다. 도 1은 네트워크에 기반하여 서로 연결된 복수의 전자 장치들을 도시한 도면이다. 도 1을 참고하면, 제1 전자 장치(101-1), 제2 전자 장치(101-2), 및 제3 전자 장치(120)가 유선 네트워크 및/또는 무선 네트워크에 기반하여 서로 연결된 예시적인 상황이 도시된다. 도 1의 복수의 전자 장치들에 포함된 하드웨어 컴포넌트는 도 2를 참고하여 설명한다.
상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(bluetooth low-energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록, 도 1의 복수의 전자 장치들이 직접적으로 연결된(directly connected) 것으로 도시되었으나, 상기 복수의 전자 장치들은, 하나 이상의 중간 노드들(intermediate nodes)(예, 라우터 및/또는 AP(access point))를 통해 간접적으로 연결될 수 있다.
도 1을 참고하면, 제1 전자 장치(101-1), 및 제2 전자 장치(101-2)는, 사용자(예, 제1 사용자(110-1), 및 제2 사용자(110-2) 각각을 포함하는 사용자(110))에 의해 소유되는(be owned by) 단말일 수 있다. 단말은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(personal computer, PC), 스마트폰(smartphone), 스마트패드(smartpad) 및/또는 태블릿 PC를 포함할 수 있다. 단말은, 스마트워치(smartwatch) 및/또는 HMD(head-mounted device)와 같은 스마트액세서리를 포함할 수 있다. 도 1을 참고하면, HMD의 폼 팩터를 가지는 제1 전자 장치(101-1), 및 제2 전자 장치(101-2)의 예시적인 형태들이 도시되지만, 실시예가 이에 제한되는 것은 아니다. 이하에서, 제1 전자 장치(101-1), 및 제2 전자 장치(101-2)를 포함하는 단말이, 전자 장치(101)로 참조될 수 있다. 전자 장치(101)의 사용자(110)는, 제3 전자 장치(120)에 의해 제공되는 서비스의 가입자들(subscribers)일 수 있다.
도 1을 참고하면, 제3 전자 장치(120)는 서비스 제공자의 서버를 포함할 수 있다. 서버는 하나 이상의 PC 및/또는 워크스테이션을 포함할 수 있다. 일 실시예에서, 상기 서비스 제공자는 가입자들 사이의 상호연결성(interconnectivity)을 강화하는 서비스로써, 비디오 컨퍼런스(video conference) 및/또는 메타버스 서비스를 운영할 수 있다. 이하에서, 사용자의 단말인 전자 장치(101)와 구분하는 관점에서(in terms of), 제3 전자 장치(120)는 외부 전자 장치(120)로 참조될 수 있다.
일 실시예에 따른, 전자 장치(101)는, 전자 장치(101)의 사용자(110)에게 가상 공간(140)에 기반하는 사용자 경험(user experience)을 제공할 수 있다. 전자 장치(101)는 외부 전자 장치(120)와 통신하여, 가상 공간(140)에 대한 정보를 획득할 수 있다. 비록, 전자 장치(101)가 상기 정보에 기반하여, 가상 공간(140)의 적어도 일부분을 시각화하는 일 실시예가 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101)는 가상 공간(140)과 관련된 오디오 신호를 출력할 수 있다. 예를 들어, 전자 장치(101)는 가상 공간(140)과 관련된 진동을 출력할 수 있다.
도 1을 참고하면, 외부 전자 장치(120)는 적어도 하나의 가상 공간(예, 가상 공간(140))을 이용하여, 몰입형 서비스 플랫폼(immersive service platform)과 관련된 기능들을 제공할 수 있다. 외부 전자 장치(120)는 복수의 축들(예, x 축, y 축 및/또는 z 축)에 의해 형성된 좌표계(예, 2차원 좌표계 또는 3차원 좌표계)를 따라 형성된 가상 공간(140) 내에, 하나 이상의 가상 객체들을 배치(arrange)할 수 있다. 도 1을 참고하면, 외부 전자 장치(120)가 가상 공간(140) 내에 배치한 제1 가상 객체(130-1), 및 제2 가상 객체(130-2)가 도시된다. 외부 전자 장치(120)는, 전자 장치(101)로부터 수신된 신호(예, 가상 공간(140)으로 액세스하기 위한 신호)에 기반하여, 가상 공간(140) 내에, 상기 전자 장치(101)의 사용자(110)를 표현하는(represents) 아바타를 배치할 수 있다. 상기 아바타는, 캐릭터로 지칭될(referred as) 수 있다.
일 실시예에서, 아바타는, 사용자와 관련된 정보를 이용하여 생성될 수 있다. 아바타는, 3차원 그래픽적 객체들(three dimensional graphical objects)의 조합으로, 예를 들어, 후술하는 바와 같이, 하나 이상의 의류들을 표현하는 가상 객체 및 신체 부위(예, 상반신과 같은 사용자의 일부분 및/또는 사용자의 전체 신체)를 표현하는 가상 객체의 조합을 포함할 수 있다. 아바타는, 하나 이상의 가상 객체들을 조합하거나 변형하기 위한 사용자 입력을 수신한 전자 장치(101)에 의해 생성될 수 있다. 실시예가 이에 제한되는 것은 아니며, 아바타는, 사용자의 얼굴 및/또는 신체 부위를 표현하는 사진을 수신한 전자 장치(101)에 의해 생성될 수 있다.
도 1의 일 실시예에서, 제1 가상 객체(130-1)는, 제1 전자 장치(101-1)의 사용자(110-1)를 표현하는 아바타이고, 제2 가상 객체(130-2)는, 제2 전자 장치(101-2)의 사용자(110-2)를 표현하는 아바타일 수 있다. 가상 공간(140) 내 아바타의 위치, 크기, 및/또는 형태는, 전자 장치(101)가 외부 전자 장치(120)로 송신한 신호에 의해 변경될 수 있다. 예를 들어, 전자 장치(101)는, 아바타에 대응하는 사용자(110)의 입력에 기반하여, 외부 전자 장치(120)로 상기 신호를 송신할 수 있다. 사용자(110)의 상기 입력은, 가상 공간(140) 내에서 상기 아바타를 이동함을 지시하는 입력을 포함할 수 있다. 가상 공간(140) 내에 배치된 가상 객체는, 아바타에 제한되는 것은 아니며, 외부 전자 장치(120)는, 가상 공간(140) 내에 상기 아바타와 상이한 다른 가상 객체(예, 지형(terrain) 및/또는 건물을 표현하는 가상 객체)를 배치할 수 있다.
일 실시예에 따른, 전자 장치(101)는 화면 내에, 가상 공간(140)의 적어도 일부분을 표시할 수 있다. 도 1을 참고하면, 제1 전자 장치(101-1)가, 제1 전자 장치(101-1)의 화면(150-1) 내에 표시한 가상 공간(140)의 일부분이 예시적으로 도시된다. 제1 전자 장치(101-1)의 화면(150-1) 내에 표시된 가상 공간(140)의 일부분은, 제1 가상 객체(130-1)의 뷰 앵글(viewing angle) 내에 포함된 가상 공간(140)의 적어도 일부분일 수 있다. 상기 제1 가상 객체(130-1)는 제1 전자 장치(101-1)의 사용자(110-1)를 표현한 아바타일 수 있다. 가상 공간(140) 내에서, 제2 가상 객체(130-2)가 상기 제1 가상 객체(130-1)의 상기 뷰 앵글 내에 포함되기 때문에, 제2 가상 객체(130-2)를 표현하는 제2 시각적 객체(160-2)가, 제1 전자 장치(110-1)의 화면(150-1) 내에 표시될 수 있다. 제2 시각적 객체(160-2)가 제2 가상 객체(130-2)를 표현함에도 불구하고, 제2 시각적 객체(160-2)가 제1 전자 장치(101-1)의 화면(150-1) 내에 구분되어 기재되어 있음에 주의해야 한다. 제2 가상 객체(130-2)가 3차원 좌표계에 기반하는 3차원의 객체인 경우, 제2 시각적 객체(160-2)는 가상 공간(140) 내 제1 가상 객체(130-1)의 뷰 앵글로 투영된(projected onto) 상기 제2 가상 객체(130-2)의 상(image)일 수 있다.
도 1을 참고하면, 제2 전자 장치(101-2)가, 제2 전자 장치(101-2)의 화면(150-2) 내에 표시한 가상 공간(140)의 일부분이 예시적으로 도시된다. 가상 공간(140) 내에서, 제1 가상 객체(130-1)가 제2 가상 객체(130-2)의 뷰 앵글 내에 포함되는 경우, 제2 전자 장치(101-2)는 화면(150-2) 내에, 제1 가상 객체(130-1)를 표현하는 제1 시각적 객체(160-1)를 표시할 수 있다. 제1 시각적 객체(160-1)가 제1 가상 객체(130-1)를 표현함에도 불구하고, 제1 시각적 객체(160-1)가 제2 전자 장치(101-2)의 화면(150-2) 내에 구분되어 기재되어 있음에 주의해야 한다. 상술한 바와 같이, 제1 전자 장치(101-1) 및 제2 전자 장치(101-2)를 포함하는 전자 장치(101)는, 전자 장치(101)의 사용자(110)에게, 가상 공간(140) 내에 포함되고, 전자 장치(101)의 사용자(110)와 다른 사용자를 표현하는 시각적 객체를 표시할 수 있다.
일 실시예에 따른, 전자 장치(101)는 사용자(110)에게, 전자 장치(101)의 사용자(110)와 다른 사용자에 대응하는 시각적 객체를 표시한 상태 내에서, 상기 시각적 객체에 대응하는 가상 객체(예, 아바타)가 변경된 히스토리를 표시할 수 있다. 예를 들어, 제1 전자 장치(101-1)는, 제2 가상 객체(130-2)를 표현한 제2 시각적 객체(160-2)를 표시한 화면(150-1) 내에서, 제2 가상 객체(130-2)가 변경된 히스토리에 기반하는 시각적 객체(170)를 표시할 수 있다. 제2 가상 객체(130-2)가 사용자(110-2)에 대응하는 아바타인 일 실시예에서, 제1 전자 장치(101-1)는 상기 시각적 객체(170) 내에 상기 아바타가 변경된 히스토리를 표시할 수 있다.
도 1을 참고하면, 버블의 형태를 가지는 시각적 객체(170)가 도시되지만, 실시예가 이에 제한되는 것은 아니다. 시각적 객체(170) 내에서, 제1 전자 장치(101-1)는 제2 시각적 객체(160-2)에 대응하는 제2 가상 객체(130-2) 이전에 제1 사용자(110-1)에게 표시되었던(has been displayed) 다른 가상 객체를 표현하는 시각적 객체(172)를 표시할 수 있다. 예를 들어, 시각적 객체(172)는, 제2 시각적 객체(160-2)에 대응하는 제2 가상 객체(130-2) 이전에 제2 사용자(110-2)의 표현(representation)으로써 제1 전자 장치(101-1)의 디스플레이를 통해 표시되었던, 상기 다른 가상 객체를 지시할(indicate) 수 있다. 시각적 객체(170) 내에서, 제1 전자 장치(101-1)는, 제2 사용자(110-2)에 대응하는 상기 아바타가 변경된 시점(timing 또는 moment)을 가이드하는 텍스트(예, 연-월-일을 표현하는 "변경시간: yyyy-mm-dd")를 표시할 수 있다. 시각적 객체(170) 내에서, 제1 전자 장치(101-1)는, 제1 사용자(110-1) 및 제2 사용자(110-2)가 상호작용하였던 가상 공간(140) 내 위치를 가이드하는 텍스트(예, "마지막 만남: A 가상 공간")를 표시할 수 있다. 시각적 객체(170) 내에서, 제1 전자 장치(101-1)는 지정된 텍스트(예, 확인)을 포함하는 버튼 형태의 시각적 객체(174)를 표시할 수 있다. 제1 전자 장치(101-1)는, 상기 시각적 객체(174)를 선택함을 나타내는 입력에 응답하여, 상기 시각적 객체(170)를 표시하는 것을 중지할 수 있다.
예를 들어, 제2 사용자(110-2)는 가상 공간(140)에 기반하여 제1 사용자(110-1)와 통신한 이후, 제2 사용자(110-2)에 대응하는 제2 가상 객체(130-2)의 적어도 일부분을 변경할 수 있다. 외부 전자 장치(120) 및/또는 제1 전자 장치(101-1)는, 제1 전자 장치(101-1)의 디스플레이를 통해 제2 가상 객체(130-2)의 적어도 일부분을 표시(예, 제2 시각적 객체(160-2))하는 상태 내에서, 제2 사용자(110-2)가 제2 가상 객체(130-2)의 적어도 일부분을 변경하였는지 여부를 식별할 수 있다. 제1 시점 내에서, 가상 공간(140) 내에서 제1 사용자(110-1) 및 제2 사용자(110-2) 사이의 통신이 발생되었고, 상기 제1 시점 이후의 제2 시점 내에서, 제2 가상 객체(130-2)의 적어도 일부분이 변경된 경우, 상기 제2 시점 이후의 제3 시점 내에서, 제1 전자 장치(101-1)는 제2 가상 객체(130-2)의 적어도 일부분이 변경되었음을 식별할 수 있다. 제1 전자 장치(101-1)는, 상기 제3 시점 내에서의 제2 가상 객체(130-2)를 표현하는 제2 시각적 객체(160-2)와 함께, 상기 제1 시점 내에서 제1 사용자(110-1)에 의해 열람되었던(has been browsed) 시각적 객체(172)를 표시할 수 있다.
도 1을 참고하면, 제2 시각적 객체(160-2) 및 시각적 객체(172)를 함께 표시하여, 제1 전자 장치(101-1)는 제2 사용자(101-2)를 표현하는 가상 공간(140) 내 제2 가상 객체(130-2)가 변경된 히스토리를 시각화할 수 있다. 제1 전자 장치(101-1)가, 상기 제2 가상 객체(130-2)가 변경된 히스토리를 시각화하기 때문에, 제1 전자 장치(101-1)의 제1 사용자(110-1)는 상기 히스토리에 기반하여 제2 사용자(110-2)에 대응하는 상기 제2 가상 객체(130-2)에 대응하는 제2 시각적 객체(160-2)를 보다 신속하게 식별할 수 있다. 시각적 객체(170)와 같이, 제1 전자 장치(101-1)가 상기 제2 가상 객체(130-2)가 변경된 히스토리를 시각화하기 위하여 표시하는 UI(user interface)의 일 예가, 도 3, 도 4a, 도 4b, 도 4c, 도 5a 및 도 5b를 참고하여 설명된다.
상술한 바와 같이, 일 실시예에 따른, 제1 전자 장치(101-1)는 제2 가상 객체(130-2)를 표현하는 제2 시각적 객체(160-2)를 표시하는 상태 내에서, 제1 전자 장치(101-1)의 제1 사용자(110-1)에 의해 상기 제2 가상 객체(130-2)에 대응하는 제2 사용자(110-2)의 표현으로써 열람되었던(has been browsed) 시각적 객체(172)를 식별할 수 있다. 예를 들어, 제1 전자 장치(101-1)는 외부 전자 장치(120)로부터 시각적 객체(172)를 지시하는 정보를 획득할 수 있다. 제1 전자 장치(101-1)는, 상기 정보로부터, 디스플레이를 통해 표시되는 제2 시각적 객체(160-2)와 상이한 시각적 객체(172)를 식별하는 것에 기반하여, 제2 시각적 객체(160-2)와 함께, 시각적 객체(172)를 표시할 수 있다. 제2 시각적 객체(160-2) 및 시각적 객체(172)를 함께 표시하여, 제1 전자 장치(101-1)는 제1 사용자(110-1)에게, 현재 시점의 제2 사용자(110-2)의 표현(representation)(예, 아바타 및/또는 비디오)과 함께 현재 시점 이전의 다른 시점의 제2 사용자(110-2)의 표현을 표시할 수 있다. 상기 다른 시점은, 제1 사용자(110-1)가 제1 전자 장치(101-1)를 통해 제2 사용자(110-2)와 통신한 마지막 시점일 수 있다.
이하에서는 도 2를 참고하여, 일 실시예에 따른, 전자 장치(101) 및 외부 전자 장치(120) 내에 포함된 하드웨어의 구조의 일 예가 설명된다.
도 2는, 일 실시예에 따른, 전자 장치(101)의 블록도이다. 도 2의 전자 장치(101) 및 외부 전자 장치(120)는 도 1의 전자 장치(101) 및 외부 전자 장치(120)를 포함할 수 있다.
도 2를 참고하면, 전자 장치(101)는, 프로세서(210), 메모리(220), 통신 회로(230), 디스플레이(240), 또는 센서(250) 중 적어도 하나를 포함할 수 있다. 프로세서(210), 메모리(220), 통신 회로(230), 디스플레이(240), 및 센서(250)는 통신 버스(a communication bus)(202)와 같은 전자 부품(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 2의 하드웨어들 중 일부분(예, 프로세서(210), 메모리(220), 및 통신 회로(230)의 적어도 일부분)이 단일 집적 회로(single integrated circuit)(예, SoC(system on a chip))에 포함될 수 있다. 전자 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 2에 도시된 바에 제한되지 않는다. 예를 들어, 전자 장치(101)는 도 2에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다.
도 2를 참고하면, 전자 장치(101)의 외형들(appearances)이 예시적으로 도시된다. 전자 장치(101)는 사용자(예, 도 1의 사용자(110))의 머리에 착용가능한 안경(204-1)의 형태를 가질 수 있다. 전자 장치(101)는 휴대 전화(204-2)의 형태를 가질 수 있다. 전자 장치(101)는 랩톱 PC(204-3)의 형태를 가질 수 있다.
일 실시예에 따른, 전자 장치(101)의 프로세서(210)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit), 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(210)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(210)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.
일 실시예에 따른, 전자 장치(101)의 메모리(220)는 프로세서(210)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(220)는, 예를 들어, RAM(random-access memory)과 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)과 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)의 메모리(220) 내에서, 프로세서(210)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 전자 장치(101), 및/또는 프로세서(210)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)이 실행될 시에, 도 7, 도 8 및 도 9의 동작들 중 적어도 하나를 수행할 수 있다. 이하에서, 어플리케이션이 전자 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 전자 장치(101)의 메모리(220) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 전자 장치(101)의 프로세서(210)에 의해 실행 가능한(executable) 포맷(예, 전자 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다.
일 실시예에 따른, 전자 장치(101)의 통신 회로(230)는 전자 장치(101) 및 외부 전자 장치(120) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 통신 회로(230)를 통해 전자 장치(101)와 연결된 하나의 외부 전자 장치(120) 만이 도시되었으나, 실시예가 이에 제한되지 않으며, 예를 들어, 전자 장치(101)는 외부 전자 장치(120)를 포함하는 복수의 외부 전자 장치들과 통신할 수 있다. 통신 회로(230)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(230)는, 이더넷(ethernet), LAN(local area network), WAN(wide area network), WiFi(wireless fidelity), Bluetooth, BLE(bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.
일 실시예에 따른, 전자 장치(101)의 디스플레이(240)는 사용자에게 시각화된 정보(예를 들어, 도 3, 도 4a, 도 4b, 도 4c, 도 5a, 도 5b 및/또는 도 6의 화면들 중 적어도 하나)를 출력할 수 있다. 예를 들어, 디스플레이(240)는, GPU(graphic processing unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(240)는 FPD(flat panel display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(liquid crystal display), PDP(plasma display panel) 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는 OLED(organic LED)를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)의 센서(250)는, 전자 장치(101)와 관련된 비-전기적 정보(non-electronic information)로부터, 프로세서(210) 및/또는 메모리(220)에 의해 처리될 수 있는 전기적 정보를 생성할 수 있다. 도 2를 참고하면, 센서(250)의 일 예로, 이미지 센서(252), IMU(inertial measurement unit)(254), 및/또는 마이크(256)가 도시된다. 실시예가 이에 제한되는 것은 아니다. 예를 들어, 실시예에 따라, 도 2에 도시된 센서(250) 중 적어도 하나가 생략될 수 있다. 실시예에 따라, 센서(250)는 도 2에 도시되지 않은 센서를 추가적으로 포함할 수 있다. 예를 들어, 센서(250)는 전자 장치(101)의 지리적 위치(geographic location)를 탐지하기 위한 GPS(global positioning system) 센서를 더 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)의 이미지 센서(252)는 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는, 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 이미지 센서(252) 내에 포함된 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 이미지 센서(252)는 변경 광 센서들 각각의 전기 신호를 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하는 2차원 프레임 데이터를 생성할 수 있다. 예를 들어, 이미지 센서(252)를 이용하여 캡쳐한 사진 데이터는 이미지 센서(252)로부터 획득한 하나의 이미지를 의미할 수 있다. 예를 들어, 이미지 센서(252)를 이용하여 캡쳐한 비디오 데이터는 이미지 센서(252)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. 전자 장치(101)가 이미지 센서(252)를 포함하는 일 실시예에서, 전자 장치(101) 내에 포함된 이미지 센서의 개수는 복수 개일 수 있다. 전자 장치(101)가 안경(204-1)의 형태를 가지는 일 실시예에서, 전자 장치(101)는, 안경(204-1)을 착용한 사용자의 눈을 향하여 배치된 제1 이미지 센서, 및 상기 사용자의 머리가 향하는 방향(예, 전방)을 향하여 배치된 제2 이미지 센서를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)의 IMU(254)는, 가속도 센서, 자이로 센서, 지자기 센서, 또는 이들의 조합을 포함할 수 있다. 가속도 센서는, 서로 수직이고(perpendicular to each other), 전자 장치(101) 내 지정된 원점에 기반하는, 복수의 축들(예, x축, y축 및 z축) 각각의 중력 가속도 및/또는 가속도를 나타내는 전기 신호를 출력할 수 있다. 일 실시예에 따른, 자이로 센서는, 상기 복수의 축들 각각의 각속도를 나타내는 전기 신호를 출력할 수 있다. 일 실시예에 따른, 지자기 센서는, 전자 장치(101)에 형성된 자계의 크기를, 복수의 축들(예, x축, y축, 및/또는 z축) 각각을 따라 나타내는 전기 신호를 출력할 수 있다. 예를 들어, 가속도 센서, 자이로 센서 및/또는 지자기 센서는, 지정된 주기(예, 1 밀리초)에 기반하여, 상기 복수의 축들의 개수의 가속도들, 각속도들, 및/또는 자계의 크기들을 포함하는 센서 데이터를 반복적으로 출력할 수 있다.
일 실시예에 따른, 전자 장치(101)는 대기의 진동을 지시하는 전기 신호를 출력하는 마이크(256)를 포함할 수 있다. 예를 들어, 전자 장치(101)는 마이크(256)를 이용하여 사용자의 발언(speech)을 포함하는 오디오 신호(audio signal)를 출력할 수 있다. 오디오 신호에 포함된 사용자의 발언은 음성 인식 모델 및/또는 자연어 이해 모델에 기반하여, 전자 장치(101)에 의해 인식 가능한 포맷의 정보로 변환될 수 있다. 예를 들어, 전자 장치(101)는 사용자의 발언을 인식하여, 전자 장치(101)에 의해 제공 가능한 복수의 기능들 중에서 하나 이상의 기능들을 실행할 수 있다.
비록 도시되지 않았지만, 일 실시예에 따른, 전자 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 전자 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 전자 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.
도 2를 참고하면, 외부 전자 장치(120)는, 프로세서(210), 메모리(220), 또는 통신 회로(230) 중 적어도 하나를 포함할 수 있다. 외부 전자 장치(120) 내에서, 프로세서(210), 메모리(220), 및 통신 회로(230)는 통신 버스(202)와 같은 전자 부품에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다. 전자 장치(101), 및 외부 전자 장치(120) 내에서, 유사한 기능을 수행하는 하드웨어들(예, 프로세서(210), 메모리(220) 및/또는 통신 회로(230))이 일치된 참조 번호에 기반하여 도시될 수 있다. 전자 장치(101) 및 외부 전자 장치(120) 각각에 포함된 상기 하드웨어들의 설명이, 설명의 반복을 줄이기 위하여 생략될 수 있다.
일 실시예에 따른, 외부 전자 장치(120)는 가상 공간(예, 도 1의 가상 공간(140))을 이용하여, 사용자들 및/또는 상기 사용자들의 전자 장치들(예, 전자 장치(101)) 사이의 정보의 교환을 중계(relay)할 수 있다. 외부 전자 장치(120)는 가상 공간 내에서 발생되는 사용자들 사이의 상호작용(interaction)을 추적 및/또는 모니터링할 수 있다. 사용자들 사이의 상호작용은, 외부 전자 장치(120)에 의해 제공되는 가상 공간 내에서, 상기 사용자들 각각에 대응하는 아바타들(예, 도 1의 제1 가상 객체(130-1) 및/또는 제2 가상 객체(130-2))에 의해 발생될 수 있다. 외부 전자 장치(120)는, 외부 전자 장치(120)의 메모리(220) 내에 가상 공간으로 액세스하는 사용자들의 아바타들을 표시하기 위한 정보를 저장할 수 있다. 아바타를 표시하기 위한 상기 정보는, 상기 아바타에 대응하는 사용자의 계정 정보(account information) 및/또는 사용자 정보로 지칭될 수 있다. 상기 계정 정보 및/또는 상기 사용자 정보는, 상기 아바타에 대응하는 사용자를 인증하기 위한 정보(예, ID(identification), 암호, PIN(personal identification number) 및/또는 생체 정보)를 포함할 수 있다.
일 실시예에서, 가상 공간 내 사용자들의 상호작용을 식별하는 것에 기반하여, 외부 전자 장치(120)는, 외부 전자 장치(120)의 메모리(220) 내에, 상기 상호작용이 발생된 제1 시점에서의 상기 사용자들에 대응하는 가상 객체들의 제1 상태들을 저장할 수 있다. 상기 가상 객체들의 제1 상태들은, 상기 제1 시점에서의 상기 가상 객체들의 외형들을 지시할 수 있다. 외부 전자 장치(120)는 상기 제1 시점 이후, 상기 사용자들의 상호작용을 다시 식별하는 것에 기반하여, 상기 상호작용이 다시 발생된 제2 시점에서의 상기 가상 객체들의 제1 상태들, 및 상기 메모리(220) 내에 저장된 상기 제1 상태들을 비교할 수 있다. 외부 전자 장치(120)는 상기 사용자들 중 적어도 하나의 전자 장치(101)로, 상기 제1 상태들, 및 상기 제2 상태들의 차이를 포함하는 신호를 송신할 수 있다. 상기 정보를 수신한 전자 장치(101)는, 디스플레이(240) 내에 상기 신호에 포함된 상기 차이를 시각화할 수 있다. 예를 들어, 전자 장치(101)는 도 1의 시각적 객체(170)를 표시할 수 있다.
일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)로부터 수신된 정보에 기반하여, 디스플레이(240) 내에, 사용자를 표현하는(representing) 제1 시각적 객체를 표시할 수 있다. 상기 사용자는, 외부 전자 장치(120)에 의해 제공되는 가상 공간을 통해 전자 장치(101)의 사용자와 상호작용하는, 다른 사용자를 포함할 수 있다. 예를 들어, 전자 장치(101)가 외부 전자 장치(120)로부터 획득하는 정보는, 상기 가상 공간 내에서, 상기 제1 시각적 객체에 대응하는 상기 사용자 및 상기 전자 장치의 사용자의 상호작용 히스토리를 포함할 수 있다. 외부 전자 장치(120)로부터 수신된 상기 정보에 기반하여, 전자 장치(101)는, 상기 제1 시각적 객체가 디스플레이(240)를 통해 표시된 횟수를 식별할 수 있다. 전자 장치(101)는 상기 정보로부터, 디스플레이(240)를 통해 상기 제1 시각적 객체가 전자 장치(101)의 사용자에 의해 열람된 상기 횟수를 식별할 수 있다.
일 실시예에서, 지정된 횟수(예, 1 회) 미만의 횟수를 식별하는 것에 기반하여, 전자 장치(101)는 디스플레이(240) 내에서 상기 제1 시각적 객체와 함께, 상기 제1 시각적 객체 이전에 상기 사용자를 표현하는 제2 시각적 객체를 표시할 수 있다. 예를 들어, 제1 시각적 객체가 디스플레이(240) 내에, 제1 시각적 객체에 대응하는 사용자의 표현으로써 처음 표시되는 경우, 전자 장치(101)는 디스플레이(240) 내에 상기 제2 시각적 객체를 표시할 수 있다. 예를 들어, 상기 제2 시각적 객체는, 제1 시각적 객체에 대응하는 사용자의 표현으로써 디스플레이(240)를 통해 표시되었던 시각적 객체일 수 있다. 제1 시각적 객체 및 제2 시각적 객체를 동시에 표시하여, 전자 장치(101)는 제1 시각적 객체에 대응하는 사용자의 표현이 변경된 히스토리를 시각화할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)에 의해 제공되는 가상 공간을 통해 전자 장치(101)의 사용자와 연결된 다른 사용자를 표현하는 시각적 객체를 표시하는 상태 내에서, 상기 시각적 객체가 상기 다른 사용자의 표현으로써 처음 표시되는지 여부를 식별할 수 있다. 상기 시각적 객체가 상기 다른 사용자의 표현으로 처음 표시되는 경우, 전자 장치(101)는 상기 다른 사용자의 표현으로써 표시되었던 다른 시각적 객체를, 상기 시각적 객체와 함께 표시할 수 있다. 예를 들어, 전자 장치(101)는, 디스플레이(240)를 통해 표시되는 상대방의 현재 외형과 함께, 상기 상대방의 과거의 외형(예, 디스플레이(240)를 통해 표시되었던 다른 외형)과 병렬로(parallelly) 표시할 수 있다.
이하에서는 도 3을 참고하여, 일 실시예에 따른, 전자 장치(101)가 디스플레이(240)를 통해 표시되는 상대방의 현재 외형, 및 과거의 외형을 동시에 표시하는 UI의 일 예가 설명된다.
도 3은, 일 실시예에 따른, 전자 장치(101)가 가상 공간의 적어도 일부분을 표시하는 동작의 일 예를 도시한다. 도 3의 전자 장치(101) 및 외부 전자 장치(120)는 도 2의 전자 장치(101) 및 외부 전자 장치(120)의 일 예일 수 있다.
도 3을 참고하면, 일 실시예에 따른, 전자 장치(101)가 화면(310) 내에 시각적 객체들(320, 330, 340, 345, 350, 355, 360, 365)을 표시하는 일 예가 도시된다. 전자 장치(101)가 사용자(110)의 머리에 착용가능한 안경(예, 도 2의 안경(204-1))의 외형을 가지는 경우, 전자 장치(101)는 상기 안경의 렌즈 상에 도 3의 화면(310)을 투사(project)할 수 있다. 화면(310)이 상기 렌즈 상에 투사되기 때문에, 상기 사용자는 상기 렌즈를 통과하는 외부 광(ambient light)과 함께, 화면(310)을 열람할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(101)는 상기 외부 광을 차단하기 위한 구조를 가질 수 있다. 상기 외부 광을 차단하기 위한 구조를 가지는 전자 장치(101)는, VR(virtual reality)에 기반하는 화면(310)을 표시하거나, 또는 상기 외부 광을 포함하는 이미지 상에 시각적 객체들(320, 330, 340, 345, 350, 355, 360, 365)을 포함하는 화면(310)을 합성하여, VST(video see through)에 기반하는 사용자 경험을 제공할 수 있다.
일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)에 의해 제공되는 가상 공간(예, 도 1의 가상 공간(140))의 적어도 일부분을 표시할 수 있다. 전자 장치(101)는 사용자(110)로부터 상기 가상 공간으로 진입함을 나타내는 입력을 식별하는 것에 기반하여, 상기 가상 공간의 적어도 일부분을 포함하는 화면(310)을 표시할 수 있다. 예를 들어, 전자 장치(101)는 외부 전자 장치(120)에 의해 제공되는 컨퍼런스 룸 또는 채팅 룸으로 진입함을 나타내는 입력에 응답하여, 화면(310)을 표시할 수 있다. 화면(310)은 상기 입력과 관련된 상기 컨퍼런스 룸 또는 상기 채팅 룸에 대응하는 가상 공간의 적어도 일부분을 포함할 수 있다.
도 3을 참고하면, 전자 장치(101)가 상기 가상 공간의 적어도 일부분 내에 포함된, 하나 이상의 시각적 객체들(예, 시각적 객체들(320, 330, 340, 345, 350, 355, 360, 365))을 표시한 일 예가 도시된다. 전자 장치(101)는 외부 전자 장치(120)로부터 수신된 정보에 기반하여, 상기 하나 이상의 시각적 객체들을 표시할 수 있다. 전자 장치(101)가 사용자(110)의 계정 정보에 기반하여 외부 전자 장치(120)와 연결된 경우, 전자 장치(101)는 상기 계정 정보에 의해 상기 가상 공간 내에 배치된 아바타의 뷰 앵글 내에 포함된 상기 가상 공간의 적어도 일부분을 표시하기 위한 상기 정보를, 외부 전자 장치(120)로부터 수신할 수 있다. 도 3의 화면(310) 내에 포함된 시각적 객체들(320, 330, 340, 345, 350, 355, 360, 365)은, 가상 공간 내에 배치된 복수의 가상 객체들 중에서, 사용자(110)에 대응하는 아바타의 뷰 앵글 내에 포함된 가상 객체들에 대응할 수 있다.
도 3을 참고하면, 전자 장치(101)는 상기 가상 공간 내에 배치된 객체(예, 테이블)의 적어도 일부분을 표현한 시각적 객체(320)를, 화면(310) 내에 표시할 수 있다. 전자 장치(101)는 상기 가상 공간 내에서, 사용자(110)에 대응하는 아바타의 뷰 앵글을 통해 보여지는 상기 객체의 적어도 일부분에 기반하여, 화면(310) 내에 시각적 객체(320)를 표시할 수 있다. 전자 장치(101)는 상기 가상 공간 내에서, 사용자(110)에 대응하는 아바타의 뷰 앵글 내에 포함되고, 사용자(110)와 상이한 다른 사용자들의 가상 객체들을 표현하는 시각적 객체들(330, 340, 350, 360)을 표시할 수 있다.
예를 들어, 전자 장치(101)는 상기 다른 사용자들의 아바타들의 적어도 일부분에 대응하는 시각적 객체들(330, 340, 360)을, 화면(310) 내에 표시할 수 있다. 예를 들어, 시각적 객체들(330, 340, 360)은, 사용자(110)에 대응하는 아바타의 뷰 앵글을 통해 보여지는, 상기 다른 사용자들의 아바타들의 적어도 일부분에 대응할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(101)는 화면(310) 내에, 외부 전자 장치(120)로부터 수신된 비디오에 기반하여, 시각적 객체(350)를 표시할 수 있다. 예를 들어, 상기 비디오는, 시각적 객체(350)에 대응하는 사용자의 전자 장치(예, 도 1의 제2 전자 장치(101-2))의 카메라로부터 스트리밍될 수 있다.
일 실시예에 따른, 전자 장치(101)는 시각적 객체들(330, 340, 350, 360) 각각에 대응하는 사용자들을 표시한 히스토리에 기반하여, 상기 사용자들의 표현(representation)이 변경되었는지 여부를 식별할 수 있다. 예를 들어, 시각적 객체(330)에 대응하는 사용자가, 외부 전자 장치(120)의 가상 공간을 통해 전자 장치(101)의 사용자(110)와 처음 상호작용하는 경우, 전자 장치(101)는 시각적 객체(330)에 대응하는 아바타가 변경된 히스토리를, 화면(310) 내에 표시하지 않을 수 있다. 외부 전자 장치(120) 및/또는 전자 장치(101)는 화면(310) 내에 표시된 시각적 객체(330) 및/또는 시각적 객체(330)에 대응하는 상기 아바타를, 상기 시각적 객체(330)에 대응하는 사용자를 표시한 히스토리로써 저장할 수 있다. 다른 예를 들어, 시각적 객체(330) 및/또는 시각적 객체(330)에 대응하는 아바타가, 화면(310)을 표시하기 이전에 표시되었음을 식별하는 경우, 전자 장치(101)는 시각적 객체(330)에 대응하는 상기 아바타가 변경된 히스토리를, 화면(310) 내에 표시하지 않을 수 있다.
도 3을 참고하면, 시각적 객체(340)에 대응하는 아바타가, 상기 시각적 객체(340) 및/또는 상기 아바타에 대응하는 사용자에 의해 변경된 경우, 전자 장치(101)는 시각적 객체(340)와 함께, 상기 사용자에 의해 변경되기 이전의 아바타를 표현하는 시각적 객체(345)를 표시할 수 있다. 시각적 객체(345) 내에서, 전자 장치(101)는, 사용자(110)에 의해 마지막으로 열람되었던 상기 아바타의 적어도 일부분을 표현하는 이미지 및/또는 비디오를 표시할 수 있다. 전자 장치(101)는 시각적 객체(345) 내에서 상기 이미지 및/또는 상기 비디오와 함께, 상기 아바타가 사용자(110)에 의해 마지막으로 열람되었던 시점을 설명하기 위한(for describing) 정보를 표시할 수 있다. 상기 정보는, 상기 시점에 대한 타임스탬프 및/또는 상기 시점 내에서 상기 아바타가 배치되었던 가상 공간 내 위치를 포함할 수 있다. 전자 장치(101)가 상기 시각적 객체(345) 내에 상기 정보를 표시하는 예시적인 동작이 도 4a, 도 4b, 도 4c 및/또는 도 5a 및 도 5b를 참고하여 설명된다.
도 3을 참고하면, 전자 장치(101)와 상이한 다른 전자 장치로부터 스트리밍된 비디오를 포함하는 시각적 객체(350) 이전에, 상기 다른 전자 장치의 사용자에 대응하는 아바타를 표시한 히스토리가 존재하는 경우, 전자 장치(101)는 화면(310) 내에 상기 아바타를 포함하는 시각적 객체(355)를 표시할 수 있다. 예를 들어, 전자 장치(101)가 시각적 객체(355)에 대응하는 사용자의 과거의 비디오의 적어도 일부분(예, 썸네일)을 표시하는 동안, 전자 장치(101)는 시각적 객체(350)를 이용하여, 시각적 객체(350)에 대응하는 사용자의 현재 시점의 비디오의 적어도 일부분을, 화면(310) 내에 재생할 수 있다. 또한, 시각적 객체(360)에 대응하는 아바타 이전에, 상기 시각적 객체(360)에 대응하는 사용자의 전자 장치로부터 비디오를 스트리밍한 히스토리가 존재하는 경우, 전자 장치(101)는 화면(310) 내에 상기 비디오의 적어도 일부분을 포함하는 시각적 객체(365)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(365)를 이용하여, 시각적 객체(360)에 대응하는 사용자의 과거 시점의 비디오의 적어도 일부분(예, 썸네일)을, 화면(310) 내에 표시할 수 있다.
도 3을 참고하면, 전자 장치(101)가 버블의 형태를 가지는 시각적 객체들(345, 355, 365)을 표시하는 일 실시예가 도시되었지만, 실시예가 이에 제한되는 것은 아니다. 전자 장치(101)는 상기 버블 내에, 상기 버블에 대응하는 사용자의 정보를 더 표시할 수 있다. 상기 정보는, 예를 들어, 가상 공간을 통해 상기 사용자와 마지막으로 상호작용한 시점에 대한 데이터(예, 상기 시점을 지시하는 타임스탬프 및/또는 상기 시점에서 상기 사용자와 상호작용한 상기 가상 공간의 위치)를 포함할 수 있다. 전자 장치(101)는 화면(310)과 같이, 서로 연계된(associated with 또는 linked with), 상이한 시점들(예, 현재 시점 및 과거 시점)의 사용자의 표현들을 표시하는 예시적인 동작들이, 도 5a 및 도 5b를 참고하여 설명된다. 예를 들면, 제1 시점(예, 현재 시점)의 사용자의 제1 표현은, 제2 시점(예, 과거 시점)의 사용자의 제2 표현과 관련하여(with respect to), 화면(310) 내에서 정렬될(arranged) 수 있다. 전자 장치(101)가 가상 공간의 적어도 일부분을 포함하는 화면(310)을 표시하기 이전에, 상기 가상 공간을 통해 표시될 사용자들의 표현들(예, 시각적 객체들(330, 340, 350, 360))이 변경된 히스토리를 시각화하는 동작이, 도 4a, 도 4b 및 도 4c를 참고하여 설명된다.
도 3을 참고하면, 화면(310)을 표시한 상태 내에서, 전자 장치(101)는 사용자(110)가 화면(310) 내에 포함된 하나 이상의 시각적 객체들을 열람하였는지 여부를 식별할 수 있다. 예를 들어, 전자 장치(101)는 사용자(110)의 눈의 방향, 사용자(110)의 머리가 향하는 방향, 손과 같은 사용자(110)의 지정된 신체 부위의 방향, 또는 사용자(110)의 발언(speech) 중 적어도 하나에 기반하여, 화면(310) 내에 표시된 시각적 객체들 중에서 사용자(110)에 포커스된 일 시각적 객체를 식별할 수 있다. 예를 들어, 전자 장치(101)는 사용자(110)의 눈의 방향을 추적하여, 시각적 객체(340) 및/또는 시각적 객체(345)를 열람함을 지시하는 입력을 식별할 수 있다. 예를 들어, 전자 장치(101)는, 사용자(110)의 눈의 방향이 시각적 객체(340) 상에서 시각적 객체(340)를 응시하기 위한 지정된 횟수 및/또는 시각적 객체(340) 상에서의 지정된 기간(duration)을 초과하여 정지되는지 여부에 기반하여, 상기 입력을 식별할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(345)를 선택함을 나타내는 입력(예, 시각적 객체(345)를 향하는 손가락)을 식별할 수 있다. 전자 장치(101)가 상기 입력을 식별하는 동작의 일 예가, 도 6을 참고하여 설명된다.
일 실시예에서, 시각적 객체(340) 및/또는 시각적 객체(345)를 열람함을 지시하는 입력에 응답하여, 전자 장치(101)는 시각적 객체(345)의 표시를 중단할 수 있다. 상기 입력에 응답하여, 전자 장치(101)는 시각적 객체(340) 및/또는 시각적 객체(340)에 대응하는 아바타의 상태를, 사용자(110) 및 시각적 객체(340)에 대응하는 사용자 사이의 상호작용 히스토리로써, 저장할 수 있다. 전자 장치(101)는 상기 입력에 기반하여, 외부 전자 장치(120)로, 상기 시각적 객체(340)가 전자 장치(101)의 사용자(110)에 의해 열람되었음을 지시하는 신호를 송신할 수 있다. 상기 신호에 기반하여, 외부 전자 장치(120)는, 시각적 객체(340) 및/또는 시각적 객체(340)에 대응하는 아바타의 상태를, 상기 상호작용 히스토리를 포함하는 정보 내에 저장할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)에 의해 제공되는 가상 공간의 적어도 일부분을 포함하는 화면(310)을 표시할 수 있다. 화면(310) 내에서, 전자 장치(101)는 상기 가상 공간을 통해 전자 장치(101)의 사용자(110)와 상호작용하는 상이한 사용자들을 지시하는 시각적 객체들(330, 340, 350, 360)을 표시할 수 있다. 시각적 객체들(330, 340, 350, 360) 각각은, 현재 시점에서 가상 공간으로 액세스된 상기 사용자들의 표현들(representations)(예, 아바타, 포토 ID, 및/또는 사용자를 포함하는 비디오)일 수 있다. 전자 장치(101)는 상기 사용자들의 표현들을 변경한 히스토리를 시각화할 수 있다. 예를 들어, 전자 장치(101)는 화면(310) 내에, 상기 시각적 객체들(330, 340, 350, 360)과 상이하고, 상기 현재 시점 이전에 전자 장치(101)를 통해 표시된 사용자의 표현을 포함하는 시각적 객체(예, 시각적 객체들(345, 355, 365))를 표시할 수 있다.
이하에서는, 도 4a, 도 4b 및 도 4c 및/또는 도 5a 및 도 5b를 참고하여, 일 실시예에 따른, 전자 장치(101)가 가상 공간 내에 포함된 가상 객체가 변경된 히스토리를 시각화하는 동작의 일 예가 설명된다.
도 4a, 도 4b 및 도 4c는, 일 실시예에 따른, 전자 장치(101)가, 가상 객체를 표현한 시각적 객체를 표시하는 동작의 일 예를 도시한다. 도 4a, 도 4b 및 도 4c의 전자 장치(101) 및 전자 장치(410)는 도 1, 도 2 및 도 3의 전자 장치(101)를 포함할 수 있다. 전자 장치(101) 및 전자 장치(410)는 사용자(110)의 단말일 수 있다. 예를 들어, 전자 장치(101) 및 전자 장치(410)는 사용자(110)의 계정 정보에 기반하여, 외부 전자 장치(120)와 통신할 수 있다. 비록, 전자 장치(101)가 안경의 외형을 가지고, 전자 장치(410)가 휴대 전화(예, 도 2의 휴대 전화(204-2))의 외형을 가지는 일 실시예가 도시되지만, 실시예가 이에 제한되는 것은 아니다.
일 실시예에 따른, 전자 장치(101) 및/또는 전자 장치(410)는 사용자(110)의 계정 정보에 기반하여, 외부 전자 장치(120)에 의해 제공되는 가상 공간(예, 도 1의 가상 공간(140))으로 액세스할 수 있다. 외부 전자 장치(120)는, 상기 가상 공간에 기반하여, 물리적으로 이격된 사용자들의 대화(conversation)를 위한 서비스(예, 메타버스 서비스 및/또는 비디오 컨퍼런스 서비스)를 제공할 수 있다. 예를 들어, 외부 전자 장치(120)는, 상기 가상 공간에 기반하여, 사용자(110)를 포함하는 복수의 사용자들의 비디오 컨퍼런스를 예약할 수 있다. 상기 비디오 컨퍼런스의 예약은, 복수의 사용자들 중 적어도 하나로부터 수신된 정보에 의해 생성될 수 있다. 외부 전자 장치(120)는 상기 비디오 컨퍼런스의 예약을 지시하는 정보를, 외부 전자 장치(120)의 메모리(예, 도 2의 메모리(220)) 내에 저장할 수 있다. 상기 정보는, 상기 비디오 컨퍼런스가 개시될 시점, 및/또는 상기 비디오 컨퍼런스가 발생될 가상 공간 내 위치를 지시하는 정보를 포함할 수 있다.
일 실시예에서, 상기 정보에 의해 지시되는 상기 시점 이전에, 외부 전자 장치(120)는 상기 정보에 의해 지시되는 상기 복수의 사용자들의 전자 장치들로, 상기 예약에 기반하여 상기 가상 공간으로 액세스할 것을 가이드하기 위한 메시지(예, 푸쉬 알림(push notification))를 송신할 수 있다. 푸쉬 알림을 송신하는 관점에서(in terms of), 외부 전자 장치(120)는 푸쉬 서버로 지칭될 수 있다. 외부 전자 장치(120)는, 사용자(110)가 전자 장치(101)를 착용하였음을 식별한 경우, 전자 장치(101) 및 전자 장치(410) 중에서 전자 장치(101)로 상기 메시지를 선택적으로(selectively) 송신할 수 있다. 실시예가 이에 제한되는 것은 아니며, 외부 전자 장치(120)는, 사용자(110)가 전자 장치(101)를 착용하였는지 여부와 독립적으로, 전자 장치(101) 및/또는 전자 장치(410) 중 적어도 하나로 상기 메시지를 송신할 수 있다.
도 4a를 참고하면, 외부 전자 장치(120)로부터 수신된 상기 메시지에 응답하여, 전자 장치(101) 및/또는 전자 장치(410)가 표시하는 시각적 객체(430)의 일 예가 도시된다. 전자 장치(101)는 디스플레이(예, 도 2의 디스플레이(240))를 통해, 전자 장치(101)를 착용한 사용자(110)의 FoV(field-of-view) 내에 시각적 객체(430)를 표시할 수 있다. 전자 장치(410)는 디스플레이(420) 내에 상기 메시지에 기반하는 시각적 객체(430)를 표시할 수 있다. 도 4a를 참고하면, 시각적 객체(430) 내 텍스트(예, "VR 개선 회의 입장 10분 전 입니다")와 같이, 전자 장치(101) 및/또는 전자 장치(410)는 가상 공간에 기반하는 비디오 컨퍼런스가 개시될 시점 및/또는 상기 비디오 컨퍼런스에 할당된(assigned) 타이틀을 표시할 수 있다.
도 4a를 참고하면, 시각적 객체(430) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는, 상기 메시지에 대응하는 비디오 컨퍼런스 내에 참석할 사용자들 중에서, 사용자(110)와 상이한 다른 사용자들의 표현들(representations)이 변경되었음을 가이드하기 위한 텍스트(예, "제시카 멤버께서 캐릭터를 변경하였습니다. 회의 전 변경된 캐릭터를 확인하시려면 눌러보세요")를 표시할 수 있다. 시각적 객체(430) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는, 아바타가 변경된 사용자의 닉네임(도 4a의 일 실시예에서, "제시카")을 표시할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)를 통해 표시되는 상기 텍스트를 이용하여, 외부 전자 장치(120)는 사용자(110)에게, 상기 다른 사용자들 중 적어도 하나의 표현이 변경되었음을 가이드할 수 있다.
도 4a를 참고하면, 전자 장치(410)는 디스플레이(420) 내에 표시된 시각적 객체(430)를 터치 및/또는 클릭하는 제스쳐에 응답하여, 시각적 객체(440)를 표시할 수 있다. 전자 장치(101)는, 전자 장치(101)를 착용한 사용자(110)의 시선 및/또는 상기 사용자의 제스쳐에 기반하여, 시각적 객체(430)를 선택함을 나타내는 입력을 식별할 수 있다. 전자 장치(101)는 상기 입력에 응답하여, 상기 사용자(110)에게 시각적 객체(440)를 표시할 수 있다.
도 4a를 참고하면, 버블의 형태를 가지는 시각적 객체(440) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 하나 이상의 사용자들의 표현들이 변경된 히스토리를 표시할 수 있다. 시각적 객체(440) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 상기 다른 사용자의 아바타가 변경된 시점을 포함하는 텍스트(예, "제시카가 2022-07-22에 캐릭터 변경함")를 표시할 수 있다. 시각적 객체(440) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 사용자(110)와 구분되는 다른 사용자의 아바타가 변경된 히스토리를, 시각적 객체들(442, 444)을 이용하여 표시할 수 있다. 시각적 객체들(442, 444)은 상이한 시점들에서 상기 다른 사용자의 아바타의 적어도 일부분을 시각화한 이미지일 수 있다. 시각적 객체(442)는 전자 장치(101)의 사용자(110)에 의해 마지막으로 열람되었던 상기 아바타의 상태에 대응하고, 시각적 객체(444)는 시각적 객체(440)와 관련된 비디오 컨퍼런스를 통해 표시될 상기 아바타의 상태에 대응할 수 있다. 예를 들어, 시각적 객체(442)는, 상기 비디오 컨퍼런스 이전에 수행되었던 다른 비디오 컨퍼런스를 통해 사용자(110)에게 표시되었던, 아바타를 지시할 수 있고, 따라서 시각적 객체(442)는 과거 시점 또는 과거 상태의 아바타를 표현한다.
일 실시예에서, 전자 장치(101) 및/또는 전자 장치(410)는 아바타가 변경된 히스토리를 전자 장치(101) 및/또는 전자 장치(410) 내에 저장된 연락처 리스트(contact list)에 기반하여 표시할 수 있다. 도 4b를 참고하면, 전자 장치(101) 및/또는 전자 장치(410)가 연락처 리스트를 포함하는 화면(450)을 표시한 일 실시예가 도시된다. 화면(450) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 상기 연락처 리스트 내에 저장된 복수의 사용자들 각각에 대응하는 아이템들(451, 452, 453, 454)을 표시할 수 있다. 아이템들(451, 452, 453, 454) 각각은, 대응하는 사용자의 이름 및/또는 사진을 포함할 수 있다. 연락처 리스트 내에 포함된 사용자가, 외부 전자 장치(120) 내에 저장된 계정 정보에 의해 시각화된 아바타를 가지는 경우, 전자 장치(101) 및/또는 전자 장치(410)는 상기 연락처 리스트를 포함하는 화면(450) 내에, 상기 아바타의 적어도 일부분에 대한 이미지를 표시할 수 있다.
예를 들어, 전자 장치(101) 및/또는 전자 장치(410)는 아이템(451) 내에, 아이템(451)에 대응하는 사용자의 명칭(예, "제시카"), 상기 사용자의 사진(451-1)과 함께, 상기 사용자에 매칭되는 아바타를 표현하는 시각적 객체(451-2)를 표시할 수 있다. 유사하게, 전자 장치(101) 및/또는 전자 장치(410)는 아이템(453) 내에, 아이템(453)에 대응하는 사용자의 명칭(예, "제니"), 상기 사용자의 사진(453-1)과 함께, 상기 사용자에 매칭되는 아바타를 표현하는 시각적 객체(453-2)를 표시할 수 있다. 시각적 객체(453-2) 및/또는 시각적 객체(451-2)를 참고하면, 전자 장치(101) 및/또는 전자 장치(410)는 화면(450) 내에 상기 아바타의 적어도 일부분(예, 상기 아바타의 얼굴을 포함하는 일부분)을 표현하는 이미지 및/또는 비디오를 표시할 수 있다.
도 4b를 참고하면, 전자 장치(101) 및/또는 전자 장치(410)는 연락처 리스트를 포함하는 화면(450) 내에서, 상기 연락처 리스트의 추가 및/또는 검색을 위한 옵션들을 표시할 수 있다. 예를 들어, 전자 장치(101) 및/또는 전자 장치(410)는 화면(450) 내에서, 버튼의 형태를 가지고, 상기 연락처 리스트 내에 사용자를 추가하기 위한 시각적 객체(455)를 표시할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)는 화면(450) 내에서, 버튼의 형태를 가지고, 상기 연락처 리스트 내에서 적어도 하나의 사용자를 검색하기 위한 시각적 객체(456)를 표시할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)는 화면(450) 내에서, 시각적 객체들(455, 456)과 상이한 옵션들을 표시하기 위한 시각적 객체(457)를 표시할 수 있다.
도 4b를 참고하면, 일 실시예에 따른, 전자 장치(101) 및/또는 전자 장치(410)는, 외부 전자 장치(120)로부터 수신된 정보에 기반하여, 연락처 리스트 내에 포함된 사용자의 아바타가 변경된 히스토리를 식별할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)는 화면(450) 내에, 상기 히스토리에 기반하여, 상기 아바타가 변경되었음을 알리는 인디케이터(indicator)를 표시할 수 있다. 예를 들어, 아이템(451)에 대응하는 사용자의 아바타가 변경된 경우, 전자 장치(101) 및/또는 전자 장치(410)는 화면(450) 내에 표시되는 아이템(451) 내에, 상기 아바타가 변경되었음을 알리기 위한 시각적 객체(451-3)를 표시할 수 있다. 비록, 별의 외형을 가지는 시각적 객체(451-3)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다. 시각적 객체(451-3)의 표시는, 아이템(451)에 대응하는 사용자의 표현이, 전자 장치(101) 및/또는 전자 장치(410)의 사용자(110) 및 아이템(451)에 대응하는 사용자의 상호작용 이후에 변경되었음을, 지시할 수 있다. 도 4b를 참고하면, 아이템(453)에 대응하는 사용자의 아바타가 변경되지 않은 경우, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체(451-3)와 같은 인디케이터를 아이템(453) 내에 표시하는 것을 삼갈(refrain from) 수 있다.
도 4b를 참고하면, 연락처 리스트 내에서 시각적 객체(451-3)와 같은 인디케이터가 포함된 아이템(451)을 선택함을 지시하는 입력에 응답하여, 전자 장치(101) 및/또는 전자 장치(410)는 아이템(451)에 대응하는 사용자의 아바타가 변경된 히스토리를 가이드하기 위한 시각적 객체(460)를 표시할 수 있다. 시각적 객체(460)는 팝업 윈도우의 형태로, 전자 장치(410)의 디스플레이(420) 내에 표시되거나, 또는 전자 장치(101)를 착용한 사용자(110)에게 표시될 수 있다. 시각적 객체(460) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체(460)에 대응하는 사용자의 아바타가 변경된 히스토리를, 시각적 객체들(462, 464)을 이용하여 표시할 수 있다. 도 4a의 시각적 객체들(442, 444)과 유사하게, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체들(462, 464)을 이용하여 상이한 시점들에서의 상기 아바타의 상태들을 시각화할 수 있다. 예를 들어, 화면(450) 내 시각적 객체(451-2)에 대응하는 시각적 객체(464)는, 상기 아바타의 현재 상태를 표현할 수 있다. 예를 들어, 시각적 객체(462)는 상기 아바타의 과거 상태로써, 사용자(110)에 의해 마지막으로 열람되었던 아바타를 표현할 수 있다.
일 실시예에 따른, 전자 장치(101) 및/또는 전자 장치(410)는 연락처 리스트 내에 포함된 사용자들의 아바타들이 변경된 히스토리가 요약된 팝업 윈도우를 표시할 수 있다. 도 4b를 참고하면, 전자 장치(101) 및/또는 전자 장치(410)가 상기 팝업 윈도우의 형태를 가지는 시각적 객체(470)를 표시하는 일 예가 도시된다. 화면(450) 내에서 시각적 객체(470)의 표시를 가이드하기 위한 버튼(예, 시각적 객체(458))을 선택함을 지시하는 입력에 응답하여, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체(470)를 표시할 수 있다. 시각적 객체(470) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 연락처 리스트 내에 포함된 사용자들의 아바타들 중에서, 사용자(110)에 의해 열람되었던 상태와 상이한 상태를 가지는 하나 이상의 아바타들의 리스트를 표시할 수 있다. 도 4b의 일 실시예를 참고하면, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체(470) 내에, 아이템(451)에 대응하는 사용자의 아바타가 변경된 히스토리를 시각화한 시각적 객체들(462, 464)을 표시할 수 있다. 시각적 객체(470) 내에서, 전자 장치(101)는 시각적 객체(470)에 일 사용자의 아바타 변경의 히스토리를 다른 사용자의 아바타 변경의 다른 히스토리로 변경하기 위한 시각적 객체(472, 474)들을 표시할 수 있다.
일 실시예에 따른, 전자 장치(101) 및/또는 전자 장치(410)는 연락처 리스트 내에 포함된 사용자의 아바타가 변경된 히스토리를, 사용자(110)와 상이한 다른 사용자에게 공유하기 위한 기능을 실행할 수 있다. 도 4c를 참고하면, 시각적 객체(460) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 상기 기능을 실행하기 위한 버튼(예, 시각적 객체(466))을 표시할 수 있다. 시각적 객체(460) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 도 4c 내에서 시각적 객체(460)의 표시를 중단하기 위한 버튼(예, 시각적 객체(468))을 표시할 수 있다. 비록 도 4b의 시각적 객체(460)에 기반하는 일 실시예가 설명되지만, 도 4a의 시각적 객체(440), 도 4b의 시각적 객체(470) 내에, 전자 장치(101) 및/또는 전자 장치(410)는 상기 기능을 실행하기 위한 상기 버튼을 표시할 수 있다.
도 4c를 참고하면, 시각적 객체(466)를 선택함을 나타내는 입력에 응답하여, 전자 장치(101) 및/또는 전자 장치(410)는, 시각적 객체(460)와 관련된 아바타가 변경된 히스토리를 공유하기 위한 팝업 윈도우(예, 시각적 객체(480))를 표시할 수 있다. 시각적 객체(480) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는, 연락처 리스트 내에 저장된 사용자들 중에서, 시각적 객체(460)를 통해 표시된 아바타를 열람한 적어도 하나의 사용자의 리스트를 표시할 수 있다. 예를 들어, 시각적 객체(480) 내에 표시된 아이템들(481, 482, 483) 각각에 대응하는 사용자들은, 전자 장치(101) 및/또는 전자 장치(410)의 연락처 리스트 내에 저장된 사용자들 중에서, 전자 장치를 통해 시각적 객체(460)를 통해 시각화된 아바타를 본 사용자들일 수 있다. 예를 들어, 시각적 객체(462)와 관련된 상태 내 아바타가, 아이템들(481, 482, 483) 각각에 대응하는 사용자들의 전자 장치들을 통해 표시된 히스토리에 기반하여, 전자 장치(101) 및/또는 전자 장치(410)는 아이템들(481, 482, 483)을 표시할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)는 외부 전자 장치(120)로부터 송신된 정보에 기반하여, 상기 히스토리를 식별할 수 있다.
일 실시예에 따른, 전자 장치(101) 및/또는 전자 장치(410)는 아이템들(481, 482, 483) 각각 내에서, 아이템들(481, 482, 483) 각각의 선택을 위한 체크박스들(481-1, 482-1, 483-1)을 표시할 수 있다. 도 4c를 참고하면, 사용자(110)로부터 체크박스들(481-1, 482-1, 483-1) 중 체크박스들(481-1, 483-1)을 선택함을 지시하는 입력들을 식별한 이후의 예시적인 상태가 도시된다. 시각적 객체(480) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체(480)의 표시를 중단하기 위한 버튼(예, 시각적 객체(484))을 표시할 수 있다. 시각적 객체(480) 내에서, 전자 장치(101) 및/또는 전자 장치(410)는 시각적 객체(480) 내에서 상기 입력들에 의해 선택된 적어도 하나의 사용자에게, 시각적 객체(460)와 관련된 아바타가 변경된 히스토리를 공유하기 위한 버튼(예, 시각적 객체(485))을 표시할 수 있다. 도 4c의 예시적인 상기 상태 내에서, 시각적 객체(485)를 선택함을 나타내는 입력에 응답하여, 전자 장치(101) 및/또는 전자 장치(410)는 체크박스들(481-1, 483-1) 각각에 대응하는 아이템들(481, 483)에 대응하는 사용자들의 전자 장치들로 상기 히스토리를 지시하는 정보를 송신할 수 있고, 따라서, 체크박스들(481-1, 483-1) 각각에 대응하는 사용자들이 과거 상태 내 아바타의 시각적 객체(462)를 표시하게 할 수 있고, 현재 상태 내 아바타의 시각적 객체(464)를 표시하게 할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101) 및/또는 전자 장치(410)는, 외부 전자 장치(120)로부터 수신된 정보에 기반하여, 사용자(110)와 구분되는 다른 사용자의 표현이 변경된 히스토리를 시각화할 수 있다. 예를 들어, 전자 장치(101) 및/또는 전자 장치(410)는 상기 다른 사용자에 매칭되는 가상 공간(예 도 1의 가상 공간(140)) 내 아바타가 변경된 히스토리를 시각화할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)가 상기 히스토리를 시각화하는 시점은, 도 4a를 참고하여 상술한 바와 같이, 외부 전자 장치(120)에 의해 제공되는 가상 공간을 통해 상기 아바타를 열람하기 이전의 시점을 포함할 수 있다. 전자 장치(101) 및/또는 전자 장치(410)는, 도 4b 및 도 4c를 참고하여 상술한 바와 같이, 연락처 리스트에 기반하여 상기 히스토리를 시각화할 수 있다. 상기 히스토리를 시각화하는 상태 내에서, 도 4b 및 도 4c의 시각적 객체들(462, 464)과 같이, 전자 장치(101) 및/또는 전자 장치(410)는 상이한 시점들의 아바타들의 상태들을 표현한 시각적 객체들을 표시할 수 있다. 상기 시점들은, 현재 시점인 제1 시점 및 상기 현재 시점 이전에 상기 아바타를 열람하였던 시점의 제2 시점을 포함할 수 있다. 상기 시각적 객체들에 기반하여, 전자 장치(101) 및/또는 전자 장치(410)는 상기 시점들 사이의 아바타의 변화를 시각화할 수 있다.
이하에서는, 도 5a 및 도 5b를 참고하여, 일 실시예에 따른, 전자 장치(101)가, 외부 전자 장치(120)에 의해 제공되는 가상 공간의 일부분을 포함하는 화면(예, 도 3의 화면(310)) 내에서, 사용자(예, 전자 장치(101)의 사용자(110)와 구분되는 다른 사용자)의 표현이 변경된 히스토리를 시각화하는 동작의 일 예가 설명된다.
도 5a 및 도 5b는, 일 실시예에 따른, 전자 장치(101)가, 가상 객체가 변경된 히스토리에 기반하여 시각적 객체를 표시하는 동작의 일 예를 도시한다. 도 5a 및 도 5b의 전자 장치(101) 및 외부 전자 장치(120)는 도 1, 도 2 및 도 3, 및/또는 도 4a, 도 4b 및 도 4c의 전자 장치(101) 및 외부 전자 장치(120)를 포함할 수 있다.
도 5a를 참고하면, 일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)로부터 송신된 정보에 기반하여, 화면(310) 내에 가상 공간의 적어도 일부분을 표시할 수 있다. 화면(310)을 통해 표시되는 상기 가상 공간의 적어도 일부분은, 사용자(110)의 아바타의 뷰 앵글 내에 포함된 상기 가상 공간의 일부분일 수 있다. 전자 장치(101)는 화면(310) 내에서, 가상 객체를 표현한 시각적 객체(340)를 표시할 수 있다. 전자 장치(101)는, 사용자(110)의 아바타의 뷰 앵글 내에서 상기 가상 객체를 식별하는 것에 기반하여, 화면(310) 내에 상기 시각적 객체(340)를 표시할 수 있다. 시각적 객체(340)에 대응하는 상기 가상 객체는, 사용자(110)와 상이한 다른 사용자의 표현(예, 아바타)일 수 있다. 도 5a 및 도 5b의 시각적 객체(340)는 도 3의 시각적 객체(340)를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)는 화면(310) 내에, 시각적 객체(340)에 대응하는 가상 객체가 변경된 히스토리를 시각화할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(340)와 함께, 시각적 객체(340)에 대응하는 아바타가 변경된 히스토리를 표시할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(340)에 매칭된 사용자(예, 사용자(110)와 구분되는 다른 사용자)의 표현이 변경된 히스토리를 시각화할 수 있다. 도 5a를 참고하면, 전자 장치(101)는 화면(310) 내에서 시각적 객체(340)와 함께, 시각적 객체(340)에 대응하는 아바타가 변경된 히스토리가 포함된 시각적 객체(510)를 표시할 수 있다. 비록 버블의 형태를 가지는 시각적 객체(510)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다.
일 실시예에 따른, 전자 장치(101)는, 시각적 객체(340)에 대응하는 아바타의 히스토리를 시각화하기 위한 시각적 객체(510)를, 상기 아바타에게 고유하게 할당된 식별자(예, ID)가 화면(310) 내에 표시되는지 여부에 기반하여, 표시할 수 있다. 예를 들어, 시각적 객체(340)에 인접한 화면(310) 내 지점에 상기 식별자를 표시하는 경우, 화면(310)을 열람하는 사용자(110)는 상기 식별자에 기반하여 상기 시각적 객체(340)에 대응하는 상대방(counterpart)을 인식할 수 있다. 식별자가 시각적 객체(340)와 함께 표시된 경우, 전자 장치(101)는 상기 아바타의 히스토리를 시각화하기 위한 시각적 객체(510)를 표시하지 않을 수 있다. 일 실시예에서, 시각적 객체(510)를 표시하지 않는 대신에, 전자 장치(101)는 상기 아바타의 변경을 나타내는 인디케이터(예, 적색과 같은 지정된 색상을 가지는 도트)를, 시각적 객체(340)에 인접한 화면(310) 내 지점에 표시할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 시각적 객체(340)에 대응하는 아바타의 소스에 기반하여, 상기 아바타의 히스토리를 시각화하기 위한 시각적 객체(510)를 표시할지 여부를 결정할 수 있다. 예를 들어, 상기 아바타가 사용자(110)의 얼굴의 입체적인 형태를 이용하여 생성된 경우, 전자 장치(101)는 시각적 객체(510)를 표시하지 않을 수 있다. 예를 들어, 아바타와 관련된 정보가, 상기 아바타가 사용자(110)의 얼굴의 형태에 기반하여 생성되었음을 나타내는 지정된 파라미터(또는 플래그)를 포함하는 경우, 전자 장치(101)는 시각적 객체(510)를 표시하는 것을 삼갈 수 있다.
일 실시예에 따른, 시각적 객체(340)에 대응하는 아바타와 관련된 정보가 전자 장치(101) 내에 저장된 경우, 전자 장치(101)는 시각적 객체(510) 내에 상기 아바타와 관련된 상기 정보의 적어도 일부분을 표시할 수 있다. 도 5a를 참고하면, 전자 장치(101)가 시각적 객체(510) 내에 표시하는 상기 정보의 적어도 일부분으로, 상기 아바타에 대응하는 사용자의 명칭(예, "제시카"), 상기 아바타가 변경된 시점(예, "2022-07-22에 캐릭터 변경함"), 및/또는 상기 사용자의 개인 정보(personal information)(예, "j_ca@s.com"과 같은 이메일 주소)를 표시할 수 있다. 전자 장치(101)가 시각적 객체(510) 내에 표시하는 상기 개인 정보는, 시각적 객체(340)에 대응하는 상기 사용자에 의해 공개된 개인 정보를 포함할 수 있다. 예를 들어, 전자 장치(101)는 표 1에 기반하여, 시각적 객체(510) 내에 개인 정보를 표시할 수 있다.
개인 정보의 타입
이름 off
닉네임 on
사진(포토 ID) off
아바타가 변경된 히스토리 on
가상 공간 내 상호작용 히스토리 on
스케줄 정보 off
기타(extra) 개인 정보
(예, 연령, 직업, 주소, 전화번호, 이메일 주소)
on(이메일 주소)
표 1의 값은, 시각적 객체(340)에 대응하는 아바타의 사용자에 의해 설정될(set by) 수 있다. 표 1을 참고하면, 전자 장치(101)는 시각적 객체(510) 내에 제1 지정된 값(예, "on")을 가지는 개인 정보(예, 닉네임, 아바타가 변경된 히스토리, 가상 공간 내 상호작용 히스토리, 및 이메일 주소)의 적어도 일부분을 표시할 수 있다. 전자 장치(101)는 시각적 객체(510) 내에, 상기 사용자의 개인 정보 중에서, 상기 제1 지정된 값과 상이한 제2 지정된 값(예, "off")을 가지는 개인 정보를 표시하는 것을 삼갈 수 있다. 실시예가 이에 제한되는 것은 아니며, 외부 전자 장치(120)는 전자 장치(101)로, 상기 사용자의 개인 정보 중에서, 상기 제1 지정된 값을 가지는 개인 정보를 선택적으로 송신할 수 있다. 유사하게, 전자 장치(101)는, 사용자(110)의 아바타가 변경된 히스토리와 함께 표시될 개인 정보의 범위를 조절하기 위한 값을, 사용자(110)로부터 획득할 수 있다.표 1 내에서 예시적으로 열거된 개인 정보에 기반하여, 전자 장치(101)는 일치된 이름을 가지는 상이한 사용자들에 대응하는 아바타들을 구분하여 표시할 수 있다. 전자 장치(101)는 상기 아바타들을 표현한 시각적 객체들과 함께, 상기 사용자들에 대응하는 포토 ID들을 표시하여, 상기 사용자들을 구분할 수 있다.
도 5a를 참고하면, 전자 장치(101)는 시각적 객체(510) 내에, 시각적 객체(340)와 관련된 아바타가 변경된 히스토리를 시각화하기 위한 버튼을 표시할 수 있다. 도 5a를 참고하면, 상기 버튼의 일 예로, "자세히"와 같은 지정된 텍스트를 가지는 시각적 객체(515)가 예시적으로 도시된다. 시각적 객체(515)를 선택함을 지시하는 입력에 응답하여, 전자 장치(101)는 화면(310) 내에 상기 아바타의 히스토리를 가이드하기 위한 팝업 윈도우(예, 시각적 객체(520))를 표시할 수 있다.
도 5a를 참고하면, 전자 장치(101)는 시각적 객체(520) 내에서, 상이한 시점들 내에서 상기 아바타의 상태들을 표현한 시각적 객체들(522, 524)을 연계로 표시할 수 있다. 예를 들어, 전자 장치(101)는, 현재 시점 이전에 사용자(110)에 의해 상기 아바타가 열람된 시점의 상기 아바타의 상태를 표현한 시각적 객체(522)를 표시할 수 있다. 전자 장치(101)는 시각적 객체(522)와 함께, 상기 시점을 가이드하기 위한 텍스트(도 5a의 일 예에서, "2022-04-02")를 표시할 수 있다. 전자 장치(101)는 시각적 객체(522)와 함께, 상기 현재 시점의 상기 아바타의 상태를 표현한 시각적 객체(524)를 표시할 수 있다. 전자 장치(101)는 시각적 객체들(522, 524) 사이에 배치된 화살표(예, 시각적 객체(522)로부터 시각적 객체(524)로 향하는 화살표)를 이용하여, 상기 아바타가 변경된 순서를 시각화할 수 있다.
일 실시예에서, 전자 장치(101)에 의해 표시되는 아바타는 의류(garment)(예, 상의, 하의, 신발, 장갑 및/또는 모자와 같은 액세서리)를 표현하는 가상 객체가 결합된 형태를 가질 수 있다. 전자 장치(101)는 시각적 객체(520) 내에서, 시각적 객체(340)에 대응하는 아바타에 결합된 하나 이상의 의류들이 변경된 히스토리를 시각화할 수 있다. 예를 들어, 전자 장치(101)는 외부 전자 장치(120)로부터 획득된 정보로부터, 시각적 객체(340)에 대응하는 아바타에 결합된 하나 이상의 의류들이 변경된 히스토리를 식별할 수 있다. 전자 장치(101)는 시각적 객체들(522, 524)을 표시하기 위한 정보를 비교하여, 상기 아바타에 결합된 하나 이상의 의류들이 변경된 히스토리를 식별할 수 있다. 전자 장치(101)는 시각적 객체(520)와 함께, 상기 하나 이상의 의류들이 변경된 히스토리를 시각화할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(101)는, 제1 사진과 같은 이미지(또는 비디오)를 이용하여 아바타를 생성한 이후, 상기 제1 사진과 상이한 제2 사진을 이용하여 상기 아바타의 적어도 일부분을 변경할 수 있다. 예를 들어, 전자 장치(101)는 특정 사용자에 대한 상기 제1 사진 및 상기 제2 사진을 비교하여 인식된, 상기 특정 사용자의 신체(또는 의류)의 변화를 이용하여, 아바타의 적어도 일부분을 변경할 수 있다. 일 실시예에 따른 전자 장치(101)는, 상기 아바타의 적어도 일부분이 변경된 히스토리를 시각화할 수 있다.
도 5a를 참고하면, 시각적 객체(340)와 관련된 아바타에 안경 및 상의가 새롭게 결합된 예시적인 케이스 내에서, 전자 장치(101)가 상기 안경 및 상기 상의가 결합된 히스토리를 가이드하기 위한 시각적 객체들(530, 535)을 표시하는 일 예가 도시된다. 전자 장치(101)는 시각적 객체(524)와 연계된 버블의 형태를 가지는 시각적 객체들(530, 535)를 표시할 수 있다. 상기 케이스 내에서, 전자 장치(101)는 시각적 객체들(530, 535)을 표시하는 것과 독립적으로, 시각적 객체(524) 내에서 상기 안경 및 상기 상의를 강조(예, 깜박임(blink))할 수 있다. 예를 들어, 전자 장치(101)는 상기 안경 및/또는 상기 상의와 중첩으로, 지정된 투명도 및 지정된 색상을 가지는 도형을 반복적으로 표시하여, 상기 안경 및/또는 상기 상의를 강조할 수 있다.
도 5a를 참고하면, 시각적 객체(530) 내에서, 전자 장치(101)는 상기 시각적 객체(524)에 대응하는 아바타에 결합된 의류의 명칭(예, 안경) 및 상기 의류가 상기 아바타에 결합된 시점(예, 2022-07-01)을 가이드하는 텍스트를 표시할 수 있다. 시각적 객체(530) 내에서, 전자 장치(101)는 시각적 객체(530)의 표시를 중단하기 위한 버튼(예, "확인"과 같은 지정된 텍스트를 포함하는 시각적 객체(531))을 표시할 수 있다. 유사하게, 시각적 객체(535) 내에서, 전자 장치(101)는, 상기 아바타에 결합된 상의의 명칭(예, 자켓) 및 상기 아바타의 상기 상의가 교체된 시점(예, 2022-07-22)을 표시할 수 있다. 시각적 객체(536)를 선택함을 지시하는 입력에 기반하여, 전자 장치(101)는 시각적 객체(535)의 표시를 중단할 수 있다. 도 5a의 시각적 객체들(530, 535)을 참고하면, 시각적 객체(340)에 대응하는 아바타가 마지막으로 변경된 시점이, 상기 상의가 교체된 시점인 2022년 7월 22일인 예시적인 케이스가 도시된다. 상기 케이스 내에서, 전자 장치(101)는 화면(310)의 시각적 객체(510) 내에, 상기 시점을 지시하는 텍스트(예, 2022년 7월 22일)를 표시할 수 있다.
일 실시예에서, 복수의 그래픽적 객체들의 조합에 기반하는 아바타를 표시하는 전자 장치(101)는, 상기 아바타를 마지막으로 표시하였던 제1 타이밍 이후의 제2 타이밍에서, 지정된 개수를 초과하는 그래픽적 객체들이 변경, 추가 및/또는 삭제되는지 여부에 기반하여, 상기 아바타가 변경된 히스토리를 시각화할 수 있다. 도 5a를 참고하면, 의류가 아바타에 결합된 시점(예, 2022-07-01) 및 아바타에 결합된 상의가 교체된 시점(2022-07-22) 사이의 시점에서, 상기 아바타가 열람된 시점(예, 2022-04-02) 이후 1 개의 그래픽적 객체(예, 의류) 만이 변경되었기 때문에, 전자 장치(101)는, 시각적 객체(510)를 표시하지 않을 수 있다. 예를 들어, 전자 장치(101)는, 아바타에 결합된 상의가 교체된 시점(2022-07-22) 이후의 시점에서, 2 개의 그래픽적 객체들이 상기 아바타가 열람된 시점(예, 2022-04-02) 이후 변경되었기 때문에, 전자 장치(101)는 시각적 객체(510)를 표시할 수 있다.
비록, 전자 장치(101)가 시각적 객체(515)에 기반하여 시각적 객체들(510, 520)을 순차적으로 표시하는 예시적인 동작이 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 시각적 객체(340)에 대응하는 아바타와 관련된 정보가 전자 장치(101) 내에 저장되지 않았거나, 또는 상기 아바타에 대응하는 사용자의 정보가 전자 장치(101)의 사용자(110)에게 공유되지 않은 경우, 전자 장치(101)는 시각적 객체들(510, 520) 중 시각적 객체(520)를 표시할 수 있다. 상기 예시 내에서, 전자 장치(101)는 시각적 객체(520)를 이용하여, 사용자(110)에 의해 마지막으로 열람되었던 아바타를 표현한 시각적 객체(522)를, 상기 아바타의 현재 상태를 표현한 시각적 객체(340)와 함께 표시할 수 있다. 상기 예시 내에서, 사용자(110)는 시각적 객체(522) 만을 열람하였기 때문에, 전자 장치(101)는 시각적 객체(340)와 함께 시각적 객체(522)를 표시하여, 시각적 객체(522)의 아바타가 변경된 히스토리를 시각화할 수 있다.
예를 들어, 시각적 객체(340)와 관련된 상기 사용자의 정보를 전자 장치(101)의 메모리로부터 식별하였거나, 또는 상기 정보가 사용자(110)에게 공유된 히스토리를 식별하는 것에 기반하여, 전자 장치(101)는 시각적 객체들(510, 520) 중 시각적 객체(510)를 표시할 수 있다. 상기 정보는, 전자 장치(101) 내에서 연락처 리스트 내에 저장될 수 있다. 예를 들어, 전자 장치(101)의 메모리 내에 저장된 연락처 리스트 내에서, 시각적 객체(340)에 대응하는 사용자를 지시하는 데이터를 식별하는 것에 기반하여, 상기 전자 장치(101)는 상기 시각적 객체(340)와 함께, 상기 데이터의 적어도 일부분을 포함하는 시각적 객체(510)를 표시할 수 있다. 시각적 객체들(510, 520) 중 적어도 하나는 시각적 객체(340)에 대응하는 아바타가 변경된 히스토리에 기반하여, 조건부로(conditionally) 표시될 수 있다.
일 실시예에 따른, 전자 장치(101)가 가상 공간의 적어도 일부분이 포함된 화면(310) 내에서, 아바타가 변경된 히스토리를 시각화하는 것은 도 3 및/또는 도 5a의 예시적인 동작에 제한되지 않는다. 도 5b를 참고하면, 전자 장치(101)는 화면(310) 내에서, 외부 전자 장치(120)에 의해 제공되는 상기 가상 공간 내 아바타를 표현한 시각적 객체(540)를 표시할 수 있다. 전자 장치(101)는, 시간 영역(time domain) 내에서, 시각적 객체(540)의 형태를 순차적으로 변경하여, 상기 아바타가 변경된 히스토리를 시각화할 수 있다.
도 5b를 참고하면, 시점 t1 부터 시점 t3 사이의 시간 구간 내에서, 전자 장치(101)에 의해 화면(310) 내에 표시되는 시각적 객체(540)의 상이한 상태들(540-1, 540-2, 540-3)이 도시된다. 시점 t1은, 전자 장치(101)가 디스플레이 내에 화면(310)을 표시하는 것을 개시한 시점, 또는 상기 시점부터 지정된 기간 이후의 시점을 포함할 수 있다. 시점 t1은, 전자 장치(101)가 시각적 객체(540)를 열람함을 지시하는 입력을 식별한 시점일 수 있다. 시점 t1 내에서, 전자 장치(101)가 화면(310) 내에 표시하는 시각적 객체(540)의 제1 상태(540-1)는, 시각적 객체(540)에 대응하는 아바타의 상태들 중에서, 사용자(110)에 의해 마지막으로 열람되었던 아바타의 일 상태에 대응할 수 있다. 시점 t3 내에서, 전자 장치(101)가 화면(310) 내에 표시하는 시각적 객체(540)의 제3 상태(540-3)는, 상기 상태들 중에서, 상기 아바타의 현재 상태에 대응할 수 있다.
도 5b를 참고하면, 시점 t2 내에서, 전자 장치(101)가 화면(310) 내에 표시하는 시각적 객체(540)의 제2 상태(540-2)는, 시각적 객체(540)의 상기 제1 상태(540-1) 및 상기 제3 상태(540-3) 사이의 중간 상태(intermediate state)(또는, 중간 형태(intermediate form))를 포함할 수 있다. 상기 중간 상태에 기반하여, 전자 장치(101)는 시점 t1 내지 시점 t3 사이의 시간 구간 내에서, 시각적 객체(540)의 형태가 제1 상태(540-1)로부터 제3 상태(540-3)로 변형되는(transforming) 애니메이션을 표시할 수 있다. 전자 장치(101)는 모핑(morphing)과 같은 시각 효과에 기반하여, 제2 상태(540-2)를 포함하는 시각적 객체(540)의 하나 이상의 중간 상태들을 식별할 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는, 가상 공간의 일부분을 표현한 화면(310) 내에서, 상기 일부분 내에 포함된 적어도 하나의 가상 객체를 표현한 적어도 하나의 시각적 객체(예, 시각적 객체(340))를 표시할 수 있다. 전자 장치(101)는, 사용자(110)와 상이한 다른 사용자의 아바타를 표현한 시각적 객체(340)를, 화면(310) 내에 표시한 상태 내에서, 상기 아바타가 변경된 히스토리를 시각화할 수 있다. 전자 장치(101)가 상기 히스토리를 시각화하는 것은, 시각적 객체(340)에 대응하는 상기 아바타의 제1 상태, 및 시각적 객체(340) 이전에, 전자 장치(101)의 디스플레이를 통해 마지막으로 표시된 상기 아바타의 제2 상태 사이의 차이와 관련될 수 있다. 상기 제1 상태 및 상기 제2 상태가 상이한 경우, 전자 장치(101)는 화면(310) 내에 상기 제2 상태 내 상기 아바타를 표현한 시각적 객체(예, 도 5a의 시각적 객체(522) 및/또는 도 5b의 시각적 객체(540)의 제1 상태(540-1))를 표시할 수 있다. 상기 제2 상태 내 상기 아바타를 표현한 상기 시각적 객체를 이용하여, 전자 장치(101)는, 상기 아바타의 상태가 상기 제2 상태로부터 상기 제1 상태로 변경된 히스토리를 시각화할 수 있다.
일 실시예에 따른, 전자 장치(101)는 화면(310) 내에서, 시각적 객체(340)를 열람함을 나타내는 입력에 기반하여, 전자 장치(101) 및/또는 외부 전자 장치(120) 내에 상기 시각적 객체(340)에 대응하는 아바타의 상태를, 사용자(110)에 의해 마지막으로 열람된 상기 아바타의 상태로 저장할 수 있다. 전자 장치(101)는, 사용자(110)에 의해 포커스된 화면(310) 내 일부분 및 시각적 객체(340)가 표시된 화면(310)의 일부분을 비교하여, 상기 입력을 식별할 수 있다. 이하에서는, 도 6을 참고하여, 일 실시예에 따른, 전자 장치(101)가 사용자(110)에 의해 포커스된 화면(310) 내 일부분을 식별하는 동작의 일 예가 설명된다.
도 6은, 일 실시예에 따른, 전자 장치(101)가 가상 객체에 대응하는 시각적 객체(340)에 대한 입력을 식별하는 동작의 일 예를 도시한다. 도 6의 전자 장치(101) 및 외부 전자 장치(120)는 도 1 내지 도 3, 도 4a 내지 도 4c, 및/또는 도 5a 내지 도 5b의 전자 장치(101) 및 외부 전자 장치(120)를 포함할 수 있다.
도 6을 참고하면, 일 실시예에 따른, 전자 장치(101)가 화면(310) 내에, 외부 전자 장치(120)에 의해 제공되는 가상 공간(예, 도 1의 가상 공간(140))의 적어도 일부분을 표시한 예시적인 상태가 도시된다. 도 6의 상태 내에서, 전자 장치(101)는 사용자(110)와 상이한 다른 사용자의 아바타를 표현하는 시각적 객체(340)를 표시할 수 있다. 시각적 객체(340)에 대응하는 상기 아바타의 제1 상태가, 사용자(110)에 의해 마지막으로 열람되었거나, 또는 전자 장치(101)를 통해 마지막으로 표시된, 상기 아바타의 제2 상태와 상이한 경우, 전자 장치(101)는 상기 제2 상태 내 아바타를 표현하는 시각적 객체(522)를 표시할 수 있다. 도 6을 참고하면, 전자 장치(101)는 시각적 객체(340)와 함께, 상기 시각적 객체(522)를 포함하는 버블의 형태를 가지는 시각적 객체(520)를 표시할 수 있다. 시각적 객체(520) 내에서, 전자 장치(101)는 상기 제1 상태의 상기 아바타를 표현하는 시각적 객체(524)를 표시하여, 상기 아바타의 외형이 상기 제2 상태로부터 상기 제1 상태로 변경된 히스토리를 시각화할 수 있다.
도 6의 예시적인 상태 내에서, 일 실시예에 따른, 전자 장치(101)는 센서(예, 도 2의 센서(250))를 이용하여 사용자(110)와 관련된 정보를 식별할 수 있다. 예를 들어, 전자 장치(101)는 도 2의 IMU(254)에 기반하여, 전자 장치(101)를 착용한 사용자(110)의 머리의 모션을 지시하는 정보를 식별할 수 있다. 상기 정보에 기반하여, 전자 장치(101)는 사용자(110)의 머리의 방향(620)을 식별할 수 있다. 상기 머리의 방향(620)에 기반하여, 전자 장치(101)는 상기 방향(620)이 향하는 화면(310) 내 부분(610)을 식별할 수 있다.
예를 들어, 전자 장치(101)는 도 2의 이미지 센서(252)에 기반하여, 손(640)의 모션을 지시하는 정보(예, 손(640)을 포함하는 프레임들)를 식별할 수 있다. 손(640)과 관련된 상기 정보는, 전자 장치(101) 내에서 사용자(110)의 머리를 향하는 일 방향과 반대인 다른 방향을 향하여 배치된 이미지 센서를 통해 획득될 수 있다. 상기 정보에 기반하여, 전자 장치(101)는, 상기 손(640)에 포함된 적어도 하나의 손가락의 방향을 식별할 수 있다. 전자 장치(101)는 상기 적어도 하나의 손가락의 방향에 기반하여, 상기 적어도 하나의 손가락이 가리키는 화면(310) 내 부분(610)을 식별할 수 있다.
예를 들어, 전자 장치(101)는 도 2의 이미지 센서(252)에 기반하여, 사용자의 시선의 방향을 지시하는 정보를 식별할 수 있다. 상기 정보는, 상기 사용자의 눈이 포함된 프레임들(630)을 포함할 수 있다. 프레임들(630)은, 전자 장치(101) 내에서 사용자(110)의 상기 눈을 향하여 배치된 이미지 센서를 통해 획득될 수 있다. 상기 정보에 기반하여, 전자 장치(101)는 상기 사용자의 눈이 향하는 화면(310) 내 부분(610)을 식별할 수 있다. 부분(610)과 같이, 화면(310) 내에서 시각적 객체(340)가 표시된 일부분을 향하는 상기 시선의 방향을 식별하는 것에 기반하여, 전자 장치(101)는 시각적 객체(340)를 열람함을 지시하는 입력을 식별할 수 있다. 상기 입력을 식별하는 것에 기반하여, 전자 장치(101)는 시각적 객체(340)의 적어도 일부분(예, 시각적 객체(340)에 의해 표현된, 아바타의 얼굴)을 포함하는 시각적 객체(예, 바운딩 박스)를 표시할 수 있다. 예를 들어, 전자 장치(101)는 지정된 색상(예, 노란색)의 형태를 가지는 시각적 객체를 표시할 수 있다.
예를 들어, 전자 장치(101)는 도 2의 마이크(256)를 이용하여, 사용자의 발언(650)을 지시하는 정보를 식별할 수 있다. 상기 정보는, 상기 마이크(256)로부터 출력된 오디오 신호를 포함할 수 있다. 상기 정보는, 상기 오디오 신호에 대한 STT(speech-to-text)를 수행한 결과(예, 상기 발언을 지시하는 텍스트)를 포함할 수 있다. 전자 장치(101)는 상기 정보 내에 포함된 텍스트 중에서, 시각적 객체(340)와 관련된 사용자의 이름(도 6의 일 실시예에서, "제시카")을 호출하는 자연어 문장(예, "안녕 제시카")을 식별하는 것에 기반하여, 시각적 객체(340)가 사용자(110)에 의해 열람됨을 식별할 수 있다.
상술된 예시들과 같이, 전자 장치(101)는 사용자(110)의 머리의 방향(620), 시선의 방향, 손(640)의 방향 및/또는 사용자(110)의 발언(650)에 기반하여, 시각적 객체(340)를 열람함을 지시하는 입력을 식별할 수 있다. 예를 들어, 전자 장치(101)는 머리의 방향(620), 시선의 방향, 손(640)의 방향 및/또는 사용자(110)의 발언(650)에 기반하여, 사용자(110)가 시각적 객체(340)를 열람하는지 여부를 식별할 수 있다. 전자 장치(101)는, 사용자(110)가 시각적 객체(340)를 열람하였는지 여부에 기반하여, 시각적 객체(340)와 관련된 아바타의 히스토리를 포함하는 시각적 객체(520)의 표시를 중단(cease)할 수 있다. 예를 들어, 상기 아바타에 대응하는 사용자의 이름이 포함된 발언(650)을 식별하는 것에 기반하여, 전자 장치(101)는 시각적 객체(520)의 표시를 중단할 수 있다. 실시예가 이에 제한되는 것은 아니며, 전자 장치(101)는 시각적 객체(520)를 선택함을 나타내는 입력에 응답하여, 시각적 객체(520)의 표시를 중단할 수 있다. 실시예가 이에 제한되는 것은 아니며, 시각적 객체(340)에 대응하는 아바타의 히스토리를 나타내는 시각적 객체(520)를 표시하지 않는 동안, 전자 장치(101)는 시각적 객체((340)를 열람함을 지시하는 입력에 응답하여, 화면(310) 내에 시각적 객체(520)를 표시할 수 있다.
예를 들어, 프레임들(630)에 의해 식별된 사용자(110)의 시선의 방향이, 시각적 객체(340) 내에서 정지된 기간 및/또는 횟수에 기반하여, 전자 장치(101)는 사용자(110)가 시각적 객체(340)를 열람하는 지 여부를 식별할 수 있다. 예를 들어, 사용자(110)의 시선의 방향이 부분(610) 내에서 정지된 기간 및/또는 횟수가 지정된 기간 및/또는 지정된 횟수를 초과하는지 여부를 식별할 수 있다. 사용자(110)의 시선이 지정된 기간을 초과하여 부분(610) 내에서 정지되거나, 및/또는 지정된 횟수를 초과하여 부분(610) 안으로 진입하는 경우, 전자 장치(101)는 시각적 객체(520)의 표시를 중단할 수 있다. 상기 지정된 기간 및/또는 상기 지정된 횟수에 기반하여, 전자 장치(101)는, 사용자(110)가 시각적 객체(340)를 열람하는지 여부를 보다 정확하게 식별할 수 있다.
일 실시예에 따른, 전자 장치(101)는, 사용자(110)가 시각적 객체(340)를 열람하는 지 여부를 지시하는 정보를, 외부 전자 장치(120)로 송신할 수 있다. 예를 들어, 전자 장치(101)는 외부 전자 장치(120)로, 머리의 방향(620), 손(640)의 방향, 발언(650) 및/또는 프레임들(630)을 송신할 수 있다. 예를 들어, 전자 장치(101)는, 시각적 객체(340)를 열람함을 지시하는 입력에 대한 정보를, 외부 전자 장치(120)로 송신할 수 있다.
일 실시예에서, 외부 전자 장치(120)는, 전자 장치(101)로부터 송신된 정보에 기반하여, 시각적 객체(340)가 사용자(110)에 의해 열람되었는지 여부를 식별할 수 있다. 시각적 객체(340)가 사용자(110)에 의해 열람된 경우, 외부 전자 장치(120)는 시각적 객체(340)와 관련된 정보를 저장할 수 있다. 상기 정보는, 시각적 객체(340)에 대응하는 아바타를 표시하기 위한 데이터를 포함할 수 있다. 상기 정보는, 시각적 객체(340)에 대응하는 상기 아바타의 상태를 지시하는 데이터를 포함할 수 있다. 상기 정보는, 상기 아바타에 부착된 하나 이상의 의류들을 지시하는 데이터를 포함할 수 있다. 상기 정보는, 시각적 객체(340)가 사용자(110)에 의해 열람된 시점, 및/또는 전자 장치(101)가 화면(310) 내에 시각적 객체(340)를 표시한 시점을 지시하는 타임스탬프를 포함할 수 있다.
일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)가 상기 정보를 저장하는 동작과 유사하게, 전자 장치(101) 내에, 시각적 객체(340)가 사용자(110)에 의해 열람되었음을 지시하는 정보를 저장할 수 있다. 예를 들어, 전자 장치(101)는 시각적 객체(340)에 대응하는 아바타의 상태를 지시하는 데이터를 저장할 수 있다. 예를 들어, 전자 장치(101)는, 화면(310)을 통해 시각적 객체(340)를 표시한 시점을 지시하는 타임스탬프를 저장할 수 있다. 전자 장치(101)는, 상기 아바타에 결합된 하나 이상의 의류들 각각에 대응하는 하나 이상의 가상 객체들을 지시하는 데이터를 저장할 수 있다. 전자 장치(101)가 시각적 객체(340)를 열람함을 지시하는 입력에 응답하여, 시각적 객체(520)의 표시를 중단하는 것은, 도 5a를 참고하여 상술한 바와 유사하게 수행될 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치(101)는 외부 전자 장치(120)와 통신하여, 사용자(110)와 구분되는 다른 사용자를 표현하는 시각적 객체(340)를 표시할 수 있다. 시각적 객체(340)는 상기 다른 사용자의 전자 장치에 의해 레코딩된 이미지 및/또는 비디오를 포함할 수 있다. 시각적 객체(340)는 상기 다른 사용자에 의해 외부 전자 장치(120) 내에 등록된(registered) 아바타의 적어도 일부분에 대응할 수 있다. 시각적 객체(340)와 함께, 전자 장치(101)는 시각적 객체(340) 이전에 상기 다른 사용자를 표현하기 위하여 전자 장치(101)를 통해 표시되었던, 다른 시각적 객체(예, 시각적 객체(522))를 표시할 수 있다. 시각적 객체(340)와 함께 상기 다른 시각적 객체를 표시하여, 전자 장치(101)는 사용자(110)에게, 상기 다른 사용자를 표현한 가상 객체(예, 아바타, 이미지 및/또는 비디오)가 변경된 히스토리를 시각화할 수 있다. 상기 다른 시각적 객체를 본 히스토리를 가진 사용자(110)는, 시각적 객체(340)와 함께 표시된 상기 다른 시각적 객체에 기반하여, 시각적 객체(340)가 상기 다른 시각적 객체에 대응하는 상기 다른 사용자의 표현(representation)임을 보다 신속하게 인지할 수 있다.
이하에서는, 도 7을 참고하여, 일 실시예에 따른, 전자 장치(101) 및 외부 전자 장치(120)가 교환하는 하나 이상의 신호들이 설명된다.
도 7은, 일 실시예에 따른, 전자 장치(101) 및 외부 전자 장치(120) 사이의 신호 흐름도의 일 예를 도시한다. 도 7의 전자 장치(101) 및 외부 전자 장치(120)는 도 1 , 도 2, 도 3, 도 4a, 도 4b, 도 4c, 도 5a, 도 5b 및/또는 도 6의 전자 장치(101) 및 외부 전자 장치(120)를 포함할 수 있다. 도 7의 전자 장치(101)의 동작들은, 도 2의 전자 장치(101) 및/또는 도 2의 전자 장치(101) 내 프로세서(210)에 의해 수행될 수 있다. 도 7의 외부 전자 장치(120)의 동작들은, 도 2의 외부 전자 장치(120) 및/또는 도 2의 외부 전자 장치(120) 내 프로세서(210)에 의해 수행될 수 있다.
도 7을 참고하면, 동작(710) 내에서, 일 실시예에 따른, 외부 전자 장치(120)는, 가상 객체를 표시하기 위한 정보를 송신할 수 있다. 외부 전자 장치(120)는 통신 회로(예, 도 2의 외부 전자 장치(120) 내 통신 회로(230))를 통해, 외부 전자 장치(120)에 연결된 하나 이상의 전자 장치들(예, 도 2의 전자 장치(101))로, 상기 정보를 송신할 수 있다. 상기 정보는, 하나 이상의 가상 객체들이 포함된 가상 공간(예, 도 1의 가상 공간(140))을 시각화하기 위한 데이터를 포함할 수 있다. 동작(710)의 상기 가상 객체는, 동작(710)의 정보를 수신하는 전자 장치(101)와 상이한 다른 전자 장치에 액세스된 사용자를 지시할 수 있다. 예를 들어, 동작(710)의 상기 가상 객체는 상기 사용자의 아바타를 포함할 수 있다. 예를 들어, 동작(710)의 상기 가상 객체는 상기 다른 전자 장치로부터 스트리밍된 이미지 및/또는 비디오를 포함할 수 있다.
도 7을 참고하면, 동작(720) 내에서, 일 실시예에 따른, 전자 장치(101)는, 가상 객체를 표현한 제1 시각적 객체를 표시할 수 있다. 동작(710)의 정보를 수신하는 것에 기반하여, 전자 장치(101)는 동작(710)의 가상 객체를 표현한 상기 제1 시각적 객체를 표시할 수 있다. 상기 제1 시각적 객체는, 도 1의 제2 시각적 객체(160-2), 도 3의 시각적 객체들(330, 340, 350, 360), 도 4a의 시각적 객체(444), 도 4b 및 도 4c의 시각적 객체(464), 도 5a의 시각적 객체들(340, 524), 및/또는 도 5b의 제3 상태(540-3)의 시각적 객체(540)와 같이, 현재 상태의 상기 가상 객체와 관련될 수 있다.
도 7을 참고하면, 동작(730) 내에서, 일 실시예에 따른, 전자 장치(101)는, 가상 객체의 상태가 변경된 히스토리에 기반하여, 제1 시각적 객체에 대응하는 가상 객체의 제1 상태 이전의 제2 상태를 식별할 수 있다. 전자 장치(101)는, 전자 장치(101) 및/또는 외부 전자 장치(120) 내에 저장된 상기 히스토리에 기반하여, 상기 제2 상태를 식별할 수 있다. 예를 들어, 전자 장치(101)는, 전자 장치(101)의 메모리 내에서 상기 가상 객체에 대응하는 사용자를 표시하였던 상기 히스토리를 식별할 수 있다. 예를 들어, 전자 장치(101)는 외부 전자 장치(120)로, 상기 히스토리를 지시하는 정보를 요청할 수 있다. 상기 정보의 요청에 기반하여, 동작(735) 내에서, 일 실시예에 따른, 외부 전자 장치(120)는, 가상 객체가 전자 장치의 사용자에게 표시된 히스토리를 지시하는 정보를 송신할 수 있다. 상기 히스토리에 기반하여, 전자 장치(101)는 전자 장치(101)의 사용자(예, 도 1 내지 도 6의 사용자(110))에 의해 열람되었던 상기 가상 객체의 상기 제2 상태를 식별할 수 있다.
도 7을 참고하면, 동작(740) 내에서, 일 실시예에 따른, 전자 장치(101)는, 식별된 제2 상태의 가상 객체를 표현한 제2 시각적 객체를, 제1 시각적 객체와 함께 표시할 수 있다. 상기 제2 상태의 가상 객체가, 동작(720)의 제1 시각적 객체에 대응하는 가상 객체의 상기 제1 상태와 다른 경우, 전자 장치(101)는 동작(740)을 수행하여, 상기 제1 시각적 객체 및 상기 제2 시각적 객체를 함께 표시할 수 있다. 동작(740)의 제2 시각적 객체는 도 1의 시각적 객체(170), 도 3의 시각적 객체들(345, 355, 365), 도 4a의 시각적 객체(442), 도 4b 및 도 4c의 시각적 객체(462), 도 5a의 시각적 객체(522), 도 5b의 제1 상태(540-1)의 시각적 객체(540) 및 도 6의 시각적 객체(522)를 포함할 수 있다.
도 7을 참고하면, 동작(750) 내에서, 일 실시예에 따른, 전자 장치(101)는, 제1 시각적 객체를 열람함(browsing)을 나타내는 입력을 식별할 수 있다. 전자 장치(101)는 도 6을 참고하여 상술한 바와 같이, 전자 장치(101)의 사용자(예, 도 6의 사용자(110))의 신체 부위(예, 사용자의 머리, 눈, 및/또는 손)의 방향 및/또는 상기 사용자의 발언(예, 도 6의 발언(650))에 기반하여, 상기 입력을 식별할 수 있다. 제1 시각적 객체를 열람함을 나타내는 상기 입력을 식별하는 것에 기반하여, 전자 장치(101)는 상기 제1 상태의 가상 객체가, 전자 장치(101)의 사용자에 의해 열람되었음을 지시하는 정보를 저장할 수 있다. 도 7을 참고하면, 상기 입력을 식별하는 것에 기반하여, 전자 장치(101)는 외부 전자 장치(120)로 상기 입력과 관련된 정보를 송신할 수 있다.
도 7을 참고하면, 동작(760) 내에서, 일 실시예에 따른, 외부 전자 장치(120)는, 전자 장치에 의해 식별된 입력에 기반하여, 제1 상태의 가상 객체가 전자 장치의 사용자에 의해 열람되었음을 지시하는 정보를 저장할 수 있다. 외부 전자 장치(120)는 전자 장치(101)로부터 동작(750)의 입력과 관련된 정보를 식별하는 것에 기반하여, 동작(760)을 수행할 수 있다. 동작(760)에 기반하여, 외부 전자 장치(120)는 동작(720)의 제1 시각적 객체 및/또는 제1 시각적 객체를 표시하기 위한 상기 가상 객체의 상기 제1 상태를 지시하는 정보를 저장할 수 있다. 외부 전자 장치(120)는 상기 가상 객체의 상기 제1 상태를 지시하는 정보를, 전자 장치(101)의 사용자에 의해 마지막으로 열람된 상기 가상 객체의 상태로써 저장할 수 있다. 예를 들어, 동작(760) 이후에, 상기 가상 객체의 상태가 변경된 경우, 외부 전자 장치(120)는 전자 장치(101)로, 상기 제1 상태의 가상 객체에 대한 데이터와 함께, 상기 변경된 상태의 가상 객체에 대한 데이터를 송신할 수 있다.
도 8은, 일 실시예에 따른, 전자 장치에 대한 흐름도의 일 예를 도시한다. 도 8의 전자 장치는, 도 1, 도 2, 도 3, 도 4a, 도 4b, 도 4c, 도 5a, 도 5b, 도 6 및 도 7의 전자 장치(101)를 포함할 수 있다. 도 8의 전자 장치의 동작들은, 도 2의 전자 장치(101) 및/또는 도 2의 전자 장치(101) 내 프로세서(210)에 의해 수행될 수 있다. 도 8의 전자 장치의 동작들 중 적어도 하나는, 도 7의 전자 장치(101)의 동작들 중 적어도 하나와 관련될 수 있다.
도 8을 참고하면, 동작(810) 내에서, 일 실시예에 따른, 전자 장치는, 제1 상태의 가상 객체를 표현하는 제1 시각적 객체를 표시할 수 있다. 전자 장치는 도 7의 동작(720)과 유사하게, 도 8의 동작(810)을 수행할 수 있다. 전자 장치와 상이한 외부 전자 장치(예, 도 1 내지 도 7의 외부 전자 장치(120))로부터 제1 상태의 가상 객체와 관련된 정보를 수신하는 것에 기반하여, 전자 장치는 상기 제1 상태의 상기 가상 객체를 표현하는 상기 제1 시각적 객체를 표시할 수 있다.
도 8을 참고하면, 동작(820) 내에서, 일 실시예에 따른, 전자 장치는, 제1 상태의 가상 객체가 열람된 횟수와 관련된 정보를 식별할 수 있다. 동작(810)에 기반하여 제1 상태의 가상 객체를 표현하는 제1 시각적 객체를 표시한 상태 내에서, 전자 장치는 동작(820)의 정보를 식별할 수 있다. 상기 정보는, 동작(810)의 전자 장치 및/또는 동작(810)의 상기 외부 전자 장치 내에 저장될 수 있다. 상기 정보는, 전자 장치의 사용자에 의해 마지막으로 열람되었던 상기 가상 객체의 상태를 포함할 수 있다. 상기 정보는, 전자 장치가 상기 가상 객체를 표시한 히스토리를 포함할 수 있다.
도 8을 참고하면, 동작(830) 내에서, 일 실시예에 따른, 전자 장치는, 제1 상태의 가상 객체가 열람된 횟수가 지정된 횟수 미만인지 여부를 판단할 수 있다. 지정된 횟수는 숫자 1과 같이, 상기 제1 상태의 가상 객체가 전자 장치의 사용자에 의해 처음 열람되었는지를 지시하는 숫자를 포함할 수 있다.
도 8을 참고하면, 제1 상태의 가상 객체가 열람된 횟수가 지정된 횟수 미만인 경우(830-예), 동작(840)에 기반하여, 일 실시예에 따른, 전자 장치는, 제1 상태 이전의 가상 객체를 표현하는 제2 시각적 객체를, 제1 시각적 객체와 함께 표시할 수 있다. 전자 장치는 도 7의 동작(740)과 유사하게, 도 8의 동작(840)을 수행할 수 있다. 제1 상태의 가상 객체가 열람된 횟수가 지정된 횟수를 초과하는 경우(830-아니오), 전자 장치는 동작(840)의 제2 시각적 객체를 표시하는 것을 우회(bypass)할 수 있다. 예를 들어, 제1 상태의 가상 객체가 열람된 횟수가 지정된 횟수를 초과하는 경우(830-아니오), 전자 장치는 상기 제2 시각적 객체를 표시하는 것을 삼갈 수 있다.
도 8을 참고하면, 동작(850) 내에서, 일 실시예에 따른, 전자 장치는, 제1 시각적 객체를 열람함을 나타내는 입력을 식별하였는지 여부를 판단할 수 있다. 상기 입력은, 도 6을 참고하여 상술한 바에 기반하여, 전자 장치에 포함된 센서(예, 도 2의 센서(250))에 의해 식별될 수 있다. 전자 장치는 도 7의 동작(750)과 유사하게 도 8의 동작(850)을 수행할 수 있다. 제1 시각적 객체를 열람함을 나타내는 입력을 식별하기 이전에(850-아니오), 전자 장치는 제1 시각적 객체를 표시하는 것을 유지할 수 있다. 전자 장치가 동작(840)의 제2 시각적 객체를 표시한 경우, 제1 시각적 객체를 열람함을 나타내는 입력을 식별하기 이전에(850-아니오), 전자 장치는 상기 제1 시각적 객체와 함께 상기 제2 시각적 객체를 표시하는 것을 유지할 수 있다.
도 8을 참고하면, 제1 시각적 객체를 열람함을 나타내는 입력을 식별한 상태 내에서(850-예), 동작(860)에 기반하여, 전자 장치는, 제1 시각적 객체가 열람되었음을 지시하는 정보를 저장할 수 있다. 전자 장치는 도 7의 동작(750)과 유사하게, 도 8의 동작들(850, 860)을 수행할 수 있다. 예를 들어, 상기 정보는, 동작(810)의 상기 제1 상태의 상기 가상 객체를 시각화하기 위한 데이터를 포함할 수 있다. 상기 정보는, 전자 장치 내에 저장되거나, 또는 상기 제1 상태의 상기 가상 객체를 제공한 외부 전자 장치 내에 저장될 수 있다. 동작(860)에 의해 저장된 상기 정보는, 동작(860) 이후 가상 객체의 상태가 상기 제1 상태와 상이한 다른 상태로 변경된 경우, 전자 장치의 사용자에게 상기 다른 상태의 상기 가상 객체와 함께 상기 제1 상태의 가상 객체를 표현하기 위해 이용될 수 있다.
도 9는, 일 실시예에 따른, 전자 장치에 대한 흐름도의 일 예를 도시한다. 도 9의 전자 장치는 도 1, 도 2, 도 3, 도 4a, 도 4b, 도 4c, 도 5a, 도 5b, 도 6 및 도 7의 전자 장치(101)를 포함할 수 있다. 도 9의 전자 장치(101)의 동작들은, 도 2의 전자 장치(101) 및/또는 도 2의 전자 장치(101) 내 프로세서(210)에 의해 수행될 수 있다. 도 9의 동작들 중 적어도 하나는 도 7의 전자 장치(101)의 동작들, 및/또는 도 8의 동작들 중 적어도 하나와 관련될 수 있다.
도 9를 참고하면, 동작(910) 내에서, 일 실시예에 따른, 전자 장치는, 가상 객체를 표현하는 제1 시각적 객체를 표시할 수 있다. 전자 장치는 도 7의 동작(720) 및/또는 도 8의 동작(810)과 유사하게 도 9의 동작(910)을 수행할 수 있다.
도 9를 참고하면, 동작(920) 내에서, 일 실시예에 따른, 전자 장치는, 외부 전자 장치(예, 도 1 내지 도 7의 외부 전자 장치(120))로부터, 전자 장치의 사용자(예, 도 1 내지 도 6의 사용자(110))에 의해 열람되었던 가상 객체의 상태를 지시하는 정보를 획득할 수 있다. 예를 들어, 전자 장치는 외부 전자 장치로, 도 7의 동작(735)의 정보를 송신할 것을 요청할 수 있다. 예를 들어, 전자 장치는 동작(910)의 제1 시각적 객체를 표시하기 위하여 상기 외부 전자 장치로부터 송신된 신호 내에서, 상기 정보를 식별할 수 있다. 전자 장치는, 동작(920)에 기반하여, 전자 장치의 사용자에게 상기 가상 객체를 표시한 히스토리를 포함하는 상기 정보를 획득할 수 있다.
도 9를 참고하면, 동작(930) 내에서, 일 실시예에 따른, 전자 장치는, 동작(920)의 정보에 의해 지시되는 가상 객체의 상태가, 제1 시각적 객체를 표시하기 위한 가상 객체의 제1 상태와 상이한지 여부를 식별할 수 있다. 예를 들어, 전자 장치는, 전자 장치의 사용자에 의해 표시되었던 가상 객체의 상태가, 상기 제1 상태와 상이한지 여부를 식별할 수 있다. 예를 들어, 동작(910)에 기반하여 제1 시각적 객체가 표시된 제1 시점, 및 동작(910) 이전에 상기 가상 객체가 표시된 제2 시점 사이에서, 상기 가상 객체가 변경된 경우, 전자 장치는 동작(910)의 상기 가상 객체의 상기 제1 상태가, 상기 제2 시점 내 가상 객체의 상태와 상이함을 식별할 수 있다.
제1 시각적 객체를 표시하기 위한 가상 객체의 제1 상태 및 동작(920)의 정보에 의해 지시되는 상기 가상 객체의 제2 상태가 상이한 경우(930-예), 동작(940)에 기반하여, 전자 장치는 동작(930)의 상기 정보에 의해 지시되는 제2 상태의 가상 객체를 표현하는 제2 시각적 객체를, 제1 시각적 객체와 함께 표시할 수 있다. 전자 장치는 도 7의 동작(740) 및/또는 도 8의 동작(840)과 유사하게, 도 9의 동작(940)을 수행할 수 있다. 상기 제1 상태 및 상기 제2 상태가 일치하는 경우(930-예), 전자 장치는 동작(940)을 수행하는 것을 우회할 수 있다. 동작(940)을 수행하는 것이 우회되는 상태 내에서, 전자 장치는 동작(940)의 제2 시각적 객체를 표시하는 것을 삼갈 수 있다.
도 9를 참고하면, 동작(950) 내에서, 일 실시예에 따른, 전자 장치는, 제1 시각적 객체를 열람함을 나타내는 입력을 식별하였는지 여부를 식별할 수 있다. 전자 장치는 도 7의 동작(750) 및/또는 도 8의 동작(850)과 유사하게 도 9의 동작(950)을 수행할 수 있다. 동작(950)의 입력을 식별하기 이전에, 전자 장치는 제1 시각적 객체를 표시하는 것을 유지할 수 있다.
제1 시각적 객체를 열람함을 나타내는 입력을 식별한 상태 내에서(950-예), 동작(960)에 기반하여, 일 실시예에 따른, 전자 장치는, 제1 시각적 객체가 열람되었음을 지시하는 정보를 저장할 수 있다. 전자 장치는 도 8의 동작(860)과 유사하게 도 9의 동작(960)을 수행할 수 있다.
메타버스는 '가상', '초월' 등을 뜻하는 영어 단어 '메타'(Meta)와 우주를 뜻하는 '유니버스'(Universe)의 합성어로, 현실세계와 같은 사회·경제·문화 활동이 이뤄지는 3차원의 가상세계를 가리킨다. 메타버스는 가상현실(VR, 컴퓨터로 만들어 놓은 가상의 세계에서 사람이 실제와 같은 체험을 할 수 있도록 하는 최첨단 기술)보다 한 단계 더 진화한 개념으로, 아바타를 활용해 단지 게임이나 가상현실을 즐기는 데 그치지 않고 실제 현실과 같은 사회·문화적 활동을 할 수 있다는 특징이 있다.
이와 같은 메타버스 서비스는 적어도 2가지 형태로 제공될 수 있다. 첫번째는 서버를 이용하여 사용자에게 서비스가 제공되는 것이고, 두번째는 사용자 간의 개별 접촉을 통해 서비스가 제공되는 것이다.
도 10은 서버(1010)를 통해 메타버스 서비스를 제공받는 제 1 실시예 환경(1001)에 대한 예시도이다.
도 10을 보면, 제 1 실시예 환경(1001)은, 메타버스 서비스를 제공하는 서버(1010), 서버(1010)와 각각의 사용자 단말(예, 제1 단말(1020-1), 및 제2 단말(1020-2)을 포함하는 사용자 단말(1020))을 연결하는 네트워크(예, AP(access point), 및/또는 기지국을 포함하는 적어도 하나의 중간 노드(1030)에 의해 형성된 네트워크), 네트워크를 통해 서버로 접속하여 서비스를 이용하게 하는 사용자 단말로 구성된다. 서버(1010)는 사용자에게 메타버스 서비스에 입출력을 제공한다.
이 때, 서버(1010)는 가상 공간을 제공하여 사용자 단말(1020)이 가상 공간에서 활동을 할 수 있도록 한다. 또한, 사용자 단말(1020)은 서버(1010)가 제공하는 가상 공간에 접속하기 위한 S/W 에이전트를 설치하여 서버(1010)가 사용자에게 제공하는 정보를 표현하거나, 사용자가 가상 공간에서 표현하고자 하는 정보를 서버로 전송한다.
상기 S/W 에이전트는 서버(1010)를 통해서 직접 제공받거나, 공용 서버로부터 다운로드받거나, 단말 구매시에 임베딩(embedded)되어 제공될 수 있다.
도 11은 사용자 단말들(예, 제1 단말(1020-1) 및 제2 단말(1020-2))의 직접 연결을 통해 메타버스 서비스를 제공받는 제 2 실시예 환경(1002)에 대한 예시도이다.
도 11을 보면, 제 2 실시예 환경(1002)은, 메타버스 서비스를 제공하는 제 1 단말(1020-1), 각각의 사용자 단말을 연결하는 네트워크(예, 적어도 하나의 중간 노드(1030)에 의해 형성된 네트워크), 네트워크를 통해 제 1 단말(1020-1)과 접속하여 제 2 사용자에게 메타버스 서비스에 입출력을 함으로써 서비스를 이용하게 하는 제 2 단말(1020-2)로 구성된다.
제 2 실시예는 제 1 실시예에서 서버(예, 도 10의 서버(1010))의 역할을 제 1 단말(1020-1)이 수행함으로써 메타버스 서비스를 제공하는 것을 특징으로 한다. 즉, 디바이스와 디바이스의 연결만으로 메타버스 환경을 구성할 수 있음을 알 수 있다.
제 1 실시예와 제 2 실시예에서, 사용자 단말(1020)(혹은 제 1 단말(1020-1), 제 2 단말(1020-2)을 포함하는 사용자 단말(1020))은 다양한 폼팩터로 만들어질 수 있으며, 사용자에게 영상 또는/및 소리를 제공하는 출력 장치와 메타버스 서비스에 정보를 입력하기 위한 입력 장치를 포함하는 것을 특징으로 한다. 사용자 단말(1020)의 다양한 폼팩터를 예시하면, 스마트폰(예, 제2 단말(1020-2)), AR 기기(예, 제1 단말(1020-1)), VR 기기, MR 기기, VST 기기, 입출력 가능한 TV 또는 프로젝터 등을 포함할 수 있다. 도시의 목적을 위해 제1 실시예 및 제2 실시예가 설명되었지만, 환경(1001) 및 환경(1002)은 서로 배타적임을 의미하는 것으로 이해되서는 안 된다. 하나 이상의 실시예들에서, 사용자 단말은 예시적인 환경(1001) 및 환경(1002) 내 동작 사이에서 경계 없이(seamlessly) 전환할 수 있다. 하나 이상의 실시예들에서, 사용자 단말은 예시적인 환경들(1001, 1002) 내에서 동작할 수 있다.
본 발명의 하나 이상의 실시예들의 네트워크(예, 적어도 하나의 중간 노드(1030)에 의해 형성된 네트워크)는 3G, 4G, 5G를 포함하는 다양한 광대역 네트워크와 Wifi, BT 등을 포함하는 근거리 네트워크(예, 제1 단말(1020-1), 및 제2 단말(1020-2)을 직접적으로 연결하는 유선 네트워크 또는 무선 네트워크)를 다 포함한다.
도 10 내지 도 11의 사용자 단말(1020)은, 도 1 내지 도 7의 전자 장치(101) 및/또는 도 8 및 도 9의 전자 장치의 일 예일 수 있다. 도 10의 서버(1010)는 도 1 내지 도 7의 외부 전자 장치(120) 및/또는 도 8 및 도 9의 외부 전자 장치의 일 예일 수 있다.
상술한 바와 같이, 일 실시예에 따른, 전자 장치는, 외부 전자 장치에 의해 제공된 가상 공간의 적어도 일부분을 시각화한 상태 내에서, 상기 가상 공간을 통해 전자 장치의 사용자와 연결된 다른 사용자를 표현하는 시각적 객체를 표시할 수 있다. 제1 상태의 상기 시각적 객체가 표시된 상태 내에서, 전자 장치는 상기 제1 상태와 상이한 제2 상태의 시각적 객체를, 상기 다른 사용자를 표현하는 시각적 객체로써 표시하였던 히스토리를 식별할 수 있다. 상기 히스토리를 식별하는 것에 기반하여, 전자 장치는 상기 제1 상태의 상기 시각적 객체와 함께, 상기 제2 상태의 다른 시각적 객체를 표시할 수 있다.
전자 장치의 사용자에게, 상기 사용자와 구분되는 다른 사용자를 표현한, 시각적 객체가 변경된 히스토리를 표시하는 방안이 요구될 수 있다. 상술한 바와 같은, 일 실시예에 따른, 전자 장치(예, 도 1 내지 도 7의 전자 장치(101))는, 디스플레이(예, 도 2의 디스플레이(240)), 통신 회로(예, 도 2의 통신 회로(230)), 및 프로세서(예, 도 2의 프로세서(210))를 포함할 수 있다. 상기 프로세서는, 상기 통신 회로를 통해 연결된 외부 전자 장치(예, 도 1 내지 도 7의 외부 전자 장치(120))로부터 수신된 정보에 기반하여, 상기 디스플레이 내에, 사용자를 표현하는(representing) 제1 시각적 객체(예, 도 3의 시각적 객체들(330, 340, 350, 360), 도 4a의 시각적 객체(442), 도 4b 및 도 4c의 시각적 객체(462), 도 5a의 시각적 객체(524) 및/또는 도 6의 시각적 객체(340))를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 정보에 기반하여, 상기 제1 시각적 객체가 상기 디스플레이를 통해 표시된 횟수를 식별하도록, 구성될 수 있다. 상기 프로세서는, 지정된 횟수 미만의 횟수를 식별하는 것에 기반하여, 상기 디스플레이 내에서 상기 제1 시각적 객체와 함께, 상기 제1 시각적 객체 이전에 상기 사용자를 표현하는 제2 시각적 객체(예, 도 3의 시각적 객체들(345, 355, 365))를 표시하도록, 구성될 수 있다. 일 실시예에 따른, 전자 장치는, 사용자를 표현하는 제1 시각적 객체와 함께, 제1 시각적 객체 이전에 상기 사용자의 표현으로써 표시되었던 제2 시각적 객체를 함께 표시할 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 시각적 객체가 포함된 가상 공간(예, 도 1의 가상 공간(140)) 내에서, 상기 제1 시각적 객체에 대응하는 상기 사용자 및 상기 전자 장치의 사용자의 상호작용 히스토리를 포함하는 상기 정보를 획득하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 정보로부터, 상기 디스플레이를 통해 상기 제1 시각적 객체가 상기 전자 장치의 사용자에 의해 열람된 상기 횟수를 식별하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 시각적 객체를 열람함을 나타내는 입력에 기반하여, 상기 제1 시각적 객체와 관련된 다른 정보를, 상기 입력을 식별한 시점과 함께 저장하도록, 구성될 수 있다.
예를 들어, 상기 전자 장치는 센서(예, 도 2의 센서(250))를 더 포함할 수 있다. 상기 프로세서는, 상기 센서의 데이터에 의해 식별된, 전자 장치의 사용자의 시선의 방향에 기반하여, 상기 입력을 식별하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 외부 전자 장치로부터 수신된 비디오에 기반하여, 상기 제1 시각적 객체(예, 도 3의 시각적 객체(350))를 표시하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 외부 전자 장치로부터 상기 사용자를 표현하는 아바타를 포함하는 정보를 수신하는 것에 기반하여, 상기 아바타의 적어도 일부분에 대응하는 상기 제1 시각적 객체(예, 도 3의 시각적 객체들(330, 340, 360))를 표시하도록, 구성될 수 있다.
예를 들어, 상기 전자 장치는 메모리(예, 도 2의 전자 장치(101) 내 메모리(220))를 더 포함할 수 있다. 상기 프로세서는, 상기 메모리에 저장된 연락처 리스트(contact list) 내에서 상기 제1 시각적 객체에 대응하는 사용자를 지시하는 데이터를 식별하는 것에 기반하여, 상기 제2 시각적 객체의 적어도 일부분을 표시하는 것을 삼가고(refrain from), 상기 제1 시각적 객체와 함께, 상기 데이터의 적어도 일부분을 표시하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 시각적 객체와 함께 상기 제2 시각적 객체를 표시하는 상태 내에서, 상기 제2 시각적 객체로부터 상기 제1 시각적 객체로 변형되는(transforming) 애니메이션을 표시하도록, 구성될 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 제1 사용자에게, 가상 공간 내에 포함되고, 제2 사용자를 표현하는 제1 시각적 객체를 표시하는 동작(예, 도 9의 동작(910))을 포함할 수 있다. 상기 방법은, 외부 전자 장치로부터, 상기 제1 사용자에 의해 열람되었던(has been browsed) 일(a) 시각적 객체를 지시하는 정보를 획득하는 동작(예, 도 9의 동작(920))을 포함할 수 있다. 상기 방법은, 상기 정보로부터, 상기 제1 시각적 객체와 상이한 제2 시각적 객체를 식별하는 것에 기반하여, 상기 제1 사용자에게 표시되는 상기 제1 시각적 객체와 함께, 상기 제2 시각적 객체를 표시하는 동작(예, 도 9의 동작(940))을 포함할 수 있다.
예를 들어, 상기 제2 시각적 객체를 표시하는 동작은, 상기 정보에 의하여 획득된, 상기 제2 사용자의 아바타와 결합된 하나 이상의 가상 객체들의 상태들에 기반하여, 상기 정보에 의해 지시되는 시각적 객체가, 상기 제1 시각적 객체와 상이한지 여부를 식별하는 동작(예, 도 9의 동작(930))을 포함할 수 있다.
예를 들어, 상기 제2 시각적 객체를 표시하는 동작은, 상기 제1 시각적 객체를 열람함을 지시하는 입력에 응답하여, 상기 외부 전자 장치로, 상기 외부 전자 장치 내에 저장된 상기 정보를, 상기 제1 시각적 객체에 기반하여 변경하기 위한 신호를 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 제2 시각적 객체를 표시하는 동작은, 상기 전자 장치의 센서의 데이터에 기반하여, 상기 전자 장치의 디스플레이 내에서 상기 제1 사용자의 시선의 방향을 식별하는 동작을 포함할 수 있다. 상기 제2 시각적 객체를 표시하는 동작은, 상기 식별된 방향에 기반하여, 상기 입력을 식별하는 동작을 포함할 수 있다.
예를 들어, 상기 입력을 식별하는 동작은, 상기 식별된 방향에 기반하여, 상기 제1 시각적 객체가 열람된 기간(duration), 또는 횟수 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 입력을 식별하는 동작은, 상기 기간, 또는 상기 횟수 중 적어도 하나에 기반하여, 상기 입력을 식별하는 동작을 포함할 수 있다.
예를 들어, 상기 제2 시각적 객체를 표시하는 동작은, 상기 제2 시각적 객체, 및 상기 제1 시각적 객체 사이의 중간 형태(intermediate form)를 표시하는 동작을 포함할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 상기 전자 장치의 통신 회로를 통해 연결된 외부 전자 장치로부터 수신된 정보에 기반하여, 상기 전자 장치의 디스플레이 내에, 사용자를 표현하는 제1 시각적 객체를 표시하는 동작(예, 도 8의 동작(810))을 포함할 수 있다. 상기 방법은, 상기 정보에 기반하여, 상기 제1 시각적 객체가 상기 디스플레이를 통해 표시된 횟수를 식별하는 동작(예, 도 8의 동작(820))을 포함할 수 있다. 상기 방법은, 지정된 횟수 미만의 횟수를 식별하는 것에 기반하여, 상기 디스플레이 내에서 상기 제1 시각적 객체와 함께, 상기 제1 시각적 객체 이전에 상기 사용자를 표현하는 제2 시각적 객체를 표시하는 동작(예, 도 8의 동작(840))을 포함할 수 있다.
예를 들어, 상기 식별하는 동작은, 상기 제1 시각적 객체가 포함된 가상 공간 내에서, 상기 제1 시각적 객체에 대응하는 상기 사용자 및 상기 전자 장치의 사용자의 상호작용 히스토리를 포함하는 상기 정보를 획득하는 동작을 포함할 수 있다.
예를 들어, 상기 식별하는 동작은, 상기 정보로부터, 상기 디스플레이를 통해 상기 제1 시각적 객체가 상기 전자 장치의 사용자에 의해 열람된 횟수를 식별하는 동작을 포함할 수 있다.
예를 들어, 상기 식별하는 동작은, 상기 제1 시각적 객체를 열람함을 나타내는 입력에 기반하여, 상기 제1 시각적 객체와 관련된 다른 정보를, 상기 입력을 식별한 시점과 함께 저장하는 동작을 포함할 수 있다.
예를 들어, 상기 제1 시각적 객체를 표시하는 동작은, 상기 외부 전자 장치로부터 수신된 비디오에 기반하여, 상기 제1 시각적 객체를 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 방법은, 상기 전자 장치의 메모리 내에 저장된 연락처 리스트 내에서 상기 제1 시각적 객체에 대응하는 사용자를 지시하는 데이터를 식별하는 것에 기반하여, 상기 제2 시각적 객체의 적어도 일부분을 표시하는 것을 삼가고(refrain from), 상기 제1 시각적 객체와 함께, 상기 데이터의 적어도 일부분을 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 제2 시각적 객체를 표시하는 동작은, 상기 제2 시각적 객체로부터 상기 제1 시각적 객체로 변형되는 애니메이션을 표시하는 동작을 포함할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치(electronic device)(예, 도 1 내지 도 7의 전자 장치(101))는, 디스플레이(예, 도 2의 디스플레이(240)), 통신 회로(예, 도 2의 통신 회로(230)) 및 프로세서(예, 도 2의 프로세서(210))를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이를 통하여 상기 전자 장치의 제1 사용자(예, 도 1의 제1 사용자(110-1))에게, 가상 공간(예, 도 1의 가상 공간(140)) 내에 포함되고, 제2 사용자(예, 도 1의 제2 사용자(110-2))를 표현하는 제1 시각적 객체(예, 도 1의 제2 시각적 객체(160-2), 도 3의 시각적 객체들(330, 340, 350, 360), 도 4a의 시각적 객체(442), 도 4b 및 도 4c의 시각적 객체(462), 도 5a의 시각적 객체(524) 및/또는 도 6의 시각적 객체(340))를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 통신 회로를 통하여 외부 전자 장치(예, 도 1 내지 도 7의 외부 전자 장치(120))로부터, 상기 제1 사용자에 의해 열람되었던(has been browsed) 일(a) 시각적 객체를 지시하는 정보를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 정보로부터, 상기 제1 시각적 객체와 상이한 제2 시각적 객체(예, 도 1의 시각적 객체(172) 및/또는 도 3의 시각적 객체들(345, 355, 365))를 식별하는 것에 기반하여, 상기 제1 사용자에게 표시되는 상기 제1 시각적 객체와 함께, 상기 제2 시각적 객체를 표시하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 정보에 의하여 획득된, 상기 제2 사용자의 아바타와 결합된 하나 이상의 가상 객체들의 상태들에 기반하여, 상기 정보에 의해 지시되는 시각적 객체가, 상기 제1 시각적 객체와 상이한지 여부를 식별하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제1 시각적 객체를 열람함을 지시하는 입력에 응답하여, 상기 외부 전자 장치로, 상기 외부 전자 장치 내에 저장된 상기 정보를, 상기 제1 시각적 객체에 기반하여 변경하기 위한 신호를 송신하도록, 구성될 수 있다.
예를 들어, 상기 전자 장치는, 센서(예, 도 2의 센서(250))를 더 포함할 수 있다. 상기 프로세서는, 상기 센서의 데이터에 기반하여, 상기 디스플레이 내에서 상기 제1 사용자의 시선의 방향을 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 식별된 방향에 기반하여, 상기 입력을 식별하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 식별된 방향에 기반하여, 상기 제1 시각적 객체가 열람된 기간, 또는 횟수 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 기간, 또는 상기 횟수 중 적어도 하나에 기반하여, 상기 입력을 식별하도록, 구성될 수 있다.
예를 들어, 상기 프로세서는, 상기 제2 시각적 객체, 및 상기 제1 시각적 객체 사이의 중간 형태를 표시하도록, 구성될 수 있다.
상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치는, 디스플레이, 프로세서, 및 인스트럭션들을 저장하기 위한 메모리를 포함할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 디스플레이 상에 상기 가상 공간을 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가, 제1 모습(appearance)을 가지고, 사용자의 현재 표현(current representation)인 제1 아바타를, 상기 가상 공간 내에 표시하도록, 야기할 수 있다. 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하도록, 야기할 수 있다.
일 실시예에 따른, 웨어러블 장치는, 디스플레이, 인스트럭션들을 저장하기 위한 메모리 및 상기 인스트럭션들을 실행하기 위한 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 가상 공간으로 진입함을 나타내는 입력에 기반하여, 상기 가상 공간 내에 위치된 아바타와 관련된 외부 전자 장치로부터 정보를 수신하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 정보를 수신하는 것에 기반하여, 제1 모습(appearance)의 제1 아바타를 포함하는 상기 가상 공간의 적어도 일부분을 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 입력을 식별하기 이전에 상기 웨어러블 장치에 의해 표시되었던 제2 모습의 상기 아바타를 더(further) 포함하는 상기 정보에 기반하여, 상기 아바타와 함께, 상기 제2 모습의 상기 아바타를 표현하는 시각적 객체를 표시하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 아바타가 상기 제2 모습으로부터 상기 제1 모습으로 변경된 타이밍과 관련된 텍스트를 포함하는 상기 시각적 객체를 표시하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 의류를 표현하는 적어도 하나의 시각적 객체가 결합된 형태를 가지는 상기 아바타를 표시하는 동안, 상기 아바타와 결합된 상기 의류가 변경된 이력을 시각화하기 위하여 상기 시각적 객체를 표시하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 시각적 객체 또는 상기 아바타를 향하는 사용자의 시선의 방향을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 아바타의 식별자와 관련된 오디오 신호를 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 입력을 수신하기 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 제2 모습의 상기 아바타를 더 포함하는 상기 정보에 기반하여, 상기 아바타와 연동으로 위치된 인디케이터를 상기 아바타와 함께 표시하도록, 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 인디케이터에 대한 다른 입력에 기반하여, 상기 시각적 객체를 표시하고 상기 인디케이터를 표시하는 것을 중단하도록, 구성될 수 있다.
예를 들어, 상기 적어도 하나의 프로세서는, 상기 아바타의 식별자를 표시하는 동안 상기 시각적 객체를 표시하는 것을 중단하도록, 구성될 수 있다.
상술한 바와 같은, 일 실시예에 따른, 비-일시적 컴퓨터 판독 가능 저장 매체는 인스트럭션들을 저장하도록, 구성될 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 가상 웨어러블 장치의 디스플레이 상에 상기 가상 공간을 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 제1 모습(appearance)을 가지고, 사용자의 현재 표현인 제1 아바타를, 상기 가상 공간 내에 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
일 실시예에 따른, 비-일시적 컴퓨터 판독 가능 저장 매체는 인스트럭션들을 저장하도록, 구성될 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 가상 공간으로 진입함을 나타내는 입력에 기반하여, 상기 가상 공간 내에 위치된 아바타와 관련된 외부 전자 장치로부터 정보를 수신하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 시에, 상기 정보를 수신하는 것에 기반하여, 제1 모습(appearance)의 제1 아바타를 포함하는 상기 가상 공간의 적어도 일부분을 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다. 상기 인스트럭션들은, 상기 적어도 하나의 프로세서에 의해 실행될 시에, 상기 입력을 식별하기 이전에 상기 웨어러블 장치에 의해 표시되었던 제2 모습의 상기 아바타를 더 포함하는 상기 정보에 기반하여, 상기 아바타와 함께, 상기 제2 모습의 상기 아바타를 표현하는 시각적 객체를 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
예를 들어, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 아바타가 상기 제2 모습으로부터 상기 제1 모습으로 변경된 타이밍과 관련된 텍스트를 포함하는 상기 시각적 객체를 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
예를 들어, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 의류를 표현하는 적어도 하나의 시각적 객체가 결합된 형태를 가지는 상기 아바타를 표시하는 동안, 상기 아바타와 결합된 상기 의류가 변경된 이력을 시각화하기 위하여 상기 시각적 객체를 표시하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
예를 들어, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 시각적 객체 또는 상기 아바타를 향하는 사용자의 시선의 방향을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
예를 들어, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 아바타의 식별자와 관련된 오디오 신호를 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
예를 들어, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 입력을 수신하기 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 제2 모습의 상기 아바타를 더 포함하는 상기 정보에 기반하여, 상기 아바타와 연동으로 위치된 인디케이터를 상기 아바타와 함께 표시하도록, 구성될 수 있다. 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 인디케이터에 대한 다른 입력에 기반하여, 상기 시각적 객체를 표시하고 상기 인디케이터를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
일 실시예에서, 디스플레이, 메모리 및 프로세서를 포함하는 전자 장치의 방법이 제공된다. 상기 방법은, 가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 디스플레이 상에 상기 가상 공간을 표시하는 동작을 포함할 수 있다. 상기 방법은, 제1 모습(appearance)을 가지고, 사용자의 현재 표현(current representation)인 제1 아바타를, 상기 가상 공간 내에 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하는 동작을 포함할 수 있다.
예를 들어, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에, 상기 아바타의 식별자를 표시하는 동안 상기 시각적 객체를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기할 수 있다.
상술한 바와 같은, 일 실시예에 따른, 전자 장치의 방법은, 가상 공간으로 진입하기 위한 웨어러블 장치의 요청에 기반하여, 상기 가상 공간 내에서 아바타의 정보를 식별하는 동작을 포함할 수 있다. 상기 방법은, 제1 모습의 상기 제1 아바타의 상기 정보를 식별하는 것에 기반하여, 상기 요청 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 아바타의 제2 모습이 상기 아바타의 상기 제1 모습과 다름을 식별하는 것에 기반하여, 상기 제1 모습의 상기 아바타를 포함하고, 상기 제1 모습으로부터 상기 제2 모습으로 상기 아바타의 변경 이력을 포함하는 상기 정보를 상기 웨어러블 장치로 송신하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 모습의 상기 제1 아바타의 상기 정보를 식별하는 것에 기반하여, 상기 아바타의 상기 제1 모습이 상기 제2 모습과 동일함을 식별하는 것에 기반하여, 상기 이력 없이 상기 제1 모습의 상기 아바타를 포함하는 상기 정보를 상기 웨어러블 장치로 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 이력과 함께 상기 정보를 송신하는 동작은, 상기 아바타가 상기 제2 모습으로부터 상기 제1 모습으로 변경된 타이밍과 관련된 텍스트를 포함하는 상기 정보를 송신하는 동작을 포함할 수 있다.
예를 들어, 상기 식별하는 동작은, 의류를 표현하는 적어도 하나의 시각적 객체가 결합된 형태를 가지는 상기 아바타의 상기 정보를 식별하는 동작을 포함할 수 있다. 상기 정보는 상기 적어도 하나의 가상 객체가 상기 아바타와 결합된 타이밍을 포함할 수 있다.
예를 들어, 상기 식별하는 동작은, 상기 웨어러블 장치에 의해 표시되는 상기 아바타의 최신 타이밍과 상기 타이밍을 비교하여, 상기 히스토리를 포함하는 상기 정보를 송신할지 여부를 결정하는 동작을 포함할 수 있다.
예를 들어, 상기 식별하는 동작은, 상기 요청에 기반하여, 상기 웨어러블 장치에 로그인된 사용자를 표현하는 다른 아바타와 상이한 상기 아바타의 상기 정보를 식별하는 동작을 포함할 수 있다.
예를 들어, 상기 방법은, 상기 웨어러블 장치로부터 상기 아바타 또는 상기 시각적 객체를 열람하기 위한 입력이 수신됨을 나타내는 신호에 응답하여, 상기 제1 모습의 상기 아바타가 웨어러블 장치의 사용자에 의해 열람되었음을 나타내는 정보를 저장하는 동작을 더 포함할 수 있다.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다.

Claims (20)

  1. 웨어러블 장치에 있어서,
    디스플레이;
    프로세서; 및
    인스트럭션들을 저장하기 위한 메모리를 포함하고, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가,
    가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 디스플레이 상에 상기 가상 공간을 표시하고;
    제1 모습(appearance)을 가지고, 사용자의 현재 표현(current representation)인 제1 아바타를, 상기 가상 공간 내에 표시하고; 및
    상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하도록, 야기하는,
    웨어러블 장치.
  2. 청구항 1에 있어서, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가 ,
    상기 제1 아바타가 상기 제2 모습으로부터 상기 제1 모습으로 변경된 타이밍과 관련된 텍스트를 포함하는 상기 시각적 객체를 표시하도록, 더 구성된,
    웨어러블 장치.
  3. 청구항 1에 있어서, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가 ,
    의류를 표현하는 적어도 하나의 시각적 객체가 결합된 형태를 가지는 상기 제1 아바타를 표시하는 동안, 상기 제1 아바타와 결합된 상기 의류가 변경된 이력을 시각화하기 위하여 상기 시각적 객체를 표시하도록, 더 구성된,
    웨어러블 장치.
  4. 청구항 1에 있어서, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가 ,
    상기 제1 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 시각적 객체 또는 상기 제1 아바타를 향하는 사용자의 시선의 방향을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 더 구성된,
    웨어러블 장치.
  5. 청구항 1에 있어서, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가 ,
    상기 제1 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 제1 아바타의 식별자와 관련된 오디오 신호를 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 더 구성된,
    웨어러블 장치.
  6. 청구항 1에 있어서, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가 ,
    상기 입력을 수신하기 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 제2 모습의 상기 제2 아바타를 더 포함하는 상기 정보에 기반하여, 상기 제1 아바타와 연동으로 위치된 인디케이터를 상기 제1 아바타와 함께 표시하고;
    상기 인디케이터에 대한 다른 입력에 기반하여, 상기 시각적 객체를 표시하고 상기 인디케이터를 표시하는 것을 중단하도록, 더 구성된,
    웨어러블 장치.
  7. 청구항 1에 있어서, 상기 인스트럭션들은, 상기 프로세서에 의해 실행될 시에, 상기 웨어러블 장치가 ,
    상기 제1 아바타의 식별자를 표시하는 동안 상기 시각적 객체를 표시하는 것을 중단하도록, 더 구성된,
    웨어러블 장치.
  8. 인스트럭션들을 저장하는 비-일시적 컴퓨터 판독 가능 저장 매체에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 가상 웨어러블 장치의 디스플레이 상에 상기 가상 공간을 표시하고;
    제1 모습(appearance)을 가지고, 사용자의 현재 표현인 제1 아바타를, 상기 가상 공간 내에 표시하고; 및
    상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  9. 청구항 8에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    상기 제1 아바타가 상기 제2 모습으로부터 상기 제1 모습으로 변경된 타이밍과 관련된 텍스트를 포함하는 상기 시각적 객체를 표시하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  10. 청구항 8에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    의류를 표현하는 적어도 하나의 시각적 객체가 결합된 형태를 가지는 상기 제1 아바타를 표시하는 동안, 상기 제1 아바타와 결합된 상기 의류가 변경된 이력을 시각화하기 위하여 상기 시각적 객체를 표시하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  11. 청구항 8에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    상기 제1 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 시각적 객체 또는 상기 제1 아바타를 향하는 사용자의 시선의 방향을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  12. 청구항 8에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    상기 제1 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 제1 아바타의 식별자와 관련된 오디오 신호를 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  13. 청구항 8에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    상기 입력을 수신하기 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 제2 모습의 상기 제2 아바타를 더 포함하는 상기 정보에 기반하여, 상기 아바타와 연동으로 위치된 인디케이터를 상기 제1 아바타와 함께 표시하고;
    상기 인디케이터에 대한 다른 입력에 기반하여, 상기 시각적 객체를 표시하고 상기 인디케이터를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  14. 청구항 8에 있어서, 상기 인스트럭션들은, 웨어러블 장치의 적어도 하나의 프로세서에 의해 실행될 시에,
    상기 제1 아바타의 식별자를 표시하는 동안 상기 시각적 객체를 표시하는 것을 중단하도록, 상기 적어도 하나의 프로세서를 야기하는,
    비-일시적 컴퓨터 판독 가능 저장 매체.
  15. 디스플레이, 메모리 및 프로세서를 포함하는 전자 장치의 방법에 있어서,
    가상 공간으로 진입하기 위한 입력을 수신하는 것에 기반하여, 상기 디스플레이 상에 상기 가상 공간을 표시하는 동작;
    제1 모습(appearance)을 가지고, 사용자의 현재 표현(current representation)인 제1 아바타를, 상기 가상 공간 내에 표시하는 동작; 및
    상기 제1 아바타의 상기 제1 모습과 상이한 제2 모습을 가지고, 상기 사용자의 과거 표현(previous representation)인 제2 아바타를 위한 시각적 객체를, 상기 제1 아바타와 함께 상기 가상 공간 내에 표시하는 동작을 포함하는,
    방법.
  16. 청구항 15에 있어서, 상기 시각적 객체를 표시하는 동작은,
    상기 제1 아바타가 상기 제2 모습으로부터 상기 제1 모습으로 변경된 타이밍과 관련된 텍스트를 포함하는 상기 시각적 객체를 표시하는 동작을 포함하는,
    방법.
  17. 청구항 15에 있어서, 상기 시각적 객체를 표시하는 동작은,
    의류를 표현하는 적어도 하나의 시각적 객체가 결합된 형태를 가지는 상기 제1 아바타를 표시하는 동안, 상기 제1 아바타가 결합된 상기 의류가 변경된 이력을 시각화하기 위하여 상기 시각적 객체를 표시하는 동작을 포함하는,
    방법.
  18. 청구항 15에 있어서,
    상기 제1 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 시각적 객체 또는 상기 제1 아바타를 향하는 사용자의 시선의 방향을 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하는 동작을 더 포함하는,
    방법.
  19. 청구항 15에 있어서,
    상기 제1 아바타 및 상기 시각적 객체를 표시하는 동안, 상기 제1 아바타의 식별자 와 관련된 오디오 신호를 식별하는 것에 기반하여, 상기 시각적 객체를 표시하는 것을 중단하는 동작을 더 포함하는,
    방법.
  20. 청구항 15에 있어서,
    상기 입력을 수신하기 이전에 상기 웨어러블 장치에 의해 표시되었던 상기 제2 모습의 상기 제2 아바타를 더 포함하는 상기 정보에 기반하여, 상기 제1 아바타와 연동으로 위치된 인디케이터를 상기 제1 아바타와 함께 표시하는 동작;
    상기 인디케이터에 대한 다른 입력에 기반하여, 상기 시각적 객체를 표시하고 상기 인디케이터를 표시하는 것을 중단하는 동작을 더 포함하는,
    방법.

KR1020230140766A 2022-10-25 2023-10-19 가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법 KR20240058013A (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2023/016427 WO2024090914A1 (ko) 2022-10-25 2023-10-20 가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR20220138757 2022-10-25
KR1020220138757 2022-10-25
KR1020220143875 2022-11-01
KR20220143875 2022-11-01

Publications (1)

Publication Number Publication Date
KR20240058013A true KR20240058013A (ko) 2024-05-03

Family

ID=91077190

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020230140766A KR20240058013A (ko) 2022-10-25 2023-10-19 가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법

Country Status (1)

Country Link
KR (1) KR20240058013A (ko)

Similar Documents

Publication Publication Date Title
US11722537B2 (en) Communication sessions between computing devices using dynamically customizable interaction environments
US8558759B1 (en) Hand gestures to signify what is important
US10249095B2 (en) Context-based discovery of applications
US11743064B2 (en) Private collaboration spaces for computing systems
US11636655B2 (en) Artificial reality environment with glints displayed by an extra reality device
CN112105983B (zh) 增强的视觉能力
WO2023049053A9 (en) Content linking for artificial reality environments
CN108697935A (zh) 虚拟环境中的化身
US20230071584A1 (en) Parallel Video Call and Artificial Reality Spaces
US20230260233A1 (en) Coordination of Interactions of Virtual Objects
US20220291808A1 (en) Integrating Artificial Reality and Other Computing Devices
US20160285842A1 (en) Curator-facilitated message generation and presentation experiences for personal computing devices
US20230353616A1 (en) Communication Sessions Between Devices Using Customizable Interaction Environments And Physical Location Determination
US20230308495A1 (en) Asymmetric Presentation of an Environment
US20230252739A1 (en) Triggering a collaborative augmented reality environment using an ultrasound signal
JP6495399B2 (ja) 仮想空間を提供するためにコンピュータで実行されるプログラム、方法、および当該プログラムを実行するための情報処理装置
JP6250779B1 (ja) 仮想空間を介して通信するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および、情報処理装置
WO2023049052A1 (en) Visual navigation elements for artificial reality environments
KR20240058013A (ko) 가상 객체의 변경을 표시하기 위한 전자 장치 및 그 방법
KR20240047482A (ko) 분산되고 연결된 실세계 객체들을 통한 소셜 연결
US20240135650A1 (en) Electronic device and method for displaying modification of virtual object and method thereof
US11991222B1 (en) Persistent call control user interface element in an artificial reality environment
US11921970B1 (en) Coordinating virtual interactions with a mini-map
US11743215B1 (en) Artificial reality messaging with destination selection
US11805176B1 (en) Toolbox and context for user interactions