KR20240029485A - Method for displaying information in virtual space and apparatus thereof - Google Patents

Method for displaying information in virtual space and apparatus thereof Download PDF

Info

Publication number
KR20240029485A
KR20240029485A KR1020220126500A KR20220126500A KR20240029485A KR 20240029485 A KR20240029485 A KR 20240029485A KR 1020220126500 A KR1020220126500 A KR 1020220126500A KR 20220126500 A KR20220126500 A KR 20220126500A KR 20240029485 A KR20240029485 A KR 20240029485A
Authority
KR
South Korea
Prior art keywords
electronic device
avatar
application
interruption event
state
Prior art date
Application number
KR1020220126500A
Other languages
Korean (ko)
Inventor
김문정
김영록
김태영
성원규
송태양
유종혁
이창한
박지혜
홍현주
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20240029485A publication Critical patent/KR20240029485A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • A61B5/02416Detecting, measuring or recording pulse rate or heart rate using photoplethysmograph signals, e.g. generated by infrared radiation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]

Abstract

가상 공간 어플리케이션에 관한 전자 장치가 개시된다. 일 실시 예에 따른 프로세서에 의해 수행되는 전자 장치의 동작 방법은 가상 공간에서 아바타를 통해 다른 사용자와 대화 기능을 제공하는 어플리케이션을 실행하는 동작; 어플리케이션의 실행 중 검출된 전자 장치의 상태 및 전자 장치의 사용자의 상태 중 적어도 하나에 기초하여, 인터럽션 이벤트를 생성하는 동작; 인터럽션 이벤트에 기초하여, 아바타의 표시를 변경하는 동작; 및 변경된 아바타의 표시에 대응하여 어플리케이션을 통하여 수신되는 제어 신호에 기초하여, 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.An electronic device related to a virtual space application is disclosed. A method of operating an electronic device performed by a processor according to an embodiment includes running an application that provides a conversation function with another user through an avatar in a virtual space; Generating an interruption event based on at least one of the state of the electronic device and the state of the user of the electronic device detected during execution of the application; changing the display of the avatar based on the interruption event; and controlling the operation of the electronic device based on a control signal received through the application in response to the display of the changed avatar.

Figure P1020220126500
Figure P1020220126500

Description

가상 공간에 정보를 표시하는 방법 및 그 장치{METHOD FOR DISPLAYING INFORMATION IN VIRTUAL SPACE AND APPARATUS THEREOF}Method and device for displaying information in virtual space {METHOD FOR DISPLAYING INFORMATION IN VIRTUAL SPACE AND APPARATUS THEREOF}

본 발명의 다양한 실시예들은 가상 공간에 정보를 표시하는 방법 및 그 장치에 관한 것이다.Various embodiments of the present invention relate to a method and device for displaying information in virtual space.

가상세계(virtual world) 혹은 가상 공간(virtual space)는 현실과 유사하거나 혹은 완전히 다른 대안적 세계를 디지털 데이터로 구축한 것이다. 사용자들은 전자 장치를 이용하여 가상 세계에 접속할 수 있으며, 가상 세계에 구현된 아바타를 통해 현실 세계의 경제적, 사회적인 활동과 유사한 활동을 가상 세계에서 수행할 수 있다. 최근 통신 기술과 컴퓨터 비전 기술이 발달함에 따라, 현실 세계에서 상호작용을 통해 수행하는 많은 행동을 가상 세계 안에서 수행하도록 하는 가상 세계 플랫폼에 대한 수요가 증가하고 있다. 이러한 추세에 따라 가상 세계 안에서 현실 세계와 유사한 사용자 경험을 제공하기 위하여, 실제와 가까운 객체를 디지털로 구현하고, 입출력 인터페이스를 다양화하여 현실 세계와 가까운 상호작용을 구현하기 위한 기술 등이 개발되고 있다.A virtual world or virtual space is an alternative world that is similar to or completely different from reality constructed with digital data. Users can access the virtual world using electronic devices and can perform activities similar to economic and social activities in the real world in the virtual world through avatars implemented in the virtual world. As communication technology and computer vision technology have recently developed, demand for virtual world platforms that allow many actions performed through interaction in the real world to be performed in the virtual world is increasing. In accordance with this trend, in order to provide a user experience similar to the real world in the virtual world, technologies are being developed to digitally implement objects close to the real world and to implement interactions close to the real world by diversifying input and output interfaces. .

일 실시 예에 따른 서버는 어플리케이션을 통해 가상 공간에서 아바타를 통한 대화 서비스를 제공하는 서버를 포함할 수 있다.A server according to an embodiment may include a server that provides a conversation service through an avatar in a virtual space through an application.

일 예로, 서버의 동작 방법은 어플리케이션을 실행한 제1 전자 장치에서 발생한 인터럽션 이벤트를 검출하는 동작을 포함할 수 있다.As an example, a method of operating a server may include detecting an interruption event occurring in a first electronic device executing an application.

일 예로, 서버의 동작 방법은 검출된 인터럽션 이벤트에 기초하여, 제1 전자 장치에 대응하는 아바타의 표시를 변경하도록 어플리케이션을 실행한 전자 장치를 제어하는 동작을 포함할 수 있다. 어플리케이션을 실행한 전자 장치는 제1 전자 장치 및 제2 전자 장치를 포함할 수 있다.As an example, the operating method of the server may include controlling the electronic device executing the application to change the display of the avatar corresponding to the first electronic device based on the detected interruption event. The electronic device executing the application may include a first electronic device and a second electronic device.

일 예로, 서버의 동작 방법은 어플리케이션을 실행한 제2 전자 장치로부터 아바타의 변경된 표시에 대응하는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신하는 동작을 포함할 수 있다.As an example, the operating method of the server may include receiving an input requesting control of the operation of the first electronic device corresponding to the changed display of the avatar from the second electronic device executing the application.

일 예로, 서버의 동작 방법은 수신된 입력에 기초하여, 제1 전자 장치에 제어 신호를 전송하는 동작을 포함할 수 있다.As an example, a method of operating a server may include transmitting a control signal to a first electronic device based on a received input.

일 실시 예에 따른 어플리케이션을 통해 가상 공간에서 아바타를 통한 대화 서비스를 제공하는 서버의 동작은 적어도 하나의 프로세서에 의해 수행될 수 있다.The operation of a server that provides a conversation service through an avatar in a virtual space through an application according to one embodiment may be performed by at least one processor.

일 예로, 서버는 어플리케이션을 실행한 제1 전자 장치에서 발생한 인터럽션 이벤트를 검출하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server may include at least one processor that detects an interruption event that occurs in a first electronic device executing an application.

일 예로, 서버는 검출된 인터럽션 이벤트에 기초하여, 제1 전자 장치에 대응하는 아바타의 표시를 변경하도록 어플리케이션을 실행한 전자 장치를 제어하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server may include at least one processor that controls the electronic device executing the application to change the display of the avatar corresponding to the first electronic device based on the detected interruption event.

일 예로, 서버는 어플리케이션을 실행한 제2 전자 장치로부터 아바타의 변경된 표시에 대응하는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server may include at least one processor that receives an input requesting control of the operation of the first electronic device corresponding to the changed display of the avatar from the second electronic device executing the application.

일 예로, 서버는 수신된 입력에 기초하여, 제1 전자 장치에 제어 신호를 전송하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server may include at least one processor that transmits a control signal to the first electronic device based on the received input.

일 실시 예에 따른 전자 장치는 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리를 포함할 수 있다.An electronic device according to an embodiment may include a memory storing computer-executable instructions.

일 실시 예에 따른 전자 장치는 메모리에 억세스(access)하여 명령어들을 실행하는 프로세서를 포함할 수 있다.An electronic device according to an embodiment may include a processor that accesses memory and executes instructions.

일 실시 예에 따르면, 전자 장치는 제1 전자 장치를 포함할 수 있다.According to one embodiment, the electronic device may include a first electronic device.

일 예로, 제1 전자 장치의 메모리에 저장된 명령어들은, 가상 공간에서 아바타를 통해 다른 사용자와 대화 기능을 제공하는 어플리케이션을 실행하도록 구성될 수 있다.As an example, commands stored in the memory of the first electronic device may be configured to execute an application that provides a conversation function with another user through an avatar in a virtual space.

일 예로, 제1 전자 장치의 메모리에 저장된 명령어들은, 어플리케이션의 실행 중 검출된 제1 전자 장치의 상태 및 제1 전자 장치의 사용자의 상태 중 적어도 하나에 기초하여, 인터럽션 이벤트를 생성하도록 구성될 수 있다.As an example, the instructions stored in the memory of the first electronic device may be configured to generate an interruption event based on at least one of the state of the first electronic device and the state of the user of the first electronic device detected during execution of the application. You can.

일 예로, 제1 전자 장치의 메모리에 저장된 명령어들은, 인터럽션 이벤트에 기초하여, 아바타의 표시를 변경하도록 구성될 수 있다.As an example, commands stored in the memory of the first electronic device may be configured to change the display of the avatar based on an interruption event.

일 예로, 제1 전자 장치의 메모리에 저장된 명령어들은, 변경된 아바타의 표시에 대응하여 어플리케이션을 통하여 수신되는 제어 신호에 기초하여, 제1 전자 장치의 동작을 제어하도록 구성될 수 있다.As an example, commands stored in the memory of the first electronic device may be configured to control the operation of the first electronic device based on a control signal received through an application in response to the display of a changed avatar.

일 실시 예에 따르면, 전자 장치는 제2 전자 장치를 포함할 수 있다.According to one embodiment, the electronic device may include a second electronic device.

일 예로, 제2 전자 장치의 메모리에 저장된 명령어들은, 가상 공간에서 아바타를 통해 다른 사용자와 대화 기능을 제공하는 어플리케이션을 실행하도록 구성될 수 있다.For example, commands stored in the memory of the second electronic device may be configured to execute an application that provides a conversation function with another user through an avatar in a virtual space.

일 예로, 제2 전자 장치의 메모리에 저장된 명령어들은, 제1 전자 장치에서 발생한 인터럽션 이벤트에 기초하여, 제1 전자 장치에 대응하는 아바타의 표시를 변경하도록 구성될 수 있다.As an example, commands stored in the memory of the second electronic device may be configured to change the display of the avatar corresponding to the first electronic device based on an interruption event that occurred in the first electronic device.

일 예로, 제2 전자 장치의 메모리에 저장된 명령어들은, 인터럽션 이벤트에 대응하는 인터페이스 객체를 표시하도록 구성될 수 있다.As an example, commands stored in the memory of the second electronic device may be configured to display an interface object corresponding to an interruption event.

일 예로, 제2 전자 장치의 메모리에 저장된 명령어들은, 인터페이스 객체를 통해 수신된 입력에 기초하여, 제1 전자 장치의 동작 제어를 요청하도록 구성될 수 있다.As an example, commands stored in the memory of the second electronic device may be configured to request operation control of the first electronic device based on input received through an interface object.

도 1은, 일 실시 예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2은 일 실시 예에 따른 프로그램을 예시하는 블록도이다.
도 3은 일 실시 예에 따른 전자 장치의 동작 흐름도이다.
도 4는 일 실시 예에 따른 가상 공간 어플리케이션을 실행한 전자 장치를 통해 출력되는 인터페이스 화면을 예시한 도면이다.
도 5a는 일 실시 예에 따른 전자 장치의 인터럽션 이벤트 생성 동작의 흐름도이다.
도 5b는 일 실시 예에 따른 전자 장치의 인터럽션 이벤트 생성 동작의 흐름도이다.
도 6은 일 실시 예에 따른 가상 공간 대화 시스템의 동작을 설명하기 위한 도면이다.
도 7은 일 실시 예에 따른 가상 공간 대화 시스템의 동작을 설명하기 위한 도면이다.
도 8은 일 실시 예에 따른 통화 중의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 9는 일 실시 예에 따른 적어도 하나 이상의 어플리케이션 실행의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 10은 일 실시 예에 따른 사용자의 낙상의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 11은 일 실시 예에 따른 수면의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 12는 일 실시 예에 따른 수면의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 13은 일 실시 예에 따른 배터리 부족의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 14는 일 실시 예에 따른 취침 시간 도달의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 15는 일 실시 예에 따른 앱 실행 중단의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.
도 16은 일 실시 예에 따른 앱 실행 중단의 인터럽션 이벤트의 발생에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
1 is a block diagram of an electronic device in a network environment, according to one embodiment.
Figure 2 is a block diagram illustrating a program according to one embodiment.
3 is a flowchart of an operation of an electronic device according to an embodiment.
Figure 4 is a diagram illustrating an interface screen output through an electronic device running a virtual space application according to an embodiment.
FIG. 5A is a flowchart of an interruption event generation operation of an electronic device according to an embodiment.
FIG. 5B is a flowchart of an interruption event generation operation of an electronic device according to an embodiment.
Figure 6 is a diagram for explaining the operation of a virtual space conversation system according to an embodiment.
Figure 7 is a diagram for explaining the operation of a virtual space conversation system according to an embodiment.
Figure 8 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event during a call, according to an embodiment.
FIG. 9 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event in the execution of at least one application according to an embodiment.
Figure 10 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event of a user's fall according to an embodiment.
Figure 11 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of a sleep interruption event according to an embodiment.
Figure 12 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of a sleep interruption event according to an embodiment.
Figure 13 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of a low battery interruption event according to an embodiment.
Figure 14 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event of reaching bedtime, according to an embodiment.
Figure 15 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event of app execution interruption according to an embodiment.
FIG. 16 is a diagram illustrating the operation of an electronic device according to the occurrence of an interruption event that stops execution of an app, according to an embodiment.

이하, 실시 예들을 첨부된 도면들을 참조하여 상세하게 설명한다. 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조 부호를 부여하고, 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments will be described in detail with reference to the attached drawings. In the description with reference to the accompanying drawings, identical components will be assigned the same reference numerals regardless of the reference numerals, and overlapping descriptions thereof will be omitted.

도 1은, 일 실시 예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to one embodiment.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197. In some embodiments, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components (e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or calculations can be performed. According to one embodiment, as at least part of data processing or computation, processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes the main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the electronic device 101 includes a main processor 121 and a secondary processor 123, the secondary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled. According to one embodiment, coprocessor 123 (e.g., image signal processor or communication processor) may be implemented as part of another functionally related component (e.g., camera module 180 or communication module 190). there is. According to one embodiment, the auxiliary processor 123 (eg, neural network processing device) may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. An artificial intelligence model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 can capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the electronic device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g., : LAN (local area network) communication module, or power line communication module) may be included. Among these communication modules, the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 can be confirmed or authenticated.

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시 예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module 192 may support high frequency bands (eg, mmWave bands), for example, to achieve high data rates. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected to the plurality of antennas by, for example, the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna. According to some embodiments, in addition to the radiator, other components (eg, radio frequency integrated circuit (RFIC)) may be additionally formed as part of the antenna module 197.

일 실시 예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시 예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to one embodiment, the antenna module 197 may form a mmWave antenna module. According to one embodiment, a mmWave antenna module includes: a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.

일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시 예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시 예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101. According to one embodiment, all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 may perform the function or service instead of executing the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service. One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101. The electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology can be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of Things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199. The electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

도 2은 일 실시 예에 따른 프로그램(140)을 예시하는 블록도(200)이다.Figure 2 is a block diagram 200 illustrating program 140 according to one embodiment.

일 실시 예에 따르면, 프로그램(140)은 전자 장치(101)의 하나 이상의 리소스들을 제어하기 위한 운영 체제(142), 미들웨어(144), 또는 상기 운영 체제(142)에서 실행 가능한 어플리케이션(146)을 포함할 수 있다. 운영 체제(142)는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 프로그램(140) 중 적어도 일부 프로그램은, 예를 들면, 제조 시에 전자 장치(101)에 프리로드되거나, 또는 사용자에 의해 사용 시 외부 전자 장치(예: 전자 장치(102 또는 104), 또는 서버(108))로부터 다운로드되거나 갱신 될 수 있다.According to one embodiment, the program 140 includes an operating system 142, middleware 144, or an application 146 executable on the operating system 142 for controlling one or more resources of the electronic device 101. It can be included. Operating system 142 may include, for example, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, or BadaTM. At least some of the programs 140 are preloaded into the electronic device 101, for example, at the time of manufacture, or are stored in an external electronic device (e.g., the electronic device 102 or 104, or a server) when used by a user. It can be downloaded or updated from 108)).

운영 체제(142)는 전자 장치(101)의 하나 이상의 시스템 리소스들(예: 프로세스, 메모리, 또는 전원)의 관리(예: 할당 또는 회수)를 제어할 수 있다. 운영 체제(142)는, 추가적으로 또는 대체적으로, 전자 장치(101)의 다른 하드웨어 디바이스, 예를 들면, 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 구동하기 위한 하나 이상의 드라이버 프로그램들을 포함할 수 있다.The operating system 142 may control management (eg, allocation or retrieval) of one or more system resources (eg, process, memory, or power) of the electronic device 101 . Operating system 142 may additionally or alternatively operate on other hardware devices of electronic device 101, such as input module 150, audio output module 155, display module 160, and audio module 170. , sensor module 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or It may include one or more driver programs for driving the antenna module 197.

미들웨어(144)는 전자 장치(101)의 하나 이상의 리소스들로부터 제공되는 기능 또는 정보가 어플리케이션(146)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션(146)으로 제공할 수 있다. 미들웨어(144)는, 예를 들면, 어플리케이션 매니저(201), 윈도우 매니저(203), 멀티미디어 매니저(205), 리소스 매니저(207), 파워 매니저(209), 데이터베이스 매니저(211), 패키지 매니저(213), 커넥티비티 매니저(215), 노티피케이션 매니저(217), 로케이션 매니저(219), 그래픽 매니저(221), 시큐리티 매니저(223), 통화 매니저(225), 또는 음성 인식 매니저(227)를 포함할 수 있다. The middleware 144 may provide various functions to the application 146 so that functions or information provided from one or more resources of the electronic device 101 can be used by the application 146. The middleware 144 includes, for example, an application manager 201, a window manager 203, a multimedia manager 205, a resource manager 207, a power manager 209, a database manager 211, and a package manager 213. ), connectivity manager (215), notification manager (217), location manager (219), graphics manager (221), security manager (223), call manager (225), or voice recognition manager (227). You can.

어플리케이션 매니저(201)는, 예를 들면, 어플리케이션(146)의 생명 주기를 관리할 수 있다. 윈도우 매니저(203)는, 예를 들면, 화면에서 사용되는 하나 이상의 GUI 자원들을 관리할 수 있다. 멀티미디어 매니저(205)는, 예를 들면, 미디어 파일들의 재생에 필요한 하나 이상의 포맷들을 파악하고, 그 중 선택된 해당하는 포맷에 맞는 코덱을 이용하여 상기 미디어 파일들 중 해당하는 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(207)는, 예를 들면, 어플리케이션(146)의 소스 코드 또는 메모리(130)의 메모리의 공간을 관리할 수 있다. 파워 매니저(209)는, 예를 들면, 배터리(189)의 용량, 온도 또는 전원을 관리하고, 이 중 해당 정보를 이용하여 전자 장치(101)의 동작에 필요한 관련 정보를 결정 또는 제공할 수 있다. 일 실시 예에 따르면, 파워 매니저(209)는 전자 장치(101)의 바이오스(BIOS: basic input/output system)(미도시)와 연동할 수 있다.The application manager 201 may, for example, manage the life cycle of the application 146. The window manager 203 may, for example, manage one or more GUI resources used on the screen. For example, the multimedia manager 205 identifies one or more formats required for playing media files, and encodes or decodes the corresponding media file using a codec suitable for the selected format. It can be done. The resource manager 207 may, for example, manage the source code of the application 146 or the memory space of the memory 130. The power manager 209 manages, for example, the capacity, temperature, or power of the battery 189, and may use this information to determine or provide related information necessary for the operation of the electronic device 101. . According to one embodiment, the power manager 209 may interface with a basic input/output system (BIOS) (not shown) of the electronic device 101.

데이터베이스 매니저(211)는, 예를 들면, 어플리케이션(146)에 의해 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(213)는, 예를 들면, 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다. 커넥티비티 매니저(215)는, 예를 들면, 전자 장치(101)와 외부 전자 장치 간의 무선 연결 또는 직접 연결을 관리할 수 있다. 노티피케이션 매니저(217)는, 예를 들면, 지정된 이벤트(예: 착신 통화, 메시지, 또는 알람)의 발생을 사용자에게 알리기 위한 기능을 제공할 수 있다. 로케이션 매니저(219)는, 예를 들면, 전자 장치(101)의 위치 정보를 관리할 수 있다. 그래픽 매니저(221)는, 예를 들면, 사용자에게 제공될 하나 이상의 그래픽 효과들 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. Database manager 211 may create, search, or change a database to be used by application 146, for example. The package manager 213 may, for example, manage the installation or update of applications distributed in the form of package files. The connectivity manager 215 may manage, for example, a wireless connection or direct connection between the electronic device 101 and an external electronic device. For example, the notification manager 217 may provide a function for notifying the user of the occurrence of a designated event (eg, an incoming call, message, or alarm). The location manager 219 may, for example, manage location information of the electronic device 101. The graphics manager 221 may, for example, manage one or more graphic effects to be provided to the user or a user interface related thereto.

시큐리티 매니저(223)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 통화(telephony) 매니저(225)는, 예를 들면, 전자 장치(101)에 의해 제공되는 음성 통화 기능 또는 영상 통화 기능을 관리할 수 있다. 음성 인식 매니저(227)는, 예를 들면, 사용자의 음성 데이터를 서버(108)로 전송하고, 그 음성 데이터에 적어도 일부 기반하여 전자 장치(101)에서 수행될 기능에 대응하는 명령어(command), 또는 그 음성 데이터에 적어도 일부 기반하여 변환된 문자 데이터를 서버(108)로부터 수신할 수 있다. 일 실시 예에 따르면, 미들웨어(244)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. 일 실시 예에 따르면, 미들웨어(144)의 적어도 일부는 운영 체제(142)의 일부로 포함되거나, 또는 운영 체제(142)와는 다른 별도의 소프트웨어로 구현될 수 있다.Security manager 223 may provide, for example, system security or user authentication. The telephony manager 225 may manage, for example, a voice call function or a video call function provided by the electronic device 101. For example, the voice recognition manager 227 transmits the user's voice data to the server 108 and provides a command corresponding to a function to be performed in the electronic device 101 based at least in part on the voice data, Alternatively, text data converted based at least in part on the voice data may be received from the server 108. According to one embodiment, the middleware 244 may dynamically delete some existing components or add new components. According to one embodiment, at least a portion of the middleware 144 may be included as part of the operating system 142 or may be implemented as separate software different from the operating system 142.

어플리케이션(146)은, 예를 들면, 홈(251), 다이얼러(253), SMS/MMS(255), IM(instant message)(257), 브라우저(259), 카메라(261), 알람(263), 컨택트(265), 음성 인식(267), 이메일(269), 달력(271), 미디어 플레이어(273), 앨범(275), 와치(277), 헬스(279)(예: 운동량 또는 혈당과 같은 생체 정보를 측정), 또는 환경 정보(281)(예: 기압, 습도, 또는 온도 정보 측정) 어플리케이션을 포함할 수 있다. 일 실시 예에 따르면, 어플리케이션(146)은 전자 장치(101)와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션(미도시)을 더 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치로 지정된 정보 (예: 통화, 메시지, 또는 알람)를 전달하도록 설정된 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하도록 설정된 장치 관리 어플리케이션을 포함할 수 있다. 노티피케이션 릴레이 어플리케이션은, 예를 들면, 전자 장치(101)의 다른 어플리케이션(예: 이메일 어플리케이션(269))에서 발생된 지정된 이벤트(예: 메일 수신)에 대응하는 알림 정보를 외부 전자 장치로 전달할 수 있다. 추가적으로 또는 대체적으로, 노티피케이션 릴레이 어플리케이션은 외부 전자 장치로부터 알림 정보를 수신하여 전자 장치(101)의 사용자에게 제공할 수 있다. The application 146 includes, for example, home 251, dialer 253, SMS/MMS (255), instant message (IM) 257, browser 259, camera 261, and alarm 263. , Contacts (265), Voice Recognition (267), Email (269), Calendar (271), Media Player (273), Album (275), Watch (277), Health (279) (such as exercise amount or blood sugar) It may include applications that measure biometric information) or environmental information 281 (e.g., measure atmospheric pressure, humidity, or temperature information). According to one embodiment, the application 146 may further include an information exchange application (not shown) that can support information exchange between the electronic device 101 and an external electronic device. The information exchange application may include, for example, a notification relay application configured to deliver designated information (e.g., calls, messages, or alarms) to an external electronic device, or a device management application configured to manage the external electronic device. there is. The notification relay application, for example, transmits notification information corresponding to a specified event (e.g., mail reception) generated in another application (e.g., email application 269) of the electronic device 101 to an external electronic device. You can. Additionally or alternatively, the notification relay application may receive notification information from an external electronic device and provide it to the user of the electronic device 101.

장치 관리 어플리케이션은, 예를 들면, 전자 장치(101)와 통신하는 외부 전자 장치 또는 그 일부 구성 요소(예: 외부 전자장치의 디스플레이 모듈 또는 카메라 모듈)의 전원(예: 턴-온 또는 턴-오프) 또는 기능(예: 밝기, 해상도, 또는 포커스)을 제어할 수 있다. 장치 관리 어플리케이션은, 추가적으로 또는 대체적으로, 외부 전자 장치에서 동작하는 어플리케이션의 설치, 삭제, 또는 갱신을 지원할 수 있다.The device management application, for example, controls the power (e.g., turn-on or turn-off) of an external electronic device or some component thereof (e.g., a display module or camera module of the external electronic device) that communicates with the electronic device 101. ) or functions (such as brightness, resolution, or focus). A device management application may additionally or alternatively support installation, deletion, or update of applications running on external electronic devices.

도 3은 일 실시 예에 따른 전자 장치의 동작 흐름도이다.3 is a flowchart of an operation of an electronic device according to an embodiment.

도 3을 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101))의 동작 방법은 가상 공간에서 아바타를 통해 적어도 하나 이상의 사용자와 대화 기능을 제공하는 어플리케이션(예: 도 1의 어플리케이션(146) 또는 도 2의 어플리케이션(146))을 실행하는 동작(310)을 포함할 수 있다. 이하에서, 가상 공간에서 아바타를 통해 적어도 하나 이상의 사용자와 대화 기능을 제공하는 어플리케이션은 간략하게 '어플리케이션' 혹은 '가상 공간 어플리케이션'으로 지칭될 수 있다.Referring to FIG. 3, a method of operating an electronic device (e.g., the electronic device 101 of FIG. 1) according to an embodiment includes an application that provides a conversation function with at least one user through an avatar in a virtual space (e.g., FIG. It may include an operation 310 of executing the application 146 in 1 or the application 146 in FIG. 2. Hereinafter, an application that provides a conversation function with at least one user through an avatar in a virtual space may be briefly referred to as an 'application' or a 'virtual space application'.

일 실시 예에 따른 어플리케이션을 통해 전자 장치에 표시되는 가상 공간은 2차원 혹은 3차원의 그래픽 객체를 포함하는 2차원 혹은 3차원의 공간으로, 적어도 하나의 전자 장치는 어플리케이션을 실행하여 가상 공간에 접속할 수 있다. 일 예로, 가상 공간에 접속한 전자 장치의 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해 2차원 혹은 3차원 가상 공간의 투영이 표시될 수 있다. 일 예로, 2차원 혹은 3차원 가상 공간의 투영은 가상 공간에 접속한 전자 장치와 연동된 외부 장치(예: AR glasses)(예: 도 1의 전자 장치(102) 또는 도 1의전자 장치(104))의 디스플레이를 통해 표시될 수 있다.The virtual space displayed on the electronic device through the application according to one embodiment is a two-dimensional or three-dimensional space including two-dimensional or three-dimensional graphic objects, and at least one electronic device executes the application to access the virtual space. You can. For example, a projection of a two-dimensional or three-dimensional virtual space may be displayed through the display of an electronic device connected to the virtual space (e.g., the display module 160 of FIG. 1). As an example, projection of a two-dimensional or three-dimensional virtual space may be performed using an external device (e.g., AR glasses) linked to an electronic device connected to the virtual space (e.g., the electronic device 102 of FIG. 1 or the electronic device 104 of FIG. 1 )) can be displayed through the display.

일 실시 예에 따르면, 가상 공간은 어플리케이션을 실행한 전자 장치의 사용자에 대응하는 아바타를 포함할 수 있다. 아바타는 가상 공간에 표시되는 2차원 혹은 3차원의 그래픽 객체로, 사용자의 제어에 의해 가상 공간에서 동작하는 가상 객체에 해당할 수 있다. 예를 들어, 아바타는 전자 장치를 통해 수신되는 사용자의 지시에 따라 행동을 취하거나, 발화를 할 수 있다. 아바타는 특정 사용자의 아바타로써, 다른 아바타와 구분되기 위한 식별자를 포함할 수 있다. 일 예로, 아바타의 얼굴, 헤어스타일, 의상은 다른 아바타와 구분되도록 표시될 수 있으며, 사용자의 아이디, 이름과 같은 사용자를 지시하기 위한 식별자를 더 포함할 수 있다.According to one embodiment, the virtual space may include an avatar corresponding to the user of the electronic device executing the application. An avatar is a two-dimensional or three-dimensional graphic object displayed in a virtual space, and may correspond to a virtual object that operates in the virtual space under the user's control. For example, an avatar can take action or speak according to user instructions received through an electronic device. An avatar is a specific user's avatar and may include an identifier to distinguish it from other avatars. For example, the avatar's face, hairstyle, and clothes may be displayed to distinguish it from other avatars, and may further include an identifier to indicate the user, such as the user's ID or name.

일 실시 예에 따르면, 가상 공간에 복수의 전자 장치들(예: 도 1의 전자 장치(101))이 접속할 수 있다. 복수의 전자 장치들 각각의 사용자에 대응하는 아바타가 가상 공간에 표시될 수 있다. 사용자들은 아바타를 이용하여 상호작용할 수 있다. 예를 들어, 아바타의 위치를 다른 아바타의 위치 근처로 이동시켜 다른 사용자와 대화를 수행할 수 있다. 사용자가 전자 장치에 입력한 텍스트 혹은 소리 형태의 대화 입력은 아바타를 통해 출력될 수 있다. 일 예로, 사용자에 의해 입력된 채팅 메시지는 아바타의 발화임을 지시하는 말풍선의 형태로 표시될 수 있다. 일 예로, 사용자에 의해 입력된 채팅 메시지는 실제 사람들의 대화 모습을 반영하여 아바타의 발화 액션과 함께 발화 신호를 발생시키는 방식으로 출력될 수 있다. 시각적 형태 혹은 청각적 형태의 채팅 메시지는 가상 공간에 접속한 전자 장치 전체에 전송될 수도 있고, 일부 전자 장치에만 전송될 수도 있다. According to one embodiment, a plurality of electronic devices (eg, the electronic device 101 of FIG. 1) may access the virtual space. An avatar corresponding to each user of a plurality of electronic devices may be displayed in a virtual space. Users can interact using avatars. For example, you can chat with another user by moving the avatar's location near the location of another avatar. Dialogue input in the form of text or sound entered by a user into an electronic device may be output through an avatar. As an example, a chat message entered by a user may be displayed in the form of a speech bubble indicating that the message is uttered by an avatar. For example, a chat message input by a user may be output in a way that reflects the conversation of real people and generates a speech signal along with the speech action of the avatar. Chat messages in visual or auditory form may be transmitted to all electronic devices connected to the virtual space, or may be transmitted only to some electronic devices.

예를 들어, 도 4는 가상 공간 어플리케이션을 실행한 전자 장치를 통해 출력되는 인터페이스 화면을 예시한 도면이다. 도 4의 화면(400)은 어플리케이션을 통해 접속한 가상 공간의 투영을 표시할 수 있다. 화면(400)을 참조하면, 가상 공간은 전자 장치의 사용자에 대응하는 아바타(401)와 가상 공간에 접속한 적어도 하나 이상의사용자들에 대응하는 아바타들(402, 403)을 포함할 수 있다. 일 예로, 전자 장치를 통해 출력되는 가상 공간의 투영은 전자 장치의 사용자에 대응하는 아바타(401)의 시점에 대응되는 방향에서 가상 공간을 바라본 투영에 해당할 수 있다. 다시 말해, 아바타(402)에 대응하는 사용자의 전자 장치에 출력되는 가상 공간의 투영 화면은 도 4에 도시된 화면(400)과 다른 각도에서 바라본 가상 공간의 투영에 해당할 수 있다. 사용자는 아바타(401)를 이용하여 가상 공간에서 대화를 수행할 수 있다. 일 예로, 사용자가 전자 장치를 통해 채팅 메시지를 입력하는 경우, 사용자에 대응하는 아바타(401)가 채팅 메시지에 대응하는 발화를 수행하거나, 채팅 메시지가 아바타(401)의 상단에 말풍선의 형태로 표시되는 방식으로 채팅 메시지가 외부전자 장치에 전송될 수 있다. For example, Figure 4 is a diagram illustrating an interface screen output through an electronic device running a virtual space application. The screen 400 of FIG. 4 may display a projection of a virtual space accessed through an application. Referring to the screen 400, the virtual space may include an avatar 401 corresponding to a user of the electronic device and avatars 402 and 403 corresponding to at least one user connected to the virtual space. For example, a projection of a virtual space output through an electronic device may correspond to a projection of the virtual space viewed from a direction corresponding to the viewpoint of the avatar 401 corresponding to the user of the electronic device. In other words, the projection screen of the virtual space output to the user's electronic device corresponding to the avatar 402 may correspond to a projection of the virtual space viewed from a different angle than the screen 400 shown in FIG. 4. A user can conduct a conversation in a virtual space using the avatar 401. For example, when a user enters a chat message through an electronic device, the avatar 401 corresponding to the user utters a speech corresponding to the chat message, or the chat message is displayed in the form of a speech bubble at the top of the avatar 401. A chat message can be transmitted to an external electronic device in this way.

일 실시 예에 따른 전자 장치의 동작 방법은 어플리케이션의 실행 중 검출된 전자 장치의 상태 및 전자 장치의 사용자의 상태 중 적어도 하나에 기초하여, 인터럽션(interruption) 이벤트를 생성하는 동작(320)을 포함할 수 있다.A method of operating an electronic device according to an embodiment includes an operation 320 of generating an interruption event based on at least one of the state of the electronic device and the state of the user of the electronic device detected while executing an application. can do.

일 실시 예에 따른 동작(320)은 전자 장치의 상태에 기초하여, 인터럽션 이벤트를 생성하는 동작을 포함할 수 있다. 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 디폴트(default) 상태와 구분되는 상태에 해당할 수 있다. 전자 장치의 디폴트 상태는 전자 장치에서 어플리케이션을 실행해서 가상 공간에서 대화 중인 상태를 의미할 수 있다.Operation 320 according to one embodiment may include generating an interruption event based on the state of the electronic device. The state of the electronic device for generating an interruption event may correspond to a state that is distinct from the default state of the electronic device. The default state of an electronic device may mean a state in which an application is running on the electronic device and a conversation is in progress in a virtual space.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치에서 적어도 하나 이상의 어플리케이션이 실행되는 상태를 포함할 수 있다. 전자 장치에서 가상 공간 어플리케이션의 실행이 종료되지 않은 상태에서 상기 적어도 하나 이상의 어플리케이션이 실행된 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다. 일 예로, 상기 적어도 하나 이상의 어플리케이션이 실행된 상태에서 가상 공간 어플리케이션은 백그라운드에서 실행될 수 있으며, 상기 적어도 하나 이상의 어플리케이션이 포그라운드(foreground)에서 실행될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include a state in which at least one application is running on the electronic device. If the electronic device detects that the at least one application is running while execution of the virtual space application has not ended, an interruption event may be generated. For example, while the at least one application is running, a virtual space application may be executed in the background, and the at least one application may be executed in the foreground.

일 실시 예에 따르면, 전자 장치에서는 가상 공간 어플리케이션 및 적어도 하나의 어플리케이션을 동시에 실행될 수 있다. 가상 공간 어플리케이션의 실행 화면 및 가상 공간 어플리케이션과 동시에 실행되는 적어도 하나의 어플리케이션의 실행 화면은 전자 장치의 디스플레이를 통해 출력될 수 있다. 예를 들어, 디스플레이를 통해 출력되는 복수의 화면들은 분할된 화면 형태(split screen form)(예: 멀티 윈도우, 팝업, 및 위젯)로 시각화될 수 있다.According to one embodiment, a virtual space application and at least one application may be executed simultaneously on an electronic device. The execution screen of the virtual space application and the execution screen of at least one application running simultaneously with the virtual space application may be output through the display of the electronic device. For example, multiple screens output through a display may be visualized in a split screen form (e.g., multi-window, pop-up, and widget).

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 배터리(예: 도 1의 배터리(189)) 잔량 상태를 포함할 수 있다. 전자 장치의 배터리 잔량이 임계 값 미만인 배터리 부족 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다. 배터리 잔량의 임계 값은 미리 정해진 특정 값 혹은 가상 공간 어플리케이션을 실행하기 위해 필요한 최소 값으로 결정될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include the remaining state of the battery (eg, battery 189 in FIG. 1) of the electronic device. When a low battery condition in which the remaining battery capacity of the electronic device is less than a threshold value is detected, an interruption event may be generated. The threshold value of the remaining battery capacity may be determined as a specific predetermined value or as the minimum value required to run the virtual space application.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 호(call) 연결 상태를 포함할 수 있다. 일 예로, 전자 장치에서 호 연결 요청이 수신된 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다. 일 예로, 전자 장치에서 호 연결이 수립된 상태가 검출된 경우, 전자 장치의 통화 세션의 개시 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include a call connection state of the electronic device. For example, when a call connection request is detected in an electronic device, an interruption event may be generated. For example, when a call connection establishment state is detected in an electronic device or a call session start state of the electronic device is detected, an interruption event may be generated.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 디스플레이 표시 상태를 포함할 수 있다. 전자 장치에서 디스플레이 화면이 꺼진 상태가 검출된 경우, 다시 말해 전자 장치의 스크린오프(screen-off) 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include the display state of the electronic device. When a state in which the display screen is turned off is detected in the electronic device, that is, when a screen-off state of the electronic device is detected, an interruption event may be generated.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 변위 상태를 포함할 수 있다. 전자 장치의 변위가 임계 값 이상인 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다. 전자 장치의 변위는 전자 장치의 자세 혹은 위치의 변화량으로, 전자 장치의 위치 센서, 중력 센서, 가속도 센서, 자이로 센서와 같은 위치 혹은 자세를 측정하는 센서(예: 도 1의 센서 모듈(176))에서 수신된 데이터의 변화량으로 계산될 수 있다. 일정 시간 동안 측정된 전자 장치의 변위가 사람의 움직임에 따라 발생할 수 있는 변위의 범위를 벗어나는 경우, 전자 장치가 떨어지거나 사용자가 넘어진 상황과 같은 특수한 상황으로 판단될 수 있다. 이 경우, 인터럽션 이벤트가 생성될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include a displacement state of the electronic device. When a state in which the displacement of the electronic device is greater than or equal to a threshold value is detected, an interruption event may be generated. Displacement of an electronic device is a change in the posture or position of an electronic device, and is measured by a sensor that measures the position or posture of the electronic device, such as a position sensor, gravity sensor, acceleration sensor, or gyro sensor (e.g., sensor module 176 in FIG. 1). It can be calculated as the amount of change in data received from . If the displacement of the electronic device measured for a certain period of time is outside the range of displacement that can occur due to human movement, it may be judged to be a special situation, such as a situation where the electronic device falls or the user falls. In this case, an interruption event may be generated.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 전원 상태를 포함할 수 있다. 전자 장치의 전원이 종료 중인 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include the power state of the electronic device. If a state in which the electronic device is being turned off is detected, an interruption event may be generated.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 전자 장치의 상태는 전자 장치의 통신 상태를 포함할 수 있다. 전자 장치의 네트워크(예: 도 1의 제1 네트워크(198) 또는 도 1의 제2 네트워크(199)) 연결이 끊긴 상태가 검출된 경우, 인터럽션 이벤트가 생성될 수 있다.According to one embodiment, the state of the electronic device for generating an interruption event may include the communication state of the electronic device. When a state in which the electronic device is disconnected from the network (eg, the first network 198 in FIG. 1 or the second network 199 in FIG. 1) is detected, an interruption event may be generated.

일 실시 예에 따른 동작(320)은 전자 장치의 상태의 지속 시간에 기초하여 인터럽션 이벤트를 생성하는 동작을 포함할 수 있다. 일 예로, 전자 장치의 디폴트 상태에서 인터럽션 이벤트의 생성을 위한 전자 장치의 상태로 변경되고, 변경된 상태가 임계 시간 이상 지속되는 경우, 인터럽션 이벤트가 생성될 수 있다. 일 예로, 변경된 상태가 임계 시간 미만 지속된 후 다시 디폴트 상태로 변경되는 경우, 인터럽션 이벤트가 생성되지 않을 수 있다.Operation 320 according to an embodiment may include generating an interruption event based on the duration of the state of the electronic device. For example, when the default state of the electronic device is changed to the state of the electronic device for generating an interruption event, and the changed state continues for more than a threshold time, an interruption event may be generated. As an example, if the changed state lasts for less than a threshold time and then changes back to the default state, an interruption event may not be generated.

일 실시 예에 따른 동작(320)은 사용자의 상태에 기초하여, 인터럽션 이벤트를 생성하는 동작을 포함할 수 있다. 인터럽션 이벤트의 생성을 위한 사용자의 상태는 사용자의 디폴트 상태와 구분되는 상태에 해당할 수 있다. 사용자의 디폴트 상태는 전자 장치를 사용하는 사용자의 일반적인 상태를 의미할 수 있다. 일 예로, 인터럽션 이벤트의 생성을 위한 사용자의 상태는 전자 장치에서 획득된 사용자의 생체 신호에 기초하여 판단되는 상태를 포함할 수 있다.Operation 320 according to one embodiment may include generating an interruption event based on the user's state. The user's state for generating an interruption event may correspond to a state that is distinct from the user's default state. The user's default state may refer to the user's general state of using the electronic device. As an example, the user's state for generating an interruption event may include a state determined based on the user's biosignal obtained from the electronic device.

일 실시 예에 따르면, 전자 장치에서 획득된 사용자의 생체 신호에 기초하여 판단되는 상태는 전자 장치에서 획득된 사용자의 심박수, 움직임 속도와 같은 생체 신호가 사용자의 일반적인 상태에서 측정되는 생체 신호의 범위를 벗어난 상태를 포함할 수 있다. 일 예로, 전자 장치는 획득된 사용자의 생체 신호에 기초하여 사용자의 수면 여부를 판단할 수 있다. 생체 신호 분석 결과 사용자가 수면 상태인 것으로 판단된 경우, 인터럽션 이벤트가 생성될 수 있다. According to one embodiment, the state determined based on the user's biosignals obtained from the electronic device is the range of biosignals measured in the user's general state, such as the user's heart rate and movement speed obtained from the electronic device. It may include out-of-state conditions. As an example, the electronic device may determine whether the user is asleep based on the user's acquired biosignals. If it is determined that the user is in a sleeping state as a result of bio-signal analysis, an interruption event may be generated.

일 실시 예에 따르면, 전자 장치에서 획득된 사용자의 생체 신호는 전자 장치에 포함된 센서(예: 도 1의 센서 모듈(176))에서 측정된 생체 신호를 포함할 수 있다. 전자 장치는 PPG(photoplethysmography) 센서, ECG(electrocardiogram) 센서와 같은 생체 신호의 측정을 위한 센서를 포함할 수 있다.According to one embodiment, the user's biosignal acquired from the electronic device may include the biosignal measured by a sensor included in the electronic device (eg, the sensor module 176 of FIG. 1). The electronic device may include a sensor for measuring biological signals, such as a photoplethysmography (PPG) sensor or an electrocardiogram (ECG) sensor.

일 실시 예에 따르면, 전자 장치에서 획득된 사용자의 생체 신호는 전자 장치와 연동된 외부 장치(예: 도 1의 전자 장치(102) 또는 도 1의전자 장치(104))로부터 수신된 생체 신호를 포함할 수 있다. 전자 장치와 연동된 외부 장치는 전자 장치와 데이터를 교환할 수 있는 전자 장치로, 예를 들어 전자 장치와 연동된 웨어러블 디바이스(예: 스마트 워치)를 포함할 수 있다. 전자 장치는 전자 장치와 연동된 외부 장치의 생체 센서로부터 측정된 사용자의 생체 신호를 수신할 수 있다.According to one embodiment, the user's biosignal acquired from the electronic device is a biosignal received from an external device (e.g., the electronic device 102 of FIG. 1 or the electronic device 104 of FIG. 1) linked to the electronic device. It can be included. An external device linked to an electronic device is an electronic device that can exchange data with the electronic device, and may include, for example, a wearable device (eg, a smart watch) linked to the electronic device. The electronic device may receive the user's biometric signal measured from a biometric sensor of an external device linked to the electronic device.

일 실시 예에 따르면, 인터럽션 이벤트의 생성을 위한 사용자의 상태는 전자 장치에서 획득된 사용자의 변위에 기초하여 판단되는 상태를 포함할 수 있다. 일 예로, 전자 장치에서 획득된 사용자의 변위는 상술한 전자 장치의 변위를 포함할 수 있다. 일 예로, 전자 장치에서 획득된 사용자의 변위는 전자 장치와 연동된 외부 장치의 변위를 포함할 수 있다. 예를 들어, 전자 장치와 연동된 웨어러블 디바이스의 위치 센서에 의해 측정된 웨어러블 디바이스의 변위는 사용자의 변위로 간주될 수 있다. 전자 장치와 연동된 외부 장치의 변위가 임계 값 이상인 경우, 사용자가 넘어지는 상황과 같은 특수한 상황으로 판단될 수 있다. 이 경우, 인터럽션 이벤트가 생성될 수 있다.According to one embodiment, the user's state for generating an interruption event may include a state determined based on the user's displacement obtained from the electronic device. As an example, the user's displacement obtained from the electronic device may include the displacement of the electronic device described above. As an example, the user's displacement obtained from the electronic device may include the displacement of an external device linked to the electronic device. For example, the displacement of the wearable device measured by the position sensor of the wearable device linked to the electronic device may be regarded as the user's displacement. If the displacement of an external device linked to an electronic device is greater than a threshold, it may be determined to be a special situation, such as a situation in which a user falls. In this case, an interruption event may be generated.

일 실시 예에 따른 동작(320)은 전자 장치의 상태의 지속 시간에 기초하여 인터럽션 이벤트를 생성하는 동작을 포함할 수 있다. 일 예로, 사용자의 디폴트 상태에서 인터럽션 이벤트의 생성을 위한 사용자의 상태로 변경되고, 변경된 상태가 임계 시간 이상 지속되는 경우, 인터럽션 이벤트가 생성될 수 있다. 일 예로, 변경된 상태가 임계 시간 미만 지속된 후 다시 디폴트 상태로 변경되는 경우, 인터럽션 이벤트가 생성되지 않을 수 있다.Operation 320 according to an embodiment may include generating an interruption event based on the duration of the state of the electronic device. For example, when the user's default state is changed to the user's state for generating an interruption event, and the changed state continues for more than a threshold time, an interruption event may be generated. As an example, if the changed state lasts for less than a threshold time and then changes back to the default state, an interruption event may not be generated.

일 실시 예에 따르면, 인터럽션 이벤트를 생성하는 동작(320)은 검출된 상태에 대한 응답 수신 여부에 기초하여, 인터럽션 이벤트를 생성하는 동작을 포함할 수 있다. 검출된 상태에 대한 응답 수신 여부에 기초하여, 인터럽션 이벤트를 생성하는 동작에 관하여는 이하의 도 5a를 통해 상술한다.According to one embodiment, the operation 320 of generating an interruption event may include generating an interruption event based on whether a response to the detected state is received. The operation of generating an interruption event based on whether a response to the detected state is received will be described in detail with reference to FIG. 5A below.

일 실시 예에 따르면, 인터럽션 이벤트를 생성하는 동작(320)은 검출된 상태의 반영에 대한 어플리케이션의 설정에 기초하여, 인터럽션 이벤트를 생성하는 동작을 포함할 수 있다. 검출된 상태의 반영에 대한 어플리케이션의 설정에 기초하여, 인터럽션 이벤트를 생성하는 동작에 관하여는 이하의 도 5b를 통해 상술한다.According to one embodiment, the operation 320 of generating an interruption event may include an operation of generating an interruption event based on settings of an application for reflection of a detected state. The operation of generating an interruption event based on the application's settings for reflection of the detected state will be described in detail with reference to FIG. 5B below.

일 실시 예에 따른 전자 장치의 동작 방법은 인터럽션 이벤트에 기초하여, 아바타의 표시를 변경하는 동작(330)을 포함할 수 있다. A method of operating an electronic device according to an embodiment may include an operation 330 of changing the display of an avatar based on an interruption event.

일 실시 예에 따르면, 아바타의 표시를 변경하는 동작(330)은 아바타의 모션을 변경하는 동작을 포함할 수 있다. 아바타의 모션은 아바타의 대화를 나누는 모션에서 생성된 인터럽션 이벤트에 대응하는 모션으로 변경될 수 있다. 예를 들어, 전자 장치에서 적어도 하나 이상의 어플리케이션이 실행되는 상태로 인해 인터럽션 이벤트가 생성된 경우, 아바타의 모션은 휴대폰을 보는 모션, 대화 상대방이 아닌 다른 곳을 바라보는 모션과 같이 대화에 참여하고 있지 않음을 지시하는 모션으로 변경될 수 있다. 예를 들어, 전자 장치에서 호 연결이 수립된 상태로 인해 인터럽션 이벤트가 생성된 경우, 아바타의 모션은 통화하는 모션으로 변경될 수 있다. According to one embodiment, the operation 330 of changing the display of the avatar may include an operation of changing the motion of the avatar. The motion of the avatar can be changed from the motion of the avatar having a conversation to a motion corresponding to the generated interruption event. For example, if an interruption event is generated due to the state of at least one application running on the electronic device, the avatar's motion may participate in the conversation, such as a motion of looking at the mobile phone or a motion of looking somewhere other than the conversation partner. It can be changed to a motion indicating that it is not there. For example, if an interruption event is generated due to a call connection being established in the electronic device, the avatar's motion may be changed to a calling motion.

일 실시 예에 따르면, 아바타의 표시를 변경하는 동작(330)은 아바타에 대응하는 시각적 요소를 부가하는 동작을 포함할 수 있다. 시각적 요소는 아바타에 대응하는 전자 장치에서 발생한 인터럽션 이벤트에 관한 정보를 전달하기 위하여 아바타의 주변 혹은 아바타에 인접하여 부가되는 시각적 요소(예: 아이콘, 텍스트 메시지, 특수 효과)를 포함할 수 있다. 예를 들어, 아바타의 주변에 인터럽션 이벤트에 관한 정보를 전달하기 위한 메시지가 표시되거나, 아바타의 모션을 설명하기 위한 보조적 아이콘이 아바타에 인접하여 부가될 수 있다.According to one embodiment, the operation 330 of changing the display of the avatar may include adding a visual element corresponding to the avatar. Visual elements may include visual elements (e.g., icons, text messages, special effects) added around or adjacent to the avatar to convey information about an interruption event that occurred in an electronic device corresponding to the avatar. For example, a message to convey information about an interruption event may be displayed around the avatar, or an auxiliary icon to explain the avatar's motion may be added adjacent to the avatar.

일 실시 예에 따르면, 아바타의 표시를 변경하는 동작(330)은 아바타의 표시 방식을 변경하는 동작을 포함할 수 있다. 아바타의 표시 방식은 아바타에 대응하는 전자 장치에서 발생한 인터럽션 이벤트에 관한 정보를 전달하기 위하여 아바타의 크기, 아바타의 투명도, 아바타의 색상의 설정을 변경하는 것을 의미할 수 있다. 예를 들어, 전자 장치의 화면이 꺼진 상태, 전자 장치의 전원이 꺼진 상태 혹은 전자 장치의 네트워크 접속이 끊긴 상태와 같은 전자 장치의 어플리케이션 실행이 중단된 상태로 인해 인터럽션 이벤트가 생성된 경우, 아바타를 이용한 사용자의 대화 참여가 어려움을 알리기 위해 아바타의 투명도가 높아지도록 아바타의 표시 방식이 변경될 수 있다.According to one embodiment, the operation 330 of changing the display of the avatar may include changing the display method of the avatar. The avatar display method may mean changing the settings of the avatar's size, avatar's transparency, and avatar's color to convey information about an interruption event that occurred in an electronic device corresponding to the avatar. For example, when an interruption event is generated due to a state in which the application execution of the electronic device is interrupted, such as the screen of the electronic device is turned off, the electronic device is turned off, or the electronic device is disconnected from the network, the avatar The display method of the avatar may be changed to increase the transparency of the avatar to inform users of the difficulty in participating in conversations using .

일 실시 예에 따른 인터럽션 이벤트의 생성에 의해 아바타의 표시가 변경되는 구체적인 예시는 이하의 도 8 내지 도 16을 통해 상술한다.A specific example in which the display of an avatar is changed due to the creation of an interruption event according to an embodiment will be described in detail with reference to FIGS. 8 to 16 below.

일 실시 예에 따른 전자 장치의 동작 방법은 변경된 아바타의 표시에 대응하여 어플리케이션을 이용하여 수신되는 제어 신호에 기초하여, 전자 장치의 동작을 제어하는 동작(340)을 포함할 수 있다.A method of operating an electronic device according to an embodiment may include an operation 340 of controlling the operation of the electronic device based on a control signal received using an application in response to the display of a changed avatar.

일 실시 예에 따르면, 제어 신호는 어플리케이션을 실행한 외부 전자 장치로부터 아바타의 변경된 표시에 대응하여 외부 전자 장치에 수신된 입력에 기초하여 발생할 수 있다. 일 예로, 어플리케이션을 실행한 외부 전자 장치로부터 아바타의 변경된 표시에 대응하여 외부 전자 장치에 수신된 입력은 외부 장치에 표시된 아바타를 선택하는 입력을 포함할 수 있다. 일 예로, 어플리케이션을 실행한 외부 전자 장치로부터 아바타의 변경된 표시에 대응하여 외부 장치에 수신된 입력은 아바타에 대응하여 제공된 인터페이스 객체를 이용하여 수신되는 입력을 포함할 수 있다. 전자 장치의 제어 신호의 발생에 관하여는 이하에서 상술한다.According to one embodiment, a control signal may be generated based on an input received from an external electronic device executing an application in response to a changed display of an avatar. As an example, an input received by the external electronic device in response to a changed display of the avatar from the external electronic device executing the application may include an input for selecting the avatar displayed on the external device. As an example, input received from an external electronic device executing an application to an external device in response to a changed display of the avatar may include input received using an interface object provided corresponding to the avatar. Generation of control signals of electronic devices will be described in detail below.

일 실시 예에 따르면, 전자 장치의 동작을 제어하는 동작(340)은 전자 장치에 설치된 적어도 하나 이상의 어플리케이션을 실행하는 동작을 포함할 수 있다. 예를 들어, 외부 전자 장치로부터 인터럽션 이벤트가 발생한 전자 장치에 호 연결을 요청하는 입력이 수신될 수 있다. 전자 장치는 수신된 호 연결 요청 입력에 반응하여, 통화 어플리케이션이 실행되도록 전자 장치의 동작이 제어될 수 있다.According to one embodiment, the operation 340 of controlling the operation of the electronic device may include executing at least one application installed on the electronic device. For example, an input requesting a call connection to the electronic device where an interruption event occurred may be received from an external electronic device. The electronic device may control the operation of the electronic device to execute a call application in response to a received call connection request input.

일 실시 예에 따르면, 전자 장치의 동작을 제어하는 동작(340)은 전자 장치에 알림 신호를 전송하는 동작을 포함할 수 있다. 예를 들어, 외부 전자 장치로부터 인터럽션 이벤트가 발생한 전자 장치에 알림 신호의 전송을 요청하는 입력이 수신될 수 있다. 수신된 알림 신호 전송 요청 입력에 반응하여, 전자 장치에 진동이 발생하거나, 알림음이 발생하거나, 얼럿(alert) 메시지가 표시되거나, 문자 메시지가 전송되거나, 어플리케이션을 이용하여 채팅 메시지가 전송되도록 전자 장치의 동작이 제어될 수 있다.According to one embodiment, the operation 340 of controlling the operation of the electronic device may include transmitting a notification signal to the electronic device. For example, an input requesting transmission of a notification signal to the electronic device in which an interruption event occurred may be received from an external electronic device. In response to a received notification signal transmission request input, the electronic device vibrates, makes a notification sound, displays an alert message, sends a text message, or sends a chat message using an application. The operation of the device can be controlled.

일 실시 예에 따른 전자 장치의 동작 방법은 인터럽션 이벤트의 종료에 반응하여, 아바타의 표시를 복원하는 동작을 포함할 수 있다. 인터럽션 이벤트의 생성을 유발한 전자 장치의 상태 혹은 사용자의 상태가 디폴트 상태로 다시 변경되는 경우, 인터럽션 이벤트가 종료된 것으로 인식될 수 있다. 인터럽션 이벤트의 종료가 검출된 경우, 아바타의 변경된 표시가 변경되기 이전의 표시로 복원될 수 있다. 예를 들어, 아바타의 모션이 대화를 나누는 모션으로 다시 변경될 수 있다. 예를 들어, 아바타 주변에 인터럽션 이벤트에 관한 정보를 전달하기 위하여 부가된 시각적 요소가 제거될 수 있다. 예를 들어, 아바타의 높아진 투명도가 다시 디폴트 값으로 낮아질 수 있다.A method of operating an electronic device according to an embodiment may include restoring the display of an avatar in response to the end of an interruption event. When the state of the electronic device that caused the generation of the interruption event or the state of the user changes back to the default state, the interruption event may be recognized as having ended. When the end of the interruption event is detected, the changed display of the avatar may be restored to the display before the change. For example, the avatar's motion can be changed back to a conversational motion. For example, visual elements added to convey information about an interruption event around the avatar may be removed. For example, the increased transparency of the avatar can be lowered back to the default value.

도 5a는 일 실시 예에 따른 전자 장치의 인터럽션 이벤트 생성 동작의 흐름도이다.FIG. 5A is a flowchart of an interruption event generation operation of an electronic device according to an embodiment.

도 5a를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101))는 인터럽션 이벤트 생성(513)을 위한 조건으로 인터럽션 이벤트 생성을 위한 상태의 검출 여부를 판단(511)할 수 있다. 인터럽션 이벤트 생성을 위한 상태는 도 3을 통해 상술한 인터럽션 이벤트의 생성을 위한 전자 장치의 상태를 포함할 수 있다. 인터럽션 이벤트 생성을 위한 상태는 도 3을 통해 상술한 인터럽션 이벤트의 생성을 위한 사용자의 상태를 포함할 수 있다. Referring to FIG. 5A, an electronic device (e.g., the electronic device 101 of FIG. 1) according to an embodiment determines whether a state for generating an interruption event is detected as a condition for generating an interruption event 513 ( 511) You can. The state for generating an interruption event may include the state of the electronic device for generating the interruption event described above with reference to FIG. 3 . The state for generating an interruption event may include the user's state for generating the interruption event described above with reference to FIG. 3 .

일 실시 예에 따르면, 전자 장치는 인터럽션 이벤트 생성을 위한 상태가 검출된 것으로 판단한 경우, 인터럽션 이벤트 생성을 위한 조건으로 검출된 상태에 대한 응답 수신 여부를 판단(512)할 수 있다. 인터럽션 이벤트 생성을 위한 상태는 사용자의 응답을 요구하는 상태를 포함할 수 있다. 예를 들어, 전자 장치에서 호 연결 요청이 수신된 상태는 인터럽션 이벤트 생성을 위한 상태에 해당할 수 있다. 호 연결 요청이 수신된 상태는 호 연결 요청에 대한 응답을 요구하는 상태에 해당할 수 있다.According to one embodiment, when the electronic device determines that a state for generating an interruption event has been detected, it may determine whether to receive a response to the state detected as a condition for generating an interruption event (512). The state for generating an interruption event may include a state requiring a user response. For example, a state in which a call connection request is received from an electronic device may correspond to a state for generating an interruption event. The state in which the call connection request is received may correspond to a state requiring a response to the call connection request.

일 실시 에에 따르면, 전자 장치는 검출된 상태에 대한 응답이 수신된 것으로 판단된 경우, 인터럽션 이벤트를 생성(513)할 수 있다. 예를 들어, 전자 장치에 호 연결 요청이 수신된 상태가 검출되고, 호 연결 요청에 대한 응답이 수신된 경우, 전자 장치는 인터럽션 이벤트를 생성(513)할 수 있다.According to one embodiment, when it is determined that a response to the detected state has been received, the electronic device may generate an interruption event (513). For example, when a state in which a call connection request has been received is detected by the electronic device and a response to the call connection request is received, the electronic device may generate an interruption event (513).

일 실시 예에 따르면, 전자 장치는 검출된 상태에 대한 응답이 수신되지 않은 것으로 판단된 경우, 인터럽션 이벤트를 생성하지 않을 수 있다. According to one embodiment, if it is determined that a response to the detected state has not been received, the electronic device may not generate an interruption event.

도 5b는 일 실시 예에 따른 전자 장치의 인터럽션 이벤트 생성 동작의 흐름도이다.FIG. 5B is a flowchart of an interruption event generation operation of an electronic device according to an embodiment.

도 5b를 참조하면, 일 실시 예에 따른 전자 장치(예: 도 1의 전자 장치(101))는 인터럽션 이벤트 생성(523)을 위한 조건으로 인터럽션 이벤트 생성을 위한 상태의 검출 여부를 판단(521)할 수 있다. 인터럽션 이벤트 생성을 위한 상태는 도 3을 통해 상술한 인터럽션 이벤트의 생성을 위한 전자 장치의 상태를 포함할 수 있다. 인터럽션 이벤트 생성을 위한 상태는 도 3을 통해 상술한 인터럽션 이벤트의 생성을 위한 사용자의 상태를 포함할 수 있다. Referring to FIG. 5B, an electronic device (e.g., the electronic device 101 of FIG. 1) according to an embodiment determines whether a state for generating an interruption event is detected as a condition for generating an interruption event (523). 521) You can. The state for generating an interruption event may include the state of the electronic device for generating the interruption event described above with reference to FIG. 3 . The state for generating an interruption event may include the user's state for generating the interruption event described above with reference to FIG. 3 .

일 실시 예에 따르면, 전자 장치는 인터럽션 이벤트 생성을 위한 상태가 검출된 것으로 판단한 경우, 인터럽션 이벤트 생성을 위한 조건으로 검출된 상태를 반영하는 설정의 존재 여부를 판단(522)할 수 있다. 가상 공간 어플리케이션은 전자 장치에서 검출된 상태를 반영하여 아바타의 표시를 변경할지 여부의 설정을 포함할 수 있다. 일 예로, 어플리케이션에 인터럽션 이벤트 생성을 위한 상태 중 제1 상태는 반영하는 것으로 설정될 수 있다. 일 예로, 어플리케이션에 인터럽션 이벤트 생성을 위한 상태 중 제2 상태는 반영하지 않는 것으로 설정될 수 있다.According to one embodiment, when the electronic device determines that a state for generating an interruption event has been detected, it may determine whether a setting reflecting the detected state as a condition for generating an interruption event exists (522). The virtual space application may include a setting for whether to change the display of the avatar to reflect the state detected by the electronic device. As an example, the first state among the states for generating an interruption event in the application may be set to reflect. As an example, the second state among the states for generating an interruption event in the application may be set not to be reflected.

일 실시 예에 따르면, 전자 장치는 검출된 상태를 반영하는 설정이 있는 것으로 판단된 경우, 아바타의 표시 변경을 발생시키는 인터럽션 이벤트를 생성(523)할 수 있다. 예를 들어, 제1 상태가 검출되고, 어플리케이션에 제1 상태를 반영하는 설정이 있는 경우, 전자 장치는 제1 상태가 검출됨에 따라 아바타의 표시 변경을 발생시키는 인터럽션 이벤트를 생성(523)할 수 있다.According to one embodiment, if it is determined that there is a setting that reflects the detected state, the electronic device may generate an interruption event that changes the display of the avatar (523). For example, if a first state is detected and the application has settings that reflect the first state, the electronic device may generate (523) an interruption event that causes the display of the avatar to change as the first state is detected. You can.

일 실시 예에 따르면, 전자 장치는 검출된 상태를 반영하는 설정이 없는 것으로 판단된 경우, 아바타의 표시 변경을 발생시키는 인터럽션 이벤트를 생성하지 않을 수 있다. 예를 들어, 제2 상태가 검출되고, 어플리케이션에 제2 상태를 반영하는 설정이 없거나, 제2 상태를 반영하지 않는 것으로 설정된 경우, 전자 장치는 제2 상태가 검출됨에 따라 아바타의 표시 변경을 발생시키는 인터럽션 이벤트를 생성하지 않을 수 있다.According to one embodiment, if it is determined that there are no settings reflecting the detected state, the electronic device may not generate an interruption event that causes a display change of the avatar. For example, when a second state is detected, and the application does not have a setting to reflect the second state or is set not to reflect the second state, the electronic device changes the display of the avatar as the second state is detected. The command may not generate an interruption event.

도 6은 일 실시 예에 따른 가상 공간 대화 시스템의 동작을 설명하기 위한 도면이다.Figure 6 is a diagram for explaining the operation of a virtual space conversation system according to an embodiment.

일 실시 예에 따르면, 가상 공간 대화 시스템은 서버(603)(예: 도 1의 서버(108)) 및 전자 장치(예: 도 1의 전자 장치(101))를 포함할 수 있다. 전자 장치는 가상 공간 어플리케이션이 설치된 제1 전자 장치(601) 및 제2 전자 장치(602)를 포함할 수 있다. 서버(603)는 전자 장치(601,602)에 설치된 가상 공간 어플리케이션을 이용하여 대화 서비스를 제공할 수 있다. 제1 전자 장치(601) 및 제2 전자 장치(602)는 가상 공간 어플리케이션을 실행하여, 서버(603)에서 제공하는 가상 공간에 접속할 수 있다. 제1 전자 장치(601) 및 제2 전자 장치(602)는 어플리케이션을 이용하여 서버(603)와 데이터를 송수신할 수 있다.According to one embodiment, the virtual space conversation system may include a server 603 (eg, server 108 in FIG. 1) and an electronic device (eg, electronic device 101 in FIG. 1). The electronic device may include a first electronic device 601 and a second electronic device 602 on which a virtual space application is installed. The server 603 may provide a conversation service using a virtual space application installed on the electronic devices 601 and 602. The first electronic device 601 and the second electronic device 602 can run a virtual space application and access the virtual space provided by the server 603. The first electronic device 601 and the second electronic device 602 can transmit and receive data with the server 603 using an application.

일 실시 에에 따르면, 제1 전자 장치(601)는 도 3을 통해 상술한 동작 방법에 따라 동작하는 전자 장치에 해당할 수 있다. 다시 말해, 제1 전자 장치(601)는 인터럽션 이벤트를 생성한 전자 장치 혹은 인터럽션 이벤트가 발생한 전자 장치에 해당할 수 있다. 제2 전자 장치(602)는 제1 전자 장치(601)와 구분되는 전자 장치로, 제2 전자 장치(602)에 대응하는 아바타는 가상 공간에서 제1 전자 장치(601)에 대응하는 아바타와 상호작용할 수 있다.According to one embodiment, the first electronic device 601 may correspond to an electronic device that operates according to the operation method described above with reference to FIG. 3. In other words, the first electronic device 601 may correspond to the electronic device that generated the interruption event or the electronic device in which the interruption event occurred. The second electronic device 602 is an electronic device that is distinct from the first electronic device 601, and the avatar corresponding to the second electronic device 602 interacts with the avatar corresponding to the first electronic device 601 in virtual space. It can work.

일 실시 예에 따르면, 제1 전자 장치(601)는 인터럽션 이벤트를 생성(610)할 수 있다. 인터럽션 이벤트를 생성하는 동작(610)은 도 3의 동작(320)에 대응될 수 있다. 제1 전자 장치(601)에서 생성된 인터럽션 이벤트는 서버(603)로 로드(620)될 수 있다. 다시 말해, 제1 전자 장치(601)에서 인터럽션 이벤트가 발생하였음을 지시하는 신호가 서버(603)에 전송될 수 있다.According to one embodiment, the first electronic device 601 may generate an interruption event (610). Operation 610 of generating an interruption event may correspond to operation 320 of FIG. 3 . The interruption event generated in the first electronic device 601 may be loaded 620 into the server 603. In other words, a signal indicating that an interruption event has occurred in the first electronic device 601 may be transmitted to the server 603.

일 실시 예에 따르면, 서버(603)는 인터럽션 이벤트를 검출(630)할 수 있다. 인터럽션 이벤트를 검출(630)하는 것은 제1 전자 장치(601)에서 수신된 신호에 기초하여, 제1 전자 장치(601)에서 인터럽션 이벤트가 발생하였음을 인식하는 것을 의미할 수 있다. 서버(603)는 인터럽션 이벤트의 검출(630)에 반응하여, 인터럽션 이벤트가 발생한 제1 전자 장치(601)에 대응하는 아바타의 표시를 변경하도록 어플리케이션을 실행한 전자 장치(예: 601, 602)를 제어(640, 650)할 수 있다. 어플리케이션을 실행한 전자 장치는 제1 전자 장치(601) 및 제2 전자 장치(602)를 포함할 수 있다.According to one embodiment, the server 603 may detect (630) an interruption event. Detecting an interruption event 630 may mean recognizing that an interruption event has occurred in the first electronic device 601, based on a signal received from the first electronic device 601. The server 603 responds to the detection 630 of the interruption event, and sends the electronic device executing the application to change the display of the avatar corresponding to the first electronic device 601 where the interruption event occurred (e.g., 601, 602). ) can be controlled (640, 650). The electronic device executing the application may include a first electronic device 601 and a second electronic device 602.

일 실시 예에 따르면, 제2 전자 장치(602)는 인터럽션 이벤트에 대응하는 인터페이스 객체를 표시(660)할 수 있다. 인터페이스 객체는 사용자로부터 입력을 수신하여, 그에 대응되는 액션을 출력하도록 구현된 인터페이스에 포함되는 객체로, 예를 들어 버튼, 입력창, 표시창을 포함할 수 있다. 제2 전자 장치(602)를 통해 출력되는 가상 공간의 투영면을 표시하는 인터페이스는 제1 전자 장치(601)에서 발생한 인터럽션 이벤트에 대응하는 인터페이스 객체를 포함할 수 있다. 인터럽션 이벤트에 대응하는 인터페이스 객체를 이용하여 인터럽션 이벤트가 발생한 전자 장치의 동작 제어 요청이 발생할 수 있다. 예를 들어, 인터럽션 이벤트에 대응하는 인터페이스 객체는 제1 전자 장치(601)에서 적어도 하나 이상의 어플리케이션을 실행할 것을 요청하기 위한 버튼, 제1 전자 장치(601)에 알림 신호를 전송하기 위한 버튼, 제1 전자 장치(601)에 전송될 메시지를 입력하기 위한 메시지 입력창을 포함할 수 있다. According to one embodiment, the second electronic device 602 may display (660) an interface object corresponding to an interruption event. An interface object is an object included in an interface implemented to receive input from a user and output a corresponding action, and may include, for example, a button, an input window, and a display window. The interface displaying the projection surface of the virtual space output through the second electronic device 602 may include an interface object corresponding to an interruption event that occurred in the first electronic device 601. A request to control the operation of the electronic device in which the interruption event occurred may be made using the interface object corresponding to the interruption event. For example, the interface object corresponding to the interruption event may include a button for requesting execution of at least one application on the first electronic device 601, a button for transmitting a notification signal to the first electronic device 601, and a button for transmitting a notification signal to the first electronic device 601. 1 It may include a message input window for entering a message to be transmitted to the electronic device 601.

일 실시 예에 따르면, 인터페이스 객체를 통해 제2 전자 장치(602)로부터 제1 전자 장치(601)의 동작 제어 요청이 서버(603)에 전송(670)될 수 있다. 서버(603)는 수신된 동작 제어 요청에 반응하여, 제1 전자 장치(601)에 동작 제어 신호를 전송(680)할 수 있다.According to one embodiment, a request to control the operation of the first electronic device 601 may be transmitted (670) from the second electronic device 602 to the server 603 through an interface object. The server 603 may transmit (680) an operation control signal to the first electronic device 601 in response to the received operation control request.

일 실시 예에 따르면, 제1 전자 장치(601)는 수신된 동작 제어 신호에 반응하여, 제1 전자 장치(601)의 동작을 제어할 수 있다.According to one embodiment, the first electronic device 601 may control the operation of the first electronic device 601 in response to a received operation control signal.

도 7은 일 실시 예에 따른 가상 공간 대화 시스템의 동작을 설명하기 위한 도면이다.Figure 7 is a diagram for explaining the operation of a virtual space conversation system according to an embodiment.

도 7에 도시된 서버(603), 제1 전자 장치(601) 및 제2 전자 장치(602)는 도 6에서 상술한 서버(603), 제1 전자 장치(601) 및 제2 전자 장치(602)에 대응될 수 있다.The server 603, the first electronic device 601, and the second electronic device 602 shown in FIG. 7 are the server 603, the first electronic device 601, and the second electronic device 602 described above in FIG. 6. ) can correspond to.

도 7을 참조하면, 일 실시 예에 따른 제1 전자 장치(601)에서 생성된 인터럽션 이벤트가 종료(710)될 수 있다. 제1 전자 장치(601)에서 발생한 인터럽션 이벤트의 종료 신호는 서버(603)로 로드(720)될 수 있다. 다시 말해, 제1 전자 장치(601)에서 인터럽션 이벤트가 종료하였음을 지시하는 신호가 서버(603)에 전송될 수 있다.Referring to FIG. 7 , an interruption event generated in the first electronic device 601 according to an embodiment may be terminated (710). The end signal of the interruption event occurring in the first electronic device 601 may be loaded 720 into the server 603. In other words, a signal indicating that the interruption event has ended may be transmitted from the first electronic device 601 to the server 603.

일 실시 예에 따르면, 서버(603)는 인터럽션 이벤트의 종료를 검출(730)할 수 있다. 인터럽션 이벤트의 종료를 검출(730)하는 것은 제1 전자 장치(601)에서 수신된 신호에 기초하여, 제1 전자 장치(601)에서 인터럽션 이벤트가 종료되었음을 인식하는 것을 의미할 수 있다. 서버(603)는 인터럽션 이벤트의 종료 검출(730)에 반응하여, 제1 전자 장치(601)에 대응하는 아바타의 표시를 변경하도록 어플리케이션을 실행한 전자 장치(예: 601, 602)를 제어(740, 750)할 수 있다. 어플리케이션을 실행한 전자 장치는 제1 전자 장치(601) 및 제2 전자 장치(602)를 포함할 수 있다. 인터럽션 이벤트가 종료된 경우, 인터럽션 이벤트의 생성으로 인해 변경된 제1 전자 장치(601)에 대응하는 아바타의 표시는 다시 인터럽션 이벤트가 생성되기 이전의 표시로 복원될 수 있다.According to one embodiment, the server 603 may detect the end of the interruption event (730). Detecting the end of the interruption event (730) may mean recognizing that the interruption event has ended in the first electronic device 601, based on a signal received from the first electronic device 601. The server 603 controls the electronic device (e.g., 601, 602) executing the application to change the display of the avatar corresponding to the first electronic device 601 in response to detection 730 of the end of the interruption event ( 740, 750) can be done. The electronic device executing the application may include a first electronic device 601 and a second electronic device 602. When the interruption event ends, the display of the avatar corresponding to the first electronic device 601 that has changed due to the generation of the interruption event may be restored to the display before the interruption event was generated.

일 실시 예에 따르면, 서버(603)는 어플리케이션을 통해 가상 공간에서 아바타를 통한 대화 서비스를 제공하는 서버(603)를 포함할 수 있다.According to one embodiment, the server 603 may include a server 603 that provides a conversation service through an avatar in a virtual space through an application.

일 예로, 서버(603)의 동작 방법은 어플리케이션을 실행한 제1 전자 장치(601)에서 발생한 인터럽션 이벤트를 검출하는 동작을 포함할 수 있다.As an example, the operating method of the server 603 may include detecting an interruption event that occurred in the first electronic device 601 executing the application.

일 예로, 서버(603)의 동작 방법은 검출된 인터럽션 이벤트에 기초하여, 제1 전자 장치(601)에 대응하는 아바타의 표시를 변경하도록 어플리케이션을 실행한 전자 장치를 제어하는 동작을 포함할 수 있다. 어플리케이션을 실행한 전자 장치는 제1 전자 장치(601) 및 제2 전자 장치(602)를 포함할 수 있다.As an example, the operating method of the server 603 may include controlling the electronic device executing the application to change the display of the avatar corresponding to the first electronic device 601 based on the detected interruption event. there is. The electronic device executing the application may include a first electronic device 601 and a second electronic device 602.

일 예로, 서버(603)의 동작 방법은 어플리케이션을 실행한 제2 전자 장치(602)로부터 아바타의 변경된 표시에 대응하는 제1 전자 장치(601)의 동작 제어를 요청하는 입력을 수신하는 동작을 포함할 수 있다.As an example, the operating method of the server 603 includes receiving an input requesting control of the operation of the first electronic device 601 corresponding to the changed display of the avatar from the second electronic device 602 executing the application. can do.

일 예로, 서버(603)의 동작 방법은 수신된 입력에 기초하여, 제1 전자 장치(601)에 제어 신호를 전송하는 동작을 포함할 수 있다.As an example, a method of operating the server 603 may include transmitting a control signal to the first electronic device 601 based on a received input.

일 실시 예에 따른 어플리케이션을 실행한 전자 장치를 제어하는 동작은 아바타의 모션을 변경하도록 어플리케이션을 실행한 전자 장치를 제어하는 동작을 포함할 수 있다.The operation of controlling the electronic device running the application according to one embodiment may include controlling the electronic device running the application to change the motion of the avatar.

일 실시 예에 따른 어플리케이션을 실행한 전자 장치를 제어하는 동작은 아바타에 대응하는 시각적 요소를 부가하도록 어플리케이션을 실행한 전자 장치를 제어하는 동작을 포함할 수 있다.The operation of controlling the electronic device running the application according to one embodiment may include controlling the electronic device running the application to add a visual element corresponding to the avatar.

일 실시 예에 따른 어플리케이션을 실행한 전자 장치를 제어하는 동작은 아바타의 표시 방식을 변경하도록 어플리케이션을 실행한 전자 장치를 제어하는 동작을 포함할 수 있다.The operation of controlling the electronic device executing the application according to one embodiment may include controlling the electronic device executing the application to change the display method of the avatar.

일 실시 예에 따른 제1 전자 장치(601)에 제어 신호를 전송하는 동작은 제1 전자 장치(601)에 설치된 다른 어플리케이션을 실행하도록 제어하는 신호를 전송하는 동작을 포함할 수 있다.An operation of transmitting a control signal to the first electronic device 601 according to an embodiment may include transmitting a signal that controls execution of another application installed on the first electronic device 601.

일 실시 예에 따른 제1 전자 장치(601)에 제어 신호를 전송하는 동작은 제1 전자 장치(601)에 알림 신호를 전송하도록 제어하는 신호를 전송하는 동작을 포함할 수 있다.The operation of transmitting a control signal to the first electronic device 601 according to an embodiment may include transmitting a signal that controls transmission of a notification signal to the first electronic device 601.

일 실시 예에 따른 제1 전자 장치(601)의 제어를 위한 입력을 수신하는 동작은 아바타를 선택하는 입력을 수신하는 동작을 포함할 수 있다.An operation of receiving an input for controlling the first electronic device 601 according to an embodiment may include an operation of receiving an input of selecting an avatar.

일 실시 예에 따른 제1 전자 장치(601)의 제어를 위한 입력을 수신하는 동작은 아바타에 대응하여 제공된 인터페이스 객체를 통하여 제1 전자 장치(601)의 제어를 위한 입력을 수신하는 동작을 포함할 수 있다.The operation of receiving an input for controlling the first electronic device 601 according to an embodiment may include receiving an input for controlling the first electronic device 601 through an interface object provided corresponding to the avatar. You can.

일 실시 예에 따른 서버(603)의 동작 방법은 인터럽션 이벤트의 종료를 검출하는 동작을 포함할 수 있다.A method of operating the server 603 according to an embodiment may include detecting the end of an interruption event.

일 실시 예에 따른 서버(603)의 동작 방법은 인터럽션 이벤트의 종료에 반응하여, 아바타의 표시를 복원하는 동작을 포함할 수 있다.A method of operating the server 603 according to an embodiment may include restoring the display of the avatar in response to the end of an interruption event.

일 실시 예에 따른 어플리케이션을 통해 가상 공간에서 아바타를 통한 대화 서비스를 제공하는 서버(603)의 동작은 적어도 하나의 프로세서에 의해 수행될 수 있다.The operation of the server 603, which provides a conversation service through an avatar in a virtual space through an application according to an embodiment, may be performed by at least one processor.

일 예로, 서버(603)는 어플리케이션을 실행한 제1 전자 장치(601)에서 발생한 인터럽션 이벤트를 검출하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server 603 may include at least one processor that detects an interruption event occurring in the first electronic device 601 executing the application.

일 예로, 서버(603)는 검출된 인터럽션 이벤트에 기초하여, 제1 전자 장치(601)에 대응하는 아바타의 표시를 변경하도록 어플리케이션을 실행한 전자 장치를 제어하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server 603 may include at least one processor that controls the electronic device executing the application to change the display of the avatar corresponding to the first electronic device 601 based on the detected interruption event. there is.

일 예로, 서버(603)는 어플리케이션을 실행한 제2 전자 장치(602)로부터 아바타의 변경된 표시에 대응하는 제1 전자 장치(601)의 동작 제어를 요청하는 입력을 수신하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server 603 includes at least one processor that receives an input requesting control of the operation of the first electronic device 601 corresponding to the changed display of the avatar from the second electronic device 602 executing the application. can do.

일 예로, 서버(603)는 수신된 입력에 기초하여, 제1 전자 장치(601)에 제어 신호를 전송하는 적어도 하나의 프로세서를 포함할 수 있다.As an example, the server 603 may include at least one processor that transmits a control signal to the first electronic device 601 based on the received input.

일 실시 예에 따른 전자 장치는 컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리(예: 도 1의 메모리(130))를 포함할 수 있다.An electronic device according to an embodiment may include a memory (eg, memory 130 of FIG. 1 ) in which computer-executable instructions are stored.

일 실시 예에 따른 전자 장치는 메모리에 억세스(access)하여 명령어들을 실행하는 프로세서(예: 도 1의 프로세서(120))를 포함할 수 있다.An electronic device according to an embodiment may include a processor (eg, processor 120 of FIG. 1) that accesses memory and executes instructions.

일 실시 예에 따르면, 전자 장치는 제1 전자 장치(601)를 포함할 수 있다.According to one embodiment, the electronic device may include a first electronic device 601.

일 예로, 제1 전자 장치(601)의 메모리에 저장된 명령어들은, 가상 공간에서 아바타를 통해 다른 사용자와 대화 기능을 제공하는 어플리케이션을 실행하도록 구성될 수 있다.As an example, commands stored in the memory of the first electronic device 601 may be configured to execute an application that provides a conversation function with another user through an avatar in a virtual space.

일 예로, 제1 전자 장치(601)의 메모리에 저장된 명령어들은, 어플리케이션의 실행 중 검출된 제1 전자 장치(601)의 상태 및 제1 전자 장치(601)의 사용자의 상태 중 적어도 하나에 기초하여, 인터럽션 이벤트를 생성하도록 구성될 수 있다.As an example, the commands stored in the memory of the first electronic device 601 are based on at least one of the state of the first electronic device 601 and the state of the user of the first electronic device 601 detected during execution of the application. , may be configured to generate an interruption event.

일 예로, 제1 전자 장치(601)의 메모리에 저장된 명령어들은, 인터럽션 이벤트에 기초하여, 아바타의 표시를 변경하도록 구성될 수 있다.As an example, commands stored in the memory of the first electronic device 601 may be configured to change the display of the avatar based on an interruption event.

일 예로, 제1 전자 장치(601)의 메모리에 저장된 명령어들은, 변경된 아바타의 표시에 대응하여 어플리케이션을 통하여 수신되는 제어 신호에 기초하여, 제1 전자 장치(601)의 동작을 제어하도록 구성될 수 있다.As an example, commands stored in the memory of the first electronic device 601 may be configured to control the operation of the first electronic device 601 based on a control signal received through an application in response to the display of the changed avatar. there is.

일 예로, 제1 전자 장치(601)의 메모리에 저장된 명령어들은, 제1 전자 장치(601)에서 도 3을 통해 상술한 동작들(310, 320, 330, 340)을 수행하도록 구성될 수 있다.As an example, instructions stored in the memory of the first electronic device 601 may be configured to perform the operations 310, 320, 330, and 340 described above with reference to FIG. 3 in the first electronic device 601.

일 실시 예에 따르면, 전자 장치는 제2 전자 장치(602)를 포함할 수 있다.According to one embodiment, the electronic device may include a second electronic device 602.

일 예로, 제2 전자 장치(602)의 메모리에 저장된 명령어들은, 가상 공간에서 아바타를 이용하여 적어도 하나 이상의 사용자와 대화 기능을 제공하는 어플리케이션을 실행하도록 구성될 수 있다.As an example, commands stored in the memory of the second electronic device 602 may be configured to execute an application that provides a conversation function with at least one user using an avatar in a virtual space.

일 예로, 제2 전자 장치(602)의 메모리에 저장된 명령어들은, 제1 전자 장치(601)에서 발생한 인터럽션 이벤트에 기초하여, 제1 전자 장치(601)에 대응하는 아바타의 표시를 변경하도록 구성될 수 있다.As an example, the commands stored in the memory of the second electronic device 602 are configured to change the display of the avatar corresponding to the first electronic device 601 based on an interruption event that occurred in the first electronic device 601. It can be.

일 예로, 제2 전자 장치(602)의 메모리에 저장된 명령어들은, 인터럽션 이벤트에 대응하는 인터페이스 객체를 표시하도록 구성될 수 있다.As an example, commands stored in the memory of the second electronic device 602 may be configured to display an interface object corresponding to an interruption event.

일 예로, 제2 전자 장치(602)의 메모리에 저장된 명령어들은, 인터페이스 객체를 통해 수신된 입력에 기초하여, 제1 전자 장치(601)의 동작 제어를 요청하도록 구성될 수 있다.As an example, commands stored in the memory of the second electronic device 602 may be configured to request operation control of the first electronic device 601 based on input received through an interface object.

도 8은 일 실시 예에 따른 통화 중의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 8 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event during a call, according to an embodiment.

도 8을 참조하면, 인터페이스 화면들(801, 802, 803)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(801)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타를 포함하는 3명의 아바타가 가상 공간에서 대화 중인 화면의 예시이다.Referring to FIG. 8, the interface screens 801, 802, and 803 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6, Alternatively, these are examples of screens output through the second electronic device 602 in FIG. 7. The screen 801 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where three avatars, including an avatar corresponding to a user of the second electronic device, are having a conversation in a virtual space.

일 실시 예에 따르면, 화면(801)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 호 연결 요청의 수신 및 호 연결 요청에 대한 응답이 수신되어 호 연결이 수립된 상태가 검출(810)될 수 있다. 호 연결 수립 상태가 검출(810)된 경우, 제1 전자 장치에서 통화 중의 인터럽션 이벤트가 생성될 수 있다. 제1 전자 장치에서의 통화 중의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(802)과 같이, 제1 전자 장치에 대응하는 아바타(821)의 모션은 통화하는 모션으로 변경될 수 있다. 제2 전자 장치의 사용자는 화면(802) 내 아바타(821)의 변경된 표시를 통해 제1 전자 장치의 사용자가 통화 중임을 인지할 수 있다.According to one embodiment, as shown in screen 801, during a conversation using an avatar in a virtual space, a call connection request is received and a response to the call connection request is received from the first electronic device, and a state in which a call connection is established is detected. (810) It can be. When a call connection establishment state is detected (810), an interruption event during a call may be generated in the first electronic device. In response to the occurrence of an interruption event during a call on the first electronic device, the motion of the avatar 821 corresponding to the first electronic device is changed to a calling motion, as shown in the screen 802 displayed on the second electronic device. It can be. The user of the second electronic device may recognize that the user of the first electronic device is on a call through the changed display of the avatar 821 on the screen 802.

일 실시 예에 따르면, 제1 전자 장치에서의 통화 중의 인터럽션 이벤트의 발생에 반응하여, 화면(803)과 같이, 통화 중의 인터럽션 이벤트에 대응하는 인터페이스 객체(831)가 제2 전자 장치를 통해 출력될 수 있다. 인터페이스 객체(831)는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신할 수 있다. 예를 들어, 인터페이스 객체(831)에 포함된 버튼(832)을 선택하는 입력은 인터럽션 이벤트가 발생한 제1 전자 장치에 호 연결을 요청하는 입력에 해당할 수 있다. 인터페이스 객체(831)에 포함된 버튼(833)을 선택하는 입력은 인터럽션 이벤트가 발생한 제1 전자 장치에 메시지의 전송을 요청하는 입력에 해당할 수 있다. According to one embodiment, in response to the occurrence of an interruption event during a call on the first electronic device, an interface object 831 corresponding to the interruption event during a call, such as a screen 803, is displayed through the second electronic device. can be printed. The interface object 831 may receive an input requesting operation control of the first electronic device. For example, an input for selecting the button 832 included in the interface object 831 may correspond to an input requesting a call connection to the first electronic device where an interruption event occurred. An input for selecting the button 833 included in the interface object 831 may correspond to an input requesting transmission of a message to the first electronic device where an interruption event occurred.

일 실시 예에 따르면, 제1 전자 장치는 제2 전자 장치에 입력된 제1 전자 장치의 동작 제어 요청에 대응하는 동작 제어 신호를 수신할 수 있다. 예를 들어, 제2 전자 장치에서 버튼(832)을 선택하는 입력이 수신된 경우, 호 연결 요청 신호가 제1 전자 장치에 전송될 수 있다. 호 연결 요청 신호를 수신한 제1 전자 장치는 통화 어플리케이션을 실행하도록 동작이 제어될 수 있다. 예를 들어, 제2 전자 장치에서 버튼(833)을 선택하는 입력이 수신된 경우, 제2 전자 장치에서 입력된 메시지가 제1 전자 장치에 전송될 수 있다. 메시지를 수신한 제1 전자 장치는 수신된 메시지를 표시하도록 동작이 제어될 수 있다. 일 예로, 메시지는 가상 공간 어플리케이션을 통해 송수신될 수 있으며, 제1 전자 장치는 가상 공간 어플리케이션을 실행함으로써, 수신된 메시지를 표시하도록 동작이 제어될 수 있다. According to one embodiment, the first electronic device may receive an operation control signal corresponding to an operation control request of the first electronic device input to the second electronic device. For example, when an input for selecting the button 832 is received from the second electronic device, a call connection request signal may be transmitted to the first electronic device. The operation of the first electronic device that receives the call connection request signal may be controlled to execute a call application. For example, when an input for selecting the button 833 is received from the second electronic device, the message input from the second electronic device may be transmitted to the first electronic device. The operation of the first electronic device that has received the message may be controlled to display the received message. As an example, a message may be transmitted and received through a virtual space application, and the operation of the first electronic device may be controlled to display the received message by executing the virtual space application.

도 9는 일 실시 예에 따른 적어도 하나 이상의 어플리케이션 실행의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.FIG. 9 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event in the execution of at least one application according to an embodiment.

도 9를 참조하면, 인터페이스 화면들(901, 902, 903)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(901)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타를 포함하는 3명의 아바타가 가상 공간에서 대화 중인 화면의 예시이다. Referring to FIG. 9, the interface screens 901, 902, and 903 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6, Alternatively, these are examples of screens output through the second electronic device 602 in FIG. 7. The screen 901 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where three avatars, including an avatar corresponding to a user of the second electronic device, are having a conversation in a virtual space.

일 실시 예에 따르면, 화면(901)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 적어도 하나 이상의 어플리케이션이 실행된 상태가 검출(910)될 수 있다. 적어도 하나 이상의 어플리케이션 실행 상태가 검출(910)된 경우, 제1 전자 장치에서 적어도 하나 이상의 어플리케이션적어도 하나 이상의 어플리케이션 실행의 인터럽션 이벤트가 생성될 수 있다. 제1 전자 장치에서의 적어도 하나 이상의 어플리케이션 실행의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(902)과 같이, 제1 전자 장치에 대응하는 아바타(921)의 모션은 휴대폰을 보는 모션으로 변경될 수 있다. 제2 전자 장치의 사용자는 화면(902) 내 아바타(921)의 변경된 표시를 통해 제1 전자 장치의 사용자가 대화에 참여하고 있지 않음을 인지할 수 있다.According to one embodiment, as shown in the screen 901, a state in which at least one application is running on the first electronic device may be detected (910) while a conversation using an avatar is in progress in a virtual space. When the execution state of at least one application is detected (910), an interruption event of the execution of at least one application may be generated in the first electronic device. In response to the occurrence of an interruption event of execution of at least one application on the first electronic device, the motion of the avatar 921 corresponding to the first electronic device, such as the screen 902 output on the second electronic device, is displayed on the mobile phone. It can be changed to a viewing motion. The user of the second electronic device may recognize that the user of the first electronic device is not participating in the conversation through the changed display of the avatar 921 in the screen 902.

일 실시 예에 따르면, 제1 전자 장치에서의 적어도 하나 이상의 어플리케이션 실행의 인터럽션 이벤트의 발생에 반응하여, 화면(903)과 같이, 적어도 하나 이상의 어플리케이션 실행의 인터럽션 이벤트에 대응하는 인터페이스 객체(931)가 제2 전자 장치를 통해 출력될 수 있다. 인터페이스 객체(931)는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신할 수 있다. 예를 들어, 인터페이스 객체(931)에 포함된 메시지 입력창(932)을 통해 메시지를 입력할 수 있다. 인터페이스 객체(931)에 포함된 버튼(933)을 선택하는 입력은 제1 전자 장치에 메시지 입력창(932)에 입력된 메시지의 전송을 요청하는 입력에 해당할 수 있다. According to one embodiment, in response to the occurrence of an interruption event of execution of at least one application on the first electronic device, an interface object 931 corresponding to an interruption event of execution of at least one application, such as a screen 903, is displayed. ) may be output through the second electronic device. The interface object 931 may receive an input requesting operation control of the first electronic device. For example, a message can be input through the message input window 932 included in the interface object 931. An input for selecting the button 933 included in the interface object 931 may correspond to an input requesting transmission of a message entered in the message input window 932 to the first electronic device.

일 실시 예에 따르면, 제1 전자 장치는 제2 전자 장치에 입력된 제1 전자 장치의 동작 제어 요청에 대응하는 동작 제어 신호를 수신할 수 있다. 예를 들어, 제2 전자 장치에서 버튼(933)을 선택하는 입력이 수신된 경우, 제2 전자 장치에서 메시지 입력창(932)을 통해 입력된 메시지가 제1 전자 장치에 전송될 수 있다. 메시지를 수신한 제1 전자 장치는 수신된 메시지를 표시하도록 동작이 제어될 수 있다. 일 예로, 메시지는 가상 공간 어플리케이션을 통해 송수신될 수 있으며, 제1 전자 장치는 가상 공간 어플리케이션을 실행함으로써, 수신된 메시지를 표시하도록 동작이 제어될 수 있다.According to one embodiment, the first electronic device may receive an operation control signal corresponding to an operation control request of the first electronic device input to the second electronic device. For example, when an input for selecting the button 933 is received from the second electronic device, the message input through the message input window 932 from the second electronic device may be transmitted to the first electronic device. The operation of the first electronic device that has received the message may be controlled to display the received message. As an example, a message may be transmitted and received through a virtual space application, and the operation of the first electronic device may be controlled to display the received message by executing the virtual space application.

도 10은 일 실시 예에 따른 사용자의 낙상의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 10 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event of a user's fall according to an embodiment.

도 10을 참조하면, 인터페이스 화면들(1001, 1002, 1003)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(1001)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타가 가상 공간에서 대화 중인 화면의 예시이다.Referring to FIG. 10, the interface screens 1001, 1002, and 1003 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6, Alternatively, these are examples of screens output through the second electronic device 602 in FIG. 7. The screen 1001 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where an avatar corresponding to a user of a second electronic device is having a conversation in a virtual space.

일 실시 예에 따르면, 화면(1001)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 사용자가 넘어진 상태(혹은 낙상 상태)가 검출(1010)될 수 있다. 사용자의 낙상 상태가 검출(1010)된 경우, 제1 전자 장치에서 사용자의 낙상의 인터럽션 이벤트가 생성될 수 있다. 제1 전자 장치에서의 사용자의 낙상의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(1002)과 같이, 제1 전자 장치에 대응하는 아바타(1021)의 모션은 넘어지는 모션으로 변경될 수 있다. 제2 전자 장치의 사용자는 화면(1002) 내 아바타(1021)의 변경된 표시를 통해 제1 전자 장치의 사용자가 넘어졌음을 인지할 수 있다.According to one embodiment, as shown in screen 1001, a state in which the user has fallen (or a fall state) may be detected (1010) by the first electronic device during a conversation using an avatar in a virtual space. When the user's fall condition is detected (1010), an interruption event of the user's fall may be generated in the first electronic device. In response to the occurrence of an interruption event of the user's fall on the first electronic device, the motion of the avatar 1021 corresponding to the first electronic device, such as the screen 1002 displayed on the second electronic device, is a falling motion. may be changed to The user of the second electronic device may recognize that the user of the first electronic device fell through the changed display of the avatar 1021 in the screen 1002.

일 실시 예에 따르면, 제1 전자 장치에서의 사용자의 낙상의 인터럽션 이벤트의 발생에 반응하여, 화면(1003)과 같이, 사용자의 낙상의 인터럽션 이벤트에 대응하는 인터페이스 객체(1031)가 제2 전자 장치를 통해 출력될 수 있다. 인터페이스 객체(1031)는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신할 수 있다. 예를 들어, 인터페이스 객체(1031)에 포함된 버튼(1032)을 선택하는 입력은 인터럽션 이벤트가 발생한 제1 전자 장치에 호 연결을 요청하는 입력에 해당할 수 있다. 인터페이스 객체(1031)에 포함된 버튼(1033)을 선택하는 입력은 인터럽션 이벤트가 발생한 제1 전자 장치에 대응하는 긴급 구조를 요청하는 입력에 해당할 수 있다. According to one embodiment, in response to the occurrence of an interruption event of the user's fall on the first electronic device, the interface object 1031 corresponding to the interruption event of the user's fall, such as the screen 1003, is displayed on the second electronic device. Can be output through an electronic device. The interface object 1031 may receive an input requesting operation control of the first electronic device. For example, an input for selecting the button 1032 included in the interface object 1031 may correspond to an input requesting a call connection to the first electronic device where an interruption event occurred. An input for selecting the button 1033 included in the interface object 1031 may correspond to an input requesting emergency rescue corresponding to the first electronic device in which an interruption event occurred.

일 실시 예에 따르면, 제1 전자 장치는 제2 전자 장치에 입력된 제1 전자 장치의 동작 제어 요청에 대응하는 동작 제어 신호를 수신할 수 있다. 예를 들어, 제2 전자 장치에서 버튼(1032)을 선택하는 입력이 수신된 경우, 호 연결 요청 신호가 제1 전자 장치에 전송될 수 있다. 호 연결 요청 신호를 수신한 제1 전자 장치는 통화 어플리케이션을 실행하도록 동작이 제어될 수 있다. 예를 들어, 제2 전자 장치에서 버튼(1033)을 선택하는 입력이 수신된 경우, 긴급 구조 요청 신호가 제1 전자 장치에 전송될 수 있다. 긴급 구조 요청 신호를 수신한 제1 전자 장치는 긴급 구조 요청 기능을 실행하도록 동작에 제어될 수 있다. 일 예로, 긴급 구조 요청 신호를 수신한 제1 전자 장치는 긴급 연락처로 설정된 연락처로 긴급 통화를 요청하도록 동작이 제어될 수 있다. 일 예로, 긴급 구조 요청 신호를 수신한 제1 전자 장치는 제1 전자 장치 주변의 긴급 서비스 전화번호로 긴급 구조를 요청하도록 동작이 제어될 수 있다. According to one embodiment, the first electronic device may receive an operation control signal corresponding to an operation control request of the first electronic device input to the second electronic device. For example, when an input for selecting the button 1032 is received from the second electronic device, a call connection request signal may be transmitted to the first electronic device. The operation of the first electronic device that receives the call connection request signal may be controlled to execute a call application. For example, when an input for selecting the button 1033 is received from the second electronic device, an emergency rescue request signal may be transmitted to the first electronic device. The first electronic device that receives the emergency rescue request signal may be controlled to execute the emergency rescue request function. For example, the operation of the first electronic device that has received an emergency rescue request signal may be controlled to request an emergency call to a contact number set as an emergency contact number. For example, the operation of the first electronic device that has received an emergency rescue request signal may be controlled to request emergency rescue from an emergency service phone number nearby the first electronic device.

도 11은 일 실시 예에 따른 수면의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 11 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of a sleep interruption event according to an embodiment.

도 11을 참조하면, 인터페이스 화면들(1101, 1102, 1103, 1104)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(1101)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타를 포함하는 3명의 아바타가 가상 공간에서 대화 중인 화면의 예시이다. Referring to FIG. 11, the interface screens 1101, 1102, 1103, and 1104 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6). ), or the second electronic device 602 in FIG. 7) are examples of screens output. The screen 1101 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where three avatars including an avatar corresponding to a user of the second electronic device are having a conversation in a virtual space.

일 실시 예에 따르면, 화면(1101)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 사용자의 수면 상태가 검출(1110)될 수 있다. 사용자의 수면 상태가 검출(1110)된 경우, 제1 전자 장치에서 수면의 인터럽션 이벤트가 생성될 수 있다. 제1 전자 장치에서의 수면의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(1102)과 같이, 제1 전자 장치에 대응하는 아바타(1121)의 모션은 잠든 모션으로 변경될 수 있다. 화면(1102)과 같이, 제1 전자 장치에 대응하는 아바타(1121)에 인접하여 제1 전자 장치에서 발생한 수면의 인터럽션 이벤트에 관한 정보를 전달하기 위한 시각적 요소(1122)가 부가될 수 있다. 제2 전자 장치의 사용자는 화면(1102) 내 아바타(1121)에 관한 변경된 표시를 통해 제1 전자 장치의 사용자가 수면 상태임을 인지할 수 있다.According to one embodiment, as shown on the screen 1101, the user's sleeping state may be detected (1110) by the first electronic device during a conversation using an avatar in a virtual space. When the user's sleep state is detected (1110), a sleep interruption event may be generated in the first electronic device. In response to the occurrence of a sleep interruption event in the first electronic device, the motion of the avatar 1121 corresponding to the first electronic device may be changed to a sleeping motion, such as the screen 1102 displayed on the second electronic device. You can. Like the screen 1102, a visual element 1122 for conveying information about a sleep interruption event that occurred in the first electronic device may be added adjacent to the avatar 1121 corresponding to the first electronic device. The user of the second electronic device may recognize that the user of the first electronic device is in a sleeping state through the changed display of the avatar 1121 in the screen 1102.

일 실시 예에 따르면, 제1 전자 장치에서의 수면의 인터럽션 이벤트의 발생에 반응하여, 화면(1103)과 같이, 수면의 인터럽션 이벤트에 대응하는 인터페이스 객체(1131)가 제2 전자 장치를 통해 출력될 수 있다. 인터페이스 객체(1131)는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신할 수 있다. 예를 들어, 인터페이스 객체(1131)에 포함된 버튼(1132)을 선택하는 입력은 인터럽션 이벤트가 발생한 제1 전자 장치에 진동 알림 신호의 전송을 요청하는 입력에 해당할 수 있다. According to one embodiment, in response to the occurrence of a sleep interruption event in the first electronic device, an interface object 1131 corresponding to the sleep interruption event, such as a screen 1103, is displayed through the second electronic device. can be printed. The interface object 1131 may receive an input requesting operation control of the first electronic device. For example, an input for selecting the button 1132 included in the interface object 1131 may correspond to an input requesting transmission of a vibration notification signal to the first electronic device in which an interruption event occurred.

일 실시 예에 따르면, 제1 전자 장치에서의 수면의 인터럽션 이벤트의 발생에 반응하여, 화면(1104)과 같이, 수면의 인터럽션 이벤트에 대응하는 인터페이스 객체(1141)가 제2 전자 장치를 통해 출력될 수 있다. 인터페이스 객체(1141)는 제1 전자 장치의 동작 제어를 요청하는 입력을 수신할 수 있다. 예를 들어, 인터페이스 객체(1141)에 포함된 메시지 입력창(1142)을 통해 메시지를 입력할 수 있다. 인터페이스 객체(1141)에 포함된 버튼(1143)을 선택하는 입력은 제1 전자 장치에 메시지 입력창(1142)에 입력된 메시지의 전송을 요청하는 입력에 해당할 수 있다. According to one embodiment, in response to the occurrence of a sleep interruption event on the first electronic device, an interface object 1141 corresponding to the sleep interruption event, such as a screen 1104, is displayed through the second electronic device. can be printed. The interface object 1141 may receive an input requesting operation control of the first electronic device. For example, a message can be input through the message input window 1142 included in the interface object 1141. An input for selecting the button 1143 included in the interface object 1141 may correspond to an input requesting transmission of a message entered in the message input window 1142 to the first electronic device.

일 실시 예에 따르면, 제1 전자 장치는 제2 전자 장치에 입력된 제1 전자 장치의 동작 제어 요청에 대응하는 동작 제어 신호를 수신할 수 있다. 예를 들어, 제2 전자 장치에서 버튼(1132)을 선택하는 입력이 수신된 경우, 진동 알림을 발생시키기 위한 신호가 제1 전자 장치에 전송될 수 있다. 진동 알림을 발생시키기 위한 신호를 수신한 제1 전자 장치는 진동 알림을 발생시키도록 동작이 제어될 수 있다.According to one embodiment, the first electronic device may receive an operation control signal corresponding to an operation control request of the first electronic device input to the second electronic device. For example, when an input for selecting the button 1132 is received from the second electronic device, a signal for generating a vibration notification may be transmitted to the first electronic device. The operation of the first electronic device that has received a signal for generating a vibration notification may be controlled to generate a vibration notification.

일 실시 예에 따르면, 제1 전자 장치는 제2 전자 장치에 입력된 제1 전자 장치의 동작 제어 요청에 대응하는 동작 제어 신호를 수신할 수 있다. 예를 들어, 제2 전자 장치에서 버튼(1143)을 선택하는 입력이 수신된 경우, 제2 전자 장치에서 메시지 입력창(1142)을 통해 입력된 메시지가 제1 전자 장치에 전송될 수 있다. 메시지를 수신한 제1 전자 장치는 수신된 메시지를 표시하도록 동작이 제어될 수 있다. 일 예로, 메시지는 가상 공간 어플리케이션을 통해 송수신될 수 있으며, 제1 전자 장치는 가상 공간 어플리케이션을 실행함으로써, 수신된 메시지를 표시하도록 동작이 제어될 수 있다.According to one embodiment, the first electronic device may receive an operation control signal corresponding to an operation control request of the first electronic device input to the second electronic device. For example, when an input for selecting the button 1143 is received from the second electronic device, the message input through the message input window 1142 from the second electronic device may be transmitted to the first electronic device. The operation of the first electronic device that has received the message may be controlled to display the received message. As an example, a message may be transmitted and received through a virtual space application, and the operation of the first electronic device may be controlled to display the received message by executing the virtual space application.

도 12는 일 실시 예에 따른 수면의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 12 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of a sleep interruption event according to an embodiment.

도 12를 참조하면, 인터페이스 화면들(1201, 1202, 1203, 1204)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(1201) 및 화면(1202)은 도 11에 도시된 화면(1101) 및 화면(1102)에 대응될 수 있다. 다시 말해, 화면(1201)의 상태에서 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자의 수면 상태가 검출됨에 따라 제1 전자 장치에서 수면의 인터럽션 이벤트가 발생한 경우, 화면(1202)과 같이, 제1 전자 장치에 대응하는 아바타(1221)의 표시가 변경될 수 있다.Referring to FIG. 12, the interface screens 1201, 1202, 1203, and 1204 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6). ), or the second electronic device 602 in FIG. 7) are examples of screens output. Screen 1201 and screen 1202 may correspond to screen 1101 and screen 1102 shown in FIG. 11 . In other words, in the state of the screen 1201, the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7) When a sleep interruption event occurs in the first electronic device as the user's sleep state is detected, the display of the avatar 1221 corresponding to the first electronic device may be changed, as shown in the screen 1202.

일 실시 예에 따르면, 제1 전자 장치에서 사용자의 수면 상태 종료가 검출(1210)된 경우, 제1 전자 장치에서 수면의 인터럽션 이벤트가 종료될 수 있다. 수면의 인터럽션 이벤트의 종료에 반응하여, 화면(1203)과 같이 제1 전자 장치에 대응하는 아바타(1231)의 모션은 깨어난 모션으로 변경될 수 있다. 이후, 화면(1201)과 같이, 제1 전자 장치에 대응하는 아바타(1211)의 모션은 대화 중인 모션으로 변경될 수 있다.According to one embodiment, when the end of the user's sleep state is detected in the first electronic device (1210), the sleep interruption event may end in the first electronic device. In response to the end of the sleep interruption event, the motion of the avatar 1231 corresponding to the first electronic device, such as the screen 1203, may be changed to a waking motion. Thereafter, as shown on the screen 1201, the motion of the avatar 1211 corresponding to the first electronic device may be changed to a motion during a conversation.

일 실시 예에 따르면, 수면의 인터럽션 이벤트가 종료된 경우, 도 11에 도시된 수면의 인터럽션 이벤트에 대응하는 인터페이스 객체(1131, 1141)는 제2 전자 장치에 제공되지 않을 수 있다.According to one embodiment, when the sleep interruption event ends, the interface objects 1131 and 1141 corresponding to the sleep interruption event shown in FIG. 11 may not be provided to the second electronic device.

일 실시 예에 따르면, 제1 전자 장치의 사용자의 수면 상태의 지속 시간이 임계 시간(예: N분)에 도달한 경우, 제1 전자 장치에서 로그아웃 이벤트가 생성될 수 있다. 로그아웃 이벤트는 제1 전자 장치에서 가상 공간 어플리케이션의 실행이 종료됨을 의미할 수 있다. 제1 전자 장치에서 로그아웃 이벤트가 발생한 경우, 화면(1204)과 같이, 제1 전자 장치에 대응하는 아바타의 표시는 제거될 수 있다. 제2 전자 장치의 사용자는 제1 전자 장치에 대응하는 아바타가 제거된 화면(1204) 을 통해 제1 전자 장치의 사용자가 가상 공간에 접속하지 않음을 인지할 수 있다.According to one embodiment, when the duration of the sleep state of the user of the first electronic device reaches a threshold time (eg, N minutes), a logout event may be generated in the first electronic device. The logout event may mean that execution of the virtual space application on the first electronic device ends. When a logout event occurs in the first electronic device, the display of the avatar corresponding to the first electronic device may be removed, as shown in screen 1204. The user of the second electronic device can recognize that the user of the first electronic device is not connected to the virtual space through the screen 1204 in which the avatar corresponding to the first electronic device is removed.

도 13은 일 실시 예에 따른 배터리 부족의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 13 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of a low battery interruption event according to an embodiment.

도 13을 참조하면, 인터페이스 화면들(1301, 1302)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(1301)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타를 포함하는 3명의 아바타가 가상 공간에서 대화 중인 화면의 예시이다. Referring to FIG. 13, the interface screens 1301 and 1302 are displayed on a second electronic device (e.g., the electronic device 101 of FIG. 1, the second electronic device 602 of FIG. 6, or the second electronic device 602 of FIG. 6) executing the virtual space application. These are examples of screens output through the second electronic device 602 in 7. The screen 1301 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where three avatars, including an avatar corresponding to a user of the second electronic device, are having a conversation in a virtual space.

일 실시 예에 따르면, 화면(1301)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 배터리의 잔량이 임계 값 미만인 배터리 부족 상태가 검출(1310)될 수 있다. 배터리 부족 상태가 검출(1310)된 경우, 제1 전자 장치에서 배터리 부족의 인터럽션 이벤트가 생성될 수 있다. 제1 전자 장치에서의 배터리 부족의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(1302)과 같이, 제1 전자 장치에 대응하는 아바타(1321)의 모션은 다른 생각 중인 모션으로 변경될 수 있다. 화면(1302)과 같이, 제1 전자 장치에 대응하는 아바타(1321)에 인접하여 제1 전자 장치에서 발생한 배터리 부족의 인터럽션 이벤트에 관한 정보를 전달하기 위한 시각적 요소(1322)가 부가될 수 있다. 제2 전자 장치의 사용자는 화면(1302) 내 아바타(1321)에 관한 변경된 표시를 통해 제1 전자 장치가 배터리 부족 상태임을 인지할 수 있다.According to one embodiment, as shown in screen 1301, during a conversation using an avatar in a virtual space, a low battery state in which the remaining battery power is less than a threshold value may be detected (1310) in the first electronic device. When a low battery state is detected (1310), a low battery interruption event may be generated in the first electronic device. In response to the occurrence of a low-battery interruption event in the first electronic device, the motion of the avatar 1321 corresponding to the first electronic device, such as the screen 1302 displayed on the second electronic device, is a motion under consideration. may be changed to Like the screen 1302, a visual element 1322 for conveying information about a low-battery interruption event that occurred in the first electronic device may be added adjacent to the avatar 1321 corresponding to the first electronic device. . The user of the second electronic device may recognize that the first electronic device is in a low battery state through the changed display of the avatar 1321 in the screen 1302.

일 실시 예에 따르면, 제1 전자 장치에서 배터리 충전 상태가 검출(1310)된 경우, 제1 전자 장치에서 배터리 부족의 인터럽션 이벤트가 종료될 수 있다. 배터리 부족의 인터럽션 이벤트의 종료에 반응하여, 화면(1301)과 같이 제1 전자 장치에 대응하는 아바타(1311)의 모션은 대화 중인 모션으로 복원될 수 있다.According to one embodiment, when the battery charging state is detected in the first electronic device (1310), the low-battery interruption event may be ended in the first electronic device. In response to the end of the low-battery interruption event, the motion of the avatar 1311 corresponding to the first electronic device, such as the screen 1301, may be restored to the motion during the conversation.

도 14는 일 실시 예에 따른 취침 시간 도달의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 14 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event of reaching bedtime, according to an embodiment.

도 14를 참조하면, 인터페이스 화면들(1401, 1402, 1403, 1404)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(1401)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타를 포함하는 3명의 아바타가 가상 공간에서 대화 중인 화면의 예시이다. Referring to FIG. 14, the interface screens 1401, 1402, 1403, and 1404 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6). ), or the second electronic device 602 in FIG. 7) are examples of screens output. The screen 1401 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where three avatars, including an avatar corresponding to a user of the second electronic device, are having a conversation in a virtual space.

일 실시 예에 따르면, 화면(1401)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 취침 시간 도달 상태가 검출(1410)될 수 있다. 일 예로, 취침 시간 도달 상태는 현재 시간이 전자 장치에 기 설정된 취침 시간에 도달한 상태를 포함할 수 있다. 취침 시간 도달 상태가 검출(1410)된 경우, 제1 전자 장치에서 취침 시간 도달의 인터럽션 이벤트가 생성될 수 있다. 제1 전자 장치에서의 취침 시간 도달의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(1402)과 같이, 제1 전자 장치에 대응하는 아바타(1421)의 모션은 졸린 상태를 표시하기 위한 눈을 비비는 모션으로 변경될 수 있다. 혹은 화면(1403)과 같이, 제1 전자 장치에 대응하는 아바타(1431)의 모션은 졸린 상태를 표시하기 위한 하품하는 모션으로 변경될 수 있다. 제2 전자 장치의 사용자는 화면(1402, 1403) 내 아바타(1421, 1431)의 변경된 표시를 통해 제1 전자 장치의 사용자가 졸린 상태임을 인지할 수 있다. 혹은 제2 전자 장치의 사용자는 화면(1402, 1403) 내 아바타(1421, 1431)의 변경된 표시를 통해 제1 전자 장치가 위치한 지역의 시간이 밤에 해당하는 시간임을 인지할 수 있다.According to one embodiment, as shown in screen 1401, the bedtime arrival state may be detected (1410) in the first electronic device while a conversation using an avatar is in progress in a virtual space. For example, the bedtime arrival state may include a state in which the current time has reached the bedtime preset in the electronic device. When the bedtime arrival state is detected (1410), an interruption event of bedtime arrival may be generated in the first electronic device. In response to the occurrence of an interruption event of reaching bedtime on the first electronic device, the motion of the avatar 1421 corresponding to the first electronic device, such as the screen 1402 output on the second electronic device, is displayed to indicate a sleepy state. It can be changed to a motion of rubbing the eyes for indication. Alternatively, like the screen 1403, the motion of the avatar 1431 corresponding to the first electronic device may be changed to a yawning motion to indicate a sleepy state. The user of the second electronic device may recognize that the user of the first electronic device is sleepy through the changed display of the avatars 1421 and 1431 in the screens 1402 and 1403. Alternatively, the user of the second electronic device may recognize that the time in the area where the first electronic device is located is night through the changed display of the avatars 1421 and 1431 on the screens 1402 and 1403.

일 실시 예에 따르면, 제1 전자 장치에서의 취침 시간 도달의 인터럽션 이벤트의 발생에 반응하여, 화면(1404)과 같이, 취침 시간 도달의 인터럽션 이벤트에 대응하는 인터페이스 객체(1441)가 제2 전자 장치를 통해 출력될 수 있다. 일 예로, 인터페이스 객체(1441)는 화면(1402, 1403)에 표시된 아바타(1421, 1431)를 선택하는 입력에 반응하여 출력될 수 있다.According to one embodiment, in response to the occurrence of an interruption event of bedtime arrival on the first electronic device, an interface object 1441 corresponding to the interruption event of bedtime arrival, such as screen 1404, is displayed on the second electronic device. Can be output through an electronic device. As an example, the interface object 1441 may be output in response to an input for selecting an avatar 1421 or 1431 displayed on the screen 1402 or 1403.

일 실시 예에 따른 인터페이스 객체(1441)는 취침 시간 도달의 인터럽션 이벤트에 관한 정보를 전달하기 위한 객체에 해당할 수 있다. 일 예로, 인터페이스 객체(1441)는 제1 전자 장치에 설정된 취침 시간에 관한 정보를 지시할 수 있다. 일 예로, 인터페이스 객체(1441)는 제1 전자 장치가 위치한 지역의 현재 시간에 관한 정보를 지시할 수 있다. 제2 전자 장치의 사용자는 화면(1404) 내 인터페이스 객체(1441)를 통해 제1 전자 장치에서 발생한 인터럽션 이벤트에 관한 부가 정보를 획득할 수 있다.The interface object 1441 according to one embodiment may correspond to an object for conveying information about an interruption event of reaching bedtime. As an example, the interface object 1441 may indicate information about the bedtime set for the first electronic device. As an example, the interface object 1441 may indicate information about the current time in the area where the first electronic device is located. The user of the second electronic device can obtain additional information about the interruption event that occurred in the first electronic device through the interface object 1441 in the screen 1404.

도 15는 일 실시 예에 따른 앱 실행 중단의 인터럽션 이벤트의 발생에 따른 가상 공간 어플리케이션의 인터페이스 화면을 예시한 도면이다.Figure 15 is a diagram illustrating an interface screen of a virtual space application according to the occurrence of an interruption event of app execution interruption according to an embodiment.

도 15를 참조하면, 인터페이스 화면들(1501, 1502, 1503, 1504)은 가상 공간 어플리케이션을 실행한 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면들의 예시들이다. 화면(1501)은 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))의 사용자에 대응하는 아바타 및 제2 전자 장치의 사용자에 대응하는 아바타를 포함하는 3명의 아바타가 가상 공간에서 대화 중인 화면의 예시이다. Referring to FIG. 15, the interface screens 1501, 1502, 1503, and 1504 are displayed on a second electronic device executing a virtual space application (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6). ), or the second electronic device 602 in FIG. 7) are examples of screens output. The screen 1501 is an avatar corresponding to the user of the first electronic device (e.g., the electronic device 101 in FIG. 1, the first electronic device 601 in FIG. 6, or the first electronic device 601 in FIG. 7). and an example of a screen where three avatars, including an avatar corresponding to a user of the second electronic device, are having a conversation in a virtual space.

일 실시 예에 따르면, 화면(1501)과 같이, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 검출(1510)될 수 있다. 일 예로, 가상 공간 어플리케이션 실행이 중단되는 상태는 전자 장치의 디스플레이 화면이 꺼진 상태인 스크린오프 상태를 포함할 수 있다. 일 예로, 가상 공간 어플리케이션 실행이 중단되는 상태는 전자 장치의 네트워크 연결(예: 와이파이 네트워크 연결, 이동통신 네트워크 연결)이 끊긴 상태를 포함할 수 있다. 일 예로, 가상 공간 어플리케이션 실행이 중단되는 상태는 전자 장치의 전원이 종료되는 상태를 포함할 수 있다. 일 예로, 가상 공간 어플리케이션 실행이 중단되는 상태는 전자 장치에 입력이 수신되지 않은 상태가 임계 시간(예: N초) 이상 지속되는 상태를 포함할 수 있다.According to one embodiment, as shown in screen 1501, a state in which execution of a virtual space application is stopped on the first electronic device may be detected (1510) while a conversation using an avatar is in progress in a virtual space. For example, a state in which execution of a virtual space application is stopped may include a screen-off state in which the display screen of the electronic device is turned off. As an example, a state in which the execution of a virtual space application is stopped may include a state in which the network connection (e.g., Wi-Fi network connection, mobile communication network connection) of the electronic device is disconnected. For example, a state in which execution of a virtual space application is stopped may include a state in which the electronic device is turned off. For example, a state in which execution of a virtual space application is stopped may include a state in which no input is received from the electronic device for more than a threshold time (eg, N seconds).

일 실시 예에 따르면, 가상 공간 어플리케이션 실행이 중단되는 상태가 검출(1510)된 경우, 제1 전자 장치에서 가상 공간 어플리케이션 실행 중단의 인터럽션 이벤트가 생성될 수 있다. 1 전자 장치에서의 가상 공간 어플리케이션 실행 중단의 인터럽션 이벤트의 발생에 반응하여, 제2 전자 장치에 출력되는 화면(1502)과 같이, 제1 전자 장치에 대응하는 아바타(1521)의 투명도가 증가하는 것으로 표시 방식이 변경될 수 있다. 투명도의 증가 정도는 미리 정해진 값으로 결정될 수 있다.According to one embodiment, when a state in which virtual space application execution is interrupted is detected (1510), an interruption event of virtual space application execution interruption may be generated in the first electronic device. 1 In response to the occurrence of an interruption event of stopping execution of a virtual space application in an electronic device, the transparency of the avatar 1521 corresponding to the first electronic device increases, such as the screen 1502 output to the second electronic device. The display method may change. The degree of increase in transparency may be determined by a predetermined value.

일 실시 예에 따르면, 가상 공간 어플리케이션 실행 중단의 인터럽션 이벤트가 생성 이후 임계 시간(예: N초) 지속되는 경우, 화면(1503)과 같이, 아바타(1531)의 투명도가 증가하는 것으로 표시 방식이 변경될 수 있다.According to one embodiment, when the interruption event of stopping execution of the virtual space application continues for a threshold time (e.g., N seconds) after creation, the display method is such that the transparency of the avatar 1531 increases, as shown in the screen 1503. can be changed.

일 실시 예에 따르면, 화면(1503)과 같이, 아바타(1531)의 표시 방식이 변경된 후, 인터럽션 이벤트가 임계 시간(예: N초) 더 지속되는 경우, 제1 전자 장치에서 로그아웃 이벤트가 생성될 수 있다. 제1 전자 장치에서 로그아웃 이벤트가 발생한 경우, 화면(1504)과 같이, 제1 전자 장치에 대응하는 아바타의 표시는 제거될 수 있다. 제2 전자 장치의 사용자는 제1 전자 장치에 대응하는 아바타가 제거된 화면(1504) 을 통해 제1 전자 장치의 사용자가 가상 공간에 접속하지 않음을 인지할 수 있다.According to one embodiment, after the display method of the avatar 1531 is changed, as shown in the screen 1503, if the interruption event continues for more than a threshold time (e.g., N seconds), a logout event is generated on the first electronic device. can be created. When a logout event occurs in the first electronic device, the display of the avatar corresponding to the first electronic device may be removed, as shown in screen 1504. The user of the second electronic device can recognize that the user of the first electronic device is not connected to the virtual space through the screen 1504 in which the avatar corresponding to the first electronic device is removed.

도 16은 일 실시 예에 따른 앱 실행 중단의 인터럽션 이벤트의 발생에 따른 전자 장치의 동작을 설명하기 위한 도면이다.FIG. 16 is a diagram illustrating the operation of an electronic device according to the occurrence of an interruption event that stops execution of an app, according to an embodiment.

도 16을 참조하면, 가상 공간에서 아바타를 이용한 대화 진행 중에 제1 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제1 전자 장치(601), 또는 도 7의 제1 전자 장치(601))에서 가상 공간 어플리케이션실행이 중단되는 상태가 검출(1610)될 수 있다. 가상 공간 어플리케이션 실행이 중단되는 상태의 검출(1610)은 도 15에서 상술한 가상 공간 관련 어플리케이션 실행이 중단되는 상태의 검출(1510)에 대응될 수 있다.Referring to FIG. 16, during a conversation using an avatar in a virtual space, a first electronic device (e.g., the electronic device 101 of FIG. 1, the first electronic device 601 of FIG. 6, or the first electronic device of FIG. 7) At (601)), a state in which virtual space application execution is stopped may be detected (1610). Detection 1610 of a state in which execution of a virtual space application is stopped may correspond to detection 1510 of a state in which execution of a virtual space-related application is stopped described above in FIG. 15 .

일 실시 에에 따르면, 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 해제(1620)될 수 있다. 일 예로, 제1 전자 장치의 스크린오프 상태에서 디스플레이 화면이 다시 켜지는 스크린온(screen-on) 상태로 변경되는 경우, 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 해제(1620)될 수 있다. 일 예로, 전자 장치의 네트워크 연결이 끊긴 상태에서 다시 네트워크에 연결된 상태로 변경되는 경우, 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 해제(1620)될 수 있다. 일 예로, 제1 전자 장치의 전원이 종료된 상태에서 제1 전자 장치가 재부팅되는 경우, 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 해제(1620)될 수 있다. 이 외에도 제1 전자 장치의 가상 공간 어플리케이션을 다시 실행하기 위한 동작이 발생한 경우, 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 해제(1620)될 수 있다.According to one embodiment, the state in which execution of the virtual space application is stopped in the first electronic device may be released (1620). As an example, when the screen-off state of the first electronic device is changed to the screen-on state in which the display screen is turned on again, the state in which execution of the virtual space application is stopped on the first electronic device will be released (1620). You can. For example, when the electronic device changes from being disconnected to the network to being connected to the network again, the state in which execution of the virtual space application is stopped in the first electronic device may be canceled (1620). For example, when the first electronic device is rebooted while the first electronic device is turned off, the state in which execution of the virtual space application is stopped on the first electronic device may be canceled (1620). In addition, when an operation to re-execute the virtual space application of the first electronic device occurs, the state in which execution of the virtual space application is suspended in the first electronic device may be released (1620).

일 실시 예에 따르면, 제1 전자 장치에서 가상 공간 어플리케이션 실행이 중단되는 상태가 해제(1620)된 경우, 제1 전자 장치를 통해 출력되는 화면(1601)과 같이, 제1 전자 장치는 가상 공간 어플리케이션을 다시 실행하기 위한 인터페이스 객체(1611)를 출력할 수 있다.According to one embodiment, when the state in which execution of the virtual space application is stopped in the first electronic device is canceled (1620), the first electronic device displays the virtual space application, as shown in the screen 1601 output through the first electronic device. An interface object 1611 for re-executing can be output.

일 예로, 인터페이스 객체(1611)는 가상 공간 어플리케이션의 실행을 요청하기 위한 버튼(1612)을 포함할 수 있다. 버튼(1612)을 선택하는 입력이 수신된 경우, 제1 전자 장치에서 가상 공간 어플리케이션을 실행하는 동작이 수행될 수 있다. 제1 전자 장치에서 가상 공간 어플리케이션이 정상적으로 실행된 경우, 제2 전자 장치(예: 도 1의 전자 장치(101), 도 6의 제2 전자 장치(602), 또는 도 7의 제2 전자 장치(602))를 통해 출력되는 화면(1602)과 같이, 제1 전자 장치의 사용자에 대응하는 아바타의 표시를 포함하는 가상 공간 인터페이스가 제공될 수 있다. 제2 전자 장치의 사용자는 제1 전자 장치에 대응하는 아바타가 표시된 화면(1602) 을 통해 제1 전자 장치의 사용자가 가상 공간에 다시 접속하여 대화에 참여할 수 있는 상태임을 인지할 수 있다.As an example, the interface object 1611 may include a button 1612 for requesting execution of a virtual space application. When an input for selecting the button 1612 is received, an operation of executing a virtual space application may be performed on the first electronic device. When the virtual space application is normally executed in the first electronic device, the second electronic device (e.g., the electronic device 101 in FIG. 1, the second electronic device 602 in FIG. 6, or the second electronic device in FIG. 7 ( Like the screen 1602 output through 602)), a virtual space interface including a display of an avatar corresponding to the user of the first electronic device may be provided. The user of the second electronic device can recognize that the user of the first electronic device can reconnect to the virtual space and participate in the conversation through the screen 1602 on which the avatar corresponding to the first electronic device is displayed.

일 예로, 인터페이스 객체(1611)는 가상 공간 어플리케이션을 통해 메시지 전송을 요청하기 위한 버튼(1613)을 포함할 수 있다. 버튼(1613)을 선택하는 입력이 수신된 경우, 제1 전자 장치를 통해 출력되는 화면(1603)과 같이, 제1 전자 장치는 메시지 입력 및 전송을 위한 인터페이스 객체(1631)를 출력할 수 있다. 인터페이스 객체(1631)를 통해 입력된 메시지의 전송이 요청된 경우, 어플리케이션을 통해 메시지가 전송될 수 있다. 메시지가 전송된 경우, 제2 전자 장치를 통해 출력되는 화면(1604)과 같이, 제1 전자 장치의 사용자에 대응하는 아바타의 발화임을 지시하는 말풍선을 통해 제1 전자 장치에서 전송된 메시지가 표시될 수 있다.As an example, the interface object 1611 may include a button 1613 for requesting message transmission through a virtual space application. When an input for selecting the button 1613 is received, the first electronic device may output an interface object 1631 for message input and transmission, such as a screen 1603 output through the first electronic device. When transmission of a message input through the interface object 1631 is requested, the message may be transmitted through the application. When a message is transmitted, the message sent from the first electronic device will be displayed through a speech bubble indicating that the speech is from an avatar corresponding to the user of the first electronic device, such as screen 1604 output through the second electronic device. You can.

본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one component from another, and to refer to that component in other respects (e.g., importance or order) is not limited. One (e.g., first) component is said to be “coupled” or “connected” to another (e.g., second) component, with or without the terms “functionally” or “communicatively.” When mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.

본 문서의 다양한 실시 예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. can be used A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these. For example, a processor (e.g., processor 120) of a device (e.g., electronic device 101) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and this term refers to cases where data is semi-permanently stored in the storage medium. There is no distinction between temporary storage cases.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or through an application store (e.g. Play StoreTM) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.

일 실시 예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 일 실시 예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 일 실시 예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다. According to one embodiment, each component (e.g., module or program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately placed in other components. . According to one embodiment, one or more of the above-described corresponding components or operations may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as those performed by the corresponding component of the plurality of components prior to the integration. . According to one embodiment, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.

Claims (20)

전자 장치(101; 601)에 있어서,
컴퓨터로 실행 가능한 명령어들(computer-executable instructions)이 저장된 메모리(130); 및
상기 메모리에 억세스(access)하여 상기 명령어들을 실행하는 프로세서(120)
를 포함하고,
상기 명령어들은,
가상 공간에서 아바타를 이용하여 적어도 하나 이상의 사용자와 대화 기능을 제공하는 어플리케이션(146)을 실행하고,
상기 어플리케이션(146)의 실행 중 검출된 상기 전자 장치(101; 601)의 상태 및 상기 전자 장치(101; 601)의 사용자의 상태 중 적어도 하나에 기초하여, 인터럽션 이벤트를 생성하고,
상기 인터럽션 이벤트에 기초하여, 상기 아바타의 표시를 변경하며,
상기 변경된 아바타의 표시에 대응하여 상기 어플리케이션(146)을 이용하여 수신되는 제어 신호에 기초하여, 상기 전자 장치(101; 601)의 동작을 제어하도록 구성되는,
전자 장치(101; 601).
In the electronic device (101; 601),
A memory 130 storing computer-executable instructions; and
A processor 120 that accesses the memory and executes the instructions.
Including,
The above commands are:
Running an application 146 that provides a conversation function with at least one user using an avatar in a virtual space,
Generating an interruption event based on at least one of the state of the electronic device (101; 601) and the state of the user of the electronic device (101; 601) detected during execution of the application (146),
Based on the interruption event, change the display of the avatar,
Configured to control the operation of the electronic device (101; 601) based on a control signal received using the application (146) in response to the display of the changed avatar,
Electronic devices (101; 601).
어플리케이션(146)을 이용하여 가상 공간에서 아바타를 통한 대화 서비스를 제공하는 서버(108; 603)(108; 603)에 있어서,
상기 어플리케이션(146)을 실행한 제1 전자 장치(101; 601)에서 발생한 인터럽션 이벤트를 검출하고,
상기 검출된 인터럽션 이벤트에 기초하여, 상기 제1 전자 장치(101; 601)에 대응하는 아바타의 표시를 변경하도록 상기 어플리케이션(146)을 실행한 적어도 하나 이상의 전자 장치(101; 601; 602)를 제어하고,
상기 어플리케이션(146)을 실행한 제2 전자 장치(101; 602)로부터 상기 아바타의 변경된 표시에 대응하는 상기 제1 전자 장치(101; 601)의 동작 제어를 요청하는 입력을 수신하고,
상기 수신된 입력에 기초하여, 상기 제1 전자 장치(101; 601)에 제어 신호를 전송하는,
적어도 하나의 프로세서(120)
를 포함하는,
서버(108; 603).
In the server (108; 603) (108; 603) that provides a conversation service through an avatar in a virtual space using the application (146),
Detecting an interruption event occurring in the first electronic device (101; 601) executing the application (146),
Based on the detected interruption event, at least one electronic device (101; 601; 602) executing the application (146) changes the display of the avatar corresponding to the first electronic device (101; 601). control,
Receiving an input requesting operation control of the first electronic device (101; 601) corresponding to the changed display of the avatar from the second electronic device (101; 602) executing the application (146),
Based on the received input, transmitting a control signal to the first electronic device (101; 601),
At least one processor (120)
Including,
Server (108; 603).
프로세서(120)에 의해 수행되는 전자 장치(101; 601)의 동작 방법에 있어서,
가상 공간에서 아바타를 통해 다른 사용자와 대화 기능을 제공하는 어플리케이션(146)을 실행하는 동작;
상기 어플리케이션(146)의 실행 중 검출된 상기 전자 장치(101; 601)의 상태 및 상기 전자 장치(101; 601)의 사용자의 상태 중 적어도 하나에 기초하여, 인터럽션 이벤트를 생성하는 동작;
상기 인터럽션 이벤트에 기초하여, 상기 아바타의 표시를 변경하는 동작; 및
상기 변경된 아바타의 표시에 대응하여 상기 어플리케이션(146)을 통하여 수신되는 제어 신호에 기초하여, 상기 전자 장치(101; 601)의 동작을 제어하는 동작
을 포함하는,
전자 장치(101; 601)의 동작 방법.
In a method of operating an electronic device (101; 601) performed by a processor (120),
An operation of executing an application 146 that provides a conversation function with other users through an avatar in a virtual space;
generating an interruption event based on at least one of the state of the electronic device (101; 601) and the state of the user of the electronic device (101; 601) detected while the application (146) is running;
changing the display of the avatar based on the interruption event; and
An operation of controlling the operation of the electronic device (101; 601) based on a control signal received through the application (146) in response to the display of the changed avatar.
Including,
Method of operating the electronic device (101; 601).
제3항에 있어서,
상기 인터럽션 이벤트를 생성하는 동작은
상기 전자 장치(101; 601)의 상태에 기초하여, 상기 인터럽션 이벤트를 생성하는 동작
을 포함하고,
상기 전자 장치(101; 601)의 상태는
상기 전자 장치(101; 601)에서 다른 어플리케이션(146)이 실행되는 상태;
상기 전자 장치(101; 601)의 배터리(189) 잔량 상태;
상기 전자 장치(101; 601)의 호(call) 연결 상태;
상기 전자 장치(101; 601)의 디스플레이 표시 상태;
상기 전자 장치(101; 601)의 변위 상태;
상기 전자 장치(101; 601)의 전원 상태; 및
상기 전자 장치(101; 601)의 통신 상태
중 적어도 하나를 포함하는,
전자 장치(101; 601)의 동작 방법.
According to paragraph 3,
The operation of generating the interruption event is
An operation of generating the interruption event based on the state of the electronic device (101; 601)
Including,
The state of the electronic device (101; 601) is
A state in which another application (146) is executed in the electronic device (101; 601);
The remaining battery power status of the battery 189 of the electronic device 101 (601);
call connection status of the electronic device (101; 601);
display status of the electronic device (101; 601);
displacement state of the electronic device (101; 601);
power state of the electronic device (101; 601); and
Communication status of the electronic device (101; 601)
Containing at least one of
Method of operating the electronic device (101; 601).
제3항 및 제4항 중 어느 한 항에 있어서,
상기 인터럽션 이벤트를 생성하는 동작은
상기 사용자의 상태에 기초하여, 상기 인터럽션 이벤트를 생성하는 동작
을 포함하고,
상기 사용자의 상태는
상기 전자 장치(101; 601)에서 획득된 상기 사용자의 생체 신호에 기초하여 판단되는 상태; 및
상기 전자 장치(101; 601)에서 획득된 상기 사용자의 변위에 기초하여 판단되는 상태
중 적어도 하나를 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of paragraphs 3 and 4,
The operation of generating the interruption event is
An operation of generating the interruption event based on the state of the user
Including,
The user's status is
A state determined based on the user's biosignals obtained from the electronic device (101; 601); and
A state determined based on the user's displacement obtained from the electronic device (101; 601)
Containing at least one of
Method of operating the electronic device (101; 601).
제5항에 있어서,
상기 전자 장치(101; 601)에서 획득된 상기 사용자의 생체 신호는
상기 전자 장치(101; 601)에 포함된 센서에서 측정된 생체 신호; 및
상기 전자 장치(101; 601)와 연동된 외부 장치(102; 104)로부터 수신된 생체 신호
중 적어도 하나를 포함하는,
전자 장치(101; 601)의 동작 방법.
According to clause 5,
The user's biosignals obtained from the electronic device (101; 601) are
Biological signals measured by a sensor included in the electronic device (101; 601); and
Biological signals received from an external device (102; 104) linked to the electronic device (101; 601)
Containing at least one of
Method of operating the electronic device (101; 601).
제3항 내지 제6항 중 어느 한 항에 있어서,
상기 인터럽션 이벤트를 생성하는 동작은
상기 전자 장치(101; 601)의 상태의 지속 시간 및 상기 사용자의 상태의 지속 시간 중 적어도 하나에 더 기초하여, 상기 인터럽션 이벤트를 생성하는 동작
을 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 6,
The operation of generating the interruption event is
An operation of generating the interruption event further based on at least one of the duration of the state of the electronic device (101; 601) and the duration of the state of the user.
Including,
Method of operating the electronic device (101; 601).
제3항 내지 제7항 중 어느 한 항에 있어서,
상기 인터럽션 이벤트를 생성하는 동작은
상기 검출된 상태에 대한 응답 수신 여부에 기초하여, 상기 인터럽션 이벤트를 생성하는 동작
을 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 7,
The operation of generating the interruption event is
An operation of generating the interruption event based on whether a response to the detected state is received.
Including,
Method of operating the electronic device (101; 601).
제3항 내지 제8항 중 어느 한 항에 있어서,
상기 인터럽션 이벤트를 생성하는 동작은
상기 검출된 상태의 반영에 대한 상기 어플리케이션(146)의 설정에 기초하여, 상기 인터럽션 이벤트를 생성하는 동작
을 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 8,
The operation of generating the interruption event is
An operation of generating the interruption event based on settings of the application 146 for reflection of the detected state.
Including,
Method of operating the electronic device (101; 601).
제3항 내지 제9항 중 어느 한 항에 있어서,
상기 아바타의 표시를 변경하는 동작은
상기 아바타의 모션을 변경하는 동작;
상기 아바타에 대응하는 시각적 요소를 부가하는 동작; 및
상기 아바타의 표시 방식을 변경하는 동작
중 적어도 하나를 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 9,
The operation of changing the display of the avatar is
An operation to change the motion of the avatar;
An operation of adding a visual element corresponding to the avatar; and
An operation to change the display method of the avatar
Containing at least one of
Method of operating the electronic device (101; 601).
제3항 내지 제10항 중 어느 한 항에 있어서,
상기 전자 장치(101; 601)의 동작을 제어하는 동작은
상기 전자 장치(101; 601)에 설치된 다른 어플리케이션(146)을 실행하는 동작; 및
상기 전자 장치(101; 601)에 알림 신호를 전송하는 동작
중 적어도 하나를 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 10,
The operation of controlling the operation of the electronic device (101; 601) is
Executing another application (146) installed on the electronic device (101; 601); and
An operation of transmitting a notification signal to the electronic device (101; 601)
Containing at least one of
Method of operating the electronic device (101; 601).
제3항 내지 제11항 중 어느 한 항에 있어서,
상기 제어 신호는 상기 어플리케이션(146)을 실행한 다른 전자 장치(101; 602)로부터 상기 아바타의 변경된 표시에 대응하여 수신된 입력에 기초하여 발생하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 11,
The control signal is generated based on an input received in response to the changed display of the avatar from another electronic device (101; 602) executing the application (146).
Method of operating the electronic device (101; 601).
제12항에 있어서,
상기 수신된 입력은
상기 아바타를 선택하는 입력; 및
상기 아바타에 대응하여 제공된 인터페이스 객체를 통하여 수신되는 입력
중 적어도 하나를 포함하는,
전자 장치(101; 601)의 동작 방법.
According to clause 12,
The received input is
An input for selecting the avatar; and
Input received through an interface object provided in response to the avatar
Containing at least one of
Method of operating the electronic device (101; 601).
제3항 내지 제13항 중 어느 한 항에 있어서,
상기 인터럽션 이벤트의 종료에 반응하여, 상기 아바타의 표시를 복원하는 동작
을 더 포함하는,
전자 장치(101; 601)의 동작 방법.
According to any one of claims 3 to 13,
In response to termination of the interruption event, restoring the display of the avatar
Containing more,
Method of operating the electronic device (101; 601).
어플리케이션(146)을 통해 가상 공간에서 아바타를 통한 대화 서비스를 제공하는 서버(108; 603)의 동작 방법에 있어서,
상기 어플리케이션(146)을 실행한 제1 전자 장치(101; 601)에서 발생한 인터럽션 이벤트를 검출하는 동작;
상기 검출된 인터럽션 이벤트에 기초하여, 상기 제1 전자 장치(101; 601)에 대응하는 아바타의 표시를 변경하도록 상기 어플리케이션(146)을 실행한 전자 장치(101; 601; 602)를 제어하는 동작;
상기 어플리케이션(146)을 실행한 제2 전자 장치(101; 602)로부터 상기 아바타의 변경된 표시에 대응하는 상기 제1 전자 장치(101; 601)의 동작 제어를 요청하는 입력을 수신하는 동작; 및
상기 수신된 입력에 기초하여, 상기 제1 전자 장치(101; 601)에 제어 신호를 전송하는 동작
을 포함하는,
서버(108; 603)의 동작 방법.
In the method of operating the server (108; 603) that provides a conversation service through an avatar in a virtual space through the application (146),
detecting an interruption event occurring in a first electronic device (101; 601) executing the application (146);
An operation of controlling an electronic device (101; 601; 602) executing the application (146) to change the display of an avatar corresponding to the first electronic device (101; 601) based on the detected interruption event. ;
Receiving an input requesting operation control of the first electronic device (101; 601) corresponding to the changed display of the avatar from a second electronic device (101; 602) executing the application (146); and
An operation of transmitting a control signal to the first electronic device (101; 601) based on the received input.
Including,
How the server (108; 603) operates.
제15항에 있어서,
상기 어플리케이션(146)을 실행한 전자 장치(101; 601; 602)를 제어하는 동작은
상기 아바타의 모션을 변경하도록 상기 어플리케이션(146)을 실행한 전자 장치(101; 601; 602)를 제어하는 동작;
상기 아바타에 대응하는 시각적 요소를 부가하도록 상기 어플리케이션(146)을 실행한 전자 장치(101; 601; 602)를 제어하는 동작; 및
상기 아바타의 표시 방식을 변경하도록 상기 어플리케이션(146)을 실행한 전자 장치(101; 601; 602)를 제어하는 동작
중 적어도 하나를 포함하는,
서버(108; 603)의 동작 방법.
According to clause 15,
The operation of controlling the electronic device (101; 601; 602) executing the application (146) is
Controlling the electronic device (101; 601; 602) executing the application (146) to change the motion of the avatar;
Controlling the electronic device (101; 601; 602) executing the application (146) to add a visual element corresponding to the avatar; and
An operation of controlling the electronic device (101; 601; 602) executing the application (146) to change the display method of the avatar.
Containing at least one of
How the server (108; 603) operates.
제15항 및 제16항 중 어느 한 항에 있어서,
상기 제1 전자 장치(101; 601)에 제어 신호를 전송하는 동작은
상기 제1 전자 장치(101; 601)에 설치된 다른 어플리케이션(146)을 실행하도록 제어하는 신호를 전송하는 동작; 및
상기 제1 전자 장치(101; 601)에 알림 신호를 전송하도록 제어하는 신호를 전송하는 동작
중 적어도 하나를 포함하는,
서버(108; 603)의 동작 방법.
According to any one of claims 15 and 16,
The operation of transmitting a control signal to the first electronic device (101; 601) is
transmitting a signal to control execution of another application (146) installed on the first electronic device (101; 601); and
An operation of transmitting a signal to control transmission of a notification signal to the first electronic device (101; 601)
Containing at least one of
How the server (108; 603) operates.
제15항 내지 제17항 중 어느 한 항에 있어서,
상기 제1 전자 장치(101; 601)의 제어를 위한 입력을 수신하는 동작은
상기 아바타를 선택하는 입력을 수신하는 동작; 및
상기 아바타에 대응하여 제공된 인터페이스 객체를 통하여 상기 제1 전자 장치(101; 601)의 제어를 위한 입력을 수신하는 동작
중 적어도 하나를 포함하는,
서버(108; 603)의 동작 방법.
According to any one of claims 15 to 17,
The operation of receiving an input for controlling the first electronic device (101; 601)
An operation of receiving an input for selecting the avatar; and
An operation of receiving an input for controlling the first electronic device (101; 601) through an interface object provided corresponding to the avatar.
Containing at least one of
How the server (108; 603) operates.
제15항 내지 제18항 중 어느 한 항에 있어서,
상기 인터럽션 이벤트의 종료를 검출하는 동작;
상기 종료에 반응하여, 상기 아바타의 표시를 복원하는 동작
을 포함하는,
서버(108; 603)의 동작 방법.
According to any one of claims 15 to 18,
detecting the end of the interruption event;
In response to the termination, restoring the display of the avatar.
Including,
How the server (108; 603) operates.
하드웨어와 결합되어 제3항 내지 제19항 중 어느 하나의 항의 방법을 실행시키기 위하여 매체에 저장된 컴퓨터 프로그램.

A computer program combined with hardware and stored in a medium to execute the method of any one of claims 3 to 19.

KR1020220126500A 2022-08-26 2022-10-04 Method for displaying information in virtual space and apparatus thereof KR20240029485A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220107897 2022-08-26
KR1020220107897 2022-08-26

Publications (1)

Publication Number Publication Date
KR20240029485A true KR20240029485A (en) 2024-03-05

Family

ID=90298840

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220126500A KR20240029485A (en) 2022-08-26 2022-10-04 Method for displaying information in virtual space and apparatus thereof

Country Status (1)

Country Link
KR (1) KR20240029485A (en)

Similar Documents

Publication Publication Date Title
US11914835B2 (en) Method for displaying user interface and electronic device therefor
KR102517228B1 (en) Electronic device for controlling predefined function based on response time of external electronic device on user input and method thereof
US11481965B2 (en) Electronic device for communicating in augmented reality and method thereof
KR20200094396A (en) Electronic device and method of determining task comprising a plurality of actions
KR20210127054A (en) Electronic device for communicating in augmented reality and method thereof
EP4235379A1 (en) Electronic device and multi-window control method of electronic device
EP3447627B1 (en) Method for determining input detection region corresponding to user interface and electronic device thereof
CN112870697A (en) Interaction method, device, equipment and medium based on virtual relationship formation program
KR20220017302A (en) Electronic device and method for controlling vibration output thereof
EP4220443A1 (en) Electronic device for providing alternative content, and operation method therefor
KR20240029485A (en) Method for displaying information in virtual space and apparatus thereof
KR20230038972A (en) Wearable electronic device including sensor and method of operating the same
CN111290667B (en) Electronic device, control method thereof, and computer-readable storage medium
KR20220040038A (en) The method for processing input data and the electronic device supporting the same
CN111444289A (en) Incidence relation establishing method
CN111367492A (en) Webpage display method and device and storage medium
US11928263B2 (en) Electronic device for processing user input and method thereof
EP4328732A1 (en) Electronic device for performing function matched with graphic affordance, and operating method of electronic device
EP4336847A1 (en) Method for controlling content playback apparatus and electronic device performing said method
US20240062459A1 (en) Electronic device and computer-readable storage medium for providing virtual space
US11907494B2 (en) Electronic device comprising expandable display, and method for providing content of electronic device
EP4325874A1 (en) Electronic device and operation method of electronic device
US20230262018A1 (en) Electronic device for providing notification view, and control method thereof
EP4369693A1 (en) Method and apparatus for controlling multiple devices
KR20240026052A (en) Wearable device and method for establishing call connection with external electronic device