KR20230085794A - Waearable electronic device displaying virtual object and method for controlling the same - Google Patents

Waearable electronic device displaying virtual object and method for controlling the same Download PDF

Info

Publication number
KR20230085794A
KR20230085794A KR1020220014394A KR20220014394A KR20230085794A KR 20230085794 A KR20230085794 A KR 20230085794A KR 1020220014394 A KR1020220014394 A KR 1020220014394A KR 20220014394 A KR20220014394 A KR 20220014394A KR 20230085794 A KR20230085794 A KR 20230085794A
Authority
KR
South Korea
Prior art keywords
electronic device
information
wearable electronic
user
feature point
Prior art date
Application number
KR1020220014394A
Other languages
Korean (ko)
Inventor
김우현
박미지
문지현
배동환
신동수
이민경
장진수
정종일
오영학
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Publication of KR20230085794A publication Critical patent/KR20230085794A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시예에 따라서, 웨어러블 전자 장치는, 웨어러블 전자 장치의 위치를 감지하는 제1 센서, 웨어러블 전자 장치 주변을 감지하는 제2 센서, 디스플레이, 메모리, 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 제1 센서를 통해 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고, 제2 센서를 통해, 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고, 메모리에, 위치 정보 및 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 웨어러블 전자 장치가 실제 공간에 위치하면, 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하고, 가상 오브젝트를 통해 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다.According to an embodiment, a wearable electronic device includes a first sensor for detecting a location of the wearable electronic device, a second sensor for detecting the surroundings of the wearable electronic device, a display, a memory, and at least one processor, and the at least one processor obtains location information of a real space where the wearable electronic device is located through a first sensor, acquires object information related to a plurality of real objects included in the real space through a second sensor, and stores the location information and If the feature point information of the user's motion related to the object information is stored, when the wearable electronic device is located in a real space, a virtual object notifying that there is motion information of the feature point is displayed on the display, and through the virtual object, the motion information related to the feature point is displayed. When a user input for displaying an image is received, a 3D virtual object image may be obtained based on motion information of feature points, and the 3D virtual object image may be displayed on a display.

Description

가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법 { WAEARABLE ELECTRONIC DEVICE DISPLAYING VIRTUAL OBJECT AND METHOD FOR CONTROLLING THE SAME }Wearable electronic device displaying virtual objects and its control method { WAEARABLE ELECTRONIC DEVICE DISPLAYING VIRTUAL OBJECT AND METHOD FOR CONTROLLING THE SAME }

본 개시의 실시 예들은, 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법에 관한 것이다.Embodiments of the present disclosure relate to a wearable electronic device displaying a virtual object and a control method thereof.

전자, 통신 기술이 발달함에 따라, 사용자 신체에 착용하더라도 큰 불편함 없이 사용할 수 있을 정도로 전자 장치가 소형화, 경량화될 수 있다. 예를 들어, 헤드 마운팅 장치(head mounting device, HMD), 스마트 시계(또는 밴드), 콘택트 렌즈형 장치, 반지형 장치, 장갑형 장치, 신발형 장치 또는 의복형 장치와 같은 웨어러블 전자 장치가 상용화되고 있다. 웨어러블 전자 장치는 신체에 직접 착용되므로, 휴대성 및 사용자의 접근성이 향상될 수 있다.As electronic and communication technologies develop, electronic devices can be miniaturized and lightweight to the extent that they can be used without much inconvenience even when worn on the user's body. For example, wearable electronic devices such as head mounting devices (HMDs), smart watches (or bands), contact lens type devices, ring type devices, glove type devices, shoe type devices or clothing type devices are being commercialized. . Since the wearable electronic device is directly worn on the body, portability and user accessibility can be improved.

헤드 마운팅 형태의 전자 장치는, 사용자의 머리 또는 안면에 착용된 상태로 사용되는 장치로서, 증강 현실(augmented reality, AR)을 사용자에게 제공할 수 있다. 예를 들어, 증강 현실을 제공하는 헤드 마운팅 장치는 안경 형태로 구현되어, 사용자 시야 범위의 적어도 일부 공간에서 사물에 대한 정보를 이미지나 문자 형태로 사용자에게 제공할 수 있다.A head-mounted electronic device is a device worn on a user's head or face, and may provide augmented reality (AR) to the user. For example, a head-mounted device that provides augmented reality may be implemented in the form of glasses, and may provide information about objects in the form of images or text to the user in at least a part of the user's field of view.

사용자의 움직임 정보를 저장하기 위해서는 카메라를 통해 사용자가 포함된 영상을 촬상하거나, 사용자가 착용한 웨어러블 전자 장치에 포함된 센서를 통해 움직임과 관련된 센싱 값을 획득할 수 있다.In order to store the motion information of the user, an image including the user may be captured through a camera or a sensing value related to the motion may be obtained through a sensor included in a wearable electronic device worn by the user.

그러나, 사용자의 특정 움직임과 관련된 움직임 정보를 저장하기 위해서는, 사용자가 움직임 전 저장을 위한 조작을 입력해야 한다는 점에서, 사용자가 의도한 움직임 전에 조작이 입력되지 않으면, 저장하고자 하는 사용자의 움직임을 놓치게 될 수 있다. However, in order to store motion information related to a specific motion of the user, the user must input a manipulation for saving before the motion. If the manipulation is not input before the user's intended motion, the user's motion to be saved is lost. It can be.

또한, 증강 현실 환경에서, 저장된 사용자의 움직임을 재생하고자 하는 경우, 사용자가 저장된 복수의 움직임 정보를 확인 후, 재생을 위한 움직임 정보를 선택해야 했다.Also, in an augmented reality environment, when trying to reproduce a stored motion of a user, the user has to check a plurality of stored motion information and then select motion information for reproduction.

본 개시의 다양한 실시 예들은 증강 현실 환경에서, 저장을 위한 조작 없이 사용자의 움직임 정보를 저장하고, 저장된 복수의 움직임 정보 중 실제 공간과 관련된 움직임 정보를 제공하는 웨어러블 전자 장치 및 이의 제어 방법을 제공한다.Various embodiments of the present disclosure provide a wearable electronic device that stores motion information of a user without manipulation for storage and provides motion information related to a real space among a plurality of stored motion information in an augmented reality environment and a control method thereof .

일 실시 예에 따르면, 웨어러블 전자 장치는, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서, 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서, 디스플레이, 메모리, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고, 상기 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고, 상기 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 상기 디스플레이에 표시하고, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시할 수 있다.According to an embodiment, a wearable electronic device includes a first sensor for detecting a location of the wearable electronic device, a second sensor for detecting surroundings of the wearable electronic device, a display, a memory, and at least one processor, wherein the at least One processor acquires location information of a real space where the wearable electronic device is located through the first sensor, and obtains object information related to a plurality of real objects included in the real space through the second sensor, , If the location information and feature point information of the user's movement related to the object information are stored in the memory, if the wearable electronic device is located in the real space, the virtual object notifying that there is motion information of the feature point is displayed. , and when a user input for displaying an image related to the motion information of the feature point is received through the virtual object, a 3D virtual object image is obtained based on the motion information of the feature point, and the 3D virtual object image is displayed on the virtual object. can be shown on the display.

일 실시 예에 따르면, 웨어러블 전자 장치의 제어 방법은, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하는 동작, 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하는 동작, 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하는 동작, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하는 동작 및 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 동작을 포함할 수 있다.According to an embodiment, a control method of a wearable electronic device includes an operation of acquiring location information of a real space where the wearable electronic device is located through a first sensor that senses a location of the wearable electronic device, and moving around the wearable electronic device. Obtaining object information related to a plurality of real objects included in the real space through a second sensor that senses, and if the location information and feature point information of the user's movement related to the object information are stored in the memory, the When the wearable electronic device is located in the real space, an operation of displaying a virtual object indicating that there is motion information of the feature point on a display, and receiving a user input for displaying an image related to the motion information of the feature point through the virtual object , an operation of obtaining a 3D virtual object image based on the motion information of the feature point and an operation of displaying the 3D virtual object image on the display may be included.

본 개시의 다양한 실시 예에 따른 전자 장치는, 설정된 조건을 만족하는 사용자의 움직임에 대한 정보를 저장함으로써, 사용자의 조작 없이도 사용자의 행동을 기록할 수 있다.An electronic device according to various embodiments of the present disclosure may record a user's behavior without a user's manipulation by storing information about a user's movement that satisfies a set condition.

또한, 본 개시의 다양한 실시 예에 따른 전자 장치는, 기록된 사용자 행동이 있음을 사용자에게 알리고, 사용자의 조작에 따라 기록된 사용자의 행동을 3D 가상 오브젝트 영상으로 제공할 수 있다.In addition, the electronic device according to various embodiments of the present disclosure may notify the user that there is a recorded user action and provide the recorded user action as a 3D virtual object image according to the user's manipulation.

도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 일 실시 예에 따른, 전자 장치의 사시도이다.
도 3a는 일 실시 예에 따른, 전자 장치의 내부 구성을 설명하기 위한 제1 사시도이다.
도 3b는 일 실시 예에 따른, 전자 장치의 내부 구성을 설명하기 위한 제2 사시도이다.
도 4는 일 실시 예에 따른, 전자 장치의 분해 사시도이다.
도 5는 본 개시의 다양한 실시예들에 따른, 웨어러블 전자 장치의 다른 사시도이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.
도 8은 본 개시의 일 실시 예에 따라, 사용자의 움직임 정보가 설정된 조건을 만족하는지 여부를 판단하는 동작을 설명하기 위한 흐름도이다.
도 9는 본 개시의 일 실시 예에 따른 사용자의 움직임의 특징점 정보를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따라, 전자 장치가 저장된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 흐름도이다.
도 11a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다.
도 11b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.
도 12a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다.
도 12b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.
도 13a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다.
도 13b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 통신 연결 형태를 설명하기 위한 도면이다.
1 is a block diagram of an electronic device in a network environment according to various embodiments.
2 is a perspective view of an electronic device according to an embodiment.
3A is a first perspective view illustrating an internal configuration of an electronic device according to an exemplary embodiment;
3B is a second perspective view illustrating an internal configuration of an electronic device according to an exemplary embodiment.
4 is an exploded perspective view of an electronic device according to an exemplary embodiment.
5 is another perspective view of a wearable electronic device according to various embodiments of the present disclosure.
6 is a flowchart illustrating an operation of storing motion information of a user of an electronic device according to an embodiment of the present disclosure.
7 is a flowchart illustrating an operation of storing motion information of a user of an electronic device according to an embodiment of the present disclosure.
8 is a flowchart illustrating an operation of determining whether motion information of a user satisfies a set condition according to an embodiment of the present disclosure.
9 is a diagram for explaining feature point information of a user's motion according to an embodiment of the present disclosure.
10 is a flowchart illustrating an operation of an electronic device to display a 3D virtual object image based on stored feature point information, according to an embodiment of the present disclosure.
11A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure.
FIG. 11B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 11A is stored, according to an embodiment of the present disclosure. it is a drawing
12A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure.
12B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user movement information by an electronic device when the electronic device is located in a place where the user movement information of FIG. 11A is stored according to an embodiment of the present disclosure. it is a drawing
13A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure.
FIG. 13B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 11A is stored, according to an embodiment of the present disclosure. it is a drawing
14 is a diagram for explaining a communication connection form of an electronic device according to an embodiment of the present disclosure.

도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an electronic device 101 within a network environment 100, according to various embodiments. Referring to FIG. 1 , in a network environment 100, an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or through a second network 199. It may communicate with at least one of the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 . According to an embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or the antenna module 197 may be included. In some embodiments, in the electronic device 101, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added. In some embodiments, some of these components (eg, sensor module 176, camera module 180, or antenna module 197) are integrated into a single component (eg, display module 160). It can be.

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, the program 140) to cause at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or calculations. According to one embodiment, as at least part of data processing or operation, the processor 120 transfers instructions or data received from other components (e.g., sensor module 176 or communication module 190) to volatile memory 132. , processing commands or data stored in the volatile memory 132 , and storing resultant data in the non-volatile memory 134 . According to one embodiment, the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit ( NPU: neural processing unit (NPU), image signal processor, sensor hub processor, or communication processor). For example, when the electronic device 101 includes the main processor 121 and the auxiliary processor 123, the auxiliary processor 123 may use less power than the main processor 121 or be set to be specialized for a designated function. can The secondary processor 123 may be implemented separately from or as part of the main processor 121 .

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The secondary processor 123 may, for example, take the place of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, running an application). ) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states. According to one embodiment, the auxiliary processor 123 (eg, image signal processor or communication processor) may be implemented as part of other functionally related components (eg, camera module 180 or communication module 190). there is. According to an embodiment, the auxiliary processor 123 (eg, a neural network processing device) may include a hardware structure specialized for processing an artificial intelligence model. AI models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself where the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning or reinforcement learning, but in the above example Not limited. The artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the foregoing, but is not limited to the foregoing examples. The artificial intelligence model may include, in addition or alternatively, software structures in addition to hardware structures.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101 . The data may include, for example, input data or output data for software (eg, program 140) and commands related thereto. The memory 130 may include volatile memory 132 or non-volatile memory 134 .

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142 , middleware 144 , or an application 146 .

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module 150 may receive a command or data to be used by a component (eg, the processor 120) of the electronic device 101 from the outside of the electronic device 101 (eg, a user). The input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101 . The sound output module 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. A receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor set to detect a touch or a pressure sensor set to measure the intensity of force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal or vice versa. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device connected directly or wirelessly to the electronic device 101 (eg: Sound may be output through the electronic device 102 (eg, a speaker or a headphone).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a bio sensor, It may include a temperature sensor, humidity sensor, or light sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device 101 to an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert electrical signals into mechanical stimuli (eg, vibration or motion) or electrical stimuli that a user may perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101 . According to one embodiment, the power management module 188 may be implemented as at least part of a power management integrated circuit (PMIC), for example.

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101 . According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establishment and communication through the established communication channel may be supported. The communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : a local area network (LAN) communication module or a power line communication module). Among these communication modules, a corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a telecommunications network such as a computer network (eg, a LAN or a WAN). These various types of communication modules may be integrated as one component (eg, a single chip) or implemented as a plurality of separate components (eg, multiple chips). The wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199. The electronic device 101 may be identified or authenticated.

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, NR access technology (new radio access technology). NR access technologies include high-speed transmission of high-capacity data (enhanced mobile broadband (eMBB)), minimization of terminal power and access of multiple terminals (massive machine type communications (mMTC)), or high reliability and low latency (ultra-reliable and low latency (URLLC)). -latency communications)) can be supported. The wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example. The wireless communication module 192 uses various technologies for securing performance in a high frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. Technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna may be supported. The wireless communication module 192 may support various requirements defined for the electronic device 101, an external electronic device (eg, the electronic device 104), or a network system (eg, the second network 199). According to one embodiment, the wireless communication module 192 is a peak data rate for eMBB realization (eg, 20 Gbps or more), a loss coverage for mMTC realization (eg, 164 dB or less), or a U-plane latency for URLLC realization (eg, Example: downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) may be supported.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module 197 may transmit or receive signals or power to the outside (eg, an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (eg, PCB). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is selected from the plurality of antennas by the communication module 190, for example. can be chosen A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, other components (eg, a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module 197 in addition to the radiator.

다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, the mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first surface (eg, a lower surface) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, array antennas) disposed on or adjacent to a second surface (eg, a top surface or a side surface) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.

일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 . Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 . According to an embodiment, all or part of operations executed in the electronic device 101 may be executed in one or more external electronic devices among the external electronic devices 102 , 104 , or 108 . For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service by itself. Alternatively or additionally, one or more external electronic devices may be requested to perform the function or at least part of the service. One or more external electronic devices receiving the request may execute at least a part of the requested function or service or an additional function or service related to the request, and deliver the execution result to the electronic device 101 . The electronic device 101 may provide the result as at least part of a response to the request as it is or additionally processed. To this end, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an internet of things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199 . The electronic device 101 may be applied to intelligent services (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.

도 2는 일 실시 예에 따른, 전자 장치(200)(예: 도 1의 전자 장치(101))의 사시도이다.2 is a perspective view of an electronic device 200 (eg, the electronic device 101 of FIG. 1 ) according to an embodiment.

도 2를 참조하면, 전자 장치(200)는 안경 형태의 웨어러블 전자 장치로서, 사용자는 전자 장치(200)를 착용한 상태에서 주변의 사물이나 환경을 시각적으로 인지할 수 있다. 예를 들어, 전자 장치(200)는 사용자의 눈 앞에 직접 영상을 제공할 수 있는 헤드 마운팅 장치(head mounting device, HMD) 또는 스마트 안경(smart glasses)일 수 있다. 도 2의 전자 장치(200)의 구성은 도 1의 전자 장치(101)의 구성과 전부 또는 일부가 동일할 수 있다.Referring to FIG. 2 , the electronic device 200 is a wearable electronic device in the form of glasses, and a user can visually recognize surrounding objects or environments while wearing the electronic device 200 . For example, the electronic device 200 may be a head mounting device (HMD) or smart glasses capable of providing an image directly in front of the user's eyes. The configuration of the electronic device 200 of FIG. 2 may be entirely or partially the same as that of the electronic device 101 of FIG. 1 .

일 실시 예에 따르면, 전자 장치(200)는 전자 장치(200)의 외관을 형성하는 하우징(210)을 포함할 수 있다. 상기 하우징(210)은 전자 장치(200)의 부품들이 배치될 수 있는 공간을 제공할 수 있다. 예를 들어, 하우징(210)은 렌즈 프레임(202), 및 적어도 하나의 착용 부재(203)를 포함할 수 있다. According to an embodiment, the electronic device 200 may include a housing 210 forming an exterior of the electronic device 200 . The housing 210 may provide a space in which components of the electronic device 200 may be disposed. For example, the housing 210 may include a lens frame 202 and at least one wearing member 203 .

일 실시 예에 따르면, 전자 장치(200)는 사용자에게 시각적인 정보를 제공할 수 있는 적어도 하나의 표시 부재(201)를 포함할 수 있다. 예를 들어, 표시 부재(201)는 렌즈, 디스플레이, 도파관 및/또는 터치 회로가 장착된 모듈을 포함할 수 있다. 일 실시예에 따르면, 표시 부재(201)는 투명 또는 반투명하게 형성될 수 있다. 일 실시예에 따르면, 표시 부재(201)는 반투명 재질의 글래스 또는 착색 농도가 조절됨에 따라 빛의 투과율이 조절될 수 있는 윈도우 부재를 포함할 수 있다. 일 실시예에 따르면, 표시 부재(201)는 한 쌍으로 제공되어, 전자 장치(200)가 사용자 신체에 착용된 상태에서, 사용자의 좌안과 우안에 각각 대응하게 배치될 수 있다.According to an embodiment, the electronic device 200 may include at least one display member 201 capable of providing visual information to a user. For example, the display member 201 may include a module equipped with a lens, a display, a waveguide, and/or a touch circuit. According to one embodiment, the display member 201 may be formed to be transparent or translucent. According to an exemplary embodiment, the display member 201 may include glass made of a translucent material or a window member capable of adjusting light transmittance according to color concentration control. According to an embodiment, the display members 201 may be provided as a pair and disposed to correspond to the user's left and right eyes, respectively, while the electronic device 200 is worn on the user's body.

일 실시 예에 따르면, 렌즈 프레임(202)은 표시 부재(201)의 적어도 일부를 수용할 수 있다. 예를 들어, 렌즈 프레임(202)은 표시 부재(201)의 가장자리의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201) 중 적어도 하나를 사용자의 눈에 상응하게 위치시킬 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 일반적인 안경 구조의 림(rim)일 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201)를 둘러싸는 적어도 하나의 폐곡선을 포함할 수 있다.According to one embodiment, the lens frame 202 may accommodate at least a portion of the display member 201 . For example, the lens frame 202 may surround at least a portion of an edge of the display member 201 . According to an embodiment, the lens frame 202 may position at least one of the display members 201 to correspond to the user's eyes. According to one embodiment, the lens frame 202 may be the rim of a typical eyeglass structure. According to an embodiment, the lens frame 202 may include at least one closed curve surrounding the display member 201 .

일 실시 예에 따르면, 착용 부재(203)는 렌즈 프레임(202)에서 연장될 수 있다. 예를 들어, 착용 부재(203)는 렌즈 프레임(202)의 단부에서 연장되고, 렌즈 프레임(202)과 함께, 사용자의 신체(예: 귀)에 지지 또는 위치될 수 있다. 일 실시예에 따르면, 착용 부재(203)는 힌지 구조(229)를 통해 렌즈 프레임(202)에 대하여 회전 가능하게 결합될 수 있다. 일 실시예에 따르면, 착용 부재(203)는 사용자의 신체와 대면하도록 구성된 내 측면(231c) 및 상기 내 측면의 반대인 외 측면(231d)을 포함할 수 있다.According to one embodiment, the wearing member 203 may extend from the lens frame 202 . For example, the wearing member 203 extends from an end of the lens frame 202 and, together with the lens frame 202, may be supported or positioned on the user's body (eg, ear). According to one embodiment, the wearing member 203 may be rotatably coupled with respect to the lens frame 202 via a hinge structure 229 . According to one embodiment, the wearing member 203 may include an inner side surface 231c configured to face the user's body and an outer side surface 231d opposite to the inner side surface.

일 실시 예에 따르면, 전자 장치(200)는 착용 부재(203)를 렌즈 프레임(202)에 대하여 접을 수 있도록 구성된 힌지 구조(229)를 포함할 수 있다. 상기 힌지 구조(229)는 렌즈 프레임(202)과 착용 부재(203) 사이에 배치될 수 있다. 전자 장치(200)를 착용하지 않은 상태에서, 사용자는 착용 부재(203)를 렌즈 프레임(202)에 대하여 일부가 중첩되도록 접어 휴대 또는 보관할 수 있다.According to an embodiment, the electronic device 200 may include a hinge structure 229 configured to fold the wearing member 203 relative to the lens frame 202 . The hinge structure 229 may be disposed between the lens frame 202 and the wearing member 203 . In a state in which the electronic device 200 is not worn, the user may carry or store the wearing member 203 by folding the lens frame 202 such that a portion thereof overlaps with the lens frame 202 .

도 3a는 다양한 실시예들에 따른, 전자 장치의 내부 구성을 설명하기 위한 제1 사시도이다. 도 3b는 다양한 실시예들에 따른, 전자 장치의 내부 구성을 설명하기 위한 제2 사시도이다. 도 4는 다양한 실시예들에 따른, 전자 장치의 분해 사시도이다. 3A is a first perspective view illustrating an internal configuration of an electronic device according to various embodiments. 3B is a second perspective view illustrating an internal configuration of an electronic device according to various embodiments. 4 is an exploded perspective view of an electronic device according to various embodiments.

도 3a 내지 도 4를 참조하면, 전자 장치(200)는 하우징(210)에 수용된 부품들(예: 적어도 하나의 회로 기판(241)(예: PCB(printed circuit board), PBA(printed board assembly), FPCB(flexible PCB) 또는 RFPCB(rigid-flexible PCB)), 적어도 하나의 배터리(243), 적어도 하나의 스피커 모듈(245), 적어도 하나의 전원 전달 구조(246), 및 카메라 모듈(250))을 포함할 수 있다. 도 3a 및 도 3b의 하우징(210)의 구성은 도 2의 표시 부재(201), 렌즈 프레임(202), 착용 부재(203), 및 힌지 구조(229)의 구성과 전부 또는 일부가 동일할 수 있다. Referring to FIGS. 3A to 4 , the electronic device 200 includes components accommodated in a housing 210 (eg, at least one circuit board 241 (eg, a printed circuit board (PCB), a printed board assembly (PBA))) , FPCB (flexible PCB) or RFPCB (rigid-flexible PCB)), at least one battery 243, at least one speaker module 245, at least one power transmission structure 246, and camera module 250) can include The configuration of the housing 210 of FIGS. 3A and 3B may be the same in whole or in part as the configurations of the display member 201, the lens frame 202, the wearing member 203, and the hinge structure 229 of FIG. 2 . there is.

일 실시 예에 따르면, 전자 장치(200)는 카메라 모듈(250)(예: 도 1의 카메라 모듈(180))을 이용하여 사용자가 바라보는 또는 전자 장치(200)가 지향하는 방향(예: -Y 방향)의 사물이나 환경에 관한 시각적인 이미지를 획득 및/또는 인지하고, 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 외부의 전자 장치(예: 도 1의 전자 장치(102, 104) 또는 서버(108))로부터 사물 또는 환경에 관한 정보를 제공받을 수 있다. 다른 실시예에서, 전자 장치(200)는 제공받은 사물이나 환경에 관한 정보를 음향 또는 시각적인 형태로 사용자에게 제공할 수 있다. 전자 장치(200)는 제공받은 사물이나 환경에 관한 정보를 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))을 이용하여 시각적인 형태로 표시 부재(201)를 통해 사용자에게 제공할 수 있다. 예를 들어, 전자 장치(200)는 사물이나 환경에 관한 정보를 시각적인 형태로 구현하고 사용자 주변 환경의 실제 이미지와 조합함으로써, 전자 장치(200)는 증강 현실(augmented reality)을 구현할 수 있다.According to an embodiment, the electronic device 200 uses a camera module 250 (eg, the camera module 180 of FIG. 1 ) to view a user or a direction the electronic device 200 faces (eg, - Obtains and/or recognizes a visual image of an object or environment in the Y direction), and external electronic devices (eg, the first network 198 or the second network 199 in FIG. 1) through a network (eg, the first network 198 or the second network 199 in FIG. Information about objects or environments may be provided from the electronic devices 102 and 104 or the server 108 of FIG. 1 . In another embodiment, the electronic device 200 may provide the user with information about objects or environments in a sound or visual form. The electronic device 200 may provide information about objects or environments to the user through the display member 201 in a visual form using a display module (eg, the display module 160 of FIG. 1 ). For example, the electronic device 200 may implement augmented reality by implementing information about an object or environment in a visual form and combining it with a real image of a user's surrounding environment.

일 실시 예에 따르면, 표시 부재(201)는 외부의 빛이 입사되는 방향(예: -Y 방향)을 향하는 제1 면(F1) 및 상기 제1 면(F1)의 반대 방향(예: +Y 방향)을 향하는 제2 면(F2)을 포함할 수 있다. 사용자가 전자 장치(200)를 착용한 상태에서, 제1 면(F1)을 통해 입사된 빛 또는 이미지의 적어도 일부는 사용자의 좌안 및/또는 우안과 마주보게 배치된 표시 부재(201)의 제2 면(F2)을 통과하여 사용자의 좌안 및/또는 우안으로 입사될 수 있다.According to an embodiment, the display member 201 has a first surface F1 facing a direction in which external light is incident (eg, -Y direction) and a direction opposite to the first surface F1 (eg, +Y direction). direction) may include a second surface (F2) facing. While the user is wearing the electronic device 200, at least a portion of the light or image incident through the first surface F1 is directed to the second portion of the display member 201 disposed to face the left and/or right eyes of the user. It may pass through the surface F2 and enter the user's left eye and/or right eye.

일 실시 예에 따르면, 렌즈 프레임(202)은 적어도 둘 이상의 프레임을 포함할 수 있다. 예를 들면, 렌즈 프레임(202)은 제1 프레임(202a) 및 제2 프레임(202b)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(200)를 사용자가 착용할 때, 제1 프레임(202a)은 사용자의 안면과 대면하는 부분의 프레임이고, 제2 프레임(202b)은 제1 프레임(202a)에 대하여 사용자가 바라보는 시선 방향(예: -Y 방향)으로 이격된 렌즈 프레임(202)의 일부일 수 있다.According to one embodiment, the lens frame 202 may include at least two or more frames. For example, the lens frame 202 may include a first frame 202a and a second frame 202b. According to an embodiment, when the user wears the electronic device 200, the first frame 202a is a frame facing the user's face, and the second frame 202b is attached to the first frame 202a. It may be a part of the lens frame 202 spaced apart in the direction of the user's gaze (eg, -Y direction) with respect to the user.

일 실시 예에 따르면, 광 출력 모듈(211)은 사용자에게 이미지 및/또는 영상을 제공할 수 있다. 예를 들어, 광 출력 모듈(211)은 영상을 출력할 수 있는 디스플레이 패널(미도시), 및 사용자의 눈에 대응되고, 상기 영상을 표시 부재(201)로 가이드하는 렌즈(미도시)를 포함할 수 있다. 예를 들어, 사용자는 광 출력 모듈(211)의 렌즈를 통해 광 출력 모듈(211)의 디스플레이 패널로부터 출력된 영상을 획득할 수 있다. 일 실시 예에 따르면, 광 출력 모듈(211)은, 다양한 정보를 표시하도록 구성된 장치를 포함할 수 있다. 예를 들면, 광 출력 모듈(211)은 액정 표시 장치(liquid crystal display, LCD), 디지털 미러 표시 장치(digital mirror device, DMD), 실리콘 액정 표시 장치(liquid crystal on silicon, LCoS), 유기 발광 다이오드(organic light emitting diode, OLED) 또는 마이크로 엘이디(micro light emitting diode, micro LED) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 광 출력 모듈(211) 및/또는 표시 부재(201)가, 액정 표시 장치, 디지털 미러 표시 장치, 또는 실리콘 액정 표시 장치 중 하나를 포함하는 경우, 전자 장치(200)는 광 출력 모듈(211) 및/또는 표시 부재(201)의 디스플레이 영역으로 빛을 조사하는 광원을 포함할 수 있다. 다른 실시 예에 따르면, 광 출력 모듈(211) 및/또는 표시 부재(201)가 유기 발광 다이오드, 또는 마이크로 엘이디 중 하나를 포함하는 경우, 전자 장치(200)는 별도의 광원을 포함하지 않고 사용자에게 가상 영상을 제공할 수 있다.According to one embodiment, the light output module 211 may provide images and/or videos to the user. For example, the light output module 211 includes a display panel (not shown) capable of outputting an image, and a lens (not shown) corresponding to the user's eyes and guiding the image to the display member 201. can do. For example, a user may acquire an image output from a display panel of the light output module 211 through a lens of the light output module 211 . According to one embodiment, the light output module 211 may include a device configured to display various types of information. For example, the light output module 211 may include a liquid crystal display (LCD), a digital mirror device (DMD), a liquid crystal on silicon (LCoS), an organic light emitting diode It may include at least one of (organic light emitting diode, OLED) or micro LED (micro light emitting diode, micro LED). According to an exemplary embodiment, when the light output module 211 and/or the display member 201 includes one of a liquid crystal display, a digital mirror display, and a silicon liquid crystal display, the electronic device 200 may generate light A light source radiating light to the display area of the output module 211 and/or the display member 201 may be included. According to another embodiment, when the light output module 211 and/or the display member 201 includes one of an organic light emitting diode and a micro LED, the electronic device 200 does not include a separate light source and provides information to the user. A virtual image can be provided.

일 실시 예에 따르면, 광 출력 모듈(211)의 적어도 일부는 하우징(210) 내에 배치될 수 있다. 예를 들어, 광 출력 모듈(211)은 사용자의 오른쪽 눈 및 왼쪽 눈에 각각 대응되도록 착용 부재(203) 또는 렌즈 프레임(202)에 배치될 수 있다. 일 실시예에 따르면, 광 출력 모듈(211)은 표시 부재(201)와 연결되고, 표시 부재(201)를 통하여 사용자에게 영상을 제공할 수 있다. 예를 들어, 광 출력 모듈(211)에서 출력된 영상은 표시 부재(201)의 일단에 위치하는 입력 광학 부재를 통해 표시 부재(210)로 입사 되고, 표시 부재(210)의 적어도 일부에 위치하는 도파관(waveguide) 및 출력 광학 부재를 통해 사용자의 눈을 향하여 방사될 수 있다. 일 실시예에 따르면, 도파관은 글래스, 플라스틱, 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 도파관(waveguide)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. According to one embodiment, at least a portion of the light output module 211 may be disposed within the housing 210 . For example, the light output module 211 may be disposed on the wearing member 203 or the lens frame 202 to correspond to the user's right eye and left eye, respectively. According to an embodiment, the light output module 211 may be connected to the display member 201 and provide an image to a user through the display member 201 . For example, an image output from the light output module 211 is incident on the display member 210 through an input optical member positioned at one end of the display member 201, and is positioned on at least a portion of the display member 210. It can be radiated toward the user's eyes through a waveguide and an output optical member. According to an embodiment, the waveguide may be made of glass, plastic, or polymer, and may include a nanopattern formed on an inner or outer surface, for example, a polygonal or curved grating structure. there is. According to an embodiment, the waveguide may include at least one of at least one diffractive element (eg, a diffractive optical element (DOE) or a holographic optical element (HOE)) or a reflective element (eg, a reflective mirror). .

일 실시 예에 따르면, 회로 기판(241)은 전자 장치(200)의 구동을 위한 부품들을 포함할 수 있다. 예를 들어, 회로 기판(241)은 적어도 하나의 직접회로 칩(integrated circuit chip)을 포함할 수 있으며, 도 1의 프로세서(120), 메모리(130), 전력 관리 모듈(188), 또는 통신 모듈(190) 중 적어도 하나는 상기 직접회로 칩에 제공될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 하우징(210)의 착용 부재(203) 내에 배치될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 전원 전달 구조(246)를 통하여 배터리(243)와 전기적으로 연결될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 가요성 인쇄회로기판(205)와 연결되고, 가요성 인쇄회로기판(205)을 통하여 전자 장치의 전자 부품들(예: 광 출력 모듈(211), 카메라 모듈(250), 발광부에 전기 신호를 전달할 수 있다. 일 실시예에 따르면, 회로 기판(241)은 인터포저(interposer) 기판일 수 있다.According to one embodiment, the circuit board 241 may include components for driving the electronic device 200 . For example, the circuit board 241 may include at least one integrated circuit chip, and may include the processor 120, memory 130, power management module 188, or communication module of FIG. 1 . At least one of 190 may be provided on the integrated circuit chip. According to one embodiment, the circuit board 241 may be disposed within the wearing member 203 of the housing 210 . According to one embodiment, the circuit board 241 may be electrically connected to the battery 243 through the power delivery structure 246 . According to one embodiment, the circuit board 241 is connected to the flexible printed circuit board 205, and electronic components (eg, the light output module 211, Electrical signals may be transmitted to the light emitting unit of the camera module 250. According to an embodiment, the circuit board 241 may be an interposer board.

다양한 실시예에 따르면, 가요성 인쇄회로 기판(205)은 회로 기판(241)으로부터 힌지 구조(229)를 가로질러 렌즈 프레임(202)의 내부로 연장될 수 있으며, 렌즈 프레임(202)의 내부에서 표시 부재(201) 둘레의 적어도 일부에 배치될 수 있다. According to various embodiments, the flexible printed circuit board 205 may extend from the circuit board 241 across the hinge structure 229 into the interior of the lens frame 202, and from the interior of the lens frame 202. It may be disposed on at least a part of the circumference of the display member 201 .

일 실시 예에 따르면, 배터리(243)(예: 도 1의 배터리(189))는 전자 장치(200)의 부품(예: 광 출력 모듈(211), 회로 기판(241), 스피커 모듈(245), 마이크 모듈(247), 및/또는 카메라 모듈(250))과 전기적으로 연결될 수 있고, 전자 장치(200)의 부품들에게 전력을 공급할 수 있다.According to an embodiment, the battery 243 (eg, the battery 189 of FIG. 1 ) may be a component of the electronic device 200 (eg, the light output module 211, the circuit board 241, and the speaker module 245). , the microphone module 247, and/or the camera module 250) and can be electrically connected, and can supply power to components of the electronic device 200.

일 실시 예에 따르면, 배터리(243)의 적어도 일부는 착용 부재(203)에 배치될 수 있다. 일 실시예에 따르면, 배터리(243)는 착용 부재(203)의 단부(203a, 203b)에 인접하도록 배치될 수 있다. 예를 들어, 배터리(243)는 착용 부재(203)의 제1 단부(203a)에 배치된 제1 배터리(243a) 및 제2 단부(203b)에 배치된 제2 배터리(243b)를 포함할 수 있다. According to one embodiment, at least a part of the battery 243 may be disposed on the wearing member 203 . According to one embodiment, the battery 243 may be disposed adjacent to the ends 203a and 203b of the wearing member 203 . For example, the battery 243 may include a first battery 243a disposed at the first end 203a of the wearing member 203 and a second battery 243b disposed at the second end 203b. there is.

다양한 실시예에 따르면, 스피커 모듈(245)(예: 도 1의 오디오 모듈(170) 또는 음향 출력 모듈(155))은 전기 신호를 소리로 변환시킬 수 있다. 상기 스피커 모듈(245)의 적어도 일부는 하우징(210)의 착용 부재(203) 내에 배치될 수 있다. 일 실시예에 따르면, 스피커 모듈(245)은 사용자의 귀에 대응되도록 착용 부재(203) 내에 위치할 수 있다. 일 실시예(예: 도 3a)에 따르면, 스피커 모듈(245)은 회로 기판(241) 상에 배치될 수 있다. 예를 들어, 스피커 모듈(245)은 회로 기판(241)과 내측 케이스(예: 도 4의 내측 케이스(231)) 사이에 배치될 수 있다. 일 실시예(예: 도 3b)에 따르면, 스피커 모듈(245)은 회로 기판(241)의 옆에 배치될 수 있다. 예를 들어, 스피커 모듈(245)은 회로 기판(241)과 배터리(243) 사이에 배치될 수 있다. According to various embodiments, the speaker module 245 (eg, the audio module 170 or the sound output module 155 of FIG. 1 ) may convert an electrical signal into sound. At least a portion of the speaker module 245 may be disposed within the wearing member 203 of the housing 210 . According to one embodiment, the speaker module 245 may be positioned within the wearing member 203 to correspond to the user's ear. According to one embodiment (eg, FIG. 3A ), the speaker module 245 may be disposed on the circuit board 241 . For example, the speaker module 245 may be disposed between the circuit board 241 and an inner case (eg, the inner case 231 of FIG. 4 ). According to one embodiment (eg, FIG. 3B ), the speaker module 245 may be disposed next to the circuit board 241 . For example, the speaker module 245 may be disposed between the circuit board 241 and the battery 243 .

일 실시 예에 따르면, 전자 장치(200)는 스피커 모듈(245) 및 회로 기판(241)과 연결된 연결 부재(248)을 포함할 수 있다. 연결 부재(248)은 스피커 모듈(245)에서 생성된 소리 및/또는 진동의 적어도 일부를 회로 기판(241)으로 전달할 수 있다. 일 실시예에 따르면, 연결 부재(248)는 스피커 모듈(245)과 일체형으로 형성될 수 있다. 예를 들어, 스피커 모듈(245)의 스피커 프레임에서 연장된 일 부분이 연결 부재(248)로 해석될 수 있다. 일 실시예(예: 도 3a)에 따르면, 연결 부재(248)은 생략될 수 있다. 예를 들어, 스피커 모듈(245)이 회로 기판(241) 상에 배치된 경우, 연결 부재(248)은 생략될 수 있다.According to an embodiment, the electronic device 200 may include a speaker module 245 and a connection member 248 connected to the circuit board 241 . The connecting member 248 may transmit at least a part of sound and/or vibration generated by the speaker module 245 to the circuit board 241 . According to one embodiment, the connection member 248 may be integrally formed with the speaker module 245 . For example, a portion extending from the speaker frame of the speaker module 245 may be interpreted as a connecting member 248 . According to one embodiment (eg, FIG. 3A ), the connecting member 248 may be omitted. For example, when the speaker module 245 is disposed on the circuit board 241, the connecting member 248 may be omitted.

일 실시 예에 따르면, 전원 전달 구조(246)는 배터리(243)의 전력을 전자 장치(200)의 전자 부품(예: 광 출력 모듈(211))으로 전달할 수 있다. 예를 들어, 전원 전달 구조(246)는, 배터리(243) 및/또는 회로기판(241)과 전기적으로 연결되고, 회로기판(241)은 전원 전달 구조(246)를 통해 수신한 전력을 광 출력 모듈(211)로 전달할 수 있다. According to an embodiment, the power transmission structure 246 may transfer power of the battery 243 to an electronic component (eg, the light output module 211) of the electronic device 200 . For example, the power transmission structure 246 is electrically connected to the battery 243 and/or the circuit board 241, and the circuit board 241 outputs power received through the power transmission structure 246 to an optical output. It can be forwarded to module 211.

일 실시 예에 따르면, 전원 전달 구조(246)는 전력을 전달할 수 있는 구성일 수 있다. 예를 들어, 전원 전달 구조(246)는 가요성 인쇄회로기판 또는 와이어를 포함할 수 있다. 예를 들면, 와이어는 복수의 케이블들(미도시)을 포함할 수 있다. 다양한 실시 예에서, 전원 전달 구조(246)의 형태는 케이블의 개수 및/또는 종류 등을 고려하여 다양하게 변형될 수 있다.According to one embodiment, the power delivery structure 246 may be a configuration capable of transmitting power. For example, power delivery structure 246 may include a flexible printed circuit board or wire. For example, the wire may include a plurality of cables (not shown). In various embodiments, the shape of the power transmission structure 246 may be variously modified in consideration of the number and/or type of cables.

일 실시 예에 따르면, 마이크 모듈(247)(예: 도 1의 입력 모듈(150) 및/또는 오디오 모듈(170))은 소리를 전기 신호로 변환할 수 있다. 일 실시예에 따르면, 마이크 모듈(247)은 렌즈 프레임(202)의 적어도 일부에 배치될 수 있다. 예를 들면, 적어도 하나의 마이크 모듈(247)은 전자 장치(200)의 하단(예: -X축을 향하는 방향) 및/또는 상단(예: X축을 향하는 방향)에 배치될 수 있다. 일 실시 예에 따르면, 전자 장치(200)는 적어도 하나의 마이크 모듈(247)에서 획득된 음성 정보(예: 소리)를 이용하여 사용자의 음성을 보다 명확하게 인식할 수 있다. 예를 들면, 전자 장치(200)는 획득된 음성 정보 및/또는 추가 정보(예: 사용자의 피부와 뼈의 저주파 진동)에 기반하여, 음성 정보와 주변 잡음을 구별할 수 있다. 예를 들면, 전자 장치(200)는, 사용자의 음성을 명확하게 인식할 수 있고, 주변 소음을 줄여주는 기능(예: 노이즈 캔슬링)을 수행할 수 있다.According to one embodiment, the microphone module 247 (eg, the input module 150 and/or the audio module 170 of FIG. 1 ) may convert sound into an electrical signal. According to one embodiment, the microphone module 247 may be disposed on at least a part of the lens frame 202 . For example, at least one microphone module 247 may be disposed at a lower end (eg, in a direction toward the -X axis) and/or an upper end (eg, in a direction toward the X axis) of the electronic device 200 . According to an embodiment, the electronic device 200 can more clearly recognize the user's voice using voice information (eg, sound) obtained from at least one microphone module 247 . For example, the electronic device 200 may distinguish voice information from ambient noise based on acquired voice information and/or additional information (eg, low-frequency vibration of the user's skin and bones). For example, the electronic device 200 can clearly recognize the user's voice and perform a function (eg, noise canceling) to reduce ambient noise.

일 실시 예에 따르면, 카메라 모듈(250)은 정지 영상 및/또는 동영상을 촬영할 수 있다. 상기 카메라 모듈(250)은 렌즈, 적어도 하나의 이미지 센서, 이미지 시그널 프로세서 또는 플래시 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(250)은 렌즈 프레임(202) 내에 배치되고, 표시 부재(201)의 주위에 배치될 수 있다. According to an embodiment, the camera module 250 may capture still images and/or moving images. The camera module 250 may include at least one of a lens, at least one image sensor, an image signal processor, or a flash. According to one embodiment, the camera module 250 may be disposed within the lens frame 202 and disposed around the display member 201 .

일 실시 예에 따르면, 카메라 모듈(250)은 적어도 하나의 제1 카메라 모듈(251)을 포함할 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(251)은 사용자의 눈(예: 동공(pupil)) 또는 시선의 궤적을 촬영할 수 있다. 예를 들어, 제1 카메라 모듈(251)은 발광부가 사용자의 눈으로 방사한 빛의 반사 패턴을 촬영할 수 있다. 예를 들면, 발광부는, 제1 카메라 모듈(251)을 이용한 시선의 궤적의 추적을 위한 적외선 대역의 빛을 방사할 수 있다. 예를 들어, 발광부는 IR LED를 포함할 수 있다. 일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(120))는 표시 부재(201)에 투영되는 가상 영상이 사용자의 눈동자가 응시하는 방향에 대응되도록 상기 가상 영상의 위치를 조정할 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(251)은 글로벌 셔터(GS) 방식의 카메라를 포함할 수 있고, 동일 규격, 및 성능의 복수개의 제1 카메라 모듈(251)들을 이용하여 사용자의 눈 또는 시선의 궤적을 추적할 수 있다. According to one embodiment, the camera module 250 may include at least one first camera module 251 . According to an embodiment, the first camera module 251 may capture the trace of the user's eyes (eg, pupils) or gaze. For example, the first camera module 251 may capture a reflection pattern of light emitted from the light emitting unit to the user's eyes. For example, the light emitting unit may emit light in an infrared band for tracking a line of sight using the first camera module 251 . For example, the light emitting unit may include an IR LED. According to an embodiment, the processor (eg, the processor 120 of FIG. 1 ) may adjust the position of the virtual image projected on the display member 201 so that it corresponds to the direction in which the user's eyes gaze. According to an embodiment, the first camera module 251 may include a global shutter (GS) camera, and the user's eyes or The trajectory of the gaze can be traced.

다양한 실시예에 따르면, 제1 카메라 모듈(251)은, 사용자의 눈 또는 시선의 궤적과 관련된 정보(예: 궤적 정보)를 프로세서(예: 도 1의 프로세서(120))로 주기적으로 또는 비주기적으로 전송할 수 있다. 다른 실시예에 따르면, 제1 카메라 모듈(251)은 상기 궤적 정보에 기반하여, 사용자 시선이 변경되었음을 감지(예: 머리가 움직이지 않는 상태에서 눈이 기준치 이상 이동)하였을 때, 궤적 정보를 프로세서로 전송할 수 있다.According to various embodiments, the first camera module 251 periodically or aperiodically transmits information (eg, trajectory information) related to the trajectory of the user's eyes or gaze to a processor (eg, the processor 120 of FIG. 1 ). can be sent to According to another embodiment, when the first camera module 251 detects that the user's gaze has changed based on the trajectory information (eg, the eyes move more than a reference value while the head is not moving), the first camera module 251 converts the trajectory information to the processor can be sent to

일 실시 예에 따르면, 카메라 모듈(250)은 제2 카메라 모듈(253)을 포함할 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(253)은 외부의 이미지를 촬영할 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(253)은 글로벌 셔터 방식 또는 롤링 셔터(rolling shutter, RS) 방식의 카메라일 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(253)은 제2 프레임(202b)에 형성된 제2 광학 홀(223)을 통해 외부의 이미지를 촬영할 수 있다. 예를 들어, 제2 카메라 모듈(253)은, 고해상도의 컬러 카메라를 포함할 수 있으며, HR(high resolution) 또는 PV(photo video) 카메라일 수 있다. 또한, 제2 카메라 모듈(253)은, 자동 초점 기능(auto focus, AF)과 이미지 안정화 기능(optical image stabilizer, OIS)을 제공할 수 있다. According to one embodiment, the camera module 250 may include a second camera module 253. According to one embodiment, the second camera module 253 may capture an external image. According to an embodiment, the second camera module 253 may be a global shutter type camera or a rolling shutter (RS) type camera. According to an embodiment, the second camera module 253 may capture an external image through the second optical hole 223 formed in the second frame 202b. For example, the second camera module 253 may include a high resolution color camera and may be a high resolution (HR) or photo video (PV) camera. In addition, the second camera module 253 may provide an auto focus (AF) function and an optical image stabilizer (OIS) function.

다양한 실시예들에 따르면(미도시), 전자 장치(200)는 제2 카메라 모듈(253)과 인접하도록 위치한 플래시(미도시)를 포함할 수 있다. 예를 들면, 플래시(미도시)는 제2 카메라 모듈(253)의 외부 이미지 획득 시, 전자 장치(200) 주변의 밝기(예: 조도)를 증대시키기 위한 광을 제공할 수 있으며, 어두운 환경, 다양한 광원의 혼입, 및/또는 빛의 반사로 인한 이미지 획득의 어려움을 감소시킬 수 있다.According to various embodiments (not shown), the electronic device 200 may include a flash (not shown) located adjacent to the second camera module 253 . For example, a flash (not shown) may provide light for increasing the brightness (eg, illuminance) around the electronic device 200 when acquiring an external image of the second camera module 253, in a dark environment, It is possible to reduce difficulty in obtaining an image due to mixing of various light sources and/or reflection of light.

일 실시 예에 따르면, 카메라 모듈(250)은 적어도 하나의 제3 카메라 모듈(255)을 포함할 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은 렌즈 프레임(202)에 형성된 제1 광학 홀(221)을 통해 사용자의 동작을 촬영할 수 있다. 예를 들어, 제3 카메라 모듈(255)은 사용자의 제스처(예: 손동작)를 촬영할 수 있다. 상기 제3 카메라 모듈(255) 및/또는 제1 광학 홀(221)은 렌즈 프레임(202)(예: 제2 프레임(202b))의 양 측단, 예를 들어, X 방향에서 렌즈 프레임(202)(예: 제2 프레임(202b))의 양 단부에 각각 배치될 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은 글로벌 셔터(global shutter, GS) 방식의 카메라일 수 있다. 예를 들면, 제3 카메라 모듈(255)은, 3DoF(degrees of freedom, 자유도), 또는 6DoF를 지원하는 카메라로 360도 공간(예: 전 방향), 위치 인식 및/또는 이동 인식을 제공할 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은, 스테레오 카메라로 동일 규격, 및 성능의 복수개의 글로벌 셔터 방식의 카메라를 이용하여 이동 경로 추적 기능(simultaneous localization and mapping, SLAM) 및 사용자 움직임 인식 기능을 수행할 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은 IR(infrared) 카메라(예: TOF(time of flight) camera, 또는 structured light camera)를 포함할 수 있다. 예를 들어, IR 카메라는 피사체와의 거리를 감지하기 위한 센서 모듈(예: 도 1의 센서 모듈(176))의 적어도 일부로 동작될 수 있다.According to one embodiment, the camera module 250 may include at least one third camera module 255 . According to an embodiment, the third camera module 255 may capture a motion of the user through the first optical hole 221 formed in the lens frame 202 . For example, the third camera module 255 may capture a user's gesture (eg, hand motion). The third camera module 255 and/or the first optical hole 221 are both side ends of the lens frame 202 (eg, the second frame 202b), for example, the lens frame 202 in the X direction. (eg, may be disposed at both ends of the second frame 202b). According to an embodiment, the third camera module 255 may be a global shutter (GS) camera. For example, the third camera module 255 is a camera supporting 3 degrees of freedom (3DoF) or 6DoF to provide 360-degree space (eg, omnidirectional), location recognition, and/or movement recognition. can According to an embodiment, the third camera module 255 is a stereo camera, and uses a plurality of global shutter type cameras having the same standard and performance to perform simultaneous localization and mapping (SLAM) and user motion recognition. function can be performed. According to an embodiment, the third camera module 255 may include an infrared (IR) camera (eg, a time of flight (TOF) camera or a structured light camera). For example, the IR camera may operate as at least a part of a sensor module (eg, the sensor module 176 of FIG. 1 ) for detecting a distance to a subject.

일 실시예에 따르면, 제1 카메라 모듈(251) 또는 제3 카메라 모듈(255) 중 적어도 하나는 센서 모듈(예: 도 1의 센서 모듈(176))로 대체될 수 있다. 예를 들면, 센서 모듈은, VCSEL(vertical cavity surface emitting laser), 적외선 센서, 및/또는 포토 다이오드(photodiode) 중 적어도 하나를 포함할 수 있다. 예를 들면, 포토 다이오드는 PIN(positive intrinsic negative) 포토 다이오드, 또는 APD(avalanche photo diode)를 포함할 수 있다. 상기 포토 다이오드는, 포토 디텍터(photo detector), 또는 포토 센서로 일컬어 질 수 있다.According to an embodiment, at least one of the first camera module 251 and the third camera module 255 may be replaced with a sensor module (eg, the sensor module 176 of FIG. 1 ). For example, the sensor module may include at least one of a vertical cavity surface emitting laser (VCSEL), an infrared sensor, and/or a photodiode. For example, the photodiode may include a positive intrinsic negative (PIN) photodiode or an avalanche photodiode (APD). The photo diode may be referred to as a photo detector or a photo sensor.

일 실시예에 따르면, 제1 카메라 모듈(251), 제2 카메라 모듈(253) 또는 제3 카메라 모듈(255) 중 적어도 하나는, 복수의 카메라 모듈들(미도시)을 포함할 수 있다. 예를 들면, 제2 카메라 모듈(253)은 복수의 렌즈들(예: 광각 및 망원 렌즈) 및 이미지 센서들로 구성되어 전자 장치(200)의 한 면(예: -Y축을 향하는 면)에 배치될 수 있다. 예를 들면, 전자 장치(200)는 각각 다른 속성(예: 화각) 또는 기능을 가진 복수의 카메라 모듈들을 포함할 수 있고, 사용자의 선택 및/또는 궤적 정보에 기반하여, 카메라 모듈의 화각을 변경하도록 제어할 수 있다. 예를 들면, 상기 복수의 카메라 모듈들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다.According to an embodiment, at least one of the first camera module 251 , the second camera module 253 , and the third camera module 255 may include a plurality of camera modules (not shown). For example, the second camera module 253 is composed of a plurality of lenses (eg, wide-angle and telephoto lenses) and image sensors and is disposed on one side (eg, the side facing the -Y axis) of the electronic device 200. It can be. For example, the electronic device 200 may include a plurality of camera modules each having a different property (eg, angle of view) or function, and the angle of view of the camera module may be changed based on user selection and/or trajectory information. can be controlled to For example, at least one of the plurality of camera modules may be a wide-angle camera and at least the other may be a telephoto camera.

다양한 실시예에 따르면, 프로세서(예: 도 1의 프로세서(120))는 센서 모듈(예: 도 1의 센서 모듈(176))의 제스처 센서, 자이로 센서, 또는 가속도 센서 중 적어도 하나를 이용하여 획득한 전자 장치(200)의 정보 및 제3 카메라 모듈(255)을 이용하여 획득한 사용자의 동작(예: 전자 장치(200)에 대한 사용자 신체의 접근)을 이용하여, 전자 장치(200)의 움직임 및/또는 사용자의 움직임을 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(200)는 서술된 센서 이외에 자기장 및 자력션을 이용하여 방위를 측정할 수 있는 자기(지자기) 센서, 및/또는 자기장의 세기를 이용하여 움직임 정보(예: 이동 방향 또는 이동 거리)를 획득할 수 있는 홀 센서를 포함할 수 있다. 예를 들면, 프로세서는 자기(지자기) 센서, 및/또는 홀 센서로부터 획득된 정보에 기반하여, 전자 장치(200)의 움직임 및/또는 사용자의 움직임을 판단할 수 있다.According to various embodiments, a processor (eg, the processor 120 of FIG. 1 ) acquires data using at least one of a gesture sensor, a gyro sensor, or an acceleration sensor of a sensor module (eg, the sensor module 176 of FIG. 1 ). Movement of the electronic device 200 using the information of one electronic device 200 and the user's motion acquired using the third camera module 255 (eg, the user's body approaching the electronic device 200) and/or determine the user's movement. According to an embodiment, the electronic device 200 may use a magnetic (geomagnetic) sensor capable of measuring a direction using a magnetic field and magnetic force in addition to the above-described sensor, and/or motion information (eg, movement) using the strength of a magnetic field. direction or moving distance) may be included. For example, the processor may determine the movement of the electronic device 200 and/or the movement of the user based on information obtained from a magnetic (geomagnetic) sensor and/or a Hall sensor.

다양한 실시예에 따르면(미도시), 전자 장치(200)는 사용자와의 상호 작용이 가능한 입력 기능(예: 터치, 및/또는 압력 감지 기능)을 수행할 수 있다. 예를 들면, 터치 및/또는 압력 감지 기능을 수행하도록 구성된 구성 요소(예: 터치 센서, 및/또는 압력 센서)가 착용 부재(203)의 적어도 일부에 배치될 수 있다. 전자 장치(200)는 상기 구성 요소를 통해 획득된 정보에 기반하여 표시 부재(201)를 통해 출력되는 가상 영상을 제어할 수 있다. 예를 들어, 터치 및/또는 압력 감지 기능과 관련된 센서는 저항막 방식(resistive type), 정전 용량 방식(capacitive type), 전자기 유도형(electro-magnetic type, EM), 또는 광 감지 방식(optical type)과 같은 다양한 방식으로 구성될 수 있다. 일 실시예에 따르면, 상기 터치 및/또는 압력 감지 기능을 수행하도록 구성된 구성 요소는 도 1의 입력 모듈(150)의 구성과 전부 또는 일부 동일할 수 있다.According to various embodiments (not shown), the electronic device 200 may perform an input function capable of interacting with a user (eg, a touch and/or pressure sensing function). For example, a component configured to perform a touch and/or pressure sensing function (eg, a touch sensor and/or a pressure sensor) may be disposed on at least a portion of the wearing member 203 . The electronic device 200 may control a virtual image output through the display member 201 based on the information obtained through the components. For example, sensors related to touch and/or pressure sensing may be of the resistive type, capacitive type, electro-magnetic type (EM), or optical type. ) can be configured in a variety of ways. According to one embodiment, components configured to perform the touch and/or pressure sensing function may be all or partly the same as those of the input module 150 of FIG. 1 .

일 실시 예에 따르면, 전자 장치(200)는 렌즈 프레임(202)의 내부 공간에 배치되고, 렌즈 프레임(202)의 강성 보다 높은 강성을 가지도록 형성된 보강 부재(260)를 포함할 수 있다.According to an embodiment, the electronic device 200 may include a reinforcing member 260 disposed in an inner space of the lens frame 202 and having a rigidity higher than that of the lens frame 202 .

일 실시 예에 따르면, 전자 장치(200)는 렌즈 구조(270)를 포함할 수 있다. 상기 렌즈 구조(270)는 빛의 적어도 일부를 굴절시킬 수 있다. 예를 들어, 렌즈 구조(270)는 지정된 굴절력을 가진 도수 렌즈(prescription lens)일 수 있다. 일 실시 예에 따르면, 하우징(210)은 힌지 구조(229)의 일부분을 은폐할 수 있는 힌지 커버(227)를 포함할 수 있다. 상기 힌지 구조(229)의 다른 일부분은 후술할 내측 케이스(231)와 외측 케이스(233) 사이로 수용 또는 은폐될 수 있다.According to an embodiment, the electronic device 200 may include a lens structure 270 . The lens structure 270 may refract at least a portion of light. For example, the lens structure 270 may be a prescription lens having a specified refractive power. According to one embodiment, the housing 210 may include a hinge cover 227 capable of concealing a portion of the hinge structure 229 . Another part of the hinge structure 229 may be accommodated or concealed between an inner case 231 and an outer case 233 to be described later.

다양한 실시예들에 따르면, 착용 부재(203)는 내측 케이스(231)와 외측 케이스(233)를 포함할 수 있다. 내측 케이스(231)는, 예를 들면, 사용자의 신체와 대면하거나 사용자의 신체에 직접 접촉하도록 구성된 케이스로서, 열 전도율이 낮은 물질, 예를 들면, 합성수지로 제작될 수 있다. 일 실시예에 따르면, 내측 케이스(231)는 사용자의 신체와 대면하는 내 측면(예: 도 2의 내 측면(231c))을 포함할 수 있다. 외측 케이스(233)는, 예를 들면, 적어도 부분적으로 열을 전달할 수 있는 물질(예: 금속 물질)을 포함하며, 내측 케이스(231)와 마주보게 결합될 수 있다. 일 실시예에 따르면, 외측 케이스(233)는 상기 내 측면(231c)의 반대인 외 측면(예: 도 2의 외 측면(231d))을 포함할 수 있다. 일 실시예에서, 회로 기판(241) 또는 스피커 모듈(245) 중 적어도 하나는 착용 부재(203) 내에서 배터리(243)와 분리된 공간에 수용될 수 있다. 도시된 실시예에서, 내측 케이스(231)는 회로 기판(241) 및/또는 스피커 모듈(245)을 포함하는 제1 케이스(231a)와, 배터리(243)를 수용하는 제2 케이스(231b)를 포함할 수 있으며, 외측 케이스(233)는 제1 케이스(231a)와 마주보게 결합하는 제3 케이스(233a)와, 제2 케이스(231b)와 마주보게 결합하는 제4 케이스(233b)를 포함할 수 있다. 예를 들어, 제1 케이스(231a)와 제3 케이스(233a)가 결합(이하, '제1 케이스 부분(231a, 233a)')하여 회로 기판(241) 및/또는 스피커 모듈(245)을 수용할 수 있고, 제2 케이스(231b)와 제4 케이스(233b)가 결합(이하, '제2 케이스 부분(231b, 233b)')하여 배터리(243)를 수용할 수 있다. According to various embodiments, the wearing member 203 may include an inner case 231 and an outer case 233 . The inner case 231 is, for example, a case configured to face the user's body or directly contact the user's body, and may be made of a material having low thermal conductivity, for example, synthetic resin. According to one embodiment, the inner case 231 may include an inner side facing the user's body (eg, the inner side 231c in FIG. 2 ). The outer case 233 includes, for example, a material capable of at least partially transferring heat (eg, a metal material), and may be coupled to face the inner case 231 . According to one embodiment, the outer case 233 may include an outer side opposite to the inner side 231c (eg, the outer side 231d of FIG. 2 ). In one embodiment, at least one of the circuit board 241 or the speaker module 245 may be accommodated in a space separated from the battery 243 within the wearing member 203 . In the illustrated embodiment, the inner case 231 includes a first case 231a including the circuit board 241 and/or the speaker module 245 and a second case 231b accommodating the battery 243. The outer case 233 may include a third case 233a coupled to face the first case 231a and a fourth case 233b coupled to face the second case 231b. can For example, the first case 231a and the third case 233a are coupled (hereinafter referred to as 'first case portions 231a and 233a') to accommodate the circuit board 241 and/or the speaker module 245. The second case 231b and the fourth case 233b may be coupled (hereinafter referred to as 'second case parts 231b and 233b') to accommodate the battery 243 .

일 실시 예에 따르면, 제1 케이스 부분(231a, 233a)은 힌지 구조(229)를 통해 렌즈 프레임(202)에 회전 가능하게 결합되고, 제 2 케이스 부분(231b, 233b)은 연결 구조(235)를 통해 제1 케이스 부분(231a, 233a)의 단부에 연결 또는 장착될 수 있다. 어떤 실시예에서, 연결 구조(235) 중, 사용자 신체에 접촉하는 부분은 열 전도율이 낮은 물질, 예를 들면, 실리콘(silicone), 폴리우레탄(polyurethane)이나 고무와 같은 탄성체 재질로 제작될 수 있으며, 사용자 신체에 접촉하지 않는 부분은 열 전도율이 높은 물질(예: 금속 물질)로 제작될 수 있다. 예컨대, 회로 기판(241)이나 배터리(243)에서 열이 발생될 때, 연결 구조(235)는 사용자 신체에 접하는 부분으로 열이 전달되는 것을 차단하고, 사용자 신체와 접촉하지 않는 부분을 통해 열을 분산 또는 방출시킬 수 있다. 일 실시예에 따르면, 연결 구조(235) 중 사용자 신체와 접촉하게 구성된 부분은 내측 케이스(231)의 일부로서 해석될 수 있으며, 연결 구조(235) 중 사용자 신체와 접촉하지 않는 부분은 외측 케이스(233)의 일부로서 해석될 수 있다. 일 실시예에 따르면(미도시), 제1 케이스(231a)와 제2 케이스(231b)는 연결 구조(235) 없이 일체형으로 구성되고, 제3 케이스(233a)와 제4 케이스(233b)는 연결 구조(235) 없이 일체형으로 구성될 수 있다. 다양한 실시예에 따라, 도시된 구성요소 외에 다른 구성요소(예: 도 1의 안테나 모듈(197))를 더 포함할 수 있으며, 통신 모듈(190)을 이용하여, 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 외부의 전자 장치(예: 도 1의 전자 장치(102, 104) 또는 서버(108))로부터 사물 또는 환경에 관한 정보를 제공받을 수 있다.According to one embodiment, the first case portions 231a and 233a are rotatably coupled to the lens frame 202 through a hinge structure 229, and the second case portions 231b and 233b are coupled to the connection structure 235 It may be connected to or mounted to the ends of the first case parts 231a and 233a through. In some embodiments, a portion of the connection structure 235 that comes into contact with the user's body may be made of a material with low thermal conductivity, for example, an elastic material such as silicone, polyurethane, or rubber. , A part that does not come into contact with the user's body may be made of a material with high thermal conductivity (eg, a metal material). For example, when heat is generated from the circuit board 241 or the battery 243, the connection structure 235 blocks the transfer of heat to a part in contact with the user's body and dissipates the heat through the part not in contact with the user's body. may be dispersed or released. According to one embodiment, a portion of the connection structure 235 configured to come into contact with the user's body may be interpreted as a part of the inner case 231, and a portion of the connection structure 235 that does not contact the user's body may be interpreted as an outer case ( 233) can be interpreted as part of According to one embodiment (not shown), the first case 231a and the second case 231b are integrally configured without a connection structure 235, and the third case 233a and the fourth case 233b are connected. It may be integrally configured without structure 235 . According to various embodiments, other components (eg, the antenna module 197 of FIG. 1) may be further included in addition to the illustrated components, and a network (eg, the first antenna module 197 of FIG. 1) may be used by using the communication module 190. Information about objects or environments may be provided from external electronic devices (eg, the electronic devices 102 and 104 of FIG. 1 or the server 108) through the first network 198 or the second network 199. .

도 5는, 본 개시의 다양한 실시예들에 따른, 전자 장치의 다른 사시도이다.5 is another perspective view of an electronic device according to various embodiments of the present disclosure.

도 5를 참조하면, 전자 장치(400)는 사용자의 눈 앞에 영상을 제공할 수 있는 헤드 마운팅 장치(head mounting device, HMD)일 수 있다. 도 5의 전자 장치(400)의 구성은 도 2의 전자 장치(200)의 구성과 전부 또는 일부가 동일할 수 있다. Referring to FIG. 5 , the electronic device 400 may be a head mounting device (HMD) capable of providing an image in front of the user's eyes. The configuration of the electronic device 400 of FIG. 5 may be the same in whole or in part as the configuration of the electronic device 200 in FIG. 2 .

다양한 실시예들에 따르면, 전자 장치(400)는 전자 장치(400)의 외관을 형성할 수 있고, 전자 장치(400)의 부품들이 배치될 수 있는 공간을 제공할 수 있는 하우징(410, 420, 430)을 포함할 수 있다According to various embodiments, the electronic device 400 may include housings 410 and 420 that may form an exterior of the electronic device 400 and may provide a space in which parts of the electronic device 400 may be disposed. 430) can be included

다양한 실시예들에 따르면, 전자 장치(400)는 사용자의 머리의 적어도 일부를 둘러쌀 수 있는 제1 하우징(410)을 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(410)은 전자 장치(400)의 외부(예: -Y 방향)를 향하는 제1 면(400a)을 포함할 수 있다. According to various embodiments, the electronic device 400 may include a first housing 410 that may surround at least a portion of the user's head. According to an embodiment, the first housing 410 may include a first surface 400a facing the outside of the electronic device 400 (eg, -Y direction).

다양한 실시예들에 따르면, 제1 하우징(410)은 내부 공간(I)의 적어도 일부를 둘러쌀 수 있다. 예를 들어, 제1 하우징(410)은 전자 장치(400)의 내부 공간(I)을 향하는 제2 면(400b) 및 상기 제2 면(400b)의 반대인 제3 면(400c)을 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(410)은 제3 하우징(430)과 결합되어, 내부 공간(I)을 둘러싸는 폐곡선 형상으로 형성될 수 있다. According to various embodiments, the first housing 410 may surround at least a portion of the inner space (I). For example, the first housing 410 may include a second surface 400b facing the inner space I of the electronic device 400 and a third surface 400c opposite to the second surface 400b. can According to one embodiment, the first housing 410 may be combined with the third housing 430 to form a closed curve shape surrounding the inner space (I).

다양한 실시예들에 따르면, 제1 하우징(410)은 전자 장치(400)의 부품들 중 적어도 일부를 수용할 수 있다. 예를 들어, 광 출력 모듈(예: 도 3a의 광 출력 모듈(211)), 회로 기판(예: 도 3a의 회로 기판(241), 및 스피커 모듈(245))은 상기 제1 하우징(410) 내에 배치될 수 있다.According to various embodiments, the first housing 410 may accommodate at least some of the components of the electronic device 400 . For example, a light output module (eg, the light output module 211 of FIG. 3A ) and a circuit board (eg, the circuit board 241 and the speaker module 245 of FIG. 3A ) are the first housing 410 . can be placed within.

다양한 실시예들에 따르면, 전자 장치(400)의 좌안 및 우안에 대응하는 하나의 표시 부재(440)를 포함할 수 있다. 상기 표시 부재(440)는 제1 하우징(410)에 배치될 수 있다. 도 5의 표시 부재(440)의 구성은 도 2의 표시 부재(201)의 구성과 전부 또는 일부가 동일할 수 있다.According to various embodiments, one display member 440 corresponding to the left and right eyes of the electronic device 400 may be included. The display member 440 may be disposed in the first housing 410 . The configuration of the display member 440 of FIG. 5 may be entirely or partially the same as that of the display member 201 of FIG. 2 .

다양한 실시예들에 따르면, 전자 장치(400)는 사용자의 안면에 안착될 수 있는 제2 하우징(420)을 포함할 수 있다. 일 실시예에 따르면, 제2 하우징(420)은 사용자의 안면과 적어도 일부 대면할 수 있는 제4 면(400d)을 포함할 수 있다. 일 실시예에 따르면, 제4 면(400d)은 전자 장치(400)의 내부 공간(I)을 향하는 방향(예: +Y 방향)의 면일 수 있다. 일 실시예에 따르면, 제2 하우징(420)은 제1 하우징(410)과 결합될 수 있다.According to various embodiments, the electronic device 400 may include a second housing 420 that may be seated on a user's face. According to one embodiment, the second housing 420 may include a fourth surface 400d that may at least partially face the user's face. According to an embodiment, the fourth surface 400d may be a surface in a direction toward the internal space I of the electronic device 400 (eg, +Y direction). According to one embodiment, the second housing 420 may be coupled to the first housing 410 .

다양한 실시예들에 따르면, 전자 장치(400)는 사용자의 후두부에 안착될 수 있는 제3 하우징(430)을 포함할 수 있다. 일 실시예에 따르면, 제3 하우징(430)은 제1 하우징(410)과 결합될 수 있다. 일 실시예에 따르면, 제3 하우징(430)은 전자 장치(400)의 부품들 중 적어도 일부를 수용할 수 있다. 예를 들어, 배터리(예: 도 3a의 배터리(243))는 상기 제3 하우징(430)내에 배치될 수 있다.According to various embodiments, the electronic device 400 may include a third housing 430 that may be seated on the back of the user's head. According to one embodiment, the third housing 430 may be coupled to the first housing 410 . According to an embodiment, the third housing 430 may accommodate at least some of the components of the electronic device 400 . For example, a battery (eg, the battery 243 of FIG. 3A ) may be disposed within the third housing 430 .

도 6은 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.6 is a flowchart illustrating an operation of storing motion information of a user by an electronic device according to an embodiment of the present disclosure.

일 실시 예에 따라, 도 6을 참조하면, 610 동작에서, 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120), 도 2의 전자 장치(200) 또는 도 5의 전자 장치(400))는, 전자 장치가 위치한 실제 공간의 위치 정보를 획득할 수 있다.According to an embodiment, referring to FIG. 6 , in operation 610, an electronic device (eg, the electronic device 101 of FIG. 1 , the processor 120 of FIG. 1 , the electronic device 200 of FIG. 2 , or the electronic device 200 of FIG. 5 ) The electronic device 400 may acquire location information of a real space where the electronic device is located.

일 실시 예에 따라, 전자 장치는 전자 장치의 위치를 감지하는 센서(예: 도 1의 센서 모듈(176))를 통해 전자 장치의 위치 정보를 획득할 수 있다. 예를 들어, 전자 장치의 위치를 감지하는 센서는 GPS 센서일 수 있다. 일 실시 예에 따라, 전자 장치는 장소에 배치된 외부 전자 장치(예: 비콘)으로부터 위치 정보가 포함된 신호를 수신하여, 위치 정보를 획득할 수 있다.According to an embodiment, the electronic device may obtain location information of the electronic device through a sensor that detects the location of the electronic device (eg, the sensor module 176 of FIG. 1 ). For example, a sensor for detecting the position of an electronic device may be a GPS sensor. According to an embodiment, an electronic device may obtain location information by receiving a signal including location information from an external electronic device (eg, a beacon) disposed in a place.

일 실시 예에 따라, 620 동작에서, 전자 장치는 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득할 수 있다.According to an embodiment, in operation 620, the electronic device may acquire object information related to a plurality of real objects included in the real space.

일 실시 예에 따라, 전자 장치는 카메라(예: 도 1의 카메라 모듈(180))을 통해 주변 영상을 획득하고, 획득된 영상을 기반으로, 주변에 배치된 실제 오브젝트의 위치 및/또는 종류와 관련된 오브젝트 정보를 획득할 수 있다. 예를 들어, 전자 장치는 카메라를 통해 획득된 주변 영상들을 기반으로, 전자 장치와, 전자 장치가 향하는 방향의 공간(예: 벽) 및 공간에 배치된 실제 오브젝트와의 거리를 기반으로, 공간 내에서의 실제 오브젝트 위치(또는 배치)를 포함하는 오브젝트 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 획득된 영상에 포함된 실제 오브젝트의 이미지 및/또는 실제 오브젝트에 포함된 텍스트를 기반으로 실제 오브젝트의 종류(예: 열쇠, 책상, 시계, 소파와 같이 오브젝트가 무엇인지)와 관련된 오브젝트 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 TOF(Time of flight) 방식, 스테레오스코프 비전(stereoscopic vision) 방식, 구조화 광 패턴(structured light pattern) 방식 중 적어도 하나의 방식을 이용하는 센서(예: 도 1의 센서 모듈(176))를 통해 실제 오브젝트의 위치와 관련된 오브젝트 정보를 획득할 수도 있다.According to an embodiment, the electronic device obtains a surrounding image through a camera (eg, the camera module 180 of FIG. 1 ), and based on the obtained image, the location and/or type of a real object disposed in the surrounding Related object information can be obtained. For example, the electronic device, based on the surrounding images obtained through the camera, based on the distance between the electronic device and the space (eg, wall) in the direction the electronic device faces and a real object disposed in the space, within the space. Object information including an actual object location (or arrangement) in may be obtained. According to an embodiment, the electronic device determines the type of real object (eg, what type of object is a key, desk, watch, or sofa) based on an image of a real object included in an acquired image and/or text included in the real object. object information related to recognition) may be obtained. According to an embodiment, the electronic device may include a sensor (eg, the sensor of FIG. 1 ) using at least one of a time of flight (TOF) method, a stereoscopic vision method, and a structured light pattern method. Object information related to the location of the real object may be obtained through module 176).

일 실시 예에 따라, 630 동작에서, 전자 장치는 전자 장치의 움직임 정보를 획득할 수 있다. 예를 들어, 전자 장치는 전자 장치에 포함된 복수의 센서(예: 도 1의 센서 모듈(176))를 통해 전자 장치의 움직임 정보를 획득할 수 있다. According to an embodiment, in operation 630, the electronic device may obtain motion information of the electronic device. For example, the electronic device may obtain motion information of the electronic device through a plurality of sensors included in the electronic device (eg, the sensor module 176 of FIG. 1 ).

예를 들어, 전자 장치는, 가속도 센서(accelerometer), 자이로스코프 센서(gyroscope), 자기 센서(magnetic sensor)와 같은 모션 센서(motion sensor) 및/또는 카메라를 통해 전자 장치의 움직임 정보를 획득할 수 있다. For example, the electronic device may obtain motion information of the electronic device through a camera and/or a motion sensor such as an accelerometer, a gyroscope sensor, or a magnetic sensor. there is.

일 실시 예에 따라, 전자 장치는 통신 회로(예: 도 1의 통신 모듈(190))를 통해 외부 장치로부터 사용자의 움직임 정보를 더 획득할 수 있다. 예를 들어, 외부 장치는 외부 카메라, 전자 장치 이외의 사용자의 움직임을 감지할 수 있는 전자 장치일 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라(예: CCTV, 블랙박스, 가전에 포함된 카메라)로부터 사용자의 움직임이 포함된 영상을 수신하고, 수신된 영상을 기반으로 사용자의 움직임 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 전자 장치의 움직임과 관련된 센싱 값을 수신하고, 수신된 센싱 값을 기반으로 사용자의 움직임 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치는 스마트 워치, 스마트 밴드와 같은 사용자에게 착용된 웨어러블 전자 장치일 수 있고, 스마트폰과 같은 사용자가 쥐거나, 사용자의 신체의 일부에 고정되거나 사용자의 옷 또는 가방 속에 있어 사용자의 움직임을 감지할 수 있는 전자 장치일 수 있다.According to an embodiment, the electronic device may further obtain motion information of the user from an external device through a communication circuit (eg, the communication module 190 of FIG. 1 ). For example, the external device may be an electronic device capable of detecting a user's movement other than an external camera or an electronic device. According to an embodiment, the electronic device receives an image including a user's movement from an external camera (eg, a CCTV camera, a black box, or a camera included in a home appliance), and obtains user movement information based on the received image. can According to an embodiment, the electronic device may receive a sensing value related to the movement of the external electronic device and obtain motion information of the user based on the received sensing value. For example, the external electronic device may be a wearable electronic device worn by the user, such as a smart watch or smart band, held by the user, such as a smartphone, fixed to a part of the user's body, or in the user's clothes or bag. It may be an electronic device capable of detecting a user's movement.

일 실시 예에 따라, 640 동작에서, 전자 장치의 움직임 정보가 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 전자 장치를 착용한 사용자의 움직임의 특징점 정보를 획득할 수 있다. 예를 들어, 전자 장치는 센서(예: 모션 센서)를 통해 획득된 전자 장치의 이동 또는 회전의 방향, 거리, 속도 및/또는 흔들림을 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 사용자 움직임의 특징점 정보는 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다.According to an embodiment, in operation 640, when the motion information of the electronic device satisfies a set condition related to at least some of a plurality of real objects included in the real space, feature point information of the motion of a user wearing the electronic device is obtained. can For example, the electronic device may acquire feature point information of the user's movement based on the direction, distance, speed, and/or shaking of the movement or rotation of the electronic device obtained through a sensor (eg, a motion sensor). According to an embodiment, the feature point information of the user's motion may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.

일 실시 예에 따라, 전자 장치는 전자 장치의 이동 방향이 아래로 수직 방향인 경우 무릎이 접히는 것으로 식별하고, 아래로 포물선 방향인 경우 허리가 접히는 것으로 식별할 수 있다. 일 실시 예에 따라, 전자 장치는 전자 장치가 아래로 포물선 방향으로 이동하는 경우, 포물선의 반경이 작으면 목이 숙여지는 것으로 식별하고, 포물선의 반경이 크면 허리가 접히는 것으로 식별할 수 있다.According to an embodiment, the electronic device may identify that the knee is folded when the movement direction of the electronic device is downward in a vertical direction, and may identify that the waist is folded when the moving direction of the electronic device is in a downward parabolic direction. According to an embodiment, when the electronic device moves downward in a parabolic direction, the electronic device may identify that the neck is bent if the radius of the parabola is small, and identify that the waist is bent if the radius of the parabola is large.

일 실시 예에 따라, 전자 장치는 카메라를 통해 획득된 영상을 더 이용하여 사용자 움직임의 특징점 정보를 획득할 수 있다. 예를 들어, 전자 장치는 카메라를 통해 획득된 영상에 포함된 실제 공간을 기반으로 사용자의 이동 경로와 목, 허리와 같은 사용자의 신체 일부의 움직임 정보를 포함하는 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 카메라를 통해 획득된 영상에 포함된 사용자의 손, 발의 움직임을 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다.According to an embodiment, the electronic device may further use an image obtained through a camera to obtain feature point information of the user's motion. For example, the electronic device may obtain feature point information including motion information of the user's movement path and parts of the user's body, such as the neck and waist, based on a real space included in an image obtained through a camera. According to an embodiment, the electronic device may obtain feature point information of the user's motion based on the motions of the user's hands and feet included in the image obtained through the camera.

일 실시 예에 따라, 외부 전자 장치로부터 사용자의 움직임 정보를 더 획득한 경우, 전자 장치는 수신된 움직임 정보를 더 고려하여 사용자의 움직임의 특징점 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치로부터 사용자가 포함된 영상을 획득한 경우, 전자 장치는 영상에 포함된 사용자의 움직임을 분석하여 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 사용자 신체의 일부에 장착된 외부 전자 장치로부터 움직임 정보(예: 모션 센서의 센싱 값)를 수신하면, 수신된 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. According to an embodiment, when motion information of the user is further obtained from an external electronic device, the electronic device may further consider the received motion information to obtain feature point information of the motion of the user. For example, when an image including a user is obtained from an external electronic device, the electronic device may obtain feature point information of the user's movement by analyzing the user's movement included in the image. According to an embodiment, upon receiving motion information (eg, a sensing value of a motion sensor) from an external electronic device mounted on a part of the user's body, the electronic device obtains feature point information of the user's motion based on the received motion information. can

일 실시 예에 따라, 설정된 조건은, 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다. 예를 들어, 설정된 조건은 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 기존 행동을 벗어나는 행동이거나, 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임을 포함할 수 있다.According to an embodiment, the set condition may be set based on at least one of location information of the electronic device, object information around the electronic device, and time information. For example, the set condition is a behavior that deviates from the user's existing behavior based on at least one of location information of the electronic device, object information around the electronic device, or time information, or a trigger for acquiring information on a characteristic point of the user's movement in advance. Can include designated movements.

예를 들어, 시간 정보는, 운전 중, 낚시 또는 다이빙과 같은 액티비티 수행 중, 재활 치료 중, 특정 사건 발생시, 특정 스케줄의 일정시 또는 사용자가 지정한 시점과 관련된 시간이 포함될 수 있다.For example, the time information may include time related to driving, performing activities such as fishing or diving, during rehabilitation, when a specific event occurs, when a specific schedule is scheduled, or when a user designates.

예를 들어, 위치 정보는, 웨어러블 전자 장치가 위치한 위치의 정보 및, 집, 자동차, 병실, 물 속, 호텔, 지하철, 가게, 낚시터, 주차장과 같은 장소 정보를 포함할 수 있다. For example, the location information may include information on a location where the wearable electronic device is located and place information such as a house, a car, a hospital room, in the water, a hotel, a subway, a shop, a fishing spot, and a parking lot.

일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 사용자의 평상시의 행동과는 다른 행동(예: 평상시와는 다른 위치에 물건을 두는 행동) 또는 낙상과 같이 사고 발생시의 움직임을 포함할 수 있다. 일 실시 예에 따라, 설정된 조건이 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임인 경우, 설정된 조건은 사용자가 특정 장소에 위치한 경우 또는 특정 행동(예: 춤 또는 미리 녹화된 행동)를 포함할 수 있다.According to an embodiment, when the set condition is a behavior deviating from the user's existing behavior, a behavior different from the user's usual behavior (eg, a behavior of putting an object in a different location than usual) or a movement at the time of an accident, such as a fall. can include According to an embodiment, when the set condition is a motion designated in advance as a trigger for obtaining information on feature points of the user's motion, the set condition is when the user is located in a specific place or a specific action (eg, dance or pre-recorded action). can include

일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 전자 장치는 메모리에 저장된 전자 장치의 움직임 패턴과 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 설정된 조건을 만족하는 것으로 확인할 수 있다. 일 실시 예에 따라, 메모리에 저장된 전자 장치의 움직임 패턴은, 전자 장치를 착용한 사용자의 평상시 움직임에 의해 획득되는 것으로, 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다. 예를 들어, 메모리에 저장된 전자 장치의 움직임 패턴은, 전자 장치 또는 서버(예: 도 1의 서버(108))에 의해 학습된 것일 수 있으며, 메모리 또는 서버에 저장된 다양한 움직임 패턴과 연관된 데이터베이스에 기반하여 학습에 기반하여 획득될 수 있다.According to an embodiment, when a set condition is a behavior that deviates from a user's existing behavior, the electronic device is determined to satisfy the set condition when a difference between a motion pattern of the electronic device stored in a memory and motion information of the electronic device is equal to or greater than a set value. You can check. According to an embodiment, the movement pattern of the electronic device stored in the memory is acquired by the normal movement of a user wearing the electronic device, and is obtained by at least one of location information of the electronic device, object information around the electronic device, and time information. It may be related and learned. For example, the movement patterns of the electronic device stored in the memory may be learned by the electronic device or a server (eg, the server 108 of FIG. 1 ), based on a database associated with various movement patterns stored in the memory or the server. It can be obtained based on learning.

일 실시 예에 따라, 전자 장치의 움직임 패턴은 특정 장소에서, 특정 장소에 배치된 복수의 오브젝트 중 적어도 일부와 관련된 사용자의 평상시 움직임에 의한 것일 수 있다. 일 실시 예에 따라, 전자 장치의 움직임 패턴은 특정 장소에서, 특정 시간 대에 장소에 배치된 오브젝트와는 무관한 사용자의 평상시 움직임에 의한 것일 수 있다. 일 실시 예에 따라, 전자 장치의 움직임 패턴은, 특정 장소에서, 특정 시간 대에, 특정 장소에 배치된 복수의 오브젝트 중 적어도 일부와 관련된 사용자의 평상시 움직임에 의한 것일 수 있다.According to an embodiment, the movement pattern of the electronic device may be based on a user's normal movement related to at least some of a plurality of objects arranged in a specific place. According to an embodiment, the movement pattern of the electronic device may be a user's usual movement irrelevant to an object disposed in a specific place at a specific time. According to an embodiment, the movement pattern of the electronic device may be based on a user's usual movement related to at least some of a plurality of objects arranged in a specific place, at a specific time, and in a specific place.

일 실시 예에 따라, 메모리에 저장된 전자 장치의 움직임 패턴은, 전자 장치를 착용한 사용자의 움직임에 의해 획득되는 것으로, 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다.According to an embodiment, the movement pattern of the electronic device stored in the memory is acquired by the movement of a user wearing the electronic device, and is associated with at least one of location information of the electronic device, object information around the electronic device, and time information. may have been learned.

일 실시 예에 따라, 사용자의 움직임에 기반한 전자 장치의 움직임이 설정된 조건을 만족하는지 여부를 확인하는 동작은 이하 도 7 및 도 8을 참조하여 설명하기로 한다.According to an embodiment, an operation of determining whether a motion of an electronic device based on a user's motion satisfies a set condition will be described with reference to FIGS. 7 and 8 .

일 실시 예에 따라, 사용자 움직임의 특징점의 정보를 획득하기 위한 설정된 조건에 대해서는 이하 도 10에 대한 설명에 된 [표 1] 및 [표 2]를 참조하여 설명하기로 한다.According to an embodiment, set conditions for obtaining information on feature points of user motion will be described with reference to [Table 1] and [Table 2] in the description of FIG. 10 .

일 실시 예에 따라, 특징점 정보는, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는 사용자의 신체에 포함된 복수의 관절 중 일부 관절(예: 머리, 경추, 어깨, 팔꿈치, 손목, 요추, 골반, 무릎)의 3차원 이동 정보 및 일부 관절의 상호 인접한 관절을 연결하는 본의 3차원 이동 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of bones connecting the plurality of joints. For example, the feature point information may include 3D movement information of some joints (eg, head, cervical spine, shoulder, elbow, wrist, lumbar spine, pelvis, knee) among a plurality of joints included in the user's body, and mutually adjacent joints of some joints. It may include 3D movement and rotation information of the bones connecting the . According to an embodiment, the feature point information may further include movement path information of the user based on movement information of joints or bones.

일 실시 예에 따른, 복수의 관절의 움직임 정보 및 본의 움직임 정보는 이하 도 9를 참조하여 설명하기로 한다. 이와 같이, 영상 또는 사용자의 전체의 움직임 정보가 아닌 특징점 정보를 추출함으로 인해, 데이터 처리 또는 저장에 필요한 리소스를 줄이고, 사용자의 개인 정보를 보호할 수 있다.According to an exemplary embodiment, motion information of a plurality of joints and motion information of bones will be described with reference to FIG. 9 . In this way, by extracting feature point information rather than image or user motion information, resources required for data processing or storage may be reduced and user personal information may be protected.

일 실시 예에 따라, 650 동작에서, 전자 장치는 획득된 특징점 정보를 메모리(예: 도 1의 메모리(130))에 저장할 수 있다. 예를 들어, 전자 장치는 복수의 관절에 대응되는 특징점의 좌표의 이동 정보 및 복수의 관절을 연결한 본의 이동 정보 및 각도 정보를 메모리에 저장할 수 있다.According to an embodiment, in operation 650, the electronic device may store the obtained feature point information in a memory (eg, the memory 130 of FIG. 1 ). For example, the electronic device may store movement information of coordinates of feature points corresponding to a plurality of joints and movement information and angle information of a bone connecting a plurality of joints in a memory.

일 실시 예에 따라, 전자 장치는 획득된 특징점 정보를 통신 회로를 통해 서버에 전송할 수 있으며, 서버는 전자 장치로부터 수신된 특징점 정보를 저장할 수 있다. 이와 같이, 특징점 정보를 서버에 저장하는 경우, 특징점 정보가 획득된 전자 장치와는 다른 전자 장치와 특징점 정보를 공유하고, 다른 전자 장치가 특징점 정보를 사용할 수 있게 된다.According to an embodiment, the electronic device may transmit acquired feature point information to a server through a communication circuit, and the server may store the feature point information received from the electronic device. In this way, when the minutiae point information is stored in the server, the minutiae point information is shared with other electronic devices than the electronic device from which the minutiae point information was obtained, and the other electronic devices can use the minutiae point information.

도 7은 본 개시의 일 실시 예에 따른 전자 장치의 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation of storing motion information of a user of an electronic device according to an embodiment of the present disclosure.

일 실시 예에 따라, 701 동작에서, 데이터 베이스(700)(예: 도 1의 서버(108) 또는 도 1의 메모리(130))는 미리 지정한 기본 값을 저장하고 있으며, 지속적인 사용자 로그를 빅데이터로 처리할 수 있다. 예를 들어, 미리 지정한 기본 값은 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임과 관련된 정보를 포함할 수 있고, 지속적인 사용자 로그는 특정 사용자의 평상시의 행동을 누적하여 빅데이터로 관리하는 것을 포함할 수 있다.According to one embodiment, in operation 701, the database 700 (eg, the server 108 of FIG. 1 or the memory 130 of FIG. 1) stores pre-designated basic values, and continuously converts user logs into big data. can be processed with For example, a pre-designated basic value is a trigger for obtaining information on feature points of a user's movement, and may include information related to a pre-designated movement, and a continuous user log accumulates a specific user's usual behavior and manages it as big data. may include doing

도 7에서는 데이터 베이스(700)에서 미리 지정한 기본 값 저장 및 사용자 로그를 빅데이터로 처리하는 것으로 도시 및 설명하였으나, 일 실시 예에 따라, 전자 장치(101)가 미리 지정한 기본 값을 저장하고, 지속적으로 사용자 로그를 빅데이터로 처리할 수도 있다.In FIG. 7 , it has been illustrated and described that the database 700 stores preset default values and processes user logs as big data, but according to an embodiment, the electronic device 101 stores preset default values and continuously User logs can also be processed as big data.

일 실시 예에 따라, 702 동작에서, 전자 장치(101)(예: 도 1의 전자 장치(101), 도 1의 프로세서(120) 또는 도 2의 전자 장치(200))는, 외부 오브젝트를 카메라(예: 도 1의 카메라 모듈(180))를 통해 인식할 수 있다. 예를 들어, 전자 장치(101)는 사용자에게 착용된 웨어러블 전자 장치일 수 있으며, 카메라를 통해 전자 장치(101)가 위치한 공간에 포함된 실제 오브젝트를 인식하고, 오브젝트 정보를 획득할 수 있다. 예를 들어, 오브젝트 정보는, 실제 오브젝트의 위치 정보, 종류 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, in operation 702, the electronic device 101 (eg, the electronic device 101 of FIG. 1 , the processor 120 of FIG. 1 , or the electronic device 200 of FIG. 2 ) selects an external object as a camera. (eg, the camera module 180 of FIG. 1). For example, the electronic device 101 may be a wearable electronic device worn by a user, recognize a real object included in a space where the electronic device 101 is located, and obtain object information through a camera. For example, object information may include at least one of location information and type information of a real object.

일 실시 예에 따라, 703 동작에서, 전자 장치(101)는 사용자가 외부 오브젝트와 상호 작용 중인지 여부를 확인할 수 있다. 예를 들어, 전자 장치(101)는 카메라를 통해 사용자의 움직임을 촬영하여 사용자가 외부 오브젝트와 상호 작용(예: 사용자가 차 키를 테이블 위에 두는 행동) 중인지 여부를 확인할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 센서(예: 도 1의 센서 모듈(176))를 통해 사용자의 움직임을 감지하여 사용자가 외부 오브젝트와 상호 작용(예: 사용자가 소파에 앉는 행동) 중인지 여부를 확인할 수 있다. According to an embodiment, in operation 703, the electronic device 101 may check whether the user is interacting with an external object. For example, the electronic device 101 may capture the motion of the user through a camera and determine whether the user is interacting with an external object (eg, the user puts a car key on a table). According to an embodiment, the electronic device 101 detects the user's motion through a sensor (eg, the sensor module 176 of FIG. 1 ) so that the user interacts with an external object (eg, the user sits on a sofa). You can check whether it is running or not.

일 실시 예에 따라, 사용자가 외부 객체와 상호 작용 중이 아닌 것으로 확인되면(703 동작-아니오), 704 동작에서, 전자 장치(101)는 사용자의 움직임이 설정된 조건을 만족하는지 여부를 확인할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 데이터베이스(700)에 저장된 미리 지정한 기본 값 또는 사용자의 빅데이터를 기반으로 설정된 조건을 만족하는지 여부를 확인할 수 있다.According to an embodiment, if it is determined that the user is not interacting with an external object (Operation 703 - No), in Operation 704, the electronic device 101 may check whether the user's motion satisfies a set condition. According to an embodiment, the electronic device 101 may check whether a condition set based on a preset basic value stored in the database 700 or big data of a user is satisfied.

예를 들어, 설정된 조건은, 전자 장치(101)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다. 예를 들어, 704 동작에서 설정된 조건은 전자 장치(101)의 위치 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 기존 행동을 벗어나는 행동이거나, 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임을 포함할 수 있다.For example, the set condition may be set based on at least one of location information of the electronic device 101 , object information around the electronic device 101 , and time information. For example, the condition set in operation 704 is an action that deviates from the user's existing action based on at least one of location information and time information of the electronic device 101, or a trigger specified in advance as a trigger for obtaining information on feature points of the user's movement. movement may be included.

예를 들어, 설정된 조건이 사용자의 빅데이터를 기반으로 하는 사용자의 기존 행동을 벗어나는 행동인 경우, 사용자의 평상시의 행동과는 다른 행동(예: 평상시에는 자는 시간에 이동하는 행동)을 포함할 수 있다. 일 실시 예에 따라, 설정된 조건이 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임(예: 미리 지정된 기본 값)인 경우, 사용자가 특정 장소에 위치한 경우 또는 사용자가 특정 행동(예: 춤 또는 미리 녹화된 행동)을 수행하는 경우를 포함할 수 있다.For example, if the set condition is a behavior that deviate from the user's existing behavior based on the user's big data, it may include behavior different from the user's usual behavior (e.g., moving while sleeping normally). there is. According to an embodiment, when a set condition is a movement (eg, a pre-designated default value) as a trigger for acquiring information on feature points of a user's movement, when the user is located in a specific place, or when the user takes a specific action (eg, dancing or pre-recorded actions).

일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 전자 장치(101)는 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴과 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 설정된 조건을 만족하는 것으로 확인할 수 있다. 일 실시 예에 따라, 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴은, 전자 장치(100)를 착용한 사용자의 평상시 움직임에 의해 획득되는 것으로, 전자 장치(100)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다. 예를 들어, 데이터베이스(700)에 저장된 전자 장치의 움직임 패턴은, 전자 장치(101) 또는 서버(예: 도 1의 서버(108))에 의해 학습된 것일 수 있으며, 메모리(예: 도 1의 메모리(130)) 또는 서버에 저장된 인공지능 모델에 의해 학습된 것일 수 있다.According to an embodiment, when the set condition is a behavior that deviates from the user's existing behavior, the electronic device 101 determines the difference between the motion pattern of the electronic device 101 stored in the database 700 and the motion information of the electronic device as a set value. If it is above, it can be confirmed that the set condition is satisfied. According to an embodiment, the movement pattern of the electronic device 101 stored in the database 700 is acquired by the user's usual movement wearing the electronic device 100, and the location information of the electronic device 100, electronic It may be learned in association with at least one of object information or time information around the device 101 . For example, the motion patterns of the electronic device stored in the database 700 may be learned by the electronic device 101 or a server (eg, the server 108 of FIG. It may be learned by an artificial intelligence model stored in the memory 130) or a server.

일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하지 않으면(704 동작-아니오), 705 동작에서, 전자 장치(101)는 기록물을 폐기할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보일 수 있다.According to an embodiment, if the user's motion does not satisfy the set condition (Operation 704 - No), in Operation 705, the electronic device 101 may discard the recorded material. For example, the recorded material may be information related to the movement of the electronic device 101 sensed by the sensor.

일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하면(704 동작-예), 706 동작에서, 전자 장치(101)는 기록물을 저장할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보로, 전자 장치(101)의 움직임을 기반으로 획득된 특징점 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 전자 장치(101)의 움직임을 기반으로 획득된 전자 장치(101)를 착용한 사용자의 복수의 관절의 움직임 정보 및 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는, 사용자의 복수의 관절의 3차원 이동 정보, 본의 3차원 이동 정보 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, if the user's motion satisfies the set condition (Operation 704-Yes), in Operation 706, the electronic device 101 may store the recorded material. For example, the recorded material is information related to the movement of the electronic device 101 sensed by the sensor, and may include feature point information obtained based on the movement of the electronic device 101 . According to an embodiment, the feature point information includes motion information of a plurality of joints of a user wearing the electronic device 101 obtained based on motion of the electronic device 101 and motion information of bones connecting the joints. can include For example, the minutiae point information may include 3D movement information of a plurality of joints of the user, 3D movement information and rotation information of a bone. According to an embodiment, the feature point information may further include movement path information of the user based on movement information of joints or bones.

일 실시 예에 따라, 사용자가 외부 객체와 상호 작용 중인 것으로 확인되면(703 동작-예), 707 동작에서, 전자 장치(101)는 사용자 및 외부 오브젝트의 움직임이 설정된 조건을 만족하는지 여부를 확인할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 데이터베이스(700)에 저장된 미리 지정한 기본 값 또는 사용자의 빅데이터를 기반으로 설정된 조건을 만족하는지 여부를 확인할 수 있다.According to an embodiment, when it is confirmed that the user is interacting with an external object (Operation 703-Yes), in Operation 707, the electronic device 101 may determine whether the movements of the user and the external object satisfy a set condition. there is. According to an embodiment, the electronic device 101 may check whether a condition set based on a preset basic value stored in the database 700 or big data of a user is satisfied.

예를 들어, 설정된 조건은, 전자 장치(101)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다. 예를 들어, 707 동작에서 설정된 조건은 전자 장치(101)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 기존 행동을 벗어나는 행동이거나, 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임을 포함할 수 있다.For example, the set condition may be set based on at least one of location information of the electronic device 101 , object information around the electronic device 101 , and time information. For example, the condition set in operation 707 is an action that deviate from the user's existing action based on at least one of location information of the electronic device 101, object information around the electronic device 101, and time information, or a characteristic point of the user's movement. A pre-specified motion may be included as a trigger for obtaining information of .

예를 들어, 설정된 조건이 사용자의 빅데이터를 기반으로 하는 사용자의 기존 행동을 벗어나는 행동인 경우, 사용자의 평상시의 행동과는 다른 행동(예: 평상시와는 다른 위치에 물건을 두는 행동)을 포함할 수 있다. 일 실시 예에 따라, 설정된 조건이 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임(예: 미리 지정된 기본 값)인 경우, 사용자가 특정 장소에 위치한 경우 또는 사용자가 특정 행동(예: 주차장에서 차에서 내려서 건물 입구로 걸어가는 행동)을 수행하는 경우를 포함할 수 있다.For example, if the set condition is a behavior that deviate from the user's existing behavior based on the user's big data, it includes behavior different from the user's usual behavior (e.g., behavior of putting things in a different location than usual). can do. According to an embodiment, when a set condition is a movement (eg, a pre-designated default value) as a trigger for acquiring information on feature points of a user's movement, when the user is located in a specific place, or when the user takes a specific action (eg, An action of getting out of a car in a parking lot and walking to the entrance of a building).

일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 전자 장치(101)는 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴과 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 설정된 조건을 만족하는 것으로 확인할 수 있다. 일 실시 예에 따라, 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴은, 전자 장치(100)를 착용한 사용자의 평상시 움직임에 의해 획득되는 것으로, 전자 장치(100)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다. 예를 들어, 데이터베이스(700)에 저장된 전자 장치의 움직임 패턴은, 전자 장치(101) 또는 서버(예: 도 1의 서버(108))에 의해 학습된 것일 수 있으며, 메모리(예: 도 1의 메모리(130)) 또는 서버에 저장된 인공지능 모델에 의해 학습된 것일 수 있다.According to an embodiment, when the set condition is a behavior that deviates from the user's existing behavior, the electronic device 101 determines the difference between the motion pattern of the electronic device 101 stored in the database 700 and the motion information of the electronic device as a set value. If it is above, it can be confirmed that the set condition is satisfied. According to an embodiment, the movement pattern of the electronic device 101 stored in the database 700 is acquired by the user's usual movement wearing the electronic device 100, and the location information of the electronic device 100, electronic It may be learned in association with at least one of object information or time information around the device 101 . For example, the motion pattern of the electronic device stored in the database 700 may be learned by the electronic device 101 or a server (eg, the server 108 of FIG. It may be learned by an artificial intelligence model stored in the memory 130) or a server.

일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하지 않으면(707 동작-아니오), 705 동작에서, 전자 장치(101)는 기록물을 폐기할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보일 수 있다.According to an embodiment, if the user's motion does not satisfy the set condition (Operation 707 - No), in Operation 705, the electronic device 101 may discard the recorded material. For example, the recorded material may be information related to the movement of the electronic device 101 sensed by the sensor.

일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하면(707 동작-예), 706 동작에서, 전자 장치(101)는 기록물을 저장할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보로, 전자 장치(101)의 움직임을 기반으로 획득된 특징점 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 전자 장치(101)의 움직임을 기반으로 획득된 전자 장치(101)를 착용한 사용자의 복수의 관절의 움직임 정보 및 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는 사용자의 복수의 관절의 3차원 이동 정보, 본의 3차원 이동 정보 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, if the user's movement satisfies the set condition (Operation 707 - Yes), in Operation 706, the electronic device 101 may store the recorded material. For example, the recorded material is information related to the movement of the electronic device 101 sensed by the sensor, and may include feature point information obtained based on the movement of the electronic device 101 . According to an embodiment, the feature point information includes motion information of a plurality of joints of a user wearing the electronic device 101 obtained based on motion of the electronic device 101 and motion information of bones connecting the joints. can include For example, the feature point information may include 3D movement information of a plurality of joints of the user, 3D movement information and rotation information of a bone. According to an embodiment, the feature point information may further include movement path information of the user based on movement information of joints or bones.

도 8은 본 개시의 일 실시 예에 따라, 사용자의 움직임 정보가 설정된 조건을 만족하는지 여부를 판단하는 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of determining whether motion information of a user satisfies a set condition according to an embodiment of the present disclosure.

일 실시 예에 따라, 801 동작에서, 서버(108)(예: 도 1의 서버(108))는 대다수 사람들의 행동 데이터(또는 기정의된 조건)를 저장한 서버에서 시간, 장소, 행위 요소를 검색할 수 있다. According to one embodiment, in operation 801, the server 108 (eg, the server 108 of FIG. 1 ) retrieves time, place, and behavior factors from a server that stores behavioral data (or predefined conditions) of the majority of people. You can search.

일 실시 예에 따라, 802 동작에서, 서버(108)는 표본 자료를 분석할 수 있다. 예를 들어, 서버(108)는 자유도, 기대 빈도, 검정 통계량 및 연관 P 값을 산출할 수 있다. 일 실시 예에 따라, 서버(108)는 대다수 사람들의 행동 데이터에서 반복되는 패턴을 분석할 수 있다. 예를 들어, 서버(108)는 특정 시간, 특정 장소에서 대대수 사람들의 행위 요소의 반복되는 패턴을 분석하고, 반복되는 패턴을 표본 자료로 획득할 수 있다. 일 실시 예에 따라, 서버(108)는 반복되는 패턴을 분석하여 자유도, 기대 빈도, 검정 통계량 및 연관 P 값을 획득할 수 있다.According to one embodiment, in operation 802, the server 108 may analyze the sampled data. For example, server 108 may calculate degrees of freedom, expected frequencies, test statistics, and associated P values. According to one embodiment, server 108 may analyze recurring patterns in the majority of people's behavioral data. For example, the server 108 may analyze a repeating pattern of behavioral elements of a large number of people at a specific time and a specific place, and obtain the repeating pattern as sample data. According to an embodiment, the server 108 may obtain degrees of freedom, expected frequencies, test statistics, and associated P-values by analyzing repeated patterns.

일 실시 예에 따라, 803 동작에서, 전자 장치(101)(예: 도 1의 전자 장치(101), 도 1의 프로세서(120)) 또는 도 2의 전자 장치(200))는, 사용자의 행동을 감지 및/또는 녹화할 수 있다. 예를 들어, 전자 장치(101)는 센서(예: 도 1의 센서 모듈(176)) 및/또는 카메라(예: 도 1의 카메라 모듈(180))을 통해 사용자의 행동을 감지 및/또는 녹화할 수 있다.According to an embodiment, in operation 803, the electronic device 101 (eg, the electronic device 101 of FIG. 1 or the processor 120 of FIG. 1 ) or the electronic device 200 of FIG. 2 performs a user action can be detected and/or recorded. For example, the electronic device 101 detects and/or records a user's action through a sensor (eg, sensor module 176 in FIG. 1 ) and/or a camera (eg, camera module 180 in FIG. 1 ). can do.

일 실시 예에 따라, 804 동작에서, 전자 장치(101)는 감지 및/또는 녹화된 사용자의 행동 데이터를 전처리할 수 있다. 예를 들어, 전자 장치(101)는 사용자의 행동 데이터를 시간, 장소 또는 행위로 분류할 수 있다. According to an embodiment, in operation 804, the electronic device 101 may pre-process detected and/or recorded user behavior data. For example, the electronic device 101 may classify the user's behavior data into time, place, or action.

일 실시 예에 따라, 805 동작에서, 전자 장치(101)는 데이터 서브 셋(부분집합)을 생성할 수 있다. 예를 들어, 전자 장치(101)는 시간, 장소 또는 행위로 분류된 사용자 행동 데이터를, 시간, 장소 또는 행위 중 적어도 하나를 조합하여 서브 셋을 생성할 수 있다. 예를 들어, 전자 장치(101)는 특정 시간, 특정 장소 또는 특정 행위 중 적어도 하나를 조합한 사용자 행동 데이터의 서브 셋을 생성할 수 있다.According to an embodiment, in operation 805, the electronic device 101 may generate a data subset (subset). For example, the electronic device 101 may generate a subset of user behavior data classified into time, place, or action by combining at least one of time, place, or action. For example, the electronic device 101 may generate a subset of user behavior data combining at least one of a specific time, a specific place, and a specific action.

일 실시 예에 따라, 전자 장치(101)는 서버(108)로부터 표본 자료를 수신하고, 수신된 표본 자료를 기반으로 특정 시간, 특정 장소 또는 특정 행위 중 적어도 하나를 조합하여 데이터 서브 셋을 생성할 수 있다. According to an embodiment, the electronic device 101 receives sample data from the server 108 and generates a data subset by combining at least one of a specific time, a specific place, or a specific action based on the received sample data. can

일 실시 예에 따라, 806 동작에서, 전자 장치(101)는 기술 통계량을 생성할 수 있다. 예를 들어, 전자 장치(101)는 데이터 서브 셋의 평균 또는 산포도 중 적어도 하나를 획득할 수 있다. 예를 들어, 특정 시간, 특정 장소 또는 특정 행위 중 적어도 하나를 조합하여 생성된 복수의 데이터 서브 셋의 평균 또는 산포도 중 적어도 하나를 획득할 수 있다.According to an embodiment, in operation 806, the electronic device 101 may generate descriptive statistics. For example, the electronic device 101 may obtain at least one of an average or a scatter plot of the data subset. For example, at least one of averages or scatter plots of a plurality of subsets of data generated by combining at least one of a specific time, a specific place, and a specific action may be obtained.

일 실시 예에 따라, 807 동작에서, 전자 장치(101)는 동질성 분포를 분석할 수 있다. 예를 들어, 전자 장치(101)는 서버(108)로부터 수신된 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하는지 여부를 확인할 수 있다.According to an embodiment, in operation 807, the electronic device 101 may analyze the homogeneity distribution. For example, the electronic device 101 may compare the sample data received from the server 108 with the descriptive statistics of the data subset to determine whether a standard deviation exceeds 1.

일 실시 예에 따라, 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하면(807 동작-예), 전자 장치(101)는 사용자의 행동 데이터를 서버(108)에 전송하고, 808 동작에서, 서버(108)는 전자 장치(101)로부터 수신된 사용자의 행동 데이터를 저장할 수 있다. 예를 들어, 전자 장치(101)는 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하면 사용자의 행동이 평상시의 행동 패턴과 다른 유의미한 행위인 것으로 확인하고, 사용자의 행동 데이터를 저장할 수 있다. According to an embodiment, if the standard deviation exceeds 1 (action 807-yes) by comparing the descriptive statistics of the sample data and the data subset, the electronic device 101 transmits the user's behavior data to the server 108 and , in operation 808, the server 108 may store the user's behavior data received from the electronic device 101. For example, the electronic device 101 compares the descriptive statistics of the sample data and the data subset, and if the standard deviation exceeds 1, it is determined that the user's behavior is different from the usual behavior pattern, and the user's behavior data can be saved.

일 실시 예에 따라, 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하지 않으면(807 동작-아니오), 809 동작에서, 전자 장치(101)는 사용자의 행동 데이터를 기록하지 않을 수 있다. 예를 들어, 전자 장치(101)는 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하지 않으면 사용자의 행동이 평상시의 행동 패턴인 것으로 확인하고, 사용자의 행동 데이터를 기록하지 않을 수 있다.According to an embodiment, if the standard deviation does not exceed 1 by comparing the descriptive statistics of the sample data and the data subset (Operation 807-No), in Operation 809, the electronic device 101 does not record the user's behavior data. may not be For example, the electronic device 101 compares the sample data and the descriptive statistics of the data subset, determines that the user's behavior is a normal behavior pattern if the standard deviation does not exceed 1, and does not record the user's behavior data. may not be

도 9는 본 개시의 일 실시 예에 따른 사용자의 움직임의 특징점 정보를 설명하기 위한 도면이다.9 is a diagram for explaining feature point information of a user's motion according to an embodiment of the present disclosure.

일 실시 예에 따라, 도 9를 참조하면, 특징점 정보는 사용자의 복수의 관절(910)의 움직임 정보 및 복수의 관절을 연결하는 본(bone)(920)의 움직임 정보를 포함할 수 있다.According to an embodiment, referring to FIG. 9 , feature point information may include motion information of a plurality of joints 910 of a user and motion information of a bone 920 connecting the plurality of joints.

일 실시 예에 따라, 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120) 또는 도 2이 전자 장치(200))는 센서(예: 도 1의 센서 모듈(176))를 통해 획득된 전자 장치의 움직임 정보, 외부 카메라(예: 도 1의 전자 장치(104))를 통해 획득된 사용자의 영상 또는 외부 전자 장치(예: 도 1 의 전자 장치(104))를 통해 획득된 사용자의 움직임 정보 중 적어도 하나를 기반으로, 사용자의 주요 관절(910)(예: 머리, 경추, 어깨, 팔꿈치, 손목, 요추, 무릎, 발목)의 움직임 정보를 획득할 수 있다. 예를 들어, 사용자의 주요 관절(910)의 움직임 정보는 관절(910)의 좌표의 3차원 이동 정보일 수 있다. According to an embodiment, an electronic device (eg, the electronic device 101 of FIG. 1 , the processor 120 of FIG. 1 , or the electronic device 200 of FIG. 2 ) is a sensor (eg, the sensor module 176 of FIG. 1 ). ) obtained through motion information of the electronic device, a user image obtained through an external camera (eg, the electronic device 104 of FIG. 1 ), or an external electronic device (eg, the electronic device 104 of FIG. 1 ). Based on at least one of the acquired motion information of the user, motion information of the user's main joints 910 (eg, head, cervical spine, shoulder, elbow, wrist, lumbar spine, knee, ankle) may be obtained. For example, the motion information of the main joint 910 of the user may be 3D movement information of coordinates of the joint 910 .

일 실시 예에 따라, 본(920)은 인체의 골격 구조에 기반하여 인접한 두 주요 관절(910)을 연결한 것일 수 있다. 예를 들어, 본(920)은, 머리와 경추, 경추와 어깨, 어깨와 팔꿈치, 팔꿈치와 손목, 경추와 요추, 요추와 무릎, 무릎과 발목을 각각 연결한 것일 수 있다.According to an embodiment, the bone 920 may be obtained by connecting two adjacent major joints 910 based on the skeletal structure of the human body. For example, the bone 920 may connect the head and cervical vertebrae, the cervical vertebrae and shoulders, the shoulders and elbows, the elbows and wrists, the cervical vertebrae and lumbar vertebrae, the lumbar vertebrae and knees, and the knees and ankles, respectively.

일 실시 예에 따라, 본(920)의 움직임 정보는 두 점(예: 관절(910))을 연결한 선의 움직임 정보로, 선의 3차원 이동 정보 및 회전 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the motion information of the bone 920 is motion information of a line connecting two points (eg, the joint 910), and may include at least one of 3D movement information and rotation information of the line.

이와 같이, 영상 또는 사용자의 움직임 정보 전체가 아닌 특징점 정보를 추출함으로 인해, 데이터 처리 또는 저장에 필요한 리소스를 줄이고, 사용자의 개인 정보를 보호할 수 있다.In this way, by extracting feature point information rather than entire image or motion information of a user, resources required for data processing or storage may be reduced and personal information of the user may be protected.

도 10은 본 개시의 일 실시 예에 따라, 전자 장치가 저장된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 흐름도이다.10 is a flowchart illustrating an operation of an electronic device to display a 3D virtual object image based on stored feature point information, according to an embodiment of the present disclosure.

일 실시 예에 따라, 도 10을 참조하면, 1010 동작에서, 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120), 도 2의 전자 장치(200) 또는 도 5의 전자 장치(400))는 전자 장치가 위치한 실제 공간의 위치 정보를 획득할 수 있다. According to an embodiment, referring to FIG. 10 , in operation 1010, an electronic device (eg, the electronic device 101 of FIG. 1 , the processor 120 of FIG. 1 , the electronic device 200 of FIG. 2 , or the electronic device 200 of FIG. 5 ) The electronic device 400 may obtain location information of a real space where the electronic device is located.

일 실시 예에 따라, 전자 장치는 전자 장치의 위치를 감지하는 센서(예: 도 1의 센서 모듈(176))를 통해 전자 장치의 위치 정보를 획득할 수 있다. 예를 들어, 전자 장치의 위치를 감지하는 센서는 GPS 센서일 수 있다. 일 실시 예에 따라, 전자 장치는 장소에 배치된 외부 전자 장치(예: 비콘)으로부터 위치 정보가 포함된 신호를 수신하여, 위치 정보를 획득할 수 있다.According to an embodiment, the electronic device may obtain location information of the electronic device through a sensor that detects the location of the electronic device (eg, the sensor module 176 of FIG. 1 ). For example, a sensor for detecting the position of an electronic device may be a GPS sensor. According to an embodiment, an electronic device may obtain location information by receiving a signal including location information from an external electronic device (eg, a beacon) disposed in a place.

일 실시 예에 따라, 1020 동작에서, 전자 장치는 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득할 수 있다.According to an embodiment, in operation 1020, the electronic device may acquire object information related to a plurality of real objects included in the real space.

일 실시 예에 따라, 전자 장치는 카메라(예: 도 1의 카메라 모듈(180))을 통해 주변 영상을 획득하고, 획득된 영상을 기반으로, 주변에 배치된 실제 오브젝트의 위치 및/또는 종류와 관련된 오브젝트 정보를 획득할 수 있다. 예를 들어, 전자 장치는 획득된 영상에 포함된 실제 오브젝트의 이미지 또는 실제 오브젝트에 포함된 텍스트를 기반으로 실제 오브젝트의 종류와 관련된 오브젝트 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 TOF(Time of flight) 방식, 스테레오스코프 비전(stereoscopic vision) 방식, 구조화 광 패턴(structured light pattern) 방식 중 적어도 하나의 방식을 이용하는 센서(예: 도 1의 센서 모듈(176))를 통해 실제 오브젝트의 위치 정보를 획득할 수도 있다.According to an embodiment, the electronic device obtains a surrounding image through a camera (eg, the camera module 180 of FIG. 1 ), and based on the obtained image, the location and/or type of a real object disposed in the surrounding Related object information can be obtained. For example, the electronic device may obtain object information related to the type of the real object based on the image of the real object included in the obtained image or the text included in the real object. According to an embodiment, the electronic device may include a sensor (eg, the sensor of FIG. 1 ) using at least one of a time of flight (TOF) method, a stereoscopic vision method, and a structured light pattern method. The location information of the real object may be obtained through the module 176).

일 실시 예에 따라, 1030 동작에서, 전자 장치는 메모리(예: 도 1의 메모리(130))에, 위치 정보 및/또는 오브젝트 정보와 관련된 사용자의 움직임의 특징점 정보가 저장되어 있으면, 특징점 정보가 있음을 알리는 가상 오브젝트를 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다.According to an embodiment, in operation 1030, if the electronic device stores feature point information of a user's movement related to location information and/or object information in a memory (eg, the memory 130 of FIG. 1 ), the feature point information is stored. A virtual object notifying that there is a virtual object may be displayed on a display (eg, the display module 160 of FIG. 1 ).

일 실시 예에 따라, 특징점 정보는, 도 6에 도시된 바와 같은 전자 장치의 동작에 의해 획득되어 메모리 또는 서버(예: 도 1의 서버(108))에 저장된 것일 수 있다. 예를 들어, 특징점 정보는 전자 장치가 실제 공간에 위치하는 현재 시점 이전에 메모리 또는 서버에 저장된 것일 수 있다.According to an embodiment, feature point information may be obtained by an operation of an electronic device as shown in FIG. 6 and stored in a memory or a server (eg, the server 108 of FIG. 1 ). For example, the feature point information may be stored in a memory or a server prior to a current point in time when the electronic device is located in a real space.

일 실시 예에 따라, 특징점 정보는, 특징점 정보가 메모리에 저장되기 이전에, 실제 공간에서 센서(예: 도 1의 센서 모듈(176))를 통해 획득된 전자 장치의 움직임 정보가, 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 전자 장치의 움직임 정보를 기반으로 획득된 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 메모리에 저장된 것일 수 있다. 예를 들어, 특징점 정보는, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는, 사용자의 복수의 관절의 3차원 이동 정보, 본의 3차원 이동 정보 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, motion information of an electronic device obtained through a sensor (eg, the sensor module 176 of FIG. 1 ) in a real space, before the keypoint information is stored in a memory, is stored in a memory. If a set condition related to at least some of the included real objects is satisfied, information on feature points of motions of a user wearing an electronic device acquired based on motion information of the electronic device may be stored in the memory. For example, the feature point information may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints. For example, the minutiae point information may include 3D movement information of a plurality of joints of the user, 3D movement information and rotation information of a bone. According to an embodiment, the feature point information may further include movement path information of the user based on movement information of joints or bones.

일 실시 예에 따라, 특징점 정보는 전자 장치와 다른 전자 장치에 의해 획득되고 서버에 저장된 것일 수 있다. 예를 들어, 특징점 정보가 획득된 전자 장치와 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 재생하는 장치는 서로 다른 장치일 수 있다.According to an embodiment, feature point information may be acquired by an electronic device different from an electronic device and stored in a server. For example, an electronic device from which feature point information is acquired and a device that reproduces a 3D virtual object image based on the feature point information may be different devices.

일 실시 예에 따라, 전자 장치는 통신 회로(예: 도 1의 통신 모듈(180))를 통해 외부 전자 장치로부터 사용자의 움직임 정보를 더 획득하고, 외부 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 특징점 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치는 외부 카메라(예: CCTV, 블랙박스, 가전에 포함된 카메라), 웨어러블 전자 장치 또는 스마트폰과 같은 단말 장치일 수 있다.According to an embodiment, the electronic device further obtains motion information of the user from the external electronic device through a communication circuit (eg, the communication module 180 of FIG. 1 ), and further considers the motion information of the user obtained from the external device. Thus, feature point information can be obtained. For example, the external electronic device may be an external camera (eg, a CCTV camera, a black box, or a camera included in home appliances), a wearable electronic device, or a terminal device such as a smartphone.

일 실시 예에 따라, 특징점 정보는 외부 카메라로부터 수신된 사용자의 움직임이 포함된 영상을 기반으로 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다. 일 실시 예에 따라, 특징점 정보는 외부 웨어러블 전자 장치 또는 외부 단말 장치로부터 수신된 외부 전자 장치의 움직임과 관련된 센싱 값을 기반으로 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다.According to an embodiment, the feature point information may be obtained by further considering motion information of the user obtained based on an image including the motion of the user received from an external camera. According to an embodiment, the feature point information may be obtained by further considering motion information of the user obtained based on a sensing value related to the motion of the external electronic device received from the external wearable electronic device or the external terminal device.

일 실시 예에 따라, 특징점 정보는 메모리 또는 서버에 저장된 것일 수 있다.According to an embodiment, feature point information may be stored in a memory or a server.

일 실시 예에 따라, 전자 장치는 전자 장치가 위치한 실제 공간과 관련된 사용자의 움직임의 특징점 정보가 저장되어 있으면, 특징점 정보가 있음을 알리는 가상 오브젝트를 공간의 일부 또는 특징점 정보와 관련된 실제 오브젝트 상에 표시하도록 디스플레이를 제어할 수 있다. 예를 들어, 가상 오브젝트는, 팝업 화면 또는 아이콘 형태일 수 있으며, 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 표시하기 위해 선택될 수 있는 UI(user interface)일 수 있다.According to an embodiment, when feature point information of a user's motion related to a real space in which the electronic device is located is stored, the electronic device displays a virtual object informing that the feature point information exists on a part of the space or a real object related to the feature point information. You can control the display to For example, the virtual object may be in the form of a pop-up screen or icon, and may be a user interface (UI) that can be selected to display a 3D virtual object image based on feature point information.

일 실시 예에 따라, 1040 동작에서, 전자 장치는 가상 오브젝트를 통해 특징점 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 획득할 수 있다.According to an embodiment, in operation 1040, when a user input for displaying an image related to feature point information is received through a virtual object, the electronic device may obtain a 3D virtual object image based on the feature point information.

일 실시 예에 따라, 3D 가상 오브젝트 영상은 신체의 움직임을 표현할 수 있는 3D 가상 캐릭터를 포함할 수 있다. 일 실시 예에 따라, 전자 장치는 특징점 정보를 기반으로 공간 내에서 이동하거나, 움직이는 3D 가상 캐릭터를 포함하는 3D 가상 오브젝트 영상을 획득할 수 있다.According to an embodiment, a 3D virtual object image may include a 3D virtual character capable of expressing body movements. According to an embodiment, the electronic device may obtain a 3D virtual object image including a 3D virtual character moving or moving in a space based on feature point information.

일 실시 예에 따라, 3D 가상 오브젝트 영상은 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함할 수 있다. 예를 들어, 3D 가상 오브젝트 영상은 3D 가상 캐릭터와 함께 특징점 정보 획득시에는 실제 공간에 배치되었던 실제 오브젝트와 관련된 가상 오브젝트를 더 포함할 수 있다. 예를 들어, 차 키를 평상시에 두는 위치와 다른 위치에 두는 사용자 행동과 관련된 특징점 정보가 저장된 경우, 특징점 정보를 기반으로 획득된 3D 가상 오브젝트 영상은 차 키와 관련된 가상 오브젝트와, 차 키와 관련된 가상 오브젝트를 평상시에 두는 위치와 다른 위치에 두는 행동을 수행하는 3D 가상 캐릭터를 포함할 수 있다. According to an embodiment, the 3D virtual object image may further include at least one virtual object respectively related to at least one of a plurality of real objects included in the real space. For example, the 3D virtual object image may further include a virtual object related to a real object disposed in a real space when feature point information is acquired together with a 3D virtual character. For example, when feature point information related to a user's action of putting a car key in a different location from a position where he normally puts it is stored, a 3D virtual object image obtained based on the feature point information includes a virtual object related to the car key and a car key related to the car key. It may include a 3D virtual character performing an action of placing the virtual object in a position different from a position in which the virtual object is normally placed.

일 실시 예에 따라, 특징점 정보가 획득되는 상황 및 특징점 정보를 기반으로 표시되는 영상은 이하 [표 1]과 같다. According to an embodiment, a situation in which feature point information is obtained and an image displayed based on the feature point information are shown in [Table 1] below.

제1사용자의 유의미한 행동Significant behavior of the first user AR 3D 캐릭터의 재현Reproduction of AR 3D characters 제1시간1st hour 제1장소1st place 제1사용자의 행동Behavior of the first user 행동을 기록하는 장치device that records behavior 제2시간2nd hour 3D 캐릭터의 행동3D Character Behavior 행동을 재생하는 장치device that reproduces the action 목적purpose 운전중driving 차안에서 in the car 잘못된 조작행동을 함perform wrong operation 카메라, AR glassCamera, AR glass 이후 재생을 원할 때 When you want to play later 아바타가 잘못된 조작행동을 재현Avatar reproduces incorrect operation behavior 사고 조사자의 AR glass 에서In the Accident Investigator's AR glass 기계 기록 추적이 아닌 운전자 행동추적을 통한 사고상황 재현Accident situation reproduction through driver behavior tracking, not mechanical record tracking 사건 발생 시in case of incident 병실에서in the hospital room 침대에서 낙상함fall in bed 카메라camera 이후 재생을 원할 때When you want to play later 아바타가 침대에서 낙상함Avatar fell out of bed 간호사의 AR glass 에서In the nurse's AR glass 의사소통이 원활하지 않은 환자(노인, 유아 등)의 사고 상황 재현 Accident situation reproduction of patients with poor communication (elderly, infant, etc.) 사건 발생 시 in case of incident 집에서at home 차키를 지정된 장소가 아닌 소파 밑에 놓음Leaving the car key under the sofa instead of in the designated place AR glassAR glass 이후 재생을 원할 때When you want to play later 아바타가 차키를 소파 밑에 놓음Avatar puts the car key under the sofa 가족의 AR glass 에서In the family's AR glass 공동으로 쓰는 물건을 잘못된 장소에 뒀을 때 여러 사람이 찾기 쉽도록함Make shared items easier to find if misplaced 재활치료 중in rehabilitation 모든 공간all space 생활속에서 무의식적으로 재활에 좋지 않은 행동을 했을 때When you unconsciously do something that is not good for rehabilitation in your life AR glassAR glass 이후 재생을 원할 때When you want to play later 아바타가 잘못된 행동 패턴을 재현.Avatar reproduces the wrong behavior pattern. 재활 의사의 AR glass에서In the rehabilitation doctor's AR glass 잘못된 생활 행동 패턴 교정을 통해 올바른 재활 가능.Correct rehabilitation is possible through the correction of wrong life behavior patterns. 다이빙 중diving 물속에서in the water 동료에게 수신호 전달Sending signals to co-workers AR glassAR glass 실시간real time 아바타가 수신호를 재현Avatar reproduces hand signal 동료의 AR glassColleague's AR glass 물속에서 시야가 없거나 동료가 멀리 있어 수신호 소통이 가능하게 함 Enables hand signal communication when there is no visibility in the water or when a colleague is far away 신발을 벗지 않고 거실에 들어옴(급하게외출하느라)Entering the living room without taking off shoes (to go out in a hurry) 세제나 요리재료를 쓰고 뚜껑을 닫지 않음Do not close the lid after using detergent or cooking ingredients 스케줄러에 등록된 친구A 의 생일에On the birthday of friend A registered in the scheduler 집에서at home 댄스를 추면if you dance 카메라camera 직후right after 아바타가 생일축하댄스를 춘다Avatar dances happy birthday dance 친구 A 의 AR glass 에서In friend A's AR glass 친구에게 생일축하 메시지를 춤추는 아바타로 보낸다Send a happy birthday message to a friend with a dancing avatar 녹화를 원하는 시점에when you want to record 호텔 방에서in the hotel room 키 꽂는 위치, 냉장고 위치, 금고 위치, 웰컴드링크 위치를 손으로 가리킨다Point with your hand where you insert the key, the location of the refrigerator, the location of the safe, and the location of the welcome drink. AR glassAR glass 손님이 호텔에 체크인 했을 때When a guest checks into a hotel 아바타가 키 꽂는 위치, 냉장고 위치, 금고 위치, 웰컴드링크 위치를 손으로 가리킨다Avatar points to the key insertion location, refrigerator location, safe location, and welcome drink location. 손님의 AR glass 에서In your AR glass 호텔 벨보이 대신 알기쉬운 안내를 수행한다Carrying out easy-to-understand guidance instead of a hotel bellboy 녹화를 원하는 시점에when you want to record 지하철 매표소에서at the subway ticket office 키오스크 앞으로 걸어가 돈을 넣고 표를 산다Walk to the kiosk, insert money and buy a ticket AR glassAR glass 이용객이 원할때When the customer wants 아바타가 키오스크 앞으로 걸어가 돈을 넣고 표를 산다Avatar walks to the kiosk, inserts money and buys a ticket 이용객의 AR glass 에서In the AR glass of the user 이용객이 쉽게 매표 키오스크 위치와 사용방법을 알 수 있다Users can easily know the location of the ticket kiosk and how to use it 차에서 내릴 때when getting out of the car 주차장에서in the parking lot 차에서 내려서건물 입구까지 걸어간다Get out of the car and walk to the entrance of the building. AR glassAR glass 1사용자가 주차장으로 돌아왔을 때1When the user returns to the parking lot 아바타가 건물 입구에서 차까지 거꾸로 걸어간다(rewind)Avatar walks backwards from building entrance to car (rewind) 1사용자의 AR glass 에서1In the user's AR glass 아바타를 따라가면서 주차한 위치를 쉽게 알 수 있다 You can easily know where you parked by following your avatar 낚시에 성공할 때when fishing is successful 낚시터에서at the fishing spot 생선을 낚아올린다catch a fish 카메라camera 재생을 원할 때when you want to play 아바타가 생선을 낚아올린다Avatar catches a fish 1사용자 또는 공유를 허락한 제3자의 AR glass 에서1 In the AR glass of the user or a third party who allowed sharing 성공담을 쉽게 기록하고 공유할 수 있다Easily record and share success stories 녹화를 원하는 시점에when you want to record 매장에서in store 가구를 조립한다.Assemble the furniture. 카메라camera 재생을 원할 때when you want to play 아바타가 가구를 조립한다.Avatar assembles furniture. 가구를 구매한 손님의 AR glass 에서In the AR glass of the customer who purchased the furniture 아바타가 하는 단계를 따라 쉽게 가구를 조립할 수 있다You can easily assemble furniture by following the steps of the avatar.

일 실시 예에 따라, 3D 가상 오브젝트 영상에 포함되는 데이터는 일하 [표 2]와 같을 수 있다. 예를 들어, 3D 가상 오브젝트 영상에는 사용자의 표정 및 움직임을 표현할 가상 캐릭터, 캐릭터가 입은 옷, 실제 오브젝트에 대응되는 가상 오브젝트를 포함할 수 있다. According to an embodiment, data included in a 3D virtual object image may be as shown in [Table 2]. For example, the 3D virtual object image may include a virtual character to express a user's expression and movement, clothes worn by the character, and a virtual object corresponding to a real object.

구분division 3D Data 종류3D Data Type 설명explanation 동작movement 1One Character modelCharacter model 제 1사용자의 행위를 재현할 캐릭터 모델Character model to reproduce the behavior of the first user 사용자가 설정하거나, 시스템에서 지정한 Character model을 표시한다.
*동작 재현 시 사용자가 다를 경우 각각 다른 이모지로 재생이 된다.
Displays the character model set by the user or designated by the system.
*When reproducing the motion, if the user is different, each emoji is reproduced.
22 ClothesClothes 캐릭터가 입은 옷- 사용자가 설정한 옷
- 제 1사용자가 착용한 옷
Clothes worn by the character - clothes set by the user
- Clothes worn by the first user
Character model이 제 2사용자가 설정한 의상을 착용하거나, 제 1사용자가 착용한 옷과 비슷한 의상을 착용한다.The character model wears the clothes set by the second user or clothes similar to the clothes worn by the first user.
33 Additional objectsAdditional objects 캐릭터 몸에 부착되거나3D공간에 함께 표시되는3D object-Device류: 휴대폰, AR glass, 음성출력장치(Buds, 스피커, 헤드셋), 건강보조기구(혈압측정기, 체중계), 입력장치(키보드, 조이스틱) 등
-소품류: 운동기구(요가매트, 공, 덤벨), 우산, 자동차 키, 열쇠 등
Types of 3D object-devices attached to the character body or displayed together in 3D space: mobile phones, AR glass, voice output devices (Buds, speakers, headsets), health aids (blood pressure monitors, weight scales), input devices (keyboards, joysticks) etc.
-Accessories: exercise equipment (yoga mat, ball, dumbbell), umbrella, car keys, keys, etc.
Character model이 제 1사용자가 object를 착용, 이동한 대로 object를 공간에 표시한다.The character model displays the object in the space as the first user wears and moves the object.
44 Facial motionFacial motion 재생 시 의미전달을 위해서 캐릭터가 흉내내는 face 움직임Face movement imitated by the character to convey meaning during playback Character model이 서버에서 로딩한 facial motion을 행한다.The character model performs the facial motion loaded from the server. 55 Body motionbody motion 재생 시 의미전달을 위해서 캐릭터가 흉내내는 motion 움직임Motion movement imitated by the character to convey meaning during playback Character model이 서버에서 로딩한 body motion을 행한다.The character model performs the body motion loaded from the server.

일 실시 예에 따라, 1050 동작에서, 전자 장치는 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. 예를 들어, 전자 장치는 3D 가상 캐릭터 및 실제 오브젝트와 관련된 가상 오브젝트를 포함하는 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다.According to an embodiment, in operation 1050, the electronic device may display a 3D virtual object image on the display. For example, the electronic device may display a 3D virtual object image including a 3D virtual character and a virtual object related to a real object on a display.

일 실시 예에 따라, 실제 오브젝트가 전자 장치와 통신하는 외부 전자 장치인 경우, 전자 장치는 3D 가상 오브젝트 영상과 함께 실제 오브젝트와 관련된 어플리케이션 화면을 더 표시할 수도 있다.According to an embodiment, when the real object is an external electronic device communicating with the electronic device, the electronic device may further display an application screen related to the real object together with a 3D virtual object image.

도 11a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다. 예를 들어, 도 11a에 도시된 사용자는 전자 장치(예: 도 1의 전자 장치(101))를 착용한 상태일 수 있으며, 사용자의 행동을 설명하기 위한 것으로, 전자 장치에 의해 획득되는 영상은 아닐 수 있다. 일 실시 예에 따라, 도 11a의 사용자가 포함된 영상은 외부 카메라 장치로부터 획득될 수는 있다.11A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure. For example, the user shown in FIG. 11A may be wearing an electronic device (eg, the electronic device 101 of FIG. 1 ), and the image acquired by the electronic device is for explaining the user's behavior. It may not be. According to an embodiment, the image including the user of FIG. 11A may be obtained from an external camera device.

일 실시 예에 따라, 도 11a의 (a)를 참조하면, 사용자(10)는 평상시에 차 키(1110)를 사각형 테이블(1111) 위에 둘 수 있다. 일 실시 예에 따라, 사용자(10)는 평상시에 차 키(1110)를 사각형 테이블(1111) 위에 두는 행동은 학습된 것일 수 있으며, 전자 장치는 전자 장치가 위치한 공간의 위치 정보, 공간에 포함된 실제 오브젝트의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 평상시의 행동을 학습할 수 있다.According to an embodiment, referring to (a) of FIG. 11A , the user 10 may normally place the car key 1110 on the rectangular table 1111 . According to an embodiment, the action of the user 10 placing the car key 1110 on the rectangular table 1111 in normal times may have been learned, and the electronic device may include location information of the space where the electronic device is located, information included in the space A user's usual behavior may be learned based on at least one of object information and time information of a real object.

일 실시 예에 따라, 도 11a의 (b)를 참조하면, 전자 장치는 사용자(10)는 차 키(1110)를 원형의 테이블(1120) 위에 두는 경우, 학습된 사용자(10)의 행동과 다른 행동을 하는 설정된 조건을 만족한 것으로 확인할 수 있다.According to an embodiment, referring to (b) of FIG. 11A , when the user 10 puts the car key 1110 on the circular table 1120, the electronic device behaves differently from the learned behavior of the user 10. It can be confirmed that the set condition for action is satisfied.

일 실시 예에 따라, 전자 장치는 차 키(1110)를 원형의 테이블(1120) 위에 두는 사용자(10)의 움직임 정보를 센서(예: 도 1의 센서 모듈(176))로부터 획득하고, 획득된 움직임 정보를 기반으로 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라로부터 사용자의 움직임이 촬상된 영상을 수신하거나, 외부 전자 장치로부터 사용자의 움직임 정보를 수신하고, 수신된 영상 및 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 특징점 정보는 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다. According to an embodiment, the electronic device obtains motion information of the user 10 placing the car key 1110 on the circular table 1120 from a sensor (eg, the sensor module 176 of FIG. 1 ), and obtains the obtained information. Feature point information may be obtained based on motion information. According to an embodiment, the electronic device receives an image in which the user's movement is captured from an external camera, or receives motion information of the user from the external electronic device, and based on the received image and motion information, information on feature points of the user's movement. can be obtained According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.

도 11b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다. FIG. 11B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 11A is stored, according to an embodiment of the present disclosure. it is a drawing

일 실시 예에 따라, 도 11b의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(예: 사각형 테이블(1111))와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1130)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1130)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 11B , after the feature point information is stored, when the electronic device 101 is located again in the space where the feature point information was obtained, the electronic device 101 is related to the space, A virtual object 1130 indicating that feature point information related to an object included in the space (eg, the rectangular table 1111) is stored may be displayed on a display (eg, the display module 160 of FIG. 1 ). For example, the virtual object 1130 notifying that feature point information is stored may be in the form of a pop-up screen or icon.

일 실시 예에 따라, 도 11b의 (a)에서는 하나의 가상 오브젝트(1130)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one virtual object 1130 is shown to be displayed in (a) of FIG. 11B, when two or more feature point information related to a space is stored, two or more virtual objects may be displayed.

일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1130)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 11b의 (b)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the electronic device 101 receives a gesture input of the user 10 selecting the virtual object 1130 notifying that feature point information is stored, as shown in (b) of FIG. 11B, , a 3D virtual object image generated based on stored feature point information may be displayed.

일 실시 예에 따라, 도 11b의 (b)를 참조하면, 전자 장치(101)는 평상시에 두던 사각형 테이블이 아닌 원형 테이블(1120)에 차 키를 두는 3D 가상 캐릭터(1140)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. 일 실시 예에 따라, 3D 가상 오브젝트 영상은 3D 가상 캐릭터(1140)의 손에 쥐어진 차 키에 대응되는 가상 오브젝트(1141)를 더 포함할 수 있다. According to an embodiment, referring to (b) of FIG. 11B, the electronic device 101 displays a 3D virtual character 1140 putting a car key on a round table 1120 instead of a square table normally placed there. An object image may be displayed on a display. According to an embodiment, the 3D virtual object image may further include a virtual object 1141 corresponding to a car key held in the hand of the 3D virtual character 1140 .

이와 같이, 전자 장치는 3D 가상 오브젝트 영상을 통해 저장된 사용자의 움직임 정보를 표시함으로써, 저장된 사용자의 특이 행동을 사용자에게 제공할 수 있다.In this way, the electronic device may provide the stored specific behavior of the user to the user by displaying the stored motion information of the user through the 3D virtual object image.

도 12a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다. 예를 들어, 도 12a에 도시된 사용자는 전자 장치(예: 도 1의 전자 장치(101))를 착용한 상태일 수 있으며, 사용자의 행동을 설명하기 위한 것으로, 전자 장치에 의해 획득되는 영상은 아닐 수 있다. 일 실시 예에 따라, 도 12a의 사용자가 포함된 영상은 외부 카메라 장치로부터 획득될 수는 있다.12A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure. For example, the user shown in FIG. 12A may be in a state wearing an electronic device (eg, the electronic device 101 of FIG. 1 ), and an image acquired by the electronic device is for explaining the user's behavior. It may not be. According to an embodiment, the image including the user of FIG. 12a may be obtained from an external camera device.

일 실시 예에 따라, 도 12a의 (a)에 도시된 바와 같이, 사용자(10)는 주차장에 자동차(1210)를 주차한 후 도 12a의 (b)에 도시된 바와 같이, 건물의 입구(1220)로 향할 수 있다. 일 실시 예에 따라, 사용자 움직임의 특징점 정보를 획득하기 위한 설정된 조건이, 특정 행동(예: 주차 후 건물로 들어가는 행동)인 경우, 전자 장치는 전자 장치의 위치 정보 및 인식된 주변의 오브젝트 정보를 기반으로, 사용자가 자동차(1210)를 주차 후 건물 입구(1220)로 들어가는 사용자의 움직임이 확인되면, 사용자의 움직임이 설정된 조건을 만족함을 확인할 수 있다. According to an embodiment, as shown in (a) of FIG. 12A, after the user 10 parks a car 1210 in a parking lot, as shown in (b) of FIG. 12A, the entrance 1220 of the building ) can be directed to According to an embodiment, when a condition set for obtaining feature point information of a user's motion is a specific action (eg, an action of entering a building after parking), the electronic device may obtain location information of the electronic device and information of recognized surrounding objects. Based on this, if the user's motion entering the building entrance 1220 after parking the car 1210 is confirmed, it can be confirmed that the user's motion satisfies the set condition.

일 실시 예에 따라, 전자 장치는 자동차(1210)를 주차한 위치 정보 및 사용자(10)가 주차 후 건물 입구(1220)까지 가는 동안의 이동 경로와 관련된 사용자(10)의 움직임 정보를 획득하고, 획득된 움직임 정보를 기반으로 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라로부터 사용자의 움직임이 촬상된 영상을 수신하거나, 외부 전자 장치로부터 사용자의 움직임 정보를 수신하고, 수신된 영상 및 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 특징점 정보는 사용자의 이동 경로 정보를 포함할 수 있으며, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다. According to an embodiment, the electronic device acquires location information where the car 1210 is parked and motion information of the user 10 related to a movement path while the user 10 goes to the building entrance 1220 after parking, Feature point information may be obtained based on the acquired motion information. According to an embodiment, the electronic device receives an image in which the user's movement is captured from an external camera, or receives motion information of the user from the external electronic device, and based on the received image and motion information, information on feature points of the user's movement. can be obtained According to an embodiment, the feature point information may include movement path information of the user, motion information of a plurality of joints of the user, and motion information of a bone connecting the plurality of joints.

도 12b는 본 개시의 일 실시 예에 따라, 도 12a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.FIG. 12B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 12A is stored, according to an embodiment of the present disclosure. it is a drawing

일 실시 예에 따라, 도 12b의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(1220)(예: 건물 입구)와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1230)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1230)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 12B , after the feature point information is stored, if the electronic device 101 is located again in the space where the feature point information was obtained, the electronic device 101 is associated with the space, A virtual object 1230 indicating that feature point information related to the object 1220 (eg, a building entrance) included in the space is stored may be displayed on a display (eg, the display module 160 of FIG. 1 ). For example, the virtual object 1230 notifying that feature point information is stored may be in the form of a pop-up screen or icon.

일 실시 예에 따라, 도 12b의 (a)에서는 하나의 가상 오브젝트(1230)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one virtual object 1230 is shown to be displayed in (a) of FIG. 12B, when two or more feature point information related to a space is stored, two or more virtual objects may be displayed.

일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1230)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 12b의 (b) 및 (c)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the electronic device 101 receives a gesture input of the user 10 for selecting the virtual object 1230 notifying that feature point information is stored, the electronic device 101 displays (b) and (c) of FIG. 12b. As shown, a 3D virtual object image generated based on stored feature point information may be displayed.

일 실시 예에 따라, 도 12b의 (b) 및 (c)를 참조하면, 전자 장치(101)는 사용자의 특징점 정보를 기반으로 건물 입구에서 주차된 자동차까지 이동하는 3D 가상 캐릭터(1240)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. According to an embodiment, referring to (b) and (c) of FIG. 12B , the electronic device 101 includes a 3D virtual character 1240 moving from a building entrance to a parked car based on user feature point information. The 3D virtual object image may be displayed on the display.

이와 같이, 전자 장치는 3D 가상 오브젝트 영상을 통해 저장된 사용자의 움직임 정보를 표시함으로써, 설정된 조건을 만족하는 사용자의 움직임에 대한 정보를 사용자에게 제공할 수 있다.As such, the electronic device may provide the user with information about the user's movement that satisfies the set condition by displaying the user's movement information stored through the 3D virtual object image.

도 13a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다. 예를 들어, 도 13a에 도시된 사용자는 전자 장치(예: 도 1의 전자 장치(101))를 착용한 상태일 수 있으며, 사용자의 행동을 설명하기 위한 것으로, 전자 장치에 의해 획득되는 영상은 아닐 수 있다. 일 실시 예에 따라, 도 13a의 사용자가 포함된 영상은 외부 카메라 장치로부터 획득될 수는 있다. 13A is a diagram for explaining a case where an electronic device stores user motion information according to an embodiment of the present disclosure. For example, the user shown in FIG. 13A may be wearing an electronic device (eg, the electronic device 101 of FIG. 1 ), and an image acquired by the electronic device is for explaining the user's behavior. It may not be. According to an embodiment, the image including the user of FIG. 13A may be obtained from an external camera device.

일 실시 예에 따라, 도 13a의 (a)에 도시된 바와 같이, 사용자(10)는 밝기, 온도와 같은 방의 환경을 제어할 수 있는 제어 보드(1310)를 조작하는 동작을 수행하고, 도 13a의 (b)에 도시된 바와 같이, 방에 포함된 가전(1320)을 사용하는 동작을 수행할 수 있다. 일 실시 예에 따라, 사용자 움직임의 특징점 정보를 획득하기 위한 설정된 조건이, 사용자의 녹화 명령 입력 후의 동작인 경우, 전자 장치는 전자 장치의 위치 정보 및 인식된 주변의 오브젝트 정보를 획득하고, 위치 정보 및 오브젝트 정보를 기반으로 사용자(10)의 움직임 정보를 획득할 수 있다. 예를 들어, 특정 공간(예: 호텔 방)에 배치된 가전(예: 제어 보드, 전기 포트 또는 냉장고) 또는 용품(예: 웰컴 드링크, 옷장 또는 어메니티)의 위치 및 사용법을 설명을 위해 움직임 정보가 필요한 경우, 설정된 조건은 사용자의 녹화 명령 입력 후의 동작일 수 있다. 일 실시 예에 따라, 도 13a의 (a) 및 (b)는 사용자(10)의 연속적인 움직임 동작일 수 있다. According to an embodiment, as shown in (a) of FIG. 13A, the user 10 performs an operation of manipulating a control board 1310 capable of controlling room environments such as brightness and temperature, and FIG. 13A As shown in (b) of, an operation using the home appliance 1320 included in the room may be performed. According to an embodiment, when a set condition for obtaining feature point information of a user's motion is an operation after a user inputs a recording command, the electronic device acquires location information of the electronic device and information about a recognized surrounding object, and obtains the location information. And motion information of the user 10 may be obtained based on the object information. For example, movement information may be used to describe the location and usage of appliances (eg control boards, electric kettles or refrigerators) or items (eg welcome drinks, closets or amenities) placed in a particular space (eg hotel room). If necessary, the set condition may be an operation after a user inputs a recording command. According to an embodiment, (a) and (b) of FIG. 13a may be the continuous movement of the user 10.

일 실시 예에 따라, 전자 장치는 사용자(10)의 움직임 정보를 기반으로 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라로부터 사용자의 움직임이 촬상된 영상을 수신하거나, 외부 전자 장치로부터 사용자의 움직임 정보를 수신하고, 수신된 영상 및 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 특징점 정보는 사용자의 이동 경로 정보를 포함할 수 있으며, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다.According to an embodiment, the electronic device may obtain feature point information based on motion information of the user 10 . According to an embodiment, the electronic device receives an image in which the user's movement is captured from an external camera, or receives motion information of the user from the external electronic device, and based on the received image and motion information, information on feature points of the user's movement. can be obtained According to an embodiment, the feature point information may include movement path information of the user, motion information of a plurality of joints of the user, and motion information of a bone connecting the plurality of joints.

도 13b는 본 개시의 일 실시 예에 따라, 도 13a의 (a)의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.FIG. 13b illustrates an operation of displaying a 3D virtual object image related to the stored user motion information by the electronic device when the electronic device is located in the place where the user motion information of FIG. 13A (a) is stored, according to an embodiment of the present disclosure. It is a drawing for explaining.

일 실시 예에 따라, 도 13b의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(1310)(예: 제어 보드)와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 13B , after feature point information is stored, if the electronic device 101 is located again in the space where the feature point information was acquired, the electronic device 101 is related to the space, A virtual object 1330 indicating that feature point information related to the object 1310 (eg, a control board) included in the space is stored may be displayed on a display (eg, the display module 160 of FIG. 1 ). For example, the virtual object 1330 notifying that feature point information is stored may be in the form of a pop-up screen or icon.

일 실시 예에 따라, 도 13b의 (a)에서는 하나의 가상 오브젝트(1330)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one virtual object 1330 is shown to be displayed in (a) of FIG. 13B, when two or more feature point information related to a space is stored, two or more virtual objects may be displayed.

일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 13b의 (b)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the electronic device 101 receives a gesture input of the user 10 for selecting the virtual object 1330 notifying that feature point information is stored, as shown in (b) of FIG. 13B , a 3D virtual object image generated based on stored feature point information may be displayed.

일 실시 예에 따라, 도 13b의 (b)를 참조하면, 전자 장치(101)는 사용자의 특징점 정보를 기반으로 제어 보드(1310)의 위치 및 조작하는 방법을 안내하는 3D 가상 캐릭터(1340)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. According to an embodiment, referring to (b) of FIG. 13B, the electronic device 101 has a 3D virtual character 1340 guiding the location and manipulation method of the control board 1310 based on user feature point information. The included 3D virtual object image may be displayed on the display.

도 13c는 본 개시의 일 실시 예에 따라, 도 13a의 (b)의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.FIG. 13C illustrates an operation of displaying a 3D virtual object image related to stored user motion information by the electronic device when the electronic device is located in the place where the user motion information of FIG. 13A (b) is stored, according to an embodiment of the present disclosure. It is a drawing for explaining.

일 실시 예에 따라, 도 13c의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(1320)(예: 가전)와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1350)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1350)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 13C , after the feature point information is stored, if the electronic device 101 is located again in the space where the feature point information was obtained, the electronic device 101 is associated with the space, A virtual object 1350 indicating that feature point information related to the object 1320 (eg, home appliance) included in the space is stored may be displayed on a display (eg, the display module 160 of FIG. 1 ). For example, the virtual object 1350 notifying that feature point information is stored may be in the form of a pop-up screen or icon.

일 실시 예에 따라, 도 13c의 (a)에서는 하나의 가상 오브젝트(1350)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one virtual object 1350 is shown to be displayed in (a) of FIG. 13C, when two or more feature point information related to a space is stored, two or more virtual objects may be displayed.

일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1350)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 13c의 (b)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the electronic device 101 receives a gesture input of the user 10 selecting a virtual object 1350 notifying that feature point information is stored, as shown in (b) of FIG. 13C , a 3D virtual object image generated based on stored feature point information may be displayed.

일 실시 예에 따라, 도 13c의 (b)를 참조하면, 전자 장치(101)는 사용자의 특징점 정보를 기반으로 가전(1320)의 위치 및 조작하는 방법을 안내하는 3D 가상 캐릭터(1340)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. According to an embodiment, referring to (b) of FIG. 13C, the electronic device 101 includes a 3D virtual character 1340 for guiding the location and manipulation method of the home appliance 1320 based on user feature point information. The 3D virtual object image may be displayed on the display.

일 실시 예에 따라, 도 13b 및 도 13c에서는 저장된 특징점 정보와 관련된 실제 오브젝트(예: 도 13b의 제어 보드(1310) 및 도 13c의 가전(1320)) 각각에 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330, 1350)가 표시되는 것으로 도시되었으나, 실제 구현시에는 녹화 명령 입력 후 복수의 실제 오브젝트에 대한 사용자 움직임이 연속적임에 따라, 도 13b의 (b) 및 도 13c의 (b)에 도시된 3D 가상 오브젝트 영상이 연속적으로 재생될 수도 있다.According to an embodiment, in FIGS. 13B and 13C , a virtual object indicating that feature point information is stored in each of the real objects (eg, the control board 1310 of FIG. 13B and the home appliance 1320 of FIG. 13C ) related to the stored feature point information is stored. Although the objects 1330 and 1350 are shown to be displayed, in actual implementation, as the user's motion for a plurality of real objects is continuous after inputting a recording command, FIGS. 13B(B) and 13C(B) show 3D virtual object images may be continuously reproduced.

이와 같이, 전자 장치는 3D 가상 오브젝트 영상을 통해 저장된 사용자의 움직임 정보를 표시함으로써, 설정된 조건을 만족하는 사용자의 움직임에 대한 정보를 사용자에게 제공할 수 있다.As such, the electronic device may provide the user with information about the user's movement that satisfies the set condition by displaying the user's movement information stored through the 3D virtual object image.

도 14는 본 개시의 일 실시 예에 따른 전자 장치의 통신 연결 형태를 설명하기 위한 도면이다.14 is a diagram for explaining a communication connection form of an electronic device according to an embodiment of the present disclosure.

일 실시 예에 따라, 도 14를 참조하면, 3D 가상 오브젝트 영상 제공 시스템의 서버(108)(예: 도 1의 서버(108))는 복수의 전자 장치(101-1, 101-2)(예: 도 1의 전자 장치(101))와 통신할 수 있다. 예를 들어, 복수의 전자 장치(101-1, 101-2)는 3D 가상 오브젝트 영상을 재생할 수 있는 스마트 안경, HMD 장치와 같은 웨어러블 전자 장치일 수 있다. According to an embodiment, referring to FIG. 14 , the server 108 (eg, the server 108 of FIG. 1 ) of the 3D virtual object image providing system includes a plurality of electronic devices 101-1 and 101-2 (eg, the server 108). : It can communicate with the electronic device 101 of FIG. 1). For example, the plurality of electronic devices 101-1 and 101-2 may be wearable electronic devices such as smart glasses and HMD devices capable of reproducing 3D virtual object images.

일 실시 예에 따라, 서버(108)는 데이터베이스(DB)가 저장된 메모리, 외부 장치들과 통신하기 위한 통신 모듈, 메모리 및 통신 모듈과 작동적으로 연결된 적어도 하나의 프로세서를 포함할 수 있다.According to an embodiment, the server 108 may include a memory in which the database DB is stored, a communication module for communicating with external devices, and at least one processor operatively connected to the memory and communication module.

일 실시 예에 따라, 전자 장치(101-1, 101-2)는 복수의 센서(예: 도 1의 센서 모듈(176))를 포함할 수 있으며, 전자 장치(101-1, 101-2)가 위치한 위치 정보를 획득할 수 있고, 사용자의 신체에 장착되어, 사용자의 움직임과 관련된 센싱 값을 획득할 수 있다.According to an embodiment, the electronic devices 101-1 and 101-2 may include a plurality of sensors (eg, the sensor module 176 of FIG. 1), and the electronic devices 101-1 and 101-2 It is possible to obtain location information where is located, and since it is attached to the user's body, a sensing value related to the user's movement can be obtained.

일 실시 예에 따라, 전자 장치(101-1, 101-2)는 카메라(예: 도 1의 카메라 모듈(1180))를 포함할 수 있으며, 전자 장치(101-1, 101-2)가 위치한 공간에 포함된 오브젝트를 인식하여 오브젝트 정보를 획득할 수 있다.According to an embodiment, the electronic devices 101-1 and 101-2 may include a camera (eg, the camera module 1180 of FIG. 1), and the electronic devices 101-1 and 101-2 are located. Object information may be obtained by recognizing an object included in the space.

일 실시 예에 따라, 전자 장치(101-1, 101-2)는 복수의 외부 전자 장치와 통신할 수 있다. 예를 들어, 전자 장치(101-1, 101-2)는 외부 카메라(1411-1, 1411-2), 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰), 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)와 통신할 수 있다. According to an embodiment, the electronic devices 101-1 and 101-2 may communicate with a plurality of external electronic devices. For example, the electronic devices 101-1 and 101-2 may include external cameras 1411-1 and 1411-2, external electronic devices 1410-1 and 1410-2 (eg, smartphones), or external wearable devices. It may communicate with the electronic devices 1412-1 and 1412-2.

일 실시 예에 따라, 전자 장치(101-1, 101-2)는 복수의 외부 전자 장치로부터 사용자가 촬상된 영상 또는 사용자의 움직임과 관련된 정보(예: 센싱 값)을 수신할 수 있다. 예를 들어, 전자 장치(101-1, 101-2)는 설정된 조건을 만족하는 사용자의 움직임이 확인되면, 설정된 조건을 만족하는 사용자의 움직임이 감지된 기간에 촬상된 영상 또는 획득된 사용자의 움직임과 관련된 정보를 외부 전자 장치로부터 수신할 수 있다. 일 실시 예에 따라, 전자 장치(101-1, 101-2)는 센서에 의해 획득된 센싱 값 및 외부 전자 장치로부터 수신된 영상 또는 사용자의 움직임과 관련된 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. According to an embodiment, the electronic devices 101-1 and 101-2 may receive a captured image of a user or information (eg, a sensing value) related to a user's movement from a plurality of external electronic devices. For example, when the electronic device 101-1 or 101-2 confirms the user's motion that satisfies the set condition, the captured image or the acquired user's motion Information related to may be received from an external electronic device. According to an embodiment, the electronic devices 101-1 and 101-2 obtain feature point information of the user's movement based on a sensing value obtained by a sensor and information related to an image or user's movement received from an external electronic device. can do.

일 실시 예에 따라, 전자 장치(101-1, 101-2)는 특징점 정보를 메모리(예: 도 1의 메모리(130)) 또는 서버(108)에 저장할 수 있다. 일 실시 예에 따라, 특징점 정보가 서버(108)에 저장되는 경우, 제1 전자 장치(101-1)에 의해 획득된 특징점 정보를 기반으로 획득된 3D 가상 오브젝트 영상이 제2 전자 장치(101-2)에 의해 표시될 수도 있다.According to an embodiment, the electronic devices 101-1 and 101-2 may store feature point information in a memory (eg, the memory 130 of FIG. 1) or the server 108. According to an embodiment, when the feature point information is stored in the server 108, the 3D virtual object image obtained based on the feature point information obtained by the first electronic device 101-1 is stored in the second electronic device 101-1. 2) can also be indicated by

일 실시 예에 따라, 전자 장치(101-1, 101-2)가 외부 전자 장치로부터 영상 또는 사용자의 움직임 정보를 수신하여 특징점 정보를 획득하는 것으로 설명하였으나, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)가 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보 중 적어도 하나를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)는 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보를 서버(108)에 전송하여, 서버(108)에 의해 사용자 움직임의 특징점 정보가 획득되도록 할 수 있다. According to an embodiment, it has been described that the electronic devices 101-1 and 101-2 acquire feature point information by receiving images or motion information of the user from external electronic devices, but the external electronic devices 1410-1 and 1410- 2) (e.g., smart phone) sensed values acquired by the electronic devices 101-1 and 101-2, images acquired by the external cameras 1411-1 and 1411-2, or external wearable electronic devices 1412 Based on at least one of the user motion information acquired by steps -1 and 1412-2), feature point information of the user's motion may be obtained. According to an embodiment, the external electronic devices 1410-1 and 1410-2 (eg, smart phones) may include sensing values acquired by the electronic devices 101-1 and 101-2, external cameras 1411-1, 1411-2) or the user movement information obtained by the external wearable electronic devices 1412-1 and 1412-2 are transmitted to the server 108, and the server 108 generates feature point information of the user movement can be obtained.

일 실시 예에 따라, 특징점 정보 저장 이후, 전자 장치(101-1, 101-2)가 해당 장소에 위치하고, 특징점 정보와 관련된 3D 가상 오브젝트 영상을 표시하기 위한 사용자 입력이 수신되면, 전자 장치(101-1, 101-2)는 외부 전자 장치(1410-1, 1410-2) 또는 서버(108)로부터 특징점 정보를 수신하고, 수신된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 3D 가상 오브젝트 영상을 표시할 수 있다. 일 실시 예에 따라, 전자 장치(101-1, 101-2)는 외부 전자 장치(1410-1, 1410-2) 또는 서버(108)로부터 3D 가상 오브젝트 영상을 수신하면, 전자 장치(101-1, 101-2)는 수신된 3D 가상 오브젝트 영상을 표시할 수 있다.According to an embodiment, when the electronic device 101-1 or 101-2 is located at a corresponding place after storing feature point information and receives a user input for displaying a 3D virtual object image related to the feature point information, the electronic device 101 -1, 101-2) receives feature point information from the external electronic devices 1410-1 and 1410-2 or the server 108, obtains a 3D virtual object image based on the received feature point information, and video can be displayed. According to an embodiment, when the electronic device 101-1 or 101-2 receives a 3D virtual object image from the external electronic device 1410-1 or 1410-2 or the server 108, the electronic device 101-1 , 101-2) may display the received 3D virtual object image.

일 실시 예에 따라, 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)에 의해 획득된 사용자 움직임 정보, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보 중 적어도 하나는 서버(108)에 전송될 수 있다. 일 실시 예에 따라, 서버(108)는 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)에 의해 획득된 사용자 움직임 정보, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보 중 적어도 하나를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다.According to an embodiment, sensing values obtained by the electronic devices 101-1 and 101-2, user movement information obtained by the external electronic devices 1410-1 and 1410-2 (eg, smartphones), At least one of the images obtained by the external cameras 1411-1 and 1411-2 and the user movement information obtained by the external wearable electronic devices 1412-1 and 1412-2 may be transmitted to the server 108. . According to an embodiment, the server 108 receives the sensing values obtained by the electronic devices 101-1 and 101-2 and the external electronic devices 1410-1 and 1410-2 (eg, smartphones). User movement based on at least one of the obtained user movement information, images obtained by the external cameras 1411-1 and 1411-2, and user movement information obtained by the external wearable electronic devices 1412-1 and 1412-2 Feature point information of can be obtained.

일 실시 예에 따라, 특징점 정보 저장 이후, 전자 장치(101-1, 101-2)가 해당 장소에 위치하고, 특징점 정보와 관련된 3D 가상 오브젝트 영상을 표시하기 위한 사용자 입력이 수신되면, 전자 장치(101-1, 101-2)는 서버(108)로부터 특징점 정보를 수신하고, 수신된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 3D 가상 오브젝트 영상을 표시할 수 있다. 일 실시 예에 따라, 전자 장치(101-1, 101-2)는 서버(108)로부터 3D 가상 오브젝트 영상을 수신하면, 전자 장치(101-1, 101-2)는 수신된 3D 가상 오브젝트 영상을 표시할 수 있다.According to an embodiment, when the electronic device 101-1 or 101-2 is located at a corresponding place after storing feature point information and receives a user input for displaying a 3D virtual object image related to the feature point information, the electronic device 101 -1, 101-2) may receive feature point information from the server 108, obtain a 3D virtual object image based on the received feature point information, and display the 3D virtual object image. According to an embodiment, when the electronic device 101-1 or 101-2 receives a 3D virtual object image from the server 108, the electronic device 101-1 or 101-2 transmits the received 3D virtual object image. can be displayed

일 실시 예에 따르면, 웨어러블 전자 장치(예: 도 1의 전자 장치(101))는, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서(예: 도 1의 센서 모듈(176)), 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서(예: 도 1의 센서 모듈(176)), 디스플레이(예: 도 1의 디스플레이 모듈(160), 메모리(예: 도 1의 메모리(130)), 적어도 하나의 프로세서(예: 도 1의 프로세서(120))를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고, 상기 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고, 상기 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 상기 디스플레이에 표시하고, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시할 수 있다.According to an embodiment, a wearable electronic device (eg, the electronic device 101 of FIG. 1 ) includes a first sensor (eg, the sensor module 176 of FIG. 1 ) detecting a position of the wearable electronic device, the wearable electronic device A second sensor (eg, the sensor module 176 of FIG. 1 ), a display (eg, the display module 160 of FIG. 1 , a memory (eg, the memory 130 of FIG. 1 )) that senses the surroundings of the electronic device, at least one A processor (eg, the processor 120 of FIG. 1 ), wherein the at least one processor obtains location information of a real space where the wearable electronic device is located through the first sensor, and uses the second sensor If object information related to a plurality of real objects included in the real space is acquired through this process, and feature point information of a user's movement related to the location information and the object information is stored in the memory, the wearable electronic device can detect the real object information. When located in the space, a virtual object indicating that motion information of the feature point is present is displayed on the display, and when a user input for displaying an image related to the motion information of the feature point is received through the virtual object, the motion of the feature point is received. A 3D virtual object image may be acquired based on the information, and the 3D virtual object image may be displayed on the display.

일 실시 예에 따르면, 상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서(예: 도 1의 센서 모듈(176))를 더 포함하고, 상기 특징점 정보는, 상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 적어도 하나의 프로세서에 의해, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것일 수 있다.According to an embodiment, a third sensor (eg, the sensor module 176 of FIG. 1 ) for detecting motion of the wearable electronic device is further included, and the feature point information is stored before the feature point information is stored in the memory. If the motion information of the wearable electronic device acquired through the third sensor in the real space satisfies a set condition related to at least some of a plurality of real objects included in the real space, the at least one processor Thus, feature point information of the motion of the user wearing the wearable electronic device acquired based on the motion information of the wearable electronic device may be stored in the memory.

일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것일 수 있다.According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.

일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 이동 경로 정보를 더 포함하는 것일 수 있다.According to an embodiment, the minutiae point information may further include movement path information of the user.

일 실시 예에 따르면, 통신 회로(예: 도 1의 통신 모듈(190))를 더 포함하고, 상기 특징점 정보는, 상기 통신 회로를 통해 외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다.According to an embodiment, a communication circuit (eg, the communication module 190 of FIG. 1 ) is further included, and the feature point information is acquired by further considering motion information of a user acquired from an external electronic device through the communication circuit. may have been

일 실시 예에 따르면, 상기 설정된 조건은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다.According to an embodiment, the set condition may be set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.

일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하고, 상기 웨어러블 전자 장치의 움직임 패턴은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다.According to an embodiment, the at least one processor determines that the set condition is satisfied when a difference between a motion pattern of the wearable electronic device stored in the memory and motion information of the wearable electronic device is equal to or greater than a set value; The movement pattern of the wearable electronic device may be learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.

일 실시 예에 따르면, 상기 메모리에 저장된 특징점 정보는, 상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것일 수 있다.According to an embodiment, the feature point information stored in the memory may be obtained from a wearable electronic device different from the wearable electronic device.

일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may include a character capable of expressing body movements based on the feature point information.

일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may further include at least one virtual object respectively related to at least one of the plurality of real objects.

일 실시 예에 따르면, 웨어러블 전자 장치의 제어 방법은, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하는 동작, 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하는 동작, 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하는 동작, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하는 동작 및 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 동작을 포함할 수 있다.According to an embodiment, a control method of a wearable electronic device includes an operation of acquiring location information of a real space where the wearable electronic device is located through a first sensor that senses a location of the wearable electronic device, and moving around the wearable electronic device. Obtaining object information related to a plurality of real objects included in the real space through a second sensor that senses, and if the location information and feature point information of the user's movement related to the object information are stored in the memory, the When the wearable electronic device is located in the real space, an operation of displaying a virtual object indicating that there is motion information of the feature point on a display, and receiving a user input for displaying an image related to the motion information of the feature point through the virtual object , an operation of obtaining a 3D virtual object image based on the motion information of the feature point and an operation of displaying the 3D virtual object image on the display may be included.

일 실시 예에 따르면, 상기 특징점 정보는, 상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것일 수 있다.According to an embodiment, the feature point information is motion information of the wearable electronic device obtained through a third sensor for detecting motion of the wearable electronic device in the real space before the feature point information is stored in the memory. If a set condition related to at least some of the plurality of real objects included in the real space is satisfied, the feature point information of the motion of the user wearing the wearable electronic device acquired based on the motion information of the wearable electronic device is It may be stored in memory.

일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것일 수 있다.According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.

일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 이동 경로 정보를 더 포함하는 것일 수 있다.According to an embodiment, the minutiae point information may further include movement path information of the user.

일 실시 예에 따르면, 상기 특징점 정보는, 외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다.According to an embodiment, the feature point information may be obtained by further considering motion information of a user obtained from an external electronic device.

일 실시 예에 따르면, 상기 설정된 조건은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다.According to an embodiment, the set condition may be set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.

일 실시 예에 따르면, 상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하는 동작;을 더 포함하고, 상기 웨어러블 전자 장치의 움직임 패턴은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다.According to an embodiment, the method further includes determining that the set condition is satisfied when a difference between a motion pattern of the wearable electronic device stored in the memory and motion information of the wearable electronic device is equal to or greater than a set value. The movement pattern of the wearable electronic device may be learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.

일 실시 예에 따르면, 상기 메모리에 저장된 특징점 정보는, 상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것일 수 있다.According to an embodiment, the feature point information stored in the memory may be obtained from a wearable electronic device different from the wearable electronic device.

일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may include a character capable of expressing body movements based on the feature point information.

일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may further include at least one virtual object respectively related to at least one of the plurality of real objects.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101). It may be implemented as software (eg, the program 140) including them. For example, a processor (eg, the processor 120 ) of a device (eg, the electronic device 101 ) may call at least one command among one or more instructions stored from a storage medium and execute it. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' only means that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), and this term refers to the case where data is stored semi-permanently in the storage medium. It does not discriminate when it is temporarily stored.

일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component among the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.

Claims (20)

웨어러블 전자 장치에 있어서,
상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서;
상기 웨어러블 전자 장치 주변을 감지하는 제2 센서;
디스플레이;
메모리;
적어도 하나의 프로세서;를 포함하고,
상기 적어도 하나의 프로세서는,
상기 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고,
상기 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고,
상기 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 상기 디스플레이에 표시하고,
상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고,
상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 웨어러블 전자 장치.
In a wearable electronic device,
a first sensor for detecting a location of the wearable electronic device;
a second sensor that senses a periphery of the wearable electronic device;
display;
Memory;
at least one processor;
The at least one processor,
Obtaining location information of a real space where the wearable electronic device is located through the first sensor;
obtaining object information related to a plurality of real objects included in the real space through the second sensor;
If the location information and the information on the user's movement related to the object information are stored in the memory, if the wearable electronic device is located in the real space, a virtual object notifying that there is movement information on the feature point is displayed on the display. display,
When a user input for displaying an image related to the motion information of the feature point is received through the virtual object, a 3D virtual object image is obtained based on the motion information of the feature point;
A wearable electronic device displaying the 3D virtual object image on the display.
제1항에 있어서,
상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서;를 더 포함하고,
상기 특징점 정보는,
상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 적어도 하나의 프로세서에 의해, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것인, 웨어러블 전자 장치.
According to claim 1,
A third sensor for detecting motion of the wearable electronic device; further comprising;
The feature point information,
Before the feature point information is stored in the memory, the motion information of the wearable electronic device acquired through the third sensor in the real space is related to at least some of a plurality of real objects included in the real space. If is satisfied, the feature point information of the motion of the user wearing the wearable electronic device, obtained by the at least one processor based on the motion information of the wearable electronic device, is stored in the memory.
제2항에 있어서,
상기 특징점 정보는,
상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것인, 웨어러블 전자 장치.
According to claim 2,
The feature point information,
The wearable electronic device comprising motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.
제3항에 있어서,
상기 특징점 정보는,
상기 사용자의 이동 경로 정보를 더 포함하는 것인, 웨어러블 전자 장치.
According to claim 3,
The feature point information,
The wearable electronic device further comprising the user's movement path information.
제2항에 있어서,
통신 회로;를 더 포함하고,
상기 특징점 정보는,
상기 통신 회로를 통해 외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것인, 웨어러블 전자 장치.
According to claim 2,
further comprising a communication circuit;
The feature point information,
The wearable electronic device obtained by further considering the motion information of the user obtained from the external electronic device through the communication circuit.
제2항에 있어서,
상기 설정된 조건은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것인, 웨어러블 전자 장치.
According to claim 2,
The set conditions are
The wearable electronic device, which is set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
제6항에 있어서,
상기 적어도 하나의 프로세서는,
상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하고,
상기 웨어러블 전자 장치의 움직임 패턴은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것인, 웨어러블 전자 장치.
According to claim 6,
The at least one processor,
When a difference between a motion pattern of the wearable electronic device stored in the memory and motion information of the wearable electronic device is equal to or greater than a set value, it is determined that the set condition is satisfied;
The movement pattern of the wearable electronic device,
The wearable electronic device is learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
제1항에 있어서,
상기 메모리에 저장된 특징점 정보는,
상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것인, 웨어러블 전자 장치.
According to claim 1,
The feature point information stored in the memory is
A wearable electronic device obtained from a wearable electronic device different from the wearable electronic device.
제1항에 있어서,
상기 3D 가상 오브젝트는,
상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것인, 웨어러블 전자 장치.
According to claim 1,
The 3D virtual object,
A wearable electronic device comprising a character capable of expressing body movements based on the feature point information.
제9항에 있어서,
상기 3D 가상 오브젝트는,
상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것인, 웨어러블 전자 장치.
According to claim 9,
The 3D virtual object,
The wearable electronic device further comprises at least one virtual object respectively related to at least one of the plurality of real objects.
웨어러블 전자 장치의 제어 방법에 있어서,
상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하는 동작;
상기 웨어러블 전자 장치 주변을 감지하는 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하는 동작;
메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하는 동작;
상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하는 동작; 및
상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 동작;을 포함하는 웨어러블 전자 장치의 제어 방법.
In the control method of a wearable electronic device,
obtaining location information of a real space where the wearable electronic device is located through a first sensor that senses the location of the wearable electronic device;
obtaining object information related to a plurality of real objects included in the real space through a second sensor that detects a periphery of the wearable electronic device;
When the location information and the feature point information of the user's motion related to the object information are stored in the memory, when the wearable electronic device is located in the real space, displaying a virtual object indicating that there is movement information of the feature point on a display. movement;
obtaining a 3D virtual object image based on the motion information of the feature point when a user input for displaying an image related to the motion information of the feature point is received through the virtual object; and
A control method of a wearable electronic device comprising: displaying the 3D virtual object image on the display.
제11항에 있어서,
상기 특징점 정보는,
상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 11,
The feature point information,
Before the feature point information is stored in the memory, the motion information of the wearable electronic device acquired through the third sensor for detecting the motion of the wearable electronic device in the real space is stored in a plurality of real spaces included in the real space. If a set condition related to at least some of the objects is satisfied, control of the wearable electronic device, in which information on the characteristic point of the movement of the user wearing the wearable electronic device obtained based on the motion information of the wearable electronic device is stored in the memory. method.
제12항에 있어서,
상기 특징점 정보는,
상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 12,
The feature point information,
The method of controlling a wearable electronic device comprising motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.
제13항에 있어서,
상기 특징점 정보는,
상기 사용자의 이동 경로 정보를 더 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 13,
The feature point information,
The control method of the wearable electronic device further comprising the user's movement path information.
제12항에 있어서,
상기 특징점 정보는
외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것인 웨어러블 전자 장치의 제어 방법.
According to claim 12,
The feature point information is
A control method of a wearable electronic device obtained by further considering motion information of a user acquired from an external electronic device.
제12항에 있어서,
상기 설정된 조건은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 12,
The set conditions are
The control method of the wearable electronic device, which is set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
제16항에 있어서,
상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하는 동작;을 더 포함하고,
상기 웨어러블 전자 장치의 움직임 패턴은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 16,
When the difference between the motion pattern of the wearable electronic device stored in the memory and the motion information of the wearable electronic device is equal to or greater than a set value, determining that the set condition is satisfied;
The movement pattern of the wearable electronic device,
The control method of the wearable electronic device, which is learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
제11항에 있어서,
상기 메모리에 저장된 특징점 정보는,
상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 11,
The feature point information stored in the memory is
A control method of a wearable electronic device obtained from a wearable electronic device different from the wearable electronic device.
제11항에 있어서,
상기 3D 가상 오브젝트는,
상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 11,
The 3D virtual object,
A control method of a wearable electronic device comprising a character capable of expressing body movements based on the feature point information.
제19항에 있어서,
상기 3D 가상 오브젝트는,
상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 19,
The 3D virtual object,
The control method of the wearable electronic device further comprising at least one virtual object respectively related to at least one of the plurality of real objects.
KR1020220014394A 2021-12-07 2022-02-03 Waearable electronic device displaying virtual object and method for controlling the same KR20230085794A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20210174060 2021-12-07
KR1020210174060 2021-12-07

Publications (1)

Publication Number Publication Date
KR20230085794A true KR20230085794A (en) 2023-06-14

Family

ID=86744848

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220014394A KR20230085794A (en) 2021-12-07 2022-02-03 Waearable electronic device displaying virtual object and method for controlling the same

Country Status (1)

Country Link
KR (1) KR20230085794A (en)

Similar Documents

Publication Publication Date Title
US11947728B2 (en) Electronic device for executing function based on hand gesture and method for operating thereof
US20230152900A1 (en) Wearable electronic device for displaying virtual object and method of controlling the same
US20230135420A1 (en) Wearable electronic device for displaying virtual object and method of controlling the same
EP4274396A1 (en) Wearable electronic device comprising heat dissipation structure
KR20230088100A (en) Electronic device for using of virtual input device and method of operating the same
KR20230085794A (en) Waearable electronic device displaying virtual object and method for controlling the same
CN117917192A (en) Glasses type electronic device including flexible circuit board
KR20220118170A (en) Wearable electronic device
US11832048B2 (en) Electronic device including speaker module
US20230204985A1 (en) Wearable electronic device
US11762486B2 (en) Electronic device for performing plurality of functions using stylus pen and method for operating same
US11994677B2 (en) Wearable electronic device
US20240046578A1 (en) Wearable electronic device displaying virtual object and method for controlling the same
US20240087221A1 (en) Method and apparatus for determining persona of avatar object in virtual space
US20220260832A1 (en) Wearable electronic device
US20230213984A1 (en) Electronic device including connection member
US20240143267A1 (en) Electronic device for using external device in metaverse and method thereof
US20240046591A1 (en) Wearable electronic device displaying virtual object and method for controlling the same
US20240087220A1 (en) Electronic device and method of providing content sharing based on object
EP4372709A1 (en) Electronic device and method for providing notification information
US20240151987A1 (en) Wearable electronic device
EP4369076A1 (en) Wearable electronic device comprising sensor module
EP4332658A1 (en) Wearable electronic device and method for controlling power path thereof
KR20230030883A (en) Electronic device for performing a plurality of functions using stylus pen and method for operating thereof
KR20230084924A (en) Wearable electronic device and external electronic device accommodating the same