KR20230085794A - Waearable electronic device displaying virtual object and method for controlling the same - Google Patents
Waearable electronic device displaying virtual object and method for controlling the same Download PDFInfo
- Publication number
- KR20230085794A KR20230085794A KR1020220014394A KR20220014394A KR20230085794A KR 20230085794 A KR20230085794 A KR 20230085794A KR 1020220014394 A KR1020220014394 A KR 1020220014394A KR 20220014394 A KR20220014394 A KR 20220014394A KR 20230085794 A KR20230085794 A KR 20230085794A
- Authority
- KR
- South Korea
- Prior art keywords
- electronic device
- information
- wearable electronic
- user
- feature point
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 31
- 230000033001 locomotion Effects 0.000 claims abstract description 340
- 238000004891 communication Methods 0.000 claims description 65
- 210000000988 bone and bone Anatomy 0.000 claims description 27
- 230000006399 behavior Effects 0.000 description 53
- 230000009471 action Effects 0.000 description 31
- 239000011521 glass Substances 0.000 description 23
- 230000006870 function Effects 0.000 description 18
- 238000010586 diagram Methods 0.000 description 17
- 239000000463 material Substances 0.000 description 13
- 238000012545 processing Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 210000003128 head Anatomy 0.000 description 10
- 230000003287 optical effect Effects 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 230000003190 augmentative effect Effects 0.000 description 5
- 210000003127 knee Anatomy 0.000 description 5
- 238000007726 management method Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 210000001624 hip Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 241000251468 Actinopterygii Species 0.000 description 2
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000009189 diving Effects 0.000 description 2
- 210000001513 elbow Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 210000004705 lumbosacral region Anatomy 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000007769 metal material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 210000002832 shoulder Anatomy 0.000 description 2
- 229910052710 silicon Inorganic materials 0.000 description 2
- 239000010703 silicon Substances 0.000 description 2
- 239000004984 smart glass Substances 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 101001045744 Sus scrofa Hepatocyte nuclear factor 1-beta Proteins 0.000 description 1
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 239000003599 detergent Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 229920001971 elastomer Polymers 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000012905 input function Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920003023 plastic Polymers 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 229920002635 polyurethane Polymers 0.000 description 1
- 239000004814 polyurethane Substances 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003014 reinforcing effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 239000003381 stabilizer Substances 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 229920003002 synthetic resin Polymers 0.000 description 1
- 239000000057 synthetic resin Substances 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0346—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
일 실시예에 따라서, 웨어러블 전자 장치는, 웨어러블 전자 장치의 위치를 감지하는 제1 센서, 웨어러블 전자 장치 주변을 감지하는 제2 센서, 디스플레이, 메모리, 적어도 하나의 프로세서를 포함하고, 적어도 하나의 프로세서는, 제1 센서를 통해 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고, 제2 센서를 통해, 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고, 메모리에, 위치 정보 및 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 웨어러블 전자 장치가 실제 공간에 위치하면, 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하고, 가상 오브젝트를 통해 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다.According to an embodiment, a wearable electronic device includes a first sensor for detecting a location of the wearable electronic device, a second sensor for detecting the surroundings of the wearable electronic device, a display, a memory, and at least one processor, and the at least one processor obtains location information of a real space where the wearable electronic device is located through a first sensor, acquires object information related to a plurality of real objects included in the real space through a second sensor, and stores the location information and If the feature point information of the user's motion related to the object information is stored, when the wearable electronic device is located in a real space, a virtual object notifying that there is motion information of the feature point is displayed on the display, and through the virtual object, the motion information related to the feature point is displayed. When a user input for displaying an image is received, a 3D virtual object image may be obtained based on motion information of feature points, and the 3D virtual object image may be displayed on a display.
Description
본 개시의 실시 예들은, 가상 오브젝트를 표시하는 웨어러블 전자 장치 및 이의 제어 방법에 관한 것이다.Embodiments of the present disclosure relate to a wearable electronic device displaying a virtual object and a control method thereof.
전자, 통신 기술이 발달함에 따라, 사용자 신체에 착용하더라도 큰 불편함 없이 사용할 수 있을 정도로 전자 장치가 소형화, 경량화될 수 있다. 예를 들어, 헤드 마운팅 장치(head mounting device, HMD), 스마트 시계(또는 밴드), 콘택트 렌즈형 장치, 반지형 장치, 장갑형 장치, 신발형 장치 또는 의복형 장치와 같은 웨어러블 전자 장치가 상용화되고 있다. 웨어러블 전자 장치는 신체에 직접 착용되므로, 휴대성 및 사용자의 접근성이 향상될 수 있다.As electronic and communication technologies develop, electronic devices can be miniaturized and lightweight to the extent that they can be used without much inconvenience even when worn on the user's body. For example, wearable electronic devices such as head mounting devices (HMDs), smart watches (or bands), contact lens type devices, ring type devices, glove type devices, shoe type devices or clothing type devices are being commercialized. . Since the wearable electronic device is directly worn on the body, portability and user accessibility can be improved.
헤드 마운팅 형태의 전자 장치는, 사용자의 머리 또는 안면에 착용된 상태로 사용되는 장치로서, 증강 현실(augmented reality, AR)을 사용자에게 제공할 수 있다. 예를 들어, 증강 현실을 제공하는 헤드 마운팅 장치는 안경 형태로 구현되어, 사용자 시야 범위의 적어도 일부 공간에서 사물에 대한 정보를 이미지나 문자 형태로 사용자에게 제공할 수 있다.A head-mounted electronic device is a device worn on a user's head or face, and may provide augmented reality (AR) to the user. For example, a head-mounted device that provides augmented reality may be implemented in the form of glasses, and may provide information about objects in the form of images or text to the user in at least a part of the user's field of view.
사용자의 움직임 정보를 저장하기 위해서는 카메라를 통해 사용자가 포함된 영상을 촬상하거나, 사용자가 착용한 웨어러블 전자 장치에 포함된 센서를 통해 움직임과 관련된 센싱 값을 획득할 수 있다.In order to store the motion information of the user, an image including the user may be captured through a camera or a sensing value related to the motion may be obtained through a sensor included in a wearable electronic device worn by the user.
그러나, 사용자의 특정 움직임과 관련된 움직임 정보를 저장하기 위해서는, 사용자가 움직임 전 저장을 위한 조작을 입력해야 한다는 점에서, 사용자가 의도한 움직임 전에 조작이 입력되지 않으면, 저장하고자 하는 사용자의 움직임을 놓치게 될 수 있다. However, in order to store motion information related to a specific motion of the user, the user must input a manipulation for saving before the motion. If the manipulation is not input before the user's intended motion, the user's motion to be saved is lost. It can be.
또한, 증강 현실 환경에서, 저장된 사용자의 움직임을 재생하고자 하는 경우, 사용자가 저장된 복수의 움직임 정보를 확인 후, 재생을 위한 움직임 정보를 선택해야 했다.Also, in an augmented reality environment, when trying to reproduce a stored motion of a user, the user has to check a plurality of stored motion information and then select motion information for reproduction.
본 개시의 다양한 실시 예들은 증강 현실 환경에서, 저장을 위한 조작 없이 사용자의 움직임 정보를 저장하고, 저장된 복수의 움직임 정보 중 실제 공간과 관련된 움직임 정보를 제공하는 웨어러블 전자 장치 및 이의 제어 방법을 제공한다.Various embodiments of the present disclosure provide a wearable electronic device that stores motion information of a user without manipulation for storage and provides motion information related to a real space among a plurality of stored motion information in an augmented reality environment and a control method thereof .
일 실시 예에 따르면, 웨어러블 전자 장치는, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서, 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서, 디스플레이, 메모리, 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고, 상기 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고, 상기 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 상기 디스플레이에 표시하고, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시할 수 있다.According to an embodiment, a wearable electronic device includes a first sensor for detecting a location of the wearable electronic device, a second sensor for detecting surroundings of the wearable electronic device, a display, a memory, and at least one processor, wherein the at least One processor acquires location information of a real space where the wearable electronic device is located through the first sensor, and obtains object information related to a plurality of real objects included in the real space through the second sensor, , If the location information and feature point information of the user's movement related to the object information are stored in the memory, if the wearable electronic device is located in the real space, the virtual object notifying that there is motion information of the feature point is displayed. , and when a user input for displaying an image related to the motion information of the feature point is received through the virtual object, a 3D virtual object image is obtained based on the motion information of the feature point, and the 3D virtual object image is displayed on the virtual object. can be shown on the display.
일 실시 예에 따르면, 웨어러블 전자 장치의 제어 방법은, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하는 동작, 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하는 동작, 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하는 동작, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하는 동작 및 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 동작을 포함할 수 있다.According to an embodiment, a control method of a wearable electronic device includes an operation of acquiring location information of a real space where the wearable electronic device is located through a first sensor that senses a location of the wearable electronic device, and moving around the wearable electronic device. Obtaining object information related to a plurality of real objects included in the real space through a second sensor that senses, and if the location information and feature point information of the user's movement related to the object information are stored in the memory, the When the wearable electronic device is located in the real space, an operation of displaying a virtual object indicating that there is motion information of the feature point on a display, and receiving a user input for displaying an image related to the motion information of the feature point through the virtual object , an operation of obtaining a 3D virtual object image based on the motion information of the feature point and an operation of displaying the 3D virtual object image on the display may be included.
본 개시의 다양한 실시 예에 따른 전자 장치는, 설정된 조건을 만족하는 사용자의 움직임에 대한 정보를 저장함으로써, 사용자의 조작 없이도 사용자의 행동을 기록할 수 있다.An electronic device according to various embodiments of the present disclosure may record a user's behavior without a user's manipulation by storing information about a user's movement that satisfies a set condition.
또한, 본 개시의 다양한 실시 예에 따른 전자 장치는, 기록된 사용자 행동이 있음을 사용자에게 알리고, 사용자의 조작에 따라 기록된 사용자의 행동을 3D 가상 오브젝트 영상으로 제공할 수 있다.In addition, the electronic device according to various embodiments of the present disclosure may notify the user that there is a recorded user action and provide the recorded user action as a 3D virtual object image according to the user's manipulation.
도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블럭도이다.
도 2는 일 실시 예에 따른, 전자 장치의 사시도이다.
도 3a는 일 실시 예에 따른, 전자 장치의 내부 구성을 설명하기 위한 제1 사시도이다.
도 3b는 일 실시 예에 따른, 전자 장치의 내부 구성을 설명하기 위한 제2 사시도이다.
도 4는 일 실시 예에 따른, 전자 장치의 분해 사시도이다.
도 5는 본 개시의 다양한 실시예들에 따른, 웨어러블 전자 장치의 다른 사시도이다.
도 6은 본 개시의 일 실시 예에 따른 전자 장치의 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.
도 8은 본 개시의 일 실시 예에 따라, 사용자의 움직임 정보가 설정된 조건을 만족하는지 여부를 판단하는 동작을 설명하기 위한 흐름도이다.
도 9는 본 개시의 일 실시 예에 따른 사용자의 움직임의 특징점 정보를 설명하기 위한 도면이다.
도 10은 본 개시의 일 실시 예에 따라, 전자 장치가 저장된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 흐름도이다.
도 11a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다.
도 11b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.
도 12a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다.
도 12b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.
도 13a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다.
도 13b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 통신 연결 형태를 설명하기 위한 도면이다.1 is a block diagram of an electronic device in a network environment according to various embodiments.
2 is a perspective view of an electronic device according to an embodiment.
3A is a first perspective view illustrating an internal configuration of an electronic device according to an exemplary embodiment;
3B is a second perspective view illustrating an internal configuration of an electronic device according to an exemplary embodiment.
4 is an exploded perspective view of an electronic device according to an exemplary embodiment.
5 is another perspective view of a wearable electronic device according to various embodiments of the present disclosure.
6 is a flowchart illustrating an operation of storing motion information of a user of an electronic device according to an embodiment of the present disclosure.
7 is a flowchart illustrating an operation of storing motion information of a user of an electronic device according to an embodiment of the present disclosure.
8 is a flowchart illustrating an operation of determining whether motion information of a user satisfies a set condition according to an embodiment of the present disclosure.
9 is a diagram for explaining feature point information of a user's motion according to an embodiment of the present disclosure.
10 is a flowchart illustrating an operation of an electronic device to display a 3D virtual object image based on stored feature point information, according to an embodiment of the present disclosure.
11A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure.
FIG. 11B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 11A is stored, according to an embodiment of the present disclosure. it is a drawing
12A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure.
12B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user movement information by an electronic device when the electronic device is located in a place where the user movement information of FIG. 11A is stored according to an embodiment of the present disclosure. it is a drawing
13A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure.
FIG. 13B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 11A is stored, according to an embodiment of the present disclosure. it is a drawing
14 is a diagram for explaining a communication connection form of an electronic device according to an embodiment of the present disclosure.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.1 is a block diagram of an
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
The
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다. According to an embodiment, commands or data may be transmitted or received between the
도 2는 일 실시 예에 따른, 전자 장치(200)(예: 도 1의 전자 장치(101))의 사시도이다.2 is a perspective view of an electronic device 200 (eg, the
도 2를 참조하면, 전자 장치(200)는 안경 형태의 웨어러블 전자 장치로서, 사용자는 전자 장치(200)를 착용한 상태에서 주변의 사물이나 환경을 시각적으로 인지할 수 있다. 예를 들어, 전자 장치(200)는 사용자의 눈 앞에 직접 영상을 제공할 수 있는 헤드 마운팅 장치(head mounting device, HMD) 또는 스마트 안경(smart glasses)일 수 있다. 도 2의 전자 장치(200)의 구성은 도 1의 전자 장치(101)의 구성과 전부 또는 일부가 동일할 수 있다.Referring to FIG. 2 , the
일 실시 예에 따르면, 전자 장치(200)는 전자 장치(200)의 외관을 형성하는 하우징(210)을 포함할 수 있다. 상기 하우징(210)은 전자 장치(200)의 부품들이 배치될 수 있는 공간을 제공할 수 있다. 예를 들어, 하우징(210)은 렌즈 프레임(202), 및 적어도 하나의 착용 부재(203)를 포함할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 전자 장치(200)는 사용자에게 시각적인 정보를 제공할 수 있는 적어도 하나의 표시 부재(201)를 포함할 수 있다. 예를 들어, 표시 부재(201)는 렌즈, 디스플레이, 도파관 및/또는 터치 회로가 장착된 모듈을 포함할 수 있다. 일 실시예에 따르면, 표시 부재(201)는 투명 또는 반투명하게 형성될 수 있다. 일 실시예에 따르면, 표시 부재(201)는 반투명 재질의 글래스 또는 착색 농도가 조절됨에 따라 빛의 투과율이 조절될 수 있는 윈도우 부재를 포함할 수 있다. 일 실시예에 따르면, 표시 부재(201)는 한 쌍으로 제공되어, 전자 장치(200)가 사용자 신체에 착용된 상태에서, 사용자의 좌안과 우안에 각각 대응하게 배치될 수 있다.According to an embodiment, the
일 실시 예에 따르면, 렌즈 프레임(202)은 표시 부재(201)의 적어도 일부를 수용할 수 있다. 예를 들어, 렌즈 프레임(202)은 표시 부재(201)의 가장자리의 적어도 일부를 둘러쌀 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201) 중 적어도 하나를 사용자의 눈에 상응하게 위치시킬 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 일반적인 안경 구조의 림(rim)일 수 있다. 일 실시예에 따르면, 렌즈 프레임(202)은 표시 부재(201)를 둘러싸는 적어도 하나의 폐곡선을 포함할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 착용 부재(203)는 렌즈 프레임(202)에서 연장될 수 있다. 예를 들어, 착용 부재(203)는 렌즈 프레임(202)의 단부에서 연장되고, 렌즈 프레임(202)과 함께, 사용자의 신체(예: 귀)에 지지 또는 위치될 수 있다. 일 실시예에 따르면, 착용 부재(203)는 힌지 구조(229)를 통해 렌즈 프레임(202)에 대하여 회전 가능하게 결합될 수 있다. 일 실시예에 따르면, 착용 부재(203)는 사용자의 신체와 대면하도록 구성된 내 측면(231c) 및 상기 내 측면의 반대인 외 측면(231d)을 포함할 수 있다.According to one embodiment, the wearing
일 실시 예에 따르면, 전자 장치(200)는 착용 부재(203)를 렌즈 프레임(202)에 대하여 접을 수 있도록 구성된 힌지 구조(229)를 포함할 수 있다. 상기 힌지 구조(229)는 렌즈 프레임(202)과 착용 부재(203) 사이에 배치될 수 있다. 전자 장치(200)를 착용하지 않은 상태에서, 사용자는 착용 부재(203)를 렌즈 프레임(202)에 대하여 일부가 중첩되도록 접어 휴대 또는 보관할 수 있다.According to an embodiment, the
도 3a는 다양한 실시예들에 따른, 전자 장치의 내부 구성을 설명하기 위한 제1 사시도이다. 도 3b는 다양한 실시예들에 따른, 전자 장치의 내부 구성을 설명하기 위한 제2 사시도이다. 도 4는 다양한 실시예들에 따른, 전자 장치의 분해 사시도이다. 3A is a first perspective view illustrating an internal configuration of an electronic device according to various embodiments. 3B is a second perspective view illustrating an internal configuration of an electronic device according to various embodiments. 4 is an exploded perspective view of an electronic device according to various embodiments.
도 3a 내지 도 4를 참조하면, 전자 장치(200)는 하우징(210)에 수용된 부품들(예: 적어도 하나의 회로 기판(241)(예: PCB(printed circuit board), PBA(printed board assembly), FPCB(flexible PCB) 또는 RFPCB(rigid-flexible PCB)), 적어도 하나의 배터리(243), 적어도 하나의 스피커 모듈(245), 적어도 하나의 전원 전달 구조(246), 및 카메라 모듈(250))을 포함할 수 있다. 도 3a 및 도 3b의 하우징(210)의 구성은 도 2의 표시 부재(201), 렌즈 프레임(202), 착용 부재(203), 및 힌지 구조(229)의 구성과 전부 또는 일부가 동일할 수 있다. Referring to FIGS. 3A to 4 , the
일 실시 예에 따르면, 전자 장치(200)는 카메라 모듈(250)(예: 도 1의 카메라 모듈(180))을 이용하여 사용자가 바라보는 또는 전자 장치(200)가 지향하는 방향(예: -Y 방향)의 사물이나 환경에 관한 시각적인 이미지를 획득 및/또는 인지하고, 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 외부의 전자 장치(예: 도 1의 전자 장치(102, 104) 또는 서버(108))로부터 사물 또는 환경에 관한 정보를 제공받을 수 있다. 다른 실시예에서, 전자 장치(200)는 제공받은 사물이나 환경에 관한 정보를 음향 또는 시각적인 형태로 사용자에게 제공할 수 있다. 전자 장치(200)는 제공받은 사물이나 환경에 관한 정보를 디스플레이 모듈(예: 도 1의 디스플레이 모듈(160))을 이용하여 시각적인 형태로 표시 부재(201)를 통해 사용자에게 제공할 수 있다. 예를 들어, 전자 장치(200)는 사물이나 환경에 관한 정보를 시각적인 형태로 구현하고 사용자 주변 환경의 실제 이미지와 조합함으로써, 전자 장치(200)는 증강 현실(augmented reality)을 구현할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 표시 부재(201)는 외부의 빛이 입사되는 방향(예: -Y 방향)을 향하는 제1 면(F1) 및 상기 제1 면(F1)의 반대 방향(예: +Y 방향)을 향하는 제2 면(F2)을 포함할 수 있다. 사용자가 전자 장치(200)를 착용한 상태에서, 제1 면(F1)을 통해 입사된 빛 또는 이미지의 적어도 일부는 사용자의 좌안 및/또는 우안과 마주보게 배치된 표시 부재(201)의 제2 면(F2)을 통과하여 사용자의 좌안 및/또는 우안으로 입사될 수 있다.According to an embodiment, the
일 실시 예에 따르면, 렌즈 프레임(202)은 적어도 둘 이상의 프레임을 포함할 수 있다. 예를 들면, 렌즈 프레임(202)은 제1 프레임(202a) 및 제2 프레임(202b)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(200)를 사용자가 착용할 때, 제1 프레임(202a)은 사용자의 안면과 대면하는 부분의 프레임이고, 제2 프레임(202b)은 제1 프레임(202a)에 대하여 사용자가 바라보는 시선 방향(예: -Y 방향)으로 이격된 렌즈 프레임(202)의 일부일 수 있다.According to one embodiment, the
일 실시 예에 따르면, 광 출력 모듈(211)은 사용자에게 이미지 및/또는 영상을 제공할 수 있다. 예를 들어, 광 출력 모듈(211)은 영상을 출력할 수 있는 디스플레이 패널(미도시), 및 사용자의 눈에 대응되고, 상기 영상을 표시 부재(201)로 가이드하는 렌즈(미도시)를 포함할 수 있다. 예를 들어, 사용자는 광 출력 모듈(211)의 렌즈를 통해 광 출력 모듈(211)의 디스플레이 패널로부터 출력된 영상을 획득할 수 있다. 일 실시 예에 따르면, 광 출력 모듈(211)은, 다양한 정보를 표시하도록 구성된 장치를 포함할 수 있다. 예를 들면, 광 출력 모듈(211)은 액정 표시 장치(liquid crystal display, LCD), 디지털 미러 표시 장치(digital mirror device, DMD), 실리콘 액정 표시 장치(liquid crystal on silicon, LCoS), 유기 발광 다이오드(organic light emitting diode, OLED) 또는 마이크로 엘이디(micro light emitting diode, micro LED) 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 광 출력 모듈(211) 및/또는 표시 부재(201)가, 액정 표시 장치, 디지털 미러 표시 장치, 또는 실리콘 액정 표시 장치 중 하나를 포함하는 경우, 전자 장치(200)는 광 출력 모듈(211) 및/또는 표시 부재(201)의 디스플레이 영역으로 빛을 조사하는 광원을 포함할 수 있다. 다른 실시 예에 따르면, 광 출력 모듈(211) 및/또는 표시 부재(201)가 유기 발광 다이오드, 또는 마이크로 엘이디 중 하나를 포함하는 경우, 전자 장치(200)는 별도의 광원을 포함하지 않고 사용자에게 가상 영상을 제공할 수 있다.According to one embodiment, the
일 실시 예에 따르면, 광 출력 모듈(211)의 적어도 일부는 하우징(210) 내에 배치될 수 있다. 예를 들어, 광 출력 모듈(211)은 사용자의 오른쪽 눈 및 왼쪽 눈에 각각 대응되도록 착용 부재(203) 또는 렌즈 프레임(202)에 배치될 수 있다. 일 실시예에 따르면, 광 출력 모듈(211)은 표시 부재(201)와 연결되고, 표시 부재(201)를 통하여 사용자에게 영상을 제공할 수 있다. 예를 들어, 광 출력 모듈(211)에서 출력된 영상은 표시 부재(201)의 일단에 위치하는 입력 광학 부재를 통해 표시 부재(210)로 입사 되고, 표시 부재(210)의 적어도 일부에 위치하는 도파관(waveguide) 및 출력 광학 부재를 통해 사용자의 눈을 향하여 방사될 수 있다. 일 실시예에 따르면, 도파관은 글래스, 플라스틱, 또는 폴리머로 제작될 수 있으며, 내부 또는 외부의 일표면에 형성된 나노 패턴, 예를 들어, 다각형 또는 곡면 형상의 격자 구조(grating structure)를 포함할 수 있다. 일 실시예에 따르면, 도파관(waveguide)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)) 또는 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. According to one embodiment, at least a portion of the
일 실시 예에 따르면, 회로 기판(241)은 전자 장치(200)의 구동을 위한 부품들을 포함할 수 있다. 예를 들어, 회로 기판(241)은 적어도 하나의 직접회로 칩(integrated circuit chip)을 포함할 수 있으며, 도 1의 프로세서(120), 메모리(130), 전력 관리 모듈(188), 또는 통신 모듈(190) 중 적어도 하나는 상기 직접회로 칩에 제공될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 하우징(210)의 착용 부재(203) 내에 배치될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 전원 전달 구조(246)를 통하여 배터리(243)와 전기적으로 연결될 수 있다. 일 실시예에 따르면, 회로 기판(241)은 가요성 인쇄회로기판(205)와 연결되고, 가요성 인쇄회로기판(205)을 통하여 전자 장치의 전자 부품들(예: 광 출력 모듈(211), 카메라 모듈(250), 발광부에 전기 신호를 전달할 수 있다. 일 실시예에 따르면, 회로 기판(241)은 인터포저(interposer) 기판일 수 있다.According to one embodiment, the
다양한 실시예에 따르면, 가요성 인쇄회로 기판(205)은 회로 기판(241)으로부터 힌지 구조(229)를 가로질러 렌즈 프레임(202)의 내부로 연장될 수 있으며, 렌즈 프레임(202)의 내부에서 표시 부재(201) 둘레의 적어도 일부에 배치될 수 있다. According to various embodiments, the flexible printed
일 실시 예에 따르면, 배터리(243)(예: 도 1의 배터리(189))는 전자 장치(200)의 부품(예: 광 출력 모듈(211), 회로 기판(241), 스피커 모듈(245), 마이크 모듈(247), 및/또는 카메라 모듈(250))과 전기적으로 연결될 수 있고, 전자 장치(200)의 부품들에게 전력을 공급할 수 있다.According to an embodiment, the battery 243 (eg, the
일 실시 예에 따르면, 배터리(243)의 적어도 일부는 착용 부재(203)에 배치될 수 있다. 일 실시예에 따르면, 배터리(243)는 착용 부재(203)의 단부(203a, 203b)에 인접하도록 배치될 수 있다. 예를 들어, 배터리(243)는 착용 부재(203)의 제1 단부(203a)에 배치된 제1 배터리(243a) 및 제2 단부(203b)에 배치된 제2 배터리(243b)를 포함할 수 있다. According to one embodiment, at least a part of the
다양한 실시예에 따르면, 스피커 모듈(245)(예: 도 1의 오디오 모듈(170) 또는 음향 출력 모듈(155))은 전기 신호를 소리로 변환시킬 수 있다. 상기 스피커 모듈(245)의 적어도 일부는 하우징(210)의 착용 부재(203) 내에 배치될 수 있다. 일 실시예에 따르면, 스피커 모듈(245)은 사용자의 귀에 대응되도록 착용 부재(203) 내에 위치할 수 있다. 일 실시예(예: 도 3a)에 따르면, 스피커 모듈(245)은 회로 기판(241) 상에 배치될 수 있다. 예를 들어, 스피커 모듈(245)은 회로 기판(241)과 내측 케이스(예: 도 4의 내측 케이스(231)) 사이에 배치될 수 있다. 일 실시예(예: 도 3b)에 따르면, 스피커 모듈(245)은 회로 기판(241)의 옆에 배치될 수 있다. 예를 들어, 스피커 모듈(245)은 회로 기판(241)과 배터리(243) 사이에 배치될 수 있다. According to various embodiments, the speaker module 245 (eg, the
일 실시 예에 따르면, 전자 장치(200)는 스피커 모듈(245) 및 회로 기판(241)과 연결된 연결 부재(248)을 포함할 수 있다. 연결 부재(248)은 스피커 모듈(245)에서 생성된 소리 및/또는 진동의 적어도 일부를 회로 기판(241)으로 전달할 수 있다. 일 실시예에 따르면, 연결 부재(248)는 스피커 모듈(245)과 일체형으로 형성될 수 있다. 예를 들어, 스피커 모듈(245)의 스피커 프레임에서 연장된 일 부분이 연결 부재(248)로 해석될 수 있다. 일 실시예(예: 도 3a)에 따르면, 연결 부재(248)은 생략될 수 있다. 예를 들어, 스피커 모듈(245)이 회로 기판(241) 상에 배치된 경우, 연결 부재(248)은 생략될 수 있다.According to an embodiment, the
일 실시 예에 따르면, 전원 전달 구조(246)는 배터리(243)의 전력을 전자 장치(200)의 전자 부품(예: 광 출력 모듈(211))으로 전달할 수 있다. 예를 들어, 전원 전달 구조(246)는, 배터리(243) 및/또는 회로기판(241)과 전기적으로 연결되고, 회로기판(241)은 전원 전달 구조(246)를 통해 수신한 전력을 광 출력 모듈(211)로 전달할 수 있다. According to an embodiment, the
일 실시 예에 따르면, 전원 전달 구조(246)는 전력을 전달할 수 있는 구성일 수 있다. 예를 들어, 전원 전달 구조(246)는 가요성 인쇄회로기판 또는 와이어를 포함할 수 있다. 예를 들면, 와이어는 복수의 케이블들(미도시)을 포함할 수 있다. 다양한 실시 예에서, 전원 전달 구조(246)의 형태는 케이블의 개수 및/또는 종류 등을 고려하여 다양하게 변형될 수 있다.According to one embodiment, the
일 실시 예에 따르면, 마이크 모듈(247)(예: 도 1의 입력 모듈(150) 및/또는 오디오 모듈(170))은 소리를 전기 신호로 변환할 수 있다. 일 실시예에 따르면, 마이크 모듈(247)은 렌즈 프레임(202)의 적어도 일부에 배치될 수 있다. 예를 들면, 적어도 하나의 마이크 모듈(247)은 전자 장치(200)의 하단(예: -X축을 향하는 방향) 및/또는 상단(예: X축을 향하는 방향)에 배치될 수 있다. 일 실시 예에 따르면, 전자 장치(200)는 적어도 하나의 마이크 모듈(247)에서 획득된 음성 정보(예: 소리)를 이용하여 사용자의 음성을 보다 명확하게 인식할 수 있다. 예를 들면, 전자 장치(200)는 획득된 음성 정보 및/또는 추가 정보(예: 사용자의 피부와 뼈의 저주파 진동)에 기반하여, 음성 정보와 주변 잡음을 구별할 수 있다. 예를 들면, 전자 장치(200)는, 사용자의 음성을 명확하게 인식할 수 있고, 주변 소음을 줄여주는 기능(예: 노이즈 캔슬링)을 수행할 수 있다.According to one embodiment, the microphone module 247 (eg, the
일 실시 예에 따르면, 카메라 모듈(250)은 정지 영상 및/또는 동영상을 촬영할 수 있다. 상기 카메라 모듈(250)은 렌즈, 적어도 하나의 이미지 센서, 이미지 시그널 프로세서 또는 플래시 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈(250)은 렌즈 프레임(202) 내에 배치되고, 표시 부재(201)의 주위에 배치될 수 있다. According to an embodiment, the
일 실시 예에 따르면, 카메라 모듈(250)은 적어도 하나의 제1 카메라 모듈(251)을 포함할 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(251)은 사용자의 눈(예: 동공(pupil)) 또는 시선의 궤적을 촬영할 수 있다. 예를 들어, 제1 카메라 모듈(251)은 발광부가 사용자의 눈으로 방사한 빛의 반사 패턴을 촬영할 수 있다. 예를 들면, 발광부는, 제1 카메라 모듈(251)을 이용한 시선의 궤적의 추적을 위한 적외선 대역의 빛을 방사할 수 있다. 예를 들어, 발광부는 IR LED를 포함할 수 있다. 일 실시예에 따르면, 프로세서(예: 도 1의 프로세서(120))는 표시 부재(201)에 투영되는 가상 영상이 사용자의 눈동자가 응시하는 방향에 대응되도록 상기 가상 영상의 위치를 조정할 수 있다. 일 실시예에 따르면, 제1 카메라 모듈(251)은 글로벌 셔터(GS) 방식의 카메라를 포함할 수 있고, 동일 규격, 및 성능의 복수개의 제1 카메라 모듈(251)들을 이용하여 사용자의 눈 또는 시선의 궤적을 추적할 수 있다. According to one embodiment, the
다양한 실시예에 따르면, 제1 카메라 모듈(251)은, 사용자의 눈 또는 시선의 궤적과 관련된 정보(예: 궤적 정보)를 프로세서(예: 도 1의 프로세서(120))로 주기적으로 또는 비주기적으로 전송할 수 있다. 다른 실시예에 따르면, 제1 카메라 모듈(251)은 상기 궤적 정보에 기반하여, 사용자 시선이 변경되었음을 감지(예: 머리가 움직이지 않는 상태에서 눈이 기준치 이상 이동)하였을 때, 궤적 정보를 프로세서로 전송할 수 있다.According to various embodiments, the
일 실시 예에 따르면, 카메라 모듈(250)은 제2 카메라 모듈(253)을 포함할 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(253)은 외부의 이미지를 촬영할 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(253)은 글로벌 셔터 방식 또는 롤링 셔터(rolling shutter, RS) 방식의 카메라일 수 있다. 일 실시예에 따르면, 제2 카메라 모듈(253)은 제2 프레임(202b)에 형성된 제2 광학 홀(223)을 통해 외부의 이미지를 촬영할 수 있다. 예를 들어, 제2 카메라 모듈(253)은, 고해상도의 컬러 카메라를 포함할 수 있으며, HR(high resolution) 또는 PV(photo video) 카메라일 수 있다. 또한, 제2 카메라 모듈(253)은, 자동 초점 기능(auto focus, AF)과 이미지 안정화 기능(optical image stabilizer, OIS)을 제공할 수 있다. According to one embodiment, the
다양한 실시예들에 따르면(미도시), 전자 장치(200)는 제2 카메라 모듈(253)과 인접하도록 위치한 플래시(미도시)를 포함할 수 있다. 예를 들면, 플래시(미도시)는 제2 카메라 모듈(253)의 외부 이미지 획득 시, 전자 장치(200) 주변의 밝기(예: 조도)를 증대시키기 위한 광을 제공할 수 있으며, 어두운 환경, 다양한 광원의 혼입, 및/또는 빛의 반사로 인한 이미지 획득의 어려움을 감소시킬 수 있다.According to various embodiments (not shown), the
일 실시 예에 따르면, 카메라 모듈(250)은 적어도 하나의 제3 카메라 모듈(255)을 포함할 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은 렌즈 프레임(202)에 형성된 제1 광학 홀(221)을 통해 사용자의 동작을 촬영할 수 있다. 예를 들어, 제3 카메라 모듈(255)은 사용자의 제스처(예: 손동작)를 촬영할 수 있다. 상기 제3 카메라 모듈(255) 및/또는 제1 광학 홀(221)은 렌즈 프레임(202)(예: 제2 프레임(202b))의 양 측단, 예를 들어, X 방향에서 렌즈 프레임(202)(예: 제2 프레임(202b))의 양 단부에 각각 배치될 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은 글로벌 셔터(global shutter, GS) 방식의 카메라일 수 있다. 예를 들면, 제3 카메라 모듈(255)은, 3DoF(degrees of freedom, 자유도), 또는 6DoF를 지원하는 카메라로 360도 공간(예: 전 방향), 위치 인식 및/또는 이동 인식을 제공할 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은, 스테레오 카메라로 동일 규격, 및 성능의 복수개의 글로벌 셔터 방식의 카메라를 이용하여 이동 경로 추적 기능(simultaneous localization and mapping, SLAM) 및 사용자 움직임 인식 기능을 수행할 수 있다. 일 실시예에 따르면, 제3 카메라 모듈(255)은 IR(infrared) 카메라(예: TOF(time of flight) camera, 또는 structured light camera)를 포함할 수 있다. 예를 들어, IR 카메라는 피사체와의 거리를 감지하기 위한 센서 모듈(예: 도 1의 센서 모듈(176))의 적어도 일부로 동작될 수 있다.According to one embodiment, the
일 실시예에 따르면, 제1 카메라 모듈(251) 또는 제3 카메라 모듈(255) 중 적어도 하나는 센서 모듈(예: 도 1의 센서 모듈(176))로 대체될 수 있다. 예를 들면, 센서 모듈은, VCSEL(vertical cavity surface emitting laser), 적외선 센서, 및/또는 포토 다이오드(photodiode) 중 적어도 하나를 포함할 수 있다. 예를 들면, 포토 다이오드는 PIN(positive intrinsic negative) 포토 다이오드, 또는 APD(avalanche photo diode)를 포함할 수 있다. 상기 포토 다이오드는, 포토 디텍터(photo detector), 또는 포토 센서로 일컬어 질 수 있다.According to an embodiment, at least one of the
일 실시예에 따르면, 제1 카메라 모듈(251), 제2 카메라 모듈(253) 또는 제3 카메라 모듈(255) 중 적어도 하나는, 복수의 카메라 모듈들(미도시)을 포함할 수 있다. 예를 들면, 제2 카메라 모듈(253)은 복수의 렌즈들(예: 광각 및 망원 렌즈) 및 이미지 센서들로 구성되어 전자 장치(200)의 한 면(예: -Y축을 향하는 면)에 배치될 수 있다. 예를 들면, 전자 장치(200)는 각각 다른 속성(예: 화각) 또는 기능을 가진 복수의 카메라 모듈들을 포함할 수 있고, 사용자의 선택 및/또는 궤적 정보에 기반하여, 카메라 모듈의 화각을 변경하도록 제어할 수 있다. 예를 들면, 상기 복수의 카메라 모듈들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다.According to an embodiment, at least one of the
다양한 실시예에 따르면, 프로세서(예: 도 1의 프로세서(120))는 센서 모듈(예: 도 1의 센서 모듈(176))의 제스처 센서, 자이로 센서, 또는 가속도 센서 중 적어도 하나를 이용하여 획득한 전자 장치(200)의 정보 및 제3 카메라 모듈(255)을 이용하여 획득한 사용자의 동작(예: 전자 장치(200)에 대한 사용자 신체의 접근)을 이용하여, 전자 장치(200)의 움직임 및/또는 사용자의 움직임을 판단할 수 있다. 일 실시 예에 따르면, 전자 장치(200)는 서술된 센서 이외에 자기장 및 자력션을 이용하여 방위를 측정할 수 있는 자기(지자기) 센서, 및/또는 자기장의 세기를 이용하여 움직임 정보(예: 이동 방향 또는 이동 거리)를 획득할 수 있는 홀 센서를 포함할 수 있다. 예를 들면, 프로세서는 자기(지자기) 센서, 및/또는 홀 센서로부터 획득된 정보에 기반하여, 전자 장치(200)의 움직임 및/또는 사용자의 움직임을 판단할 수 있다.According to various embodiments, a processor (eg, the
다양한 실시예에 따르면(미도시), 전자 장치(200)는 사용자와의 상호 작용이 가능한 입력 기능(예: 터치, 및/또는 압력 감지 기능)을 수행할 수 있다. 예를 들면, 터치 및/또는 압력 감지 기능을 수행하도록 구성된 구성 요소(예: 터치 센서, 및/또는 압력 센서)가 착용 부재(203)의 적어도 일부에 배치될 수 있다. 전자 장치(200)는 상기 구성 요소를 통해 획득된 정보에 기반하여 표시 부재(201)를 통해 출력되는 가상 영상을 제어할 수 있다. 예를 들어, 터치 및/또는 압력 감지 기능과 관련된 센서는 저항막 방식(resistive type), 정전 용량 방식(capacitive type), 전자기 유도형(electro-magnetic type, EM), 또는 광 감지 방식(optical type)과 같은 다양한 방식으로 구성될 수 있다. 일 실시예에 따르면, 상기 터치 및/또는 압력 감지 기능을 수행하도록 구성된 구성 요소는 도 1의 입력 모듈(150)의 구성과 전부 또는 일부 동일할 수 있다.According to various embodiments (not shown), the
일 실시 예에 따르면, 전자 장치(200)는 렌즈 프레임(202)의 내부 공간에 배치되고, 렌즈 프레임(202)의 강성 보다 높은 강성을 가지도록 형성된 보강 부재(260)를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따르면, 전자 장치(200)는 렌즈 구조(270)를 포함할 수 있다. 상기 렌즈 구조(270)는 빛의 적어도 일부를 굴절시킬 수 있다. 예를 들어, 렌즈 구조(270)는 지정된 굴절력을 가진 도수 렌즈(prescription lens)일 수 있다. 일 실시 예에 따르면, 하우징(210)은 힌지 구조(229)의 일부분을 은폐할 수 있는 힌지 커버(227)를 포함할 수 있다. 상기 힌지 구조(229)의 다른 일부분은 후술할 내측 케이스(231)와 외측 케이스(233) 사이로 수용 또는 은폐될 수 있다.According to an embodiment, the
다양한 실시예들에 따르면, 착용 부재(203)는 내측 케이스(231)와 외측 케이스(233)를 포함할 수 있다. 내측 케이스(231)는, 예를 들면, 사용자의 신체와 대면하거나 사용자의 신체에 직접 접촉하도록 구성된 케이스로서, 열 전도율이 낮은 물질, 예를 들면, 합성수지로 제작될 수 있다. 일 실시예에 따르면, 내측 케이스(231)는 사용자의 신체와 대면하는 내 측면(예: 도 2의 내 측면(231c))을 포함할 수 있다. 외측 케이스(233)는, 예를 들면, 적어도 부분적으로 열을 전달할 수 있는 물질(예: 금속 물질)을 포함하며, 내측 케이스(231)와 마주보게 결합될 수 있다. 일 실시예에 따르면, 외측 케이스(233)는 상기 내 측면(231c)의 반대인 외 측면(예: 도 2의 외 측면(231d))을 포함할 수 있다. 일 실시예에서, 회로 기판(241) 또는 스피커 모듈(245) 중 적어도 하나는 착용 부재(203) 내에서 배터리(243)와 분리된 공간에 수용될 수 있다. 도시된 실시예에서, 내측 케이스(231)는 회로 기판(241) 및/또는 스피커 모듈(245)을 포함하는 제1 케이스(231a)와, 배터리(243)를 수용하는 제2 케이스(231b)를 포함할 수 있으며, 외측 케이스(233)는 제1 케이스(231a)와 마주보게 결합하는 제3 케이스(233a)와, 제2 케이스(231b)와 마주보게 결합하는 제4 케이스(233b)를 포함할 수 있다. 예를 들어, 제1 케이스(231a)와 제3 케이스(233a)가 결합(이하, '제1 케이스 부분(231a, 233a)')하여 회로 기판(241) 및/또는 스피커 모듈(245)을 수용할 수 있고, 제2 케이스(231b)와 제4 케이스(233b)가 결합(이하, '제2 케이스 부분(231b, 233b)')하여 배터리(243)를 수용할 수 있다. According to various embodiments, the wearing
일 실시 예에 따르면, 제1 케이스 부분(231a, 233a)은 힌지 구조(229)를 통해 렌즈 프레임(202)에 회전 가능하게 결합되고, 제 2 케이스 부분(231b, 233b)은 연결 구조(235)를 통해 제1 케이스 부분(231a, 233a)의 단부에 연결 또는 장착될 수 있다. 어떤 실시예에서, 연결 구조(235) 중, 사용자 신체에 접촉하는 부분은 열 전도율이 낮은 물질, 예를 들면, 실리콘(silicone), 폴리우레탄(polyurethane)이나 고무와 같은 탄성체 재질로 제작될 수 있으며, 사용자 신체에 접촉하지 않는 부분은 열 전도율이 높은 물질(예: 금속 물질)로 제작될 수 있다. 예컨대, 회로 기판(241)이나 배터리(243)에서 열이 발생될 때, 연결 구조(235)는 사용자 신체에 접하는 부분으로 열이 전달되는 것을 차단하고, 사용자 신체와 접촉하지 않는 부분을 통해 열을 분산 또는 방출시킬 수 있다. 일 실시예에 따르면, 연결 구조(235) 중 사용자 신체와 접촉하게 구성된 부분은 내측 케이스(231)의 일부로서 해석될 수 있으며, 연결 구조(235) 중 사용자 신체와 접촉하지 않는 부분은 외측 케이스(233)의 일부로서 해석될 수 있다. 일 실시예에 따르면(미도시), 제1 케이스(231a)와 제2 케이스(231b)는 연결 구조(235) 없이 일체형으로 구성되고, 제3 케이스(233a)와 제4 케이스(233b)는 연결 구조(235) 없이 일체형으로 구성될 수 있다. 다양한 실시예에 따라, 도시된 구성요소 외에 다른 구성요소(예: 도 1의 안테나 모듈(197))를 더 포함할 수 있으며, 통신 모듈(190)을 이용하여, 네트워크(예: 도 1의 제1 네트워크(198) 또는 제2 네트워크(199))를 통해 외부의 전자 장치(예: 도 1의 전자 장치(102, 104) 또는 서버(108))로부터 사물 또는 환경에 관한 정보를 제공받을 수 있다.According to one embodiment, the
도 5는, 본 개시의 다양한 실시예들에 따른, 전자 장치의 다른 사시도이다.5 is another perspective view of an electronic device according to various embodiments of the present disclosure.
도 5를 참조하면, 전자 장치(400)는 사용자의 눈 앞에 영상을 제공할 수 있는 헤드 마운팅 장치(head mounting device, HMD)일 수 있다. 도 5의 전자 장치(400)의 구성은 도 2의 전자 장치(200)의 구성과 전부 또는 일부가 동일할 수 있다. Referring to FIG. 5 , the
다양한 실시예들에 따르면, 전자 장치(400)는 전자 장치(400)의 외관을 형성할 수 있고, 전자 장치(400)의 부품들이 배치될 수 있는 공간을 제공할 수 있는 하우징(410, 420, 430)을 포함할 수 있다According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(400)는 사용자의 머리의 적어도 일부를 둘러쌀 수 있는 제1 하우징(410)을 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(410)은 전자 장치(400)의 외부(예: -Y 방향)를 향하는 제1 면(400a)을 포함할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 제1 하우징(410)은 내부 공간(I)의 적어도 일부를 둘러쌀 수 있다. 예를 들어, 제1 하우징(410)은 전자 장치(400)의 내부 공간(I)을 향하는 제2 면(400b) 및 상기 제2 면(400b)의 반대인 제3 면(400c)을 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(410)은 제3 하우징(430)과 결합되어, 내부 공간(I)을 둘러싸는 폐곡선 형상으로 형성될 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 제1 하우징(410)은 전자 장치(400)의 부품들 중 적어도 일부를 수용할 수 있다. 예를 들어, 광 출력 모듈(예: 도 3a의 광 출력 모듈(211)), 회로 기판(예: 도 3a의 회로 기판(241), 및 스피커 모듈(245))은 상기 제1 하우징(410) 내에 배치될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(400)의 좌안 및 우안에 대응하는 하나의 표시 부재(440)를 포함할 수 있다. 상기 표시 부재(440)는 제1 하우징(410)에 배치될 수 있다. 도 5의 표시 부재(440)의 구성은 도 2의 표시 부재(201)의 구성과 전부 또는 일부가 동일할 수 있다.According to various embodiments, one
다양한 실시예들에 따르면, 전자 장치(400)는 사용자의 안면에 안착될 수 있는 제2 하우징(420)을 포함할 수 있다. 일 실시예에 따르면, 제2 하우징(420)은 사용자의 안면과 적어도 일부 대면할 수 있는 제4 면(400d)을 포함할 수 있다. 일 실시예에 따르면, 제4 면(400d)은 전자 장치(400)의 내부 공간(I)을 향하는 방향(예: +Y 방향)의 면일 수 있다. 일 실시예에 따르면, 제2 하우징(420)은 제1 하우징(410)과 결합될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(400)는 사용자의 후두부에 안착될 수 있는 제3 하우징(430)을 포함할 수 있다. 일 실시예에 따르면, 제3 하우징(430)은 제1 하우징(410)과 결합될 수 있다. 일 실시예에 따르면, 제3 하우징(430)은 전자 장치(400)의 부품들 중 적어도 일부를 수용할 수 있다. 예를 들어, 배터리(예: 도 3a의 배터리(243))는 상기 제3 하우징(430)내에 배치될 수 있다.According to various embodiments, the
도 6은 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.6 is a flowchart illustrating an operation of storing motion information of a user by an electronic device according to an embodiment of the present disclosure.
일 실시 예에 따라, 도 6을 참조하면, 610 동작에서, 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120), 도 2의 전자 장치(200) 또는 도 5의 전자 장치(400))는, 전자 장치가 위치한 실제 공간의 위치 정보를 획득할 수 있다.According to an embodiment, referring to FIG. 6 , in
일 실시 예에 따라, 전자 장치는 전자 장치의 위치를 감지하는 센서(예: 도 1의 센서 모듈(176))를 통해 전자 장치의 위치 정보를 획득할 수 있다. 예를 들어, 전자 장치의 위치를 감지하는 센서는 GPS 센서일 수 있다. 일 실시 예에 따라, 전자 장치는 장소에 배치된 외부 전자 장치(예: 비콘)으로부터 위치 정보가 포함된 신호를 수신하여, 위치 정보를 획득할 수 있다.According to an embodiment, the electronic device may obtain location information of the electronic device through a sensor that detects the location of the electronic device (eg, the
일 실시 예에 따라, 620 동작에서, 전자 장치는 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득할 수 있다.According to an embodiment, in
일 실시 예에 따라, 전자 장치는 카메라(예: 도 1의 카메라 모듈(180))을 통해 주변 영상을 획득하고, 획득된 영상을 기반으로, 주변에 배치된 실제 오브젝트의 위치 및/또는 종류와 관련된 오브젝트 정보를 획득할 수 있다. 예를 들어, 전자 장치는 카메라를 통해 획득된 주변 영상들을 기반으로, 전자 장치와, 전자 장치가 향하는 방향의 공간(예: 벽) 및 공간에 배치된 실제 오브젝트와의 거리를 기반으로, 공간 내에서의 실제 오브젝트 위치(또는 배치)를 포함하는 오브젝트 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 획득된 영상에 포함된 실제 오브젝트의 이미지 및/또는 실제 오브젝트에 포함된 텍스트를 기반으로 실제 오브젝트의 종류(예: 열쇠, 책상, 시계, 소파와 같이 오브젝트가 무엇인지)와 관련된 오브젝트 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 TOF(Time of flight) 방식, 스테레오스코프 비전(stereoscopic vision) 방식, 구조화 광 패턴(structured light pattern) 방식 중 적어도 하나의 방식을 이용하는 센서(예: 도 1의 센서 모듈(176))를 통해 실제 오브젝트의 위치와 관련된 오브젝트 정보를 획득할 수도 있다.According to an embodiment, the electronic device obtains a surrounding image through a camera (eg, the
일 실시 예에 따라, 630 동작에서, 전자 장치는 전자 장치의 움직임 정보를 획득할 수 있다. 예를 들어, 전자 장치는 전자 장치에 포함된 복수의 센서(예: 도 1의 센서 모듈(176))를 통해 전자 장치의 움직임 정보를 획득할 수 있다. According to an embodiment, in
예를 들어, 전자 장치는, 가속도 센서(accelerometer), 자이로스코프 센서(gyroscope), 자기 센서(magnetic sensor)와 같은 모션 센서(motion sensor) 및/또는 카메라를 통해 전자 장치의 움직임 정보를 획득할 수 있다. For example, the electronic device may obtain motion information of the electronic device through a camera and/or a motion sensor such as an accelerometer, a gyroscope sensor, or a magnetic sensor. there is.
일 실시 예에 따라, 전자 장치는 통신 회로(예: 도 1의 통신 모듈(190))를 통해 외부 장치로부터 사용자의 움직임 정보를 더 획득할 수 있다. 예를 들어, 외부 장치는 외부 카메라, 전자 장치 이외의 사용자의 움직임을 감지할 수 있는 전자 장치일 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라(예: CCTV, 블랙박스, 가전에 포함된 카메라)로부터 사용자의 움직임이 포함된 영상을 수신하고, 수신된 영상을 기반으로 사용자의 움직임 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 전자 장치의 움직임과 관련된 센싱 값을 수신하고, 수신된 센싱 값을 기반으로 사용자의 움직임 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치는 스마트 워치, 스마트 밴드와 같은 사용자에게 착용된 웨어러블 전자 장치일 수 있고, 스마트폰과 같은 사용자가 쥐거나, 사용자의 신체의 일부에 고정되거나 사용자의 옷 또는 가방 속에 있어 사용자의 움직임을 감지할 수 있는 전자 장치일 수 있다.According to an embodiment, the electronic device may further obtain motion information of the user from an external device through a communication circuit (eg, the
일 실시 예에 따라, 640 동작에서, 전자 장치의 움직임 정보가 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 전자 장치를 착용한 사용자의 움직임의 특징점 정보를 획득할 수 있다. 예를 들어, 전자 장치는 센서(예: 모션 센서)를 통해 획득된 전자 장치의 이동 또는 회전의 방향, 거리, 속도 및/또는 흔들림을 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 사용자 움직임의 특징점 정보는 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다.According to an embodiment, in
일 실시 예에 따라, 전자 장치는 전자 장치의 이동 방향이 아래로 수직 방향인 경우 무릎이 접히는 것으로 식별하고, 아래로 포물선 방향인 경우 허리가 접히는 것으로 식별할 수 있다. 일 실시 예에 따라, 전자 장치는 전자 장치가 아래로 포물선 방향으로 이동하는 경우, 포물선의 반경이 작으면 목이 숙여지는 것으로 식별하고, 포물선의 반경이 크면 허리가 접히는 것으로 식별할 수 있다.According to an embodiment, the electronic device may identify that the knee is folded when the movement direction of the electronic device is downward in a vertical direction, and may identify that the waist is folded when the moving direction of the electronic device is in a downward parabolic direction. According to an embodiment, when the electronic device moves downward in a parabolic direction, the electronic device may identify that the neck is bent if the radius of the parabola is small, and identify that the waist is bent if the radius of the parabola is large.
일 실시 예에 따라, 전자 장치는 카메라를 통해 획득된 영상을 더 이용하여 사용자 움직임의 특징점 정보를 획득할 수 있다. 예를 들어, 전자 장치는 카메라를 통해 획득된 영상에 포함된 실제 공간을 기반으로 사용자의 이동 경로와 목, 허리와 같은 사용자의 신체 일부의 움직임 정보를 포함하는 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 카메라를 통해 획득된 영상에 포함된 사용자의 손, 발의 움직임을 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다.According to an embodiment, the electronic device may further use an image obtained through a camera to obtain feature point information of the user's motion. For example, the electronic device may obtain feature point information including motion information of the user's movement path and parts of the user's body, such as the neck and waist, based on a real space included in an image obtained through a camera. According to an embodiment, the electronic device may obtain feature point information of the user's motion based on the motions of the user's hands and feet included in the image obtained through the camera.
일 실시 예에 따라, 외부 전자 장치로부터 사용자의 움직임 정보를 더 획득한 경우, 전자 장치는 수신된 움직임 정보를 더 고려하여 사용자의 움직임의 특징점 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치로부터 사용자가 포함된 영상을 획득한 경우, 전자 장치는 영상에 포함된 사용자의 움직임을 분석하여 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 사용자 신체의 일부에 장착된 외부 전자 장치로부터 움직임 정보(예: 모션 센서의 센싱 값)를 수신하면, 수신된 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. According to an embodiment, when motion information of the user is further obtained from an external electronic device, the electronic device may further consider the received motion information to obtain feature point information of the motion of the user. For example, when an image including a user is obtained from an external electronic device, the electronic device may obtain feature point information of the user's movement by analyzing the user's movement included in the image. According to an embodiment, upon receiving motion information (eg, a sensing value of a motion sensor) from an external electronic device mounted on a part of the user's body, the electronic device obtains feature point information of the user's motion based on the received motion information. can
일 실시 예에 따라, 설정된 조건은, 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다. 예를 들어, 설정된 조건은 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 기존 행동을 벗어나는 행동이거나, 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임을 포함할 수 있다.According to an embodiment, the set condition may be set based on at least one of location information of the electronic device, object information around the electronic device, and time information. For example, the set condition is a behavior that deviates from the user's existing behavior based on at least one of location information of the electronic device, object information around the electronic device, or time information, or a trigger for acquiring information on a characteristic point of the user's movement in advance. Can include designated movements.
예를 들어, 시간 정보는, 운전 중, 낚시 또는 다이빙과 같은 액티비티 수행 중, 재활 치료 중, 특정 사건 발생시, 특정 스케줄의 일정시 또는 사용자가 지정한 시점과 관련된 시간이 포함될 수 있다.For example, the time information may include time related to driving, performing activities such as fishing or diving, during rehabilitation, when a specific event occurs, when a specific schedule is scheduled, or when a user designates.
예를 들어, 위치 정보는, 웨어러블 전자 장치가 위치한 위치의 정보 및, 집, 자동차, 병실, 물 속, 호텔, 지하철, 가게, 낚시터, 주차장과 같은 장소 정보를 포함할 수 있다. For example, the location information may include information on a location where the wearable electronic device is located and place information such as a house, a car, a hospital room, in the water, a hotel, a subway, a shop, a fishing spot, and a parking lot.
일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 사용자의 평상시의 행동과는 다른 행동(예: 평상시와는 다른 위치에 물건을 두는 행동) 또는 낙상과 같이 사고 발생시의 움직임을 포함할 수 있다. 일 실시 예에 따라, 설정된 조건이 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임인 경우, 설정된 조건은 사용자가 특정 장소에 위치한 경우 또는 특정 행동(예: 춤 또는 미리 녹화된 행동)를 포함할 수 있다.According to an embodiment, when the set condition is a behavior deviating from the user's existing behavior, a behavior different from the user's usual behavior (eg, a behavior of putting an object in a different location than usual) or a movement at the time of an accident, such as a fall. can include According to an embodiment, when the set condition is a motion designated in advance as a trigger for obtaining information on feature points of the user's motion, the set condition is when the user is located in a specific place or a specific action (eg, dance or pre-recorded action). can include
일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 전자 장치는 메모리에 저장된 전자 장치의 움직임 패턴과 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 설정된 조건을 만족하는 것으로 확인할 수 있다. 일 실시 예에 따라, 메모리에 저장된 전자 장치의 움직임 패턴은, 전자 장치를 착용한 사용자의 평상시 움직임에 의해 획득되는 것으로, 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다. 예를 들어, 메모리에 저장된 전자 장치의 움직임 패턴은, 전자 장치 또는 서버(예: 도 1의 서버(108))에 의해 학습된 것일 수 있으며, 메모리 또는 서버에 저장된 다양한 움직임 패턴과 연관된 데이터베이스에 기반하여 학습에 기반하여 획득될 수 있다.According to an embodiment, when a set condition is a behavior that deviates from a user's existing behavior, the electronic device is determined to satisfy the set condition when a difference between a motion pattern of the electronic device stored in a memory and motion information of the electronic device is equal to or greater than a set value. You can check. According to an embodiment, the movement pattern of the electronic device stored in the memory is acquired by the normal movement of a user wearing the electronic device, and is obtained by at least one of location information of the electronic device, object information around the electronic device, and time information. It may be related and learned. For example, the movement patterns of the electronic device stored in the memory may be learned by the electronic device or a server (eg, the
일 실시 예에 따라, 전자 장치의 움직임 패턴은 특정 장소에서, 특정 장소에 배치된 복수의 오브젝트 중 적어도 일부와 관련된 사용자의 평상시 움직임에 의한 것일 수 있다. 일 실시 예에 따라, 전자 장치의 움직임 패턴은 특정 장소에서, 특정 시간 대에 장소에 배치된 오브젝트와는 무관한 사용자의 평상시 움직임에 의한 것일 수 있다. 일 실시 예에 따라, 전자 장치의 움직임 패턴은, 특정 장소에서, 특정 시간 대에, 특정 장소에 배치된 복수의 오브젝트 중 적어도 일부와 관련된 사용자의 평상시 움직임에 의한 것일 수 있다.According to an embodiment, the movement pattern of the electronic device may be based on a user's normal movement related to at least some of a plurality of objects arranged in a specific place. According to an embodiment, the movement pattern of the electronic device may be a user's usual movement irrelevant to an object disposed in a specific place at a specific time. According to an embodiment, the movement pattern of the electronic device may be based on a user's usual movement related to at least some of a plurality of objects arranged in a specific place, at a specific time, and in a specific place.
일 실시 예에 따라, 메모리에 저장된 전자 장치의 움직임 패턴은, 전자 장치를 착용한 사용자의 움직임에 의해 획득되는 것으로, 전자 장치의 위치 정보, 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다.According to an embodiment, the movement pattern of the electronic device stored in the memory is acquired by the movement of a user wearing the electronic device, and is associated with at least one of location information of the electronic device, object information around the electronic device, and time information. may have been learned.
일 실시 예에 따라, 사용자의 움직임에 기반한 전자 장치의 움직임이 설정된 조건을 만족하는지 여부를 확인하는 동작은 이하 도 7 및 도 8을 참조하여 설명하기로 한다.According to an embodiment, an operation of determining whether a motion of an electronic device based on a user's motion satisfies a set condition will be described with reference to FIGS. 7 and 8 .
일 실시 예에 따라, 사용자 움직임의 특징점의 정보를 획득하기 위한 설정된 조건에 대해서는 이하 도 10에 대한 설명에 된 [표 1] 및 [표 2]를 참조하여 설명하기로 한다.According to an embodiment, set conditions for obtaining information on feature points of user motion will be described with reference to [Table 1] and [Table 2] in the description of FIG. 10 .
일 실시 예에 따라, 특징점 정보는, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는 사용자의 신체에 포함된 복수의 관절 중 일부 관절(예: 머리, 경추, 어깨, 팔꿈치, 손목, 요추, 골반, 무릎)의 3차원 이동 정보 및 일부 관절의 상호 인접한 관절을 연결하는 본의 3차원 이동 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of bones connecting the plurality of joints. For example, the feature point information may include 3D movement information of some joints (eg, head, cervical spine, shoulder, elbow, wrist, lumbar spine, pelvis, knee) among a plurality of joints included in the user's body, and mutually adjacent joints of some joints. It may include 3D movement and rotation information of the bones connecting the . According to an embodiment, the feature point information may further include movement path information of the user based on movement information of joints or bones.
일 실시 예에 따른, 복수의 관절의 움직임 정보 및 본의 움직임 정보는 이하 도 9를 참조하여 설명하기로 한다. 이와 같이, 영상 또는 사용자의 전체의 움직임 정보가 아닌 특징점 정보를 추출함으로 인해, 데이터 처리 또는 저장에 필요한 리소스를 줄이고, 사용자의 개인 정보를 보호할 수 있다.According to an exemplary embodiment, motion information of a plurality of joints and motion information of bones will be described with reference to FIG. 9 . In this way, by extracting feature point information rather than image or user motion information, resources required for data processing or storage may be reduced and user personal information may be protected.
일 실시 예에 따라, 650 동작에서, 전자 장치는 획득된 특징점 정보를 메모리(예: 도 1의 메모리(130))에 저장할 수 있다. 예를 들어, 전자 장치는 복수의 관절에 대응되는 특징점의 좌표의 이동 정보 및 복수의 관절을 연결한 본의 이동 정보 및 각도 정보를 메모리에 저장할 수 있다.According to an embodiment, in
일 실시 예에 따라, 전자 장치는 획득된 특징점 정보를 통신 회로를 통해 서버에 전송할 수 있으며, 서버는 전자 장치로부터 수신된 특징점 정보를 저장할 수 있다. 이와 같이, 특징점 정보를 서버에 저장하는 경우, 특징점 정보가 획득된 전자 장치와는 다른 전자 장치와 특징점 정보를 공유하고, 다른 전자 장치가 특징점 정보를 사용할 수 있게 된다.According to an embodiment, the electronic device may transmit acquired feature point information to a server through a communication circuit, and the server may store the feature point information received from the electronic device. In this way, when the minutiae point information is stored in the server, the minutiae point information is shared with other electronic devices than the electronic device from which the minutiae point information was obtained, and the other electronic devices can use the minutiae point information.
도 7은 본 개시의 일 실시 예에 따른 전자 장치의 사용자의 움직임 정보를 저장하는 동작을 설명하기 위한 흐름도이다.7 is a flowchart illustrating an operation of storing motion information of a user of an electronic device according to an embodiment of the present disclosure.
일 실시 예에 따라, 701 동작에서, 데이터 베이스(700)(예: 도 1의 서버(108) 또는 도 1의 메모리(130))는 미리 지정한 기본 값을 저장하고 있으며, 지속적인 사용자 로그를 빅데이터로 처리할 수 있다. 예를 들어, 미리 지정한 기본 값은 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임과 관련된 정보를 포함할 수 있고, 지속적인 사용자 로그는 특정 사용자의 평상시의 행동을 누적하여 빅데이터로 관리하는 것을 포함할 수 있다.According to one embodiment, in operation 701, the database 700 (eg, the
도 7에서는 데이터 베이스(700)에서 미리 지정한 기본 값 저장 및 사용자 로그를 빅데이터로 처리하는 것으로 도시 및 설명하였으나, 일 실시 예에 따라, 전자 장치(101)가 미리 지정한 기본 값을 저장하고, 지속적으로 사용자 로그를 빅데이터로 처리할 수도 있다.In FIG. 7 , it has been illustrated and described that the
일 실시 예에 따라, 702 동작에서, 전자 장치(101)(예: 도 1의 전자 장치(101), 도 1의 프로세서(120) 또는 도 2의 전자 장치(200))는, 외부 오브젝트를 카메라(예: 도 1의 카메라 모듈(180))를 통해 인식할 수 있다. 예를 들어, 전자 장치(101)는 사용자에게 착용된 웨어러블 전자 장치일 수 있으며, 카메라를 통해 전자 장치(101)가 위치한 공간에 포함된 실제 오브젝트를 인식하고, 오브젝트 정보를 획득할 수 있다. 예를 들어, 오브젝트 정보는, 실제 오브젝트의 위치 정보, 종류 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, in
일 실시 예에 따라, 703 동작에서, 전자 장치(101)는 사용자가 외부 오브젝트와 상호 작용 중인지 여부를 확인할 수 있다. 예를 들어, 전자 장치(101)는 카메라를 통해 사용자의 움직임을 촬영하여 사용자가 외부 오브젝트와 상호 작용(예: 사용자가 차 키를 테이블 위에 두는 행동) 중인지 여부를 확인할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 센서(예: 도 1의 센서 모듈(176))를 통해 사용자의 움직임을 감지하여 사용자가 외부 오브젝트와 상호 작용(예: 사용자가 소파에 앉는 행동) 중인지 여부를 확인할 수 있다. According to an embodiment, in
일 실시 예에 따라, 사용자가 외부 객체와 상호 작용 중이 아닌 것으로 확인되면(703 동작-아니오), 704 동작에서, 전자 장치(101)는 사용자의 움직임이 설정된 조건을 만족하는지 여부를 확인할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 데이터베이스(700)에 저장된 미리 지정한 기본 값 또는 사용자의 빅데이터를 기반으로 설정된 조건을 만족하는지 여부를 확인할 수 있다.According to an embodiment, if it is determined that the user is not interacting with an external object (Operation 703 - No), in
예를 들어, 설정된 조건은, 전자 장치(101)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다. 예를 들어, 704 동작에서 설정된 조건은 전자 장치(101)의 위치 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 기존 행동을 벗어나는 행동이거나, 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임을 포함할 수 있다.For example, the set condition may be set based on at least one of location information of the
예를 들어, 설정된 조건이 사용자의 빅데이터를 기반으로 하는 사용자의 기존 행동을 벗어나는 행동인 경우, 사용자의 평상시의 행동과는 다른 행동(예: 평상시에는 자는 시간에 이동하는 행동)을 포함할 수 있다. 일 실시 예에 따라, 설정된 조건이 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임(예: 미리 지정된 기본 값)인 경우, 사용자가 특정 장소에 위치한 경우 또는 사용자가 특정 행동(예: 춤 또는 미리 녹화된 행동)을 수행하는 경우를 포함할 수 있다.For example, if the set condition is a behavior that deviate from the user's existing behavior based on the user's big data, it may include behavior different from the user's usual behavior (e.g., moving while sleeping normally). there is. According to an embodiment, when a set condition is a movement (eg, a pre-designated default value) as a trigger for acquiring information on feature points of a user's movement, when the user is located in a specific place, or when the user takes a specific action (eg, dancing or pre-recorded actions).
일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 전자 장치(101)는 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴과 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 설정된 조건을 만족하는 것으로 확인할 수 있다. 일 실시 예에 따라, 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴은, 전자 장치(100)를 착용한 사용자의 평상시 움직임에 의해 획득되는 것으로, 전자 장치(100)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다. 예를 들어, 데이터베이스(700)에 저장된 전자 장치의 움직임 패턴은, 전자 장치(101) 또는 서버(예: 도 1의 서버(108))에 의해 학습된 것일 수 있으며, 메모리(예: 도 1의 메모리(130)) 또는 서버에 저장된 인공지능 모델에 의해 학습된 것일 수 있다.According to an embodiment, when the set condition is a behavior that deviates from the user's existing behavior, the
일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하지 않으면(704 동작-아니오), 705 동작에서, 전자 장치(101)는 기록물을 폐기할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보일 수 있다.According to an embodiment, if the user's motion does not satisfy the set condition (Operation 704 - No), in
일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하면(704 동작-예), 706 동작에서, 전자 장치(101)는 기록물을 저장할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보로, 전자 장치(101)의 움직임을 기반으로 획득된 특징점 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 전자 장치(101)의 움직임을 기반으로 획득된 전자 장치(101)를 착용한 사용자의 복수의 관절의 움직임 정보 및 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는, 사용자의 복수의 관절의 3차원 이동 정보, 본의 3차원 이동 정보 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, if the user's motion satisfies the set condition (Operation 704-Yes), in
일 실시 예에 따라, 사용자가 외부 객체와 상호 작용 중인 것으로 확인되면(703 동작-예), 707 동작에서, 전자 장치(101)는 사용자 및 외부 오브젝트의 움직임이 설정된 조건을 만족하는지 여부를 확인할 수 있다. 일 실시 예에 따라, 전자 장치(101)는 데이터베이스(700)에 저장된 미리 지정한 기본 값 또는 사용자의 빅데이터를 기반으로 설정된 조건을 만족하는지 여부를 확인할 수 있다.According to an embodiment, when it is confirmed that the user is interacting with an external object (Operation 703-Yes), in
예를 들어, 설정된 조건은, 전자 장치(101)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다. 예를 들어, 707 동작에서 설정된 조건은 전자 장치(101)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 기존 행동을 벗어나는 행동이거나, 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임을 포함할 수 있다.For example, the set condition may be set based on at least one of location information of the
예를 들어, 설정된 조건이 사용자의 빅데이터를 기반으로 하는 사용자의 기존 행동을 벗어나는 행동인 경우, 사용자의 평상시의 행동과는 다른 행동(예: 평상시와는 다른 위치에 물건을 두는 행동)을 포함할 수 있다. 일 실시 예에 따라, 설정된 조건이 사용자 움직임의 특징점의 정보를 획득하기 위한 트리거로 미리 지정된 움직임(예: 미리 지정된 기본 값)인 경우, 사용자가 특정 장소에 위치한 경우 또는 사용자가 특정 행동(예: 주차장에서 차에서 내려서 건물 입구로 걸어가는 행동)을 수행하는 경우를 포함할 수 있다.For example, if the set condition is a behavior that deviate from the user's existing behavior based on the user's big data, it includes behavior different from the user's usual behavior (e.g., behavior of putting things in a different location than usual). can do. According to an embodiment, when a set condition is a movement (eg, a pre-designated default value) as a trigger for acquiring information on feature points of a user's movement, when the user is located in a specific place, or when the user takes a specific action (eg, An action of getting out of a car in a parking lot and walking to the entrance of a building).
일 실시 예에 따라, 설정된 조건이 사용자의 기존 행동을 벗어나는 행동인 경우, 전자 장치(101)는 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴과 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 설정된 조건을 만족하는 것으로 확인할 수 있다. 일 실시 예에 따라, 데이터베이스(700)에 저장된 전자 장치(101)의 움직임 패턴은, 전자 장치(100)를 착용한 사용자의 평상시 움직임에 의해 획득되는 것으로, 전자 장치(100)의 위치 정보, 전자 장치(101) 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다. 예를 들어, 데이터베이스(700)에 저장된 전자 장치의 움직임 패턴은, 전자 장치(101) 또는 서버(예: 도 1의 서버(108))에 의해 학습된 것일 수 있으며, 메모리(예: 도 1의 메모리(130)) 또는 서버에 저장된 인공지능 모델에 의해 학습된 것일 수 있다.According to an embodiment, when the set condition is a behavior that deviates from the user's existing behavior, the
일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하지 않으면(707 동작-아니오), 705 동작에서, 전자 장치(101)는 기록물을 폐기할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보일 수 있다.According to an embodiment, if the user's motion does not satisfy the set condition (Operation 707 - No), in
일 실시 예에 따라, 사용자의 움직임이 설정된 조건을 만족하면(707 동작-예), 706 동작에서, 전자 장치(101)는 기록물을 저장할 수 있다. 예를 들어, 기록물은 센서에 의해 센싱된 전자 장치(101)의 움직임과 관련된 정보로, 전자 장치(101)의 움직임을 기반으로 획득된 특징점 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 전자 장치(101)의 움직임을 기반으로 획득된 전자 장치(101)를 착용한 사용자의 복수의 관절의 움직임 정보 및 관절을 연결하는 본(bone)의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는 사용자의 복수의 관절의 3차원 이동 정보, 본의 3차원 이동 정보 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, if the user's movement satisfies the set condition (Operation 707 - Yes), in
도 8은 본 개시의 일 실시 예에 따라, 사용자의 움직임 정보가 설정된 조건을 만족하는지 여부를 판단하는 동작을 설명하기 위한 흐름도이다.8 is a flowchart illustrating an operation of determining whether motion information of a user satisfies a set condition according to an embodiment of the present disclosure.
일 실시 예에 따라, 801 동작에서, 서버(108)(예: 도 1의 서버(108))는 대다수 사람들의 행동 데이터(또는 기정의된 조건)를 저장한 서버에서 시간, 장소, 행위 요소를 검색할 수 있다. According to one embodiment, in
일 실시 예에 따라, 802 동작에서, 서버(108)는 표본 자료를 분석할 수 있다. 예를 들어, 서버(108)는 자유도, 기대 빈도, 검정 통계량 및 연관 P 값을 산출할 수 있다. 일 실시 예에 따라, 서버(108)는 대다수 사람들의 행동 데이터에서 반복되는 패턴을 분석할 수 있다. 예를 들어, 서버(108)는 특정 시간, 특정 장소에서 대대수 사람들의 행위 요소의 반복되는 패턴을 분석하고, 반복되는 패턴을 표본 자료로 획득할 수 있다. 일 실시 예에 따라, 서버(108)는 반복되는 패턴을 분석하여 자유도, 기대 빈도, 검정 통계량 및 연관 P 값을 획득할 수 있다.According to one embodiment, in
일 실시 예에 따라, 803 동작에서, 전자 장치(101)(예: 도 1의 전자 장치(101), 도 1의 프로세서(120)) 또는 도 2의 전자 장치(200))는, 사용자의 행동을 감지 및/또는 녹화할 수 있다. 예를 들어, 전자 장치(101)는 센서(예: 도 1의 센서 모듈(176)) 및/또는 카메라(예: 도 1의 카메라 모듈(180))을 통해 사용자의 행동을 감지 및/또는 녹화할 수 있다.According to an embodiment, in
일 실시 예에 따라, 804 동작에서, 전자 장치(101)는 감지 및/또는 녹화된 사용자의 행동 데이터를 전처리할 수 있다. 예를 들어, 전자 장치(101)는 사용자의 행동 데이터를 시간, 장소 또는 행위로 분류할 수 있다. According to an embodiment, in
일 실시 예에 따라, 805 동작에서, 전자 장치(101)는 데이터 서브 셋(부분집합)을 생성할 수 있다. 예를 들어, 전자 장치(101)는 시간, 장소 또는 행위로 분류된 사용자 행동 데이터를, 시간, 장소 또는 행위 중 적어도 하나를 조합하여 서브 셋을 생성할 수 있다. 예를 들어, 전자 장치(101)는 특정 시간, 특정 장소 또는 특정 행위 중 적어도 하나를 조합한 사용자 행동 데이터의 서브 셋을 생성할 수 있다.According to an embodiment, in
일 실시 예에 따라, 전자 장치(101)는 서버(108)로부터 표본 자료를 수신하고, 수신된 표본 자료를 기반으로 특정 시간, 특정 장소 또는 특정 행위 중 적어도 하나를 조합하여 데이터 서브 셋을 생성할 수 있다. According to an embodiment, the
일 실시 예에 따라, 806 동작에서, 전자 장치(101)는 기술 통계량을 생성할 수 있다. 예를 들어, 전자 장치(101)는 데이터 서브 셋의 평균 또는 산포도 중 적어도 하나를 획득할 수 있다. 예를 들어, 특정 시간, 특정 장소 또는 특정 행위 중 적어도 하나를 조합하여 생성된 복수의 데이터 서브 셋의 평균 또는 산포도 중 적어도 하나를 획득할 수 있다.According to an embodiment, in
일 실시 예에 따라, 807 동작에서, 전자 장치(101)는 동질성 분포를 분석할 수 있다. 예를 들어, 전자 장치(101)는 서버(108)로부터 수신된 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하는지 여부를 확인할 수 있다.According to an embodiment, in
일 실시 예에 따라, 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하면(807 동작-예), 전자 장치(101)는 사용자의 행동 데이터를 서버(108)에 전송하고, 808 동작에서, 서버(108)는 전자 장치(101)로부터 수신된 사용자의 행동 데이터를 저장할 수 있다. 예를 들어, 전자 장치(101)는 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하면 사용자의 행동이 평상시의 행동 패턴과 다른 유의미한 행위인 것으로 확인하고, 사용자의 행동 데이터를 저장할 수 있다. According to an embodiment, if the standard deviation exceeds 1 (action 807-yes) by comparing the descriptive statistics of the sample data and the data subset, the
일 실시 예에 따라, 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하지 않으면(807 동작-아니오), 809 동작에서, 전자 장치(101)는 사용자의 행동 데이터를 기록하지 않을 수 있다. 예를 들어, 전자 장치(101)는 표본 자료와 데이터 서브 셋의 기술 통계량을 비교하여 표준 편차가 1을 초과하지 않으면 사용자의 행동이 평상시의 행동 패턴인 것으로 확인하고, 사용자의 행동 데이터를 기록하지 않을 수 있다.According to an embodiment, if the standard deviation does not exceed 1 by comparing the descriptive statistics of the sample data and the data subset (Operation 807-No), in
도 9는 본 개시의 일 실시 예에 따른 사용자의 움직임의 특징점 정보를 설명하기 위한 도면이다.9 is a diagram for explaining feature point information of a user's motion according to an embodiment of the present disclosure.
일 실시 예에 따라, 도 9를 참조하면, 특징점 정보는 사용자의 복수의 관절(910)의 움직임 정보 및 복수의 관절을 연결하는 본(bone)(920)의 움직임 정보를 포함할 수 있다.According to an embodiment, referring to FIG. 9 , feature point information may include motion information of a plurality of
일 실시 예에 따라, 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120) 또는 도 2이 전자 장치(200))는 센서(예: 도 1의 센서 모듈(176))를 통해 획득된 전자 장치의 움직임 정보, 외부 카메라(예: 도 1의 전자 장치(104))를 통해 획득된 사용자의 영상 또는 외부 전자 장치(예: 도 1 의 전자 장치(104))를 통해 획득된 사용자의 움직임 정보 중 적어도 하나를 기반으로, 사용자의 주요 관절(910)(예: 머리, 경추, 어깨, 팔꿈치, 손목, 요추, 무릎, 발목)의 움직임 정보를 획득할 수 있다. 예를 들어, 사용자의 주요 관절(910)의 움직임 정보는 관절(910)의 좌표의 3차원 이동 정보일 수 있다. According to an embodiment, an electronic device (eg, the
일 실시 예에 따라, 본(920)은 인체의 골격 구조에 기반하여 인접한 두 주요 관절(910)을 연결한 것일 수 있다. 예를 들어, 본(920)은, 머리와 경추, 경추와 어깨, 어깨와 팔꿈치, 팔꿈치와 손목, 경추와 요추, 요추와 무릎, 무릎과 발목을 각각 연결한 것일 수 있다.According to an embodiment, the
일 실시 예에 따라, 본(920)의 움직임 정보는 두 점(예: 관절(910))을 연결한 선의 움직임 정보로, 선의 3차원 이동 정보 및 회전 정보 중 적어도 하나를 포함할 수 있다.According to an embodiment, the motion information of the
이와 같이, 영상 또는 사용자의 움직임 정보 전체가 아닌 특징점 정보를 추출함으로 인해, 데이터 처리 또는 저장에 필요한 리소스를 줄이고, 사용자의 개인 정보를 보호할 수 있다.In this way, by extracting feature point information rather than entire image or motion information of a user, resources required for data processing or storage may be reduced and personal information of the user may be protected.
도 10은 본 개시의 일 실시 예에 따라, 전자 장치가 저장된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 흐름도이다.10 is a flowchart illustrating an operation of an electronic device to display a 3D virtual object image based on stored feature point information, according to an embodiment of the present disclosure.
일 실시 예에 따라, 도 10을 참조하면, 1010 동작에서, 전자 장치(예: 도 1의 전자 장치(101), 도 1의 프로세서(120), 도 2의 전자 장치(200) 또는 도 5의 전자 장치(400))는 전자 장치가 위치한 실제 공간의 위치 정보를 획득할 수 있다. According to an embodiment, referring to FIG. 10 , in
일 실시 예에 따라, 전자 장치는 전자 장치의 위치를 감지하는 센서(예: 도 1의 센서 모듈(176))를 통해 전자 장치의 위치 정보를 획득할 수 있다. 예를 들어, 전자 장치의 위치를 감지하는 센서는 GPS 센서일 수 있다. 일 실시 예에 따라, 전자 장치는 장소에 배치된 외부 전자 장치(예: 비콘)으로부터 위치 정보가 포함된 신호를 수신하여, 위치 정보를 획득할 수 있다.According to an embodiment, the electronic device may obtain location information of the electronic device through a sensor that detects the location of the electronic device (eg, the
일 실시 예에 따라, 1020 동작에서, 전자 장치는 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득할 수 있다.According to an embodiment, in
일 실시 예에 따라, 전자 장치는 카메라(예: 도 1의 카메라 모듈(180))을 통해 주변 영상을 획득하고, 획득된 영상을 기반으로, 주변에 배치된 실제 오브젝트의 위치 및/또는 종류와 관련된 오브젝트 정보를 획득할 수 있다. 예를 들어, 전자 장치는 획득된 영상에 포함된 실제 오브젝트의 이미지 또는 실제 오브젝트에 포함된 텍스트를 기반으로 실제 오브젝트의 종류와 관련된 오브젝트 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 TOF(Time of flight) 방식, 스테레오스코프 비전(stereoscopic vision) 방식, 구조화 광 패턴(structured light pattern) 방식 중 적어도 하나의 방식을 이용하는 센서(예: 도 1의 센서 모듈(176))를 통해 실제 오브젝트의 위치 정보를 획득할 수도 있다.According to an embodiment, the electronic device obtains a surrounding image through a camera (eg, the
일 실시 예에 따라, 1030 동작에서, 전자 장치는 메모리(예: 도 1의 메모리(130))에, 위치 정보 및/또는 오브젝트 정보와 관련된 사용자의 움직임의 특징점 정보가 저장되어 있으면, 특징점 정보가 있음을 알리는 가상 오브젝트를 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다.According to an embodiment, in
일 실시 예에 따라, 특징점 정보는, 도 6에 도시된 바와 같은 전자 장치의 동작에 의해 획득되어 메모리 또는 서버(예: 도 1의 서버(108))에 저장된 것일 수 있다. 예를 들어, 특징점 정보는 전자 장치가 실제 공간에 위치하는 현재 시점 이전에 메모리 또는 서버에 저장된 것일 수 있다.According to an embodiment, feature point information may be obtained by an operation of an electronic device as shown in FIG. 6 and stored in a memory or a server (eg, the
일 실시 예에 따라, 특징점 정보는, 특징점 정보가 메모리에 저장되기 이전에, 실제 공간에서 센서(예: 도 1의 센서 모듈(176))를 통해 획득된 전자 장치의 움직임 정보가, 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 전자 장치의 움직임 정보를 기반으로 획득된 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 메모리에 저장된 것일 수 있다. 예를 들어, 특징점 정보는, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다. 예를 들어, 특징점 정보는, 사용자의 복수의 관절의 3차원 이동 정보, 본의 3차원 이동 정보 및 회전 정보를 포함할 수 있다. 일 실시 예에 따라, 특징점 정보는 관절 또는 본의 이동 정보에 기반한 사용자의 이동 경로 정보를 더 포함할 수 있다.According to an embodiment, motion information of an electronic device obtained through a sensor (eg, the
일 실시 예에 따라, 특징점 정보는 전자 장치와 다른 전자 장치에 의해 획득되고 서버에 저장된 것일 수 있다. 예를 들어, 특징점 정보가 획득된 전자 장치와 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 재생하는 장치는 서로 다른 장치일 수 있다.According to an embodiment, feature point information may be acquired by an electronic device different from an electronic device and stored in a server. For example, an electronic device from which feature point information is acquired and a device that reproduces a 3D virtual object image based on the feature point information may be different devices.
일 실시 예에 따라, 전자 장치는 통신 회로(예: 도 1의 통신 모듈(180))를 통해 외부 전자 장치로부터 사용자의 움직임 정보를 더 획득하고, 외부 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 특징점 정보를 획득할 수 있다. 예를 들어, 외부 전자 장치는 외부 카메라(예: CCTV, 블랙박스, 가전에 포함된 카메라), 웨어러블 전자 장치 또는 스마트폰과 같은 단말 장치일 수 있다.According to an embodiment, the electronic device further obtains motion information of the user from the external electronic device through a communication circuit (eg, the
일 실시 예에 따라, 특징점 정보는 외부 카메라로부터 수신된 사용자의 움직임이 포함된 영상을 기반으로 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다. 일 실시 예에 따라, 특징점 정보는 외부 웨어러블 전자 장치 또는 외부 단말 장치로부터 수신된 외부 전자 장치의 움직임과 관련된 센싱 값을 기반으로 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다.According to an embodiment, the feature point information may be obtained by further considering motion information of the user obtained based on an image including the motion of the user received from an external camera. According to an embodiment, the feature point information may be obtained by further considering motion information of the user obtained based on a sensing value related to the motion of the external electronic device received from the external wearable electronic device or the external terminal device.
일 실시 예에 따라, 특징점 정보는 메모리 또는 서버에 저장된 것일 수 있다.According to an embodiment, feature point information may be stored in a memory or a server.
일 실시 예에 따라, 전자 장치는 전자 장치가 위치한 실제 공간과 관련된 사용자의 움직임의 특징점 정보가 저장되어 있으면, 특징점 정보가 있음을 알리는 가상 오브젝트를 공간의 일부 또는 특징점 정보와 관련된 실제 오브젝트 상에 표시하도록 디스플레이를 제어할 수 있다. 예를 들어, 가상 오브젝트는, 팝업 화면 또는 아이콘 형태일 수 있으며, 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 표시하기 위해 선택될 수 있는 UI(user interface)일 수 있다.According to an embodiment, when feature point information of a user's motion related to a real space in which the electronic device is located is stored, the electronic device displays a virtual object informing that the feature point information exists on a part of the space or a real object related to the feature point information. You can control the display to For example, the virtual object may be in the form of a pop-up screen or icon, and may be a user interface (UI) that can be selected to display a 3D virtual object image based on feature point information.
일 실시 예에 따라, 1040 동작에서, 전자 장치는 가상 오브젝트를 통해 특징점 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 획득할 수 있다.According to an embodiment, in
일 실시 예에 따라, 3D 가상 오브젝트 영상은 신체의 움직임을 표현할 수 있는 3D 가상 캐릭터를 포함할 수 있다. 일 실시 예에 따라, 전자 장치는 특징점 정보를 기반으로 공간 내에서 이동하거나, 움직이는 3D 가상 캐릭터를 포함하는 3D 가상 오브젝트 영상을 획득할 수 있다.According to an embodiment, a 3D virtual object image may include a 3D virtual character capable of expressing body movements. According to an embodiment, the electronic device may obtain a 3D virtual object image including a 3D virtual character moving or moving in a space based on feature point information.
일 실시 예에 따라, 3D 가상 오브젝트 영상은 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함할 수 있다. 예를 들어, 3D 가상 오브젝트 영상은 3D 가상 캐릭터와 함께 특징점 정보 획득시에는 실제 공간에 배치되었던 실제 오브젝트와 관련된 가상 오브젝트를 더 포함할 수 있다. 예를 들어, 차 키를 평상시에 두는 위치와 다른 위치에 두는 사용자 행동과 관련된 특징점 정보가 저장된 경우, 특징점 정보를 기반으로 획득된 3D 가상 오브젝트 영상은 차 키와 관련된 가상 오브젝트와, 차 키와 관련된 가상 오브젝트를 평상시에 두는 위치와 다른 위치에 두는 행동을 수행하는 3D 가상 캐릭터를 포함할 수 있다. According to an embodiment, the 3D virtual object image may further include at least one virtual object respectively related to at least one of a plurality of real objects included in the real space. For example, the 3D virtual object image may further include a virtual object related to a real object disposed in a real space when feature point information is acquired together with a 3D virtual character. For example, when feature point information related to a user's action of putting a car key in a different location from a position where he normally puts it is stored, a 3D virtual object image obtained based on the feature point information includes a virtual object related to the car key and a car key related to the car key. It may include a 3D virtual character performing an action of placing the virtual object in a position different from a position in which the virtual object is normally placed.
일 실시 예에 따라, 특징점 정보가 획득되는 상황 및 특징점 정보를 기반으로 표시되는 영상은 이하 [표 1]과 같다. According to an embodiment, a situation in which feature point information is obtained and an image displayed based on the feature point information are shown in [Table 1] below.
일 실시 예에 따라, 3D 가상 오브젝트 영상에 포함되는 데이터는 일하 [표 2]와 같을 수 있다. 예를 들어, 3D 가상 오브젝트 영상에는 사용자의 표정 및 움직임을 표현할 가상 캐릭터, 캐릭터가 입은 옷, 실제 오브젝트에 대응되는 가상 오브젝트를 포함할 수 있다. According to an embodiment, data included in a 3D virtual object image may be as shown in [Table 2]. For example, the 3D virtual object image may include a virtual character to express a user's expression and movement, clothes worn by the character, and a virtual object corresponding to a real object.
*동작 재현 시 사용자가 다를 경우 각각 다른 이모지로 재생이 된다. Displays the character model set by the user or designated by the system.
*When reproducing the motion, if the user is different, each emoji is reproduced.
- 제 1사용자가 착용한 옷Clothes worn by the character - clothes set by the user
- Clothes worn by the first user
-소품류: 운동기구(요가매트, 공, 덤벨), 우산, 자동차 키, 열쇠 등Types of 3D object-devices attached to the character body or displayed together in 3D space: mobile phones, AR glass, voice output devices (Buds, speakers, headsets), health aids (blood pressure monitors, weight scales), input devices (keyboards, joysticks) etc.
-Accessories: exercise equipment (yoga mat, ball, dumbbell), umbrella, car keys, keys, etc.
일 실시 예에 따라, 1050 동작에서, 전자 장치는 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. 예를 들어, 전자 장치는 3D 가상 캐릭터 및 실제 오브젝트와 관련된 가상 오브젝트를 포함하는 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다.According to an embodiment, in
일 실시 예에 따라, 실제 오브젝트가 전자 장치와 통신하는 외부 전자 장치인 경우, 전자 장치는 3D 가상 오브젝트 영상과 함께 실제 오브젝트와 관련된 어플리케이션 화면을 더 표시할 수도 있다.According to an embodiment, when the real object is an external electronic device communicating with the electronic device, the electronic device may further display an application screen related to the real object together with a 3D virtual object image.
도 11a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다. 예를 들어, 도 11a에 도시된 사용자는 전자 장치(예: 도 1의 전자 장치(101))를 착용한 상태일 수 있으며, 사용자의 행동을 설명하기 위한 것으로, 전자 장치에 의해 획득되는 영상은 아닐 수 있다. 일 실시 예에 따라, 도 11a의 사용자가 포함된 영상은 외부 카메라 장치로부터 획득될 수는 있다.11A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure. For example, the user shown in FIG. 11A may be wearing an electronic device (eg, the
일 실시 예에 따라, 도 11a의 (a)를 참조하면, 사용자(10)는 평상시에 차 키(1110)를 사각형 테이블(1111) 위에 둘 수 있다. 일 실시 예에 따라, 사용자(10)는 평상시에 차 키(1110)를 사각형 테이블(1111) 위에 두는 행동은 학습된 것일 수 있으며, 전자 장치는 전자 장치가 위치한 공간의 위치 정보, 공간에 포함된 실제 오브젝트의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 사용자의 평상시의 행동을 학습할 수 있다.According to an embodiment, referring to (a) of FIG. 11A , the
일 실시 예에 따라, 도 11a의 (b)를 참조하면, 전자 장치는 사용자(10)는 차 키(1110)를 원형의 테이블(1120) 위에 두는 경우, 학습된 사용자(10)의 행동과 다른 행동을 하는 설정된 조건을 만족한 것으로 확인할 수 있다.According to an embodiment, referring to (b) of FIG. 11A , when the
일 실시 예에 따라, 전자 장치는 차 키(1110)를 원형의 테이블(1120) 위에 두는 사용자(10)의 움직임 정보를 센서(예: 도 1의 센서 모듈(176))로부터 획득하고, 획득된 움직임 정보를 기반으로 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라로부터 사용자의 움직임이 촬상된 영상을 수신하거나, 외부 전자 장치로부터 사용자의 움직임 정보를 수신하고, 수신된 영상 및 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 특징점 정보는 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다. According to an embodiment, the electronic device obtains motion information of the
도 11b는 본 개시의 일 실시 예에 따라, 도 11a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다. FIG. 11B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 11A is stored, according to an embodiment of the present disclosure. it is a drawing
일 실시 예에 따라, 도 11b의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(예: 사각형 테이블(1111))와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1130)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1130)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 11B , after the feature point information is stored, when the
일 실시 예에 따라, 도 11b의 (a)에서는 하나의 가상 오브젝트(1130)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one
일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1130)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 11b의 (b)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the
일 실시 예에 따라, 도 11b의 (b)를 참조하면, 전자 장치(101)는 평상시에 두던 사각형 테이블이 아닌 원형 테이블(1120)에 차 키를 두는 3D 가상 캐릭터(1140)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. 일 실시 예에 따라, 3D 가상 오브젝트 영상은 3D 가상 캐릭터(1140)의 손에 쥐어진 차 키에 대응되는 가상 오브젝트(1141)를 더 포함할 수 있다. According to an embodiment, referring to (b) of FIG. 11B, the
이와 같이, 전자 장치는 3D 가상 오브젝트 영상을 통해 저장된 사용자의 움직임 정보를 표시함으로써, 저장된 사용자의 특이 행동을 사용자에게 제공할 수 있다.In this way, the electronic device may provide the stored specific behavior of the user to the user by displaying the stored motion information of the user through the 3D virtual object image.
도 12a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다. 예를 들어, 도 12a에 도시된 사용자는 전자 장치(예: 도 1의 전자 장치(101))를 착용한 상태일 수 있으며, 사용자의 행동을 설명하기 위한 것으로, 전자 장치에 의해 획득되는 영상은 아닐 수 있다. 일 실시 예에 따라, 도 12a의 사용자가 포함된 영상은 외부 카메라 장치로부터 획득될 수는 있다.12A is a diagram for explaining a case where an electronic device stores motion information of a user according to an embodiment of the present disclosure. For example, the user shown in FIG. 12A may be in a state wearing an electronic device (eg, the
일 실시 예에 따라, 도 12a의 (a)에 도시된 바와 같이, 사용자(10)는 주차장에 자동차(1210)를 주차한 후 도 12a의 (b)에 도시된 바와 같이, 건물의 입구(1220)로 향할 수 있다. 일 실시 예에 따라, 사용자 움직임의 특징점 정보를 획득하기 위한 설정된 조건이, 특정 행동(예: 주차 후 건물로 들어가는 행동)인 경우, 전자 장치는 전자 장치의 위치 정보 및 인식된 주변의 오브젝트 정보를 기반으로, 사용자가 자동차(1210)를 주차 후 건물 입구(1220)로 들어가는 사용자의 움직임이 확인되면, 사용자의 움직임이 설정된 조건을 만족함을 확인할 수 있다. According to an embodiment, as shown in (a) of FIG. 12A, after the
일 실시 예에 따라, 전자 장치는 자동차(1210)를 주차한 위치 정보 및 사용자(10)가 주차 후 건물 입구(1220)까지 가는 동안의 이동 경로와 관련된 사용자(10)의 움직임 정보를 획득하고, 획득된 움직임 정보를 기반으로 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라로부터 사용자의 움직임이 촬상된 영상을 수신하거나, 외부 전자 장치로부터 사용자의 움직임 정보를 수신하고, 수신된 영상 및 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 특징점 정보는 사용자의 이동 경로 정보를 포함할 수 있으며, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다. According to an embodiment, the electronic device acquires location information where the
도 12b는 본 개시의 일 실시 예에 따라, 도 12a의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.FIG. 12B is a diagram for explaining an operation of displaying a 3D virtual object image related to stored user motion information by an electronic device when the electronic device is located in a place where the user motion information of FIG. 12A is stored, according to an embodiment of the present disclosure. it is a drawing
일 실시 예에 따라, 도 12b의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(1220)(예: 건물 입구)와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1230)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1230)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 12B , after the feature point information is stored, if the
일 실시 예에 따라, 도 12b의 (a)에서는 하나의 가상 오브젝트(1230)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one
일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1230)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 12b의 (b) 및 (c)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the
일 실시 예에 따라, 도 12b의 (b) 및 (c)를 참조하면, 전자 장치(101)는 사용자의 특징점 정보를 기반으로 건물 입구에서 주차된 자동차까지 이동하는 3D 가상 캐릭터(1240)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. According to an embodiment, referring to (b) and (c) of FIG. 12B , the
이와 같이, 전자 장치는 3D 가상 오브젝트 영상을 통해 저장된 사용자의 움직임 정보를 표시함으로써, 설정된 조건을 만족하는 사용자의 움직임에 대한 정보를 사용자에게 제공할 수 있다.As such, the electronic device may provide the user with information about the user's movement that satisfies the set condition by displaying the user's movement information stored through the 3D virtual object image.
도 13a는 본 개시의 일 실시 예에 따라, 전자 장치가 사용자의 움직임 정보를 저장하는 경우를 설명하기 위한 도면이다. 예를 들어, 도 13a에 도시된 사용자는 전자 장치(예: 도 1의 전자 장치(101))를 착용한 상태일 수 있으며, 사용자의 행동을 설명하기 위한 것으로, 전자 장치에 의해 획득되는 영상은 아닐 수 있다. 일 실시 예에 따라, 도 13a의 사용자가 포함된 영상은 외부 카메라 장치로부터 획득될 수는 있다. 13A is a diagram for explaining a case where an electronic device stores user motion information according to an embodiment of the present disclosure. For example, the user shown in FIG. 13A may be wearing an electronic device (eg, the
일 실시 예에 따라, 도 13a의 (a)에 도시된 바와 같이, 사용자(10)는 밝기, 온도와 같은 방의 환경을 제어할 수 있는 제어 보드(1310)를 조작하는 동작을 수행하고, 도 13a의 (b)에 도시된 바와 같이, 방에 포함된 가전(1320)을 사용하는 동작을 수행할 수 있다. 일 실시 예에 따라, 사용자 움직임의 특징점 정보를 획득하기 위한 설정된 조건이, 사용자의 녹화 명령 입력 후의 동작인 경우, 전자 장치는 전자 장치의 위치 정보 및 인식된 주변의 오브젝트 정보를 획득하고, 위치 정보 및 오브젝트 정보를 기반으로 사용자(10)의 움직임 정보를 획득할 수 있다. 예를 들어, 특정 공간(예: 호텔 방)에 배치된 가전(예: 제어 보드, 전기 포트 또는 냉장고) 또는 용품(예: 웰컴 드링크, 옷장 또는 어메니티)의 위치 및 사용법을 설명을 위해 움직임 정보가 필요한 경우, 설정된 조건은 사용자의 녹화 명령 입력 후의 동작일 수 있다. 일 실시 예에 따라, 도 13a의 (a) 및 (b)는 사용자(10)의 연속적인 움직임 동작일 수 있다. According to an embodiment, as shown in (a) of FIG. 13A, the
일 실시 예에 따라, 전자 장치는 사용자(10)의 움직임 정보를 기반으로 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 전자 장치는 외부 카메라로부터 사용자의 움직임이 촬상된 영상을 수신하거나, 외부 전자 장치로부터 사용자의 움직임 정보를 수신하고, 수신된 영상 및 움직임 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 특징점 정보는 사용자의 이동 경로 정보를 포함할 수 있으며, 사용자의 복수의 관절의 움직임 정보 및 복수의 관절을 연결하는 본의 움직임 정보를 포함할 수 있다.According to an embodiment, the electronic device may obtain feature point information based on motion information of the
도 13b는 본 개시의 일 실시 예에 따라, 도 13a의 (a)의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.FIG. 13b illustrates an operation of displaying a 3D virtual object image related to the stored user motion information by the electronic device when the electronic device is located in the place where the user motion information of FIG. 13A (a) is stored, according to an embodiment of the present disclosure. It is a drawing for explaining.
일 실시 예에 따라, 도 13b의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(1310)(예: 제어 보드)와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 13B , after feature point information is stored, if the
일 실시 예에 따라, 도 13b의 (a)에서는 하나의 가상 오브젝트(1330)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one
일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 13b의 (b)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the
일 실시 예에 따라, 도 13b의 (b)를 참조하면, 전자 장치(101)는 사용자의 특징점 정보를 기반으로 제어 보드(1310)의 위치 및 조작하는 방법을 안내하는 3D 가상 캐릭터(1340)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. According to an embodiment, referring to (b) of FIG. 13B, the
도 13c는 본 개시의 일 실시 예에 따라, 도 13a의 (b)의 사용자 움직임 정보가 저장된 장소에 전자 장치가 위치하는 경우, 전자 장치가 저장된 사용자 움직임 정보와 관련된 3D 가상 오브젝트 영상을 표시하는 동작을 설명하기 위한 도면이다.FIG. 13C illustrates an operation of displaying a 3D virtual object image related to stored user motion information by the electronic device when the electronic device is located in the place where the user motion information of FIG. 13A (b) is stored, according to an embodiment of the present disclosure. It is a drawing for explaining.
일 실시 예에 따라, 도 13c의 (a)를 참조하면, 특징점 정보가 저장된 이후, 전자 장치(101)가 특징점 정보가 획득된 공간에 다시 위치하면, 전자 장치(101)는 공간과 관련되거나, 공간에 포함된 오브젝트(1320)(예: 가전)와 관련된 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1350)을 디스플레이(예: 도 1의 디스플레이 모듈(160))에 표시할 수 있다. 예를 들어, 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1350)는 팝업 화면 또는 아이콘 형태일 수 있다.According to an embodiment, referring to (a) of FIG. 13C , after the feature point information is stored, if the
일 실시 예에 따라, 도 13c의 (a)에서는 하나의 가상 오브젝트(1350)가 표시되는 것으로 도시되었으나, 공간과 관련된 특징점 정보가 2개 이상 저장된 경우, 2개 이상의 가상 오브젝트가 표시될 수 있다.According to an embodiment, although one
일 실시 예에 따라, 전자 장치(101)는 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1350)를 선택하는 사용자(10)의 제스쳐 입력을 수신하면, 도 13c의 (b)에 도시된 바와 같이, 저장된 특징점 정보를 기반으로 생성된 3D 가상 오브젝트 영상을 표시할 수 있다. According to an embodiment, when the
일 실시 예에 따라, 도 13c의 (b)를 참조하면, 전자 장치(101)는 사용자의 특징점 정보를 기반으로 가전(1320)의 위치 및 조작하는 방법을 안내하는 3D 가상 캐릭터(1340)가 포함된 3D 가상 오브젝트 영상을 디스플레이에 표시할 수 있다. According to an embodiment, referring to (b) of FIG. 13C, the
일 실시 예에 따라, 도 13b 및 도 13c에서는 저장된 특징점 정보와 관련된 실제 오브젝트(예: 도 13b의 제어 보드(1310) 및 도 13c의 가전(1320)) 각각에 특징점 정보가 저장되어 있음을 알리는 가상 오브젝트(1330, 1350)가 표시되는 것으로 도시되었으나, 실제 구현시에는 녹화 명령 입력 후 복수의 실제 오브젝트에 대한 사용자 움직임이 연속적임에 따라, 도 13b의 (b) 및 도 13c의 (b)에 도시된 3D 가상 오브젝트 영상이 연속적으로 재생될 수도 있다.According to an embodiment, in FIGS. 13B and 13C , a virtual object indicating that feature point information is stored in each of the real objects (eg, the
이와 같이, 전자 장치는 3D 가상 오브젝트 영상을 통해 저장된 사용자의 움직임 정보를 표시함으로써, 설정된 조건을 만족하는 사용자의 움직임에 대한 정보를 사용자에게 제공할 수 있다.As such, the electronic device may provide the user with information about the user's movement that satisfies the set condition by displaying the user's movement information stored through the 3D virtual object image.
도 14는 본 개시의 일 실시 예에 따른 전자 장치의 통신 연결 형태를 설명하기 위한 도면이다.14 is a diagram for explaining a communication connection form of an electronic device according to an embodiment of the present disclosure.
일 실시 예에 따라, 도 14를 참조하면, 3D 가상 오브젝트 영상 제공 시스템의 서버(108)(예: 도 1의 서버(108))는 복수의 전자 장치(101-1, 101-2)(예: 도 1의 전자 장치(101))와 통신할 수 있다. 예를 들어, 복수의 전자 장치(101-1, 101-2)는 3D 가상 오브젝트 영상을 재생할 수 있는 스마트 안경, HMD 장치와 같은 웨어러블 전자 장치일 수 있다. According to an embodiment, referring to FIG. 14 , the server 108 (eg, the
일 실시 예에 따라, 서버(108)는 데이터베이스(DB)가 저장된 메모리, 외부 장치들과 통신하기 위한 통신 모듈, 메모리 및 통신 모듈과 작동적으로 연결된 적어도 하나의 프로세서를 포함할 수 있다.According to an embodiment, the
일 실시 예에 따라, 전자 장치(101-1, 101-2)는 복수의 센서(예: 도 1의 센서 모듈(176))를 포함할 수 있으며, 전자 장치(101-1, 101-2)가 위치한 위치 정보를 획득할 수 있고, 사용자의 신체에 장착되어, 사용자의 움직임과 관련된 센싱 값을 획득할 수 있다.According to an embodiment, the electronic devices 101-1 and 101-2 may include a plurality of sensors (eg, the
일 실시 예에 따라, 전자 장치(101-1, 101-2)는 카메라(예: 도 1의 카메라 모듈(1180))를 포함할 수 있으며, 전자 장치(101-1, 101-2)가 위치한 공간에 포함된 오브젝트를 인식하여 오브젝트 정보를 획득할 수 있다.According to an embodiment, the electronic devices 101-1 and 101-2 may include a camera (eg, the camera module 1180 of FIG. 1), and the electronic devices 101-1 and 101-2 are located. Object information may be obtained by recognizing an object included in the space.
일 실시 예에 따라, 전자 장치(101-1, 101-2)는 복수의 외부 전자 장치와 통신할 수 있다. 예를 들어, 전자 장치(101-1, 101-2)는 외부 카메라(1411-1, 1411-2), 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰), 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)와 통신할 수 있다. According to an embodiment, the electronic devices 101-1 and 101-2 may communicate with a plurality of external electronic devices. For example, the electronic devices 101-1 and 101-2 may include external cameras 1411-1 and 1411-2, external electronic devices 1410-1 and 1410-2 (eg, smartphones), or external wearable devices. It may communicate with the electronic devices 1412-1 and 1412-2.
일 실시 예에 따라, 전자 장치(101-1, 101-2)는 복수의 외부 전자 장치로부터 사용자가 촬상된 영상 또는 사용자의 움직임과 관련된 정보(예: 센싱 값)을 수신할 수 있다. 예를 들어, 전자 장치(101-1, 101-2)는 설정된 조건을 만족하는 사용자의 움직임이 확인되면, 설정된 조건을 만족하는 사용자의 움직임이 감지된 기간에 촬상된 영상 또는 획득된 사용자의 움직임과 관련된 정보를 외부 전자 장치로부터 수신할 수 있다. 일 실시 예에 따라, 전자 장치(101-1, 101-2)는 센서에 의해 획득된 센싱 값 및 외부 전자 장치로부터 수신된 영상 또는 사용자의 움직임과 관련된 정보를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. According to an embodiment, the electronic devices 101-1 and 101-2 may receive a captured image of a user or information (eg, a sensing value) related to a user's movement from a plurality of external electronic devices. For example, when the electronic device 101-1 or 101-2 confirms the user's motion that satisfies the set condition, the captured image or the acquired user's motion Information related to may be received from an external electronic device. According to an embodiment, the electronic devices 101-1 and 101-2 obtain feature point information of the user's movement based on a sensing value obtained by a sensor and information related to an image or user's movement received from an external electronic device. can do.
일 실시 예에 따라, 전자 장치(101-1, 101-2)는 특징점 정보를 메모리(예: 도 1의 메모리(130)) 또는 서버(108)에 저장할 수 있다. 일 실시 예에 따라, 특징점 정보가 서버(108)에 저장되는 경우, 제1 전자 장치(101-1)에 의해 획득된 특징점 정보를 기반으로 획득된 3D 가상 오브젝트 영상이 제2 전자 장치(101-2)에 의해 표시될 수도 있다.According to an embodiment, the electronic devices 101-1 and 101-2 may store feature point information in a memory (eg, the
일 실시 예에 따라, 전자 장치(101-1, 101-2)가 외부 전자 장치로부터 영상 또는 사용자의 움직임 정보를 수신하여 특징점 정보를 획득하는 것으로 설명하였으나, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)가 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보 중 적어도 하나를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다. 일 실시 예에 따라, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)는 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보를 서버(108)에 전송하여, 서버(108)에 의해 사용자 움직임의 특징점 정보가 획득되도록 할 수 있다. According to an embodiment, it has been described that the electronic devices 101-1 and 101-2 acquire feature point information by receiving images or motion information of the user from external electronic devices, but the external electronic devices 1410-1 and 1410- 2) (e.g., smart phone) sensed values acquired by the electronic devices 101-1 and 101-2, images acquired by the external cameras 1411-1 and 1411-2, or external wearable electronic devices 1412 Based on at least one of the user motion information acquired by steps -1 and 1412-2), feature point information of the user's motion may be obtained. According to an embodiment, the external electronic devices 1410-1 and 1410-2 (eg, smart phones) may include sensing values acquired by the electronic devices 101-1 and 101-2, external cameras 1411-1, 1411-2) or the user movement information obtained by the external wearable electronic devices 1412-1 and 1412-2 are transmitted to the
일 실시 예에 따라, 특징점 정보 저장 이후, 전자 장치(101-1, 101-2)가 해당 장소에 위치하고, 특징점 정보와 관련된 3D 가상 오브젝트 영상을 표시하기 위한 사용자 입력이 수신되면, 전자 장치(101-1, 101-2)는 외부 전자 장치(1410-1, 1410-2) 또는 서버(108)로부터 특징점 정보를 수신하고, 수신된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 3D 가상 오브젝트 영상을 표시할 수 있다. 일 실시 예에 따라, 전자 장치(101-1, 101-2)는 외부 전자 장치(1410-1, 1410-2) 또는 서버(108)로부터 3D 가상 오브젝트 영상을 수신하면, 전자 장치(101-1, 101-2)는 수신된 3D 가상 오브젝트 영상을 표시할 수 있다.According to an embodiment, when the electronic device 101-1 or 101-2 is located at a corresponding place after storing feature point information and receives a user input for displaying a 3D virtual object image related to the feature point information, the electronic device 101 -1, 101-2) receives feature point information from the external electronic devices 1410-1 and 1410-2 or the
일 실시 예에 따라, 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)에 의해 획득된 사용자 움직임 정보, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보 중 적어도 하나는 서버(108)에 전송될 수 있다. 일 실시 예에 따라, 서버(108)는 전자 장치(101-1, 101-2)에 의해 획득된 센싱 값, 외부 전자 장치(1410-1, 1410-2)(예: 스마트폰)에 의해 획득된 사용자 움직임 정보, 외부 카메라(1411-1, 1411-2)에 의해 획득된 영상 또는 외부 웨어러블 전자 장치(1412-1, 1412-2)에 의해 획득된 사용자 움직임 정보 중 적어도 하나를 기반으로 사용자 움직임의 특징점 정보를 획득할 수 있다.According to an embodiment, sensing values obtained by the electronic devices 101-1 and 101-2, user movement information obtained by the external electronic devices 1410-1 and 1410-2 (eg, smartphones), At least one of the images obtained by the external cameras 1411-1 and 1411-2 and the user movement information obtained by the external wearable electronic devices 1412-1 and 1412-2 may be transmitted to the
일 실시 예에 따라, 특징점 정보 저장 이후, 전자 장치(101-1, 101-2)가 해당 장소에 위치하고, 특징점 정보와 관련된 3D 가상 오브젝트 영상을 표시하기 위한 사용자 입력이 수신되면, 전자 장치(101-1, 101-2)는 서버(108)로부터 특징점 정보를 수신하고, 수신된 특징점 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 3D 가상 오브젝트 영상을 표시할 수 있다. 일 실시 예에 따라, 전자 장치(101-1, 101-2)는 서버(108)로부터 3D 가상 오브젝트 영상을 수신하면, 전자 장치(101-1, 101-2)는 수신된 3D 가상 오브젝트 영상을 표시할 수 있다.According to an embodiment, when the electronic device 101-1 or 101-2 is located at a corresponding place after storing feature point information and receives a user input for displaying a 3D virtual object image related to the feature point information, the electronic device 101 -1, 101-2) may receive feature point information from the
일 실시 예에 따르면, 웨어러블 전자 장치(예: 도 1의 전자 장치(101))는, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서(예: 도 1의 센서 모듈(176)), 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서(예: 도 1의 센서 모듈(176)), 디스플레이(예: 도 1의 디스플레이 모듈(160), 메모리(예: 도 1의 메모리(130)), 적어도 하나의 프로세서(예: 도 1의 프로세서(120))를 포함하고, 상기 적어도 하나의 프로세서는, 상기 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고, 상기 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고, 상기 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 상기 디스플레이에 표시하고, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고, 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시할 수 있다.According to an embodiment, a wearable electronic device (eg, the
일 실시 예에 따르면, 상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서(예: 도 1의 센서 모듈(176))를 더 포함하고, 상기 특징점 정보는, 상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 적어도 하나의 프로세서에 의해, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것일 수 있다.According to an embodiment, a third sensor (eg, the
일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것일 수 있다.According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.
일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 이동 경로 정보를 더 포함하는 것일 수 있다.According to an embodiment, the minutiae point information may further include movement path information of the user.
일 실시 예에 따르면, 통신 회로(예: 도 1의 통신 모듈(190))를 더 포함하고, 상기 특징점 정보는, 상기 통신 회로를 통해 외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다.According to an embodiment, a communication circuit (eg, the
일 실시 예에 따르면, 상기 설정된 조건은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다.According to an embodiment, the set condition may be set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
일 실시 예에 따르면, 상기 적어도 하나의 프로세서는, 상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하고, 상기 웨어러블 전자 장치의 움직임 패턴은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다.According to an embodiment, the at least one processor determines that the set condition is satisfied when a difference between a motion pattern of the wearable electronic device stored in the memory and motion information of the wearable electronic device is equal to or greater than a set value; The movement pattern of the wearable electronic device may be learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
일 실시 예에 따르면, 상기 메모리에 저장된 특징점 정보는, 상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것일 수 있다.According to an embodiment, the feature point information stored in the memory may be obtained from a wearable electronic device different from the wearable electronic device.
일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may include a character capable of expressing body movements based on the feature point information.
일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may further include at least one virtual object respectively related to at least one of the plurality of real objects.
일 실시 예에 따르면, 웨어러블 전자 장치의 제어 방법은, 상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하는 동작, 상기 웨어러블 전자 장치 주변을 감지하는 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하는 동작, 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하는 동작, 상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하는 동작 및 상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 동작을 포함할 수 있다.According to an embodiment, a control method of a wearable electronic device includes an operation of acquiring location information of a real space where the wearable electronic device is located through a first sensor that senses a location of the wearable electronic device, and moving around the wearable electronic device. Obtaining object information related to a plurality of real objects included in the real space through a second sensor that senses, and if the location information and feature point information of the user's movement related to the object information are stored in the memory, the When the wearable electronic device is located in the real space, an operation of displaying a virtual object indicating that there is motion information of the feature point on a display, and receiving a user input for displaying an image related to the motion information of the feature point through the virtual object , an operation of obtaining a 3D virtual object image based on the motion information of the feature point and an operation of displaying the 3D virtual object image on the display may be included.
일 실시 예에 따르면, 상기 특징점 정보는, 상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것일 수 있다.According to an embodiment, the feature point information is motion information of the wearable electronic device obtained through a third sensor for detecting motion of the wearable electronic device in the real space before the feature point information is stored in the memory. If a set condition related to at least some of the plurality of real objects included in the real space is satisfied, the feature point information of the motion of the user wearing the wearable electronic device acquired based on the motion information of the wearable electronic device is It may be stored in memory.
일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것일 수 있다.According to an embodiment, the feature point information may include motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.
일 실시 예에 따르면, 상기 특징점 정보는, 상기 사용자의 이동 경로 정보를 더 포함하는 것일 수 있다.According to an embodiment, the minutiae point information may further include movement path information of the user.
일 실시 예에 따르면, 상기 특징점 정보는, 외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것일 수 있다.According to an embodiment, the feature point information may be obtained by further considering motion information of a user obtained from an external electronic device.
일 실시 예에 따르면, 상기 설정된 조건은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것일 수 있다.According to an embodiment, the set condition may be set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
일 실시 예에 따르면, 상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하는 동작;을 더 포함하고, 상기 웨어러블 전자 장치의 움직임 패턴은, 상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것일 수 있다.According to an embodiment, the method further includes determining that the set condition is satisfied when a difference between a motion pattern of the wearable electronic device stored in the memory and motion information of the wearable electronic device is equal to or greater than a set value. The movement pattern of the wearable electronic device may be learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
일 실시 예에 따르면, 상기 메모리에 저장된 특징점 정보는, 상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것일 수 있다.According to an embodiment, the feature point information stored in the memory may be obtained from a wearable electronic device different from the wearable electronic device.
일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may include a character capable of expressing body movements based on the feature point information.
일 실시 예에 따르면, 상기 3D 가상 오브젝트는, 상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것일 수 있다.According to an embodiment, the 3D virtual object may further include at least one virtual object respectively related to at least one of the plurality of real objects.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present document is not limited to the aforementioned devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of this document and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numerals may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B", "A, B or C", "at least one of A, B and C", and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logical blocks, parts, or circuits. can be used as A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of this document provide one or more instructions stored in a storage medium (eg,
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smart phones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single object or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component among the plurality of components prior to the integration. . According to various embodiments, the actions performed by a module, program, or other component are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the actions are executed in a different order, or omitted. or one or more other actions may be added.
Claims (20)
상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서;
상기 웨어러블 전자 장치 주변을 감지하는 제2 센서;
디스플레이;
메모리;
적어도 하나의 프로세서;를 포함하고,
상기 적어도 하나의 프로세서는,
상기 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하고,
상기 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하고,
상기 메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 상기 디스플레이에 표시하고,
상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하고,
상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 웨어러블 전자 장치.
In a wearable electronic device,
a first sensor for detecting a location of the wearable electronic device;
a second sensor that senses a periphery of the wearable electronic device;
display;
Memory;
at least one processor;
The at least one processor,
Obtaining location information of a real space where the wearable electronic device is located through the first sensor;
obtaining object information related to a plurality of real objects included in the real space through the second sensor;
If the location information and the information on the user's movement related to the object information are stored in the memory, if the wearable electronic device is located in the real space, a virtual object notifying that there is movement information on the feature point is displayed on the display. display,
When a user input for displaying an image related to the motion information of the feature point is received through the virtual object, a 3D virtual object image is obtained based on the motion information of the feature point;
A wearable electronic device displaying the 3D virtual object image on the display.
상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서;를 더 포함하고,
상기 특징점 정보는,
상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 적어도 하나의 프로세서에 의해, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것인, 웨어러블 전자 장치.
According to claim 1,
A third sensor for detecting motion of the wearable electronic device; further comprising;
The feature point information,
Before the feature point information is stored in the memory, the motion information of the wearable electronic device acquired through the third sensor in the real space is related to at least some of a plurality of real objects included in the real space. If is satisfied, the feature point information of the motion of the user wearing the wearable electronic device, obtained by the at least one processor based on the motion information of the wearable electronic device, is stored in the memory.
상기 특징점 정보는,
상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것인, 웨어러블 전자 장치.
According to claim 2,
The feature point information,
The wearable electronic device comprising motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.
상기 특징점 정보는,
상기 사용자의 이동 경로 정보를 더 포함하는 것인, 웨어러블 전자 장치.
According to claim 3,
The feature point information,
The wearable electronic device further comprising the user's movement path information.
통신 회로;를 더 포함하고,
상기 특징점 정보는,
상기 통신 회로를 통해 외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것인, 웨어러블 전자 장치.
According to claim 2,
further comprising a communication circuit;
The feature point information,
The wearable electronic device obtained by further considering the motion information of the user obtained from the external electronic device through the communication circuit.
상기 설정된 조건은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것인, 웨어러블 전자 장치.
According to claim 2,
The set conditions are
The wearable electronic device, which is set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
상기 적어도 하나의 프로세서는,
상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하고,
상기 웨어러블 전자 장치의 움직임 패턴은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것인, 웨어러블 전자 장치.
According to claim 6,
The at least one processor,
When a difference between a motion pattern of the wearable electronic device stored in the memory and motion information of the wearable electronic device is equal to or greater than a set value, it is determined that the set condition is satisfied;
The movement pattern of the wearable electronic device,
The wearable electronic device is learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
상기 메모리에 저장된 특징점 정보는,
상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것인, 웨어러블 전자 장치.
According to claim 1,
The feature point information stored in the memory is
A wearable electronic device obtained from a wearable electronic device different from the wearable electronic device.
상기 3D 가상 오브젝트는,
상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것인, 웨어러블 전자 장치.
According to claim 1,
The 3D virtual object,
A wearable electronic device comprising a character capable of expressing body movements based on the feature point information.
상기 3D 가상 오브젝트는,
상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것인, 웨어러블 전자 장치.
According to claim 9,
The 3D virtual object,
The wearable electronic device further comprises at least one virtual object respectively related to at least one of the plurality of real objects.
상기 웨어러블 전자 장치의 위치를 감지하는 제1 센서를 통해 상기 웨어러블 전자 장치가 위치한 실제 공간의 위치 정보를 획득하는 동작;
상기 웨어러블 전자 장치 주변을 감지하는 제2 센서를 통해, 상기 실제 공간에 포함된 복수의 실제 오브젝트와 관련된 오브젝트 정보를 획득하는 동작;
메모리에, 상기 위치 정보 및 상기 오브젝트 정보와 관련된 사용자 움직임의 특징점 정보가 저장되어 있으면, 상기 웨어러블 전자 장치가 상기 실제 공간에 위치하면, 상기 특징점의 움직임 정보가 있음을 알리는 가상 오브젝트를 디스플레이에 표시하는 동작;
상기 가상 오브젝트를 통해 상기 특징점의 움직임 정보와 관련된 영상을 표시하기 위한 사용자 입력이 수신되면, 상기 특징점의 움직임 정보를 기반으로 3D 가상 오브젝트 영상을 획득하는 동작; 및
상기 3D 가상 오브젝트 영상을 상기 디스플레이에 표시하는 동작;을 포함하는 웨어러블 전자 장치의 제어 방법.
In the control method of a wearable electronic device,
obtaining location information of a real space where the wearable electronic device is located through a first sensor that senses the location of the wearable electronic device;
obtaining object information related to a plurality of real objects included in the real space through a second sensor that detects a periphery of the wearable electronic device;
When the location information and the feature point information of the user's motion related to the object information are stored in the memory, when the wearable electronic device is located in the real space, displaying a virtual object indicating that there is movement information of the feature point on a display. movement;
obtaining a 3D virtual object image based on the motion information of the feature point when a user input for displaying an image related to the motion information of the feature point is received through the virtual object; and
A control method of a wearable electronic device comprising: displaying the 3D virtual object image on the display.
상기 특징점 정보는,
상기 특징점 정보가 상기 메모리에 저장되기 이전에, 상기 실제 공간에서 상기 웨어러블 전자 장치의 움직임을 감지하는 제3 센서를 통해 획득된 상기 웨어러블 전자 장치의 움직임 정보가, 상기 실제 공간에 포함된 복수의 실제 오브젝트 중 적어도 일부와 관련된 설정된 조건을 만족하면, 상기 웨어러블 전자 장치의 움직임 정보를 기반으로 획득된 상기 웨어러블 전자 장치를 착용한 사용자의 움직임의 특징점 정보가 상기 메모리에 저장된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 11,
The feature point information,
Before the feature point information is stored in the memory, the motion information of the wearable electronic device acquired through the third sensor for detecting the motion of the wearable electronic device in the real space is stored in a plurality of real spaces included in the real space. If a set condition related to at least some of the objects is satisfied, control of the wearable electronic device, in which information on the characteristic point of the movement of the user wearing the wearable electronic device obtained based on the motion information of the wearable electronic device is stored in the memory. method.
상기 특징점 정보는,
상기 사용자의 복수의 관절의 움직임 정보 및 상기 복수의 관절을 연결하는 본(bone)의 움직임 정보를 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 12,
The feature point information,
The method of controlling a wearable electronic device comprising motion information of a plurality of joints of the user and motion information of a bone connecting the plurality of joints.
상기 특징점 정보는,
상기 사용자의 이동 경로 정보를 더 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 13,
The feature point information,
The control method of the wearable electronic device further comprising the user's movement path information.
상기 특징점 정보는
외부 전자 장치로부터 획득된 사용자의 움직임 정보를 더 고려하여 획득된 것인 웨어러블 전자 장치의 제어 방법.
According to claim 12,
The feature point information is
A control method of a wearable electronic device obtained by further considering motion information of a user acquired from an external electronic device.
상기 설정된 조건은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나를 기반으로 설정된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 12,
The set conditions are
The control method of the wearable electronic device, which is set based on at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
상기 메모리에 저장된 상기 웨어러블 전자 장치의 움직임 패턴과 상기 웨어러블 전자 장치의 움직임 정보의 차이가 설정된 값 이상이면, 상기 설정된 조건을 만족하는 것으로 확인하는 동작;을 더 포함하고,
상기 웨어러블 전자 장치의 움직임 패턴은,
상기 웨어러블 전자 장치의 위치 정보, 상기 웨어러블 전자 장치 주변의 오브젝트 정보 또는 시간 정보 중 적어도 하나와 연관되어 학습된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 16,
When the difference between the motion pattern of the wearable electronic device stored in the memory and the motion information of the wearable electronic device is equal to or greater than a set value, determining that the set condition is satisfied;
The movement pattern of the wearable electronic device,
The control method of the wearable electronic device, which is learned in association with at least one of location information of the wearable electronic device, object information around the wearable electronic device, and time information.
상기 메모리에 저장된 특징점 정보는,
상기 웨어러블 전자 장치와 다른 웨어러블 전자 장치에서 획득된 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 11,
The feature point information stored in the memory is
A control method of a wearable electronic device obtained from a wearable electronic device different from the wearable electronic device.
상기 3D 가상 오브젝트는,
상기 특징점 정보를 기반으로 신체의 움직임을 표현할 수 있는 캐릭터를 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 11,
The 3D virtual object,
A control method of a wearable electronic device comprising a character capable of expressing body movements based on the feature point information.
상기 3D 가상 오브젝트는,
상기 복수의 실제 오브젝트 중 적어도 하나와 각각 관련된 적어도 하나의 가상 오브젝트를 더 포함하는 것인, 웨어러블 전자 장치의 제어 방법.
According to claim 19,
The 3D virtual object,
The control method of the wearable electronic device further comprising at least one virtual object respectively related to at least one of the plurality of real objects.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210174060 | 2021-12-07 | ||
KR1020210174060 | 2021-12-07 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230085794A true KR20230085794A (en) | 2023-06-14 |
Family
ID=86744848
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220014394A KR20230085794A (en) | 2021-12-07 | 2022-02-03 | Waearable electronic device displaying virtual object and method for controlling the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230085794A (en) |
-
2022
- 2022-02-03 KR KR1020220014394A patent/KR20230085794A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11947728B2 (en) | Electronic device for executing function based on hand gesture and method for operating thereof | |
US20230152900A1 (en) | Wearable electronic device for displaying virtual object and method of controlling the same | |
US20230135420A1 (en) | Wearable electronic device for displaying virtual object and method of controlling the same | |
EP4274396A1 (en) | Wearable electronic device comprising heat dissipation structure | |
KR20230088100A (en) | Electronic device for using of virtual input device and method of operating the same | |
KR20230085794A (en) | Waearable electronic device displaying virtual object and method for controlling the same | |
CN117917192A (en) | Glasses type electronic device including flexible circuit board | |
KR20220118170A (en) | Wearable electronic device | |
US11832048B2 (en) | Electronic device including speaker module | |
US20230204985A1 (en) | Wearable electronic device | |
US11762486B2 (en) | Electronic device for performing plurality of functions using stylus pen and method for operating same | |
US11994677B2 (en) | Wearable electronic device | |
US20240046578A1 (en) | Wearable electronic device displaying virtual object and method for controlling the same | |
US20240087221A1 (en) | Method and apparatus for determining persona of avatar object in virtual space | |
US20220260832A1 (en) | Wearable electronic device | |
US20230213984A1 (en) | Electronic device including connection member | |
US20240143267A1 (en) | Electronic device for using external device in metaverse and method thereof | |
US20240046591A1 (en) | Wearable electronic device displaying virtual object and method for controlling the same | |
US20240087220A1 (en) | Electronic device and method of providing content sharing based on object | |
EP4372709A1 (en) | Electronic device and method for providing notification information | |
US20240151987A1 (en) | Wearable electronic device | |
EP4369076A1 (en) | Wearable electronic device comprising sensor module | |
EP4332658A1 (en) | Wearable electronic device and method for controlling power path thereof | |
KR20230030883A (en) | Electronic device for performing a plurality of functions using stylus pen and method for operating thereof | |
KR20230084924A (en) | Wearable electronic device and external electronic device accommodating the same |