KR20240062862A - Wearable device for executing application based on information obtained by tracking external object and method thereof - Google Patents
Wearable device for executing application based on information obtained by tracking external object and method thereof Download PDFInfo
- Publication number
- KR20240062862A KR20240062862A KR1020220170126A KR20220170126A KR20240062862A KR 20240062862 A KR20240062862 A KR 20240062862A KR 1020220170126 A KR1020220170126 A KR 1020220170126A KR 20220170126 A KR20220170126 A KR 20220170126A KR 20240062862 A KR20240062862 A KR 20240062862A
- Authority
- KR
- South Korea
- Prior art keywords
- wearable device
- external object
- display
- information
- application
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 66
- 230000000007 visual effect Effects 0.000 claims abstract description 108
- 230000033001 locomotion Effects 0.000 claims description 53
- 230000004044 response Effects 0.000 claims description 37
- 238000004891 communication Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 description 55
- 230000005236 sound signal Effects 0.000 description 30
- 230000003287 optical effect Effects 0.000 description 20
- 230000008859 change Effects 0.000 description 16
- 238000012545 processing Methods 0.000 description 14
- 230000003190 augmentative effect Effects 0.000 description 8
- 239000003086 colorant Substances 0.000 description 8
- 230000009471 action Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 7
- 238000012015 optical character recognition Methods 0.000 description 7
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 6
- 229910002804 graphite Inorganic materials 0.000 description 6
- 239000010439 graphite Substances 0.000 description 6
- 210000003128 head Anatomy 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 5
- 239000011521 glass Substances 0.000 description 5
- 230000014509 gene expression Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 210000001747 pupil Anatomy 0.000 description 3
- 238000001514 detection method Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000007480 spreading Effects 0.000 description 2
- 239000000126 substance Substances 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000012856 packing Methods 0.000 description 1
- 235000012771 pancakes Nutrition 0.000 description 1
- 239000004033 plastic Substances 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/163—Wearable computers, e.g. on a belt
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04W—WIRELESS COMMUNICATION NETWORKS
- H04W4/00—Services specially adapted for wireless communication networks; Facilities therefor
- H04W4/80—Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Multimedia (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
일 실시예에 따른, 웨어러블 장치의 프로세서는, 카메라를 이용하여 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별할 수 있다. 상기 프로세서는, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시할 수 있다. 상기 프로세서는, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득할 수 있다. 상기 프로세서는, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시할 수 있다.According to one embodiment, the processor of the wearable device may identify an external object included in the display area of the display using a camera. The processor may display a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The processor obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object. can do. The processor may display a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the properties assigned to the external object. there is.
Description
본 개시(present disclosure)는 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하기 위한 웨어러블 장치 및 방법에 관한 것이다. This disclosure (present disclosure) relates to a wearable device and method for executing an application based on information obtained by tracking an external object.
강화된(enhanced) 사용자 경험(user experience)을 제공하기 위해, 실제 세계(real-world) 내 외부 객체와 연계로 컴퓨터에 의해 생성된 정보를 표시하는 증강 현실(augmented reality, AR) 서비스를 제공하는 전자 장치가 개발되고 있다. 상기 전자 장치는, 사용자에 의해 착용될 수 있는 웨어러블 장치일 수 있다. 예를 들면, 상기 전자 장치는, AR 안경(glasses), 및/또는 머리 착용형 장치(head-mounted device, HMD)일 수 있다.To provide an enhanced user experience, we provide augmented reality (AR) services that display computer-generated information in conjunction with external objects in the real-world. Electronic devices are being developed. The electronic device may be a wearable device that can be worn by a user. For example, the electronic device may be AR glasses and/or a head-mounted device (HMD).
일 실시예(an embodiment)에 따른, 웨어러블 장치(wearable device)는, 디스플레이, 카메라, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 카메라를 이용하여 상기 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하도록, 구성될 수 있다. According to an embodiment, a wearable device may include a display, a camera, and a processor. The processor may be configured to identify an external object included in a display area of the display using the camera. The processor may be configured to display a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The processor obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object. It can be configured to do so. The processor displays a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object. It can be configured.
일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 카메라를 이용하여 상기 웨어러블 장치의 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하는 동작을 포함할 수 있다.According to one embodiment, a method of using a wearable device may include identifying an external object included in a display area of a display of the wearable device using a camera of the wearable device. The method may include displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The method obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information comprising at least one stroke drawn by the external object. It may include actions such as: The method includes displaying a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object. may include.
일 실시예에 따른, 웨어러블 장치는, 디스플레이, 메모리 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이 내에, 상기 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하도록, 구성될 수 있다.According to one embodiment, a wearable device may include a display, memory, and a processor. The processor may be configured to display, within the display, a list of a plurality of applications stored in the memory. The processor executes the first application using the external object based on an input indicating that a visual object representing the first application included in the list is overlapped on an external object included in the display area. It can be configured to obtain properties for: The processor, after acquiring the attribute, obtains at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object, It can be configured. The processor may be configured to execute the first application using information selected by the attribute from among the first information or the second information.
일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 디스플레이 내에, 상기 웨어러블 장치의 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이의 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하는 동작을 포함할 수 있다.According to one embodiment, a method of using a wearable device may include displaying a list of a plurality of applications stored in a memory of the wearable device on a display of the wearable device. The method is based on an input indicating that a visual object representing the first application included in the list is superimposed on an external object included in a display area of the display, using the external object to display the first application. It may include an operation to obtain properties for executing. The method includes, after obtaining the attribute, acquiring at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object. may include. The method may include executing the first application using information selected by the attribute from among the first information or the second information.
도 1은, 일 실시예에 따른, 웨어러블 장치가 외부 객체와 관련된 정보를 획득하는 동작의 일 예를 도시한다.
도 2는, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 3a는, 일 실시예에 따른, 웨어러블 장치의 사시도(prospective view)의 일 예를 도시한다.
도 3b는, 일 실시예에 따른, 웨어러블 장치 내에 배치된 하나 이상의 하드웨어들의 일 예를 도시한다.
도 4a 내지 도 4b는, 일 실시예에 따른, 웨어러블 장치의 외관의 일 예를 도시한다.
도 5는, 일 실시예에 따른, 웨어러블 장치의 블록도이다.
도 6a 내지 도 6d는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 등록함을 지시하는(indicating) 입력을 식별하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 8a 내지 도 8b는, 일 실시예에 따른, 웨어러블 장치가 외부 객체에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다.
도 9a 내지 도 9c는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 10은, 일 실시예에 따른, 웨어러블 장치가 외부 객체의 추적을 위한 카메라를 전환하는 동작의 일 예를 도시한다.
도 11은, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 표시하는 UI의 일 예를 도시한다.
도 12a 내지 도 12b는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 13은, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 14는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 15a 내지 도 15b는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 복수의 어플리케이션들을 실행하는 동작의 일 예를 도시한다.
도 16은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 17은, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여, 적어도 하나의 어플리케이션을 추천하기 위한 UI를 표시하는 동작의 일 예를 도시한다.
도 18은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 19는, 일 실시예에 따른, 웨어러블 장치가 외부 전자 장치에 의해 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. FIG. 1 illustrates an example of an operation in which a wearable device obtains information related to an external object, according to an embodiment.
Figure 2 shows an example of a flow chart for a wearable device, according to one embodiment.
Figure 3A shows an example of a perspective view of a wearable device, according to one embodiment.
FIG. 3B shows an example of one or more hardware deployed within a wearable device, according to one embodiment.
4A to 4B show an example of the appearance of a wearable device, according to an embodiment.
Figure 5 is a block diagram of a wearable device, according to one embodiment.
FIGS. 6A to 6D illustrate an example of an operation for identifying an input indicating that a wearable device registers an external object, according to an embodiment.
Figure 7 shows an example of a flow chart for a wearable device, according to one embodiment.
FIGS. 8A and 8B illustrate an example of a user interface (UI) displayed by a wearable device based on an external object, according to an embodiment.
9A to 9C illustrate an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIG. 10 illustrates an example of an operation in which a wearable device switches a camera for tracking an external object, according to an embodiment.
FIG. 11 illustrates an example of a UI that a wearable device displays based on information obtained by tracking an external object, according to an embodiment.
FIGS. 12A and 12B illustrate an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIG. 13 illustrates an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIG. 14 illustrates an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIGS. 15A and 15B illustrate an example of an operation in which a wearable device executes a plurality of applications based on information obtained by tracking an external object, according to an embodiment.
Figure 16 shows an example of a flow chart for a wearable device, according to one embodiment.
FIG. 17 illustrates an example of an operation in which a wearable device displays a UI for recommending at least one application based on information obtained by tracking an external object, according to an embodiment.
Figure 18 shows an example of a flow chart for a wearable device, according to one embodiment.
FIG. 19 illustrates an example of an operation in which a wearable device executes an application based on information acquired by an external electronic device, according to an embodiment.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document are described with reference to the attached drawings.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used herein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various changes, equivalents, and/or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar components. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" can modify the corresponding components regardless of order or importance, and are only used to distinguish one component from another. The components are not limited. When a component (e.g., a first) component is said to be "connected (functionally or communicatively)" or "connected" to another (e.g., second) component, it means that the component is connected to the other component. It may be connected directly to a component or may be connected through another component (e.g., a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.The term “module” used in this document includes a unit comprised of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part, a minimum unit that performs one or more functions, or a part thereof. For example, a module may be comprised of an application-specific integrated circuit (ASIC).
도 1은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)와 관련된 정보를 획득하는 동작의 일 예를 도시한다. 도 1을 참고하면, 일 실시예에 따른 웨어러블 장치(101)는 사용자(110)의 머리에 착용 가능한(wearable on) HMD(head-mounted display)를 포함할 수 있다. 비록 안경의 형태를 가지는 웨어러블 장치(101)의 외형이 도시되지만, 실시예가 이에 제한되는 것은 아니다. 사용자(110)의 머리에 착용가능한 웨어러블 장치(101)의 구조의 일 예가 도 3a 내지 도 3b 및/또는 도 4a 내지 도 4b를 참고하여 설명된다. 웨어러블 장치(101) 내에 포함된 하나 이상의 하드웨어들이, 도 5를 참고하여 예시적으로 설명된다.FIG. 1 illustrates an example of an operation in which a
일 실시예에 따른, 웨어러블 장치(101)는 증강 현실(augmented reality, AR), 및/또는 혼합 현실(mixed reality, MR)과 관련된 기능을 실행할 수 있다. 도 1을 참고하면, 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 웨어러블 장치(101)는 사용자(110)의 눈에 인접하게 배치된 적어도 하나의 렌즈를 포함할 수 있다. 웨어러블 장치(101)는 렌즈를 통과하는 주변 광(ambient light)에, 웨어러블 장치(101)의 디스플레이로부터 방사된 광을 결합할 수 있다. 상기 디스플레이의 표시 영역은, 주변 광이 통과되는 렌즈 내에서 형성될 수 있다. 웨어러블 장치(101)가 상기 주변 광 및 상기 디스플레이로부터 방사된 상기 광을 결합하기 때문에, 사용자(110)는 상기 주변 광에 의해 인식되는 실제 객체(real object) 및 상기 디스플레이로부터 방사된 상기 광에 의해 형성된 가상 객체(virtual object)가 혼합된 상(image)을 볼 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(101)는 VST(video see-through) 및/또는 가상 현실(virtual reality, VR)과 관련된 기능을 실행할 수 있다. 도 1을 참고하면, 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 웨어러블 장치(101)는 사용자(110)의 눈을 덮는 하우징을 포함할 수 있다. 웨어러블 장치(101)는, 상기 상태 내에서, 상기 눈을 향하는 제1 면에 배치된 디스플레이를 포함할 수 있다. 웨어러블 장치(101)는 상기 제1 면과 반대인 제2 면 상에 배치된 카메라를 포함할 수 있다. 상기 카메라를 이용하여, 웨어러블 장치(101)는 주변 광이 포함된 프레임들을 획득할 수 있다. 웨어러블 장치(101)는 상기 제1 면에 배치된 디스플레이 내에, 상기 프레임들을 출력하여, 사용자(110)가 상기 디스플레이를 통해 상기 주변 광을 인식하게 만들 수 있다. 상기 제1 면에 배치된 디스플레이의 표시 영역은, 상기 디스플레이에 포함된 하나 이상의 픽셀들에 의해 형성될 수 있다. 웨어러블 장치(101)는 상기 디스플레이를 통해 출력되는 프레임들 내에 가상 객체를 합성하여, 사용자(110)가 주변 광에 의해 인식되는 실제 객체와 함께 상기 가상 객체를 인식하게 만들 수 있다.According to one embodiment, the
도 1을 참고하면, 사용자(110)에 의해 착용된 상태 내에서, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 식별한 일 예가 도시된다. 도 1의 일 예에서, 웨어러블 장치(101)는 AR, MR, 또는 VST에 기반하여, 사용자(110)에게 외부 공간을 인식하게 만들 수 있다. 상기 외부 공간 내에서, 웨어러블 장치(101)는 외부 객체(130)를 식별할 수 있다. 비록 펜의 형태를 가지는 외부 객체(130)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다. 외부 객체(130)는 웨어러블 장치(101)에 등록 가능한 오브젝트를 포함할 수 있다. 예를 들어, 외부 객체(130)는, 펜 및/또는 나뭇가지와 같은 막대기와 같이, 길이 방향으로 연장된 형태를 가질 수 있다. 실시예가 이에 제한되는 것은 아니며, 외부 객체(130)는 다면체의 형태를 가지거나, 또는 곡면체의 형태를 가질 수 있다. 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 등록하기 위하여 수행하는 동작의 일 예가 도 6a 내지 도 6d, 및/또는 도 7을 참고하여 설명된다.Referring to FIG. 1 , an example in which the
도 1을 참고하면, 웨어러블 장치(101)를 착용한 사용자(110)에 의해 보여지는(shown by) 이미지가 도시된다. 일 실시예에 따른, 웨어러블 장치(101)는 어플리케이션의 기능에 매핑된 외부 객체(130)를 식별할 수 있다. 웨어러블 장치(101)는, 디스플레이의 표시 영역 내 외부 객체(130)의 위치에 기반하여, 시각적 객체(160)를 표시할 수 있다. 시각적 객체(160)는, 외부 객체(130)에 매핑된 어플리케이션의 아이콘의 형태를 가질 수 있다. 웨어러블 장치(101)에 의해 표시되는 시각적 객체(160)의 형태, 크기 및/또는 위치는 도 1의 일 실시예에 제한되지 않는다.Referring to FIG. 1 , an image shown by a
일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 모션과 관련된 정보를 획득할 수 있다. 도 1을 참고하면, 외부 객체(130)가 손(140)에 의해 이동되는 예시적인 상태가 도시된다. 예를 들어, 외부 객체(130)를 향하여 배치된 웨어러블 장치(101)의 카메라(및/또는 깊이 센서)를 이용하여, 웨어러블 장치(101)는 외부 객체(130)의 경로와 관련된 제1 정보를 획득할 수 있다. 상기 제1 정보는, 평면(150)(예, 종이 및/또는 테이블) 상에 접촉된 외부 객체(130)의 경로를 포함할 수 있다. 외부 객체(130)가 펜 및/또는 연필과 같이, 평면(150) 상에 흔적(trace)(예, 적어도 하나의 획(stroke))을 생성할 수 있는 오브젝트인 경우, 웨어러블 장치(101)는 상기 카메라를 이용하여 외부 객체(130)에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보를 획득할 수 있다. 웨어러블 장치(101)는 상기 적어도 하나의 획에 대한 OCR(optical character recognition)을 수행하여, 외부 객체(130)의 모션에 의해 생성된 콘텐트(예, 글씨 및/또는 이미지)를 획득할 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 경로와 관련된 제1 정보 및/또는 외부 객체(130)에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보에 기반하여, 외부 객체(130)에 대응하는 어플리케이션을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130)에 등록된 어플리케이션을 실행하여, 상기 제1 정보 및/또는 상기 제2 정보와 관련된 기능을 실행할 수 있다. 웨어러블 장치(101)는 상기 어플리케이션을 표현한(representing) 아이콘을 포함하는 시각적 객체(160)를 선택함을 지시하는 입력에 응답하여, 상기 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)가 외부 객체(130)에 등록된 상기 어플리케이션을 실행하는 동작이 도 8a 내지 도 8b, 도 9a 내지 도 9c, 도 10 내지 도 16을 참고하여 설명된다. 외부 객체(130)에 등록된 어플리케이션에 따라, 웨어러블 장치(101)는 외부 객체(130)에 의해 그려진 획 및/또는 외부 객체(130)의 경로에 기반하는 다양한 기능들을 실행할 수 있다.According to one embodiment, the
도 1을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 단말(120) 및/또는 서버(122)와 같은 외부 전자 장치와 연결될 수 있다. 단말(120)은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(personal computer, PC), 스마트폰(smartphone), 스마트패드(smartpad) 및/또는 태블릿 PC를 포함할 수 있다. 서버(122)는, 외부 객체(130)의 경로 및/또는 외부 객체(130)에 의해 그려진 획을 분석하기 위한 기능(예, 상기 OCR)을 지원할 수 있다. 웨어러블 장치(101), 단말(120) 및/또는 서버(122)는 유선 네트워크 및/또는 무선 네트워크를 통해 서로 연결될 수 있다. 상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(bluetooth low-energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록 웨어러블 장치(101), 단말(120) 및 서버(122)가 직접적으로 연결된(directly connected) 것으로 도시되었으나, 웨어러블 장치(101), 단말(120) 및 서버(!22)는 중간 노드(intermediate node)(예, 하나 이상의 라우터 및/또는 AP(access point))를 통해 간접적으로 연결될 수 있다.Referring to FIG. 1, according to one embodiment, the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 경로 및/또는 외부 객체(130)에 의해 그려진 적어도 하나의 획을 추적할 수 있다. 추적된 경로 및/또는 획에 기반하여, 웨어러블 장치(101)는 외부 객체(130)에 대응하는 적어도 하나의 어플리케이션을 실행할 수 있다. 외부 객체(130)에 매칭된 적어도 하나의 어플리케이션은, 외부 객체(130)에 할당된(assigned) 속성(attribute)에 의해 설정(set by)될 수 있다. 웨어러블 장치(101)는 상기 속성에 의해 선택된, 상기 경로 또는 상기 획 중 어느 하나에 기반하여, 상기 적어도 하나의 어플리케이션을 실행할 수 있다. 상기 적어도 하나의 어플리케이션이 실행됨에 따라, 웨어러블 장치(101)는, 사용자(110)가 외부 객체(130)를 이용하여 웨어러블 장치(101)를 제어하는 것을 지원할 수 있다. 펜 및/또는 연필과 같이, 외부 객체(130)가 웨어러블 장치(101)와 통신하기 위한 회로를 포함하지 않음에도 불구하고, 웨어러블 장치(101)는, 외부 객체(130)에 의해 지시되는 정보를 시각화할 수 있다. As described above, the
이하에서는 도 2를 참고하여, 일 실시예에 따른, 웨어러블 장치(101)의 동작의 일 예가 설명된다. Below, with reference to FIG. 2 , an example of the operation of the
도 2는, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 2의 웨어러블 장치는 도 1의 웨어러블 장치(101)를 포함할 수 있다.Figure 2 shows an example of a flow chart for a wearable device, according to one embodiment. The wearable device of FIG. 2 may include the
도 2를 참고하면, 동작(210) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체 및 외부 객체에 매핑된 기능을 식별할 수 있다. 예를 들어, 웨어러블 장치는 도 1의 외부 객체(130)와 같이, 웨어러블 장치를 착용한 사용자(예, 도 1의 사용자(110))에 의해 보여지는 외부 객체를 식별할 수 있다. 웨어러블 장치를 착용한 사용자에 의해 보여지는 외부 객체를 식별하기 위하여, 웨어러블 장치는 지정된 방향을 향하여 배치된 적어도 하나의 카메라를 포함할 수 있다. 상기 카메라를 이용하여 웨어러블 장치는 외부 객체를 식별할 수 있다. 외부 객체가 웨어러블 장치에 등록된 외부 객체인 경우, 웨어러블 장치는 상기 외부 객체에 매핑된 상기 기능을 식별할 수 있다. 외부 객체가 웨어러블 장치에 등록되었다는 것은, 웨어러블 장치 내에 외부 객체에 할당된 속성이 저장되어 있음을 의미할 수 있다. 상기 속성에 기반하여, 웨어러블 장치는 상기 기능을 식별할 수 있다.Referring to FIG. 2, within
도 2를 참고하면, 동작(220) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체가 식별되었는지 여부에 기반하여, 외부 객체의 모션, 또는 외부 객체에 의해 생성된 적어도 하나의 획에 대한 정보를 획득할 수 있다. 외부 객체의 모션은, 외부 객체를 포함하는 외부 공간의 일 평면(예, 도 1의 평면(150)) 상에 접촉된 외부 객체의 모션을 포함할 수 있다. 상기 적어도 하나의 획은, 외부 객체에 포함된 물질(예, 잉크 및/또는 흑연)이 상기 평면 상에 접착됨에 따라, 생성될 수 있다. 웨어러블 장치는 외부 객체에 할당된 속성에 기반하여, 상기 모션 또는 상기 적어도 하나의 획 중 어느 하나를 선택적으로 추적할 수 있다. 상기 정보를 획득하기 위하여, 웨어러블 장치는 외부 전자 장치(예, 도 1의 단말(120) 및/또는 서버(122))와 통신할 수 있다.Referring to Figure 2, within
일 실시예에서, 외부 객체의 모션에 대한 정보를 획득하기 위하여, 웨어러블 장치는 상기 외부 객체의 일부분(예, 상기 외부 객체의 일 단(an end), 및/또는 일 면(a surface))의 경로를 추적할 수 있다. 상기 외부 객체의 상기 일부분이 평면과 접촉하는지 여부에 기반하여, 웨어러블 장치는 상기 평면 상에 접촉된 외부 객체의 경로와 관련된 제1 정보를 획득할 수 있다. 상기 제1 정보를 획득하는 상태 내에서, 웨어러블 장치는 상기 경로의 형태를 가지는 하나 이상의 라인들을, 웨어러블 장치의 디스플레이 내에 표시할 수 있다. 웨어러블 장치에 의해 추적되는 상기 외부 객체의 상기 일부분은, 상기 외부 객체로 할당된 속성에 의해 설정될 수 있다. In one embodiment, in order to obtain information about the motion of an external object, a wearable device may detect a portion of the external object (e.g., an end, and/or a surface) of the external object. You can trace the route. Based on whether the portion of the external object is in contact with a plane, the wearable device may obtain first information related to the path of the external object in contact with the plane. In the state of acquiring the first information, the wearable device may display one or more lines having the shape of the path on the display of the wearable device. The portion of the external object tracked by the wearable device may be set by attributes assigned to the external object.
일 실시예에서, 외부 객체에 의해 그려진 적어도 하나의 획에 대한 정보를 획득하기 위하여, 웨어러블 장치는, 상이한 카메라들 중에서, 상기 외부 객체를 향하여 배치된 카메라를 제어할 수 있다. 웨어러블 장치는 상기 카메라를 이용하여, 외부 객체에 의해 그려진 적어도 하나의 획을 식별할 수 있다. 웨어러블 장치는 상기 적어도 하나의 획에 의해 지시되는 글자에 기반하여, 외부 객체에 의해 그려진 손글씨(handwriting)를 식별할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치는 상기 적어도 하나의 획에 의해 지시되는 적어도 하나의 도형을 식별할 수 있다. 웨어러블 장치는 상기 손글씨에 대응하는 텍스트 데이터(예, 유니코드와 같은 이진 코드에 의해 인코딩된 데이터)를 획득하기 위하여, 웨어러블 장치는 외부 전자 장치와 통신할 수 있다.In one embodiment, in order to obtain information about at least one stroke drawn by an external object, the wearable device may control a camera disposed toward the external object, among different cameras. The wearable device can use the camera to identify at least one stroke drawn by an external object. The wearable device can identify handwriting drawn by an external object based on the letters indicated by the at least one stroke. The embodiment is not limited to this, and the wearable device can identify at least one figure indicated by the at least one stroke. The wearable device may communicate with an external electronic device to obtain text data (e.g., data encoded by a binary code such as Unicode) corresponding to the handwriting.
도 2를 참고하면, 동작(230) 내에서, 일 실시예에 따른, 웨어러블 장치는, 획득된 정보에 기반하여, 외부 객체에 매핑된 기능을 실행할 수 있다. 상기 기능은, 외부 객체에 의해 할당된 속성에 의해 식별될 수 있다. 상기 기능은, 웨어러블 장치에 설치된 적어도 하나의 어플리케이션에 의해 지원될 수 있다. 일 실시예에 따른, 웨어러블 장치는 상기 기능을 실행한 결과를, 사용자에게 시각화할 수 있다. 웨어러블 장치는 상기 기능을, 디스플레이 내에 표시된 시각적 객체(예, 도 1의 시각적 객체(160))를 선택함을 지시하는 입력에 기반하여, 실행할 수 있다. 상기 시각적 객체는, 상기 속성에 의해 식별될 수 있다. 웨어러블 장치는 상기 시각적 객체를, 디스플레이 내 상기 외부 객체의 위치에 기반하여 표시할 수 있다.Referring to FIG. 2, within
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는, 웨어러블 장치와 통신하는 기능이 지원되지 않는 오브젝트를 등록하고, 등록된 오브젝트에 기반하는 웨어러블 장치의 제어를 지원할 수 있다. 웨어러블 장치는 펜과 같은 외부 객체의 모션을 인식하거나, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 인식하여, 상기 외부 객체에 대한 비-전기적 정보로부터 전기적 정보(예, 디지털 콘텐트)를 획득할 수 있다. 상기 전기적 정보에 기반하여, 웨어러블 장치는, 웨어러블 장치와 직접적으로 연결될 수 없는 외부 객체를 인식하고, 인식된 외부 객체로부터 디지털 콘텐트를 획득할 수 있다.As described above, according to one embodiment, the wearable device may register an object that does not support the function of communicating with the wearable device and support control of the wearable device based on the registered object. The wearable device recognizes the motion of an external object, such as a pen, or recognizes at least one stroke drawn by the external object, and obtains electrical information (e.g., digital content) from non-electrical information about the external object. You can. Based on the electrical information, the wearable device can recognize an external object that cannot be directly connected to the wearable device and obtain digital content from the recognized external object.
이하에서는, 도 3a 내지 도 3b 및/또는 도 4a 내지 도4b를 참고하여, 일 실시예에 따른, 외부 객체를 인식하기 위한 웨어러블 장치의 예시적인 구조가 설명된다.Below, with reference to FIGS. 3A to 3B and/or 4A to 4B, an exemplary structure of a wearable device for recognizing an external object according to an embodiment is described.
도 3a는, 일 실시예에 따른, 웨어러블 장치의 사시도(prospective view)의 일 예를 도시한다. 도 3a 내지 도 3b의 웨어러블 장치(300)는, 도 1의 웨어러블 장치(101) 및/또는 도 2의 웨어러블 장치의 일 예일 수 있다. 도 3a의 도시 내에서(as shown in), 일 실시예에 따른, 웨어러블 장치(300)는, 적어도 하나의 디스플레이(350), 및 적어도 하나의 디스플레이(350)를 지지하는 프레임을 포함할 수 있다.Figure 3A shows an example of a perspective view of a wearable device, according to one embodiment. The
일 실시예에 따른, 웨어러블 장치(300)는 사용자의 신체의 일부 상에 착용될 수 있다. 웨어러블 장치(300)는, 웨어러블 장치(300)를 착용한 사용자에게, 증강 현실(augmented reality, AR), 가상 현실(virtual reality, VR), 또는 증강 현실과 가상 현실을 혼합한 혼합 현실(mixed reality, MR)을 제공할 수 있다. 예를 들면, 웨어러블 장치(300)는, 도 3b의 동작 인식 카메라(340-2)를 통해 획득된 사용자의 지정된 제스처에 응답하여, 적어도 하나의 디스플레이(350)를 통하여 사용자에게 가상 현실 영상을 출력할 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(300) 내 적어도 하나의 디스플레이(350)는, 사용자에게 시각 정보를 제공할 수 있다. 예를 들면, 적어도 하나의 디스플레이(350)는, 투명 또는 반투명한 렌즈를 포함할 수 있다. 적어도 하나의 디스플레이(350)는, 제1 디스플레이(350-1) 및/또는 제1 디스플레이(350-1)로부터 이격된 제2 디스플레이(350-2)를 포함할 수 있다. 예를 들면, 제1 디스플레이(350-1), 및 제2 디스플레이(350-2)는, 사용자의 좌안과 우안에 각각 대응되는 위치에 배치될 수 있다.According to one embodiment, at least one
도 3b를 참조하면, 적어도 하나의 디스플레이(350)는, 렌즈 상에 표시 영역을 형성하여, 웨어러블 장치(300)를 착용한 사용자에게, 렌즈를 통과하는 외부 광에 포함된 시각적 정보와 함께, 상기 시각적 정보와 구별되는, 다른 시각적 정보를 제공할 수 있다. 상기 렌즈는, 프레넬(fresnel) 렌즈, 팬케이크(pancake) 렌즈, 또는 멀티-채널 렌즈 중 적어도 하나에 기반하여 형성될 수 있다. 적어도 하나의 디스플레이(350)에 의해 형성된 표시 영역은, 렌즈의 제1 면(331), 및 제2 면(332) 중 제2 면(332) 상에 형성될 수 있다. 사용자가 웨어러블 장치(300)를 착용하였을 때, 외부 광은 제1 면(331)으로 입사되고, 제2 면(332)을 통해 투과됨으로써, 사용자에게 전달될 수 있다. 다른 예를 들면, 적어도 하나의 디스플레이(350)는, 외부 광을 통해 전달되는 현실 화면에 결합될 가상 현실 영상을 표시할 수 있다. 적어도 하나의 디스플레이(350)로부터 출력된 상기 가상 현실 영상은, 웨어러블 장치(300)에 포함된 하나 이상의 하드웨어(예, 광학 장치들(382, 384), 및/또는 적어도 하나의 웨이브가이드들(waveguides)(333, 334))를 통하여, 사용자의 눈으로 송신될 수 있다.Referring to FIG. 3B, at least one
일 실시예에 따른, 웨어러블 장치(300)는 적어도 하나의 디스플레이(350)로부터 송신되고, 광학 장치들(382, 384)에 의해 릴레이된 광을 회절시켜, 사용자에게 전달하는, 웨이브가이드들(333, 334)을 포함할 수 있다. 웨이브가이드들(333, 334)은, 글래스, 플라스틱, 또는 폴리머 중 적어도 하나에 기반하여 형성될 수 있다. 웨이브가이드들(333, 334)의 외부, 또는 내부의 적어도 일부분에, 나노 패턴이 형성될 수 있다. 상기 나노 패턴은, 다각형, 및/또는 곡면 형상의 격자 구조(grating structure)에 기반하여 형성될 수 있다. 웨이브가이드들(333, 334)의 일 단으로 입사된 광은, 상기 나노 패턴에 의해 웨이브가이드들(333, 334)의 타 단으로 전파될 수 있다. 웨이브가이드들(333, 334)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)), 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 예를 들어, 웨이브가이드들(333, 334)은, 적어도 하나의 디스플레이(350)에 의해 표시되는 화면을, 사용자의 눈으로 가이드하기 위하여, 웨어러블 장치(300) 내에 배치될 수 있다. 예를 들어, 상기 화면은, 웨이브가이드들(333, 334) 내에서 발생되는 전반사(total internal reflection, TIR)에 기반하여, 사용자의 눈으로 송신될 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(300)는, 촬영 카메라(340-1)를 통해 수집된 현실 영상에 포함된 오브젝트(object)를 분석하고, 분석된 오브젝트 중에서 증강 현실 제공의 대상이 되는 오브젝트에 대응되는 가상 오브젝트(virtual object)를 결합하여, 적어도 하나의 디스플레이(350)에 표시할 수 있다. 가상 오브젝트는, 현실 영상에 포함된 오브젝트에 관련된 다양한 정보에 대한 텍스트, 및 이미지 중 적어도 하나를 포함할 수 있다. 웨어러블 장치(300)는, 스테레오 카메라와 같은 멀티-카메라에 기반하여, 오브젝트를 분석할 수 있다. 상기 오브젝트 분석을 위하여, 웨어러블 장치(300)는 멀티-카메라에 의해 지원되는, ToF(time-of-flight), 및/또는 SLAM(simultaneous localization and mapping)을 실행할 수 있다. 웨어러블 장치(300)를 착용한 사용자는, 적어도 하나의 디스플레이(350)에 표시되는 영상을 시청할 수 있다.According to one embodiment, the
일 실시예에 따르면, 프레임은, 웨어러블 장치(300)가 사용자의 신체 상에 착용될 수 있는 물리적인 구조로 이루어질 수 있다. 일 실시예에 따르면, 프레임은, 사용자가 웨어러블 장치(300)를 착용하였을 때, 제1 디스플레이(350-1) 및 제2 디스플레이(350-2)가 사용자의 좌안 및 우안에 대응되는 위치할 수 있도록, 구성될 수 있다. 프레임은, 적어도 하나의 디스플레이(350)를 지지할 수 있다. 예를 들면, 프레임은, 제1 디스플레이(350-1) 및 제2 디스플레이(350-2)를 사용자의 좌안 및 우안에 대응되는 위치에 위치되도록 지지할 수 있다. According to one embodiment, the frame may be made of a physical structure that allows the
일 실시예에 따른, 도 3a를 참조하면, 프레임은, 사용자가 웨어러블 장치(300)를 착용한 경우, 적어도 일부가 사용자의 신체의 일부분과 접촉되는 영역(320)을 포함할 수 있다. 예를 들면, 프레임의 사용자의 신체의 일부분과 접촉되는 영역(320)은, 웨어러블 장치(300)가 접하는 사용자의 코의 일부분, 사용자의 귀의 일부분 및 사용자의 얼굴의 측면 일부분과 접촉하는 영역을 포함할 수 있다. 일 실시예에 따르면, 프레임은, 사용자의 신체의 일부 상에 접촉되는 노즈 패드(310)를 포함할 수 있다. 웨어러블 장치(300)가 사용자에 의해 착용될 시, 노즈 패드(310)는, 사용자의 코의 일부 상에 접촉될 수 있다. 프레임은, 상기 사용자의 신체의 일부와 구별되는 사용자의 신체의 다른 일부 상에 접촉되는 제1 템플(temple)(304) 및 제2 템플(305)을 포함할 수 있다.Referring to FIG. 3A according to one embodiment, when the user wears the
일 실시예에서, 프레임은, 제1 디스플레이(350-1)의 적어도 일부를 감싸는 제1 림(rim)(301), 제2 디스플레이(350-2)의 적어도 일부를 감싸는 제2 림(302), 제1 림(301)과 제2 림(302) 사이에 배치되는 브릿지(bridge)(303), 브릿지(303)의 일단으로부터 제1 림(301)의 가장자리 일부를 따라 배치되는 제1 패드(311), 브릿지(303)의 타단으로부터 제2 림(302)의 가장자리 일부를 따라 배치되는 제2 패드(312), 제1 림(301)으로부터 연장되어 착용자의 귀의 일부분에 고정되는 제1 템플(304), 및 제2 림(302)으로부터 연장되어 상기 귀의 반대측 귀의 일부분에 고정되는 제2 템플(305)을 포함할 수 있다. 제1 패드(311), 및 제2 패드(312)는, 사용자의 코의 일부분과 접촉될 수 있고, 제1 템플(304) 및 제2 템플(305)은, 사용자의 안면의 일부분 및 귀의 일부분과 접촉될 수 있다. 템플들(304, 305)은, 도 3b의 힌지 유닛들(306, 307)을 통해 림과 회전 가능하게(rotatably) 연결될 수 있다. 제1 템플(304)은, 제1 림(301)과 제1 템플(304)의 사이에 배치된 제1 힌지 유닛(306)을 통해, 제1 림(301)에 대하여 회전 가능하게 연결될 수 있다. 제2 템플(305)은, 제2 림(302)과 제2 템플(305)의 사이에 배치된 제2 힌지 유닛(307)을 통해 제2 림(302)에 대하여 회전 가능하게 연결될 수 있다. 일 실시예에 따른, 웨어러블 장치(300)는 프레임의 표면의 적어도 일부분 상에 형성된, 터치 센서, 그립 센서, 및/또는 근접 센서를 이용하여, 프레임을 터치하는 외부 객체(예, 사용자의 손끝(fingertip)), 및/또는 상기 외부 객체에 의해 수행된 제스쳐를 식별할 수 있다.In one embodiment, the frame includes a
일 실시예에 따르면, 웨어러블 장치(300)는, 다양한 기능들을 수행하는 하드웨어들(예, 도 6의 블록도에 기반하여 상술된 하드웨어들)을 포함할 수 있다. 예를 들면, 상기 하드웨어들은, 배터리 모듈(370), 안테나 모듈(375), 광학 장치들(382, 384), 스피커들(392-1, 392-2), 마이크들(394-1, 394-2, 394-3), 발광 모듈(미도시), 및/또는 인쇄 회로 기판(390)을 포함할 수 있다. 다양한 하드웨어들은, 프레임 내에 배치될 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(300)의 마이크들(394-1, 394-2, 394-3)은, 프레임의 적어도 일부분에 배치되어, 소리 신호를 획득할 수 있다. 노즈 패드(310) 상에 배치된 제1 마이크(394-1), 제2 림(302) 상에 배치된 제2 마이크(394-2), 및 제1 림(301) 상에 배치된 제3 마이크(394-3)가 도 3b 내에 도시되지만, 마이크(394)의 개수, 및 배치가 도 3b의 일 실시예에 제한되는 것은 아니다. 웨어러블 장치(300) 내에 포함된 마이크(394)의 개수가 두 개 이상인 경우, 웨어러블 장치(300)는 프레임의 상이한 부분들 상에 배치된 복수의 마이크들을 이용하여, 소리 신호의 방향을 식별할 수 있다.According to one embodiment, the microphones 394-1, 394-2, and 394-3 of the
일 실시예에 따르면, 광학 장치들(382, 384)은, 적어도 하나의 디스플레이(350)로부터 송신된 가상 오브젝트를, 웨이브가이드들(333, 334)로 송신할 수 있다. 예를 들면, 광학 장치들(382, 384)은, 프로젝터일 수 있다. 광학 장치들(382, 384)은, 적어도 하나의 디스플레이(350)에 인접하여 배치되거나, 적어도 하나의 디스플레이(350)의 일부로써, 적어도 하나의 디스플레이(350) 내에 포함될 수 있다. 제1 광학 장치(382)는, 제1 디스플레이(350-1)에 대응하고, 제2 광학 장치(384)는, 제2 디스플레이(350-2)에 대응할 수 있다. 제1 광학 장치(382)는, 제1 디스플레이(350-1)로부터 출력된 광을, 제1 웨이브가이드(333)로 송출할 수 있고, 제2 광학 장치(384)는, 제2 디스플레이(350-2)로부터 출력된 광을, 제2 웨이브가이드(334)로 송출할 수 있다.According to one embodiment, the
일 실시예에서, 카메라(340)는, 시선 추적 카메라(eye tracking camera, ET CAM)(340-1), 동작 인식 카메라(340-2), 및/또는 촬영 카메라(340-3)를 포함할 수 있다. 촬영 카메라(340-3), 시선 추적 카메라(340-1) 및 동작 인식 카메라(340-2)는, 프레임 상에서 서로 다른 위치에 배치될 수 있고, 서로 다른 기능을 수행할 수 있다. 시선 추적 카메라(340-1)는, 웨어러블 장치(300)를 착용한 사용자의 시선(gaze)을 나타내는 데이터를 출력할 수 있다. 예를 들어, 웨어러블 장치(300)는 시선 추적 카메라(340-1)를 통하여 획득된, 사용자의 눈동자가 포함된 이미지로부터, 상기 시선을 탐지할 수 있다. 시선 추적 카메라(340-1)가 사용자의 우측 눈을 향하여 배치된 일 예가 도 3b 내에 도시되지만, 실시예가 이에 제한되는 것은 아니며, 시선 추적 카메라(340-1)는, 사용자의 좌측 눈을 향하여 단독으로 배치되거나, 또는 양 눈들 전부를 향하여 배치될 수 있다. In one embodiment, the camera 340 may include an eye tracking camera (ET CAM) 340-1, a motion recognition camera 340-2, and/or an imaging camera 340-3. You can. The shooting camera 340-3, the eye tracking camera 340-1, and the motion recognition camera 340-2 may be placed at different positions on the frame and perform different functions. The gaze tracking camera 340-1 may output data representing the gaze of the user wearing the
일 실시예에서, 촬영 카메라(340-3)는, 증강 현실 또는 혼합 현실 콘텐츠를 구현하기 위해서 가상의 이미지와 정합될 실제의 이미지나 배경을 촬영할 수 있다. 촬영 카메라는, 사용자가 바라보는 위치에 존재하는 특정 사물의 이미지를 촬영하고, 그 이미지를 적어도 하나의 디스플레이(350)로 제공할 수 있다. 적어도 하나의 디스플레이(350)는, 촬영 카메라를 이용해 획득된 상기 특정 사물의 이미지를 포함하는 실제의 이미지나 배경에 관한 정보와, 광학 장치들(382, 384)을 통해 제공되는 가상 이미지가 겹쳐진 하나의 영상을 표시할 수 있다. 일 실시예에서, 촬영 카메라는, 제1 림(301) 및 제2 림(302) 사이에 배치되는 브릿지(303) 상에 배치될 수 있다.In one embodiment, the capturing camera 340-3 may capture a real image or background to be matched with a virtual image to implement augmented reality or mixed reality content. The capturing camera may capture an image of a specific object that exists at a location where the user is looking and provide the image to at least one
일 실시예에서, 시선 추적 카메라(340-1)는, 웨어러블 장치(300)를 착용한 사용자의 시선(gaze)을 추적함으로써, 사용자의 시선과 적어도 하나의 디스플레이(350)에 제공되는 시각 정보를 일치시켜 보다 현실적인 증강 현실을 구현할 수 있다. 예를 들어, 웨어러블 장치(300)는, 사용자가 정면을 바라볼 때, 사용자가 위치한 장소에서 사용자의 정면에 관련된 환경 정보를 자연스럽게 적어도 하나의 디스플레이(350)에 표시할 수 있다. 시선 추적 카메라(340-1)는, 사용자의 시선을 결정하기 위하여, 사용자의 동공의 이미지를 캡쳐하도록, 구성될 수 있다. 예를 들면, 시선 추적 카메라(340-1)는, 사용자의 동공에서 반사된 시선 검출 광을 수신하고, 수신된 시선 검출 광의 위치 및 움직임에 기반하여, 사용자의 시선을 추적할 수 있다. 일 실시예에서, 시선 추적 카메라(340-1)는, 사용자의 좌안과 우안에 대응되는 위치에 배치될 수 있다. 예를 들면, 시선 추적 카메라(340-1)는, 제1 림(301) 및/또는 제2 림(302) 내에서, 웨어러블 장치(300)를 착용한 사용자가 위치하는 방향을 향하도록 배치될 수 있다.In one embodiment, the gaze tracking camera 340-1 tracks the gaze of a user wearing the
일 실시예에서, 동작 인식 카메라(340-2)는, 사용자의 몸통, 손, 또는 얼굴 등 사용자의 신체 전체 또는 일부의 움직임을 인식함으로써, 적어도 하나의 디스플레이(350)에 제공되는 화면에 특정 이벤트를 제공할 수 있다. 동작 인식 카메라(340-2)는, 사용자의 동작을 인식(gesture recognition)하여 상기 동작에 대응되는 신호를 획득하고, 상기 신호에 대응되는 표시를 적어도 하나의 디스플레이(350)에 제공할 수 있다. 프로세서는, 상기 동작에 대응되는 신호를 식별하는 것에 기반하여, 지정된 기능을 수행할 수 있다. 일 실시예에서, 동작 인식 카메라(340-2)는, 제1 림(301) 및/또는 제2 림(302)상에 배치될 수 있다.In one embodiment, the motion recognition camera 340-2 recognizes the movement of the entire or part of the user's body, such as the user's torso, hands, or face, and displays a specific event on the screen provided on at least one
일 실시예에서, 웨어러블 장치(300) 내에 포함된 카메라(340)는, 상술된 시선 추적 카메라(340-1), 동작 인식 카메라(340-2)에 제한되지 않는다. 예를 들어, 웨어러블 장치(300)는 사용자의 FoV를 향하여 배치된 촬영 카메라(340-3)를 이용하여, 상기 FoV 내에 포함된 외부 객체를 식별할 수 있다. 웨어러블 장치(300)가 외부 객체를 식별하는 것은, 깊이 센서, 및/또는 ToF(time of flight) 센서와 같이, 웨어러블 장치(300), 및 외부 객체 사이의 거리를 식별하기 위한 센서에 기반하여 수행될 수 있다. 상기 FoV를 향하여 배치된 상기 카메라(340)는, 오토포커스 기능, 및/또는 OIS(optical image stabilization) 기능을 지원할 수 있다. 예를 들어, 웨어러블 장치(300)는, 웨어러블 장치(300)를 착용한 사용자의 얼굴을 포함하는 이미지를 획득하기 위하여, 상기 얼굴을 향하여 배치된 카메라(340)(예, FT(face tracking) 카메라)를 포함할 수 있다.In one embodiment, the camera 340 included in the
비록 도시되지 않았지만, 일 실시예에 따른, 웨어러블 장치(300)는, 카메라(340)를 이용하여 촬영되는 피사체(예, 사용자의 눈, 얼굴, 및/또는 FoV 내 외부 객체)를 향하여 빛을 방사하는 광원(예, LED)을 더 포함할 수 있다. 상기 광원은 적외선 파장의 LED를 포함할 수 있다. 상기 광원은, 프레임, 힌지 유닛들(306, 307) 중 적어도 하나에 배치될 수 있다.Although not shown, according to one embodiment, the
일 실시예에 따르면, 배터리 모듈(370)은, 웨어러블 장치(300)의 전자 부품들에 전력을 공급할 수 있다. 일 실시예에서, 배터리 모듈(370)은, 제1 템플(304) 및/또는 제2 템플(305) 내에 배치될 수 있다. 예를 들면, 배터리 모듈(370)은, 복수의 배터리 모듈(370)들일 수 있다. 복수의 배터리 모듈(370)들은, 각각 제1 템플(304)과 제2 템플(305) 각각에 배치될 수 있다. 일 실시예에서, 배터리 모듈(370)은 제1 템플(304) 및/또는 제2 템플(305)의 단부에 배치될 수 있다. According to one embodiment, the
일 실시예에서, 안테나 모듈(375)은, 신호 또는 전력을 웨어러블 장치(300)의 외부로 송신하거나, 외부로부터 신호 또는 전력을 수신할 수 있다. 안테나 모듈(375)은, 웨어러블 장치(300) 내 통신 회로(예, 도 6을 참고하여 후술되는 통신 회로(650))와 전기적으로, 및/또는 작동적으로 연결될 수 있다. 일 실시예에서, 안테나 모듈(375)은, 제1 템플(304) 및/또는 제2 템플(305) 내에 배치될 수 있다. 예를 들면, 안테나 모듈(375)은, 제1 템플(304), 및/또는 제2 템플(305)의 일면에 가깝게 배치될 수 있다. In one embodiment, the
일 실시예에서, 스피커들(392-1, 392-2)은, 음향 신호를 웨어러블 장치(300)의 외부로 출력할 수 있다. 음향 출력 모듈은, 스피커로 참조될 수 있다. 일 실시예에서, 스피커들(392-1, 392-2)은, 웨어러블 장치(300)를 착용한 사용자의 귀에 인접하게 배치되기 위하여, 제1 템플(304), 및/또는 제2 템플(305) 내에 배치될 수 있다. 예를 들면, 웨어러블 장치(300)는, 제1 템플(304) 내에 배치됨으로써 사용자의 좌측 귀에 인접하게 배치되는, 제2 스피커(392-2), 및 제2 템플(305) 내에 배치됨으로써 사용자의 우측 귀에 인접하게 배치되는, 제1 스피커(392-1)를 포함할 수 있다.In one embodiment, the speakers 392-1 and 392-2 may output sound signals to the outside of the
일 실시예에서, 발광 모듈(미도시)은, 적어도 하나의 발광 소자를 포함할 수 있다. 발광 모듈은, 웨어러블 장치(300)의 특정 상태에 관한 정보를 사용자에게 시각적으로 제공하기 위하여, 특정 상태에 대응되는 색상의 빛을 방출하거나, 특정 상태에 대응되는 동작으로 빛을 방출할 수 있다. 예를 들면, 웨어러블 장치(300)가, 충전이 필요한 경우, 적색 광의 빛을 지정된 시점에 반복적으로 방출할 수 있다. 일 실시예에서, 발광 모듈은, 제1 림(301) 및/또는 제2 림(302) 상에 배치될 수 있다.In one embodiment, a light emitting module (not shown) may include at least one light emitting device. In order to visually provide information about the specific state of the
도 3b를 참고하면, 일 실시예에 따른, 웨어러블 장치(300)는 PCB(printed circuit board)(390)을 포함할 수 있다. PCB(390)는, 제1 템플(304), 또는 제2 템플(305) 중 적어도 하나에 포함될 수 있다. PCB(390)는, 적어도 두 개의 서브 PCB들 사이에 배치된 인터포저를 포함할 수 있다. PCB(390) 상에서, 웨어러블 장치(300)에 포함된 하나 이상의 하드웨어들(예, 도 5를 참고하여 후술되는 블록들에 의하여 도시된 하드웨어들)이 배치될 수 있다. 웨어러블 장치(300)는, 상기 하드웨어들을 상호연결하기 위한, FPCB(flexible PCB)를 포함할 수 있다.Referring to FIG. 3B , the
일 실시예에 따른, 웨어러블 장치(300)는, 웨어러블 장치(300)의 자세, 및/또는 웨어러블 장치(300)를 착용한 사용자의 신체 부위(예, 머리)의 자세를 탐지하기 위한 자이로 센서, 중력 센서, 및/또는 가속도 센서 중 적어도 하나를 포함할 수 있다. 웨어러블 장치(300)는 중력 센서, 및 가속도 센서 각각을 이용하여, 서로 수직인 지정된 3차원 축들(예, x축, y축 및 z축)에 기반하여, 중력 가속도, 및 가속도를 측정할 수 있다. 자이로 센서는 지정된 3차원 축들(예, x축, y축 및 z축) 각각의 각속도를 측정할 수 있다. 상기 중력 센서, 상기 가속도 센서, 및 상기 자이로 센서 중 적어도 하나가, IMU(inertial measurement unit)로 참조될 수 있다. 일 실시예에 따른, 웨어러블 장치(300)는 IMU에 기반하여 웨어러블 장치(300)의 특정 기능을 실행하거나, 또는 중단하기 위해 수행된 사용자의 모션 및/또는 제스쳐를 식별할 수 있다.According to one embodiment, the
도 4a 내지 도 4b는, 일 실시예에 따른, 웨어러블 장치(400)의 외관의 일 예를 도시한다. 도 4a 내지 도 4b의 웨어러블 장치(400)는, 도 1의 웨어러블 장치(101) 및/또는 도 2의 웨어러블 장치의 일 예일 수 있다. 일 실시예에 따른, 웨어러블 장치(400)의 하우징의 제1 면(410)의 외관의 일 예가 도 4a에 도시되고, 상기 제1 면(410)의 반대되는(opposite to) 제2 면(420)의 외관의 일 예가 도 4b에 도시될 수 있다.4A to 4B show an example of the appearance of a
도 4a를 참고하면, 일 실시예에 따른, 웨어러블 장치(400)의 제1 면(410)은, 사용자의 신체 부위(예, 상기 사용자의 얼굴) 상에 부착가능한(attachable) 형태를 가질 수 있다. 비록 도시되지 않았지만, 웨어러블 장치(400)는, 사용자의 신체 부위 상에 고정되기 위한 스트랩, 및/또는 하나 이상의 템플들(예, 도 3a 내지 도 3b의 제1 템플(304), 및/또는 제2 템플(305))을 더 포함할 수 있다. 사용자의 양 눈들 중에서 좌측 눈으로 이미지를 출력하기 위한 제1 디스플레이(350-1), 및 상기 양 눈들 중에서 우측 눈으로 이미지를 출력하기 위한 제2 디스플레이(350-2)가 제1 면(410) 상에 배치될 수 있다. 웨어러블 장치(400)는 제1 면(410) 상에 형성되고, 상기 제1 디스플레이(350-1), 및 상기 제2 디스플레이(350-2)로부터 방사되는 광과 상이한 광(예, 외부 광(ambient light))에 의한 간섭을 방지하기 위한, 고무, 또는 실리콘 패킹(packing)을 더 포함할 수 있다.Referring to FIG. 4A, according to one embodiment, the
일 실시예에 따른, 웨어러블 장치(400)는, 상기 제1 디스플레이(350-1), 및 상기 제2 디스플레이(350-2) 각각에 인접한 사용자의 양 눈들을 촬영, 및/또는 추적하기 위한 카메라들(440-1, 440-2)을 포함할 수 있다. 상기 카메라들(440-1, 440-2)은, ET 카메라로 참조될 수 있다. 일 실시예에 따른, 웨어러블 장치(400)는, 사용자의 얼굴을 촬영, 및/또는 인식하기 위한 카메라들(440-3, 440-4)을 포함할 수 있다. 상기 카메라들(440-3, 440-4)은, FT 카메라로 참조될 수 있다.According to one embodiment, the
도 4b를 참고하면, 도 4a의 제1 면(410)과 반대되는 제2 면(420) 상에, 웨어러블 장치(400)의 외부 환경과 관련된 정보를 획득하기 위한 카메라(예, 카메라들(440-5, 440-6, 440-7, 440-8, 440-9, 440-10)), 및/또는 센서(예, 깊이 센서(430))가 배치될 수 있다. 예를 들어, 카메라들(440-5, 440-6, 440-7, 440-8, 440-9, 440-10)은, 웨어러블 장치(400)와 상이한 외부 객체를 인식하기 위하여, 제2 면(420) 상에 배치될 수 있다. 예를 들어, 카메라들(440-9, 440-10)을 이용하여, 웨어러블 장치(400)는 사용자의 양 눈들 각각으로 송신될 이미지, 및/또는 미디어를 획득할 수 있다. 카메라(440-9)는, 상기 양 눈들 중에서 우측 눈에 대응하는 제2 디스플레이(350-2)를 통해 표시될 이미지를 획득하도록, 웨어러블 장치(400)의 제2 면(420) 상에 배치될 수 있다. 카메라(440-10)는, 상기 양 눈들 중에서 좌측 눈에 대응하는 제1 디스플레이(350-1)를 통해 표시될 이미지를 획득하도록, 웨어러블 장치(400)의제2 면(420) 상에 배치될 수 있다.Referring to FIG. 4B, on the
일 실시예에 따른, 웨어러블 장치(400)는, 웨어러블 장치(400), 및 외부 객체 사이의 거리를 식별하기 위하여 제2 면(420) 상에 배치된 깊이 센서(430)를 포함할 수 있다. 깊이 센서(430)를 이용하여, 웨어러블 장치(400)는, 웨어러블 장치(400)를 착용한 사용자의 FoV의 적어도 일부분에 대한 공간 정보(spatial information)(예, 깊이 맵(depth map))를 획득할 수 있다.According to one embodiment, the
비록 도시되지 않았지만, 웨어러블 장치(400)의 제2 면(420) 상에, 외부 객체로부터 출력된 소리를 획득하기 위한 마이크가 배치될 수 있다. 마이크의 개수는, 실시예에 따라 하나 이상일 수 있다.Although not shown, a microphone for acquiring sound output from an external object may be disposed on the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(400)는 사용자의 머리에 착용되기 위한 폼 팩터를 가질 수 있다. 웨어러블 장치(400)는, 상기 머리에 착용된 상태 내에서, 증강 현실, 가상 현실, 및/또는 혼합 현실에 기반하는 사용자 경험을 제공할 수 있다. 사용자의 두 눈들 각각을 향하여 배치되기 위한 제1 디스플레이(350-1) 및 제2 디스플레이(350-2)를 이용하여, 웨어러블 장치(400)는 외부 객체를 포함하는 화면을 표시할 수 있다. 상기 화면 내에서, 웨어러블 장치(400)는 외부 객체를 등록하거나, 또는 외부 객체에 할당된 기능을 실행한 결과를 표시할 수 있다.As described above, the
이하에서는, 도 5를 참고하여, 도 3a 내지 도 3b의 웨어러블 장치(300), 및/또는 도 4a 내지 도 4b의 웨어러블 장치(400)를 포함하는 웨어러블 장치(예, 도 1의 웨어러블 장치(101)) 내에 포함된 하나 이상의 하드웨어들의 예시적인 구조가 설명된다.Hereinafter, with reference to FIG. 5, a wearable device including the
도 5는, 일 실시예에 따른, 웨어러블 장치(101)의 블록도이다. 도 5의 웨어러블 장치(101)는 도 1의 웨어러블 장치(101), 도 2의 웨어러블 장치, 도 3a 내지 도 3b의 웨어러블 장치(300) 및/또는 도 4a 내지 도 4b의 웨어러블 장치(400)를 포함할 수 있다. 웨어러블 장치(101)는, 프로세서(510), 메모리(520), 디스플레이(530), 카메라(540) 또는 통신 회로(550) 중 적어도 하나를 포함할 수 있다. 프로세서(510), 메모리(520), 디스플레이(530), 카메라(540) 및 통신 회로(550)는 통신 버스(502)와 같은 전자 부품(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 5의 하드웨어들 중 일부분(예, 프로세서(510), 메모리(520) 및 통신 회로(550)의 적어도 일부분)이 SoC(system on a chip)와 같이 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 웨어러블 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 5에 도시된 바에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는 도 5에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다.Figure 5 is a block diagram of a
일 실시예에 따른 웨어러블 장치(101)의 프로세서(510)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit) 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(510)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(510)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 510 of the
일 실시예에 따른, 웨어러블 장치(101)의 메모리(520)는 프로세서(510)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(520)는, 예를 들어, RAM(random-access memory)와 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)와 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다.According to one embodiment, the memory 520 of the
일 실시예에 따른, 웨어러블 장치(101)의 메모리(520) 내에서, 프로세서(510)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 웨어러블 장치(101), 및/또는 프로세서(510)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)이 실행될 시에, 도 2, 도 7, 도 16 및/또는 도 18의 동작들 중 적어도 하나를 수행할 수 있다. 이하에서, 어플리케이션이 웨어러블 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 웨어러블 장치(101)의 메모리(520) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 웨어러블 장치(101)의 프로세서(510)에 의해 실행 가능한(executable) 포맷(예, 웨어러블 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다. 예를 들어, 웨어러블 장치(101)는 하나 이상의 인스트럭션들을 실행하여, 외부 객체(예, 도 1의 외부 객체(130))의 모션과 관련된 정보(예, 외부 객체의 일부분의 경로 및/또는 외부 객체에 의해 그려진 적어도 하나의 획)를 획득할 수 있다. 웨어러블 장치(101)는 획득된 정보에 기반하여, 메모리(520) 내에 설치된 하나 이상의 어플리케이션들을 실행할 수 있다. 웨어러블 장치(101)는, 상기 획득된 정보에 기반하여, 상기 외부 객체에 매칭된 기능을 실행하기 위하여, 상기 하나 이상의 어플리케이션들을 실행할 수 있다. According to one embodiment, within the memory 520 of the
일 실시예에 따른, 웨어러블 장치(101)의 디스플레이(530)는 사용자에게 시각화된 정보를 출력할 수 있다. 도 5의 디스플레이(530)는 도 3a 내지 도 3b의 적어도 하나의 디스플레이(350) 및/또는 도 4a 내지 도 4b의 제1 디스플레이(350-1) 내지 제2 디스플레이(350-2)를 포함할 수 있다. 디스플레이(530)는, GPU(graphic processing unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(530)는 FPD(flat panel display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(liquid crystal display), PDP(plasma display panel) 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는 OLED(organic LED)를 포함할 수 있다.According to one embodiment, the display 530 of the
일 실시예에 따른, 웨어러블 장치(101)의 카메라(540)는, 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 카메라(540)에 포함된 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(540)는 복수의 광 센서들의 전기 신호들을 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하는 2차원 프레임 데이터를 생성할 수 있다. 예를 들어, 카메라(540)를 이용하여 캡쳐한 사진 데이터는 카메라(540)로부터 획득한 하나의 2차원 프레임 데이터를 의미할 수 있다. 예를 들어, 카메라(540)를 이용하여 캡쳐한 비디오 데이터는, 카메라(540)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. According to one embodiment, the camera 540 of the
일 실시예에 따른, 웨어러블 장치(101)는 하나 이상의 카메라들(예, 카메라(540))을 포함할 수 있다. 웨어러블 장치(101)가 복수의 카메라들을 포함하는 경우, 상기 복수의 카메라들은, 카메라를 통해 획득하고자 하는 정보에 의해 구분될 수 있다. 예를 들어, 웨어러블 장치(101)를 착용한 사용자의 눈을 추적하기 위한 카메라가 ET 카메라(예, 도 3a 내지 도 3b의 ET 카메라(340-1))로 지칭될(refereed as) 수 있다. 예를 들어, 웨어러블 장치(101)를 착용한 사용자의 얼굴을 추적하기 위한 카메라가 FT 카메라로 지칭될 수 있다. 예를 들어, 웨어러블 장치(101)는 사용자의 손(예, 도 1의 손(140))을 추적하기 위한 카메라가 동작 인식 카메라(예, 도3b의 동작 인식 카메라(340-2))로 지칭될 수 있다. 상기 복수의 카메라들 각각은, 사용자가 웨어러블 장치(101)를 착용한 상태 내에서, 카메라가 향하는 방향, 및/또는 뷰 앵글(view angle)에 의해 형성된 FoV(field-of-view)에 의해 구분될 수 있다. 외부 객체는, 카메라(540)의 FoV 내에 포함되고, 웨어러블 장치(101)와 구별되는 사물을 포함할 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(101)의 통신 회로(550)는 웨어러블 장치(101) 및 외부 전자 장치(예, 도 1의 단말(120) 및/또는 서버(122)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 통신 회로(550)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(550)는, 이더넷(ethernet), LAN(local area network), WAN(wide area network), WiFi(wireless fidelity), Bluetooth, BLE(bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.According to one embodiment, the communication circuit 550 of the
비록 도시되지 않았지만, 일 실시예에 따른 웨어러블 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.Although not shown, the
일 실시예에 따른, 웨어러블 장치(101)는 카메라(540)를 이용하여, 외부 객체를 식별할 수 있다. 상기 외부 객체에 할당된 속성이, 웨어러블 장치(101)의 메모리(520) 내에 저장될 수 있다. 상기 속성에 기반하여, 웨어러블 장치(101)는 외부 객체의 경로 및/또는 외부 객체에 의해 그려진 적어도 하나의 획 중 적어도 하나를 추적할 수 있다. 추적된 경로 및/또는 적어도 하나의 획에 기반하여, 웨어러블 장치(101)는 상기 속성에 대응하는 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)는 상기 어플리케이션을 실행하여, 추적된 경로 및/또는 적어도 하나의 획에 의해 지시되는 아날로그 콘텐트로부터 디지털 콘텐트를 획득할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 추적된 경로 및/또는 적어도 하나의 획에 포함된 정보를, 상기 어플리케이션에 기반하여 처리할 수 있다. According to one embodiment, the
일 실시예에서, 웨어러블 장치(101)는 카메라(540)를 이용하여 식별된 외부 객체를 등록하기 위한 입력을 수신할 수 있다. 이하에서는, 도 6a 내지 도 6d 및/또는 도 7을 참고하여, 일 실시예에 따른, 웨어러블 장치(101)가 상기 입력을 수신하는 동작의 일 예가 설명된다.In one embodiment, the
도 6a 내지 도 6d는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체를 등록함을 지시하는(indicating) 입력을 식별하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 6a 내지 도 6d의 웨어러블 장치(101)를 포함할 수 있다. 도 6a 내지 도 6d를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 디스플레이(예, 도 5의 디스플레이(530))의 표시 영역을 통해 UI(user interface)를 표시하는 상이한 상태들(601, 602, 603, 604)이 도시된다. 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 상기 UI는 사용자(110)에 의해 보일 수 있다.FIGS. 6A to 6D illustrate an example of an operation of identifying an input indicating that the
도 6a를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가, 디스플레이에 의해 형성된 표시 영역 내에, 웨어러블 장치(101)의 메모리(예, 도 5의 메모리(520))에 저장된 복수의 어플리케이션들의 리스트(610)를 표시하는 예시적인 상태(601)가 도시된다. 상기 리스트(610)는, 상기 표시 영역의 일부분 내에 표시되고, 어플리케이션 트레이(tray)의 형태를 가질 수 있다. 웨어러블 장치(101)는 상기 리스트(610) 내에, 상기 복수의 어플리케이션들 각각을 표현하는 아이콘들(611, 612, 613, 614)을 표시할 수 있다. 웨어러블 장치(101)가 리스트(610) 내에 표시하는 아이콘들(611, 612, 613, 614)의 개수는, 도 6a의 일 실시예에 제한되지 않는다. 웨어러블 장치(101)에 설치된 어플리케이션들의 개수가 리스트(610)를 통해 동시에 표시할 수 있는(displayable) 지정된 상한(upper limit)을 초과하는 경우, 웨어러블 장치(101)는 리스트(610)를 스크롤함을 지시하는 입력에 응답하여, 리스트(610)를 통해 표시되는 아이콘을 전환할 수 있다. Referring to FIG. 6A, according to one embodiment, the
도 6a의 상태(601) 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 사용자(110)에 의해 보여지는 하나 이상의 외부 객체들(621, 622, 623, 624)을 식별할 수 있다. 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 웨어러블 장치(101)는 디스플레이의 표시 영역 내에 포함된 외부 객체들(621, 622, 623, 624)을 식별할 수 있다. 외부 객체들(621, 622, 623, 624)을 식별하는 것에 기반하여, 웨어러블 장치(101)는, 외부 객체들(621, 622, 623, 624)이 웨어러블 장치(101)에 의해 식별되었음을 가이드하기 위한 바운딩 박스들(631, 632, 633, 634)을, 표시 영역 내에 표시할 수 있다. 비록 사각형의 라인의 형태를 가지는 바운딩 박스들(631, 632, 633, 634)이 도시되었지만, 실시예가 이에 제한되는 것은 아니다.Within
일 실시예에 따른, 웨어러블 장치(101)는 외부 객체의 형태, 크기 및/또는 색상에 기반하여, 상기 외부 객체가 등록되었는지 여부를 식별할 수 있다. 외부 객체가 등록되었다는 것은, 웨어러블 장치(101) 및/또는 외부 전자 장치(예, 도 1의 단말(120) 및/또는 서버(122)) 내에 상기 형태, 상기 크기, 및/또는 상기 색상을 포함하는 외부 객체의 속성이 저장됨을 의미할 수 있다. 이하에서, 외부 객체가 웨어러블 장치(101)에 등록되는 동작은, 상기 외부 객체의 속성이 웨어러블 장치(101) 내에 저장하는 동작에 제한되지 않으며, 웨어러블 장치(101)에 연결된 상기 외부 전자 장치 내에 저장되는 케이스를 포함할 수 있다. 상기 케이스 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 상기 외부 전자 장치로 액세스하여, 상기 외부 전자 장치 내에 저장된 상기 외부 객체의 속성을 획득할 수 있다. 상기 속성은, 웨어러블 장치(101)에 의해 추적되어야 하는, 외부 객체에 대한 정보(예, 외부 객체의 모션 및/또는 외부 객체로부터 출력되는 물질)를 포함할 수 있다. 상기 속성은, 상기 외부 객체에 매칭된 어플리케이션 및/또는 상기 어플리케이션에 의해 지원되는 복수의 기능들 중에서, 상기 외부 객체에 매칭된 일 기능을 포함할 수 있다. 실시예가 이에 제한되는 것은 아니며, 상기 속성은, 상기 외부 객체에 매칭된 복수의 어플리케이션들을 포함할 수 있다.According to one embodiment, the
예를 들어, 외부 객체(621)가 웨어러블 장치(101)에 등록된 경우, 웨어러블 장치(101)는 외부 객체(621)의 등록을 가이드하기 위한 지정된 색상(예, 노란색)을 가지는 바운딩 박스(631)를, 표시 영역 내에 포함된 외부 객체(621)와 중첩으로 표시할 수 있다. 도 6a를 참고하면, 웨어러블 장치(101)는 외부 객체(621)와 연계로, 외부 객체(621)에 매칭된 어플리케이션의 명칭(예, "1 APP")을, 상기 표시 영역 내에 표시할 수 있다. 외부 객체(621)와 구분되는 외부 객체들(622, 623, 624)이 웨어러블 장치(101)에 등록되지 않은 경우, 웨어러블 장치(101)는 외부 객체들(622, 623, 624)과 중첩된 바운딩 박스들(632, 633, 634)의 색상들을, 바운딩 박스(631)의 지정된 색상과 다른 지정된 색상(예, 청색)으로 표시할 수 있다.For example, when the
일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)로 외부 객체를 등록함을 지시하는 입력에 응답하여, 도 6a의 상태(601)로 진입할 수 있다. 예를 들어, 웨어러블 장치(101)는 리스트(610)를 표시함을 지시하는 입력에 응답하여, 도 6a의 상태(601)로 진입할 수 있다. 상태(601) 내에서, 웨어러블 장치(101)는 표시 영역 내에 상태(601)로 진입하기 이전의 다른 상태로 복귀하기 위한 버튼(640)의 형태를 가지는 시각적 객체를 표시할 수 있다. According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체로, 리스트(610) 내 일 어플리케이션의 매핑을 지시하는 입력을 식별할 수 있다. 상기 입력은, 리스트(610) 내에 포함된 특정 어플리케이션을 표현하는 시각적 객체(예, 아이콘들(611, 612, 613, 614) 중 적어도 하나)를 중첩하는 제스쳐를 포함할 수 있다. 도 6b를 참고하면, 웨어러블 장치(101)가 리스트(610) 내에 포함된 상기 입력을 식별한 예시적인 상태(602)가 도시된다. 상태(602) 내에서, 웨어러블 장치(101)는 상기 입력에 응답하여, 아이콘(612)을, 외부 객체(622) 상에 중첩으로 표시할 수 있다. 상태(602) 내에서, 웨어러블 장치(101)는 사용자(110)의 지정된 신체 부위(예, 도 1의 손(140) 및/또는 눈)의 모션에 기반하여, 경로(650)를 따라 아이콘(612)을 이동시키는 제스쳐를 식별할 수 있다. 상기 제스쳐는, 아이콘(612)에 대한 드래그-앤-드롭 제스쳐를 포함할 수 있다. 상기 제스쳐는, 외부 공간 내에서 아이콘(612)에 대응하는 일부분(예, 웨어러블 장치(101)를 착용한 사용자(110)에게 시인되는 영역으로, 아이콘(612)이 부유하는(floating) 공간)으로 이동되는 손(또는 손가락)에 기반하여 식별될 수 있다. 상기 제스쳐는, 상기 일부분으로부터 지정된 거리 미만으로 접근하는 상기 손에 기반하여 식별될 수 있다. 상기 제스쳐는, 외부 공간 내에서 아이콘(612)에 대응하는 일부분 내에 지정된 기간(예, 약 1 내지 1.5 초)을 초과하여 머무르는 상기 손에 기반하여, 식별될 수 있다. 비록 손에 기반하여, 상기 제스쳐가 예시되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 아이콘(612)을 향하는 사용자(110)의 시선의 방향 및/또는 사이즈(110)의 시선의 방향이 아이콘(612)을 향하는 기간에 기반하여, 상기 제스쳐를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 사용자(110)의 발언(예, "어느 연필로, 어느 어플리케이션을 매핑해줘"), 및 상기 발언이 수신된 시간 구간 내에서의 사용자(110)의 제스쳐에 기반하여, 특정 어플리케이션을 특정 외부 객체로 매핑하는 입력을 식별할 수 있다. 상기 입력에 기반하여, 웨어러블 장치(101)는 아이콘(612)에 대응하는 어플리케이션을, 표시 영역 내에 포함된 외부 객체(622)로 할당할 수 있다.According to one embodiment, the
도 6b의 경로(650)를 따라 드래그되는 입력을 식별한 상태(602) 내에서, 웨어러블 장치(101)는 외부 객체(622)를 이용하여 어플리케이션(예, 아이콘(612)에 대응하는 어플리케이션)을 실행하기 위한 속성을 획득할 수 있다. 비록 경로(650)를 따라, 아이콘(612)을 외부 객체(622)로 이동하는 입력이 예시적으로 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 아이콘들(611, 612, 613, 614) 중 어느 하나를, 외부 객체들(621, 622, 623, 624) 중 어느 하나로 이동하기 위한 다른 입력에 기반하여, 상기 다른 입력에 의해 이동된 아이콘에 대응하는 어플리케이션을 실행하기 위한 속성을 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내에, 상기 속성을 획득하기 위한 윈도우(660)의 형태를 가지는 시각적 객체를 표시할 수 있다. 윈도우(660)는, 상기 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면으로 지칭될 수 있다. 윈도우(660) 내에서, 웨어러블 장치(101)는 상기 입력에 의해 선택된 외부 객체(622) 및/또는 상기 어플리케이션과 관련된 정보를 표시할 수 있다. 윈도우(660) 내에서, 웨어러블 장치(101)는 외부 객체(622)를 이용하여 실행가능한(executable) 기능을 지시하는 정보(예, "기능: 스케쥴 송신")를 표시할 수 있다. 상기 기능은, 상기 어플리케이션에 의해 지원될 수 있다. 윈도우(660) 내에서, 웨어러블 장치(101)는 상기 기능을 실행하기 위하여 요구되는 속성을 수신할 수 있다. 상기 기능을 실행하기 위하여 요구되는 속성은, 상기 입력에 의해 선택된 어플리케이션에 의해 설정될 수 있다.In the
도 6b를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 윈도우(660) 내에서, 웨어러블 장치(101)에 의해 인식될 정보를 선택하기 위한 입력을 수신할 수 있다. 예를 들어, 웨어러블 장치(101)는 윈도우(660) 내에서, 외부 객체(622)의 일부분의 모션, 또는 외부 객체(622)에 의해 그려진 획 중 무엇을 추적할지를 선택하기 위한 옵션들을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 외부 객체(622)가 잉크를 포함하는 펜으로 인식된 경우, 윈도우(660) 내에 상기 옵션들을 표시할 수 있다. 웨어러블 장치(101)는, 윈도우(660) 내에서, 웨어러블 장치(101)에 의해 추적될 외부 객체(622)의 일부분을 선택하기 위한 옵션들을 표시할 수 있다. 예를 들어, 상기 옵션들 중에서, 외부 객체(622)의 모션을 추적하기 위한 일 옵션이 선택된 경우, 웨어러블 장치(101)는 외부 객체(622)의 일 단(an end)을 추적할 수 있다. 외부 객체(622)의 상기 일 단은, 상기 외부 객체(622)의 양 단들 중에서, 경로(650)를 따라 상기 외부 객체(622) 상으로 드래그된 아이콘(612)의 위치에 기반하여 선택될 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는, 웨어러블 장치(101)에 의해 추적될 외부 객체(622)의 일부분을 선택하기 위한 입력을 추가적으로 수신할 수 있다.Referring to FIG. 6B, according to one embodiment, the
도 6b를 참고하면, 아이콘(612)이 스케줄 어플리케이션에 대응하는 상태(602) 내에서, 웨어러블 장치(101)가 상기 스케줄 어플리케이션과 관련된 속성을 포함하는 윈도우(660)를 표시하는 일 예가 도시된다. 상태(602) 내에서, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 획득된 정보(예, 외부 객체(622)의 일부분의 경로 및/또는 외부 객체(622)에 의해 그려진 손글씨)가 추가될 달력의 종류를 선택하기 위한 텍스트(예, "달력: 개인 달력")를 표시할 수 있다. 상태(602) 내에서, 웨어러블 장치(101)는 외부 객체(622)의 일 단을 추적할지, 또는 외부 객체(622)에 의해 그려진 획을 추적할지를 선택하기 위한 옵션들을 표시할 수 있다. 예를 들어, 외부 객체(622)에 의해 그려진 획을 추적하기 위한 옵션이 선택된 경우, 웨어러블 장치(101)는 외부 객체(622)의 물질(예, 잉크 및/또는 흑연)을 통해 입력된 필기 입력을 식별할 수 있다. 외부 객체(622)의 상기 일 단은, 길이 방향을 따라 연장된 외부 객체(622)의 양 단들 중에서, 경로(650)를 따라 드래그된 아이콘(612)이 중첩되는 외부 객체(622)의 지점과 인접한 일 단으로 선택될 수 있다. 웨어러블 장치(101)는 윈도우(660)를, 리스트(610) 내에서 선택된 어플리케이션의 타입에 따라 선택적으로 표시할 수 있다. 도 6b의 상태(602) 내에서, 윈도우(660) 내에 포함된 버튼(예, "확인"과 같은 지정된 텍스트를 포함하는 버튼)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 윈도우(660) 내에 포함된 속성에 기반하여, 외부 객체(622)를 등록할 수 있다. 윈도우(660)와 독립적으로 외부 객체(622)를 등록하는 일 실시예에서, 웨어러블 장치(101)는 경로(650)를 따라 아이콘(612)을 드래그함을 지시하는 입력에 기반하여, 외부 객체(622)를 등록할 수 있다. 외부 객체(622)의 등록에 기반하여, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 실행될 기능(예, 윈도우(660)에 포함된 속성에 기반하여 실행되는 기능)을, 외부 객체(622)로 매칭할 수 있다.Referring to FIG. 6B, an example is shown in which the
비록 웨어러블 장치(101)가 윈도우(660)를 통하여 스케줄 어플리케이션에 의해 설정된 적어도 하나의 속성을 획득하는 동작이 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(622)의 등록을 위한 상태(602)에서, 외부 객체(622)에 대응하는 어플리케이션을 실행하기 위하여 요구되는 하나 이상의 속성들을 식별할 수 있다. 상기 하나 이상의 속성들은, 외부 객체(622)로 이동된 아이콘에 대응하는 어플리케이션에 의해 설정될 수 있다. 예를 들어, 상기 하나 이상의 속성들은, 웨어러블 장치(101)에 설치된 어플리케이션들에 기반하여, 표 1과 같이 구분될 수 있다.Although the operation of the
표 1을 참고하면, 노트 어플리케이션 및 외부 객체(622)를 매칭하는 경우, 웨어러블 장치(101)는 외부 객체(622)에 의해 그려진 적어도 하나의 획을 포함하는 디지털 콘텐트가 저장될 디지털 노트, 및/또는 상기 적어도 하나의 획의 스타일에 대한 속성을 획득할 수 있다. 메신저 어플리케이션 및 외부 객체(622)를 매칭하는 경우, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 식별한 텍스트 메시지를 수신할 상대방(counterpart)에 대한 속성을 획득할 수 있다. 결제 어플리케이션 및 외부 객체(622)를 매칭하는 경우, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 식별한 금액에 대한 통화, 상기 금액이 송금될 상대방 및/또는 은행에 대한 속성을 획득할 수 있다. 표 1에 포함된 속성과 독립적으로, 웨어러블 장치(101)는 외부 객체(622)의 일 단 또는 외부 객체(622)에 의해 그려진 획을 추적할지 여부에 대한 속성을 획득할 수 있다.도 6c를 참고하면, 웨어러블 장치(101)가 외부 객체(622)를 등록한 상태(603)가 도시된다. 상태(603)는, 상태(602) 이후의 상태일 수 있다. 상태(603) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(622)와 연계로, 외부 객체(622)에 매칭된 어플리케이션을 표현한 아이콘(615)을 표시할 수 있다. 도 6b의 아이콘(612)을 경로(650)를 따라 외부 객체(622)로 이동하는 입력에 기반하여 외부 객체(622)를 등록한 일 실시예에서, 도 6c의 아이콘(615)은, 도 6a 내지 도 6b의 아이콘(612)과 일치할 수 있다. 실시예가 이에 제한되는 것은 아니다. 도 6a의 상태(601)를 참고하여 설명한 바와 같이, 외부 객체(621)가 웨어러블 장치(101)에 등록된 이후의 상태(603) 내에서, 웨어러블 장치(101)는 외부 객체들(621, 622) 각각을 감싸는(wrapping) 형태들을 가지는 바운딩 박스들(631, 632)을, 바운딩 박스들(633, 634)과 상이한 색상으로 표시할 수 있다. 웨어러블 장치(101)는 바운딩 박스들(631, 632)에 인접한 표시 영역의 일부분에, 외부 객체들(621, 622) 각각에 매칭된 어플리케이션들의 명칭(예, "1 APP", 및 "2 APP")을 표시할 수 있다. 도 6c의 상태(603) 내에서, 웨어러블 장치(101)는 등록된 외부 객체(622)에 의해 생성된 아날로그 콘텐트를, 아이콘(612)에 매칭된 어플리케이션을 이용하여 디지털 콘텐트로 변경할 수 있다. Referring to Table 1, when matching the note application and the
도 6a의 리스트(610)를 이용하여 외부 객체를 등록하는 일 실시예가 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 도 6d를 참고하면, 웨어러블 장치(101)의 표시 영역과 적어도 일부분 중첩되는 FoV를 가지는 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))를 이용하여, 웨어러블 장치(101)가 외부 객체(688)를 등록하는 예시적인 상태(604)가 도시된다. 웨어러블 장치(101)는 표시 영역의 적어도 일부분에 중첩된 윈도우(670)의 형태를 가지는 시각적 객체 내에서, 웨어러블 장치(101)로 등록된 하나 이상의 외부 객체의 리스트들을 표시할 수 있다. 윈도우(670) 내에서, 웨어러블 장치(101)는 외부 객체를 등록을 위한 지정된 텍스트(예, "펜 추가")를 포함하는 버튼(672)의 형태를 가지는 시각적 객체를 표시할 수 있다. 버튼(672)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체를 등록하기 위한 UI를 표시할 수 있다. Although an embodiment of registering an external object using the
도 6d의 상태(604) 내에서, 버튼(672)을 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체에 대한 사용자의 선택을 식별하기 위한 UI를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체의 선택을 가이드하기 위한 지정된 텍스트(예, "등록할 펜을 인식시켜 주세요")를 포함하는 윈도우(682)의 형태를 가지는 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(688)를 식별하는 것에 기반하여, 표시 영역 내에 포함된 외부 객체(688)와 연계로, 바운딩 박스(684)를 표시할 수 있다. 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(688)를 인식하기 위한 셔터(686)를 표시할 수 있다. 셔터(686) 및/또는 바운딩 박스(684)를 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 외부 객체(688)를 등록하기 위한 윈도우(690)를 표시할 수 있다. Within
도 6d의 상태(604) 내에서, 웨어러블 장치(101)는 윈도우(690) 내에, 외부 객체(688)에 대한 이미지를 표시할 수 있다. 상기 이미지는, 셔터(686)에 대한 제스쳐를 식별한 웨어러블 장치(101)가 카메라를 제어하여 획득한 이미지를 포함할 수 있다. 상기 이미지 내에서, 웨어러블 장치(101)는, 웨어러블 장치(101)에 의해 추적될 외부 객체(688)의 일부분을 표시할 수 있다. 윈도우(690) 내에, 웨어러블 장치(101)는 외부 객체(688)에 대한 하나 이상의 속성들을 표시할 수 있다. 외부 객체(688)에 대한 하나 이상의 속성들은, 외부 객체(688)에 할당된 명칭을 포함할 수 있다. 웨어러블 장치(101)는 윈도우(690) 내에 포함된 텍스트 박스(691)를 이용하여, 상기 명칭을 할당함을 지시하는 입력을 식별할 수 있다. 외부 객체(688)에 대한 하나 이상의 속성들은, 외부 객체(688)에 매칭된 하나 이상의 어플리케이션들을 포함할 수 있다. 웨어러블 장치(101)는 윈도우(690) 내에, 웨어러블 장치(101) 내에 설치된 어플리케이션들의 리스트(692)를 표시할 수 있다. 리스트(692)를 통하여, 웨어러블 장치(101)는 외부 객체(688)로 하나 이상의 어플리케이션들을 매칭함을 지시하는 입력을 식별할 수 있다. 웨어러블 장치(101)는 리스트(692) 내에서 상기 입력에 의해 선택된 일 어플리케이션의 아이콘을 강조할 수 있다. 웨어러블 장치(101)는 상기 아이콘의 외곽선의 두께, 색상 및/또는 패턴에 기반하여, 상기 아이콘을 강조할 수 있다.Within
일 실시예에 따른, 웨어러블 장치(101)는 윈도우(690)의 부분(693) 내에, 리스트(692)를 통해 선택된 적어도 하나의 어플리케이션과 관련된 속성을 표시할 수 있다. 도 6d의 상태(604) 내에서, 웨어러블 장치(101)는 리스트(692) 내에서, 이미지를 그리기 위한 드로잉 어플리케이션을 선택함을 지시하는 입력에 응답하여, 부분(693) 내에, 상기 드로잉 어플리케이션과 관련된 속성을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 부분(693) 내에, 외부 객체(688)에 대응하는 브러시 타입을 조절하기 위한 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(688)에 대한 객체 인식을 수행하여, 펜과 관련된 지정된 카테고리들 중에서, 외부 객체(688)의 카테고리를 식별할 수 있다. 웨어러블 장치(101)가 만년필의 형태를 가지는 외부 객체(688)를 식별한 상태(604) 내에서, 웨어러블 장치(101)는 윈도우(690)의 부분(693) 내에, 외부 객체(688)의 카테고리에 대응하는 브러시 타입(예, "만년필")을 지시하는 텍스트를 표시할 수 있다. 부분(693)을 통해 표시되는 속성이 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 부분(693) 내에 드로잉 어플리케이션과 관련된 다른 속성들(예, 획 두께(stroke width), 색상, 패턴)을 표시할 수 있다. 상기 다른 속성들 또한, 외부 객체(688)의 카테고리에 기반하여 적응적으로(adaptively) 변경될 수 있다.According to one embodiment, the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는, 사용자(110)에 의해 착용된 상태 내에서, 카메라를 이용한 객체 인식에 기반하여, 외부 객체를 등록할 수 있다. 웨어러블 장치(101)는, 사용자(110)가 아날로그 콘텐트를 생성하기 위해 이용하는 펜과 같은 외부 객체를 등록하여, 사용자(110)에게 상기 아날로그 콘텐트를 디지털 콘텐트로 변경하는 사용자 경험을 제공할 수 있다. 외부 객체(688)를 등록하는 상태(604) 내에서, 웨어러블 장치(101)는 외부 객체(688)의 특성에 기반하여 외부 객체(688)에 대한 속성을 변경할 수 있다.As described above, according to one embodiment, the
이하에서는, 도 7을 참고하여, 도 6a 내지 도 6d의 상태들(601, 602, 603, 604)과 관련된 웨어러블 장치(101)의 동작이 설명된다.Below, with reference to FIG. 7 , the operation of the
도 7은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 7의 웨어러블 장치를 포함할 수 있다. 예를 들어, 도 7의 동작들은, 도 5의 웨어러블 장치(101) 및/또는 프로세서(510)에 의해 수행될 수 있다. 도 7의 동작들은, 도 6a 내지 도 6d의 상태들(601, 602, 603, 604) 중 적어도 하나와 관련될 수 있다. 도 7의 동작들은, 도 2의 동작들 중 적어도 하나(예, 도 2의 동작(210))와 관련될 수 있다. Figure 7 shows an example of a flow chart for a wearable device, according to one embodiment. The
도 7을 참고하면, 동작(710) 내에서, 일 실시예에 따른, 웨어러블 장치는, 하나 이상의 어플리케이션들의 리스트를 표시할 수 있다. 도 6a의 상태(601) 내에서, 웨어러블 장치는 동작(719)을 수행하여, 웨어러블 장치 내에 설치된 하나 이상의 어플리케이션들의 리스트(예, 도 6a의 리스트(610))를 표시할 수 있다. 리스트 내에서, 웨어러블 장치는 상기 하나 이상의 어플리케이션들을 표현하는 하나 이상의 아이콘들을 표시할 수 있다.Referring to FIG. 7, within
도 7을 참고하면, 동작(720) 내에서, 일 실시예에 따른, 웨어러블 장치는, 디스플레이를 통해 보여지는 외부 객체로, 리스트 내에 포함된 어플리케이션을 할당함을 지시하는 입력을 식별할 수 있다. 예를 들어, 도 6b의 경로(650)를 따라 아이콘(612)을 드래그함을 지시하는 입력과 같이, 리스트 내에 포함되고, 사용자(예, 도 1의 사용자(110))에 의해 선택된 아이콘에 기반하여, 웨어러블 장치는 외부 객체로 어플리케이션을 할당함을 지시하는 입력을 식별할 수 있다. 상기 입력을 식별하기 이전에(720-아니오), 웨어러블 장치는 동작(710)에 기반하여 리스트를 표시하는 것을 유지할 수 있다. Referring to FIG. 7 , within
외부 객체로 어플리케이션을 할당함을 지시하는 입력을 수신한 상태 내에서(720-예), 동작(730)에 기반하여, 일 실시예에 따른, 웨어러블 장치는, 입력에 대응하는 어플리케이션을 실행하는데 요구되는 적어도 하나의 속성을 식별할 수 있다. 상기 적어도 하나의 속성은, 표 1과 같이, 동작(720)의 입력에 의해 외부 객체로 할당된 어플리케이션에 의해 설정될 수 있다. 실시예가 이에 제한되는 것은 아니며, 어플리케이션에 의해 설정된 속성의 개수는 0 개일 수 있다. 어플리케이션을 실행하는데 요구되는 적어도 하나의 속성이 존재하지 않는 경우(730-아니오), 웨어러블 장치는 동작(740)을 수행하는 것을 우회할 수 있다. 예를 들어, 어플리케이션을 실행하는데 어느 속성도 요구되지 않는 경우, 웨어러블 장치는 동작(740)에 기반하여 적어도 하나의 속성을 획득하지 않을 수 있다.Within the state of receiving an input indicating allocation of an application to an external object (720-Yes), based on
어플리케이션을 실행하는데 요구되는 적어도 하나의 속성(예, 표 1의 어플리케이션에 의해 구분되는 속성)을 식별한 상태 내에서(730-예), 동작(740)에 기반하여, 일 실시예에 따른, 웨어러블 장치는, 적어도 하나의 속성을 획득할 수 있다. 상기 적어도 하나의 속성은, 외부 객체의 형태 및/또는 객체 인식에 기반하여 식별된 외부 객체의 카테고리에 의해 설정될 수 있다. 상기 적어도 하나의 속성은, 도 6b의 윈도우(660) 및/또는 도 6d의 윈도우(690)와 같이, 속성을 수신하기 위하여 웨어러블 장치에 의해 표시되는 팝업 윈도우의 형태를 가지는 시각적 객체를 통해 식별될 수 있다. 예를 들어, 웨어러블 장치는 동작(740)에 기반하여, 도 6b의 윈도우(660) 및/또는 도 6d의 윈도우(690)의 부분(693)과 같이, 적어도 하나의 속성을 식별하기 위한 시각적 객체를 표시할 수 있다. Within the state of identifying at least one attribute (e.g., an attribute distinguished by the application in Table 1) required to run the application (730-Yes), based on the
도 7을 참고하면, 동작(750) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체를 이용하여 어플리케이션을 실행하기 위한 정보를 저장할 수 있다. 웨어러블 장치는 메모리(예, 도 5의 메모리(520)) 내에, 동작(740)에 기반하여 획득된 적어도 하나의 속성을, 외부 객체를 인식하기 위한 정보와 함께 저장할 수 있다. 동작(750) 이후, 웨어러블 장치는 외부 객체의 모션(예, 외부 객체의 일부분의 경로), 및/또는 외부 객체에 의해 생성된 아날로그 콘텐트(예, 외부 객체에 포함된 물질에 의해 생성된 적어도 하나의 획)를 식별하는 것에 응답하여, 동작(750)에 기반하여 저장된 정보를 이용하여 어플리케이션을 실행할 수 있다. Referring to FIG. 7, within
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는, 펜과 같이, 웨어러블 장치와 통신하는 것을 지원하지 않는, 외부 객체를 등록할 수 있다. 등록된 외부 객체에 기반하여, 웨어러블 장치는 상기 외부 객체로부터 디지털 콘텐트를 획득할 수 있다. 이하에서는, 도 8a 내지 도 8b를 참고하여, 일 실시예에 따른, 웨어러블 장치가, 웨어러블 장치로 등록된 상이한 외부 객체들을 식별한 상태 내에서 표시하는 UI의 일 예가 설명된다.As described above, according to one embodiment, a wearable device may register an external object, such as a pen, that does not support communication with the wearable device. Based on the registered external object, the wearable device can acquire digital content from the external object. Below, with reference to FIGS. 8A and 8B , an example of a UI displayed by a wearable device in a state in which different external objects registered as a wearable device are identified is described, according to an embodiment.
도 8a 내지 도 8b는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 8a 내지 도 8b의 웨어러블 장치(101)를 포함할 수 있다. 도 8a 내지 도 8d를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 디스플레이(예, 도 5의 디스플레이(530))의 표시 영역 내에 포함된 상이한 외부 객체들(810, 820)에 기반하여 UI를 표시하는 상이한 상태들(801, 802, 803)이 도시된다. 외부 객체들(810, 820) 각각은, 도 6a 내지 도 6d 및/또는 도 7을 참고하여 상술된, 외부 객체를 등록함을 지시하는 입력에 응답하여 웨어러블 장치(101)로 등록된 것으로 가정한다.FIGS. 8A and 8B illustrate an example of a user interface (UI) displayed by the
도 8a를 참고하면, 상태(801) 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 표시 영역과 적어도 일부분 중첩되는 FoV를 가지는 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))를 이용하여, 외부 객체들(810, 820)을 식별할 수 있다. 웨어러블 장치(101)는 외부 객체들(810, 820) 각각의 형태 및/또는 크기에 기반하여, 외부 객체들(810, 820) 각각이 웨어러블 장치(101)에 등록된 외부 객체인지 여부를 식별할 수 있다. 상기 가정 내에서, 웨어러블 장치(101)는 외부 객체들(810, 820) 각각에 할당된 속성을 식별할 수 있다. 웨어러블 장치(101)는 상기 식별된 속성에 기반하여, 표시 영역 내에서 외부 객체들(810, 820)과 중첩으로, 상기 속성에 기반하는 하나 이상의 시각적 객체들을 표시할 수 있다. Referring to FIG. 8A, within
도 8a의 상태(801) 내에서, 디지털 노트를 생성하기 위한 노트 어플리케이션이 외부 객체(810)로 할당된 경우, 웨어러블 장치(101)는 외부 객체(810)와 연계되고, 상기 노트 어플리케이션을 표현하는, 아이콘(832)을 표시할 수 있다. 도 8a를 참고하면, 웨어러블 장치(101)는 외부 객체(810)와 중첩으로, 상기 노트 어플리케이션을 표현하는 아이콘(832)을 표시할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(810)에 인접한 일부분에 아이콘(832)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(810)로 등록된 노트 어플리케이션을 가이드하기 위한 도형(830)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(810)와 연계된 위치를 가지는 사각형의 도형(830)을 표시할 수 있다. 도형(830)의 색상은, 지정된 투명도(transparency 또는 opacity)를 가지고, 아이콘(832)의 색상을 적어도 부분적으로 포함할 수 있다. 예를 들어, 도형(830)의 색상은, 아이콘(832)의 색상 및 외부 객체(810)의 색상의 그라데이션일 수 있다. 사각형과 같은 다각형의 도형(830)이 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 폐곡선 및/또는 라인의 형태를 가지는 도형(830)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(810)와 중첩으로, 외부 객체(810)로 할당된 속성을 지시하는 텍스트를 표시할 수 있다. 노트 어플리케이션이 외부 객체(810)로 할당된 예시적인 상태(801) 내에서, 웨어러블 장치(101)는 외부 객체(810)와 중첩으로, 외부 객체(810)에 매칭된 디지털 노트의 명칭(예, "K-노트")을 표시할 수 있다. In the
도 8a의 상태(801) 내에서, 메시지를 교환하기 위한 메신저 어플리케이션이 외부 객체(820)로 할당된 경우, 웨어러블 장치(101)는 외부 객체(820)와 중첩으로, 상기 메신저 어플리케이션을 표현하는 아이콘(842)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(820)와 중첩되는 도형(840)을 이용하여, 외부 객체(820)가 웨어러블 장치(101)로 등록되었음을 강조할 수 있다. 웨어러블 장치(101)는 도형(840)의 색상을, 아이콘(842)의 색상 및/또는 외부 객체(820)의 색상 중 적어도 하나에 기반하여 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(820)와 중첩으로, 상기 메신저 어플리케이션에 기반하여 외부 객체(820)로 할당된 속성(예, 수신자)을 표시할 수 있다.In the
일 실시예에 따른, 웨어러블 장치(101)는 손(850)과 같이, 외부 객체들(810, 820)을 선택하기 위해 표시 영역 내에서 이동되는 지정된 신체 부위를 식별할 수 있다. 도 8b를 참고하면, 외부 객체(810), 및/또는 외부 객체(810)와 중첩된 시각적 객체(예, 아이콘(832))를 가리키는 손(850)을 식별하는 것에 응답하여, 웨어러블 장치(101)는 상태(802)와 같이, 외부 객체(810)에 할당된 속성을 변경하기 위한 UI를 표시할 수 있다. 상기 UI는, 표시 영역 내에서 외부 객체(810)와 중첩으로 표시될 수 있다. 상태(802) 내에서, 웨어러블 장치(101)는 외부 객체(810)로 매칭된 노트 어플리케이션에 기반하여, 외부 객체(810)에 할당된 속성을 변경하기 위한 상기 UI를 표시할 수 있다. 상기 UI는, 외부 객체(810)에 의해 상기 노트 어플리케이션에 추가될 적어도 하나의 획의 스타일을 조절하기 위한 버튼(834)(예, "펜 설정"과 같은 지정된 텍스트를 포함하는 버튼(834))을 포함할 수 있다. 상기 UI는, 외부 객체(810)를 추적하여 획득된 정보가 추가될 디지털 노트를 선택하기 위한 버튼(836)(예, "노트 설정"과 같은 지정된 텍스트를 포함하는 버튼(836))을 포함할 수 있다. 버튼들(834, 836) 중 어느 하나를 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 상기 입력에 의해 선택된 버튼에 대응하는 속성을 변경하기 위한 윈도우를, 표시 영역 내에 표시할 수 있다. According to one embodiment, the
도 8b를 참고하면, 외부 객체들(810, 820) 중에서, 외부 객체(820)를 가리키는 손(850)을 식별하는 것에 응답하여, 웨어러블 장치(101)는 상태(803)와 같이, 외부 객체(820)에 할당된 속성을 변경하기 위한 UI를 표시할 수 있다. 상기 UI를 표시하기 위한 제스쳐는, 상술된 손(850)의 제스쳐에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는, 사용자(예, 도 1의 사용자(110))의 시선의 방향을 나타내는 데이터를 이용하여, 상기 사용자가 외부 객체(820)를 지정된 기간을 초과하여 응시함을 식별하는 것에 기반하여, 상기 UI를 표시할 수 있다. 상기 UI를 통해 변경되는 상기 속성은, 외부 객체(820)로 매칭된 메신저 어플리케이션에 의해 설정될 수 있다. 상태(803) 내에서, 웨어러블 장치(101)는 외부 객체(820)를 추적하여 획득된 정보를 포함하는 메시지를 수신할 상대방(counterpart)을 변경하기 위한 버튼(844)(예, "수신자 변경"과 같은 지정된 텍스트를 포함하는 버튼(844))을 표시할 수 있다. 웨어러블 장치(101)는 버튼(844)을, 외부 객체(820)와 중첩으로 표시할 수 있다. 버튼(844)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 연락처 리스트와 같이, 상기 상대방을 변경하기 위한 UI를 표시할 수 있다.Referring to FIG. 8B, in response to identifying the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)로 등록된 외부 객체(예, 외부 객체들(810, 820))와 중첩으로, 상기 외부 객체로 할당된 하나 이상의 속성들에 기반하는 시각적 객체를 표시할 수 있다. 외부 객체들(810, 820)과 같이, 웨어러블 장치(101)로 등록된 외부 객체를 식별하는 것에 기반하여, 웨어러블 장치(101)는 상기 식별된 외부 객체를 추적할 수 있다. 외부 객체를 추적하여 획득된 정보는, 외부 객체로 할당된 속성에 의해 선택된 외부 객체의 일부분의 경로, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획에 대한 정보를 포함할 수 있다. 상기 정보에 기반하여, 웨어러블 장치(101)는 상기 외부 객체에 매칭된 적어도 하나의 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)가 통신 회로와 독립적으로 생산된 외부 객체의 모션에 기반하여 상기 어플리케이션을 실행하기 때문에, 웨어러블 장치(101)는, 사용자가 웨어러블 장치(101)를 보다 다양한 도구들(tools)을 이용하여 제어하는 것을 가능하게 만들 수 있다.As described above, according to one embodiment, the
이하에서는, 일 실시예에 따른 웨어러블 장치(101)가 외부 객체를 추적하여 획득된 정보에 기반하여, 상기 외부 객체에 매칭된 적어도 하나의 어플리케이션을 실행하는 케이스들이 설명된다. 예를 들어, 도 9a 내지 도 9c, 도 10 내지 도 11을 참고하여, 웨어러블 장치(101)가 노트 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 12a 내지 도 12b를 참고하여, 웨어러블 장치(101)가 캘린더 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 13을 참고하여, 웨어러블 장치(101)가 메신저 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 14를 참고하여, 웨어러블 장치(101)가 녹음 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 15a 내지 도 15b를 참고하여, 웨어러블 장치(101)가 하나의 외부 객체로 할당된 복수의 어플리케이션들을 실행하는 일 예가 설명된다.Below, cases in which the
도 9a 내지 도 9c는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 9a 내지 도 9c의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 텍스트, 이미지 및/또는 비디오가 결합된 디지털 노트와 같은 디지털 콘텐트를 생성하기 위한 노트 어플리케이션이 외부 객체(130)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 노트 어플리케이션을 외부 객체(130)로 등록함을 지시하는 입력을 식별할 수 있다. FIGS. 9A to 9C illustrate an example of an operation in which the
도 9a를 참고하면, 상태(901) 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)를 추적할 수 있다. 웨어러블 장치(101)가 외부 객체(130)를 추적하는 것은, 웨어러블 장치(101) 및/또는 단말(120)에 의해 실행되는 어플리케이션에 기반하여 수행될 수 있다. 웨어러블 장치(101)는 표시 영역과 적어도 부분적으로 중첩된 FoV를 가지는 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))를 이용하여, 외부 객체(130)를 식별 및/또는 추적할 수 있다. 외부 객체(130)를 식별하는 동작은, 외부 객체(130)로 할당된 하나 이상의 어플리케이션들을 식별하는 동작을 포함할 수 있다. 외부 객체(130)를 식별한 상태(901) 내에서, 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(130)와 인접한 일부분에, 외부 객체(130)에 매칭된 노트 어플리케이션을 표현하는 아이콘(920)을 표시할 수 있다.Referring to FIG. 9A , within
도 9a를 참고하면, 외부 객체(130)를 추적하는 상태(901) 내에서, 웨어러블 장치(101)는 표시 영역 내에 외부 객체(130)를 추적하여 획득된 정보에 기반하는 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)가 외부 객체(130)의 일부분(예, 펜촉(pen tip)에 대응하는 지점(P))의 경로를 추적하는 상태(901) 내에서, 웨어러블 장치(101)는 표시 영역 내에 상기 경로를 표현한 가상 객체(930)를 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(130) 및 웨어러블 장치(101) 사이의 거리에 기반하여, 일 평면(예, 노트(910)에 의해 형성된 평면) 상에 접촉되는 외부 객체(130)의 경로를 식별할 수 있다. 예를 들어, 외부 객체(130) 및 상기 평면 사이의 접촉을 식별하는 것에 기반하여, 웨어러블 장치(101)는 상기 경로를 추적할 수 있다. 웨어러블 장치(101)는 표시 영역 내에 상기 추적된 경로를 표현하는 가상 객체(930)를 표시할 수 있다.Referring to FIG. 9A, within the
도 9a를 참고하면, 라인 및/또는 획의 형태를 가지는 가상 객체(930)가 웨어러블 장치(101)에 의해 표시된 예시적인 상태(901)가 도시되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는, 외부 객체(130)의 형태 및/또는 사용자(110)에 의해 선택된 외부 객체(130)의 일부분의 형태에 기반하여, 가상 객체(930)에 포함된 획의 두께, 색상 및/또는 패턴을 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성(예, 도 6d의 부분(693)을 통해 설정된 속성)에 기반하여, 가상 객체(930) 내에 포함된 획의 색상, 투명도, 또는 두께 중 적어도 하나를 설정할 수 있다. 예를 들어, 가상 객체(930) 내에 포함된 획의 색상은, 외부 객체(130)로 할당된 속성에 의해 특정 색상으로 설정되거나, 또는 표시 영역 내에서 외부 객체(130)에 인접한 제1 색상(예, 백그라운드 색상)에 기반하는 제2 색상(에, 상기 제1 색상이 반전된 제2 색상)으로 설정될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 표시 영역 내 색상 분포에 기반하여, 상기 획의 색상을 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 색상 분포에, 상기 표시 영역의 부분들 각각에 할당된 가중치들을 적용하여, 상기 색상 분포로부터 대표 색상을 식별할 수 있다. 웨어러블 장치(101)는 상기 대표 색상을 반전하여, 상기 획의 색상을 설정할 수 있다. 웨어러블 장치(101)는, 명도, 채도 및/또는 색 공간(color space) 내에서의 색상들 사이의 거리에 기반하여, 색상을 반전할(invert) 수 있다.Referring to FIG. 9A , an
비록, 웨어러블 장치(101)가 외부 객체(130)의 지점(P)의 경로를 추적하는 일 실시예가 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130)로부터 출력된 물질(예, 잉크 및/또는 흑연)에 의해 그려진 적어도 하나의 획을 식별할 수 있다. 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성에 기반하여, 지점(P)의 경로 또는 상기 물질 중 어느 하나를 선택적으로(selectively) 추적할 수 있다.Although an embodiment in which the
도 9a를 참고하면, 외부 객체(130)를 추적하는 상태(901) 내에서, 웨어러블 장치(101)는 외부 객체(130)를 추적하여 획득된 정보(예, 가상 객체(930)를 표시하기 위한 정보)를 이용하여 어플리케이션(예, 아이콘(920)에 대응하는 노트 어플리케이션)을 실행하기 위한 버튼(940)을 표시할 수 있다. 버튼(940)은, 상기 어플리케이션을 실행하기 위한 지정된 텍스트(예, 확인("done"))를 포함할 수 있다. 버튼(940)은, 표시 영역 내에서 외부 객체(130)의 위치에 기반하여 표시될 수 있다. 버튼(940)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 노트 어플리케이션을 실행할 수 있다. 실시예가 이에 제한되지 않으며, 웨어러블 장치(101)는 상기 입력 이전에(예, 외부 객체(130)를 식별한 시점), 상기 노트 어플리케이션을 실행하고, 버튼(940)과 관련된 상기 입력에 기반하여, 상기 노트 어플리케이션의 기능을 실행할 수 있다. 일 실시예에서, 웨어러블 장치(101)는 상기 입력에 응답하여 단말(120)로, 단말(120)에 설치된 노트 어플리케이션을, 상기 정보에 기반하여 실행하기 위한 신호를 송신할 수 있다.Referring to FIG. 9A, within the
도 9를 참고하면, 웨어러블 장치(101)가 버튼(940)과 관련된 입력에 기반하여, 외부 객체(130)에 대응하는 노트 어플리케이션을 실행하는 일 실시예가 도시되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는, 버튼(940)을 표시하는 것과 독립적으로, 외부 객체(130)의 지점(P)의 경로를 추적할 수 있다. 웨어러블 장치(101)는 외부 객체(130)를 추적하여 획득된 정보에 기반하여, 버튼(940)과 독립적으로 노트 어플리케이션을 실행할 수 있다. Referring to FIG. 9 , an embodiment in which the
노트 어플리케이션이 실행된 상태 내에서, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성(예, 노트 어플리케이션에 대하여, 외부 객체(130)에 의해 그려진 손 글씨가 저장될 디지털 노트)에 기반하여, 노트 어플리케이션에 의해 지원되는 상이한 기능들 중에서, 상기 속성에 매칭되는 적어도 하나의 기능을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 가상 객체(930)에 의해 표현된 이미지 및/또는 적어도 하나의 문자를, 노트 어플리케이션에 의해 웨어러블 장치(101) 내에 저장된 디지털 노트 내에 추가할 수 있다. 예를 들어, 가상 객체(930)에 의해 표현된 이미지 및/또는 적어도 하나의 문자가, 웨어러블 장치(101) 및/또는 단말(120)의 노트 어플리케이션의 실행에 기반하여, 웨어러블 장치(101) 및/또는 단말(120)의 표시 영역 내에 표시될 수 있다. 웨어러블 장치(101)는 가상 객체(930)와 같이, 외부 객체(130)에 의해 생성된 정보(예, 디지털 콘텐트)를, 외부 객체(130)에 대응하는 상기 노트 어플리케이션의 실행에 기반하여, 웨어러블 장치(101) 내에 저장할 수 있다. In a state in which the note application is executed, the
일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)를 쥔 손(140)의 자세에 기반하여, 외부 객체(130)를 추적하여 획득된 정보에 의해 추가되는 획의 색상, 두께 또는 투명도 중 적어도 하나를 변경할 수 있다. 도 9b를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 손(140)의 자세에 기반하여, 외부 객체(130)에 대한 속성을 변경하는 예시적인 상태들(901, 902, 903)이 도시된다. 도 9b를 참고하면, 상태(901) 이후의 상태(902) 내에서, 웨어러블 장치(101)는 손(140)에 포함된 집게 손가락을 펼치는 자세를 식별할 수 있다. 웨어러블 장치(101)는 집게 손가락의 손끝(fingertip) 내 지점(F)의 위치 및/또는 궤적에 기반하여, 외부 객체(130)로 할당된 속성을 변경할 수 있다. According to one embodiment, the
도 9b의 상태(902) 내에서, 웨어러블 장치(101)는 표시 영역 내에서 지점(F)에 인접한 일부분의 색상에 기반하여, 외부 객체(130)의 지점(P)의 경로에 의해 연장되는 획의 색상 및/또는 패턴을 변경할 수 있다. 예를 들어, 집게 손가락을 펼치는 자세는, 외부 객체(130)에 의해 그려지는 획의 색상을 선택하기 위한 도구(예, 스포이드)에 대응할 수 있다. 집게 손가락을 펼치는 손(140)의 자세를 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에서 상기 도구를 가이드하기 위한 아이콘(922)(예, 스포이드를 표현한 아이콘(922))을 표시할 수 있다. 웨어러블 장치(101)는 손(140)에 인접한 표시 영역의 일부분에 아이콘(922)을 표시할 수 있다. Within
일 실시예에 따른, 웨어러블 장치(101)는 손끝의 지점(F)에 기반하여, 획의 색상을 변경함을 지시하는 입력을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내 일부분으로 지점(F)을 이동한 다음, 손끝을 반복적으로 움직일 수 있다. 반복적으로 이동되는 손끝(예, 지점(F1) 및 지점(F2) 사이에서, 경로(T1)를 따라 반복적으로 이동되는 손끝)을 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에서 지점(F)에 인접한 일부분의 색상을 선택할 수 있다. 웨어러블 장치(101)는 선택된 색상에 기반하여, 아이콘(922)의 색상(예, 아이콘(922)의 외곽선의 색상)을 변경할 수 있다. 상태(902) 내에서, 지점(F)과 관련된 제스쳐에 기반하여 색상을 변경한 이후, 웨어러블 장치(101)는 외부 객체(130)의 경로를 따라, 변경된 색상을 가지는 획을 추가할 수 있다. According to one embodiment, the
일 실시예에서, 웨어러블 장치(101)가 손끝에 대한 제스쳐를 이용하여 수행하는 동작은, 상술된 색상의 선택 및/또는 변경에 제한되지 않는다. 손끝을 원의 형태로 회전하는 제스쳐를 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성에 의해 지시되는 색상 및 손끝 내 지점(F)에 인접한 다른 색상을 혼합할 수 있다. 웨어러블 장치(101)는 외부 객체(130)의 경로의 형태를 가지고, 상기 혼합된 색상을 가지는 획을 추가할 수 있다. 예를 들어, 외부 객체(130)의 지점(P)의 경로에 의해 그려지는 획의 색상(예, 가상 객체(930) 내에 포함된 획들의 색상)이 황색(yellow)이고, 지점(F)에 인접한 다른 색상이 흰색인 경우, 웨어러블 장치(101)는, 손끝이 원의 형태로 회전되는 수에 기반하여, 상기 획의 색상을 점진적으로 흰색으로 변경할 수 있다. 웨어러블 장치(101)는 손끝의 회전 방향에 기반하여, 색상들의 혼합을 다르게 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는 시계 방향을 따라 회전하는 손끝의 제스쳐를 식별하는 경우, 외부 객체(130)로 할당된 속성에 의해 지시되는 제1 색상, 및 손끝 내 지점(F)의 제2 색상이 혼합되는 비율을, 상기 제2 색상의 비중이 증가되도록 변경할 수 있다. 상기 예시 내에서, 반시계 방향을 따라 회전하는 손끝의 제스쳐를 식별하는 경우, 웨어러블 장치(101)는 상기 비율을, 상기 제1 색상의 비중이 증가되도록 변경할 수 있다.In one embodiment, the operation performed by the
일 실시예에서, 웨어러블 장치(101)가 식별하는 집게 손가락의 자세는, 집게 손가락을 펼치는 자세에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는, 집게 손가락 내에 포함된 관절들의 각도를 이용하여, 상기 집게 손가락이 펼쳐지거나, 또는 구부려졌는지 여부를 식별할 수 있다. 구부러진 집게 손가락의 자세(예, 지점(F3)를 향하여 휘어진 집게 손가락)를 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(130)의 지점(P)에 인접한 일부분의 패턴을 추출하는 기능을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 자세를 식별한 이후, 상기 패턴을 추출하는 기능이 실행됨을 지시하는 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)는 상기 기능이 실행된 상태 내에서, 외부 객체(130)의 지점(P)을 포함하는 표시 영역의 일부분을 식별할 수 있다. 웨어러블 장치(101)는 식별된 일부분에 기반하여, 외부 객체(130)의 지점(P)의 경로에 획을 추가할 수 있다. In one embodiment, the posture of the index finger identified by the
도 9b를 참고하면, 상태(903) 내에서, 웨어러블 장치(101)는 상태(902) 내에서 식별된 손(140)의 자세에 의하여 변경된 속성에 기반하여, 외부 객체(130)의 지점(P)의 경로를 표현한 획(932)을 표시할 수 있다. 웨어러블 장치(101)가 펼쳐진 집게 손가락에 기반하여 색상을 선택함을 지시하는 입력을 식별한 경우, 상태(903) 내에서, 획(932)의 색상은 상기 입력에 의해 선택된 색상을 가질 수 있다. 웨어러블 장치(101)가 원의 형태로 회전하는 손끝에 기반하여 색상들을 혼합함을 지시하는 입력을 식별한 경우, 상태(903) 내에서, 획(932)의 색상은 상기 입력에 의해 혼합된 색상을 가질 수 있다. 웨어러블 장치(101)가 구부러진 집게 손가락에 기반하여 패턴을 선택함을 지시하는 입력을 식별한 경우, 상태(903) 내에서, 획(932)의 색상은 상기 입력에 의해 선택된 패턴을 가질 수 있다.Referring to FIG. 9B, within
일 실시예에서, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성을 변경하기 위하여, 외부 객체(130)를 터치하는 손(140)의 움직임을 식별할 수 있다. 도 9c를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 표면 상의 지점(Q)으로부터 방향(950)을 따라 외부 객체(130)를 문지르는(rubbing) 제스쳐(예, 드래그 제스쳐)를 식별한 예시적인 상태(904)가 도시된다. 상기 제스쳐는, 외부 객체(130)를 쥔 손(140)의 손가락(예, 집게 손가락)에 의해 수행될 수 있다. 상기 제스쳐를 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성 중 적어도 하나를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는 채도 및/또는 투명도를 증가시킬 수 있다. 유사하게, 외부 객체(130)의 표면 상에서 방향(950)과 반대되는 다른 방향으로 외부 객체(130)를 문지르는 손가락을 식별하는 경우, 웨어러블 장치(101)는 상기 채도 및/또는 상기 투명도를 감소시킬 수 있다. In one embodiment, the
일 실시예에서, 웨어러블 장치(101)가 외부 객체(130)를 터치하는 손(140)의 움직임을 식별하는 것은, 외부 객체(130)가 연장된 방향을 따라 수행되는 드래그 제스쳐에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130) 상의 지점(Q)을 지정된 기간(예, 1.5 초)을 초과하여 터치하는 제스쳐(예, 롱 탭 제스쳐)를 식별하는 것에 기반하여, 외부 객체(130)로 할당된 적어도 하나의 속성을 변경하기 위한 시각적 객체를 표시할 수 있다. 도 9c의 예시적인 상태(904) 내에서, 지점(Q)에 대한 롱 탭 제스쳐를 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에 상기 적어도 하나의 속성을 변경하기 위한 버튼들(962, 964, 966)을 표시할 수 있다. 버튼(962)은, 버튼들(964, 966)의 표시를 중단하기 위한 기능에 대응할 수 있다. 버튼(964)은, 외부 객체(130)의 지점(P)의 경로를 따라 추가될 획의 투명도를 변경하기 위한 기능에 대응할 수 있다. 웨어러블 장치(101)는 버튼(964) 내에, 투명도의 변경을 가이드하기 위한 지정된 텍스트(예, "opacity")를 표시할 수 있다. 버튼(966)은, 외부 객체(130)의 지점(P)의 경로를 따라 추가될 획의 채도를 변경할 수 있다. 웨어러블 장치(101)는 버튼(966) 내에, 채도의 변경을 가이드하기 위한 지정된 텍스트(예, "saturation")를 표시할 수 있다. In one embodiment, the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 지점(P)의 경로를 추적할 수 있다. 추적된 경로에 기반하여, 웨어러블 장치(101)는 표시 영역 내에 상기 추적된 경로를 표현하는 가상 객체(예, 가상 객체(930) 및/또는 획(932))를 표시할 수 있다. 상기 가상 객체는 외부 객체(130)로 할당된 속성(예, 획 두께, 색상 및/또는 패턴)과 관련될 수 있다. 웨어러블 장치(101)는 외부 객체(130)를 쥔 손(140)의 자세에 기반하여, 상기 속성을 적어도 부분적으로 변경할 수 있다. 웨어러블 장치(101)는, 외부 객체(130) 및 웨어러블 장치(101) 사이의 전기적인 통신과 독립적으로, 외부 객체(130) 및/또는 외부 객체(130)를 쥔 손(140)을 추적하여, 디지털 콘텐트를 획득할 수 있다. 도 9b의 상태(903) 내에서, 웨어러블 장치(101)는 버튼(940)을 선택함을 지시하는 입력에 응답하여, 가상 객체(930) 및 획(932)을 포함하는 디지털 노트를, 노트 어플리케이션의 실행에 기반하여, 메모리(예, 도 5의 메모리(520)) 내에 저장할 수 있다.As described above, the
도 9a 내지 도 9c를 참고하여, 웨어러블 장치(101)의 표시 영역과 적어도 부분적으로 중첩된 FoV를 가지는 카메라를 이용하여 외부 객체(130)에 대한 모션을 추적하는 일 실시예가 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 이하에서는, 도 10을 참고하여, 일 실시예에 따른, 웨어러블 장치(101)가 상기 카메라와 상이한 다른 카메라를 이용하여 상기 모션을 추적하는 동작의 일 예가 설명된다.With reference to FIGS. 9A to 9C , an embodiment of tracking the motion of an
도 10은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)의 추적을 위한 카메라를 전환하는 동작의 일 예를 도시한다. 도5의 웨어러블 장치(101)는, 도 10의 웨어러블 장치(101)를 포함할 수 있다. 도 10을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)의 디스플레이(예, 도 5의 디스플레이(530))에 의해 형성된 표시 영역과 중첩된 FoV를 가지는 제1 카메라(1012) 및 상기 제1 카메라와 상이한 방향 및/또는 FoV를 가지는 제2 카메라(1014)를 포함할 수 있다. 도 10의 상기 제1 카메라(1012) 및 제2 카메라(1014)는 도 5의 카메라(540)의 일 예일 수 있다.FIG. 10 shows an example of an operation in which the
도 10을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 제1 카메라(1012) 및 제2 카메라(1014)를 이용하여 외부 객체(130)를 추적하는 예시적인 상태가 도시된다. 예를 들어, 시점 t1 내에서, 표시 영역과 중첩된 FoV를 가지는 제1 카메라(1012)를 이용하여 웨어러블 장치(101)로 등록된 외부 객체(130)를 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성을 이용하여, 외부 객체(130)와 관련된 정보를 획득할 수 있다. 시점 t1 내에서, 웨어러블 장치(101)는 외부 객체(130)의 지점(P)의 경로를 추적하여, 웨어러블 장치(101)의 표시 영역 내에 상기 추적된 경로를 지시하는 가상 객체(1020)(예, 획)를 표시할 수 있다.Referring to FIG. 10 , an example state in which the
일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101) 내 카메라들의 FoV들 사이에서 이동되는 외부 객체(130)를 식별하는 것에 기반하여, 상기 카메라들 중 어느 하나를 선택할 수 있다. 사용자(예, 도 1의 사용자(110))가 웨어러블 장치(101)를 착용한 상태 내에서, 상기 사용자의 머리의 모션에 기반하여, 외부 객체(130)가 제1 카메라(1012)의 FoV의 밖으로 이동될 수 있다. 시점 t2 내에서, 외부 객체(130)는 제1 카메라(1012)의 FoV의 밖으로 이동되고, 상기 제1 카메라(1012)와 상이한 제2 카메라(1014)의 FoV 내에 포함될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 제1 카메라(1012)로부터 획득된 프레임들에 기반하여, 외부 객체(130)가 표시 영역 및/또는 제1 카메라(1012)의 FoV의 밖으로 이동됨을 식별할 수 있다. 외부 객체(130)가 표시 영역의 밖으로 이동됨을 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)를 향하는 제2 카메라(1014)를 이용하여, 외부 객체(130)의 경로를 추적할 수 있다. According to one embodiment, the
도 10을 참고하면, 제2 카메라(1014)를 이용하여 외부 객체(130)를 추적하는 시점 t2 내에서, 웨어러블 장치(101)는 표시 영역 내에, 제2 카메라(1014)에 의해 추적된 외부 객체(130)와 관련된 정보를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체(130)의 지점(P)의 경로가 표현된 가상 객체(1030)를 표시할 수 있다. 가상 객체(1030)는, 제2 카메라(1014)에 의해 추적된 외부 객체(130)의 지점(P)의 경로, 및 시점 t2 이전에 제2 카메라(1014)와 상이한 제1 카메라(1012)에 의해 추적된 외부 객체(130)의 지점(P)의 경로가 결합된 라인을 포함할 수 있다. 표시 영역 내에서 가상 객체(1030)가 표시되는 지점은, 도 10의 일 예에 제한되지 않는다.Referring to FIG. 10, within a time point t2 at which an
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는, 표시 영역과 중첩되는 제1 카메라(1012)를 이용하여 외부 객체(130)를 추적하는 상태 내에서, 표시 영역의 밖으로 이동되는 외부 객체(130)에 기반하여, 상기 제1 카메라(1012)와 상이한 제2 카메라(1014)를 이용하여 외부 객체(130)를 계속적으로 추적할 수 있다. 웨어러블 장치(101)의 상이한 카메라들을 이용하여 외부 객체(130)를 추적하기 때문에, 웨어러블 장치(101)는, 웨어러블 장치(101) 및 외부 객체(130) 사이의 위치 관계와 독립적으로, 외부 객체(130)를 추적할 수 있다. 외부 객체(130)가 표시 영역의 밖으로 이동되는 경우, 외부 객체(130)를 추적하여 획득된 정보를 시각화하기 위하여, 웨어러블 장치(101)는 표시 영역 내에 가상 객체(1030)를 표시할 수 있다. 가상 객체(1030)를 이용하여, 웨어러블 장치(101)는 사용자의 FoV의 밖으로 이동된 외부 객체(130)의 모션을, 상기 사용자에게 알릴 수 있다.As described above, according to one embodiment, the
이하에서는, 도 11을 참고하여, 사용자의 FoV의 밖으로 이동된 외부 객체(130)의 모션에 기반하여, 표시 영역 내에 가상 객체(1030)를 표시하는 웨어러블 장치(101)의 동작의 일 예가 설명된다.Below, with reference to FIG. 11 , an example of an operation of the
도 11은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여 표시하는 UI의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 11의 웨어러블 장치(101)를 포함할 수 있다. 도 11의 웨어러블 장치(101)는, 도 10의 웨어러블 장치(101)의 일 예일 수 있다. 예를 들어, 도 11의 제1 카메라(1012) 및 제2 카메라(1014)는 도 10의 제1 카메라(1012) 및 제2 카메라(1014)를 포함할 수 있다.FIG. 11 illustrates an example of a UI that the
도 11을 참고하면, 웨어러블 장치(101)의 표시 영역과 상이한 FoV를 가지는 제2 카메라(1014)를 이용하여 외부 객체(130)를 추적하는 예시적인 상태가 도시된다. 도 11의 상태 내에서, 웨어러블 장치(101)는 외부 객체(130)를 추적하여 획득된 정보를 표시 영역의 일부분(1120) 내에 표시할 수 있다. 일부분(1120) 내에서, 웨어러블 장치(101)는 평면(1110) 상에 접촉된 외부 객체(130)의 경로를 표현하는 하나 이상의 획들을 표시할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 상기 경로로부터 하나 이상의 문자들을 식별할 수 있다. 예를 들어, 시점 t1 내에서, 웨어러블 장치(101)는 "hello"와 같이, 일 라인을 따라 배열된 복수의 문자들을 식별할 수 있다. 웨어러블 장치(101)가 상기 복수의 문자들을 식별하는 것은, 웨어러블 장치(101) 및/또는 웨어러블 장치(101)에 연결된 외부 전자 장치(예, 도 1의 단말(120))에 의해 수행될 수 있다. 웨어러블 장치(101)는 상기 복수의 문자들을 식별하는 것에 기반하여, 표시 영역의 일부분(1120) 내에, 상기 복수의 문자들을 표현한 가상 객체(1131)를 표시할 수 있다. 상기 가상 객체(1131)는, 평면(1110) 상에 접촉된 외부 객체(130)의 경로의 형태를 가질 수 있다.Referring to FIG. 11 , an example state in which an
도 11을 참고하면, 웨어러블 장치(101)는 외부 객체(130)의 모션에 기반하여, 복수의 문자들이 배열된 라인을 추가함을 지시하는 제스쳐를 식별할 수 있다. 알파벳들을 식별하는 도 11의 예시적인 상태 내에서, 웨어러블 장치(101)는 좌측으로부터 우측으로 향하는 방향을 따라 기록된 복수의 문자들을 식별할 수 있다. 상기 상태 내에서, 웨어러블 장치(101)는 우측으로부터 좌측으로 이동된 외부 객체(130)를 식별하는 것에 기반하여, 상기 복수의 문자들이 배열된 제1 라인과 상이한 제2 라인을 이용하여, 외부 객체(130)의 경로에 의해 표현된 새로운 문자를 인식할 수 있다. 시점 t2를 참고하면, 웨어러블 장치(101)는 평면(1110) 내에서, 평면(1110)의 좌측으로부터 우측으로 향하는 방향을 따라 기록된 문자들("WORLD")을 식별할 수 있다. 웨어러블 장치(101)는 시점 t2 내에서, 시점 t1 내에서 식별된 문자들("hello")이 배치된 라인과 상이한 라인 내에, 문자들("WORLD")이 배치된 가상 객체(1132)를, 일부분(1120) 내에 표시할 수 있다. 유사하게 시점 t2 내지 시점 t3 사이에서, 웨어러블 장치(101)는 평면(1110)의 좌측으로 다시 이동되는 외부 객체(130)를 식별하는 것에 기반하여, 문자들("hello")이 배치된 제1 라인, 및 문자들("WORLD")이 배치된 제2 라인과 상이한 라인 내에, 외부 객체(130)의 지점(P)을 추적하여 획득된 문자들("glasses")을 추가할 수 있다. 시점 t3 내에서 웨어러블 장치(101)의 표시 영역 내 일부분(1120)에 표시되는 가상 객체(1133)는, 문자들("hello", "WORLD", "glasses") 각각이 상이한 3개의 라인들을 통해 표시될 수 있다. Referring to FIG. 11 , the
상술한 바와 같이, 웨어러블 장치(101)는 문자가 배열된 방향 및 외부 객체(130)의 방향을 비교하여, 복수의 문자들이 배열된 라인을 추가함을 지시하는 제스쳐를 식별할 수 있다. 예를 들어, 영어와 같이, 라인 내에서 좌측으로부터 우측으로 문자들이 배열되는 언어의 경우, 웨어러블 장치(101)는 우측으로부터 좌측으로 이동되는 외부 객체(130)를 탐지하는 것에 기반하여, 상기 제스쳐를 식별할 수 있다. 예를 들어, 아랍어와 같이, 우측으로부터 좌측으로 문자들이 배열되는 언어의 경우, 웨어러블 장치(101)는 좌측으로부터 우측으로 이동되는 외부 객체(130)를 식별하는 것에 기반하여, 상기 제스쳐를 식별할 수 있다. 웨어러블 장치(101)가 외부 객체(130)의 방향을 이용하여, 외부 객체(130)에 의해 그려지는 문자들이 배열된 라인을 추가하기 때문에, 웨어러블 장치(101)는 단일 라인의 사이즈를 가지는 평면(1110)에 기반하여, 복수의 라인들을 따라 배열된 문자들을 인식하는 것을 지원할 수 있다.As described above, the
도 12a 내지 도 12b는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 12a 내지 도 12b의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 스케쥴을 저장하기 위한 캘린더 어플리케이션이 외부 객체(130)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 캘린더 어플리케이션을 외부 객체(130)로 등록함을 지시하는 입력을 식별할 수 있다. FIGS. 12A and 12B illustrate an example of an operation in which the
도 12a를 참고하면, 캘린더 어플리케이션에 매칭된 외부 객체(130)를 식별한 상태(1201) 내에서, 웨어러블 장치(101)는 표시 영역 내에 상기 캘린더 어플리케이션을 표현하는 아이콘(1210)을 표시할 수 있다. 아이콘(1210)과 함께, 웨어러블 장치(101)는 외부 객체(130)와 중첩으로, 외부 객체(130)로 할당된 속성을 지시하는 시각적 객체를 표시할 수 있다. 도 12a의 예시적인 상태(1201) 내에서, 웨어러블 장치(101)는 캘린더 어플리케이션에 등록된 계정들 중에서, 외부 객체(130)로 매칭된 계정을 지시하는 텍스트(1220)(예, "A 계정")를, 외부 객체(130)와 중첩으로 표시할 수 있다. Referring to FIG. 12A, in the
도 12a의 상태(1201) 내에서, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성에 기반하여, 외부 객체(130)의 일부분의 경로, 또는 외부 객체(130)에 포함된 물질에 의해 그려진 적어도 하나의 획을 추적할 수 있다. 예를 들어, 외부 객체(130)의 일 단(예, 외부 객체(130)의 펜촉)으로부터 연장된 잉크를 추적하도록 설정된 속성을 식별한 상태(1201) 내에서, 웨어러블 장치(101)는 상기 잉크에 의해 그려진 적어도 하나의 획을 식별할 수 있다. 웨어러블 장치(101)는 상기 적어도 하나의 획에 의해 표현된 문자(도 12a의 일 예에서, "11/1 휴가")를 식별할 수 있다. 웨어러블 장치(101)는, 웨어러블 장치(101)와 연결된 단말(120) 및/또는 서버(122)를 이용하여, 상기 적어도 하나의 획으로부터 문자를 인식한 결과를 획득할 수 있다. 예를 들어, 웨어러블 장치(101)의 연산량을 감소시키기 위하여, 웨어러블 장치(101)는 단말(120) 및/또는 서버(122)로, 상기 잉크에 의해 그려진 획들로부터 문자를 인식할 것을 요청할 수 있다. 웨어러블 장치(101)의 상기 연산량의 감소는, 웨어러블 장치(101)로부터 방출되는 열을 줄일 수 있다.Within
외부 객체(130)로부터 출력된 잉크에 의해 그려진 문자를 식별한 도 12a의 상태(1201) 내에서, 웨어러블 장치(101)는 외부 객체(130)로 매칭된 캘린더 어플리케이션을 실행하기 위한 버튼(1230)을 선택함을 지시하는 입력을 식별할 수 있다. 상기 입력에 응답하여, 웨어러블 장치(101)는 상기 잉크에 의해 그려진 문자들(예, "11/1 휴가")에 기반하여, 캘린더 어플리케이션을 실행할 수 있다. 일 실시예에서, 웨어러블 장치(101)는, 상기 입력 이전에 실행된 캘린더 어플리케이션을 이용하여, 상기 문자들에 기반하는 기능을 실행할 수 있다. 웨어러블 장치(101)는, 외부 객체(130)에 의해 그려진 문자를 식별하는 것에 기반하여, 버튼(1230)과 관련된 상기 입력을 수신하기 이전에, 캘린더 어플리케이션을 실행하여, 상기 식별된 문자와 관련된 기능을 실행할 수 있다. 예를 들어, 캘린더 어플리케이션이 실행된 상태에서, 웨어러블 장치(101)는 텍스트(1220)에 의해 지시되는 계정 내에, 상기 문자들에 포함된 정보에 기반하는 스케쥴 데이터를 추가할 수 있다.In the
도 12b를 참고하면, 도 12a의 상태(1201) 내에서 버튼(1230)을 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)가 스케쥴 데이터를 추가하기 위한 윈도우(1240)를 표시한 상태(1202)가 도시된다. 상태(1202) 내에서, 웨어러블 장치(101)는 상태(1201) 내에서 식별된 문자들에 기반하여, 스케쥴 데이터를 추가하기 위한 윈도우(1240)를 표시할 수 있다. 윈도우(1240) 내에서, 웨어러블 장치(101)는, 상기 스케쥴 데이터의 생성을 위해 요구되는 파라미터들(예, 일정 제목, 및 시간)을 표시할 수 있다. 웨어러블 장치(101)는 상태(1201) 내에서 외부 객체(130)를 추적하여 획득된 정보(예, 상기 문자들)에 기반하여, 상기 파라미터들을 변경할 수 있다. 예를 들어, 윈도우(1240) 내에 포함되고, 스케쥴 데이터의 명칭을 나타내는 파라미터(예, "일정 제목"의 필드 명칭을 가진 파라미터)는, 상태(1201) 내에서 식별된 문자들 중 일부분(예, "휴가")을 포함할 수 있다. 예를 들어, 윈도우(1240) 내에 포함되고, 스케쥴 데이터의 시간을 나타내는 파라미터(예, "시간"의 필드 명칭을 가진 파라미터)는, 상태(1201) 내에서 식별된 문자들 중 일부분(예, "11/1")에 의해 표현된 날짜 및/또는 시간을 포함할 수 있다. 상기 파라미터들 및 상태(1201) 내에서 식별된 문자들이 매칭되는 것은, 자연어 처리(natural language processing)를 위해 웨어러블 장치(101) 및/또는 서버(122)에 의해 실행되는 엔진(예, 자연어 엔진(natural language unit, NLU))에 의해 수행될 수 있다.Referring to FIG. 12B, the
도 12b를 참고하면, 웨어러블 장치(101)는 윈도우(1240) 내에서, 윈도우(1240)를 통해 표시된 파라미터들에 기반하는 스케쥴 데이터를 추가하기 위한 버튼(1242)을 표시할 수 있다. 버튼(1242) 내에서, 웨어러블 장치(101)는 스케쥴 데이터의 추가 및/또는 저장을 가이드하기 위한 지정된 텍스트(예, "저장")를 표시할 수 있다. 윈도우(1240) 내에서, 웨어러블 장치(101)는 상기 스케쥴 데이터를 추가하는 것을 중단하기 위한 버튼(1244)(예, "취소"와 같은 지정된 텍스트를 포함하는 버튼(1244))을 표시할 수 있다. Referring to FIG. 12B, the
도 12b의 상태(1202) 내에서, 버튼(1242)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 캘린더 어플리케이션을 실행하여, 윈도우(1240)를 통해 표시된 파라미터들에 기반하는 스케쥴 데이터를 저장할 수 있다. 도 12b를 참고하면, 사용자(110)에 의해 이용되는 상이한 전자 장치들(예, 웨어러블 장치(101), 및 단말(120))에서, 상기 스케쥴 데이터가 공유될 수 있다. 예를 들어, 웨어러블 장치(101)에 연결된 단말(120)은, 단말(120)의 디스플레이를 통해 표시되는 화면(1250) 내에서, 상기 스케쥴 데이터에 기반하는 시각적 객체(1252)를 표시할 수 있다.Within
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 일부분의 경로 및/또는 외부 객체(130)에 의해 그려진 적어도 하나의 획으로부터, 스케쥴 데이터를 추가하기 위한 정보를 획득할 수 있다. 외부 객체(130) 및 캘린더 어플리케이션이 매칭된 상태들(1201, 1202) 내에서, 웨어러블 장치(101)는 외부 객체(130)에 의해 그려진 문자들을 인식하여, 상기 정보를 획득할 수 있다. 웨어러블 장치(101)는 상기 정보를 이용하여 스케쥴 데이터를 추가하기 때문에, 외부 객체(130)와 통신하는 것과 독립적으로, 컴퓨터 판독가능한(computer readable) 상기 정보를 획득할 수 있다.As described above, according to one embodiment, the
도 13은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1330)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 13의 웨어러블 장치(101)를 포함할 수 있다. FIG. 13 illustrates an example of an operation in which the
도 13을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1330)를 추적하여 획득된 정보를 이용하여 메신저 어플리케이션을 실행하는 상태들(1301, 1302, 1303, 1304)이 도시된다. 상태(1301) 내에서, 웨어러블 장치(101)는 도 6a의 상태들(601, 602)과 유사하게, 웨어러블 장치(101) 내에 설치된 어플리케이션들의 리스트(1310)를 표시할 수 있다. 리스트(1310) 내에 포함된 아이콘들(1311, 1312, 1313) 중에서, 경로(1320)를 따라 외부 객체(1330)로 드래그된 아이콘(1311)에 기반하여, 웨어러블 장치(101)는 아이콘(1311)에 매칭된 메신저 어플리케이션을, 외부 객체(1330)로 매칭함을 지시하는 입력을 식별할 수 있다. 상기 입력에 기반하여, 웨어러블 장치(101)는 상태(1301)로부터 상태(1302)로 전환할 수 있다.Referring to FIG. 13, states 1301, 1302, 1303, and 1304 in which the
도 13의 상태(1302) 내에서, 웨어러블 장치(101)는 메신저 어플리케이션의 실행을 위해 요구되는 적어도 하나의 파라미터를 수신하기 위한 윈도우(1340)를 표시할 수 있다. 윈도우(1340) 내에서, 웨어러블 장치(101)는 외부 객체(1330)를 추적하여 획득된 정보에 대응하는 메시지를 수신할 상대방을 선택하기 위한 리스트를 표시할 수 있다. 상기 리스트는, 웨어러블 장치(101)의 메모리(예, 도 5의 메모리(520)) 내에 저장된 연락처 리스트와 관련될 수 있다. 도 13의 상태(1302) 내에서, 웨어러블 장치(101)가 윈도우(1340) 내에서 A 사용자를 선택함을 지시하는 입력을 수신한 것으로 가정한다. 상기 가정 내에서, 웨어러블 장치(101)는, 외부 객체(1330)가 A 사용자로 메시지를 송신하기 위한 메신저 어플리케이션의 기능에 매칭됨을 지시하는 속성을 저장할 수 있다. Within
도 13을 참고하면, 상태(1302)에 기반하여 외부 객체(1330)를 등록한 이후의 상태(1303) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1330)를 추적할 수 있다. 상태(1303) 내에서, 웨어러블 장치(101)는 외부 객체(1330)와 중첩으로, 외부 객체(1330)로 매칭된 어플리케이션을 표현하는 아이콘(1311) 및 외부 객체(1330)로 할당된 속성을 지시하는 텍스트(1350)를 표시할 수 있다. 상기 가정 내에서, 웨어러블 장치(101)는, 외부 객체(1330)를 추적하여 획득된 정보를 포함하는 메시지를 수신할 상대방을 지시하는 텍스트(1350)(예, "A 사용자")를 표시할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 도 8의 도형들(832, 834)과 같이, 아이콘(1311)의 색상 및/또는 외부 객체(1330)의 색상에 기반하는 도형을, 외부 객체(1330)와 중첩으로 표시할 수 있다.Referring to FIG. 13, within the
도 13의 예시적인 상태(1303) 내에서, 웨어러블 장치(101)는 지점(A)으로부터 출력되는 잉크에 의해 그려진 하나 이상의 획들(예, "message"를 표현한 손 글씨)을 식별할 수 있다. 웨어러블 장치(101)는 OCR에 기반하여, 상기 하나 이상의 획들에 대응하는 텍스트를 식별할 수 있다. 상태(1303) 내에서, 웨어러블 장치(101)는 외부 객체(1330)를 추적하여 획득된 정보를 이용하여 어플리케이션(예, 메신저 어플리케이션)을 실행하기 위한 버튼(1355)을 표시할 수 있다. 버튼(1355)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 상태(1303)로부터 상태(1304)로 전환할 수 있다. Within the
도 13을 참고하면, 상태(1304) 내에서, 웨어러블 장치(101)는 외부 객체(1330)에 대응하는 메신저 어플리케이션으로부터 제공된 윈도우(1360)를 표시할 수 있다. 윈도우(1360) 내에서, 웨어러블 장치(101)는 외부 객체(1330)를 추적하여 획득된 정보를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1330)에 의해 그려진 획들로부터 식별된 텍스트(예, "message")가, 외부 객체(1330)로 할당된 속성에 의해 지시되는 상대방(예, "A 사용자")로 송신될 것임을, 윈도우(1360)를 이용하여 가이드할 수 있다. 웨어러블 장치(101)는 상기 윈도우(1360)와 함께, 표시 영역 내에 윈도우(1360)에 포함된 정보에 기반하여 메시지를 송신하기 위한 버튼(1372), 및 상기 메시지의 송신을 중단하기 위한 버튼(1375)을 표시할 수 있다. 버튼(1372) 내에서, 웨어러블 장치(101)는 상기 메시지의 송신을 가이드하기 위한 지정된 텍스트(예, "전송")를 표시할 수 있다. 버튼(1374) 내에서, 웨어러블 장치(101)는 메시지의 송신의 중단을 가이드하기 위한 지정된 텍스트(예, "취소")를 표시할 수 있다. 예를 들어, 버튼(1372)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 윈도우(1360) 내에 포함된 정보에 기반하여, 메신저 어플리케이션에 의해 지원되는 기능들 중에서 메시지를 송신하기 위한 기능을 실행할 수 있다. 웨어러블 장치(101)는 메시지를 송신하기 위하여 통신 회로(예, 도 5의 통신 회로(550))를 제어할 수 있다.Referring to FIG. 13, within
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 메신저 어플리케이션에 매칭된 외부 객체(1330)를 추적하여, 상기 메신저 어플리케이션을 이용하여 메시지를 송신하는데 이용되는 정보를 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1330)에 의해 그려진 적어도 하나의 문자로부터 상기 메시지 내에 포함될 텍스트를 획득할 수 있다. 웨어러블 장치(101)는, 웨어러블 장치(101)의 통신 회로를 이용하여 외부 객체(1330)로 할당된 속성에 의해 지시되는 상대방에게 상기 텍스트를 포함하는 메시지를 송신하기 위한 기능을 실행할 수 있다. As described above, according to one embodiment, the
도 14는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1410)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 14의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 오디오 신호를 녹음하기 위한 녹음 어플리케이션이 외부 객체(1410)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 녹음 어플리케이션을 외부 객체(1410)로 등록함을 지시하는 입력을 식별할 수 있다. FIG. 14 illustrates an example of an operation in which the
도 14를 참고하면, 웨어러블 장치(101)가 외부 객체(1410)를 추적하는 상이한 상태들(1401, 1402)이 도시된다. 상태(1401) 내에서, 외부 객체(1410)를 식별한 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(1410)와 중첩으로, 외부 객체(1410)로 매칭된 상기 녹음 어플리케이션을 표현한 아이콘(1412) 및/또는 상기 녹음 어플리케이션의 실행에 기반하여 오디오 신호를 녹음하기 위한 버튼(1414)을 표시할 수 있다. 상태(1401) 내에서, 버튼(1414)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 녹음 어플리케이션을 실행할 수 있다. 녹음 어플리케이션의 실행에 기반하여, 웨어러블 장치(101)는 오디오 신호의 녹음을 개시(initiate)할 수 있다. 오디오 신호를 녹음하기 위하여, 웨어러블 장치(101)는 마이크를 포함할 수 있다.Referring to FIG. 14 ,
도14를 참고하면, 녹음 어플리케이션의 실행에 기반하여 오디오 신호를 녹음하는 상태(1402) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1410)와 중첩으로, 상기 녹음된 오디오 신호를 포함하는 파일의 이름을 지시하는 텍스트(1420)를 표시할 수 있다. 상태(1402) 내에서, 웨어러블 장치(101)는 상기 녹음 어플리케이션에 매칭된 외부 객체(1410)를 추적할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1410)에 의해 그려진 손글씨("bookmark")를 식별할 수 있다. 웨어러블 장치(101)가 외부 객체(1410)를 추적하여 획득한 정보는, 상기 손글씨에 대응하는 텍스트를 포함할 수 있다. 예를 들어, 상기 정보는, 상기 손글씨에 대한 OCR을 수행한 결과를 포함할 수 있다.Referring to FIG. 14, in a
도 14의 상태(1402) 내에서, 외부 객체(1410)에 의해 그려진 손글씨를 식별하는 것에 기반하여, 웨어러블 장치(101)는 녹음 어플리케이션의 실행에 의해 녹음되는 오디오 신호 내에 북마크를 추가할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 녹음 어플리케이션에 의해 녹음되는 오디오 신호 내에서, 상기 손글씨가 그려진 시점에 대응하는 구간에 북마크를 추가할 수 있다. 상기 북마크는, 상기 오디오 신호에 대응하는 메타 데이터 내에 저장될 수 있다. 상기 북마크의 이름은, 상기 손글씨에 대응하는 텍스트를 포함할 수 있다.Within
도 14를 참고하면, 상태(1402) 내에서 획득된 오디오 신호를 재생하는 동안 표시되는 화면(1430)의 일 예가 도시된다. 상기 화면(1430)은 상기 오디오 신호를 재생함을 지시하는 입력에 응답하여, 웨어러블 장치(101)에 의해 표시될 수 있다. 일 실시예에서, 웨어러블 장치(101)는 상기 오디오 신호에 대한 STT(speech-to-text)를 수행하여, 상기 오디오 신호 내에 포함된 발언을 표현한 텍스트를 획득할 수 있다. 화면(1430)의 일부분(1432) 내에서, 웨어러블 장치(101)는 상기 획득된 텍스트를 표시할 수 있다. 웨어러블 장치(101)는 화면(1430) 내에 표시된 텍스트 중에서, 상태(1402) 내 손글씨가 그려진 시점에 대응하는 구간에 포함된 텍스트(예, "객체로 글을 써보겠습니다. ")를, 상기 손글씨에 의해 추가된 북마크를 지시하는 시각적 객체(1434)와 함께 표시할 수 있다. 예를 들어, 시각적 객체(1434)는, 상기 구간에 대응하는 오디오 신호의 일부분으로부터 인식된 텍스트(예, "객체로 글을 써보겠습니다. ")를 다른 텍스트와 구분하기 위한 바운딩 박스의 형태를 가질 수 있다. 시각적 객체(1434)를 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 표시 영역 내에 시각적 객체(1434)에 대응하는 북마크의 속성(예, 상기 북마크의 이름)을 표시할 수 있다. 14, an example of a
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 녹음 어플리케이션에 매칭된 외부 객체(1410)를 추적하여, 상기 녹음 어플리케이션의 상이한 기능들을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1410)와 중첩으로 표시된 버튼(1414)에 기반하여, 상기 녹음 어플리케이션에 기반하는 녹음 기능을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1410)를 추적하여 획득된 정보에 기반하여, 상기 녹음 어플리케이션에 의해 녹음되는 오디오 신호 내에 북마크를 추가하기 위한 기능을 실행할 수 있다.As described above, according to one embodiment, the
도 15a 내지 도 15b는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1510)를 추적하여 획득된 정보에 기반하여 복수의 어플리케이션들을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 15a 내지 도 15b의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 복수의 어플리케이션들(예, 노트 어플리케이션 및 녹음 어플리케이션)이 외부 객체(1510)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 복수의 어플리케이션들을 외부 객체(1510)로 등록함을 지시하는 입력을 식별할 수 있다. FIGS. 15A and 15B illustrate an example of an operation in which the
도 15a를 참고하면, 웨어러블 장치(101)가 외부 객체(1510)를 추적하는 상이한 상태들(1501, 1502)이 도시된다. 상태(1501) 내에서, 외부 객체(1510)를 식별한 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1510)와 중첩으로, 외부 객체(1510)로 매칭된 복수의 어플리케이션들 각각을 표현하는 아이콘들(1512, 1514)을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 노트 어플리케이션을 표현한 아이콘(1512) 및 녹음 어플리케이션을 표현한 아이콘(1514)을 표시할 수 있다. 상태(1501) 내에서, 웨어러블 장치(101)는 지점(P1)으로부터 지점(P2)을 따라 외부 객체(1510)에 의해 그려진 곡선을 식별할 수 있다. 상기 곡선은, 웨어러블 장치(101)가 외부 객체(1510)의 일부분의 경로를 시각화한 것일 수 있다. 상기 곡선은, 외부 객체(1510) 내 잉크에 의해 그려진 것일 수 있다.Referring to FIG. 15A ,
도 15a를 참고하면, 외부 객체(1510)에 의해 그려진 곡선을 식별한 상태(1501) 내에서, 웨어러블 장치(101)는 외부 객체(1510)로 매칭된 상기 복수의 어플리케이션들을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 노트 어플리케이션 및 녹음 어플리케이션을 실행할 수 있다. 녹음 어플리케이션의 실행에 기반하여, 웨어러블 장치(101)는 오디오 신호의 녹음을 개시할 수 있다. 노트 어플리케이션의 실행에 기반하여, 웨어러블 장치(101)는 상기 식별된 곡선에 기반하는 디지털 콘텐트를 식별할 수 있다. 예를 들어, 녹음 어플리케이션의 실행에 기반하여, 상태(1501) 내에서, 웨어러블 장치(101)는 발언(1521)을 포함하는 오디오 신호를 획득할 수 있다. Referring to FIG. 15A , in a
도 15a를 참고하면, 상태(1502) 내에서, 상태(1501)와 유사하게, 웨어러블 장치(101)는 외부 객체(1510)에 의해 그려진 곡선을 추적하는 것을 유지할 수 있다. 웨어러블 장치(101)는 상태(1502) 내에서, 상기 녹음 어플리케이션의 실행에 기반하여 녹음을 하는 것을 유지할 수 있다. 웨어러블 장치(101)는 상태(1502) 내에서, 지점(P2)로부터 지점(P3)을 따라 외부 객체(1510)에 의해 그려진 다른 곡선을 식별할 수 있다. 웨어러블 장치(101)는 상태(1502) 내에서, 녹음 어플리케이션에 기반하여 발언(1522)을 포함하는 오디오 신호를 획득할 수 있다.Referring to FIG. 15A , within
일 실시예에 따른, 웨어러블 장치(101)는 상태들(1501, 1502)에 기반하여, 지점들(P1, P2, P3)을 따라 이동된 곡선들을 포함하는 제1 미디어 콘텐트를 획득할 수 있다. 상기 제1 미디어 콘텐트는, 외부 객체(1510)로 매칭된 복수의 어플리케이션들 중에서 노트 어플리케이션의 실행에 기반하여, 획득될 수 있다. 웨어러블 장치(101)는 상태들(1501, 1502)에 기반하여, 발언들(1521, 1522)이 녹음된 제2 미디어 콘텐트를 획득할 수 있다. 상기 제2 미디어 콘텐트는 외부 객체(1510)로 매칭된 복수의 어플리케이션들 중에서 녹음 어플리케이션의 실행에 기반하여 획득될 수 있다. 상기 제1 미디어 콘텐트, 및 상기 제2 미디어 콘텐트는 웨어러블 장치(101)의 메모리(예, 도 5의 메모리(520)) 내에 저장될 수 있다.According to one embodiment, the
일 실시예에 따른, 웨어러블 장치(101)는, 외부 객체(1510)로 매칭된 복수의 어플리케이션들 각각을 실행하여 획득한 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동기화할 수 있다. 도 15a를 참고하면, 상태들(1501, 1502) 이후, 웨어러블 장치(101)는 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동기화하기 위한 화면(1530)을 표시할 수 있다. 화면(1530)은, 웨어러블 장치(101)의 디스플레이 장치(예, 도 5의 디스플레이(530))에 의해 형성된 표시 영역을 통해 표시될 수 있다. 화면(1530)은, 외부 객체(1510)로 매칭된 노트 어플리케이션 또는 녹음 어플리케이션 중 적어도 하나로부터 제공될 수 있다.According to one embodiment, the
도 15a를 참고하면, 화면(1530) 내에서, 웨어러블 장치(101)는 노트 어플리케이션의 실행에 기반하여 획득된 제1 미디어 콘텐트에 대응하는 시각적 객체(1540)를 표시할 수 있다. 예를 들어, 시각적 객체(1540)는 상태들(1501, 1502) 내에서 지점들(P1, P2, P3)을 따라 이동된 외부 객체(1510)의 일부분의 경로를 표현한 라인일 수 있다. 제1 미디어 콘텐트에 대응하는 시각적 객체(1540)가 표시된 화면(1530)에 기반하여, 웨어러블 장치(101)는 상기 제1 미디어 콘텐트 및 상기 제2 미디어 콘텐트를 동기화하기 위한 기능을 실행할 수 있다. 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동기화하기 위한 기능은, 제1 미디어 콘텐트에 포함된 라인(예, 외부 객체(1510)의 경로를 표현한 라인) 및 제2 미디어 콘텐트에 포함된 오디오 신호를 동시에 재생하는 동작을 포함할 수 있다.Referring to FIG. 15A, within the
도 15a를 참고하면, 화면(1530) 내에서, 웨어러블 장치(101)는 제2 미디어 콘텐트의 상이한 구간들에 대응하는 시각적 객체들(1551, 1552)을 표시할 수 있다. 시각적 객체(1551)는 제2 미디어 콘텐트 내에서, 발언(1521)이 녹음된 제1 구간에 대응할 수 있다. 시각적 객체(1552)는 제2 미디어 콘텐트 내에서, 발언(1522)이 녹음된 제2 구간에 대응할 수 있다. 웨어러블 장치(101)는, 시각적 객체(1540)에 포함된 라인 내에서, 상기 제1 구간 내에서 그려진 라인의 일부분에 인접하여, 상기 제1 구간에 대응하는 시각적 객체(1551)를 표시할 수 있다. 웨어러블 장치(101)는 시각적 객체(1540)에 포함된 라인 내에서, 상기 제2 구간 내에서 그려진 라인의 일부분에 인접하여, 상기 제2 구간에 대응하는 시각적 객체(1552)를 표시할 수 있다. 상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 화면(1530) 내에서 제1 미디어 콘텐트에 포함된 라인 및 제2 미디어 콘텐트에 포함된 오디오 신호를 구간에 기반하여 동기화할 수 있다.Referring to FIG. 15A, within the
일 실시예에 따른, 웨어러블 장치(101)는 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동시에 재생할 수 있다. 예를 들어, 화면(1530) 내에서 지점들(P1, P2)을 따라 곡선을 그리는 제1 애니메이션을 재생하면서, 웨어러블 장치(101)는 시각적 객체(1551)에 대응하는 오디오 신호(예, 발언(1521)을 포함하는 오디오 신호)를 재생할 수 있다. 상기 제1 애니메이션을 재생한 이후, 화면(1530) 내에서 지점들(P2, P3)을 따라 곡선을 그리는 제2 애니메이션을 재생하면서, 웨어러블 장치(101)는 시각적 객체(1552)에 대응하는 오디오 신호(예, 발언(1522)을 포함하는 오디오 신호)를 재생할 수 있다.According to one embodiment, the
상술한 바와 같이, 복수의 어플리케이션들이 외부 객체(1510)와 매칭된 상태 내에서, 웨어러블 장치(101)는 상기 복수의 어플리케이션들 각각을 이용하여 복수의 미디어 콘텐트들을 획득할 수 있다. 도 15a의 예시적인 상태들(1501, 1502) 내에서, 웨어러블 장치(101)는 상이한 타입의 미디어 콘텐트들(예, 시각화된(visualized) 획을 포함하는 제1 미디어 콘텐트, 및 오디오 신호를 포함하는 제2 미디어 콘텐트)을 획득할 수 있다. 웨어러블 장치(101)는 실질적으로(substantially) 동시에 획득된 상기 복수의 미디어 콘텐트들을 동기화할 수 있다.As described above, while a plurality of applications are matched with the
도 15b를 참고하면, 웨어러블 장치(101)가 외부 객체(1510)로 매칭된 복수의 어플리케이션들을 동시에 실행하는 예시적인 상태(1503)가 도시된다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 복수의 어플리케이션들을 외부 객체(1510)로 등록할 수 있다. 이하에서, 상기 복수의 어플리케이션들은, 아이콘(1512)에 대응하는 노트 어플리케이션 및 아이콘(1514)에 대응하는 녹음 어플리케이션을 포함하는 것으로 가정한다.Referring to FIG. 15B , an
도 15b를 참고하면, 웨어러블 장치(101)는 외부 객체(1510)에 의해 그려진 곡선을 식별한 상태(1503) 내에서, 상기 외부 객체(1510)로 매칭된 복수의 어플리케이션들을 실행할 수 있다. 예를 들어, 외부 객체(1510)의 일부분의 경로, 또는 외부 객체(1510)에 포함된 물질(예, 잉크 및/또는 흑연)에 의해 그려진 상기 곡선을 식별한 상태(1503) 내에서, 웨어러블 장치(101)는 시각적 객체(1560)의 선택을 지시하는 입력에 응답하여, 상기 복수의 어플리케이션들을 실행할 수 있다. 도 15b를 참고하면, 웨어러블 장치(101)의 표시 영역 내에서, 완료("done")와 같은 지정된 텍스트를 포함하는 버튼의 형태를 가지는 시각적 객체(1560)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다.Referring to FIG. 15B, the
도 15b의 상태(1503) 내에서, 웨어러블 장치(101)는 외부 객체(1510)로 할당된 상기 복수의 어플리케이션들 각각으로부터 제공된 화면들(1571, 1572)이 배열된 멀티-윈도우를 표시할 수 있다. 웨어러블 장치(101)의 표시 영역의 적어도 일부분에 화면들(1571, 1572)을 표시할 수 있다. 도 15b를 참고하면, 웨어러블 장치(101)가 수직 방향 내에서 평행하게 결합된 화면들(1571, 1572)을 표시한 예시적인 케이스가 도시된다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 상기 수직 방향과 상이한 방향(예, 수평 방향)을 따라 화면들(1571, 1572)을 표시할 수 있다. 웨어러블 장치(101)는 표시 영역 내에서 서로 이격된 부분들에 화면들(1571, 1572)을 표시할 수 있다.Within
도 15b를 참고하면, 상기 가정에 기반하여, 웨어러블 장치(101)는 녹음 어플리케이션에 대응하는 화면(1571) 및 노트 어플리케이션에 대응하는 화면(1572)을 표시할 수 있다. 웨어러블 장치(101)는 화면(1571) 내에서, 외부 객체(1510) 또는 외부 객체(1510)에 의해 그려진 곡선을 추적하는 동안 획득되었던 오디오 신호를 획득할 수 있다. 상기 오디오 신호가 발언(1523)을 포함하는 예시적인 케이스 내에서, 웨어러블 장치(101)는 화면(1571) 내에, 상기 발언(1523)에 대한 텍스트를 표시할 수 있다. 웨어러블 장치(101)는 화면(1572) 내에서, 상기 곡선을 표현한 이미지를 표시할 수 있다.Referring to FIG. 15B, based on the above assumption, the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 멀티태스킹에 기반하여 외부 객체(1510)로 할당된 복수의 어플리케이션들을 실질적으로 동시에 실행할 수 있다. 웨어러블 장치(101)는 상기 복수의 어플리케이션들로부터 제공된 화면들(1571, 1572)이 배열된 멀티-윈도우를 표시할 수 있다. 웨어러블 장치(101)는, 상기 멀티-윈도우를 이용하여, 통신 회로를 포함하지 않은 외부 객체(1510)에 기반하여, 디지털 콘텐트를 획득하기 위한 하나 이상의 기능들을 실행할 수 있다.As described above, according to one embodiment, the
이하에서는, 도 16을 참고하여, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체를 이용하여 상기 외부 객체로 매칭된 어플리케이션들을 실행하는 동작이 설명된다.Below, with reference to FIG. 16 , an operation in which the
도 16은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 16의 웨어러블 장치를 포함할 수 있다. 예를 들어, 도 16의 동작들은, 도 5의 웨어러블 장치(101) 및/또는 프로세서(510)에 의해 수행될 수 있다. 도 16의 동작들은, 도 8a 내지 도 8b, 도 9a 내지 도 9c, 도 10 내지 도 15a 내지 도 15b를 참고하여 상술된 웨어러블 장치(101)의 동작들과 관련될 수 있다. 도 16의 동작들은, 도 2의 동작들 중 적어도 하나(예, 도 2의 동작(220)) 및/또는 도 7의 동작들과 관련될 수 있다.Figure 16 shows an example of a flow chart for a wearable device, according to one embodiment. The
도 16을 참고하면, 동작(1610) 내에서, 일 실시예에 따른, 웨어러블 장치는, 표시 영역 내에 포함된 외부 객체를 식별할 수 있다. 웨어러블 장치는 메모리(예, 도 5의 메모리(520)) 내에 저장된 정보에 기반하여, 웨어러블 장치로 등록된 외부 객체를 식별할 수 있다. 상기 정보는, 웨어러블 장치로 등록된 외부 객체의 형태, 색상 및/또는 크기를 지시하는 데이터를 포함할 수 있다. 웨어러블 장치는, 웨어러블 장치의 표시 영역과 적어도 부분적으로 중첩된 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))로부터 획득된 프레임들에 기반하여, 상기 외부 객체를 식별할 수 있다. 웨어러블 장치가 외부 객체를 식별하는 것은, 외부 객체에 할당된 적어도 하나의 속성을 식별하는 동작을 포함할 수 있다.Referring to FIG. 16, within
도 16을 참고하면, 동작(1620) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 표시 영역 내 외부 객체의 위치에 기반하여 표시할 수 있다. 상기 제1 시각적 객체는, 동작(1610)에 기반하여 식별된 외부 객체를 강조하기 위하여 표시될 수 있다. 상기 제1 시각적 객체는, 예를 들어, 도 8a의 도형들(830, 840), 아이콘들(832, 842)을 포함할 수 있다. 상기 제1 시각적 객체는, 상기 어플리케이션을 지시하는 텍스트(예, 상기 어플리케이션으로 할당된 명칭)를 포함할 수 있다.Referring to FIG. 16, within
도 16을 참고하면, 동작(1630) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체의 모션과 관련된 제1 정보, 또는 외부 객체에 의해 그려진 이미지를 포함하는 제2 정보 중 적어도 하나를 획득할 수 있다. 예를 들어, 웨어러블 장치는 외부 객체에 할당된 속성에 의해 지시되는 외부 객체의 일부분(예, 도 9a의 지점(P))의 경로를 적어도 부분적으로 포함하는 상기 제1 정보를 획득할 수 있다. 상기 제1 정보는 일 평면(예, 도 9a의 노트(910)에 의해 형성된 평면) 상에 접촉된 외부 객체의 일부분의 경로를 포함할 수 있다. 예를 들어, 웨어러블 장치는 외부 객체에 할당된 속성에 기반하여, 외부 객체로부터 출력되는 물질(예, 잉크 및/또는 흑연)에 의해 그려진 적어도 하나의 획을 포함하는 상기 제2 정보를 획득할 수 있다. 예를 들어, 상기 적어도 하나의 획은, 외부 객체에 의해 그려진 적어도 하나의 획으로 지칭될 수 있다.Referring to FIG. 16, within
도 16을 참고하면, 동작(1640) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 할당된 속성에 기반하여, 제1 정보 또는 제2 정보 중 어느 한 정보를 선택하고, 선택된 정보를 이용하여 어플리케이션을 실행하기 위한 제2 시각적 객체를 표시할 수 있다. 상기 제2 시각적 객체는, 도 9a 내지 도 9c의 버튼(940)을 포함할 수 있다. 일 실시예에 따른, 웨어러블 장치는 외부 객체에 할당된 속성을 이용하여, 동작(1630)의 상기 제1 정보 또는 상기 제2 정보 중 어느 한 정보를 선택적으로 획득할 수 있다. 동작(1640) 이후, 웨어러블 장치는 상기 제2 시각적 객체를 선택함을 지시하는 입력에 응답하여, 상기 선택된 정보에 기반하여 어플리케이션을 실행할 수 있다. 어플리케이션의 실행에 기반하여, 웨어러블 장치는 상기 선택된 정보에 기반하는 어플리케이션의 기능을 실행할 수 있다.Referring to FIG. 16, in
도 6a 내지 도 6b, 도 7 내지 도 16을 참고하여 상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 기반하여 어플리케이션을 실행하기 위하여, 상기 외부 객체를 등록하기 위한 입력을 요구할 수 있다. 하지만, 실시예가 이에 제한되는 것은 아니다. 이하에서는, 도 17 내지 도 18을 참고하여, 일 실시예에 따른, 웨어러블 장치가, 상기 입력과 독립적으로, 외부 객체를 식별하고, 식별된 외부 객체에 대응하는 적어도 하나의 어플리케이션을 실행하는 동작의 일 예가 설명된다.As described above with reference to FIGS. 6A to 6B and FIGS. 7 to 16, according to one embodiment, a wearable device requests an input to register an external object in order to execute an application based on the external object. You can. However, the embodiment is not limited thereto. Hereinafter, with reference to FIGS. 17 and 18, an operation in which a wearable device, according to an embodiment, identifies an external object independently of the input and executes at least one application corresponding to the identified external object is described. An example is explained.
도 17은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여, 적어도 하나의 어플리케이션을 추천하기 위한 UI를 표시하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 17의 웨어러블 장치(101)를 포함할 수 있다.FIG. 17 illustrates an example of an operation in which the
도 17을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 표시 영역 내에 포함된 외부 객체(1705)를 식별한 상태(1701)가 도시된다. 이하에서, 상태(1701)는, 웨어러블 장치(101)가 도 6a 내지 도 6d 및/또는 도 7을 참고하여 상술된, 외부 객체(1705)를 등록함을 지시하는 입력을 수신하기 이전의 상태인 것으로 가정한다. 예를 들어, 상태(1701) 내에서, 웨어러블 장치(101)는, 표시 영역 내에 포함된 외부 객체(1705)의 형태, 색상 및/또는 크기와 일치하는 정보를 식별하지 못할 수 있다. 외부 객체(1705)가 웨어러블 장치(101)로 등록되지 않은 상태(1701) 내에서, 웨어러블 장치(101)는 외부 객체(1705)의 카테고리를 식별할 수 있다. 외부 객체(1705)가, 잉크 및/또는 흑연과 같은 물질을 포함하는 펜에 대응하는 지정된 카테고리로 분류되는 경우, 웨어러블 장치(101)는 외부 객체(1705)에 의해 그려지는 적어도 하나의 획을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 노트(1710) 상에서 외부 객체(1705)에 의해 그려지는 아날로그 콘텐트를 식별할 수 있다. 예를 들어, 외부 객체(1705)가 외부 객체(1705)를 쥔 손(140)에 의해 노트(1710) 상에서 이동됨에 따라, 웨어러블 장치(101)는 노트(1710) 상에 접착되고, 외부 객체(1705)로부터 출력된 잉크의 흔적을 식별할 수 있다.Referring to FIG. 17 , a
도 17의 예시적인 상태(1701) 내에서, 웨어러블 장치(101)는 외부 객체(1705)에 의해 노트(1710) 상에 그려진 텍스트(1712)를 식별할 수 있다. 웨어러블 장치(101)는 카메라(예, 도 5의 카메라(540))로부터 획득되고, 노트(1710)를 포함하는 이미지에 기반하여, 텍스트(1712)를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 이미지에 대한 OCR을 수행하여, 텍스트(1712)를 식별할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(1705)에 의해 생성된 텍스트(1712)에 포함된 정보에 기반하여, 웨어러블 장치(101)에 설치된 복수의 어플리케이션들 중 적어도 하나를 실행할 것을, 사용자(110)에게 추천할 수 있다. 예를 들어, 웨어러블 장치(101)는, 텍스트(1712)가 표 2에 포함된 포맷을 따라 배열된 문자들을 포함하는지 여부에 기반하여, 사용자(110)에게 추천될 적어도 하나의 어플리케이션을 선택할 수 있다. 표 2의 '#'은 0 내지 9 사이의 숫자를 의미할 수 있다.Within
####년 #월 #일 등의 날짜 포맷####-##-###Month #Day
Date format such as ####year #month #day etc.
표 2을 참고하면, 웨어러블 장치(101)는 날짜를 기록하기 위한 관례적인 표기법(conventional notation)을 따라 기록된 손글씨를 식별하는 것에 기반하여, 캘린더 어플리케이션의 실행을 추천할 수 있다. 웨어러블 장치(101)는 시간을 기록하기 위한 관례적인 표기법을 따라 기록된 손글씨에 기반하여, 리마인더 어플리케이션의 실행을 추천할 수 있다. 도 17을 참고하면, 텍스트(1712)가 덧셈 연산자(+)를 포함하는 수식의 포맷을 가지기 때문에, 웨어러블 장치(101)는 텍스트(1712)에 기반하여 계산기 어플리케이션을 추천할 수 있다.도 17의 상태(1701) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1705)와 중첩으로, 계산기 어플리케이션을 표현하는 아이콘(1721)을 표시할 수 있다. 웨어러블 장치(101)는 계산기 어플리케이션에 대응하는 아이콘(1721)과 함께, 웨어러블 장치(101) 내에 설치된 다른 어플리케이션을 표현하는 다른 아이콘을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 텍스트(1712)에 기반하여 선택된 어플리케이션(예, 계산기 어플리케이션)의 아이콘(1721)과 함께, 웨어러블 장치(101)에 의해 최근에 실행된 어플리케이션을 표현하는 하나 이상의 아이콘들을 순차적으로 표시할 수 있다. Referring to Table 2, the
도 17을 참고하면, 웨어러블 장치(101)가 복수의 아이콘들(1721, 1722, 1723, 1734)을 순차적으로 표시한 예시적인 상태(1701)가 도시된다. 아이콘들(1721, 1722, 1723, 1724) 중에서, 웨어러블 장치(101)는, 텍스트(1712)에 기반하여 추천된, 계산기 어플리케이션에 대응하는 아이콘(1721)을, 외부 객체(1705)의 일부분(예, 펜 촉과 같이, 잉크가 외부 객체(1705)로부터 출력되는 일부분)에 가장 가깝게 배치할 수 있다.Referring to FIG. 17 , an
일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1705) 상에 아이콘들(1721, 1722, 1723, 1724)을 표시하는 순서는, 웨어러블 장치(101)에 의해 실행된 순서와 관련될 수 있다. 예를 들어, 텍스트(1712)에 기반하여 추천된 계산기 어플리케이션에 대응하는 아이콘(1721)을 제외한 아이콘들(1722, 1723, 1724)의 순서는, 웨어러블 장치(101)에 의해 최근에 실행된 어플리케이션들의 순서에 대응할 수 있다. 예를 들어, 웨어러블 장치(101)가 어느 어플리케이션도 추천하지 않는 경우, 웨어러블 장치(101)는 최근에 실행된 복수의 어플리케이션들에 대한 아이콘들을 표시할 수 있다.According to one embodiment, the order in which the
도 17을 참고하면, 웨어러블 장치(101)는 표시 영역을 통해 보여지는 외부 객체(1705)의 형태에 기반하여, 아이콘들(1721, 1722, 1723, 1724)을 정렬할 수 있다. 예를 들어, 아이콘들(1721, 1722, 1723, 1724)은, 표시 영역 내에서 외부 객체(1705)가 연장된 방향을 따라 배열될 수 있다. 외부 객체(1705) 상에 중첩되는 아이콘들(1721, 1722, 1723, 1724)의 개수는, 표시 영역을 통해 보여지는 외부 객체(1705)의 길이, 및 아이콘들(1721, 1722, 1723, 1724) 각각의 사이즈와 관련될 수 있다. 외부 객체(1705)와 함께 표시되는 아이콘들의 개수는, 지정된 상한을 가지거나, 또는 표시 영역을 통해 보여지는 외부 객체(1705)의 길이에 기반하여 적응적으로 변경될 수 있다.Referring to FIG. 17 , the
도 17을 참고하면, 아이콘들(1721, 1722, 1723, 1724)을 이용하여 어플리케이션들을 추천한 상태(1701) 내에서, 웨어러블 장치(101)는 상기 추천된 어플리케이션들 중 적어도 하나를 실행함을 지시하는 입력을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 아이콘(1721)을 선택함을 지시하는 입력에 응답하여, 아이콘(1721)에 대응하는 계산기 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)는 텍스트(1712)에 포함된 수식에 기반하여, 계산기 어플리케이션을 실행하여, 상기 수식의 결과를 출력할 수 있다. 상기 결과는, 웨어러블 장치(101)의 표시 영역 내에서 시각적으로 표시되거나, 및/또는 웨어러블 장치(101)의 스피커를 통해 오디오 신호의 형태로 출력할 수 있다.Referring to FIG. 17, in a
도 17을 참고하면, 계산기 어플리케이션을 실행한 이후의 상태(1702) 내에서, 웨어러블 장치(101)는 외부 객체(1705)를 등록하기 위한 윈도우(1740)를 표시할 수 있다. 윈도우(1740) 내에서, 웨어러블 장치(101)는 계산기 어플리케이션을 등록할지를 가이드하기 위한 텍스트(예, "이 펜에 계산기를 등록할까요?")를 표시할 수 있다. 윈도우(1740) 내에서, 웨어러블 장치(101)는 상기 계산기 어플리케이션을 등록하기 위한 버튼(1742) 및 윈도우(1740)의 표시를 중단하기 위한 버튼(1746)을 표시할 수 있다. 버튼(1742)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 외부 객체(1705)를 등록할 수 있다. 외부 객체(1705)를 등록하는 상태 내에서, 웨어러블 장치(101)는 외부 객체(1705)에 기반하여 계산기 어플리케이션을 실행하기 위한 정보를 저장할 수 있다.Referring to FIG. 17, in the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 펜과 같은 외부 객체(1705)를 식별한 상태(1701) 내에서, 외부 객체(1705)에 의해 그려지는 아날로그 콘텐트를 식별할 수 있다. 외부 객체(1705)가 등록되지 않은 경우, 웨어러블 장치(101)는 상기 아날로그 콘텐트로부터 변환된 디지털 콘텐트에 기반하여, 적어도 하나의 어플리케이션의 실행을 추천할 수 있다. 웨어러블 장치(101)는 어플리케이션의 실행을 추천하여, 펜과 같은 외부 객체(1705)와 관련된 사용자 경험을 강화할 수 있다.As described above, according to one embodiment, the
도 18은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 18의 웨어러블 장치를 포함할 수 있다. 예를 들어, 도 18의 동작들은, 도 5의 웨어러블 장치(101) 및/또는 프로세서(510)에 의해 수행될 수 있다. 도 18의 동작들은, 도 17을 참고하여 상술된 웨어러블 장치(101)의 동작들과 관련될 수 있다. 도 18의 동작들은, 도 2, 도 7 및/또는 도 16의 동작들과 관련될 수 있다.Figure 18 shows an example of a flow chart for a wearable device, according to one embodiment. The
도 18을 참고하면, 동작(1810) 내에서, 일 실시예에 따른, 웨어러블 장치는, 하나 이상의 획들을 그리기 위한 외부 객체를 식별할 수 있다. 상기 외부 객체는, 도 17의 외부 객체(1705)와 같이, 웨어러블 장치에 등록된 외부 객체와 상이한 다른 외부 객체일 수 있다. 웨어러블 장치는, 웨어러블 장치 내 카메라(예, 도 5의 카메라(540))를 이용하여, 상기 외부 객체를 식별할 수 있다. 예를 들어, 웨어러블 장치는 펜을 포함하는 외부 객체를 식별할 수 있다.Referring to FIG. 18, within
도 18을 참고하면, 동작(1820) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 인접한 하나 이상의 획들에 의해 지시되는 미디어 콘텐트를 식별할 수 있다. 웨어러블 장치는 외부 객체의 모션을 추적하여, 외부 객체에 그려지는 하나 이상의 획들을 식별할 수 있다. 웨어러블 장치는, 웨어러블 장치 내 카메라를 이용하여 상기 하나 이상의 획들을 포함하는 이미지를 획득할 수 있다. 웨어러블 장치는 획득된 이미지에 대한 OCR을 수행하여, 상기 미디어 콘텐트를 식별할 수 있다. 웨어러블 장치에 의해 식별된 상기 미디어 콘텐트는, 상기 하나 이상의 획들에 의해 지시되는 텍스트, 및/또는 이미지를 포함할 수 있다.Referring to FIG. 18, within
도 18을 참고하면, 동작(1830) 내에서, 일 실시예에 따른, 웨어러블 장치는, 지정된 타입의 미디어 콘텐트가 식별되었는지 여부를 판단할 수 있다. 예를 들어, 웨어러블 장치는, 미디어 콘텐트 내에 표 2의 지정된 포맷을 따라 배열된 텍스트가 포함되어 있는지 여부를 식별할 수 있다. 동작(1830)의 지정된 타입은, 표 2의 지정된 포맷과 관련될 수 있다. 예를 들어, 지정된 타입은, 웨어러블 장치에 의해 식별된 미디어 콘텐트에 대응하는 적어도 하나의 어플리케이션을 식별하기 위해 설정될 수 있다.Referring to FIG. 18, in
지정된 타입의 미디어 콘텐트를 식별한 경우(1830-예), 동작(1840)에 기반하여, 웨어러블 장치는 지정된 타입에 대응하는 어플리케이션을 표현한 아이콘을 포함하는, 적어도 하나의 아이콘을 표시할 수 있다. 예를 들어, 도 17의 아이콘(1721)과 같이, 웨어러블 장치는 지정된 타입에 대응하는 어플리케이션의 실행을 가이드하기 위한 아이콘을 표시할 수 있다. 웨어러블 장치는 상기 지정된 타입에 대응하는 어플리케이션을 표현하는 아이콘과 함께, 웨어러블 장치에 의해 최근에 실행되었던 다른 어플리케이션들을 표현하는 아이콘들을 표시할 수 있다. 웨어러블 장치에 의해 표시되는 상기 아이콘들은, 표시 영역 내에서 외부 객체와 중첩으로 표시될 수 있다. 상기 아이콘들이 상기 외부 객체와 중첩으로 표시되기 때문에, 웨어러블 장치는, 미디어 콘텐트가 상기 아이콘들에 의해 가려지는 것을 방지할 수 있다. 예를 들어, 웨어러블 장치는 상기 외부 객체 상에 상기 아이콘들을 중첩으로 표시하여, 미디어 콘텐트의 가시성(visibility)을 유지할 수 있다. When media content of the specified type is identified (1830 - Yes), based on
지정된 타입의 미디어 콘텐트를 식별하지 못한 경우(1830-아니오), 웨어러블 장치는 동작(1850)을 수행하여, 어플리케이션들이 실행된 히스토리에 기반하여, 적어도 하나의 아이콘을 표시할 수 있다. 예를 들어, 웨어러블 장치는, 웨어러블 장치에 의해 최근에 실행되었던, 지정된 수의 어플리케이션들을 표현하는 아이콘들을 표시할 수 있다. 표시 영역 내에서, 웨어러블 장치는 상기 아이콘들을 외부 객체와 중첩으로 표시할 수 있다. 외부 객체가, 펜과 같이, 길이 방향으로 연장된 형태를 가지는 경우, 웨어러블 장치는 표시 영역 내에서 상기 길이 방향을 따라 상기 아이콘들을 배열할 수 있다. If media content of the specified type is not identified (1830-No), the wearable device may perform
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는 외부 객체와 전기적으로 통신하는 동작과 독립적으로, 상기 외부 객체를 인식할 수 있다. 상기 외부 객체의 인식에 기반하여, 웨어러블 장치는 상기 외부 객체에 기반하는 디지털 콘텐트를 생성하는 기능을 실행할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치는 외부 객체와 통신하여, 웨어러블 장치에 설치된 어플리케이션의 실행에 이용되는 정보를 획득할 수 있다. 이하에서는, 도 19를 참고하여, 일 실시예에 따른, 웨어러블 장치가 외부 객체와 통신하는 동작의 일 예가 설명된다.As described above, according to one embodiment, the wearable device may recognize the external object independently of the operation of electrically communicating with the external object. Based on the recognition of the external object, the wearable device may execute a function of generating digital content based on the external object. The embodiment is not limited to this, and the wearable device may communicate with an external object to obtain information used to execute an application installed on the wearable device. Below, with reference to FIG. 19, an example of an operation in which a wearable device communicates with an external object according to an embodiment is described.
도 19는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 전자 장치(1920)에 의해 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 19의 웨어러블 장치(101)를 포함할 수 있다. FIG. 19 illustrates an example of an operation in which the
도 19를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 외부 전자 장치(1920)를 식별한 이후의 상태들(1901, 1902, 1903)이 도시된다. 이하에서는 스마트 워치의 형태를 가지는 외부 전자 장치(1920)가 예시적으로 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 스마트 링, 또는 스타일러스와 같은 외부 전자 장치(1920)와 연결될 수 있다. 웨어러블 장치(101)는 블루투스와 같은 무선 통신 프로토콜에 기반하여 외부 전자 장치(1920)를 식별할 수 있다. 웨어러블 장치(101)는 표시 영역과 적어도 부분적으로 중첩된 FoV를 가지는 카메라(예, 도 5의 카메라(540))를 이용하여 외부 전자 장치(1920)를 식별할 수 있다.Referring to FIG. 19, states 1901, 1902, and 1903 after the
도 19의 상태(1901) 내에서, 웨어러블 장치(101)는 도 6a의 상태들(601, 602)과 유사하게, 웨어러블 장치(101) 내에 설치된 어플리케이션들의 리스트(1910)를 표시할 수 있다. 리스트(1910) 내에 포함된 아이콘들(1911, 1912, 1913) 중에서, 웨어러블 장치(101)는 경로(1930)를 따라 드래그되는 외부 전자 장치(1920) 상으로 드래그되는 아이콘(1913)을 식별할 수 있다. 경로(1930)를 따라 아이콘(1913)을 드래그하는 입력에 기반하여, 웨어러블 장치(101)는 외부 전자 장치(1920)로, 아이콘(1913)에 대응하는 노트 어플리케이션을 할당할 수 있다.Within
도 19를 참고하면, 웨어러블 장치(101)가 외부 전자 장치(1920)로 상기 노트 어플리케이션을 할당한 이후의 상태(1902)가 도시된다. 상태(1902) 내에서, 웨어러블 장치(101)는 외부 전자 장치(1920)와 인접한 표시 영역의 일부분에, 외부 전자 장치(1920)으로 할당된 상기 노트 어플리케이션을 표현하는 아이콘(1913)을 표시할 수 있다. 상태(1902) 내에서, 웨어러블 장치(101)는 카메라를 이용하여 외부 전자 장치(1920)의 모션을 추적할 수 있다. 예를 들어, 웨어러블 장치(101)는 경로(1940)를 따라 이동되는 외부 전자 장치(1920)의 모션을 식별할 수 있다. 웨어러블 장치(101)는 카메라의 프레임들로부터 외부 전자 장치(1920)의 2차원적(two-dimensional) 모션을 식별할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는, 외부 전자 장치(1920)와 전기적으로 통신하여, 상기 모션을 입체적으로 식별할 수 있다. 예를 들어, 상태(1902) 내에서, 웨어러블 장치(101)는 외부 전자 장치(1920)로, 외부 전자 장치(1920) 내 센서(예, IMU(inertial measurement unit))에 의해 식별된 정보를 요청할 수 있다. 상기 정보는, 경로(1940)를 따라 이동된 외부 전자 장치(1920)의 3차원적 모션을 포함할 수 있다. 외부 전자 장치(1920)로부터 수신된 상기 정보에 기반하여, 웨어러블 장치(101)는 외부 전자 장치(1920)의 3차원적 모션을 식별할 수 있다. Referring to FIG. 19, a
도 19를 참고하면, 외부 전자 장치(1920)를 추적하여 획득된 정보에 기반하여 노트 어플리케이션을 실행한 이후의 상태(1903)가 도시된다. 상태(1902) 내에서, 상기 노트 어플리케이션을 실행하기 위한 버튼(1950)을 선택하는 입력에 기반하여, 웨어러블 장치(101)는 상태(1902)로부터 상태(1903)로 스위칭할 수 있다. 상태(1903) 내에서, 웨어러블 장치(101)는 노트 어플리케이션을 실행하여, 외부 전자 장치(1920)를 추적하여 획득된 정보에 기반하는 디지털 콘텐트를 저장하기 위한 화면(1960)을 표시할 수 있다. 화면(1960) 내에서, 웨어러블 장치(101)는 상기 경로(1940)를 따라 이동된 외부 전자 장치(1920)의 모션을 표현한 시각적 객체(1962)를 표시할 수 있다. 웨어러블 장치(101)가 외부 전자 장치(1920)의 센서를 이용하여 경로(1940)를 따라 이동된 외부 전자 장치(1920)의 입체적인 모션을 식별하였기 때문에, 웨어러블 장치(101)는 시각적 객체(1962)를 입체적으로 표시할 수 있다.Referring to FIG. 19 , a
도 19의 예시적인 상태(1903) 내에서, 웨어러블 장치(101)는 축들(x 축, y 축, 및 z 축)에 기반하여, 시각적 객체(1962)를 입체적으로 열람하기 위한(for browsing) 화면(1960)을 표시할 수 있다. 예를 들어, 상기 축들에 기반하여, 웨어러블 장치(101)는 상기 시각적 객체(1962)를 회전하기 위한 입력을 식별할 수 있다. 상기 입력에 기반하여, 웨어러블 장치(101)는 상기 시각적 객체(1962)를 회전하거나, 이동하여, 3차원 공간 좌표계 내에서 상기 시각적 객체(1962)를 열람하는 사용자 경험을 제공할 수 있다. 웨어러블 장치(101)는 화면(1960) 내에서, 시각적 객체(1962)에 대응하는 디지털 콘텐트를 저장하기 위한 버튼(1964)을 표시할 수 있다. 버튼(1964)을 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 메모리 내에, 시각적 객체(1962)와 같이 경로(1940)를 입체적으로 표시하기 위한 정보를 저장할 수 있다.In the
상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 전자 장치(1920)를 등록하는 것을 지원할 수 있다. 외부 전자 장치(1920) 내에 포함된 센서를 이용하여, 웨어러블 장치(101)는 외부 전자 장치(1920)를 추적하여 획득된 정보를 강화할 수 있다. 예를 들어, 외부 전자 장치(1920)에 포함된 센서를 이용하여, 웨어러블 장치(101)는 카메라를 이용하여 획득된 정보를 강화할 수 있다.As described above, the
일 실시예에서, 웨어러블 장치가 외부 객체의 모션, 또는 외부 객체에 의해 그려진 아날로그 콘텐트를 인식하여, 웨어러블 장치 내에 설치된 어플리케이션을 실행하는 방안이 요구될 수 있다. 상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치(wearable device)(예, 도 1 및/또는 도 5의 웨어러블 장치(101))는, 디스플레이(예, 도 5의 디스플레이(530)), 카메라(예, 도 5의 카메라(540)), 및 프로세서(예, 도 5의 프로세서(510))를 포함하도록, 구성될 수 있다. 상기 프로세서는, 상기 카메라를 이용하여 상기 디스플레이의 표시 영역 내에 포함된 외부 객체(예, 도 1의 외부 객체(130))를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 대응하는 어플리케이션을 표현하는(representing) 제1 시각적 객체(예, 도 1의 아이콘(160))를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획(stroke)을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 할당된(assigned) 속성(attribute)에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체(예,도 9a의 버튼(940))를, 상기 위치에 기반하여, 표시하도록, 구성될 수 있다. 일 실시예에 따른, 웨어러블 장치는 외부 객체를 추적하여 획득된 정보를 이용하여, 웨어러블 장치 내에 설치된 어플리케이션을 실행할 수 있다. In one embodiment, there may be a need for a wearable device to recognize the motion of an external object or analog content drawn by an external object to execute an application installed in the wearable device. As described above, according to one embodiment, a wearable device (e.g.,
예를 들어, 상기 프로세서는, 상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여(by tracking), 상기 제1 정보를 획득하도록, 구성될 수 있다.For example, the processor may be configured to obtain the first information by tracking the path based on whether a portion of the external object indicated by the attribute is in contact with the plane. there is.
예를 들어, 상기 프로세서는, 상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to display within the display one or more lines having the form of the tracked path.
예를 들어, 상기 프로세서는, 제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하도록, 구성될 수 있다. 상기 프로세서는, 상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to identify that the external object moves out of the display area due to a motion of the wearable device while tracking the path using the camera, which is the first camera. The processor may be configured to track the path of the external object using a second camera facing the external object that has moved outside the display area. The processor may be configured to display, within the display, a line having the shape of the path tracked by the second camera.
예를 들어, 상기 프로세서는, 상기 속성에 의해 설정된(set) 색상, 투명도, 또는 두께 중 적어도 하나를 가지는 상기 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to display, in the display, the one or more lines having at least one of color, transparency, or thickness set by the attribute.
예를 들어, 상기 프로세서는, 상기 외부 객체의 일 단으로부터 연장되는 잉크(ink)에 의해 그려진 상기 적어도 하나의 획을 추적하도록 선택된, 상기 속성에 기반하여, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 제2 정보를 획득하도록, 구성될 수 있다.For example, the processor is selected to track the at least one stroke drawn by ink extending from one end of the external object, based on the attribute, among the first information or the second information. It may be configured to obtain the second information.
예를 들어, 상기 프로세서는, 상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하도록, 구성될 수 있다.For example, the processor may be configured to execute the application using the information selected according to the attribute in response to an input indicating selection of the second visual object.
예를 들어, 상기 프로세서는, 상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to execute the application based on the second visual object and display a screen including an image indicated by the information selected according to the attribute on the display. .
예를 들어, 상기 전자 장치는, 통신 회로를 더 포함할 수 있다. 상기 프로세서는, 상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하도록, 구성될 수 있다.For example, the electronic device may further include a communication circuit. The processor executes the application based on the second visual object to send a message containing text indicated by the information selected according to the attribute, indicated by the second visual object through the communication circuit. Can be configured to transmit to an external electronic device.
예를 들어, 상기 프로세서는, 상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하도록, 구성될 수 있다.For example, the processor may be configured to execute the application based on the second visual object and obtain schedule data based on text indicated by the information selected according to the attribute.
상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 디스플레이 내에, 상기 웨어러블 장치의 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이의 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하는 동작을 포함할 수 있다.As described above, the method of using a wearable device according to an embodiment may include an operation of displaying a list of a plurality of applications stored in a memory of the wearable device on a display of the wearable device. The method is based on an input indicating that a visual object representing the first application included in the list is superimposed on an external object included in a display area of the display, using the external object to display the first application. It may include an operation to obtain properties for executing. The method includes, after obtaining the attribute, acquiring at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object. may include. The method may include executing the first application using information selected by the attribute from among the first information or the second information.
예를 들어, 상기 속성을 획득하는 동작은, 상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하는 동작을 포함할 수 있다.For example, the operation of acquiring the property may include the operation of displaying a screen for receiving one or more properties related to the first application within the display area in response to the input.
예를 들어, 상기 속성을 획득하는 동작은, 길이 방향으로 연장된 상기 외부 객체의 양 단들(both ends) 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하는 동작을 포함할 수 있다.For example, the operation of acquiring the attribute may include selecting one end adjacent to the first visual object superimposed on the external object by the input among both ends of the external object extending in the longitudinal direction. It may include an identifying operation.
예를 들어, 상기 제1 정보 또는 상기 제2 정보 중 적어도 하나를 획득하는 동작은, 상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하는 동작을 포함할 수 있다.For example, acquiring at least one of the first information or the second information may include obtaining the first information related to the identified set of paths.
예를 들어, 상기 실행하는 동작은, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하는 동작을 포함할 수 있다.For example, the executing operation may include executing the application based on text recognized from information selected by the attribute among the first information or the second information.
상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 카메라를 이용하여 상기 웨어러블 장치의 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하는 동작을 포함할 수 있다.As described above, the method of using a wearable device according to an embodiment may include an operation of identifying an external object included in a display area of a display of the wearable device using a camera of the wearable device. The method may include displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The method obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information comprising at least one stroke drawn by the external object. It may include actions such as: The method includes displaying a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object. may include.
예를 들어, 상기 획득하는 동작은, 상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여, 상기 제1 정보를 획득하는 동작을 포함할 수 있다.For example, the acquiring operation may include acquiring the first information by tracking the path based on whether a part of the external object indicated by the attribute is in contact with the plane. .
예를 들어, 상기 제1 정보를 획득하는 동작은, 상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.For example, the operation of obtaining the first information may include the operation of displaying one or more lines in the form of the tracked path on the display.
예를 들어, 상기 하나 이상의 라인들을 표시하는 동작은, 제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하는 동작을 포함할 수 있다. 상기 방법은, 상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.For example, the operation of displaying one or more lines may identify that the external object is moved out of the display area by the motion of the wearable device while tracking the path using the camera, which is the first camera. Can include actions. The method may include tracking the path of the external object using a second camera facing the external object that has moved outside the display area. The method may include displaying a line having the shape of the path tracked by the second camera on the display.
예를 들어, 상기 방법은, 상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하는 동작을 포함할 수 있다.For example, the method may include executing the application using the information selected according to the attribute in response to an input indicating selection of the second visual object.
예를 들어, 상기 실행하는 동작은, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.For example, the executing operation may include displaying a screen including an image indicated by the information selected according to the attribute on the display.
예를 들어, 상기 실행하는 동작은, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 웨어러블 장치의 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하는 동작을 포함할 수 있다.For example, the executing operation includes transmitting a message containing text indicated by the information selected according to the attribute to an external electronic device indicated by the second visual object through a communication circuit of the wearable device. It may include actions such as:
예를 들어, 상기 실행하는 동작은, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하는 동작을 포함할 수 있다.For example, the executing operation may include obtaining schedule data based on text indicated by the information selected according to the attribute.
상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치(예, 도 1 및/또는 도 5의 웨어러블 장치(101))는, 디스플레이(예, 도 5의 디스플레이(530)), 메모리(예, 도 5의 메모리(520)) 및 프로세서(예, 도 5의 프로세서(510))를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이 내에, 상기 메모리에 저장된 복수의 어플리케이션들의 리스트(예, 도 6의 리스트(610))를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 표시 영역 내에 포함된 외부 객체(예, 도 1의 외부 객체(130)) 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하도록, 구성될 수 있다.As described above, according to one embodiment, a wearable device (e.g.,
예를 들어, 상기 프로세서는, 상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하도록, 구성될 수 있다.For example, the processor may be configured to display a screen for receiving one or more properties related to the first application within the display area in response to the input.
예를 들어, 상기 프로세서는, 길이 방향으로 연장된 상기 외부 객체의 양 단들 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하도록, 구성될 수 있다.For example, the processor may be configured to identify, among both ends of the external object extending in the longitudinal direction, one end adjacent to the first visual object overlaid on the external object by the input.
예를 들어, 상기 프로세서는, 상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하도록, 구성될 수 있다.For example, the processor may be configured to obtain the first information related to the identified set of paths.
예를 들어, 상기 프로세서는, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하도록, 구성될 수 있다.For example, the processor may be configured to execute the application based on text recognized from information selected by the attribute among the first information or the second information.
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may continuously store a computer-executable program, or temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites that supply or distribute various other software, or servers.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.
Claims (28)
디스플레이(530);
카메라(540); 및
프로세서(510)를 포함하고, 상기 프로세서는,
상기 카메라를 이용하여 상기 디스플레이의 표시 영역 내에 포함된 외부 객체(130)를 식별하고;
상기 외부 객체에 대응하는 어플리케이션을 표현하는(representing) 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하고;
상기 제1 시각적 객체가 표시된 동안, 평면(a plane) 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획(stroke)을 포함하는 제2 정보 중 적어도 하나를 획득하고; 및
상기 외부 객체에 할당된(assigned) 속성(attribute)에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하도록, 구성된,
웨어러블 장치.In the wearable device 101,
display 530;
camera 540; and
Includes a processor 510, where the processor:
Identifying an external object 130 included in a display area of the display using the camera;
displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area;
At least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object Acquire one; and
According to an attribute assigned to the external object, a second visual object for executing the application using information selected from the first information or the second information is displayed based on the location. to, composed,
Wearable devices.
상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여(by tracking), 상기 제1 정보를 획득하도록, 구성된,
웨어러블 장치.The method of claim 1, wherein the processor:
configured to obtain the first information by tracking the path based on whether a portion of the external object indicated by the attribute is in contact with the plane,
Wearable devices.
상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 2, wherein the processor:
configured to display within the display one or more lines having the form of the tracked path,
Wearable devices.
제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하고;
상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하고; 및
상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 3, wherein the processor:
While tracking the path using the camera, which is a first camera, identify that the external object moves outside the display area due to the motion of the wearable device;
tracking the path of the external object using a second camera facing the external object moved outside the display area; and
configured to display in the display a line having the shape of the path tracked by the second camera,
Wearable devices.
상기 속성에 의해 설정된(set) 색상, 투명도, 또는 두께 중 적어도 하나를 가지는 상기 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 4, wherein the processor:
configured to display within the display the one or more lines having at least one of color, transparency, or thickness set by the attribute,
Wearable devices.
상기 외부 객체의 일 단으로부터 연장되는 잉크(ink)에 의해 그려진 상기 적어도 하나의 획을 추적하도록 선택된, 상기 속성에 기반하여, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 제2 정보를 획득하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 5, wherein the processor:
Based on the attribute selected to track the at least one stroke drawn by ink extending from one end of the external object, obtain the second information from among the first information or the second information, composed,
Wearable devices.
상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 6, wherein the processor:
configured to, in response to an input indicating selection of the second visual object, execute the application using the information selected according to the attribute,
Wearable devices.
상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 7, wherein the processor:
configured to execute the application based on the second visual object and display a screen including an image indicated by the information selected according to the attribute within the display,
Wearable devices.
상기 프로세서는,
상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 8, further comprising a communication circuit,
The processor,
Executes the application based on the second visual object and sends a message including text indicated by the information selected according to the attribute to an external electronic device indicated by the second visual object through the communication circuit. configured to transmit,
Wearable devices.
상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하도록, 구성된,
웨어러블 장치.The method of any one of claims 1 to 9, wherein the processor:
configured to execute the application based on the second visual object and obtain schedule data based on text indicated by the information selected according to the attribute,
Wearable devices.
상기 웨어러블 장치의 디스플레이 내에, 상기 웨어러블 장치의 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하는 동작;
상기 디스플레이의 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하는 동작;
상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작; 및
상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하는 동작을 포함하는,
방법.In the method of the wearable device,
Displaying, on a display of the wearable device, a list of a plurality of applications stored in a memory of the wearable device;
Based on an input indicating overlapping a visual object representing the first application included in the list on an external object included in the display area of the display, for executing the first application using the external object An operation to acquire a property;
After acquiring the attribute, acquiring at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object; and
Comprising the operation of executing the first application using information selected by the attribute among the first information or the second information,
method.
상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하는 동작을 포함하는,
방법.The method of claim 11, wherein the operation of acquiring the property is:
In response to the input, displaying a screen for receiving one or more properties related to the first application within the display area,
method.
길이 방향으로 연장된 상기 외부 객체의 양 단들(both ends) 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하는 동작을 포함하는,
방법.The method according to any one of claims 11 to 12, wherein the operation of acquiring the property includes:
Among both ends of the external object extending in the longitudinal direction, an operation of identifying one end adjacent to the first visual object superimposed on the external object by the input,
method.
상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하는 동작을 포함하는,
방법.The method of any one of claims 11 to 13, wherein the operation of acquiring at least one of the first information or the second information includes:
Comprising the operation of obtaining the first information related to the identified set of paths,
method.
상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하는 동작을 포함하는,
방법.The method of any one of claims 11 to 14, wherein the executing operation is:
Comprising an operation of executing the application based on text recognized from information selected by the attribute among the first information or the second information,
method.
상기 웨어러블 장치의 카메라를 이용하여 상기 웨어러블 장치의 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하는 동작;
상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하는 동작;
상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작; 및
상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하는 동작을 포함하는,
방법.In the method of the wearable device,
Identifying an external object included in a display area of a display of the wearable device using a camera of the wearable device;
Displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area;
While the first visual object is displayed, obtaining at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object; and
Including an operation of displaying a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object,
method.
상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여, 상기 제1 정보를 획득하는 동작을 포함하는,
방법.The method of claim 16, wherein the acquiring operation is:
Comprising an operation of acquiring the first information by tracking the path based on whether a part of the external object indicated by the attribute is in contact with the plane,
method.
상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법.The method of any one of claims 16 to 17, wherein the operation of acquiring the first information includes:
Including displaying in the display one or more lines having the form of the tracked path,
method.
제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하는 동작;
상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하는 동작; 및
상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법.The method of any one of claims 16 to 18, wherein the operation of displaying one or more lines includes:
An operation of identifying that the external object moves outside the display area due to a motion of the wearable device while tracking the path using the camera, which is a first camera;
An operation of tracking the path of the external object using a second camera facing the external object that has moved out of the display area; and
Including an operation of displaying a line having the shape of the path tracked by the second camera on the display,
method.
상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하는 동작을 더 포함하는,
방법.According to any one of claims 16 to 19,
In response to an input indicating selection of the second visual object, further comprising executing the application using the information selected according to the attribute,
method.
상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법.The method of any one of claims 16 to 20, wherein the executing operation is:
Comprising the operation of displaying a screen including an image indicated by the information selected according to the attribute on the display,
method.
상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 웨어러블 장치의 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하는 동작을 포함하는,
방법.The method of any one of claims 16 to 21, wherein the executing operation is:
An operation of transmitting a message containing text indicated by the information selected according to the attribute to an external electronic device indicated by the second visual object through a communication circuit of the wearable device,
method.
상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하는 동작을 포함하는,
방법.The method of any one of claims 16 to 22, wherein the executing operation is:
Comprising the operation of obtaining schedule data based on text indicated by the information selected according to the attribute,
method.
디스플레이(530);
메모리(520); 및
프로세서(510)를 포함하고, 상기 프로세서는,
상기 디스플레이 내에, 상기 메모리에 저장된 복수의 어플리케이션들의 리스트(610)를 표시하고;
상기 표시 영역 내에 포함된 외부 객체(130) 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하고;
상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하고; 및
상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하도록, 구성된,
웨어러블 장치.In the wearable device 101,
display 530;
memory(520); and
Includes a processor 510, where the processor:
within the display, displaying a list 610 of a plurality of applications stored in the memory;
Executing the first application using the external object based on an input indicating overlapping a visual object representing the first application included in the list on the external object 130 included in the display area acquire properties for;
After acquiring the attribute, obtain at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object; and
configured to execute the first application using information selected by the attribute among the first information or the second information,
Wearable devices.
상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하도록, 구성된,
웨어러블 장치.25. The method of claim 24, wherein the processor:
configured to, in response to the input, display a screen for receiving one or more properties related to the first application within the display area,
Wearable devices.
길이 방향으로 연장된 상기 외부 객체의 양 단들 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하도록, 구성된,
웨어러블 장치.The method of any one of claims 24 to 25, wherein the processor:
Configured to identify, among both ends of the external object extending in the longitudinal direction, one end adjacent to the first visual object superimposed on the external object by the input,
Wearable devices.
상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하도록, 구성된,
웨어러블 장치.The method of any one of claims 24 to 26, wherein the processor:
configured to obtain the first information related to the identified set of paths,
Wearable devices.
상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하도록, 구성된,
웨어러블 장치.
The method of any one of claims 24 to 27, wherein the processor:
configured to execute the application based on text recognized from information selected by the attribute among the first information or the second information,
Wearable devices.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2023/011313 WO2024096267A1 (en) | 2022-11-01 | 2023-08-02 | Wearable device for executing application on basis of information obtained by tracking external object, and method thereof |
US18/455,218 US20240143067A1 (en) | 2022-11-01 | 2023-08-24 | Wearable device for executing application based on information obtained by tracking external object and method thereof |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20220144088 | 2022-11-01 | ||
KR1020220144088 | 2022-11-01 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240062862A true KR20240062862A (en) | 2024-05-09 |
Family
ID=91075576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220170126A KR20240062862A (en) | 2022-11-01 | 2022-12-07 | Wearable device for executing application based on information obtained by tracking external object and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240062862A (en) |
-
2022
- 2022-12-07 KR KR1020220170126A patent/KR20240062862A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107810465B (en) | System and method for generating a drawing surface | |
US9165381B2 (en) | Augmented books in a mixed reality environment | |
US9829986B2 (en) | Method and wearable device for providing a virtual input interface | |
US9583032B2 (en) | Navigating content using a physical object | |
US9886102B2 (en) | Three dimensional display system and use | |
US20150379770A1 (en) | Digital action in response to object interaction | |
US11340695B2 (en) | Converting a 2D positional input into a 3D point in space | |
TW201626291A (en) | Method and apparatus for processing screen using device | |
KR20170036704A (en) | Multi-user gaze projection using head mounted display devices | |
KR20150110257A (en) | Method and wearable device for providing a virtual input interface | |
CN103294260A (en) | Touch sensitive user interface | |
CN107861613A (en) | Show the method for the omniselector associated with content and realize its electronic installation | |
US11733783B2 (en) | Method and device for presenting a synthesized reality user interface | |
KR102360176B1 (en) | Method and wearable device for providing a virtual input interface | |
KR20190101827A (en) | Electronic apparatus for providing second content associated with first content displayed through display according to motion of external object, and operating method thereof | |
US11367416B1 (en) | Presenting computer-generated content associated with reading content based on user interactions | |
CN105247574B (en) | Electronic device, the control method of electronic device and computer-readable recording medium | |
US11962561B2 (en) | Immersive message management | |
KR20240062862A (en) | Wearable device for executing application based on information obtained by tracking external object and method thereof | |
US20240143067A1 (en) | Wearable device for executing application based on information obtained by tracking external object and method thereof | |
US20240177367A1 (en) | Wearable device for controlling displaying of visual object corresponding to external object and method thereof | |
KR20240082088A (en) | Wearable device for displaying media content based on grip form regarding external obejct and method thereof | |
US20240169603A1 (en) | Wearable device for displaying visual object for controlling virtual object and method thereof | |
KR20240058665A (en) | Wearable device for modifying visual object by using data identified by sensor and method thereof | |
US20240152202A1 (en) | Wearable device for controlling multimedia content placed in virtual space and method thereof |