KR20240062862A - Wearable device for executing application based on information obtained by tracking external object and method thereof - Google Patents

Wearable device for executing application based on information obtained by tracking external object and method thereof Download PDF

Info

Publication number
KR20240062862A
KR20240062862A KR1020220170126A KR20220170126A KR20240062862A KR 20240062862 A KR20240062862 A KR 20240062862A KR 1020220170126 A KR1020220170126 A KR 1020220170126A KR 20220170126 A KR20220170126 A KR 20220170126A KR 20240062862 A KR20240062862 A KR 20240062862A
Authority
KR
South Korea
Prior art keywords
wearable device
external object
display
information
application
Prior art date
Application number
KR1020220170126A
Other languages
Korean (ko)
Inventor
이은경
문하린
박완제
강지영
이재한
이채경
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/011313 priority Critical patent/WO2024096267A1/en
Priority to US18/455,218 priority patent/US20240143067A1/en
Publication of KR20240062862A publication Critical patent/KR20240062862A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

일 실시예에 따른, 웨어러블 장치의 프로세서는, 카메라를 이용하여 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별할 수 있다. 상기 프로세서는, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시할 수 있다. 상기 프로세서는, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득할 수 있다. 상기 프로세서는, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시할 수 있다.According to one embodiment, the processor of the wearable device may identify an external object included in the display area of the display using a camera. The processor may display a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The processor obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object. can do. The processor may display a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the properties assigned to the external object. there is.

Description

외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하기 위한 웨어러블 장치 및 그 방법{WEARABLE DEVICE FOR EXECUTING APPLICATION BASED ON INFORMATION OBTAINED BY TRACKING EXTERNAL OBJECT AND METHOD THEREOF}Wearable device and method for executing an application based on information obtained by tracking an external object {WEARABLE DEVICE FOR EXECUTING APPLICATION BASED ON INFORMATION OBTAINED BY TRACKING EXTERNAL OBJECT AND METHOD THEREOF}

본 개시(present disclosure)는 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하기 위한 웨어러블 장치 및 방법에 관한 것이다. This disclosure (present disclosure) relates to a wearable device and method for executing an application based on information obtained by tracking an external object.

강화된(enhanced) 사용자 경험(user experience)을 제공하기 위해, 실제 세계(real-world) 내 외부 객체와 연계로 컴퓨터에 의해 생성된 정보를 표시하는 증강 현실(augmented reality, AR) 서비스를 제공하는 전자 장치가 개발되고 있다. 상기 전자 장치는, 사용자에 의해 착용될 수 있는 웨어러블 장치일 수 있다. 예를 들면, 상기 전자 장치는, AR 안경(glasses), 및/또는 머리 착용형 장치(head-mounted device, HMD)일 수 있다.To provide an enhanced user experience, we provide augmented reality (AR) services that display computer-generated information in conjunction with external objects in the real-world. Electronic devices are being developed. The electronic device may be a wearable device that can be worn by a user. For example, the electronic device may be AR glasses and/or a head-mounted device (HMD).

일 실시예(an embodiment)에 따른, 웨어러블 장치(wearable device)는, 디스플레이, 카메라, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 카메라를 이용하여 상기 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하도록, 구성될 수 있다. According to an embodiment, a wearable device may include a display, a camera, and a processor. The processor may be configured to identify an external object included in a display area of the display using the camera. The processor may be configured to display a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The processor obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object. It can be configured to do so. The processor displays a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object. It can be configured.

일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 카메라를 이용하여 상기 웨어러블 장치의 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하는 동작을 포함할 수 있다.According to one embodiment, a method of using a wearable device may include identifying an external object included in a display area of a display of the wearable device using a camera of the wearable device. The method may include displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The method obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information comprising at least one stroke drawn by the external object. It may include actions such as: The method includes displaying a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object. may include.

일 실시예에 따른, 웨어러블 장치는, 디스플레이, 메모리 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이 내에, 상기 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하도록, 구성될 수 있다.According to one embodiment, a wearable device may include a display, memory, and a processor. The processor may be configured to display, within the display, a list of a plurality of applications stored in the memory. The processor executes the first application using the external object based on an input indicating that a visual object representing the first application included in the list is overlapped on an external object included in the display area. It can be configured to obtain properties for: The processor, after acquiring the attribute, obtains at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object, It can be configured. The processor may be configured to execute the first application using information selected by the attribute from among the first information or the second information.

일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 디스플레이 내에, 상기 웨어러블 장치의 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이의 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하는 동작을 포함할 수 있다.According to one embodiment, a method of using a wearable device may include displaying a list of a plurality of applications stored in a memory of the wearable device on a display of the wearable device. The method is based on an input indicating that a visual object representing the first application included in the list is superimposed on an external object included in a display area of the display, using the external object to display the first application. It may include an operation to obtain properties for executing. The method includes, after obtaining the attribute, acquiring at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object. may include. The method may include executing the first application using information selected by the attribute from among the first information or the second information.

도 1은, 일 실시예에 따른, 웨어러블 장치가 외부 객체와 관련된 정보를 획득하는 동작의 일 예를 도시한다.
도 2는, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 3a는, 일 실시예에 따른, 웨어러블 장치의 사시도(prospective view)의 일 예를 도시한다.
도 3b는, 일 실시예에 따른, 웨어러블 장치 내에 배치된 하나 이상의 하드웨어들의 일 예를 도시한다.
도 4a 내지 도 4b는, 일 실시예에 따른, 웨어러블 장치의 외관의 일 예를 도시한다.
도 5는, 일 실시예에 따른, 웨어러블 장치의 블록도이다.
도 6a 내지 도 6d는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 등록함을 지시하는(indicating) 입력을 식별하는 동작의 일 예를 도시한다.
도 7은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 8a 내지 도 8b는, 일 실시예에 따른, 웨어러블 장치가 외부 객체에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다.
도 9a 내지 도 9c는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 10은, 일 실시예에 따른, 웨어러블 장치가 외부 객체의 추적을 위한 카메라를 전환하는 동작의 일 예를 도시한다.
도 11은, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 표시하는 UI의 일 예를 도시한다.
도 12a 내지 도 12b는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 13은, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 14는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
도 15a 내지 도 15b는, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여 복수의 어플리케이션들을 실행하는 동작의 일 예를 도시한다.
도 16은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 17은, 일 실시예에 따른, 웨어러블 장치가 외부 객체를 추적하여 획득된 정보에 기반하여, 적어도 하나의 어플리케이션을 추천하기 위한 UI를 표시하는 동작의 일 예를 도시한다.
도 18은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다.
도 19는, 일 실시예에 따른, 웨어러블 장치가 외부 전자 장치에 의해 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다.
FIG. 1 illustrates an example of an operation in which a wearable device obtains information related to an external object, according to an embodiment.
Figure 2 shows an example of a flow chart for a wearable device, according to one embodiment.
Figure 3A shows an example of a perspective view of a wearable device, according to one embodiment.
FIG. 3B shows an example of one or more hardware deployed within a wearable device, according to one embodiment.
4A to 4B show an example of the appearance of a wearable device, according to an embodiment.
Figure 5 is a block diagram of a wearable device, according to one embodiment.
FIGS. 6A to 6D illustrate an example of an operation for identifying an input indicating that a wearable device registers an external object, according to an embodiment.
Figure 7 shows an example of a flow chart for a wearable device, according to one embodiment.
FIGS. 8A and 8B illustrate an example of a user interface (UI) displayed by a wearable device based on an external object, according to an embodiment.
9A to 9C illustrate an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIG. 10 illustrates an example of an operation in which a wearable device switches a camera for tracking an external object, according to an embodiment.
FIG. 11 illustrates an example of a UI that a wearable device displays based on information obtained by tracking an external object, according to an embodiment.
FIGS. 12A and 12B illustrate an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIG. 13 illustrates an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIG. 14 illustrates an example of an operation in which a wearable device executes an application based on information obtained by tracking an external object, according to an embodiment.
FIGS. 15A and 15B illustrate an example of an operation in which a wearable device executes a plurality of applications based on information obtained by tracking an external object, according to an embodiment.
Figure 16 shows an example of a flow chart for a wearable device, according to one embodiment.
FIG. 17 illustrates an example of an operation in which a wearable device displays a UI for recommending at least one application based on information obtained by tracking an external object, according to an embodiment.
Figure 18 shows an example of a flow chart for a wearable device, according to one embodiment.
FIG. 19 illustrates an example of an operation in which a wearable device executes an application based on information acquired by an external electronic device, according to an embodiment.

이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 설명된다.Hereinafter, various embodiments of this document are described with reference to the attached drawings.

본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.The various embodiments of this document and the terms used herein are not intended to limit the technology described in this document to a specific embodiment, and should be understood to include various changes, equivalents, and/or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar components. Singular expressions may include plural expressions, unless the context clearly indicates otherwise. In this document, expressions such as “A or B”, “at least one of A and/or B”, “A, B or C” or “at least one of A, B and/or C” refer to all of the items listed together. Possible combinations may be included. Expressions such as "first", "second", "first" or "second" can modify the corresponding components regardless of order or importance, and are only used to distinguish one component from another. The components are not limited. When a component (e.g., a first) component is said to be "connected (functionally or communicatively)" or "connected" to another (e.g., second) component, it means that the component is connected to the other component. It may be connected directly to a component or may be connected through another component (e.g., a third component).

본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다.The term “module” used in this document includes a unit comprised of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part, a minimum unit that performs one or more functions, or a part thereof. For example, a module may be comprised of an application-specific integrated circuit (ASIC).

도 1은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)와 관련된 정보를 획득하는 동작의 일 예를 도시한다. 도 1을 참고하면, 일 실시예에 따른 웨어러블 장치(101)는 사용자(110)의 머리에 착용 가능한(wearable on) HMD(head-mounted display)를 포함할 수 있다. 비록 안경의 형태를 가지는 웨어러블 장치(101)의 외형이 도시되지만, 실시예가 이에 제한되는 것은 아니다. 사용자(110)의 머리에 착용가능한 웨어러블 장치(101)의 구조의 일 예가 도 3a 내지 도 3b 및/또는 도 4a 내지 도 4b를 참고하여 설명된다. 웨어러블 장치(101) 내에 포함된 하나 이상의 하드웨어들이, 도 5를 참고하여 예시적으로 설명된다.FIG. 1 illustrates an example of an operation in which a wearable device 101 acquires information related to an external object 130, according to an embodiment. Referring to FIG. 1 , a wearable device 101 according to an embodiment may include a head-mounted display (HMD) that is wearable on the head of the user 110. Although the outer appearance of the wearable device 101 in the form of glasses is shown, the embodiment is not limited thereto. An example of the structure of the wearable device 101 that can be worn on the head of the user 110 is described with reference to FIGS. 3A to 3B and/or 4A to 4B. One or more pieces of hardware included in the wearable device 101 are exemplarily described with reference to FIG. 5 .

일 실시예에 따른, 웨어러블 장치(101)는 증강 현실(augmented reality, AR), 및/또는 혼합 현실(mixed reality, MR)과 관련된 기능을 실행할 수 있다. 도 1을 참고하면, 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 웨어러블 장치(101)는 사용자(110)의 눈에 인접하게 배치된 적어도 하나의 렌즈를 포함할 수 있다. 웨어러블 장치(101)는 렌즈를 통과하는 주변 광(ambient light)에, 웨어러블 장치(101)의 디스플레이로부터 방사된 광을 결합할 수 있다. 상기 디스플레이의 표시 영역은, 주변 광이 통과되는 렌즈 내에서 형성될 수 있다. 웨어러블 장치(101)가 상기 주변 광 및 상기 디스플레이로부터 방사된 상기 광을 결합하기 때문에, 사용자(110)는 상기 주변 광에 의해 인식되는 실제 객체(real object) 및 상기 디스플레이로부터 방사된 상기 광에 의해 형성된 가상 객체(virtual object)가 혼합된 상(image)을 볼 수 있다.According to one embodiment, the wearable device 101 may execute functions related to augmented reality (AR) and/or mixed reality (MR). Referring to FIG. 1 , when the user 110 is wearing the wearable device 101, the wearable device 101 may include at least one lens disposed adjacent to the eye of the user 110. The wearable device 101 may combine light emitted from the display of the wearable device 101 with ambient light passing through the lens. The display area of the display may be formed within a lens through which ambient light passes. Because the wearable device 101 combines the ambient light and the light emitted from the display, the user 110 can see a real object perceived by the ambient light and the light emitted from the display. You can see an image in which the formed virtual objects are mixed.

일 실시예에 따른, 웨어러블 장치(101)는 VST(video see-through) 및/또는 가상 현실(virtual reality, VR)과 관련된 기능을 실행할 수 있다. 도 1을 참고하면, 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 웨어러블 장치(101)는 사용자(110)의 눈을 덮는 하우징을 포함할 수 있다. 웨어러블 장치(101)는, 상기 상태 내에서, 상기 눈을 향하는 제1 면에 배치된 디스플레이를 포함할 수 있다. 웨어러블 장치(101)는 상기 제1 면과 반대인 제2 면 상에 배치된 카메라를 포함할 수 있다. 상기 카메라를 이용하여, 웨어러블 장치(101)는 주변 광이 포함된 프레임들을 획득할 수 있다. 웨어러블 장치(101)는 상기 제1 면에 배치된 디스플레이 내에, 상기 프레임들을 출력하여, 사용자(110)가 상기 디스플레이를 통해 상기 주변 광을 인식하게 만들 수 있다. 상기 제1 면에 배치된 디스플레이의 표시 영역은, 상기 디스플레이에 포함된 하나 이상의 픽셀들에 의해 형성될 수 있다. 웨어러블 장치(101)는 상기 디스플레이를 통해 출력되는 프레임들 내에 가상 객체를 합성하여, 사용자(110)가 주변 광에 의해 인식되는 실제 객체와 함께 상기 가상 객체를 인식하게 만들 수 있다.According to one embodiment, the wearable device 101 may execute functions related to video see-through (VST) and/or virtual reality (VR). Referring to FIG. 1 , when the user 110 is wearing the wearable device 101, the wearable device 101 may include a housing that covers the eyes of the user 110. In this state, the wearable device 101 may include a display disposed on a first side facing the eye. The wearable device 101 may include a camera disposed on a second side opposite to the first side. Using the camera, the wearable device 101 can obtain frames containing ambient light. The wearable device 101 may output the frames in a display disposed on the first side, allowing the user 110 to recognize the ambient light through the display. The display area of the display disposed on the first side may be formed by one or more pixels included in the display. The wearable device 101 may synthesize a virtual object within frames output through the display, allowing the user 110 to recognize the virtual object along with a real object recognized by ambient light.

도 1을 참고하면, 사용자(110)에 의해 착용된 상태 내에서, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 식별한 일 예가 도시된다. 도 1의 일 예에서, 웨어러블 장치(101)는 AR, MR, 또는 VST에 기반하여, 사용자(110)에게 외부 공간을 인식하게 만들 수 있다. 상기 외부 공간 내에서, 웨어러블 장치(101)는 외부 객체(130)를 식별할 수 있다. 비록 펜의 형태를 가지는 외부 객체(130)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다. 외부 객체(130)는 웨어러블 장치(101)에 등록 가능한 오브젝트를 포함할 수 있다. 예를 들어, 외부 객체(130)는, 펜 및/또는 나뭇가지와 같은 막대기와 같이, 길이 방향으로 연장된 형태를 가질 수 있다. 실시예가 이에 제한되는 것은 아니며, 외부 객체(130)는 다면체의 형태를 가지거나, 또는 곡면체의 형태를 가질 수 있다. 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 등록하기 위하여 수행하는 동작의 일 예가 도 6a 내지 도 6d, 및/또는 도 7을 참고하여 설명된다.Referring to FIG. 1 , an example in which the wearable device 101, according to one embodiment, identifies an external object 130 while worn by the user 110 is shown. In the example of FIG. 1 , the wearable device 101 may enable the user 110 to recognize an external space based on AR, MR, or VST. Within the external space, the wearable device 101 may identify an external object 130. Although the external object 130 having the shape of a pen is shown as an example, the embodiment is not limited thereto. The external object 130 may include an object that can be registered in the wearable device 101. For example, the external object 130 may have a shape extending in the longitudinal direction, such as a pen and/or a stick such as a tree branch. The embodiment is not limited to this, and the external object 130 may have the shape of a polyhedron or a curved body. An example of an operation performed by the wearable device 101 to register an external object 130 according to an embodiment is described with reference to FIGS. 6A to 6D and/or FIG. 7 .

도 1을 참고하면, 웨어러블 장치(101)를 착용한 사용자(110)에 의해 보여지는(shown by) 이미지가 도시된다. 일 실시예에 따른, 웨어러블 장치(101)는 어플리케이션의 기능에 매핑된 외부 객체(130)를 식별할 수 있다. 웨어러블 장치(101)는, 디스플레이의 표시 영역 내 외부 객체(130)의 위치에 기반하여, 시각적 객체(160)를 표시할 수 있다. 시각적 객체(160)는, 외부 객체(130)에 매핑된 어플리케이션의 아이콘의 형태를 가질 수 있다. 웨어러블 장치(101)에 의해 표시되는 시각적 객체(160)의 형태, 크기 및/또는 위치는 도 1의 일 실시예에 제한되지 않는다.Referring to FIG. 1 , an image shown by a user 110 wearing a wearable device 101 is shown. According to one embodiment, the wearable device 101 may identify an external object 130 mapped to a function of an application. The wearable device 101 may display a visual object 160 based on the location of the external object 130 within the display area of the display. The visual object 160 may have the form of an application icon mapped to the external object 130. The shape, size, and/or location of the visual object 160 displayed by the wearable device 101 is not limited to the embodiment of FIG. 1 .

일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 모션과 관련된 정보를 획득할 수 있다. 도 1을 참고하면, 외부 객체(130)가 손(140)에 의해 이동되는 예시적인 상태가 도시된다. 예를 들어, 외부 객체(130)를 향하여 배치된 웨어러블 장치(101)의 카메라(및/또는 깊이 센서)를 이용하여, 웨어러블 장치(101)는 외부 객체(130)의 경로와 관련된 제1 정보를 획득할 수 있다. 상기 제1 정보는, 평면(150)(예, 종이 및/또는 테이블) 상에 접촉된 외부 객체(130)의 경로를 포함할 수 있다. 외부 객체(130)가 펜 및/또는 연필과 같이, 평면(150) 상에 흔적(trace)(예, 적어도 하나의 획(stroke))을 생성할 수 있는 오브젝트인 경우, 웨어러블 장치(101)는 상기 카메라를 이용하여 외부 객체(130)에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보를 획득할 수 있다. 웨어러블 장치(101)는 상기 적어도 하나의 획에 대한 OCR(optical character recognition)을 수행하여, 외부 객체(130)의 모션에 의해 생성된 콘텐트(예, 글씨 및/또는 이미지)를 획득할 수 있다.According to one embodiment, the wearable device 101 may obtain information related to the motion of the external object 130. Referring to FIG. 1 , an exemplary state in which an external object 130 is moved by a hand 140 is shown. For example, using the camera (and/or depth sensor) of the wearable device 101 disposed toward the external object 130, the wearable device 101 provides first information related to the path of the external object 130. It can be obtained. The first information may include a path of an external object 130 contacted on a plane 150 (eg, paper and/or table). If the external object 130 is an object capable of creating a trace (e.g., at least one stroke) on the plane 150, such as a pen and/or pencil, the wearable device 101 may Second information including at least one stroke drawn by the external object 130 can be obtained using the camera. The wearable device 101 may perform optical character recognition (OCR) on the at least one stroke to obtain content (eg, text and/or image) generated by the motion of the external object 130.

일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 경로와 관련된 제1 정보 및/또는 외부 객체(130)에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보에 기반하여, 외부 객체(130)에 대응하는 어플리케이션을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130)에 등록된 어플리케이션을 실행하여, 상기 제1 정보 및/또는 상기 제2 정보와 관련된 기능을 실행할 수 있다. 웨어러블 장치(101)는 상기 어플리케이션을 표현한(representing) 아이콘을 포함하는 시각적 객체(160)를 선택함을 지시하는 입력에 응답하여, 상기 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)가 외부 객체(130)에 등록된 상기 어플리케이션을 실행하는 동작이 도 8a 내지 도 8b, 도 9a 내지 도 9c, 도 10 내지 도 16을 참고하여 설명된다. 외부 객체(130)에 등록된 어플리케이션에 따라, 웨어러블 장치(101)는 외부 객체(130)에 의해 그려진 획 및/또는 외부 객체(130)의 경로에 기반하는 다양한 기능들을 실행할 수 있다.According to one embodiment, the wearable device 101 is based on first information related to the path of the external object 130 and/or second information including at least one stroke drawn by the external object 130, An application corresponding to the object 130 may be executed. For example, the wearable device 101 may execute an application registered to the external object 130 and execute functions related to the first information and/or the second information. The wearable device 101 may execute the application in response to an input indicating selection of a visual object 160 including an icon representing the application. The operation of the wearable device 101 executing the application registered to the external object 130 is described with reference to FIGS. 8A to 8B, 9A to 9C, and 10 to 16. Depending on the application registered with the external object 130, the wearable device 101 may execute various functions based on the stroke drawn by the external object 130 and/or the path of the external object 130.

도 1을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 단말(120) 및/또는 서버(122)와 같은 외부 전자 장치와 연결될 수 있다. 단말(120)은, 예를 들어, 랩톱 및 데스크톱과 같은 개인용 컴퓨터(personal computer, PC), 스마트폰(smartphone), 스마트패드(smartpad) 및/또는 태블릿 PC를 포함할 수 있다. 서버(122)는, 외부 객체(130)의 경로 및/또는 외부 객체(130)에 의해 그려진 획을 분석하기 위한 기능(예, 상기 OCR)을 지원할 수 있다. 웨어러블 장치(101), 단말(120) 및/또는 서버(122)는 유선 네트워크 및/또는 무선 네트워크를 통해 서로 연결될 수 있다. 상기 유선 네트워크는, 인터넷, LAN(local area network), WAN(wide area network), 이더넷 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 상기 무선 네트워크는, LTE(long term evolution), 5g NR(new radio), WiFi(wireless fidelity), Zigbee, NFC(near field communication), Bluetooth, BLE(bluetooth low-energy) 또는 이들의 조합과 같은 네트워크를 포함할 수 있다. 비록 웨어러블 장치(101), 단말(120) 및 서버(122)가 직접적으로 연결된(directly connected) 것으로 도시되었으나, 웨어러블 장치(101), 단말(120) 및 서버(!22)는 중간 노드(intermediate node)(예, 하나 이상의 라우터 및/또는 AP(access point))를 통해 간접적으로 연결될 수 있다.Referring to FIG. 1, according to one embodiment, the wearable device 101 may be connected to an external electronic device such as a terminal 120 and/or a server 122. The terminal 120 may include, for example, a personal computer (PC) such as a laptop and desktop, a smartphone, a smartpad, and/or a tablet PC. The server 122 may support a function (eg, OCR) for analyzing the path of the external object 130 and/or the stroke drawn by the external object 130. The wearable device 101, terminal 120, and/or server 122 may be connected to each other through a wired network and/or a wireless network. The wired network may include a network such as the Internet, a local area network (LAN), a wide area network (WAN), Ethernet, or a combination thereof. The wireless network is a network such as long term evolution (LTE), 5g new radio (NR), wireless fidelity (WiFi), Zigbee, near field communication (NFC), Bluetooth, bluetooth low-energy (BLE), or a combination thereof. may include. Although the wearable device 101, terminal 120, and server 122 are shown as being directly connected, the wearable device 101, terminal 120, and server !22 are intermediate nodes. ) (e.g., one or more routers and/or AP (access point)).

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 경로 및/또는 외부 객체(130)에 의해 그려진 적어도 하나의 획을 추적할 수 있다. 추적된 경로 및/또는 획에 기반하여, 웨어러블 장치(101)는 외부 객체(130)에 대응하는 적어도 하나의 어플리케이션을 실행할 수 있다. 외부 객체(130)에 매칭된 적어도 하나의 어플리케이션은, 외부 객체(130)에 할당된(assigned) 속성(attribute)에 의해 설정(set by)될 수 있다. 웨어러블 장치(101)는 상기 속성에 의해 선택된, 상기 경로 또는 상기 획 중 어느 하나에 기반하여, 상기 적어도 하나의 어플리케이션을 실행할 수 있다. 상기 적어도 하나의 어플리케이션이 실행됨에 따라, 웨어러블 장치(101)는, 사용자(110)가 외부 객체(130)를 이용하여 웨어러블 장치(101)를 제어하는 것을 지원할 수 있다. 펜 및/또는 연필과 같이, 외부 객체(130)가 웨어러블 장치(101)와 통신하기 위한 회로를 포함하지 않음에도 불구하고, 웨어러블 장치(101)는, 외부 객체(130)에 의해 지시되는 정보를 시각화할 수 있다. As described above, the wearable device 101 according to one embodiment may track the path of the external object 130 and/or at least one stroke drawn by the external object 130. Based on the tracked path and/or stroke, the wearable device 101 may execute at least one application corresponding to the external object 130. At least one application matched to the external object 130 may be set by an attribute assigned to the external object 130. The wearable device 101 may execute the at least one application based on either the path or the stroke selected by the attribute. As the at least one application is executed, the wearable device 101 may support the user 110 controlling the wearable device 101 using the external object 130. Although external object 130 does not include circuitry for communicating with wearable device 101, such as a pen and/or pencil, wearable device 101 may receive information indicated by external object 130. You can visualize it.

이하에서는 도 2를 참고하여, 일 실시예에 따른, 웨어러블 장치(101)의 동작의 일 예가 설명된다. Below, with reference to FIG. 2 , an example of the operation of the wearable device 101 according to an embodiment is described.

도 2는, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 2의 웨어러블 장치는 도 1의 웨어러블 장치(101)를 포함할 수 있다.Figure 2 shows an example of a flow chart for a wearable device, according to one embodiment. The wearable device of FIG. 2 may include the wearable device 101 of FIG. 1 .

도 2를 참고하면, 동작(210) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체 및 외부 객체에 매핑된 기능을 식별할 수 있다. 예를 들어, 웨어러블 장치는 도 1의 외부 객체(130)와 같이, 웨어러블 장치를 착용한 사용자(예, 도 1의 사용자(110))에 의해 보여지는 외부 객체를 식별할 수 있다. 웨어러블 장치를 착용한 사용자에 의해 보여지는 외부 객체를 식별하기 위하여, 웨어러블 장치는 지정된 방향을 향하여 배치된 적어도 하나의 카메라를 포함할 수 있다. 상기 카메라를 이용하여 웨어러블 장치는 외부 객체를 식별할 수 있다. 외부 객체가 웨어러블 장치에 등록된 외부 객체인 경우, 웨어러블 장치는 상기 외부 객체에 매핑된 상기 기능을 식별할 수 있다. 외부 객체가 웨어러블 장치에 등록되었다는 것은, 웨어러블 장치 내에 외부 객체에 할당된 속성이 저장되어 있음을 의미할 수 있다. 상기 속성에 기반하여, 웨어러블 장치는 상기 기능을 식별할 수 있다.Referring to FIG. 2, within operation 210, according to one embodiment, the wearable device may identify an external object and a function mapped to the external object. For example, the wearable device may identify an external object seen by a user wearing the wearable device (eg, the user 110 of FIG. 1 ), such as the external object 130 of FIG. 1 . In order to identify external objects seen by a user wearing the wearable device, the wearable device may include at least one camera disposed facing a specified direction. Using the camera, a wearable device can identify external objects. If the external object is an external object registered to the wearable device, the wearable device can identify the function mapped to the external object. That an external object is registered in a wearable device may mean that properties assigned to the external object are stored in the wearable device. Based on the attributes, the wearable device can identify the function.

도 2를 참고하면, 동작(220) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체가 식별되었는지 여부에 기반하여, 외부 객체의 모션, 또는 외부 객체에 의해 생성된 적어도 하나의 획에 대한 정보를 획득할 수 있다. 외부 객체의 모션은, 외부 객체를 포함하는 외부 공간의 일 평면(예, 도 1의 평면(150)) 상에 접촉된 외부 객체의 모션을 포함할 수 있다. 상기 적어도 하나의 획은, 외부 객체에 포함된 물질(예, 잉크 및/또는 흑연)이 상기 평면 상에 접착됨에 따라, 생성될 수 있다. 웨어러블 장치는 외부 객체에 할당된 속성에 기반하여, 상기 모션 또는 상기 적어도 하나의 획 중 어느 하나를 선택적으로 추적할 수 있다. 상기 정보를 획득하기 위하여, 웨어러블 장치는 외부 전자 장치(예, 도 1의 단말(120) 및/또는 서버(122))와 통신할 수 있다.Referring to Figure 2, within operation 220, according to one embodiment, the wearable device determines the motion of the external object, or at least one stroke generated by the external object, based on whether the external object has been identified. You can obtain information about The motion of the external object may include the motion of the external object contacted on a plane (eg, plane 150 of FIG. 1) of external space including the external object. The at least one stroke may be created as a material (eg, ink and/or graphite) contained in an external object is adhered to the plane. The wearable device may selectively track either the motion or the at least one stroke based on an attribute assigned to an external object. To obtain the information, the wearable device may communicate with an external electronic device (eg, terminal 120 and/or server 122 of FIG. 1).

일 실시예에서, 외부 객체의 모션에 대한 정보를 획득하기 위하여, 웨어러블 장치는 상기 외부 객체의 일부분(예, 상기 외부 객체의 일 단(an end), 및/또는 일 면(a surface))의 경로를 추적할 수 있다. 상기 외부 객체의 상기 일부분이 평면과 접촉하는지 여부에 기반하여, 웨어러블 장치는 상기 평면 상에 접촉된 외부 객체의 경로와 관련된 제1 정보를 획득할 수 있다. 상기 제1 정보를 획득하는 상태 내에서, 웨어러블 장치는 상기 경로의 형태를 가지는 하나 이상의 라인들을, 웨어러블 장치의 디스플레이 내에 표시할 수 있다. 웨어러블 장치에 의해 추적되는 상기 외부 객체의 상기 일부분은, 상기 외부 객체로 할당된 속성에 의해 설정될 수 있다. In one embodiment, in order to obtain information about the motion of an external object, a wearable device may detect a portion of the external object (e.g., an end, and/or a surface) of the external object. You can trace the route. Based on whether the portion of the external object is in contact with a plane, the wearable device may obtain first information related to the path of the external object in contact with the plane. In the state of acquiring the first information, the wearable device may display one or more lines having the shape of the path on the display of the wearable device. The portion of the external object tracked by the wearable device may be set by attributes assigned to the external object.

일 실시예에서, 외부 객체에 의해 그려진 적어도 하나의 획에 대한 정보를 획득하기 위하여, 웨어러블 장치는, 상이한 카메라들 중에서, 상기 외부 객체를 향하여 배치된 카메라를 제어할 수 있다. 웨어러블 장치는 상기 카메라를 이용하여, 외부 객체에 의해 그려진 적어도 하나의 획을 식별할 수 있다. 웨어러블 장치는 상기 적어도 하나의 획에 의해 지시되는 글자에 기반하여, 외부 객체에 의해 그려진 손글씨(handwriting)를 식별할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치는 상기 적어도 하나의 획에 의해 지시되는 적어도 하나의 도형을 식별할 수 있다. 웨어러블 장치는 상기 손글씨에 대응하는 텍스트 데이터(예, 유니코드와 같은 이진 코드에 의해 인코딩된 데이터)를 획득하기 위하여, 웨어러블 장치는 외부 전자 장치와 통신할 수 있다.In one embodiment, in order to obtain information about at least one stroke drawn by an external object, the wearable device may control a camera disposed toward the external object, among different cameras. The wearable device can use the camera to identify at least one stroke drawn by an external object. The wearable device can identify handwriting drawn by an external object based on the letters indicated by the at least one stroke. The embodiment is not limited to this, and the wearable device can identify at least one figure indicated by the at least one stroke. The wearable device may communicate with an external electronic device to obtain text data (e.g., data encoded by a binary code such as Unicode) corresponding to the handwriting.

도 2를 참고하면, 동작(230) 내에서, 일 실시예에 따른, 웨어러블 장치는, 획득된 정보에 기반하여, 외부 객체에 매핑된 기능을 실행할 수 있다. 상기 기능은, 외부 객체에 의해 할당된 속성에 의해 식별될 수 있다. 상기 기능은, 웨어러블 장치에 설치된 적어도 하나의 어플리케이션에 의해 지원될 수 있다. 일 실시예에 따른, 웨어러블 장치는 상기 기능을 실행한 결과를, 사용자에게 시각화할 수 있다. 웨어러블 장치는 상기 기능을, 디스플레이 내에 표시된 시각적 객체(예, 도 1의 시각적 객체(160))를 선택함을 지시하는 입력에 기반하여, 실행할 수 있다. 상기 시각적 객체는, 상기 속성에 의해 식별될 수 있다. 웨어러블 장치는 상기 시각적 객체를, 디스플레이 내 상기 외부 객체의 위치에 기반하여 표시할 수 있다.Referring to FIG. 2, within operation 230, a wearable device according to one embodiment may execute a function mapped to an external object based on acquired information. The function may be identified by an attribute assigned by an external object. The above function may be supported by at least one application installed on the wearable device. According to one embodiment, the wearable device can visualize the results of executing the above function to the user. The wearable device may execute the above function based on an input indicating selection of a visual object displayed in the display (eg, visual object 160 in FIG. 1). The visual object may be identified by the attribute. The wearable device may display the visual object based on the location of the external object within the display.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는, 웨어러블 장치와 통신하는 기능이 지원되지 않는 오브젝트를 등록하고, 등록된 오브젝트에 기반하는 웨어러블 장치의 제어를 지원할 수 있다. 웨어러블 장치는 펜과 같은 외부 객체의 모션을 인식하거나, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 인식하여, 상기 외부 객체에 대한 비-전기적 정보로부터 전기적 정보(예, 디지털 콘텐트)를 획득할 수 있다. 상기 전기적 정보에 기반하여, 웨어러블 장치는, 웨어러블 장치와 직접적으로 연결될 수 없는 외부 객체를 인식하고, 인식된 외부 객체로부터 디지털 콘텐트를 획득할 수 있다.As described above, according to one embodiment, the wearable device may register an object that does not support the function of communicating with the wearable device and support control of the wearable device based on the registered object. The wearable device recognizes the motion of an external object, such as a pen, or recognizes at least one stroke drawn by the external object, and obtains electrical information (e.g., digital content) from non-electrical information about the external object. You can. Based on the electrical information, the wearable device can recognize an external object that cannot be directly connected to the wearable device and obtain digital content from the recognized external object.

이하에서는, 도 3a 내지 도 3b 및/또는 도 4a 내지 도4b를 참고하여, 일 실시예에 따른, 외부 객체를 인식하기 위한 웨어러블 장치의 예시적인 구조가 설명된다.Below, with reference to FIGS. 3A to 3B and/or 4A to 4B, an exemplary structure of a wearable device for recognizing an external object according to an embodiment is described.

도 3a는, 일 실시예에 따른, 웨어러블 장치의 사시도(prospective view)의 일 예를 도시한다. 도 3a 내지 도 3b의 웨어러블 장치(300)는, 도 1의 웨어러블 장치(101) 및/또는 도 2의 웨어러블 장치의 일 예일 수 있다. 도 3a의 도시 내에서(as shown in), 일 실시예에 따른, 웨어러블 장치(300)는, 적어도 하나의 디스플레이(350), 및 적어도 하나의 디스플레이(350)를 지지하는 프레임을 포함할 수 있다.Figure 3A shows an example of a perspective view of a wearable device, according to one embodiment. The wearable device 300 of FIGS. 3A and 3B may be an example of the wearable device 101 of FIG. 1 and/or the wearable device of FIG. 2 . 3A (as shown in), according to one embodiment, the wearable device 300 may include at least one display 350 and a frame supporting the at least one display 350. .

일 실시예에 따른, 웨어러블 장치(300)는 사용자의 신체의 일부 상에 착용될 수 있다. 웨어러블 장치(300)는, 웨어러블 장치(300)를 착용한 사용자에게, 증강 현실(augmented reality, AR), 가상 현실(virtual reality, VR), 또는 증강 현실과 가상 현실을 혼합한 혼합 현실(mixed reality, MR)을 제공할 수 있다. 예를 들면, 웨어러블 장치(300)는, 도 3b의 동작 인식 카메라(340-2)를 통해 획득된 사용자의 지정된 제스처에 응답하여, 적어도 하나의 디스플레이(350)를 통하여 사용자에게 가상 현실 영상을 출력할 수 있다.According to one embodiment, the wearable device 300 may be worn on a part of the user's body. The wearable device 300 provides the user wearing the wearable device 300 with augmented reality (AR), virtual reality (VR), or a mixed reality that combines augmented reality and virtual reality. , MR) can be provided. For example, the wearable device 300 outputs a virtual reality image to the user through at least one display 350 in response to the user's specified gesture acquired through the motion recognition camera 340-2 of FIG. 3B. can do.

일 실시예에 따른, 웨어러블 장치(300) 내 적어도 하나의 디스플레이(350)는, 사용자에게 시각 정보를 제공할 수 있다. 예를 들면, 적어도 하나의 디스플레이(350)는, 투명 또는 반투명한 렌즈를 포함할 수 있다. 적어도 하나의 디스플레이(350)는, 제1 디스플레이(350-1) 및/또는 제1 디스플레이(350-1)로부터 이격된 제2 디스플레이(350-2)를 포함할 수 있다. 예를 들면, 제1 디스플레이(350-1), 및 제2 디스플레이(350-2)는, 사용자의 좌안과 우안에 각각 대응되는 위치에 배치될 수 있다.According to one embodiment, at least one display 350 in the wearable device 300 may provide visual information to the user. For example, at least one display 350 may include a transparent or translucent lens. At least one display 350 may include a first display 350-1 and/or a second display 350-2 spaced apart from the first display 350-1. For example, the first display 350-1 and the second display 350-2 may be placed at positions corresponding to the user's left eye and right eye, respectively.

도 3b를 참조하면, 적어도 하나의 디스플레이(350)는, 렌즈 상에 표시 영역을 형성하여, 웨어러블 장치(300)를 착용한 사용자에게, 렌즈를 통과하는 외부 광에 포함된 시각적 정보와 함께, 상기 시각적 정보와 구별되는, 다른 시각적 정보를 제공할 수 있다. 상기 렌즈는, 프레넬(fresnel) 렌즈, 팬케이크(pancake) 렌즈, 또는 멀티-채널 렌즈 중 적어도 하나에 기반하여 형성될 수 있다. 적어도 하나의 디스플레이(350)에 의해 형성된 표시 영역은, 렌즈의 제1 면(331), 및 제2 면(332) 중 제2 면(332) 상에 형성될 수 있다. 사용자가 웨어러블 장치(300)를 착용하였을 때, 외부 광은 제1 면(331)으로 입사되고, 제2 면(332)을 통해 투과됨으로써, 사용자에게 전달될 수 있다. 다른 예를 들면, 적어도 하나의 디스플레이(350)는, 외부 광을 통해 전달되는 현실 화면에 결합될 가상 현실 영상을 표시할 수 있다. 적어도 하나의 디스플레이(350)로부터 출력된 상기 가상 현실 영상은, 웨어러블 장치(300)에 포함된 하나 이상의 하드웨어(예, 광학 장치들(382, 384), 및/또는 적어도 하나의 웨이브가이드들(waveguides)(333, 334))를 통하여, 사용자의 눈으로 송신될 수 있다.Referring to FIG. 3B, at least one display 350 forms a display area on the lens to display visual information included in external light passing through the lens to a user wearing the wearable device 300. It can provide other visual information that is distinct from visual information. The lens may be formed based on at least one of a Fresnel lens, a pancake lens, or a multi-channel lens. The display area formed by at least one display 350 may be formed on the first surface 331 and the second surface 332 of the lens. When a user wears the wearable device 300, external light may be incident on the first surface 331 and transmitted through the second surface 332, thereby being transmitted to the user. As another example, at least one display 350 may display a virtual reality image to be combined with a real screen transmitted through external light. The virtual reality image output from at least one display 350 includes one or more hardware (e.g., optical devices 382 and 384, and/or at least one waveguides) included in the wearable device 300. )(333, 334)), it can be transmitted to the user's eyes.

일 실시예에 따른, 웨어러블 장치(300)는 적어도 하나의 디스플레이(350)로부터 송신되고, 광학 장치들(382, 384)에 의해 릴레이된 광을 회절시켜, 사용자에게 전달하는, 웨이브가이드들(333, 334)을 포함할 수 있다. 웨이브가이드들(333, 334)은, 글래스, 플라스틱, 또는 폴리머 중 적어도 하나에 기반하여 형성될 수 있다. 웨이브가이드들(333, 334)의 외부, 또는 내부의 적어도 일부분에, 나노 패턴이 형성될 수 있다. 상기 나노 패턴은, 다각형, 및/또는 곡면 형상의 격자 구조(grating structure)에 기반하여 형성될 수 있다. 웨이브가이드들(333, 334)의 일 단으로 입사된 광은, 상기 나노 패턴에 의해 웨이브가이드들(333, 334)의 타 단으로 전파될 수 있다. 웨이브가이드들(333, 334)은 적어도 하나의 회절 요소(예: DOE(diffractive optical element), HOE(holographic optical element)), 반사 요소(예: 반사 거울) 중 적어도 하나를 포함할 수 있다. 예를 들어, 웨이브가이드들(333, 334)은, 적어도 하나의 디스플레이(350)에 의해 표시되는 화면을, 사용자의 눈으로 가이드하기 위하여, 웨어러블 장치(300) 내에 배치될 수 있다. 예를 들어, 상기 화면은, 웨이브가이드들(333, 334) 내에서 발생되는 전반사(total internal reflection, TIR)에 기반하여, 사용자의 눈으로 송신될 수 있다.According to one embodiment, the wearable device 300 includes waveguides 333 that diffract light transmitted from at least one display 350 and relayed by the optical devices 382 and 384 and deliver it to the user. , 334). The waveguides 333 and 334 may be formed based on at least one of glass, plastic, or polymer. A nanopattern may be formed on the outside or at least a portion of the inside of the waveguides 333 and 334. The nanopattern may be formed based on a polygonal and/or curved grating structure. Light incident on one end of the waveguides 333 and 334 may propagate to the other end of the waveguides 333 and 334 by the nanopattern. The waveguides 333 and 334 may include at least one of a diffractive element (eg, a diffractive optical element (DOE) or a holographic optical element (HOE)) or a reflective element (eg, a reflective mirror). For example, the waveguides 333 and 334 may be disposed within the wearable device 300 to guide the screen displayed by at least one display 350 to the user's eyes. For example, the screen may be transmitted to the user's eyes based on total internal reflection (TIR) generated within the waveguides 333 and 334.

일 실시예에 따른, 웨어러블 장치(300)는, 촬영 카메라(340-1)를 통해 수집된 현실 영상에 포함된 오브젝트(object)를 분석하고, 분석된 오브젝트 중에서 증강 현실 제공의 대상이 되는 오브젝트에 대응되는 가상 오브젝트(virtual object)를 결합하여, 적어도 하나의 디스플레이(350)에 표시할 수 있다. 가상 오브젝트는, 현실 영상에 포함된 오브젝트에 관련된 다양한 정보에 대한 텍스트, 및 이미지 중 적어도 하나를 포함할 수 있다. 웨어러블 장치(300)는, 스테레오 카메라와 같은 멀티-카메라에 기반하여, 오브젝트를 분석할 수 있다. 상기 오브젝트 분석을 위하여, 웨어러블 장치(300)는 멀티-카메라에 의해 지원되는, ToF(time-of-flight), 및/또는 SLAM(simultaneous localization and mapping)을 실행할 수 있다. 웨어러블 장치(300)를 착용한 사용자는, 적어도 하나의 디스플레이(350)에 표시되는 영상을 시청할 수 있다.According to one embodiment, the wearable device 300 analyzes objects included in the real-life image collected through the shooting camera 340-1, and selects an object that is the target of providing augmented reality from among the analyzed objects. Corresponding virtual objects can be combined and displayed on at least one display 350. The virtual object may include at least one of text and images for various information related to the object included in the real image. The wearable device 300 can analyze objects based on multi-cameras, such as stereo cameras. For the object analysis, the wearable device 300 may execute time-of-flight (ToF) and/or simultaneous localization and mapping (SLAM) supported by multi-cameras. A user wearing the wearable device 300 can watch images displayed on at least one display 350.

일 실시예에 따르면, 프레임은, 웨어러블 장치(300)가 사용자의 신체 상에 착용될 수 있는 물리적인 구조로 이루어질 수 있다. 일 실시예에 따르면, 프레임은, 사용자가 웨어러블 장치(300)를 착용하였을 때, 제1 디스플레이(350-1) 및 제2 디스플레이(350-2)가 사용자의 좌안 및 우안에 대응되는 위치할 수 있도록, 구성될 수 있다. 프레임은, 적어도 하나의 디스플레이(350)를 지지할 수 있다. 예를 들면, 프레임은, 제1 디스플레이(350-1) 및 제2 디스플레이(350-2)를 사용자의 좌안 및 우안에 대응되는 위치에 위치되도록 지지할 수 있다. According to one embodiment, the frame may be made of a physical structure that allows the wearable device 300 to be worn on the user's body. According to one embodiment, the frame allows the first display 350-1 and the second display 350-2 to be positioned to correspond to the user's left eye and right eye when the user wears the wearable device 300. It can be configured so that The frame may support at least one display 350. For example, the frame may support the first display 350-1 and the second display 350-2 to be positioned at positions corresponding to the user's left and right eyes.

일 실시예에 따른, 도 3a를 참조하면, 프레임은, 사용자가 웨어러블 장치(300)를 착용한 경우, 적어도 일부가 사용자의 신체의 일부분과 접촉되는 영역(320)을 포함할 수 있다. 예를 들면, 프레임의 사용자의 신체의 일부분과 접촉되는 영역(320)은, 웨어러블 장치(300)가 접하는 사용자의 코의 일부분, 사용자의 귀의 일부분 및 사용자의 얼굴의 측면 일부분과 접촉하는 영역을 포함할 수 있다. 일 실시예에 따르면, 프레임은, 사용자의 신체의 일부 상에 접촉되는 노즈 패드(310)를 포함할 수 있다. 웨어러블 장치(300)가 사용자에 의해 착용될 시, 노즈 패드(310)는, 사용자의 코의 일부 상에 접촉될 수 있다. 프레임은, 상기 사용자의 신체의 일부와 구별되는 사용자의 신체의 다른 일부 상에 접촉되는 제1 템플(temple)(304) 및 제2 템플(305)을 포함할 수 있다.Referring to FIG. 3A according to one embodiment, when the user wears the wearable device 300, the frame may include an area 320 at least partially in contact with a portion of the user's body. For example, the area 320 of the frame in contact with a part of the user's body includes an area in contact with a part of the user's nose, a part of the user's ear, and a side part of the user's face that the wearable device 300 touches. can do. According to one embodiment, the frame may include a nose pad 310 that contacts a part of the user's body. When the wearable device 300 is worn by a user, the nose pad 310 may be in contact with a portion of the user's nose. The frame may include a first temple 304 and a second temple 305 that are in contact with another part of the user's body that is distinct from the part of the user's body.

일 실시예에서, 프레임은, 제1 디스플레이(350-1)의 적어도 일부를 감싸는 제1 림(rim)(301), 제2 디스플레이(350-2)의 적어도 일부를 감싸는 제2 림(302), 제1 림(301)과 제2 림(302) 사이에 배치되는 브릿지(bridge)(303), 브릿지(303)의 일단으로부터 제1 림(301)의 가장자리 일부를 따라 배치되는 제1 패드(311), 브릿지(303)의 타단으로부터 제2 림(302)의 가장자리 일부를 따라 배치되는 제2 패드(312), 제1 림(301)으로부터 연장되어 착용자의 귀의 일부분에 고정되는 제1 템플(304), 및 제2 림(302)으로부터 연장되어 상기 귀의 반대측 귀의 일부분에 고정되는 제2 템플(305)을 포함할 수 있다. 제1 패드(311), 및 제2 패드(312)는, 사용자의 코의 일부분과 접촉될 수 있고, 제1 템플(304) 및 제2 템플(305)은, 사용자의 안면의 일부분 및 귀의 일부분과 접촉될 수 있다. 템플들(304, 305)은, 도 3b의 힌지 유닛들(306, 307)을 통해 림과 회전 가능하게(rotatably) 연결될 수 있다. 제1 템플(304)은, 제1 림(301)과 제1 템플(304)의 사이에 배치된 제1 힌지 유닛(306)을 통해, 제1 림(301)에 대하여 회전 가능하게 연결될 수 있다. 제2 템플(305)은, 제2 림(302)과 제2 템플(305)의 사이에 배치된 제2 힌지 유닛(307)을 통해 제2 림(302)에 대하여 회전 가능하게 연결될 수 있다. 일 실시예에 따른, 웨어러블 장치(300)는 프레임의 표면의 적어도 일부분 상에 형성된, 터치 센서, 그립 센서, 및/또는 근접 센서를 이용하여, 프레임을 터치하는 외부 객체(예, 사용자의 손끝(fingertip)), 및/또는 상기 외부 객체에 의해 수행된 제스쳐를 식별할 수 있다.In one embodiment, the frame includes a first rim 301 surrounding at least a portion of the first display 350-1 and a second rim 302 surrounding at least a portion of the second display 350-2. , a bridge 303 disposed between the first rim 301 and the second rim 302, a first pad disposed along a portion of the edge of the first rim 301 from one end of the bridge 303 ( 311), a second pad 312 disposed along a portion of the edge of the second rim 302 from the other end of the bridge 303, a first temple extending from the first rim 301 and fixed to a portion of the wearer's ear ( 304), and a second temple 305 extending from the second rim 302 and fixed to a portion of the ear opposite the ear. The first pad 311 and the second pad 312 may be in contact with a portion of the user's nose, and the first temple 304 and the second temple 305 may be in contact with a portion of the user's face and a portion of the ear. may come into contact with. The temples 304 and 305 may be rotatably connected to the rim via the hinge units 306 and 307 of FIG. 3B. The first temple 304 may be rotatably connected to the first rim 301 through a first hinge unit 306 disposed between the first rim 301 and the first temple 304. . The second temple 305 may be rotatably connected to the second rim 302 through a second hinge unit 307 disposed between the second rim 302 and the second temple 305. According to one embodiment, the wearable device 300 detects an external object (e.g., a user's fingertip) touching the frame using a touch sensor, a grip sensor, and/or a proximity sensor formed on at least a portion of the surface of the frame. fingertip)), and/or a gesture performed by the external object may be identified.

일 실시예에 따르면, 웨어러블 장치(300)는, 다양한 기능들을 수행하는 하드웨어들(예, 도 6의 블록도에 기반하여 상술된 하드웨어들)을 포함할 수 있다. 예를 들면, 상기 하드웨어들은, 배터리 모듈(370), 안테나 모듈(375), 광학 장치들(382, 384), 스피커들(392-1, 392-2), 마이크들(394-1, 394-2, 394-3), 발광 모듈(미도시), 및/또는 인쇄 회로 기판(390)을 포함할 수 있다. 다양한 하드웨어들은, 프레임 내에 배치될 수 있다.According to one embodiment, the wearable device 300 may include hardware (eg, hardware described above based on the block diagram of FIG. 6) that performs various functions. For example, the hardware includes a battery module 370, an antenna module 375, optical devices 382, 384, speakers 392-1, 392-2, and microphones 394-1, 394- 2, 394-3), a light emitting module (not shown), and/or a printed circuit board 390. Various hardware can be placed within the frame.

일 실시예에 따른, 웨어러블 장치(300)의 마이크들(394-1, 394-2, 394-3)은, 프레임의 적어도 일부분에 배치되어, 소리 신호를 획득할 수 있다. 노즈 패드(310) 상에 배치된 제1 마이크(394-1), 제2 림(302) 상에 배치된 제2 마이크(394-2), 및 제1 림(301) 상에 배치된 제3 마이크(394-3)가 도 3b 내에 도시되지만, 마이크(394)의 개수, 및 배치가 도 3b의 일 실시예에 제한되는 것은 아니다. 웨어러블 장치(300) 내에 포함된 마이크(394)의 개수가 두 개 이상인 경우, 웨어러블 장치(300)는 프레임의 상이한 부분들 상에 배치된 복수의 마이크들을 이용하여, 소리 신호의 방향을 식별할 수 있다.According to one embodiment, the microphones 394-1, 394-2, and 394-3 of the wearable device 300 may be disposed in at least a portion of the frame to obtain a sound signal. A first microphone 394-1 disposed on the nose pad 310, a second microphone 394-2 disposed on the second rim 302, and a third microphone disposed on the first rim 301. Although microphones 394-3 are shown in FIG. 3B, the number and placement of microphones 394 are not limited to the embodiment of FIG. 3B. If the number of microphones 394 included in the wearable device 300 is two or more, the wearable device 300 can identify the direction of the sound signal using a plurality of microphones disposed on different parts of the frame. there is.

일 실시예에 따르면, 광학 장치들(382, 384)은, 적어도 하나의 디스플레이(350)로부터 송신된 가상 오브젝트를, 웨이브가이드들(333, 334)로 송신할 수 있다. 예를 들면, 광학 장치들(382, 384)은, 프로젝터일 수 있다. 광학 장치들(382, 384)은, 적어도 하나의 디스플레이(350)에 인접하여 배치되거나, 적어도 하나의 디스플레이(350)의 일부로써, 적어도 하나의 디스플레이(350) 내에 포함될 수 있다. 제1 광학 장치(382)는, 제1 디스플레이(350-1)에 대응하고, 제2 광학 장치(384)는, 제2 디스플레이(350-2)에 대응할 수 있다. 제1 광학 장치(382)는, 제1 디스플레이(350-1)로부터 출력된 광을, 제1 웨이브가이드(333)로 송출할 수 있고, 제2 광학 장치(384)는, 제2 디스플레이(350-2)로부터 출력된 광을, 제2 웨이브가이드(334)로 송출할 수 있다.According to one embodiment, the optical devices 382 and 384 may transmit a virtual object transmitted from at least one display 350 to the waveguides 333 and 334. For example, optical devices 382 and 384 may be projectors. The optical devices 382 and 384 may be disposed adjacent to the at least one display 350 or may be included within the at least one display 350 as part of the at least one display 350 . The first optical device 382 may correspond to the first display 350-1, and the second optical device 384 may correspond to the second display 350-2. The first optical device 382 can transmit the light output from the first display 350-1 to the first waveguide 333, and the second optical device 384 can transmit the light output from the first display 350-1 to the first waveguide 333. The light output from -2) can be transmitted to the second waveguide 334.

일 실시예에서, 카메라(340)는, 시선 추적 카메라(eye tracking camera, ET CAM)(340-1), 동작 인식 카메라(340-2), 및/또는 촬영 카메라(340-3)를 포함할 수 있다. 촬영 카메라(340-3), 시선 추적 카메라(340-1) 및 동작 인식 카메라(340-2)는, 프레임 상에서 서로 다른 위치에 배치될 수 있고, 서로 다른 기능을 수행할 수 있다. 시선 추적 카메라(340-1)는, 웨어러블 장치(300)를 착용한 사용자의 시선(gaze)을 나타내는 데이터를 출력할 수 있다. 예를 들어, 웨어러블 장치(300)는 시선 추적 카메라(340-1)를 통하여 획득된, 사용자의 눈동자가 포함된 이미지로부터, 상기 시선을 탐지할 수 있다. 시선 추적 카메라(340-1)가 사용자의 우측 눈을 향하여 배치된 일 예가 도 3b 내에 도시되지만, 실시예가 이에 제한되는 것은 아니며, 시선 추적 카메라(340-1)는, 사용자의 좌측 눈을 향하여 단독으로 배치되거나, 또는 양 눈들 전부를 향하여 배치될 수 있다. In one embodiment, the camera 340 may include an eye tracking camera (ET CAM) 340-1, a motion recognition camera 340-2, and/or an imaging camera 340-3. You can. The shooting camera 340-3, the eye tracking camera 340-1, and the motion recognition camera 340-2 may be placed at different positions on the frame and perform different functions. The gaze tracking camera 340-1 may output data representing the gaze of the user wearing the wearable device 300. For example, the wearable device 300 may detect the gaze from an image including the user's pupils obtained through the gaze tracking camera 340-1. An example in which the gaze tracking camera 340-1 is positioned toward the user's right eye is shown in FIG. 3B, but the embodiment is not limited thereto, and the gaze tracking camera 340-1 is positioned solely toward the user's left eye. It may be placed towards, or towards both eyes.

일 실시예에서, 촬영 카메라(340-3)는, 증강 현실 또는 혼합 현실 콘텐츠를 구현하기 위해서 가상의 이미지와 정합될 실제의 이미지나 배경을 촬영할 수 있다. 촬영 카메라는, 사용자가 바라보는 위치에 존재하는 특정 사물의 이미지를 촬영하고, 그 이미지를 적어도 하나의 디스플레이(350)로 제공할 수 있다. 적어도 하나의 디스플레이(350)는, 촬영 카메라를 이용해 획득된 상기 특정 사물의 이미지를 포함하는 실제의 이미지나 배경에 관한 정보와, 광학 장치들(382, 384)을 통해 제공되는 가상 이미지가 겹쳐진 하나의 영상을 표시할 수 있다. 일 실시예에서, 촬영 카메라는, 제1 림(301) 및 제2 림(302) 사이에 배치되는 브릿지(303) 상에 배치될 수 있다.In one embodiment, the capturing camera 340-3 may capture a real image or background to be matched with a virtual image to implement augmented reality or mixed reality content. The capturing camera may capture an image of a specific object that exists at a location where the user is looking and provide the image to at least one display 350. At least one display 350 is one in which a real image or background information including the image of the specific object obtained using a photographing camera and a virtual image provided through the optical devices 382 and 384 are overlapped. The video can be displayed. In one embodiment, the imaging camera may be placed on the bridge 303 disposed between the first rim 301 and the second rim 302.

일 실시예에서, 시선 추적 카메라(340-1)는, 웨어러블 장치(300)를 착용한 사용자의 시선(gaze)을 추적함으로써, 사용자의 시선과 적어도 하나의 디스플레이(350)에 제공되는 시각 정보를 일치시켜 보다 현실적인 증강 현실을 구현할 수 있다. 예를 들어, 웨어러블 장치(300)는, 사용자가 정면을 바라볼 때, 사용자가 위치한 장소에서 사용자의 정면에 관련된 환경 정보를 자연스럽게 적어도 하나의 디스플레이(350)에 표시할 수 있다. 시선 추적 카메라(340-1)는, 사용자의 시선을 결정하기 위하여, 사용자의 동공의 이미지를 캡쳐하도록, 구성될 수 있다. 예를 들면, 시선 추적 카메라(340-1)는, 사용자의 동공에서 반사된 시선 검출 광을 수신하고, 수신된 시선 검출 광의 위치 및 움직임에 기반하여, 사용자의 시선을 추적할 수 있다. 일 실시예에서, 시선 추적 카메라(340-1)는, 사용자의 좌안과 우안에 대응되는 위치에 배치될 수 있다. 예를 들면, 시선 추적 카메라(340-1)는, 제1 림(301) 및/또는 제2 림(302) 내에서, 웨어러블 장치(300)를 착용한 사용자가 위치하는 방향을 향하도록 배치될 수 있다.In one embodiment, the gaze tracking camera 340-1 tracks the gaze of a user wearing the wearable device 300, thereby tracking the user's gaze and visual information provided to at least one display 350. By matching them, a more realistic augmented reality can be realized. For example, when the user looks forward, the wearable device 300 may naturally display environmental information related to the user's front view on at least one display 350 at the location where the user is located. The gaze tracking camera 340-1 may be configured to capture an image of the user's pupil to determine the user's gaze. For example, the gaze tracking camera 340-1 may receive gaze detection light reflected from the user's pupil and track the user's gaze based on the position and movement of the received gaze detection light. In one embodiment, the eye tracking camera 340-1 may be placed at positions corresponding to the user's left and right eyes. For example, the eye tracking camera 340-1 may be placed within the first rim 301 and/or the second rim 302 to face the direction in which the user wearing the wearable device 300 is located. You can.

일 실시예에서, 동작 인식 카메라(340-2)는, 사용자의 몸통, 손, 또는 얼굴 등 사용자의 신체 전체 또는 일부의 움직임을 인식함으로써, 적어도 하나의 디스플레이(350)에 제공되는 화면에 특정 이벤트를 제공할 수 있다. 동작 인식 카메라(340-2)는, 사용자의 동작을 인식(gesture recognition)하여 상기 동작에 대응되는 신호를 획득하고, 상기 신호에 대응되는 표시를 적어도 하나의 디스플레이(350)에 제공할 수 있다. 프로세서는, 상기 동작에 대응되는 신호를 식별하는 것에 기반하여, 지정된 기능을 수행할 수 있다. 일 실시예에서, 동작 인식 카메라(340-2)는, 제1 림(301) 및/또는 제2 림(302)상에 배치될 수 있다.In one embodiment, the motion recognition camera 340-2 recognizes the movement of the entire or part of the user's body, such as the user's torso, hands, or face, and displays a specific event on the screen provided on at least one display 350. can be provided. The gesture recognition camera 340-2 may recognize a user's gesture, obtain a signal corresponding to the gesture, and provide a display corresponding to the signal to at least one display 350. The processor may perform a designated function based on identifying a signal corresponding to the operation. In one embodiment, the motion recognition camera 340-2 may be disposed on the first rim 301 and/or the second rim 302.

일 실시예에서, 웨어러블 장치(300) 내에 포함된 카메라(340)는, 상술된 시선 추적 카메라(340-1), 동작 인식 카메라(340-2)에 제한되지 않는다. 예를 들어, 웨어러블 장치(300)는 사용자의 FoV를 향하여 배치된 촬영 카메라(340-3)를 이용하여, 상기 FoV 내에 포함된 외부 객체를 식별할 수 있다. 웨어러블 장치(300)가 외부 객체를 식별하는 것은, 깊이 센서, 및/또는 ToF(time of flight) 센서와 같이, 웨어러블 장치(300), 및 외부 객체 사이의 거리를 식별하기 위한 센서에 기반하여 수행될 수 있다. 상기 FoV를 향하여 배치된 상기 카메라(340)는, 오토포커스 기능, 및/또는 OIS(optical image stabilization) 기능을 지원할 수 있다. 예를 들어, 웨어러블 장치(300)는, 웨어러블 장치(300)를 착용한 사용자의 얼굴을 포함하는 이미지를 획득하기 위하여, 상기 얼굴을 향하여 배치된 카메라(340)(예, FT(face tracking) 카메라)를 포함할 수 있다.In one embodiment, the camera 340 included in the wearable device 300 is not limited to the eye tracking camera 340-1 and the motion recognition camera 340-2 described above. For example, the wearable device 300 may identify an external object included within the user's FoV using the capturing camera 340-3 disposed toward the user's FoV. The wearable device 300 identifies an external object based on a sensor for identifying the distance between the wearable device 300 and the external object, such as a depth sensor and/or a time of flight (ToF) sensor. It can be. The camera 340 disposed toward the FoV may support an autofocus function and/or an optical image stabilization (OIS) function. For example, the wearable device 300 includes a camera 340 (e.g., a face tracking (FT) camera) disposed toward the face of a user wearing the wearable device 300 to obtain an image including the face. ) may include.

비록 도시되지 않았지만, 일 실시예에 따른, 웨어러블 장치(300)는, 카메라(340)를 이용하여 촬영되는 피사체(예, 사용자의 눈, 얼굴, 및/또는 FoV 내 외부 객체)를 향하여 빛을 방사하는 광원(예, LED)을 더 포함할 수 있다. 상기 광원은 적외선 파장의 LED를 포함할 수 있다. 상기 광원은, 프레임, 힌지 유닛들(306, 307) 중 적어도 하나에 배치될 수 있다.Although not shown, according to one embodiment, the wearable device 300 radiates light toward a subject (e.g., the user's eyes, face, and/or an external object within the FoV) captured using the camera 340. It may further include a light source (eg, LED). The light source may include an LED with an infrared wavelength. The light source may be placed in at least one of the frame and hinge units 306 and 307.

일 실시예에 따르면, 배터리 모듈(370)은, 웨어러블 장치(300)의 전자 부품들에 전력을 공급할 수 있다. 일 실시예에서, 배터리 모듈(370)은, 제1 템플(304) 및/또는 제2 템플(305) 내에 배치될 수 있다. 예를 들면, 배터리 모듈(370)은, 복수의 배터리 모듈(370)들일 수 있다. 복수의 배터리 모듈(370)들은, 각각 제1 템플(304)과 제2 템플(305) 각각에 배치될 수 있다. 일 실시예에서, 배터리 모듈(370)은 제1 템플(304) 및/또는 제2 템플(305)의 단부에 배치될 수 있다. According to one embodiment, the battery module 370 may supply power to electronic components of the wearable device 300. In one embodiment, the battery module 370 may be disposed within the first temple 304 and/or the second temple 305. For example, the battery module 370 may be a plurality of battery modules 370 . A plurality of battery modules 370 may be disposed on the first temple 304 and the second temple 305, respectively. In one embodiment, the battery module 370 may be disposed at an end of the first temple 304 and/or the second temple 305.

일 실시예에서, 안테나 모듈(375)은, 신호 또는 전력을 웨어러블 장치(300)의 외부로 송신하거나, 외부로부터 신호 또는 전력을 수신할 수 있다. 안테나 모듈(375)은, 웨어러블 장치(300) 내 통신 회로(예, 도 6을 참고하여 후술되는 통신 회로(650))와 전기적으로, 및/또는 작동적으로 연결될 수 있다. 일 실시예에서, 안테나 모듈(375)은, 제1 템플(304) 및/또는 제2 템플(305) 내에 배치될 수 있다. 예를 들면, 안테나 모듈(375)은, 제1 템플(304), 및/또는 제2 템플(305)의 일면에 가깝게 배치될 수 있다. In one embodiment, the antenna module 375 may transmit a signal or power to the outside of the wearable device 300, or may receive a signal or power from the outside. The antenna module 375 may be electrically and/or operationally connected to a communication circuit (e.g., a communication circuit 650 described later with reference to FIG. 6) within the wearable device 300. In one embodiment, the antenna module 375 may be disposed within the first temple 304 and/or the second temple 305. For example, the antenna module 375 may be placed close to one surface of the first temple 304 and/or the second temple 305.

일 실시예에서, 스피커들(392-1, 392-2)은, 음향 신호를 웨어러블 장치(300)의 외부로 출력할 수 있다. 음향 출력 모듈은, 스피커로 참조될 수 있다. 일 실시예에서, 스피커들(392-1, 392-2)은, 웨어러블 장치(300)를 착용한 사용자의 귀에 인접하게 배치되기 위하여, 제1 템플(304), 및/또는 제2 템플(305) 내에 배치될 수 있다. 예를 들면, 웨어러블 장치(300)는, 제1 템플(304) 내에 배치됨으로써 사용자의 좌측 귀에 인접하게 배치되는, 제2 스피커(392-2), 및 제2 템플(305) 내에 배치됨으로써 사용자의 우측 귀에 인접하게 배치되는, 제1 스피커(392-1)를 포함할 수 있다.In one embodiment, the speakers 392-1 and 392-2 may output sound signals to the outside of the wearable device 300. The sound output module may be referred to as a speaker. In one embodiment, the speakers 392-1 and 392-2 are disposed adjacent to the ears of the user wearing the wearable device 300, the first temple 304, and/or the second temple 305. ) can be placed within. For example, the wearable device 300 is disposed within the first temple 304 and the second speaker 392-2, which is disposed adjacent to the user's left ear, and is disposed within the second temple 305 to listen to the user's hearing. It may include a first speaker 392-1, which is disposed adjacent to the right ear.

일 실시예에서, 발광 모듈(미도시)은, 적어도 하나의 발광 소자를 포함할 수 있다. 발광 모듈은, 웨어러블 장치(300)의 특정 상태에 관한 정보를 사용자에게 시각적으로 제공하기 위하여, 특정 상태에 대응되는 색상의 빛을 방출하거나, 특정 상태에 대응되는 동작으로 빛을 방출할 수 있다. 예를 들면, 웨어러블 장치(300)가, 충전이 필요한 경우, 적색 광의 빛을 지정된 시점에 반복적으로 방출할 수 있다. 일 실시예에서, 발광 모듈은, 제1 림(301) 및/또는 제2 림(302) 상에 배치될 수 있다.In one embodiment, a light emitting module (not shown) may include at least one light emitting device. In order to visually provide information about the specific state of the wearable device 300 to the user, the light emitting module may emit light in a color corresponding to a specific state or emit light in an operation corresponding to the specific state. For example, when the wearable device 300 requires charging, it may repeatedly emit red light at designated times. In one embodiment, the light emitting module may be disposed on the first rim 301 and/or the second rim 302.

도 3b를 참고하면, 일 실시예에 따른, 웨어러블 장치(300)는 PCB(printed circuit board)(390)을 포함할 수 있다. PCB(390)는, 제1 템플(304), 또는 제2 템플(305) 중 적어도 하나에 포함될 수 있다. PCB(390)는, 적어도 두 개의 서브 PCB들 사이에 배치된 인터포저를 포함할 수 있다. PCB(390) 상에서, 웨어러블 장치(300)에 포함된 하나 이상의 하드웨어들(예, 도 5를 참고하여 후술되는 블록들에 의하여 도시된 하드웨어들)이 배치될 수 있다. 웨어러블 장치(300)는, 상기 하드웨어들을 상호연결하기 위한, FPCB(flexible PCB)를 포함할 수 있다.Referring to FIG. 3B , the wearable device 300 according to one embodiment may include a printed circuit board (PCB) 390. The PCB 390 may be included in at least one of the first temple 304 or the second temple 305. The PCB 390 may include an interposer disposed between at least two sub-PCBs. On the PCB 390, one or more hardware included in the wearable device 300 (eg, hardware shown by blocks described later with reference to FIG. 5) may be disposed. The wearable device 300 may include a flexible PCB (FPCB) for interconnecting the hardware.

일 실시예에 따른, 웨어러블 장치(300)는, 웨어러블 장치(300)의 자세, 및/또는 웨어러블 장치(300)를 착용한 사용자의 신체 부위(예, 머리)의 자세를 탐지하기 위한 자이로 센서, 중력 센서, 및/또는 가속도 센서 중 적어도 하나를 포함할 수 있다. 웨어러블 장치(300)는 중력 센서, 및 가속도 센서 각각을 이용하여, 서로 수직인 지정된 3차원 축들(예, x축, y축 및 z축)에 기반하여, 중력 가속도, 및 가속도를 측정할 수 있다. 자이로 센서는 지정된 3차원 축들(예, x축, y축 및 z축) 각각의 각속도를 측정할 수 있다. 상기 중력 센서, 상기 가속도 센서, 및 상기 자이로 센서 중 적어도 하나가, IMU(inertial measurement unit)로 참조될 수 있다. 일 실시예에 따른, 웨어러블 장치(300)는 IMU에 기반하여 웨어러블 장치(300)의 특정 기능을 실행하거나, 또는 중단하기 위해 수행된 사용자의 모션 및/또는 제스쳐를 식별할 수 있다.According to one embodiment, the wearable device 300 includes a gyro sensor for detecting the posture of the wearable device 300 and/or the posture of a body part (e.g., head) of a user wearing the wearable device 300, It may include at least one of a gravity sensor and/or an acceleration sensor. The wearable device 300 can measure gravitational acceleration and acceleration based on designated three-dimensional axes (e.g., x-axis, y-axis, and z-axis) that are perpendicular to each other using a gravity sensor and an acceleration sensor, respectively. . A gyro sensor can measure the angular velocity of each of designated three-dimensional axes (e.g., x-axis, y-axis, and z-axis). At least one of the gravity sensor, the acceleration sensor, and the gyro sensor may be referred to as an inertial measurement unit (IMU). According to one embodiment, the wearable device 300 may identify a user's motion and/or gesture performed to execute or stop a specific function of the wearable device 300 based on the IMU.

도 4a 내지 도 4b는, 일 실시예에 따른, 웨어러블 장치(400)의 외관의 일 예를 도시한다. 도 4a 내지 도 4b의 웨어러블 장치(400)는, 도 1의 웨어러블 장치(101) 및/또는 도 2의 웨어러블 장치의 일 예일 수 있다. 일 실시예에 따른, 웨어러블 장치(400)의 하우징의 제1 면(410)의 외관의 일 예가 도 4a에 도시되고, 상기 제1 면(410)의 반대되는(opposite to) 제2 면(420)의 외관의 일 예가 도 4b에 도시될 수 있다.4A to 4B show an example of the appearance of a wearable device 400, according to an embodiment. The wearable device 400 of FIGS. 4A and 4B may be an example of the wearable device 101 of FIG. 1 and/or the wearable device of FIG. 2 . An example of the appearance of the first side 410 of the housing of the wearable device 400, according to one embodiment, is shown in FIG. 4A, and the second side 420 is opposite to the first side 410. ) can be shown in Figure 4b.

도 4a를 참고하면, 일 실시예에 따른, 웨어러블 장치(400)의 제1 면(410)은, 사용자의 신체 부위(예, 상기 사용자의 얼굴) 상에 부착가능한(attachable) 형태를 가질 수 있다. 비록 도시되지 않았지만, 웨어러블 장치(400)는, 사용자의 신체 부위 상에 고정되기 위한 스트랩, 및/또는 하나 이상의 템플들(예, 도 3a 내지 도 3b의 제1 템플(304), 및/또는 제2 템플(305))을 더 포함할 수 있다. 사용자의 양 눈들 중에서 좌측 눈으로 이미지를 출력하기 위한 제1 디스플레이(350-1), 및 상기 양 눈들 중에서 우측 눈으로 이미지를 출력하기 위한 제2 디스플레이(350-2)가 제1 면(410) 상에 배치될 수 있다. 웨어러블 장치(400)는 제1 면(410) 상에 형성되고, 상기 제1 디스플레이(350-1), 및 상기 제2 디스플레이(350-2)로부터 방사되는 광과 상이한 광(예, 외부 광(ambient light))에 의한 간섭을 방지하기 위한, 고무, 또는 실리콘 패킹(packing)을 더 포함할 수 있다.Referring to FIG. 4A, according to one embodiment, the first surface 410 of the wearable device 400 may have a form attachable to a user's body part (e.g., the user's face). . Although not shown, the wearable device 400 may include a strap for securing to a portion of the user's body, and/or one or more temples (e.g., the first temple 304 of FIGS. 3A-3B , and/or the first temple 304 of FIGS. 3A-3B It may further include 2 temples (305). A first display 350-1 for outputting an image to the left eye of both eyes of the user, and a second display 350-2 for outputting an image to the right eye of the user's both eyes, have a first surface 410 It can be placed on top. The wearable device 400 is formed on the first surface 410 and emits light (e.g., external light (e.g., external light) different from the light emitted from the first display 350-1 and the second display 350-2. Rubber or silicone packing may be further included to prevent interference due to ambient light.

일 실시예에 따른, 웨어러블 장치(400)는, 상기 제1 디스플레이(350-1), 및 상기 제2 디스플레이(350-2) 각각에 인접한 사용자의 양 눈들을 촬영, 및/또는 추적하기 위한 카메라들(440-1, 440-2)을 포함할 수 있다. 상기 카메라들(440-1, 440-2)은, ET 카메라로 참조될 수 있다. 일 실시예에 따른, 웨어러블 장치(400)는, 사용자의 얼굴을 촬영, 및/또는 인식하기 위한 카메라들(440-3, 440-4)을 포함할 수 있다. 상기 카메라들(440-3, 440-4)은, FT 카메라로 참조될 수 있다.According to one embodiment, the wearable device 400 includes a camera for photographing and/or tracking both eyes of a user adjacent to each of the first display 350-1 and the second display 350-2. It may include (440-1, 440-2). The cameras 440-1 and 440-2 may be referred to as ET cameras. According to one embodiment, the wearable device 400 may include cameras 440-3 and 440-4 for photographing and/or recognizing the user's face. The cameras 440-3 and 440-4 may be referred to as FT cameras.

도 4b를 참고하면, 도 4a의 제1 면(410)과 반대되는 제2 면(420) 상에, 웨어러블 장치(400)의 외부 환경과 관련된 정보를 획득하기 위한 카메라(예, 카메라들(440-5, 440-6, 440-7, 440-8, 440-9, 440-10)), 및/또는 센서(예, 깊이 센서(430))가 배치될 수 있다. 예를 들어, 카메라들(440-5, 440-6, 440-7, 440-8, 440-9, 440-10)은, 웨어러블 장치(400)와 상이한 외부 객체를 인식하기 위하여, 제2 면(420) 상에 배치될 수 있다. 예를 들어, 카메라들(440-9, 440-10)을 이용하여, 웨어러블 장치(400)는 사용자의 양 눈들 각각으로 송신될 이미지, 및/또는 미디어를 획득할 수 있다. 카메라(440-9)는, 상기 양 눈들 중에서 우측 눈에 대응하는 제2 디스플레이(350-2)를 통해 표시될 이미지를 획득하도록, 웨어러블 장치(400)의 제2 면(420) 상에 배치될 수 있다. 카메라(440-10)는, 상기 양 눈들 중에서 좌측 눈에 대응하는 제1 디스플레이(350-1)를 통해 표시될 이미지를 획득하도록, 웨어러블 장치(400)의제2 면(420) 상에 배치될 수 있다.Referring to FIG. 4B, on the second side 420, which is opposite to the first side 410 of FIG. 4A, a camera (e.g., cameras 440) for acquiring information related to the external environment of the wearable device 400 -5, 440-6, 440-7, 440-8, 440-9, 440-10)), and/or a sensor (e.g., depth sensor 430) may be disposed. For example, the cameras 440-5, 440-6, 440-7, 440-8, 440-9, and 440-10 are configured to recognize external objects different from the wearable device 400. It may be placed on (420). For example, using the cameras 440-9 and 440-10, the wearable device 400 may obtain images and/or media to be transmitted to each of the user's eyes. The camera 440-9 will be disposed on the second side 420 of the wearable device 400 to acquire an image to be displayed through the second display 350-2 corresponding to the right eye among the two eyes. You can. The camera 440-10 may be disposed on the second side 420 of the wearable device 400 to acquire an image to be displayed through the first display 350-1 corresponding to the left eye among the two eyes. there is.

일 실시예에 따른, 웨어러블 장치(400)는, 웨어러블 장치(400), 및 외부 객체 사이의 거리를 식별하기 위하여 제2 면(420) 상에 배치된 깊이 센서(430)를 포함할 수 있다. 깊이 센서(430)를 이용하여, 웨어러블 장치(400)는, 웨어러블 장치(400)를 착용한 사용자의 FoV의 적어도 일부분에 대한 공간 정보(spatial information)(예, 깊이 맵(depth map))를 획득할 수 있다.According to one embodiment, the wearable device 400 may include a depth sensor 430 disposed on the second surface 420 to identify the distance between the wearable device 400 and an external object. Using the depth sensor 430, the wearable device 400 acquires spatial information (e.g., depth map) about at least a portion of the FoV of the user wearing the wearable device 400. can do.

비록 도시되지 않았지만, 웨어러블 장치(400)의 제2 면(420) 상에, 외부 객체로부터 출력된 소리를 획득하기 위한 마이크가 배치될 수 있다. 마이크의 개수는, 실시예에 따라 하나 이상일 수 있다.Although not shown, a microphone for acquiring sound output from an external object may be disposed on the second side 420 of the wearable device 400. The number of microphones may be one or more depending on the embodiment.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(400)는 사용자의 머리에 착용되기 위한 폼 팩터를 가질 수 있다. 웨어러블 장치(400)는, 상기 머리에 착용된 상태 내에서, 증강 현실, 가상 현실, 및/또는 혼합 현실에 기반하는 사용자 경험을 제공할 수 있다. 사용자의 두 눈들 각각을 향하여 배치되기 위한 제1 디스플레이(350-1) 및 제2 디스플레이(350-2)를 이용하여, 웨어러블 장치(400)는 외부 객체를 포함하는 화면을 표시할 수 있다. 상기 화면 내에서, 웨어러블 장치(400)는 외부 객체를 등록하거나, 또는 외부 객체에 할당된 기능을 실행한 결과를 표시할 수 있다.As described above, the wearable device 400 according to one embodiment may have a form factor to be worn on the user's head. The wearable device 400 may provide a user experience based on augmented reality, virtual reality, and/or mixed reality while worn on the head. The wearable device 400 can display a screen including an external object using the first display 350-1 and the second display 350-2 that are arranged to face each of the user's eyes. Within the screen, the wearable device 400 may register an external object or display the results of executing a function assigned to the external object.

이하에서는, 도 5를 참고하여, 도 3a 내지 도 3b의 웨어러블 장치(300), 및/또는 도 4a 내지 도 4b의 웨어러블 장치(400)를 포함하는 웨어러블 장치(예, 도 1의 웨어러블 장치(101)) 내에 포함된 하나 이상의 하드웨어들의 예시적인 구조가 설명된다.Hereinafter, with reference to FIG. 5, a wearable device including the wearable device 300 of FIGS. 3A to 3B and/or the wearable device 400 of FIGS. 4A to 4B (e.g., the wearable device 101 of FIG. 1 )) An exemplary structure of one or more hardware included within is described.

도 5는, 일 실시예에 따른, 웨어러블 장치(101)의 블록도이다. 도 5의 웨어러블 장치(101)는 도 1의 웨어러블 장치(101), 도 2의 웨어러블 장치, 도 3a 내지 도 3b의 웨어러블 장치(300) 및/또는 도 4a 내지 도 4b의 웨어러블 장치(400)를 포함할 수 있다. 웨어러블 장치(101)는, 프로세서(510), 메모리(520), 디스플레이(530), 카메라(540) 또는 통신 회로(550) 중 적어도 하나를 포함할 수 있다. 프로세서(510), 메모리(520), 디스플레이(530), 카메라(540) 및 통신 회로(550)는 통신 버스(502)와 같은 전자 부품(electronical component)에 의해 서로 전기적으로 및/또는 작동적으로 연결될 수 있다(electronically and/or operably coupled with each other). 이하에서, 하드웨어들이 작동적으로 결합된 것은, 하드웨어들 중 제1 하드웨어에 의해 제2 하드웨어가 제어되도록, 하드웨어들 사이의 직접적인 연결, 또는 간접적인 연결이 유선으로, 또는 무선으로 수립된 것을 의미할 수 있다. 상이한 블록들에 기반하여 도시되었으나, 실시예가 이에 제한되는 것은 아니며, 도 5의 하드웨어들 중 일부분(예, 프로세서(510), 메모리(520) 및 통신 회로(550)의 적어도 일부분)이 SoC(system on a chip)와 같이 단일 집적 회로(single integrated circuit)에 포함될 수 있다. 웨어러블 장치(101)에 포함된 하드웨어 컴포넌트의 타입 및/또는 개수는 도 5에 도시된 바에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는 도 5에 도시된 하드웨어 컴포넌트 중 일부만 포함할 수 있다.Figure 5 is a block diagram of a wearable device 101, according to one embodiment. The wearable device 101 of FIG. 5 includes the wearable device 101 of FIG. 1, the wearable device of FIG. 2, the wearable device 300 of FIGS. 3A and 3B, and/or the wearable device 400 of FIGS. 4A and 4B. It can be included. The wearable device 101 may include at least one of a processor 510, memory 520, display 530, camera 540, or communication circuit 550. The processor 510, memory 520, display 530, camera 540, and communication circuit 550 are electrically and/or operationally connected to each other by electronic components such as a communication bus 502. Can be connected (electronically and/or operably coupled with each other). Hereinafter, hardware being operatively combined will mean that a direct connection or an indirect connection between the hardware is established, wired or wireless, such that the second hardware is controlled by the first hardware among the hardware. You can. Although shown based on different blocks, the embodiment is not limited thereto, and some of the hardware in FIG. 5 (e.g., the processor 510, the memory 520, and at least a portion of the communication circuit 550) are SoC (system It may be included in a single integrated circuit, such as on a chip. The type and/or number of hardware components included in the wearable device 101 are not limited to those shown in FIG. 5 . For example, wearable device 101 may include only some of the hardware components shown in FIG. 5 .

일 실시예에 따른 웨어러블 장치(101)의 프로세서(510)는 하나 이상의 인스트럭션들에 기반하여 데이터를 처리하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 데이터를 처리하기 위한 하드웨어 컴포넌트는, 예를 들어, ALU(arithmetic and logic unit), FPU(floating point unit), FPGA(field programmable gate array), CPU(central processing unit) 및/또는 AP(application processor)를 포함할 수 있다. 프로세서(510)의 개수는 하나 이상일 수 있다. 예를 들어, 프로세서(510)는 듀얼 코어(dual core), 쿼드 코어(quad core) 또는 헥사 코어(hexa core)와 같은 멀티-코어 프로세서의 구조를 가질 수 있다.The processor 510 of the wearable device 101 according to an embodiment may include hardware components for processing data based on one or more instructions. Hardware components for processing data include, for example, an arithmetic and logic unit (ALU), a floating point unit (FPU), a field programmable gate array (FPGA), a central processing unit (CPU), and/or an application processor (AP). may include. The number of processors 510 may be one or more. For example, the processor 510 may have a multi-core processor structure such as dual core, quad core, or hexa core.

일 실시예에 따른, 웨어러블 장치(101)의 메모리(520)는 프로세서(510)에 입력 및/또는 출력되는 데이터 및/또는 인스트럭션을 저장하기 위한 하드웨어 컴포넌트를 포함할 수 있다. 메모리(520)는, 예를 들어, RAM(random-access memory)와 같은 휘발성 메모리(volatile memory) 및/또는 ROM(read-only memory)와 같은 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 휘발성 메모리는, 예를 들어, DRAM(dynamic RAM), SRAM(static RAM), Cache RAM, PSRAM (pseudo SRAM) 중 적어도 하나를 포함할 수 있다. 비휘발성 메모리는, 예를 들어, PROM(programmable ROM), EPROM (erasable PROM), EEPROM (electrically erasable PROM), 플래시 메모리, 하드디스크, 컴팩트 디스크, SSD(solid state drive), eMMC(embedded multi media card) 중 적어도 하나를 포함할 수 있다.According to one embodiment, the memory 520 of the wearable device 101 may include a hardware component for storing data and/or instructions input and/or output to the processor 510. Memory 520 may include, for example, volatile memory such as random-access memory (RAM) and/or non-volatile memory such as read-only memory (ROM). there is. Volatile memory may include, for example, at least one of dynamic RAM (DRAM), static RAM (SRAM), cache RAM, and pseudo SRAM (PSRAM). Non-volatile memory includes, for example, programmable ROM (PROM), erasable PROM (EPROM), electrically erasable PROM (EEPROM), flash memory, hard disk, compact disk, solid state drive (SSD), and embedded multi media card (eMMC). ) may include at least one of

일 실시예에 따른, 웨어러블 장치(101)의 메모리(520) 내에서, 프로세서(510)가 데이터에 수행할 연산, 및/또는 동작을 나타내는 하나 이상의 인스트럭션들(또는 명령어들)이 저장될 수 있다. 하나 이상의 인스트럭션들의 집합은, 펌웨어, 운영 체제, 프로세스, 루틴, 서브-루틴 및/또는 어플리케이션으로 참조될 수 있다. 예를 들어, 웨어러블 장치(101), 및/또는 프로세서(510)는, 운영체제, 펌웨어, 드라이버, 및/또는 어플리케이션 형태로 배포된 복수의 인스트럭션의 집합(set of a plurality of instructions)이 실행될 시에, 도 2, 도 7, 도 16 및/또는 도 18의 동작들 중 적어도 하나를 수행할 수 있다. 이하에서, 어플리케이션이 웨어러블 장치(101)에 설치되었다는 것은, 어플리케이션의 형태로 제공된 하나 이상의 인스트럭션들이 웨어러블 장치(101)의 메모리(520) 내에 저장된 것으로써, 상기 하나 이상의 어플리케이션들이 웨어러블 장치(101)의 프로세서(510)에 의해 실행 가능한(executable) 포맷(예, 웨어러블 장치(101)의 운영 체제에 의해 지정된 확장자를 가지는 파일)으로 저장된 것을 의미할 수 있다. 예를 들어, 웨어러블 장치(101)는 하나 이상의 인스트럭션들을 실행하여, 외부 객체(예, 도 1의 외부 객체(130))의 모션과 관련된 정보(예, 외부 객체의 일부분의 경로 및/또는 외부 객체에 의해 그려진 적어도 하나의 획)를 획득할 수 있다. 웨어러블 장치(101)는 획득된 정보에 기반하여, 메모리(520) 내에 설치된 하나 이상의 어플리케이션들을 실행할 수 있다. 웨어러블 장치(101)는, 상기 획득된 정보에 기반하여, 상기 외부 객체에 매칭된 기능을 실행하기 위하여, 상기 하나 이상의 어플리케이션들을 실행할 수 있다. According to one embodiment, within the memory 520 of the wearable device 101, one or more instructions (or commands) indicating operations and/or operations to be performed on data by the processor 510 may be stored. . A set of one or more instructions may be referred to as firmware, operating system, process, routine, sub-routine and/or application. For example, the wearable device 101 and/or the processor 510 executes a set of a plurality of instructions distributed in the form of an operating system, firmware, driver, and/or application. , at least one of the operations of FIGS. 2, 7, 16, and/or 18 may be performed. Hereinafter, the fact that an application is installed on the wearable device 101 means that one or more instructions provided in the form of an application are stored in the memory 520 of the wearable device 101, and the one or more applications are installed in the wearable device 101. This may mean stored in an executable format (eg, a file with an extension specified by the operating system of the wearable device 101) by the processor 510. For example, the wearable device 101 executes one or more instructions to generate information related to the motion of an external object (e.g., the external object 130 of FIG. 1) (e.g., a path of a portion of the external object and/or the external object At least one stroke drawn by) can be obtained. The wearable device 101 may execute one or more applications installed in the memory 520 based on the acquired information. The wearable device 101 may execute the one or more applications to execute a function matched to the external object based on the obtained information.

일 실시예에 따른, 웨어러블 장치(101)의 디스플레이(530)는 사용자에게 시각화된 정보를 출력할 수 있다. 도 5의 디스플레이(530)는 도 3a 내지 도 3b의 적어도 하나의 디스플레이(350) 및/또는 도 4a 내지 도 4b의 제1 디스플레이(350-1) 내지 제2 디스플레이(350-2)를 포함할 수 있다. 디스플레이(530)는, GPU(graphic processing unit)와 같은 컨트롤러에 의해 제어되어, 사용자에게 시각화된 정보(visualized information)를 출력할 수 있다. 디스플레이(530)는 FPD(flat panel display) 및/또는 전자 종이(electronic paper)를 포함할 수 있다. 상기 FPD는 LCD(liquid crystal display), PDP(plasma display panel) 및/또는 하나 이상의 LED(light emitting diode)를 포함할 수 있다. 상기 LED는 OLED(organic LED)를 포함할 수 있다.According to one embodiment, the display 530 of the wearable device 101 may output visualized information to the user. The display 530 of FIG. 5 may include at least one display 350 of FIGS. 3A to 3B and/or the first display 350-1 to the second display 350-2 of FIGS. 4A to 4B. You can. The display 530 is controlled by a controller such as a GPU (graphic processing unit) and can output visualized information to the user. The display 530 may include a flat panel display (FPD) and/or electronic paper. The FPD may include a liquid crystal display (LCD), a plasma display panel (PDP), and/or one or more light emitting diodes (LED). The LED may include an organic LED (OLED).

일 실시예에 따른, 웨어러블 장치(101)의 카메라(540)는, 빛의 색상 및/또는 밝기를 나타내는 전기 신호를 생성하는 하나 이상의 광 센서들(예, CCD(charged coupled device) 센서, CMOS(complementary metal oxide semiconductor) 센서)을 포함할 수 있다. 카메라(540)에 포함된 복수의 광 센서들은 2차원 격자(2 dimensional array)의 형태로 배치될 수 있다. 카메라(540)는 복수의 광 센서들의 전기 신호들을 실질적으로 동시에 획득하여, 2차원 격자의 광 센서들에 도달한 빛에 대응하는 2차원 프레임 데이터를 생성할 수 있다. 예를 들어, 카메라(540)를 이용하여 캡쳐한 사진 데이터는 카메라(540)로부터 획득한 하나의 2차원 프레임 데이터를 의미할 수 있다. 예를 들어, 카메라(540)를 이용하여 캡쳐한 비디오 데이터는, 카메라(540)로부터 지정된 프레임율(frame rate)을 따라 획득한 복수의 이미지들의 시퀀스(sequence)를 의미할 수 있다. According to one embodiment, the camera 540 of the wearable device 101 includes one or more optical sensors (e.g., a charged coupled device (CCD) sensor, a CMOS (CMOS) sensor that generates an electrical signal representing the color and/or brightness of light. It may include a complementary metal oxide semiconductor (sensor). A plurality of optical sensors included in the camera 540 may be arranged in the form of a 2-dimensional array. The camera 540 may acquire electrical signals from a plurality of optical sensors substantially simultaneously and generate two-dimensional frame data corresponding to light reaching the optical sensors of the two-dimensional grid. For example, photo data captured using the camera 540 may mean one two-dimensional frame data obtained from the camera 540. For example, video data captured using the camera 540 may mean a sequence of a plurality of images acquired from the camera 540 according to a designated frame rate.

일 실시예에 따른, 웨어러블 장치(101)는 하나 이상의 카메라들(예, 카메라(540))을 포함할 수 있다. 웨어러블 장치(101)가 복수의 카메라들을 포함하는 경우, 상기 복수의 카메라들은, 카메라를 통해 획득하고자 하는 정보에 의해 구분될 수 있다. 예를 들어, 웨어러블 장치(101)를 착용한 사용자의 눈을 추적하기 위한 카메라가 ET 카메라(예, 도 3a 내지 도 3b의 ET 카메라(340-1))로 지칭될(refereed as) 수 있다. 예를 들어, 웨어러블 장치(101)를 착용한 사용자의 얼굴을 추적하기 위한 카메라가 FT 카메라로 지칭될 수 있다. 예를 들어, 웨어러블 장치(101)는 사용자의 손(예, 도 1의 손(140))을 추적하기 위한 카메라가 동작 인식 카메라(예, 도3b의 동작 인식 카메라(340-2))로 지칭될 수 있다. 상기 복수의 카메라들 각각은, 사용자가 웨어러블 장치(101)를 착용한 상태 내에서, 카메라가 향하는 방향, 및/또는 뷰 앵글(view angle)에 의해 형성된 FoV(field-of-view)에 의해 구분될 수 있다. 외부 객체는, 카메라(540)의 FoV 내에 포함되고, 웨어러블 장치(101)와 구별되는 사물을 포함할 수 있다.According to one embodiment, the wearable device 101 may include one or more cameras (eg, camera 540). When the wearable device 101 includes a plurality of cameras, the plurality of cameras can be distinguished by information to be obtained through the camera. For example, a camera for tracking the eyes of a user wearing the wearable device 101 may be referred to as an ET camera (eg, ET camera 340-1 in FIGS. 3A and 3B). For example, a camera for tracking the face of a user wearing the wearable device 101 may be referred to as an FT camera. For example, the wearable device 101 has a camera for tracking the user's hand (e.g., hand 140 in FIG. 1) and is referred to as a motion recognition camera (e.g., motion recognition camera 340-2 in FIG. 3B). It can be. Each of the plurality of cameras is distinguished by a field-of-view (FoV) formed by the direction the camera faces and/or the view angle while the user is wearing the wearable device 101. It can be. The external object is included within the FoV of the camera 540 and may include an object that is distinct from the wearable device 101.

일 실시예에 따른, 웨어러블 장치(101)의 통신 회로(550)는 웨어러블 장치(101) 및 외부 전자 장치(예, 도 1의 단말(120) 및/또는 서버(122)) 사이의 전기 신호의 송신 및/또는 수신을 지원하기 위한 하드웨어를 포함할 수 있다. 통신 회로(550)는, 예를 들어, 모뎀(MODEM), 안테나, O/E(optic/electronic) 변환기 중 적어도 하나를 포함할 수 있다. 통신 회로(550)는, 이더넷(ethernet), LAN(local area network), WAN(wide area network), WiFi(wireless fidelity), Bluetooth, BLE(bluetooth low energy), ZigBee, LTE(long term evolution), 5G NR(new radio)와 같은 다양한 타입의 프로토콜에 기반하여 전기 신호의 송신 및/또는 수신을 지원할 수 있다.According to one embodiment, the communication circuit 550 of the wearable device 101 transmits electrical signals between the wearable device 101 and an external electronic device (e.g., the terminal 120 and/or the server 122 of FIG. 1). May include hardware to support transmission and/or reception. The communication circuit 550 may include, for example, at least one of a modem (MODEM), an antenna, and an optical/electronic (O/E) converter. The communication circuit 550 includes Ethernet, local area network (LAN), wide area network (WAN), wireless fidelity (WiFi), Bluetooth, bluetooth low energy (BLE), ZigBee, long term evolution (LTE), It can support transmission and/or reception of electrical signals based on various types of protocols, such as 5G new radio (NR).

비록 도시되지 않았지만, 일 실시예에 따른 웨어러블 장치(101)는 정보를 시각화한 형태 외에 다른 형태로 출력하기 위한 출력 수단을 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 음성 신호(acoustic signal)를 출력하기 위한 스피커를 포함할 수 있다. 예를 들어, 웨어러블 장치(101)는 진동에 기반하는 햅틱 피드백을 제공하기 위한 모터를 포함할 수 있다.Although not shown, the wearable device 101 according to one embodiment may include an output means for outputting information in a form other than a visualized form. For example, the wearable device 101 may include a speaker for outputting an acoustic signal. For example, the wearable device 101 may include a motor to provide haptic feedback based on vibration.

일 실시예에 따른, 웨어러블 장치(101)는 카메라(540)를 이용하여, 외부 객체를 식별할 수 있다. 상기 외부 객체에 할당된 속성이, 웨어러블 장치(101)의 메모리(520) 내에 저장될 수 있다. 상기 속성에 기반하여, 웨어러블 장치(101)는 외부 객체의 경로 및/또는 외부 객체에 의해 그려진 적어도 하나의 획 중 적어도 하나를 추적할 수 있다. 추적된 경로 및/또는 적어도 하나의 획에 기반하여, 웨어러블 장치(101)는 상기 속성에 대응하는 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)는 상기 어플리케이션을 실행하여, 추적된 경로 및/또는 적어도 하나의 획에 의해 지시되는 아날로그 콘텐트로부터 디지털 콘텐트를 획득할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 추적된 경로 및/또는 적어도 하나의 획에 포함된 정보를, 상기 어플리케이션에 기반하여 처리할 수 있다. According to one embodiment, the wearable device 101 may identify an external object using the camera 540. Attributes assigned to the external object may be stored in the memory 520 of the wearable device 101. Based on the properties, the wearable device 101 may track at least one of the path of the external object and/or at least one stroke drawn by the external object. Based on the tracked path and/or at least one stroke, the wearable device 101 may execute an application corresponding to the attribute. The wearable device 101 may execute the application and obtain digital content from the traced path and/or analog content indicated by at least one stroke. The embodiment is not limited to this, and the wearable device 101 may process information included in the tracked path and/or at least one stroke based on the application.

일 실시예에서, 웨어러블 장치(101)는 카메라(540)를 이용하여 식별된 외부 객체를 등록하기 위한 입력을 수신할 수 있다. 이하에서는, 도 6a 내지 도 6d 및/또는 도 7을 참고하여, 일 실시예에 따른, 웨어러블 장치(101)가 상기 입력을 수신하는 동작의 일 예가 설명된다.In one embodiment, the wearable device 101 may receive input for registering an identified external object using the camera 540. Below, with reference to FIGS. 6A to 6D and/or 7 , an example of an operation in which the wearable device 101 receives the input according to an embodiment is described.

도 6a 내지 도 6d는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체를 등록함을 지시하는(indicating) 입력을 식별하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 6a 내지 도 6d의 웨어러블 장치(101)를 포함할 수 있다. 도 6a 내지 도 6d를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 디스플레이(예, 도 5의 디스플레이(530))의 표시 영역을 통해 UI(user interface)를 표시하는 상이한 상태들(601, 602, 603, 604)이 도시된다. 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 상기 UI는 사용자(110)에 의해 보일 수 있다.FIGS. 6A to 6D illustrate an example of an operation of identifying an input indicating that the wearable device 101 registers an external object, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIGS. 6A to 6D. 6A to 6D, different states in which the wearable device 101 displays a user interface (UI) through the display area of the display (e.g., the display 530 in FIG. 5) according to an embodiment ( 601, 602, 603, 604) are shown. While the user 110 is wearing the wearable device 101, the UI can be viewed by the user 110.

도 6a를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가, 디스플레이에 의해 형성된 표시 영역 내에, 웨어러블 장치(101)의 메모리(예, 도 5의 메모리(520))에 저장된 복수의 어플리케이션들의 리스트(610)를 표시하는 예시적인 상태(601)가 도시된다. 상기 리스트(610)는, 상기 표시 영역의 일부분 내에 표시되고, 어플리케이션 트레이(tray)의 형태를 가질 수 있다. 웨어러블 장치(101)는 상기 리스트(610) 내에, 상기 복수의 어플리케이션들 각각을 표현하는 아이콘들(611, 612, 613, 614)을 표시할 수 있다. 웨어러블 장치(101)가 리스트(610) 내에 표시하는 아이콘들(611, 612, 613, 614)의 개수는, 도 6a의 일 실시예에 제한되지 않는다. 웨어러블 장치(101)에 설치된 어플리케이션들의 개수가 리스트(610)를 통해 동시에 표시할 수 있는(displayable) 지정된 상한(upper limit)을 초과하는 경우, 웨어러블 장치(101)는 리스트(610)를 스크롤함을 지시하는 입력에 응답하여, 리스트(610)를 통해 표시되는 아이콘을 전환할 수 있다. Referring to FIG. 6A, according to one embodiment, the wearable device 101 displays a plurality of applications stored in the memory (e.g., memory 520 of FIG. 5) of the wearable device 101 within the display area formed by the display. An example state 601 is shown displaying a list 610 of . The list 610 is displayed within a portion of the display area and may have the form of an application tray. The wearable device 101 may display icons 611, 612, 613, and 614 representing each of the plurality of applications in the list 610. The number of icons 611, 612, 613, and 614 displayed by the wearable device 101 in the list 610 is not limited to the embodiment of FIG. 6A. If the number of applications installed on the wearable device 101 exceeds the specified upper limit that can be simultaneously displayed through the list 610, the wearable device 101 scrolls the list 610. In response to the indicated input, the icon displayed through the list 610 can be switched.

도 6a의 상태(601) 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 사용자(110)에 의해 보여지는 하나 이상의 외부 객체들(621, 622, 623, 624)을 식별할 수 있다. 사용자(110)가 웨어러블 장치(101)를 착용한 상태 내에서, 웨어러블 장치(101)는 디스플레이의 표시 영역 내에 포함된 외부 객체들(621, 622, 623, 624)을 식별할 수 있다. 외부 객체들(621, 622, 623, 624)을 식별하는 것에 기반하여, 웨어러블 장치(101)는, 외부 객체들(621, 622, 623, 624)이 웨어러블 장치(101)에 의해 식별되었음을 가이드하기 위한 바운딩 박스들(631, 632, 633, 634)을, 표시 영역 내에 표시할 수 있다. 비록 사각형의 라인의 형태를 가지는 바운딩 박스들(631, 632, 633, 634)이 도시되었지만, 실시예가 이에 제한되는 것은 아니다.Within state 601 of FIG. 6A , according to one embodiment, the wearable device 101 may identify one or more external objects 621 , 622 , 623 , and 624 viewed by the user 110 . While the user 110 is wearing the wearable device 101, the wearable device 101 can identify external objects 621, 622, 623, and 624 included in the display area of the display. Based on identifying the external objects 621, 622, 623, 624, the wearable device 101 guides that the external objects 621, 622, 623, 624 have been identified by the wearable device 101. Bounding boxes 631, 632, 633, and 634 may be displayed within the display area. Although bounding boxes 631, 632, 633, and 634 in the form of square lines are shown, the embodiment is not limited thereto.

일 실시예에 따른, 웨어러블 장치(101)는 외부 객체의 형태, 크기 및/또는 색상에 기반하여, 상기 외부 객체가 등록되었는지 여부를 식별할 수 있다. 외부 객체가 등록되었다는 것은, 웨어러블 장치(101) 및/또는 외부 전자 장치(예, 도 1의 단말(120) 및/또는 서버(122)) 내에 상기 형태, 상기 크기, 및/또는 상기 색상을 포함하는 외부 객체의 속성이 저장됨을 의미할 수 있다. 이하에서, 외부 객체가 웨어러블 장치(101)에 등록되는 동작은, 상기 외부 객체의 속성이 웨어러블 장치(101) 내에 저장하는 동작에 제한되지 않으며, 웨어러블 장치(101)에 연결된 상기 외부 전자 장치 내에 저장되는 케이스를 포함할 수 있다. 상기 케이스 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 상기 외부 전자 장치로 액세스하여, 상기 외부 전자 장치 내에 저장된 상기 외부 객체의 속성을 획득할 수 있다. 상기 속성은, 웨어러블 장치(101)에 의해 추적되어야 하는, 외부 객체에 대한 정보(예, 외부 객체의 모션 및/또는 외부 객체로부터 출력되는 물질)를 포함할 수 있다. 상기 속성은, 상기 외부 객체에 매칭된 어플리케이션 및/또는 상기 어플리케이션에 의해 지원되는 복수의 기능들 중에서, 상기 외부 객체에 매칭된 일 기능을 포함할 수 있다. 실시예가 이에 제한되는 것은 아니며, 상기 속성은, 상기 외부 객체에 매칭된 복수의 어플리케이션들을 포함할 수 있다.According to one embodiment, the wearable device 101 may identify whether the external object is registered based on the shape, size, and/or color of the external object. An external object is registered, meaning that it includes the shape, size, and/or color within the wearable device 101 and/or external electronic device (e.g., terminal 120 and/or server 122 of FIG. 1). This may mean that the properties of an external object are stored. Hereinafter, the operation of registering an external object in the wearable device 101 is not limited to the operation of storing the properties of the external object in the wearable device 101, and is stored in the external electronic device connected to the wearable device 101. Cases may be included. Within the case, according to one embodiment, the wearable device 101 may access the external electronic device and obtain properties of the external object stored in the external electronic device. The properties may include information about an external object (eg, motion of the external object and/or material output from the external object) that should be tracked by the wearable device 101 . The attribute may include an application matched to the external object and/or a function matched to the external object among a plurality of functions supported by the application. The embodiment is not limited to this, and the property may include a plurality of applications matched to the external object.

예를 들어, 외부 객체(621)가 웨어러블 장치(101)에 등록된 경우, 웨어러블 장치(101)는 외부 객체(621)의 등록을 가이드하기 위한 지정된 색상(예, 노란색)을 가지는 바운딩 박스(631)를, 표시 영역 내에 포함된 외부 객체(621)와 중첩으로 표시할 수 있다. 도 6a를 참고하면, 웨어러블 장치(101)는 외부 객체(621)와 연계로, 외부 객체(621)에 매칭된 어플리케이션의 명칭(예, "1 APP")을, 상기 표시 영역 내에 표시할 수 있다. 외부 객체(621)와 구분되는 외부 객체들(622, 623, 624)이 웨어러블 장치(101)에 등록되지 않은 경우, 웨어러블 장치(101)는 외부 객체들(622, 623, 624)과 중첩된 바운딩 박스들(632, 633, 634)의 색상들을, 바운딩 박스(631)의 지정된 색상과 다른 지정된 색상(예, 청색)으로 표시할 수 있다.For example, when the external object 621 is registered in the wearable device 101, the wearable device 101 displays a bounding box 631 with a designated color (e.g., yellow) to guide registration of the external object 621. ) can be displayed overlapping with the external object 621 included in the display area. Referring to FIG. 6A, the wearable device 101 may display the name of the application (e.g., “1 APP”) matched to the external object 621 in the display area in connection with the external object 621. . If the external objects 622, 623, and 624 that are distinct from the external object 621 are not registered in the wearable device 101, the wearable device 101 overlaps the external objects 622, 623, and 624. The colors of the boxes 632, 633, and 634 may be displayed in a designated color (eg, blue) that is different from the designated color of the bounding box 631.

일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)로 외부 객체를 등록함을 지시하는 입력에 응답하여, 도 6a의 상태(601)로 진입할 수 있다. 예를 들어, 웨어러블 장치(101)는 리스트(610)를 표시함을 지시하는 입력에 응답하여, 도 6a의 상태(601)로 진입할 수 있다. 상태(601) 내에서, 웨어러블 장치(101)는 표시 영역 내에 상태(601)로 진입하기 이전의 다른 상태로 복귀하기 위한 버튼(640)의 형태를 가지는 시각적 객체를 표시할 수 있다. According to one embodiment, the wearable device 101 may enter state 601 of FIG. 6A in response to an input indicating registration of an external object with the wearable device 101. For example, the wearable device 101 may enter state 601 of FIG. 6A in response to an input indicating displaying a list 610. Within state 601, the wearable device 101 may display a visual object in the display area in the form of a button 640 for returning to another state before entering state 601.

일 실시예에 따른, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체로, 리스트(610) 내 일 어플리케이션의 매핑을 지시하는 입력을 식별할 수 있다. 상기 입력은, 리스트(610) 내에 포함된 특정 어플리케이션을 표현하는 시각적 객체(예, 아이콘들(611, 612, 613, 614) 중 적어도 하나)를 중첩하는 제스쳐를 포함할 수 있다. 도 6b를 참고하면, 웨어러블 장치(101)가 리스트(610) 내에 포함된 상기 입력을 식별한 예시적인 상태(602)가 도시된다. 상태(602) 내에서, 웨어러블 장치(101)는 상기 입력에 응답하여, 아이콘(612)을, 외부 객체(622) 상에 중첩으로 표시할 수 있다. 상태(602) 내에서, 웨어러블 장치(101)는 사용자(110)의 지정된 신체 부위(예, 도 1의 손(140) 및/또는 눈)의 모션에 기반하여, 경로(650)를 따라 아이콘(612)을 이동시키는 제스쳐를 식별할 수 있다. 상기 제스쳐는, 아이콘(612)에 대한 드래그-앤-드롭 제스쳐를 포함할 수 있다. 상기 제스쳐는, 외부 공간 내에서 아이콘(612)에 대응하는 일부분(예, 웨어러블 장치(101)를 착용한 사용자(110)에게 시인되는 영역으로, 아이콘(612)이 부유하는(floating) 공간)으로 이동되는 손(또는 손가락)에 기반하여 식별될 수 있다. 상기 제스쳐는, 상기 일부분으로부터 지정된 거리 미만으로 접근하는 상기 손에 기반하여 식별될 수 있다. 상기 제스쳐는, 외부 공간 내에서 아이콘(612)에 대응하는 일부분 내에 지정된 기간(예, 약 1 내지 1.5 초)을 초과하여 머무르는 상기 손에 기반하여, 식별될 수 있다. 비록 손에 기반하여, 상기 제스쳐가 예시되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 아이콘(612)을 향하는 사용자(110)의 시선의 방향 및/또는 사이즈(110)의 시선의 방향이 아이콘(612)을 향하는 기간에 기반하여, 상기 제스쳐를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 사용자(110)의 발언(예, "어느 연필로, 어느 어플리케이션을 매핑해줘"), 및 상기 발언이 수신된 시간 구간 내에서의 사용자(110)의 제스쳐에 기반하여, 특정 어플리케이션을 특정 외부 객체로 매핑하는 입력을 식별할 수 있다. 상기 입력에 기반하여, 웨어러블 장치(101)는 아이콘(612)에 대응하는 어플리케이션을, 표시 영역 내에 포함된 외부 객체(622)로 할당할 수 있다.According to one embodiment, the wearable device 101 may identify an input indicating mapping of an application in the list 610 as an external object included in the display area. The input may include a gesture that overlaps a visual object (eg, at least one of the icons 611, 612, 613, and 614) representing a specific application included in the list 610. Referring to FIG. 6B , an example state 602 is shown where wearable device 101 has identified the input included in list 610 . Within state 602, wearable device 101 may display icon 612 overlaid on external object 622 in response to the input. Within state 602, wearable device 101 displays an icon ( 612) can be identified. The gesture may include a drag-and-drop gesture for the icon 612. The gesture is performed in a portion of the external space corresponding to the icon 612 (e.g., an area visible to the user 110 wearing the wearable device 101, a space in which the icon 612 floats). It can be identified based on the hand (or finger) being moved. The gesture may be identified based on the hand approaching less than a specified distance from the portion. The gesture may be identified based on the hand remaining within a portion of external space corresponding to icon 612 for more than a specified period of time (e.g., approximately 1 to 1.5 seconds). Although the gesture is illustrated based on the hand, the embodiment is not limited thereto. For example, the wearable device 101 may perform the gesture based on the direction of the user's 110 gaze toward the icon 612 and/or the period during which the direction of the gaze of the size 110 is toward the icon 612. can be identified. For example, the wearable device 101 may respond to the user's 110 utterance (e.g., "Map which pencil, which application") and the user's 110 gesture within the time interval in which the utterance was received. Based on this, inputs that map a specific application to a specific external object can be identified. Based on the input, the wearable device 101 may allocate the application corresponding to the icon 612 to the external object 622 included in the display area.

도 6b의 경로(650)를 따라 드래그되는 입력을 식별한 상태(602) 내에서, 웨어러블 장치(101)는 외부 객체(622)를 이용하여 어플리케이션(예, 아이콘(612)에 대응하는 어플리케이션)을 실행하기 위한 속성을 획득할 수 있다. 비록 경로(650)를 따라, 아이콘(612)을 외부 객체(622)로 이동하는 입력이 예시적으로 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 아이콘들(611, 612, 613, 614) 중 어느 하나를, 외부 객체들(621, 622, 623, 624) 중 어느 하나로 이동하기 위한 다른 입력에 기반하여, 상기 다른 입력에 의해 이동된 아이콘에 대응하는 어플리케이션을 실행하기 위한 속성을 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내에, 상기 속성을 획득하기 위한 윈도우(660)의 형태를 가지는 시각적 객체를 표시할 수 있다. 윈도우(660)는, 상기 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면으로 지칭될 수 있다. 윈도우(660) 내에서, 웨어러블 장치(101)는 상기 입력에 의해 선택된 외부 객체(622) 및/또는 상기 어플리케이션과 관련된 정보를 표시할 수 있다. 윈도우(660) 내에서, 웨어러블 장치(101)는 외부 객체(622)를 이용하여 실행가능한(executable) 기능을 지시하는 정보(예, "기능: 스케쥴 송신")를 표시할 수 있다. 상기 기능은, 상기 어플리케이션에 의해 지원될 수 있다. 윈도우(660) 내에서, 웨어러블 장치(101)는 상기 기능을 실행하기 위하여 요구되는 속성을 수신할 수 있다. 상기 기능을 실행하기 위하여 요구되는 속성은, 상기 입력에 의해 선택된 어플리케이션에 의해 설정될 수 있다.In the state 602 of identifying the input dragged along the path 650 of FIG. 6B, the wearable device 101 uses the external object 622 to open an application (e.g., an application corresponding to the icon 612). Properties for execution can be obtained. Although the input for moving the icon 612 to the external object 622 along the path 650 is described as an example, the embodiment is not limited thereto. For example, the wearable device 101 moves one of the icons 611, 612, 613, and 614 to one of the external objects 621, 622, 623, and 624, based on another input, Attributes for executing the application corresponding to the icon moved by the other input can be obtained. For example, the wearable device 101 may display a visual object in the form of a window 660 for obtaining the properties within the display area. Window 660 may be referred to as a screen for receiving one or more properties related to the application. Within the window 660, the wearable device 101 may display information related to the application and/or the external object 622 selected by the input. Within the window 660, the wearable device 101 may display information indicating an executable function (eg, “function: schedule transmission”) using the external object 622. The function may be supported by the application. Within window 660, wearable device 101 can receive properties required to execute the function. Attributes required to execute the function may be set by the application selected by the input.

도 6b를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 윈도우(660) 내에서, 웨어러블 장치(101)에 의해 인식될 정보를 선택하기 위한 입력을 수신할 수 있다. 예를 들어, 웨어러블 장치(101)는 윈도우(660) 내에서, 외부 객체(622)의 일부분의 모션, 또는 외부 객체(622)에 의해 그려진 획 중 무엇을 추적할지를 선택하기 위한 옵션들을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는, 외부 객체(622)가 잉크를 포함하는 펜으로 인식된 경우, 윈도우(660) 내에 상기 옵션들을 표시할 수 있다. 웨어러블 장치(101)는, 윈도우(660) 내에서, 웨어러블 장치(101)에 의해 추적될 외부 객체(622)의 일부분을 선택하기 위한 옵션들을 표시할 수 있다. 예를 들어, 상기 옵션들 중에서, 외부 객체(622)의 모션을 추적하기 위한 일 옵션이 선택된 경우, 웨어러블 장치(101)는 외부 객체(622)의 일 단(an end)을 추적할 수 있다. 외부 객체(622)의 상기 일 단은, 상기 외부 객체(622)의 양 단들 중에서, 경로(650)를 따라 상기 외부 객체(622) 상으로 드래그된 아이콘(612)의 위치에 기반하여 선택될 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는, 웨어러블 장치(101)에 의해 추적될 외부 객체(622)의 일부분을 선택하기 위한 입력을 추가적으로 수신할 수 있다.Referring to FIG. 6B, according to one embodiment, the wearable device 101 may receive an input for selecting information to be recognized by the wearable device 101 within the window 660. For example, wearable device 101 may display, within window 660, options for selecting whether to track the motion of a portion of external object 622 or a stroke drawn by external object 622. there is. For example, when the external object 622 is recognized as a pen containing ink, the wearable device 101 may display the above options in the window 660. Wearable device 101 may display, within window 660 , options for selecting a portion of external object 622 to be tracked by wearable device 101 . For example, when an option for tracking the motion of the external object 622 is selected among the options, the wearable device 101 may track an end of the external object 622. The one end of the external object 622 can be selected based on the position of the icon 612 dragged onto the external object 622 along a path 650 among both ends of the external object 622. there is. The embodiment is not limited to this, and the wearable device 101 may additionally receive an input for selecting a portion of the external object 622 to be tracked by the wearable device 101.

도 6b를 참고하면, 아이콘(612)이 스케줄 어플리케이션에 대응하는 상태(602) 내에서, 웨어러블 장치(101)가 상기 스케줄 어플리케이션과 관련된 속성을 포함하는 윈도우(660)를 표시하는 일 예가 도시된다. 상태(602) 내에서, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 획득된 정보(예, 외부 객체(622)의 일부분의 경로 및/또는 외부 객체(622)에 의해 그려진 손글씨)가 추가될 달력의 종류를 선택하기 위한 텍스트(예, "달력: 개인 달력")를 표시할 수 있다. 상태(602) 내에서, 웨어러블 장치(101)는 외부 객체(622)의 일 단을 추적할지, 또는 외부 객체(622)에 의해 그려진 획을 추적할지를 선택하기 위한 옵션들을 표시할 수 있다. 예를 들어, 외부 객체(622)에 의해 그려진 획을 추적하기 위한 옵션이 선택된 경우, 웨어러블 장치(101)는 외부 객체(622)의 물질(예, 잉크 및/또는 흑연)을 통해 입력된 필기 입력을 식별할 수 있다. 외부 객체(622)의 상기 일 단은, 길이 방향을 따라 연장된 외부 객체(622)의 양 단들 중에서, 경로(650)를 따라 드래그된 아이콘(612)이 중첩되는 외부 객체(622)의 지점과 인접한 일 단으로 선택될 수 있다. 웨어러블 장치(101)는 윈도우(660)를, 리스트(610) 내에서 선택된 어플리케이션의 타입에 따라 선택적으로 표시할 수 있다. 도 6b의 상태(602) 내에서, 윈도우(660) 내에 포함된 버튼(예, "확인"과 같은 지정된 텍스트를 포함하는 버튼)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 윈도우(660) 내에 포함된 속성에 기반하여, 외부 객체(622)를 등록할 수 있다. 윈도우(660)와 독립적으로 외부 객체(622)를 등록하는 일 실시예에서, 웨어러블 장치(101)는 경로(650)를 따라 아이콘(612)을 드래그함을 지시하는 입력에 기반하여, 외부 객체(622)를 등록할 수 있다. 외부 객체(622)의 등록에 기반하여, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 실행될 기능(예, 윈도우(660)에 포함된 속성에 기반하여 실행되는 기능)을, 외부 객체(622)로 매칭할 수 있다.Referring to FIG. 6B, an example is shown in which the wearable device 101 displays a window 660 containing attributes related to the schedule application within a state 602 in which an icon 612 corresponds to the schedule application. Within state 602, the wearable device 101 tracks the external object 622 and displays information obtained by tracking the external object 622 (e.g., the path of a portion of the external object 622 and/or handwriting drawn by the external object 622). You can display text (e.g., “Calendar: Personal calendar”) to select the type of calendar to be added. Within state 602 , wearable device 101 may display options for selecting whether to track a tip of external object 622 or a stroke drawn by external object 622 . For example, if the option to track strokes drawn by external object 622 is selected, wearable device 101 may detect handwriting input entered through the substance (e.g., ink and/or graphite) of external object 622. can be identified. The one end of the external object 622 is a point of the external object 622 where the icon 612 dragged along the path 650 overlaps, among both ends of the external object 622 extending along the length direction. It can be selected as one adjacent group. The wearable device 101 may selectively display a window 660 according to the type of application selected in the list 610. Within state 602 of FIG. 6B, in response to input indicating selection of a button contained within window 660 (e.g., a button containing specified text such as “OK”), wearable device 101 may: Based on the properties included in the window 660, the external object 622 can be registered. In one embodiment that registers the external object 622 independently of the window 660, the wearable device 101, based on an input indicating dragging the icon 612 along the path 650, registers the external object ( 622) can be registered. Based on the registration of the external object 622, the wearable device 101 tracks the external object 622 and determines a function to be executed (e.g., a function to be executed based on the properties included in the window 660), and the external object ( 622).

비록 웨어러블 장치(101)가 윈도우(660)를 통하여 스케줄 어플리케이션에 의해 설정된 적어도 하나의 속성을 획득하는 동작이 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(622)의 등록을 위한 상태(602)에서, 외부 객체(622)에 대응하는 어플리케이션을 실행하기 위하여 요구되는 하나 이상의 속성들을 식별할 수 있다. 상기 하나 이상의 속성들은, 외부 객체(622)로 이동된 아이콘에 대응하는 어플리케이션에 의해 설정될 수 있다. 예를 들어, 상기 하나 이상의 속성들은, 웨어러블 장치(101)에 설치된 어플리케이션들에 기반하여, 표 1과 같이 구분될 수 있다.Although the operation of the wearable device 101 acquiring at least one attribute set by the schedule application through the window 660 has been described, the embodiment is not limited thereto. According to one embodiment, the wearable device 101 may identify one or more properties required to execute an application corresponding to the external object 622 in a state 602 for registering the external object 622. . The one or more properties may be set by an application corresponding to the icon moved to the external object 622. For example, the one or more properties may be classified as shown in Table 1 based on applications installed on the wearable device 101.

어플리케이션application 속성property 스케쥴 어플리케이션schedule application 일정이 저장될 달력의 종류, 반복 횟수, 리마인더 시점Type of calendar in which the schedule will be saved, number of repetitions, reminder timing 노트 어플리케이션Note application 손 글씨가 저장될 디지털 노트, 획의 스타일(예, 색상, 두께, 투명도 및/또는 패턴)Digital notes in which handwriting will be stored, style of strokes (e.g. color, thickness, transparency and/or pattern) 메신저 어플리케이션Messenger application 수신자receiver 결제 어플리케이션Payment application 통화, 은행, 수신자currency, bank, recipient

표 1을 참고하면, 노트 어플리케이션 및 외부 객체(622)를 매칭하는 경우, 웨어러블 장치(101)는 외부 객체(622)에 의해 그려진 적어도 하나의 획을 포함하는 디지털 콘텐트가 저장될 디지털 노트, 및/또는 상기 적어도 하나의 획의 스타일에 대한 속성을 획득할 수 있다. 메신저 어플리케이션 및 외부 객체(622)를 매칭하는 경우, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 식별한 텍스트 메시지를 수신할 상대방(counterpart)에 대한 속성을 획득할 수 있다. 결제 어플리케이션 및 외부 객체(622)를 매칭하는 경우, 웨어러블 장치(101)는 외부 객체(622)를 추적하여 식별한 금액에 대한 통화, 상기 금액이 송금될 상대방 및/또는 은행에 대한 속성을 획득할 수 있다. 표 1에 포함된 속성과 독립적으로, 웨어러블 장치(101)는 외부 객체(622)의 일 단 또는 외부 객체(622)에 의해 그려진 획을 추적할지 여부에 대한 속성을 획득할 수 있다.도 6c를 참고하면, 웨어러블 장치(101)가 외부 객체(622)를 등록한 상태(603)가 도시된다. 상태(603)는, 상태(602) 이후의 상태일 수 있다. 상태(603) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(622)와 연계로, 외부 객체(622)에 매칭된 어플리케이션을 표현한 아이콘(615)을 표시할 수 있다. 도 6b의 아이콘(612)을 경로(650)를 따라 외부 객체(622)로 이동하는 입력에 기반하여 외부 객체(622)를 등록한 일 실시예에서, 도 6c의 아이콘(615)은, 도 6a 내지 도 6b의 아이콘(612)과 일치할 수 있다. 실시예가 이에 제한되는 것은 아니다. 도 6a의 상태(601)를 참고하여 설명한 바와 같이, 외부 객체(621)가 웨어러블 장치(101)에 등록된 이후의 상태(603) 내에서, 웨어러블 장치(101)는 외부 객체들(621, 622) 각각을 감싸는(wrapping) 형태들을 가지는 바운딩 박스들(631, 632)을, 바운딩 박스들(633, 634)과 상이한 색상으로 표시할 수 있다. 웨어러블 장치(101)는 바운딩 박스들(631, 632)에 인접한 표시 영역의 일부분에, 외부 객체들(621, 622) 각각에 매칭된 어플리케이션들의 명칭(예, "1 APP", 및 "2 APP")을 표시할 수 있다. 도 6c의 상태(603) 내에서, 웨어러블 장치(101)는 등록된 외부 객체(622)에 의해 생성된 아날로그 콘텐트를, 아이콘(612)에 매칭된 어플리케이션을 이용하여 디지털 콘텐트로 변경할 수 있다. Referring to Table 1, when matching the note application and the external object 622, the wearable device 101 stores a digital note containing at least one stroke drawn by the external object 622, and/ Alternatively, attributes for the style of the at least one stroke may be obtained. When matching the messenger application and the external object 622, the wearable device 101 can track the external object 622 and obtain properties of the counterpart who will receive the identified text message. When matching a payment application and an external object 622, the wearable device 101 tracks the external object 622 to obtain the currency for the identified amount, the other party to whom the amount is to be transferred, and/or the bank. You can. Independently of the properties included in Table 1, the wearable device 101 can obtain properties for whether to track a single end of the external object 622 or a stroke drawn by the external object 622. See Figure 6C. For reference, a state 603 in which the wearable device 101 has registered an external object 622 is shown. State 603 may be a state subsequent to state 602. Within the state 603, the wearable device 101 may display an icon 615 representing an application matched to the external object 622 included in the display area in association with the external object 622. In one embodiment in which the external object 622 is registered based on an input that moves the icon 612 in FIG. 6B to the external object 622 along the path 650, the icon 615 in FIG. 6C is the same as in FIGS. 6A to 6C. It may correspond to icon 612 in FIG. 6B. The examples are not limited thereto. As described with reference to the state 601 of FIG. 6A, within the state 603 after the external object 621 is registered with the wearable device 101, the wearable device 101 is connected to the external objects 621 and 622. ) The bounding boxes 631 and 632, each of which has a wrapping shape, may be displayed in a different color from the bounding boxes 633 and 634. The wearable device 101 displays the names of applications (e.g., “1 APP” and “2 APP”) matched to each of the external objects 621 and 622 in a portion of the display area adjacent to the bounding boxes 631 and 632. ) can be displayed. Within state 603 of FIG. 6C, the wearable device 101 can change analog content generated by the registered external object 622 into digital content using an application matched to the icon 612.

도 6a의 리스트(610)를 이용하여 외부 객체를 등록하는 일 실시예가 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 도 6d를 참고하면, 웨어러블 장치(101)의 표시 영역과 적어도 일부분 중첩되는 FoV를 가지는 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))를 이용하여, 웨어러블 장치(101)가 외부 객체(688)를 등록하는 예시적인 상태(604)가 도시된다. 웨어러블 장치(101)는 표시 영역의 적어도 일부분에 중첩된 윈도우(670)의 형태를 가지는 시각적 객체 내에서, 웨어러블 장치(101)로 등록된 하나 이상의 외부 객체의 리스트들을 표시할 수 있다. 윈도우(670) 내에서, 웨어러블 장치(101)는 외부 객체를 등록을 위한 지정된 텍스트(예, "펜 추가")를 포함하는 버튼(672)의 형태를 가지는 시각적 객체를 표시할 수 있다. 버튼(672)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체를 등록하기 위한 UI를 표시할 수 있다. Although an embodiment of registering an external object using the list 610 of FIG. 6A has been described, the embodiment is not limited thereto. Referring to FIG. 6D, a camera (e.g., motion recognition camera 340-2 in FIG. 3B, cameras 440-9, 440- in FIG. 4B) having a FoV that at least partially overlaps the display area of the wearable device 101 An example state 604 is shown in which the wearable device 101 registers an external object 688 using 10) and/or camera 540 of FIG. 5. The wearable device 101 may display a list of one or more external objects registered with the wearable device 101 within a visual object in the form of a window 670 overlaid on at least a portion of the display area. Within window 670, wearable device 101 may display a visual object in the form of a button 672 containing designated text (e.g., “Add Pen”) for registering an external object. In response to an input indicating selection of the button 672, the wearable device 101 may display a UI for registering an external object within the display area.

도 6d의 상태(604) 내에서, 버튼(672)을 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체에 대한 사용자의 선택을 식별하기 위한 UI를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체의 선택을 가이드하기 위한 지정된 텍스트(예, "등록할 펜을 인식시켜 주세요")를 포함하는 윈도우(682)의 형태를 가지는 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(688)를 식별하는 것에 기반하여, 표시 영역 내에 포함된 외부 객체(688)와 연계로, 바운딩 박스(684)를 표시할 수 있다. 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(688)를 인식하기 위한 셔터(686)를 표시할 수 있다. 셔터(686) 및/또는 바운딩 박스(684)를 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 외부 객체(688)를 등록하기 위한 윈도우(690)를 표시할 수 있다. Within state 604 of FIG. 6D, based on an input indicating selection of button 672, wearable device 101 may display, within the display area, a UI for identifying the user's selection of an external object. You can. For example, the wearable device 101 is a visual object in the form of a window 682 that includes designated text (e.g., “Please recognize the pen to register”) for guiding the selection of an external object within the display area. can be displayed. The wearable device 101 may display the bounding box 684 in association with the external object 688 included in the display area, based on identifying the external object 688 within the display area. The wearable device 101 may display a shutter 686 for recognizing an external object 688 included in the display area. Based on the input indicating selection of the shutter 686 and/or the bounding box 684, the wearable device 101 may display a window 690 for registering the external object 688.

도 6d의 상태(604) 내에서, 웨어러블 장치(101)는 윈도우(690) 내에, 외부 객체(688)에 대한 이미지를 표시할 수 있다. 상기 이미지는, 셔터(686)에 대한 제스쳐를 식별한 웨어러블 장치(101)가 카메라를 제어하여 획득한 이미지를 포함할 수 있다. 상기 이미지 내에서, 웨어러블 장치(101)는, 웨어러블 장치(101)에 의해 추적될 외부 객체(688)의 일부분을 표시할 수 있다. 윈도우(690) 내에, 웨어러블 장치(101)는 외부 객체(688)에 대한 하나 이상의 속성들을 표시할 수 있다. 외부 객체(688)에 대한 하나 이상의 속성들은, 외부 객체(688)에 할당된 명칭을 포함할 수 있다. 웨어러블 장치(101)는 윈도우(690) 내에 포함된 텍스트 박스(691)를 이용하여, 상기 명칭을 할당함을 지시하는 입력을 식별할 수 있다. 외부 객체(688)에 대한 하나 이상의 속성들은, 외부 객체(688)에 매칭된 하나 이상의 어플리케이션들을 포함할 수 있다. 웨어러블 장치(101)는 윈도우(690) 내에, 웨어러블 장치(101) 내에 설치된 어플리케이션들의 리스트(692)를 표시할 수 있다. 리스트(692)를 통하여, 웨어러블 장치(101)는 외부 객체(688)로 하나 이상의 어플리케이션들을 매칭함을 지시하는 입력을 식별할 수 있다. 웨어러블 장치(101)는 리스트(692) 내에서 상기 입력에 의해 선택된 일 어플리케이션의 아이콘을 강조할 수 있다. 웨어러블 장치(101)는 상기 아이콘의 외곽선의 두께, 색상 및/또는 패턴에 기반하여, 상기 아이콘을 강조할 수 있다.Within state 604 of FIG. 6D , wearable device 101 may display an image for an external object 688 within a window 690 . The image may include an image obtained by controlling a camera by the wearable device 101 that identifies the gesture for the shutter 686. Within the image, wearable device 101 may display a portion of an external object 688 to be tracked by wearable device 101. Within window 690, wearable device 101 may display one or more properties for external object 688. One or more properties for external object 688 may include a name assigned to external object 688. The wearable device 101 may use the text box 691 included in the window 690 to identify an input indicating assignment of the name. One or more properties for external object 688 may include one or more applications matched to external object 688. The wearable device 101 may display a list 692 of applications installed in the wearable device 101 within a window 690. Through the list 692, the wearable device 101 can identify an input indicating matching one or more applications with the external object 688. The wearable device 101 may highlight the icon of an application selected by the input within the list 692. The wearable device 101 may emphasize the icon based on the thickness, color, and/or pattern of the outline of the icon.

일 실시예에 따른, 웨어러블 장치(101)는 윈도우(690)의 부분(693) 내에, 리스트(692)를 통해 선택된 적어도 하나의 어플리케이션과 관련된 속성을 표시할 수 있다. 도 6d의 상태(604) 내에서, 웨어러블 장치(101)는 리스트(692) 내에서, 이미지를 그리기 위한 드로잉 어플리케이션을 선택함을 지시하는 입력에 응답하여, 부분(693) 내에, 상기 드로잉 어플리케이션과 관련된 속성을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 부분(693) 내에, 외부 객체(688)에 대응하는 브러시 타입을 조절하기 위한 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(688)에 대한 객체 인식을 수행하여, 펜과 관련된 지정된 카테고리들 중에서, 외부 객체(688)의 카테고리를 식별할 수 있다. 웨어러블 장치(101)가 만년필의 형태를 가지는 외부 객체(688)를 식별한 상태(604) 내에서, 웨어러블 장치(101)는 윈도우(690)의 부분(693) 내에, 외부 객체(688)의 카테고리에 대응하는 브러시 타입(예, "만년필")을 지시하는 텍스트를 표시할 수 있다. 부분(693)을 통해 표시되는 속성이 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 부분(693) 내에 드로잉 어플리케이션과 관련된 다른 속성들(예, 획 두께(stroke width), 색상, 패턴)을 표시할 수 있다. 상기 다른 속성들 또한, 외부 객체(688)의 카테고리에 기반하여 적응적으로(adaptively) 변경될 수 있다.According to one embodiment, the wearable device 101 may display properties related to at least one application selected through the list 692 within the portion 693 of the window 690. Within state 604 of Figure 6D, wearable device 101, in response to an input indicating selection of a drawing application for drawing an image within list 692, selects, within portion 693, the drawing application and the drawing application for drawing the image. Related properties can be displayed. For example, the wearable device 101 may display, within the portion 693, a visual object for adjusting the brush type corresponding to the external object 688. The wearable device 101 may perform object recognition on the external object 688 and identify the category of the external object 688 from among designated categories related to the pen. Within a state 604 in which the wearable device 101 has identified an external object 688 having the shape of a fountain pen, the wearable device 101 identifies a category of the external object 688 within portion 693 of the window 690. You can display text indicating the corresponding brush type (e.g., "fountain pen"). The properties displayed through the portion 693 are not limited to this, and the wearable device 101 displays other properties (e.g., stroke width, color, pattern) related to the drawing application within the portion 693. can do. The other properties may also be changed adaptively based on the category of the external object 688.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는, 사용자(110)에 의해 착용된 상태 내에서, 카메라를 이용한 객체 인식에 기반하여, 외부 객체를 등록할 수 있다. 웨어러블 장치(101)는, 사용자(110)가 아날로그 콘텐트를 생성하기 위해 이용하는 펜과 같은 외부 객체를 등록하여, 사용자(110)에게 상기 아날로그 콘텐트를 디지털 콘텐트로 변경하는 사용자 경험을 제공할 수 있다. 외부 객체(688)를 등록하는 상태(604) 내에서, 웨어러블 장치(101)는 외부 객체(688)의 특성에 기반하여 외부 객체(688)에 대한 속성을 변경할 수 있다.As described above, according to one embodiment, the wearable device 101 may register an external object while worn by the user 110, based on object recognition using a camera. The wearable device 101 may register an external object, such as a pen, that the user 110 uses to create analog content, and provide the user 110 with a user experience that changes the analog content into digital content. Within the state 604 of registering the external object 688, the wearable device 101 may change the properties of the external object 688 based on the characteristics of the external object 688.

이하에서는, 도 7을 참고하여, 도 6a 내지 도 6d의 상태들(601, 602, 603, 604)과 관련된 웨어러블 장치(101)의 동작이 설명된다.Below, with reference to FIG. 7 , the operation of the wearable device 101 related to the states 601, 602, 603, and 604 of FIGS. 6A to 6D is described.

도 7은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 7의 웨어러블 장치를 포함할 수 있다. 예를 들어, 도 7의 동작들은, 도 5의 웨어러블 장치(101) 및/또는 프로세서(510)에 의해 수행될 수 있다. 도 7의 동작들은, 도 6a 내지 도 6d의 상태들(601, 602, 603, 604) 중 적어도 하나와 관련될 수 있다. 도 7의 동작들은, 도 2의 동작들 중 적어도 하나(예, 도 2의 동작(210))와 관련될 수 있다. Figure 7 shows an example of a flow chart for a wearable device, according to one embodiment. The wearable device 101 of FIG. 5 may include the wearable device of FIG. 7 . For example, the operations of FIG. 7 may be performed by the wearable device 101 and/or the processor 510 of FIG. 5 . The operations of FIG. 7 may be related to at least one of the states 601, 602, 603, and 604 of FIGS. 6A to 6D. The operations of FIG. 7 may be related to at least one of the operations of FIG. 2 (eg, operation 210 of FIG. 2 ).

도 7을 참고하면, 동작(710) 내에서, 일 실시예에 따른, 웨어러블 장치는, 하나 이상의 어플리케이션들의 리스트를 표시할 수 있다. 도 6a의 상태(601) 내에서, 웨어러블 장치는 동작(719)을 수행하여, 웨어러블 장치 내에 설치된 하나 이상의 어플리케이션들의 리스트(예, 도 6a의 리스트(610))를 표시할 수 있다. 리스트 내에서, 웨어러블 장치는 상기 하나 이상의 어플리케이션들을 표현하는 하나 이상의 아이콘들을 표시할 수 있다.Referring to FIG. 7, within operation 710, according to one embodiment, the wearable device may display a list of one or more applications. Within state 601 of FIG. 6A, the wearable device may perform operation 719 to display a list of one or more applications installed in the wearable device (eg, list 610 of FIG. 6A). Within the list, the wearable device may display one or more icons representing the one or more applications.

도 7을 참고하면, 동작(720) 내에서, 일 실시예에 따른, 웨어러블 장치는, 디스플레이를 통해 보여지는 외부 객체로, 리스트 내에 포함된 어플리케이션을 할당함을 지시하는 입력을 식별할 수 있다. 예를 들어, 도 6b의 경로(650)를 따라 아이콘(612)을 드래그함을 지시하는 입력과 같이, 리스트 내에 포함되고, 사용자(예, 도 1의 사용자(110))에 의해 선택된 아이콘에 기반하여, 웨어러블 장치는 외부 객체로 어플리케이션을 할당함을 지시하는 입력을 식별할 수 있다. 상기 입력을 식별하기 이전에(720-아니오), 웨어러블 장치는 동작(710)에 기반하여 리스트를 표시하는 것을 유지할 수 있다. Referring to FIG. 7 , within operation 720, according to one embodiment, the wearable device may identify an input indicating allocation of an application included in the list as an external object shown through the display. Based on the icon included in the list and selected by the user (e.g., user 110 in FIG. 1), for example, an input instructing to drag icon 612 along path 650 in FIG. 6B. Thus, the wearable device can identify an input indicating allocation of an application to an external object. Before identifying the input (720-No), the wearable device may maintain displaying the list based on the action (710).

외부 객체로 어플리케이션을 할당함을 지시하는 입력을 수신한 상태 내에서(720-예), 동작(730)에 기반하여, 일 실시예에 따른, 웨어러블 장치는, 입력에 대응하는 어플리케이션을 실행하는데 요구되는 적어도 하나의 속성을 식별할 수 있다. 상기 적어도 하나의 속성은, 표 1과 같이, 동작(720)의 입력에 의해 외부 객체로 할당된 어플리케이션에 의해 설정될 수 있다. 실시예가 이에 제한되는 것은 아니며, 어플리케이션에 의해 설정된 속성의 개수는 0 개일 수 있다. 어플리케이션을 실행하는데 요구되는 적어도 하나의 속성이 존재하지 않는 경우(730-아니오), 웨어러블 장치는 동작(740)을 수행하는 것을 우회할 수 있다. 예를 들어, 어플리케이션을 실행하는데 어느 속성도 요구되지 않는 경우, 웨어러블 장치는 동작(740)에 기반하여 적어도 하나의 속성을 획득하지 않을 수 있다.Within the state of receiving an input indicating allocation of an application to an external object (720-Yes), based on operation 730, according to one embodiment, the wearable device requests to execute the application corresponding to the input. At least one attribute can be identified. As shown in Table 1, the at least one property may be set by an application assigned to an external object by input of operation 720. The embodiment is not limited to this, and the number of properties set by the application may be 0. If at least one attribute required to run the application does not exist (730-No), the wearable device may bypass performing operation 740. For example, if no attribute is required to run an application, the wearable device may not obtain at least one attribute based on operation 740.

어플리케이션을 실행하는데 요구되는 적어도 하나의 속성(예, 표 1의 어플리케이션에 의해 구분되는 속성)을 식별한 상태 내에서(730-예), 동작(740)에 기반하여, 일 실시예에 따른, 웨어러블 장치는, 적어도 하나의 속성을 획득할 수 있다. 상기 적어도 하나의 속성은, 외부 객체의 형태 및/또는 객체 인식에 기반하여 식별된 외부 객체의 카테고리에 의해 설정될 수 있다. 상기 적어도 하나의 속성은, 도 6b의 윈도우(660) 및/또는 도 6d의 윈도우(690)와 같이, 속성을 수신하기 위하여 웨어러블 장치에 의해 표시되는 팝업 윈도우의 형태를 가지는 시각적 객체를 통해 식별될 수 있다. 예를 들어, 웨어러블 장치는 동작(740)에 기반하여, 도 6b의 윈도우(660) 및/또는 도 6d의 윈도우(690)의 부분(693)과 같이, 적어도 하나의 속성을 식별하기 위한 시각적 객체를 표시할 수 있다. Within the state of identifying at least one attribute (e.g., an attribute distinguished by the application in Table 1) required to run the application (730-Yes), based on the operation 740, according to one embodiment, the wearable A device can obtain at least one attribute. The at least one attribute may be set by the type of the external object and/or the category of the external object identified based on object recognition. The at least one attribute may be identified through a visual object in the form of a pop-up window displayed by the wearable device to receive the attribute, such as window 660 in FIG. 6B and/or window 690 in FIG. 6D. You can. For example, the wearable device may display a visual object to identify at least one attribute, such as window 660 in FIG. 6B and/or portion 693 of window 690 in FIG. 6D, based on movement 740. can be displayed.

도 7을 참고하면, 동작(750) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체를 이용하여 어플리케이션을 실행하기 위한 정보를 저장할 수 있다. 웨어러블 장치는 메모리(예, 도 5의 메모리(520)) 내에, 동작(740)에 기반하여 획득된 적어도 하나의 속성을, 외부 객체를 인식하기 위한 정보와 함께 저장할 수 있다. 동작(750) 이후, 웨어러블 장치는 외부 객체의 모션(예, 외부 객체의 일부분의 경로), 및/또는 외부 객체에 의해 생성된 아날로그 콘텐트(예, 외부 객체에 포함된 물질에 의해 생성된 적어도 하나의 획)를 식별하는 것에 응답하여, 동작(750)에 기반하여 저장된 정보를 이용하여 어플리케이션을 실행할 수 있다. Referring to FIG. 7, within operation 750, a wearable device according to one embodiment may store information for executing an application using an external object. The wearable device may store at least one attribute acquired based on the operation 740 in a memory (eg, memory 520 of FIG. 5) along with information for recognizing an external object. After operation 750, the wearable device records the motion of the external object (e.g., the path of a portion of the external object) and/or analog content generated by the external object (e.g., at least one In response to identifying the stroke), an application may be executed using the stored information based on operation 750.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는, 펜과 같이, 웨어러블 장치와 통신하는 것을 지원하지 않는, 외부 객체를 등록할 수 있다. 등록된 외부 객체에 기반하여, 웨어러블 장치는 상기 외부 객체로부터 디지털 콘텐트를 획득할 수 있다. 이하에서는, 도 8a 내지 도 8b를 참고하여, 일 실시예에 따른, 웨어러블 장치가, 웨어러블 장치로 등록된 상이한 외부 객체들을 식별한 상태 내에서 표시하는 UI의 일 예가 설명된다.As described above, according to one embodiment, a wearable device may register an external object, such as a pen, that does not support communication with the wearable device. Based on the registered external object, the wearable device can acquire digital content from the external object. Below, with reference to FIGS. 8A and 8B , an example of a UI displayed by a wearable device in a state in which different external objects registered as a wearable device are identified is described, according to an embodiment.

도 8a 내지 도 8b는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체에 기반하여 표시하는 UI(user interface)의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 8a 내지 도 8b의 웨어러블 장치(101)를 포함할 수 있다. 도 8a 내지 도 8d를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 디스플레이(예, 도 5의 디스플레이(530))의 표시 영역 내에 포함된 상이한 외부 객체들(810, 820)에 기반하여 UI를 표시하는 상이한 상태들(801, 802, 803)이 도시된다. 외부 객체들(810, 820) 각각은, 도 6a 내지 도 6d 및/또는 도 7을 참고하여 상술된, 외부 객체를 등록함을 지시하는 입력에 응답하여 웨어러블 장치(101)로 등록된 것으로 가정한다.FIGS. 8A and 8B illustrate an example of a user interface (UI) displayed by the wearable device 101 based on an external object, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIGS. 8A to 8B. Referring to FIGS. 8A to 8D , according to one embodiment, the wearable device 101 displays a display based on different external objects 810 and 820 included in the display area of the display (e.g., the display 530 of FIG. 5). Thus, different states 801, 802, and 803 for displaying the UI are shown. It is assumed that each of the external objects 810 and 820 is registered with the wearable device 101 in response to an input indicating registration of the external object, as described above with reference to FIGS. 6A to 6D and/or 7. .

도 8a를 참고하면, 상태(801) 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 표시 영역과 적어도 일부분 중첩되는 FoV를 가지는 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))를 이용하여, 외부 객체들(810, 820)을 식별할 수 있다. 웨어러블 장치(101)는 외부 객체들(810, 820) 각각의 형태 및/또는 크기에 기반하여, 외부 객체들(810, 820) 각각이 웨어러블 장치(101)에 등록된 외부 객체인지 여부를 식별할 수 있다. 상기 가정 내에서, 웨어러블 장치(101)는 외부 객체들(810, 820) 각각에 할당된 속성을 식별할 수 있다. 웨어러블 장치(101)는 상기 식별된 속성에 기반하여, 표시 영역 내에서 외부 객체들(810, 820)과 중첩으로, 상기 속성에 기반하는 하나 이상의 시각적 객체들을 표시할 수 있다. Referring to FIG. 8A, within state 801, according to one embodiment, the wearable device 101 uses a camera (e.g., motion recognition camera 340-2 of FIG. 3B) with a FoV that at least partially overlaps the display area. , external objects 810 and 820 can be identified using the cameras 440-9 and 440-10 of FIG. 4B and/or the camera 540 of FIG. 5. The wearable device 101 can identify whether each of the external objects 810 and 820 is an external object registered to the wearable device 101 based on the shape and/or size of each of the external objects 810 and 820. You can. Within the above assumption, the wearable device 101 can identify the attributes assigned to each of the external objects 810 and 820. Based on the identified attribute, the wearable device 101 may display one or more visual objects based on the attribute, overlapping with external objects 810 and 820 within the display area.

도 8a의 상태(801) 내에서, 디지털 노트를 생성하기 위한 노트 어플리케이션이 외부 객체(810)로 할당된 경우, 웨어러블 장치(101)는 외부 객체(810)와 연계되고, 상기 노트 어플리케이션을 표현하는, 아이콘(832)을 표시할 수 있다. 도 8a를 참고하면, 웨어러블 장치(101)는 외부 객체(810)와 중첩으로, 상기 노트 어플리케이션을 표현하는 아이콘(832)을 표시할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(810)에 인접한 일부분에 아이콘(832)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(810)로 등록된 노트 어플리케이션을 가이드하기 위한 도형(830)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(810)와 연계된 위치를 가지는 사각형의 도형(830)을 표시할 수 있다. 도형(830)의 색상은, 지정된 투명도(transparency 또는 opacity)를 가지고, 아이콘(832)의 색상을 적어도 부분적으로 포함할 수 있다. 예를 들어, 도형(830)의 색상은, 아이콘(832)의 색상 및 외부 객체(810)의 색상의 그라데이션일 수 있다. 사각형과 같은 다각형의 도형(830)이 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 폐곡선 및/또는 라인의 형태를 가지는 도형(830)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(810)와 중첩으로, 외부 객체(810)로 할당된 속성을 지시하는 텍스트를 표시할 수 있다. 노트 어플리케이션이 외부 객체(810)로 할당된 예시적인 상태(801) 내에서, 웨어러블 장치(101)는 외부 객체(810)와 중첩으로, 외부 객체(810)에 매칭된 디지털 노트의 명칭(예, "K-노트")을 표시할 수 있다. In the state 801 of FIG. 8A, when the note application for creating a digital note is assigned to the external object 810, the wearable device 101 is linked to the external object 810 and represents the note application. , the icon 832 can be displayed. Referring to FIG. 8A, the wearable device 101 may display an icon 832 representing the note application overlapping with an external object 810. The embodiment is not limited to this, and the wearable device 101 may display the icon 832 in a portion adjacent to the external object 810 within the display area. The wearable device 101 may display a figure 830 to guide the note application registered as the external object 810. The wearable device 101 may display a rectangular shape 830 having a location associated with an external object 810. The color of the shape 830 may have a specified transparency (transparency or opacity) and may at least partially include the color of the icon 832. For example, the color of the figure 830 may be a gradient of the color of the icon 832 and the color of the external object 810. A polygonal figure 830 such as a square is shown as an example, but the embodiment is not limited thereto, and the wearable device 101 may display a figure 830 in the form of a closed curve and/or line. The wearable device 101 may display text indicating properties assigned to the external object 810 overlapping with the external object 810 . Within the exemplary state 801 in which the note application is assigned to the external object 810, the wearable device 101 overlaps the external object 810 and displays the name of the digital note matched to the external object 810 (e.g., “K-Note”) can be displayed.

도 8a의 상태(801) 내에서, 메시지를 교환하기 위한 메신저 어플리케이션이 외부 객체(820)로 할당된 경우, 웨어러블 장치(101)는 외부 객체(820)와 중첩으로, 상기 메신저 어플리케이션을 표현하는 아이콘(842)을 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(820)와 중첩되는 도형(840)을 이용하여, 외부 객체(820)가 웨어러블 장치(101)로 등록되었음을 강조할 수 있다. 웨어러블 장치(101)는 도형(840)의 색상을, 아이콘(842)의 색상 및/또는 외부 객체(820)의 색상 중 적어도 하나에 기반하여 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(820)와 중첩으로, 상기 메신저 어플리케이션에 기반하여 외부 객체(820)로 할당된 속성(예, 수신자)을 표시할 수 있다.In the state 801 of FIG. 8A, when a messenger application for exchanging messages is assigned as an external object 820, the wearable device 101 overlaps the external object 820 and displays an icon representing the messenger application. (842) can be displayed. The wearable device 101 may use a shape 840 that overlaps the external object 820 to emphasize that the external object 820 is registered as the wearable device 101. The wearable device 101 may display the color of the figure 840 based on at least one of the color of the icon 842 and/or the color of the external object 820. The wearable device 101 may overlap the external object 820 and display attributes (eg, recipient) assigned to the external object 820 based on the messenger application.

일 실시예에 따른, 웨어러블 장치(101)는 손(850)과 같이, 외부 객체들(810, 820)을 선택하기 위해 표시 영역 내에서 이동되는 지정된 신체 부위를 식별할 수 있다. 도 8b를 참고하면, 외부 객체(810), 및/또는 외부 객체(810)와 중첩된 시각적 객체(예, 아이콘(832))를 가리키는 손(850)을 식별하는 것에 응답하여, 웨어러블 장치(101)는 상태(802)와 같이, 외부 객체(810)에 할당된 속성을 변경하기 위한 UI를 표시할 수 있다. 상기 UI는, 표시 영역 내에서 외부 객체(810)와 중첩으로 표시될 수 있다. 상태(802) 내에서, 웨어러블 장치(101)는 외부 객체(810)로 매칭된 노트 어플리케이션에 기반하여, 외부 객체(810)에 할당된 속성을 변경하기 위한 상기 UI를 표시할 수 있다. 상기 UI는, 외부 객체(810)에 의해 상기 노트 어플리케이션에 추가될 적어도 하나의 획의 스타일을 조절하기 위한 버튼(834)(예, "펜 설정"과 같은 지정된 텍스트를 포함하는 버튼(834))을 포함할 수 있다. 상기 UI는, 외부 객체(810)를 추적하여 획득된 정보가 추가될 디지털 노트를 선택하기 위한 버튼(836)(예, "노트 설정"과 같은 지정된 텍스트를 포함하는 버튼(836))을 포함할 수 있다. 버튼들(834, 836) 중 어느 하나를 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 상기 입력에 의해 선택된 버튼에 대응하는 속성을 변경하기 위한 윈도우를, 표시 영역 내에 표시할 수 있다. According to one embodiment, the wearable device 101 may identify a designated body part, such as a hand 850, that is moved within the display area to select external objects 810 and 820. Referring to FIG. 8B , in response to identifying a hand 850 pointing to an external object 810 and/or a visual object (e.g., an icon 832) overlapping with the external object 810, the wearable device 101 ) may display a UI for changing properties assigned to the external object 810, such as the state 802. The UI may be displayed overlapping with the external object 810 within the display area. Within state 802, the wearable device 101 may display the UI for changing the properties assigned to the external object 810 based on the note application matched with the external object 810. The UI includes a button 834 for adjusting the style of at least one stroke to be added to the note application by an external object 810 (e.g., a button 834 containing designated text such as “pen settings”) may include. The UI may include a button 836 for selecting a digital note to which information obtained by tracking an external object 810 will be added (e.g., a button 836 containing designated text such as “note settings”). You can. In response to an input indicating selection of one of the buttons 834 and 836, the wearable device 101 may display a window in the display area for changing properties corresponding to the button selected by the input. there is.

도 8b를 참고하면, 외부 객체들(810, 820) 중에서, 외부 객체(820)를 가리키는 손(850)을 식별하는 것에 응답하여, 웨어러블 장치(101)는 상태(803)와 같이, 외부 객체(820)에 할당된 속성을 변경하기 위한 UI를 표시할 수 있다. 상기 UI를 표시하기 위한 제스쳐는, 상술된 손(850)의 제스쳐에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는, 사용자(예, 도 1의 사용자(110))의 시선의 방향을 나타내는 데이터를 이용하여, 상기 사용자가 외부 객체(820)를 지정된 기간을 초과하여 응시함을 식별하는 것에 기반하여, 상기 UI를 표시할 수 있다. 상기 UI를 통해 변경되는 상기 속성은, 외부 객체(820)로 매칭된 메신저 어플리케이션에 의해 설정될 수 있다. 상태(803) 내에서, 웨어러블 장치(101)는 외부 객체(820)를 추적하여 획득된 정보를 포함하는 메시지를 수신할 상대방(counterpart)을 변경하기 위한 버튼(844)(예, "수신자 변경"과 같은 지정된 텍스트를 포함하는 버튼(844))을 표시할 수 있다. 웨어러블 장치(101)는 버튼(844)을, 외부 객체(820)와 중첩으로 표시할 수 있다. 버튼(844)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 연락처 리스트와 같이, 상기 상대방을 변경하기 위한 UI를 표시할 수 있다.Referring to FIG. 8B, in response to identifying the hand 850 pointing to the external object 820 among the external objects 810 and 820, the wearable device 101 displays the external object (850), such as state 803. 820), a UI for changing the assigned properties can be displayed. Gestures for displaying the UI are not limited to the gestures of the hand 850 described above. For example, the wearable device 101 uses data indicating the direction of the user's gaze (e.g., the user 110 in FIG. 1) to indicate that the user gazes at the external object 820 for more than a specified period of time. Based on identifying the UI, the UI can be displayed. The properties changed through the UI may be set by a messenger application matched to the external object 820. Within state 803, the wearable device 101 displays a button 844 (e.g., “change recipient”) for changing the counterpart to receive a message containing information obtained by tracking an external object 820. A button 844) containing specified text such as can be displayed. The wearable device 101 may display the button 844 overlapping with the external object 820. In response to an input indicating selection of the button 844, the wearable device 101 may display a UI for changing the other party, such as a contact list.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)로 등록된 외부 객체(예, 외부 객체들(810, 820))와 중첩으로, 상기 외부 객체로 할당된 하나 이상의 속성들에 기반하는 시각적 객체를 표시할 수 있다. 외부 객체들(810, 820)과 같이, 웨어러블 장치(101)로 등록된 외부 객체를 식별하는 것에 기반하여, 웨어러블 장치(101)는 상기 식별된 외부 객체를 추적할 수 있다. 외부 객체를 추적하여 획득된 정보는, 외부 객체로 할당된 속성에 의해 선택된 외부 객체의 일부분의 경로, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획에 대한 정보를 포함할 수 있다. 상기 정보에 기반하여, 웨어러블 장치(101)는 상기 외부 객체에 매칭된 적어도 하나의 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)가 통신 회로와 독립적으로 생산된 외부 객체의 모션에 기반하여 상기 어플리케이션을 실행하기 때문에, 웨어러블 장치(101)는, 사용자가 웨어러블 장치(101)를 보다 다양한 도구들(tools)을 이용하여 제어하는 것을 가능하게 만들 수 있다.As described above, according to one embodiment, the wearable device 101 overlaps with an external object (e.g., external objects 810 and 820) registered as the wearable device 101 and is assigned to the external object. A visual object can be displayed based on one or more properties. Based on identifying an external object registered with the wearable device 101, such as external objects 810 and 820, the wearable device 101 may track the identified external object. Information obtained by tracking an external object may include information about a path of a portion of the external object selected by an attribute assigned to the external object, or at least one stroke drawn by the external object. Based on the information, the wearable device 101 may execute at least one application matched to the external object. Since the wearable device 101 executes the application based on the motion of an external object produced independently of the communication circuit, the wearable device 101 allows the user to use the wearable device 101 with various tools. It can be made possible to control it using .

이하에서는, 일 실시예에 따른 웨어러블 장치(101)가 외부 객체를 추적하여 획득된 정보에 기반하여, 상기 외부 객체에 매칭된 적어도 하나의 어플리케이션을 실행하는 케이스들이 설명된다. 예를 들어, 도 9a 내지 도 9c, 도 10 내지 도 11을 참고하여, 웨어러블 장치(101)가 노트 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 12a 내지 도 12b를 참고하여, 웨어러블 장치(101)가 캘린더 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 13을 참고하여, 웨어러블 장치(101)가 메신저 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 14를 참고하여, 웨어러블 장치(101)가 녹음 어플리케이션을 실행하는 일 예가 설명된다. 예를 들어, 도 15a 내지 도 15b를 참고하여, 웨어러블 장치(101)가 하나의 외부 객체로 할당된 복수의 어플리케이션들을 실행하는 일 예가 설명된다.Below, cases in which the wearable device 101 according to an embodiment executes at least one application matched to an external object based on information obtained by tracking the external object will be described. For example, with reference to FIGS. 9A to 9C and FIGS. 10 to 11 , an example in which the wearable device 101 executes a note application is described. For example, with reference to FIGS. 12A to 12B , an example in which the wearable device 101 executes a calendar application is described. For example, with reference to FIG. 13 , an example in which the wearable device 101 executes a messenger application is described. For example, with reference to FIG. 14 , an example in which the wearable device 101 executes a recording application is described. For example, with reference to FIGS. 15A and 15B , an example in which the wearable device 101 executes a plurality of applications assigned to one external object is described.

도 9a 내지 도 9c는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 9a 내지 도 9c의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 텍스트, 이미지 및/또는 비디오가 결합된 디지털 노트와 같은 디지털 콘텐트를 생성하기 위한 노트 어플리케이션이 외부 객체(130)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 노트 어플리케이션을 외부 객체(130)로 등록함을 지시하는 입력을 식별할 수 있다. FIGS. 9A to 9C illustrate an example of an operation in which the wearable device 101 executes an application based on information obtained by tracking an external object 130, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIGS. 9A to 9C. Hereinafter, it is assumed that a note application for creating digital content such as a digital note combining text, image, and/or video is matched to the external object 130. The wearable device 101 may identify an input indicating registration of the note application as an external object 130 based on the operations of FIGS. 6A to 6D and/or 7 .

도 9a를 참고하면, 상태(901) 내에서, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)를 추적할 수 있다. 웨어러블 장치(101)가 외부 객체(130)를 추적하는 것은, 웨어러블 장치(101) 및/또는 단말(120)에 의해 실행되는 어플리케이션에 기반하여 수행될 수 있다. 웨어러블 장치(101)는 표시 영역과 적어도 부분적으로 중첩된 FoV를 가지는 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))를 이용하여, 외부 객체(130)를 식별 및/또는 추적할 수 있다. 외부 객체(130)를 식별하는 동작은, 외부 객체(130)로 할당된 하나 이상의 어플리케이션들을 식별하는 동작을 포함할 수 있다. 외부 객체(130)를 식별한 상태(901) 내에서, 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(130)와 인접한 일부분에, 외부 객체(130)에 매칭된 노트 어플리케이션을 표현하는 아이콘(920)을 표시할 수 있다.Referring to FIG. 9A , within state 901, the wearable device 101, according to one embodiment, may track an external object 130. Tracking of the external object 130 by the wearable device 101 may be performed based on an application executed by the wearable device 101 and/or the terminal 120. The wearable device 101 may include a camera (e.g., the motion recognition camera 340-2 in FIG. 3B, cameras 440-9, 440-10 in FIG. 4B), and/or a camera having a FoV that at least partially overlaps the display area. Using the camera 540 of FIG. 5, an external object 130 can be identified and/or tracked. The operation of identifying the external object 130 may include the operation of identifying one or more applications allocated to the external object 130. Within the state 901 in which the external object 130 is identified, the wearable device 101 displays an icon ( 920) can be displayed.

도 9a를 참고하면, 외부 객체(130)를 추적하는 상태(901) 내에서, 웨어러블 장치(101)는 표시 영역 내에 외부 객체(130)를 추적하여 획득된 정보에 기반하는 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)가 외부 객체(130)의 일부분(예, 펜촉(pen tip)에 대응하는 지점(P))의 경로를 추적하는 상태(901) 내에서, 웨어러블 장치(101)는 표시 영역 내에 상기 경로를 표현한 가상 객체(930)를 표시할 수 있다. 웨어러블 장치(101)는 외부 객체(130) 및 웨어러블 장치(101) 사이의 거리에 기반하여, 일 평면(예, 노트(910)에 의해 형성된 평면) 상에 접촉되는 외부 객체(130)의 경로를 식별할 수 있다. 예를 들어, 외부 객체(130) 및 상기 평면 사이의 접촉을 식별하는 것에 기반하여, 웨어러블 장치(101)는 상기 경로를 추적할 수 있다. 웨어러블 장치(101)는 표시 영역 내에 상기 추적된 경로를 표현하는 가상 객체(930)를 표시할 수 있다.Referring to FIG. 9A, within the state 901 of tracking the external object 130, the wearable device 101 may display a visual object based on information obtained by tracking the external object 130 within the display area. there is. Within a state 901 in which the wearable device 101 tracks the path of a portion of an external object 130 (e.g., a point P corresponding to a pen tip), the wearable device 101 is positioned within the display area. A virtual object 930 representing the path may be displayed. The wearable device 101 determines the path of the external object 130 that is contacted on a plane (e.g., the plane formed by the note 910) based on the distance between the external object 130 and the wearable device 101. can be identified. For example, based on identifying contact between an external object 130 and the plane, wearable device 101 can track the path. The wearable device 101 may display a virtual object 930 representing the tracked path within the display area.

도 9a를 참고하면, 라인 및/또는 획의 형태를 가지는 가상 객체(930)가 웨어러블 장치(101)에 의해 표시된 예시적인 상태(901)가 도시되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는, 외부 객체(130)의 형태 및/또는 사용자(110)에 의해 선택된 외부 객체(130)의 일부분의 형태에 기반하여, 가상 객체(930)에 포함된 획의 두께, 색상 및/또는 패턴을 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성(예, 도 6d의 부분(693)을 통해 설정된 속성)에 기반하여, 가상 객체(930) 내에 포함된 획의 색상, 투명도, 또는 두께 중 적어도 하나를 설정할 수 있다. 예를 들어, 가상 객체(930) 내에 포함된 획의 색상은, 외부 객체(130)로 할당된 속성에 의해 특정 색상으로 설정되거나, 또는 표시 영역 내에서 외부 객체(130)에 인접한 제1 색상(예, 백그라운드 색상)에 기반하는 제2 색상(에, 상기 제1 색상이 반전된 제2 색상)으로 설정될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 표시 영역 내 색상 분포에 기반하여, 상기 획의 색상을 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 색상 분포에, 상기 표시 영역의 부분들 각각에 할당된 가중치들을 적용하여, 상기 색상 분포로부터 대표 색상을 식별할 수 있다. 웨어러블 장치(101)는 상기 대표 색상을 반전하여, 상기 획의 색상을 설정할 수 있다. 웨어러블 장치(101)는, 명도, 채도 및/또는 색 공간(color space) 내에서의 색상들 사이의 거리에 기반하여, 색상을 반전할(invert) 수 있다.Referring to FIG. 9A , an exemplary state 901 in which a virtual object 930 in the form of a line and/or stroke is displayed by the wearable device 101 is shown, but the embodiment is not limited thereto. For example, the wearable device 101 may display a stroke included in the virtual object 930 based on the shape of the external object 130 and/or the shape of a portion of the external object 130 selected by the user 110. You can change its thickness, color and/or pattern. For example, the wearable device 101 may change the color of a stroke included within the virtual object 930 based on the properties assigned to the external object 130 (e.g., properties set through portion 693 in FIG. 6D), You can set at least one of transparency or thickness. For example, the color of the stroke included in the virtual object 930 is set to a specific color by an attribute assigned to the external object 130, or a first color adjacent to the external object 130 within the display area ( For example, it may be set to a second color based on the background color (e.g., a second color in which the first color is inverted). According to one embodiment, the wearable device 101 may change the color of the stroke based on the color distribution within the display area. For example, the wearable device 101 may identify a representative color from the color distribution by applying weights assigned to each portion of the display area to the color distribution. The wearable device 101 can set the color of the stroke by inverting the representative color. The wearable device 101 may invert colors based on brightness, saturation, and/or distance between colors in a color space.

비록, 웨어러블 장치(101)가 외부 객체(130)의 지점(P)의 경로를 추적하는 일 실시예가 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130)로부터 출력된 물질(예, 잉크 및/또는 흑연)에 의해 그려진 적어도 하나의 획을 식별할 수 있다. 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성에 기반하여, 지점(P)의 경로 또는 상기 물질 중 어느 하나를 선택적으로(selectively) 추적할 수 있다.Although an embodiment in which the wearable device 101 tracks the path of the point P of the external object 130 is described, the embodiment is not limited thereto. For example, the wearable device 101 may identify at least one stroke drawn by a material (eg, ink and/or graphite) output from the external object 130. The wearable device 101 can selectively track either the path of the point P or the material based on the attribute assigned to the external object 130.

도 9a를 참고하면, 외부 객체(130)를 추적하는 상태(901) 내에서, 웨어러블 장치(101)는 외부 객체(130)를 추적하여 획득된 정보(예, 가상 객체(930)를 표시하기 위한 정보)를 이용하여 어플리케이션(예, 아이콘(920)에 대응하는 노트 어플리케이션)을 실행하기 위한 버튼(940)을 표시할 수 있다. 버튼(940)은, 상기 어플리케이션을 실행하기 위한 지정된 텍스트(예, 확인("done"))를 포함할 수 있다. 버튼(940)은, 표시 영역 내에서 외부 객체(130)의 위치에 기반하여 표시될 수 있다. 버튼(940)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 노트 어플리케이션을 실행할 수 있다. 실시예가 이에 제한되지 않으며, 웨어러블 장치(101)는 상기 입력 이전에(예, 외부 객체(130)를 식별한 시점), 상기 노트 어플리케이션을 실행하고, 버튼(940)과 관련된 상기 입력에 기반하여, 상기 노트 어플리케이션의 기능을 실행할 수 있다. 일 실시예에서, 웨어러블 장치(101)는 상기 입력에 응답하여 단말(120)로, 단말(120)에 설치된 노트 어플리케이션을, 상기 정보에 기반하여 실행하기 위한 신호를 송신할 수 있다.Referring to FIG. 9A, within the state 901 of tracking the external object 130, the wearable device 101 uses information acquired by tracking the external object 130 (e.g., for displaying the virtual object 930). Information) can be used to display a button 940 for executing an application (e.g., a note application corresponding to the icon 920). Button 940 may include designated text (eg, “done”) for executing the application. The button 940 may be displayed based on the location of the external object 130 within the display area. In response to an input indicating selection of the button 940, the wearable device 101 may execute the note application. The embodiment is not limited to this, and the wearable device 101 executes the note application before the input (e.g., when the external object 130 is identified), and based on the input related to the button 940, You can execute the functions of the note application. In one embodiment, the wearable device 101 may transmit a signal to the terminal 120 in response to the input to run a note application installed on the terminal 120 based on the information.

도 9를 참고하면, 웨어러블 장치(101)가 버튼(940)과 관련된 입력에 기반하여, 외부 객체(130)에 대응하는 노트 어플리케이션을 실행하는 일 실시예가 도시되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는, 버튼(940)을 표시하는 것과 독립적으로, 외부 객체(130)의 지점(P)의 경로를 추적할 수 있다. 웨어러블 장치(101)는 외부 객체(130)를 추적하여 획득된 정보에 기반하여, 버튼(940)과 독립적으로 노트 어플리케이션을 실행할 수 있다. Referring to FIG. 9 , an embodiment in which the wearable device 101 executes a note application corresponding to an external object 130 based on an input related to the button 940 is shown, but the embodiment is not limited thereto. For example, the wearable device 101 may track the path of the point P of the external object 130 independently of displaying the button 940. The wearable device 101 may execute the note application independently of the button 940 based on information obtained by tracking the external object 130.

노트 어플리케이션이 실행된 상태 내에서, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성(예, 노트 어플리케이션에 대하여, 외부 객체(130)에 의해 그려진 손 글씨가 저장될 디지털 노트)에 기반하여, 노트 어플리케이션에 의해 지원되는 상이한 기능들 중에서, 상기 속성에 매칭되는 적어도 하나의 기능을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 가상 객체(930)에 의해 표현된 이미지 및/또는 적어도 하나의 문자를, 노트 어플리케이션에 의해 웨어러블 장치(101) 내에 저장된 디지털 노트 내에 추가할 수 있다. 예를 들어, 가상 객체(930)에 의해 표현된 이미지 및/또는 적어도 하나의 문자가, 웨어러블 장치(101) 및/또는 단말(120)의 노트 어플리케이션의 실행에 기반하여, 웨어러블 장치(101) 및/또는 단말(120)의 표시 영역 내에 표시될 수 있다. 웨어러블 장치(101)는 가상 객체(930)와 같이, 외부 객체(130)에 의해 생성된 정보(예, 디지털 콘텐트)를, 외부 객체(130)에 대응하는 상기 노트 어플리케이션의 실행에 기반하여, 웨어러블 장치(101) 내에 저장할 수 있다. In a state in which the note application is executed, the wearable device 101 uses properties assigned to the external object 130 (e.g., for the note application, a digital note in which handwriting drawn by the external object 130 is stored). Thus, among the different functions supported by the note application, at least one function matching the attribute can be executed. For example, the wearable device 101 may add an image and/or at least one character represented by the virtual object 930 to a digital note stored in the wearable device 101 by a note application. For example, the image and/or at least one character represented by the virtual object 930 is displayed on the wearable device 101 and/or the terminal 120 based on execution of the note application of the wearable device 101 and/or the terminal 120. /Or it may be displayed within the display area of the terminal 120. The wearable device 101, like the virtual object 930, stores information (e.g., digital content) generated by an external object 130, based on execution of the note application corresponding to the external object 130, as a wearable device. It can be stored in the device 101.

일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)를 쥔 손(140)의 자세에 기반하여, 외부 객체(130)를 추적하여 획득된 정보에 의해 추가되는 획의 색상, 두께 또는 투명도 중 적어도 하나를 변경할 수 있다. 도 9b를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 손(140)의 자세에 기반하여, 외부 객체(130)에 대한 속성을 변경하는 예시적인 상태들(901, 902, 903)이 도시된다. 도 9b를 참고하면, 상태(901) 이후의 상태(902) 내에서, 웨어러블 장치(101)는 손(140)에 포함된 집게 손가락을 펼치는 자세를 식별할 수 있다. 웨어러블 장치(101)는 집게 손가락의 손끝(fingertip) 내 지점(F)의 위치 및/또는 궤적에 기반하여, 외부 객체(130)로 할당된 속성을 변경할 수 있다. According to one embodiment, the wearable device 101 determines the color, thickness, or color of a stroke added by information obtained by tracking the external object 130, based on the posture of the hand 140 holding the external object 130. At least one of the transparency can be changed. Referring to FIG. 9B , example states 901, 902, and 903 in which the wearable device 101 changes properties of an external object 130 based on the posture of the hand 140, according to an embodiment. This is shown. Referring to FIG. 9B, within state 902 after state 901, the wearable device 101 may identify a posture in which the index finger included in the hand 140 is spread. The wearable device 101 may change the properties assigned to the external object 130 based on the location and/or trajectory of the point F within the fingertip of the index finger.

도 9b의 상태(902) 내에서, 웨어러블 장치(101)는 표시 영역 내에서 지점(F)에 인접한 일부분의 색상에 기반하여, 외부 객체(130)의 지점(P)의 경로에 의해 연장되는 획의 색상 및/또는 패턴을 변경할 수 있다. 예를 들어, 집게 손가락을 펼치는 자세는, 외부 객체(130)에 의해 그려지는 획의 색상을 선택하기 위한 도구(예, 스포이드)에 대응할 수 있다. 집게 손가락을 펼치는 손(140)의 자세를 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에서 상기 도구를 가이드하기 위한 아이콘(922)(예, 스포이드를 표현한 아이콘(922))을 표시할 수 있다. 웨어러블 장치(101)는 손(140)에 인접한 표시 영역의 일부분에 아이콘(922)을 표시할 수 있다. Within state 902 of FIG. 9B, the wearable device 101 displays a stroke extending by the path of the point P of the external object 130, based on the color of the portion adjacent to the point F within the display area. You can change the color and/or pattern of . For example, the posture of spreading the index finger may correspond to a tool (eg, eyedropper) for selecting the color of a stroke drawn by the external object 130. Based on identifying the posture of the hand 140 extending the index finger, the wearable device 101 displays an icon 922 (e.g., an icon 922 representing an eyedropper) to guide the tool within the display area. can do. The wearable device 101 may display an icon 922 in a portion of the display area adjacent to the hand 140.

일 실시예에 따른, 웨어러블 장치(101)는 손끝의 지점(F)에 기반하여, 획의 색상을 변경함을 지시하는 입력을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내 일부분으로 지점(F)을 이동한 다음, 손끝을 반복적으로 움직일 수 있다. 반복적으로 이동되는 손끝(예, 지점(F1) 및 지점(F2) 사이에서, 경로(T1)를 따라 반복적으로 이동되는 손끝)을 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에서 지점(F)에 인접한 일부분의 색상을 선택할 수 있다. 웨어러블 장치(101)는 선택된 색상에 기반하여, 아이콘(922)의 색상(예, 아이콘(922)의 외곽선의 색상)을 변경할 수 있다. 상태(902) 내에서, 지점(F)과 관련된 제스쳐에 기반하여 색상을 변경한 이후, 웨어러블 장치(101)는 외부 객체(130)의 경로를 따라, 변경된 색상을 가지는 획을 추가할 수 있다. According to one embodiment, the wearable device 101 may identify an input indicating changing the color of a stroke based on the point F of the fingertip. For example, the wearable device 101 may move the point F to a portion of the display area and then repeatedly move the fingertip. Based on identifying a fingertip that is repeatedly moved (e.g., a fingertip that is repeatedly moved along path T1, between points F1 and F2), the wearable device 101 selects a point within the display area. You can select the color of the part adjacent to (F). The wearable device 101 may change the color of the icon 922 (eg, the color of the outline of the icon 922) based on the selected color. Within state 902, after changing the color based on a gesture related to point F, wearable device 101 may add a stroke with the changed color along the path of external object 130.

일 실시예에서, 웨어러블 장치(101)가 손끝에 대한 제스쳐를 이용하여 수행하는 동작은, 상술된 색상의 선택 및/또는 변경에 제한되지 않는다. 손끝을 원의 형태로 회전하는 제스쳐를 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성에 의해 지시되는 색상 및 손끝 내 지점(F)에 인접한 다른 색상을 혼합할 수 있다. 웨어러블 장치(101)는 외부 객체(130)의 경로의 형태를 가지고, 상기 혼합된 색상을 가지는 획을 추가할 수 있다. 예를 들어, 외부 객체(130)의 지점(P)의 경로에 의해 그려지는 획의 색상(예, 가상 객체(930) 내에 포함된 획들의 색상)이 황색(yellow)이고, 지점(F)에 인접한 다른 색상이 흰색인 경우, 웨어러블 장치(101)는, 손끝이 원의 형태로 회전되는 수에 기반하여, 상기 획의 색상을 점진적으로 흰색으로 변경할 수 있다. 웨어러블 장치(101)는 손끝의 회전 방향에 기반하여, 색상들의 혼합을 다르게 수행할 수 있다. 예를 들어, 웨어러블 장치(101)는 시계 방향을 따라 회전하는 손끝의 제스쳐를 식별하는 경우, 외부 객체(130)로 할당된 속성에 의해 지시되는 제1 색상, 및 손끝 내 지점(F)의 제2 색상이 혼합되는 비율을, 상기 제2 색상의 비중이 증가되도록 변경할 수 있다. 상기 예시 내에서, 반시계 방향을 따라 회전하는 손끝의 제스쳐를 식별하는 경우, 웨어러블 장치(101)는 상기 비율을, 상기 제1 색상의 비중이 증가되도록 변경할 수 있다.In one embodiment, the operation performed by the wearable device 101 using a fingertip gesture is not limited to selecting and/or changing the color described above. Based on identifying the gesture of rotating the fingertip in the form of a circle, the wearable device 101 mixes the color indicated by the attribute assigned to the external object 130 and other colors adjacent to the point F within the fingertip. You can. The wearable device 101 has the shape of the path of the external object 130 and can add a stroke having the mixed colors. For example, the color of the stroke drawn by the path of the point P of the external object 130 (e.g., the color of the strokes included in the virtual object 930) is yellow, and at the point F If the other adjacent color is white, the wearable device 101 may gradually change the color of the stroke to white based on the number of times the fingertip is rotated in the shape of a circle. The wearable device 101 may mix colors differently based on the rotation direction of the fingertip. For example, when the wearable device 101 identifies a gesture of a fingertip rotating along a clockwise direction, the first color indicated by the attribute assigned to the external object 130, and the first color of the point F within the fingertip The mixing ratio of two colors can be changed so that the proportion of the second color increases. In the above example, when identifying a gesture of a fingertip rotating in a counterclockwise direction, the wearable device 101 may change the ratio so that the proportion of the first color increases.

일 실시예에서, 웨어러블 장치(101)가 식별하는 집게 손가락의 자세는, 집게 손가락을 펼치는 자세에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는, 집게 손가락 내에 포함된 관절들의 각도를 이용하여, 상기 집게 손가락이 펼쳐지거나, 또는 구부려졌는지 여부를 식별할 수 있다. 구부러진 집게 손가락의 자세(예, 지점(F3)를 향하여 휘어진 집게 손가락)를 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(130)의 지점(P)에 인접한 일부분의 패턴을 추출하는 기능을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 자세를 식별한 이후, 상기 패턴을 추출하는 기능이 실행됨을 지시하는 시각적 객체를 표시할 수 있다. 웨어러블 장치(101)는 상기 기능이 실행된 상태 내에서, 외부 객체(130)의 지점(P)을 포함하는 표시 영역의 일부분을 식별할 수 있다. 웨어러블 장치(101)는 식별된 일부분에 기반하여, 외부 객체(130)의 지점(P)의 경로에 획을 추가할 수 있다. In one embodiment, the posture of the index finger identified by the wearable device 101 is not limited to the posture of spreading the index finger. For example, the wearable device 101 may use the angles of joints included in the index finger to identify whether the index finger is unfolded or bent. Based on identifying the posture of the bent index finger (e.g., the index finger bent toward point F3), the wearable device 101 displays a pattern of a portion adjacent to point P of the external object 130 within the display area. You can run the function to extract . For example, after identifying the posture, the wearable device 101 may display a visual object indicating that the pattern extracting function is executed. The wearable device 101 may identify a portion of the display area including the point P of the external object 130 within the state in which the above function is executed. The wearable device 101 may add a stroke to the path of the point P of the external object 130 based on the identified portion.

도 9b를 참고하면, 상태(903) 내에서, 웨어러블 장치(101)는 상태(902) 내에서 식별된 손(140)의 자세에 의하여 변경된 속성에 기반하여, 외부 객체(130)의 지점(P)의 경로를 표현한 획(932)을 표시할 수 있다. 웨어러블 장치(101)가 펼쳐진 집게 손가락에 기반하여 색상을 선택함을 지시하는 입력을 식별한 경우, 상태(903) 내에서, 획(932)의 색상은 상기 입력에 의해 선택된 색상을 가질 수 있다. 웨어러블 장치(101)가 원의 형태로 회전하는 손끝에 기반하여 색상들을 혼합함을 지시하는 입력을 식별한 경우, 상태(903) 내에서, 획(932)의 색상은 상기 입력에 의해 혼합된 색상을 가질 수 있다. 웨어러블 장치(101)가 구부러진 집게 손가락에 기반하여 패턴을 선택함을 지시하는 입력을 식별한 경우, 상태(903) 내에서, 획(932)의 색상은 상기 입력에 의해 선택된 패턴을 가질 수 있다.Referring to FIG. 9B, within state 903, the wearable device 101 determines the point P of the external object 130 based on the attribute changed by the posture of the hand 140 identified within state 902. ) can display a stroke 932 expressing the path. If the wearable device 101 identifies an input that indicates selecting a color based on the extended index finger, within state 903, the color of the stroke 932 may have the color selected by the input. If the wearable device 101 identifies an input that indicates mixing colors based on a fingertip rotating in the shape of a circle, then within state 903, the color of the stroke 932 is the color mixed by the input. You can have If the wearable device 101 identifies an input that indicates selecting a pattern based on a bent index finger, within state 903, the color of the stroke 932 may have the pattern selected by the input.

일 실시예에서, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성을 변경하기 위하여, 외부 객체(130)를 터치하는 손(140)의 움직임을 식별할 수 있다. 도 9c를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 표면 상의 지점(Q)으로부터 방향(950)을 따라 외부 객체(130)를 문지르는(rubbing) 제스쳐(예, 드래그 제스쳐)를 식별한 예시적인 상태(904)가 도시된다. 상기 제스쳐는, 외부 객체(130)를 쥔 손(140)의 손가락(예, 집게 손가락)에 의해 수행될 수 있다. 상기 제스쳐를 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성 중 적어도 하나를 변경할 수 있다. 예를 들어, 웨어러블 장치(101)는 채도 및/또는 투명도를 증가시킬 수 있다. 유사하게, 외부 객체(130)의 표면 상에서 방향(950)과 반대되는 다른 방향으로 외부 객체(130)를 문지르는 손가락을 식별하는 경우, 웨어러블 장치(101)는 상기 채도 및/또는 상기 투명도를 감소시킬 수 있다. In one embodiment, the wearable device 101 may identify the movement of the hand 140 that touches the external object 130 in order to change the attribute assigned to the external object 130. Referring to FIG. 9C, according to one embodiment, the wearable device 101 makes a gesture (e.g., rubbing) of the external object 130 along a direction 950 from a point Q on the surface of the external object 130. , a drag gesture), an example state 904 is shown. The gesture may be performed by a finger (eg, index finger) of the hand 140 holding the external object 130. Based on identifying the gesture, the wearable device 101 may change at least one attribute assigned to the external object 130. For example, wearable device 101 may increase saturation and/or transparency. Similarly, upon identifying a finger rubbing an external object 130 in a direction opposite to direction 950 on the surface of the external object 130, the wearable device 101 may reduce the saturation and/or the transparency. You can.

일 실시예에서, 웨어러블 장치(101)가 외부 객체(130)를 터치하는 손(140)의 움직임을 식별하는 것은, 외부 객체(130)가 연장된 방향을 따라 수행되는 드래그 제스쳐에 제한되지 않는다. 예를 들어, 웨어러블 장치(101)는 외부 객체(130) 상의 지점(Q)을 지정된 기간(예, 1.5 초)을 초과하여 터치하는 제스쳐(예, 롱 탭 제스쳐)를 식별하는 것에 기반하여, 외부 객체(130)로 할당된 적어도 하나의 속성을 변경하기 위한 시각적 객체를 표시할 수 있다. 도 9c의 예시적인 상태(904) 내에서, 지점(Q)에 대한 롱 탭 제스쳐를 식별하는 것에 기반하여, 웨어러블 장치(101)는 표시 영역 내에 상기 적어도 하나의 속성을 변경하기 위한 버튼들(962, 964, 966)을 표시할 수 있다. 버튼(962)은, 버튼들(964, 966)의 표시를 중단하기 위한 기능에 대응할 수 있다. 버튼(964)은, 외부 객체(130)의 지점(P)의 경로를 따라 추가될 획의 투명도를 변경하기 위한 기능에 대응할 수 있다. 웨어러블 장치(101)는 버튼(964) 내에, 투명도의 변경을 가이드하기 위한 지정된 텍스트(예, "opacity")를 표시할 수 있다. 버튼(966)은, 외부 객체(130)의 지점(P)의 경로를 따라 추가될 획의 채도를 변경할 수 있다. 웨어러블 장치(101)는 버튼(966) 내에, 채도의 변경을 가이드하기 위한 지정된 텍스트(예, "saturation")를 표시할 수 있다. In one embodiment, the wearable device 101 identifying the movement of the hand 140 touching the external object 130 is not limited to a drag gesture performed along the direction in which the external object 130 extends. For example, based on identifying a gesture (e.g., long tap gesture) that touches a point Q on the external object 130 for more than a specified period (e.g., 1.5 seconds), the wearable device 101 A visual object for changing at least one property assigned to the object 130 may be displayed. Within the example state 904 of FIG. 9C , based on identifying the long tap gesture for point Q, the wearable device 101 displays buttons 962 within the display area for changing the at least one attribute. , 964, 966) can be displayed. Button 962 may correspond to a function for stopping the display of buttons 964 and 966. The button 964 may correspond to a function for changing the transparency of a stroke to be added along the path of the point P of the external object 130. The wearable device 101 may display designated text (eg, “opacity”) within the button 964 to guide changes in transparency. The button 966 can change the saturation of a stroke to be added along the path of the point P of the external object 130. The wearable device 101 may display designated text (eg, “saturation”) within the button 966 to guide changes in saturation.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 지점(P)의 경로를 추적할 수 있다. 추적된 경로에 기반하여, 웨어러블 장치(101)는 표시 영역 내에 상기 추적된 경로를 표현하는 가상 객체(예, 가상 객체(930) 및/또는 획(932))를 표시할 수 있다. 상기 가상 객체는 외부 객체(130)로 할당된 속성(예, 획 두께, 색상 및/또는 패턴)과 관련될 수 있다. 웨어러블 장치(101)는 외부 객체(130)를 쥔 손(140)의 자세에 기반하여, 상기 속성을 적어도 부분적으로 변경할 수 있다. 웨어러블 장치(101)는, 외부 객체(130) 및 웨어러블 장치(101) 사이의 전기적인 통신과 독립적으로, 외부 객체(130) 및/또는 외부 객체(130)를 쥔 손(140)을 추적하여, 디지털 콘텐트를 획득할 수 있다. 도 9b의 상태(903) 내에서, 웨어러블 장치(101)는 버튼(940)을 선택함을 지시하는 입력에 응답하여, 가상 객체(930) 및 획(932)을 포함하는 디지털 노트를, 노트 어플리케이션의 실행에 기반하여, 메모리(예, 도 5의 메모리(520)) 내에 저장할 수 있다.As described above, the wearable device 101 according to one embodiment may track the path of the point P of the external object 130. Based on the tracked path, the wearable device 101 may display a virtual object (eg, virtual object 930 and/or stroke 932) representing the tracked path within the display area. The virtual object may be related to properties (eg, stroke thickness, color, and/or pattern) assigned to the external object 130 . The wearable device 101 may at least partially change the properties based on the posture of the hand 140 holding the external object 130. The wearable device 101 tracks the external object 130 and/or the hand 140 holding the external object 130, independently of electrical communication between the external object 130 and the wearable device 101, Digital content can be obtained. Within state 903 of FIG. 9B, wearable device 101, in response to an input indicating selection of button 940, creates a digital note including a virtual object 930 and a stroke 932, using the notes application. Based on the execution, it can be stored in memory (eg, memory 520 in FIG. 5).

도 9a 내지 도 9c를 참고하여, 웨어러블 장치(101)의 표시 영역과 적어도 부분적으로 중첩된 FoV를 가지는 카메라를 이용하여 외부 객체(130)에 대한 모션을 추적하는 일 실시예가 설명되었지만, 실시예가 이에 제한되는 것은 아니다. 이하에서는, 도 10을 참고하여, 일 실시예에 따른, 웨어러블 장치(101)가 상기 카메라와 상이한 다른 카메라를 이용하여 상기 모션을 추적하는 동작의 일 예가 설명된다.With reference to FIGS. 9A to 9C , an embodiment of tracking the motion of an external object 130 using a camera having a FoV that at least partially overlaps the display area of the wearable device 101 has been described, but the embodiment does not follow this. It is not limited. Below, with reference to FIG. 10 , an example of an operation in which the wearable device 101 tracks the motion using another camera different from the camera, according to an embodiment, will be described.

도 10은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)의 추적을 위한 카메라를 전환하는 동작의 일 예를 도시한다. 도5의 웨어러블 장치(101)는, 도 10의 웨어러블 장치(101)를 포함할 수 있다. 도 10을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101)의 디스플레이(예, 도 5의 디스플레이(530))에 의해 형성된 표시 영역과 중첩된 FoV를 가지는 제1 카메라(1012) 및 상기 제1 카메라와 상이한 방향 및/또는 FoV를 가지는 제2 카메라(1014)를 포함할 수 있다. 도 10의 상기 제1 카메라(1012) 및 제2 카메라(1014)는 도 5의 카메라(540)의 일 예일 수 있다.FIG. 10 shows an example of an operation in which the wearable device 101 switches a camera for tracking an external object 130, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIG. 10 . Referring to FIG. 10, according to one embodiment, the wearable device 101 includes a first FoV that overlaps the display area formed by the display (e.g., display 530 of FIG. 5) of the wearable device 101. It may include a camera 1012 and a second camera 1014 having a different direction and/or FoV than the first camera. The first camera 1012 and the second camera 1014 of FIG. 10 may be examples of the camera 540 of FIG. 5 .

도 10을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 제1 카메라(1012) 및 제2 카메라(1014)를 이용하여 외부 객체(130)를 추적하는 예시적인 상태가 도시된다. 예를 들어, 시점 t1 내에서, 표시 영역과 중첩된 FoV를 가지는 제1 카메라(1012)를 이용하여 웨어러블 장치(101)로 등록된 외부 객체(130)를 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성을 이용하여, 외부 객체(130)와 관련된 정보를 획득할 수 있다. 시점 t1 내에서, 웨어러블 장치(101)는 외부 객체(130)의 지점(P)의 경로를 추적하여, 웨어러블 장치(101)의 표시 영역 내에 상기 추적된 경로를 지시하는 가상 객체(1020)(예, 획)를 표시할 수 있다.Referring to FIG. 10 , an example state in which the wearable device 101 tracks an external object 130 using the first camera 1012 and the second camera 1014 is shown, according to an embodiment. For example, within time t1, based on identifying an external object 130 registered with the wearable device 101 using the first camera 1012 with a FoV overlapping the display area, the wearable device 101 ) can obtain information related to the external object 130 using the properties assigned to the external object 130. Within time t1, the wearable device 101 tracks the path of the point P of the external object 130 and creates a virtual object 1020 (e.g. , stroke) can be displayed.

일 실시예에 따른, 웨어러블 장치(101)는, 웨어러블 장치(101) 내 카메라들의 FoV들 사이에서 이동되는 외부 객체(130)를 식별하는 것에 기반하여, 상기 카메라들 중 어느 하나를 선택할 수 있다. 사용자(예, 도 1의 사용자(110))가 웨어러블 장치(101)를 착용한 상태 내에서, 상기 사용자의 머리의 모션에 기반하여, 외부 객체(130)가 제1 카메라(1012)의 FoV의 밖으로 이동될 수 있다. 시점 t2 내에서, 외부 객체(130)는 제1 카메라(1012)의 FoV의 밖으로 이동되고, 상기 제1 카메라(1012)와 상이한 제2 카메라(1014)의 FoV 내에 포함될 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 제1 카메라(1012)로부터 획득된 프레임들에 기반하여, 외부 객체(130)가 표시 영역 및/또는 제1 카메라(1012)의 FoV의 밖으로 이동됨을 식별할 수 있다. 외부 객체(130)가 표시 영역의 밖으로 이동됨을 식별하는 것에 기반하여, 웨어러블 장치(101)는 외부 객체(130)를 향하는 제2 카메라(1014)를 이용하여, 외부 객체(130)의 경로를 추적할 수 있다. According to one embodiment, the wearable device 101 may select one of the cameras within the wearable device 101 based on identifying an external object 130 that moves between the FoVs of the cameras. While a user (e.g., user 110 in FIG. 1) is wearing the wearable device 101, an external object 130 is detected in the FoV of the first camera 1012 based on the motion of the user's head. can be moved out. At time t2, the external object 130 may move out of the FoV of the first camera 1012 and be included in the FoV of a second camera 1014 that is different from the first camera 1012. According to one embodiment, the wearable device 101 determines that the external object 130 moves outside the display area and/or the FoV of the first camera 1012, based on frames obtained from the first camera 1012. can be identified. Based on identifying that the external object 130 moves outside the display area, the wearable device 101 tracks the path of the external object 130 using the second camera 1014 facing the external object 130. can do.

도 10을 참고하면, 제2 카메라(1014)를 이용하여 외부 객체(130)를 추적하는 시점 t2 내에서, 웨어러블 장치(101)는 표시 영역 내에, 제2 카메라(1014)에 의해 추적된 외부 객체(130)와 관련된 정보를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 표시 영역 내에, 외부 객체(130)의 지점(P)의 경로가 표현된 가상 객체(1030)를 표시할 수 있다. 가상 객체(1030)는, 제2 카메라(1014)에 의해 추적된 외부 객체(130)의 지점(P)의 경로, 및 시점 t2 이전에 제2 카메라(1014)와 상이한 제1 카메라(1012)에 의해 추적된 외부 객체(130)의 지점(P)의 경로가 결합된 라인을 포함할 수 있다. 표시 영역 내에서 가상 객체(1030)가 표시되는 지점은, 도 10의 일 예에 제한되지 않는다.Referring to FIG. 10, within a time point t2 at which an external object 130 is tracked using the second camera 1014, the wearable device 101 displays the external object tracked by the second camera 1014 within the display area. Information related to (130) can be displayed. For example, the wearable device 101 may display a virtual object 1030 in which the path of the point P of the external object 130 is expressed within the display area. The virtual object 1030 is connected to the path of the point P of the external object 130 tracked by the second camera 1014, and to the first camera 1012 that is different from the second camera 1014 before time t2. The path of the point P of the external object 130 tracked by may include a combined line. The point at which the virtual object 1030 is displayed within the display area is not limited to the example shown in FIG. 10 .

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는, 표시 영역과 중첩되는 제1 카메라(1012)를 이용하여 외부 객체(130)를 추적하는 상태 내에서, 표시 영역의 밖으로 이동되는 외부 객체(130)에 기반하여, 상기 제1 카메라(1012)와 상이한 제2 카메라(1014)를 이용하여 외부 객체(130)를 계속적으로 추적할 수 있다. 웨어러블 장치(101)의 상이한 카메라들을 이용하여 외부 객체(130)를 추적하기 때문에, 웨어러블 장치(101)는, 웨어러블 장치(101) 및 외부 객체(130) 사이의 위치 관계와 독립적으로, 외부 객체(130)를 추적할 수 있다. 외부 객체(130)가 표시 영역의 밖으로 이동되는 경우, 외부 객체(130)를 추적하여 획득된 정보를 시각화하기 위하여, 웨어러블 장치(101)는 표시 영역 내에 가상 객체(1030)를 표시할 수 있다. 가상 객체(1030)를 이용하여, 웨어러블 장치(101)는 사용자의 FoV의 밖으로 이동된 외부 객체(130)의 모션을, 상기 사용자에게 알릴 수 있다.As described above, according to one embodiment, the wearable device 101 moves outside the display area while tracking an external object 130 using the first camera 1012 overlapping the display area. Based on the external object 130, the external object 130 can be continuously tracked using a second camera 1014 that is different from the first camera 1012. Since the external object 130 is tracked using different cameras of the wearable device 101, the wearable device 101 can track the external object (130) independently of the positional relationship between the wearable device 101 and the external object 130. 130) can be traced. When the external object 130 moves outside the display area, the wearable device 101 may display the virtual object 1030 within the display area in order to visualize information obtained by tracking the external object 130. Using the virtual object 1030, the wearable device 101 can inform the user of the motion of the external object 130 that has moved outside the user's FoV.

이하에서는, 도 11을 참고하여, 사용자의 FoV의 밖으로 이동된 외부 객체(130)의 모션에 기반하여, 표시 영역 내에 가상 객체(1030)를 표시하는 웨어러블 장치(101)의 동작의 일 예가 설명된다.Below, with reference to FIG. 11 , an example of an operation of the wearable device 101 that displays a virtual object 1030 in the display area based on the motion of an external object 130 moved outside the user's FoV is described. .

도 11은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여 표시하는 UI의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 11의 웨어러블 장치(101)를 포함할 수 있다. 도 11의 웨어러블 장치(101)는, 도 10의 웨어러블 장치(101)의 일 예일 수 있다. 예를 들어, 도 11의 제1 카메라(1012) 및 제2 카메라(1014)는 도 10의 제1 카메라(1012) 및 제2 카메라(1014)를 포함할 수 있다.FIG. 11 illustrates an example of a UI that the wearable device 101 displays based on information obtained by tracking an external object 130, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIG. 11 . The wearable device 101 of FIG. 11 may be an example of the wearable device 101 of FIG. 10 . For example, the first camera 1012 and the second camera 1014 of FIG. 11 may include the first camera 1012 and the second camera 1014 of FIG. 10.

도 11을 참고하면, 웨어러블 장치(101)의 표시 영역과 상이한 FoV를 가지는 제2 카메라(1014)를 이용하여 외부 객체(130)를 추적하는 예시적인 상태가 도시된다. 도 11의 상태 내에서, 웨어러블 장치(101)는 외부 객체(130)를 추적하여 획득된 정보를 표시 영역의 일부분(1120) 내에 표시할 수 있다. 일부분(1120) 내에서, 웨어러블 장치(101)는 평면(1110) 상에 접촉된 외부 객체(130)의 경로를 표현하는 하나 이상의 획들을 표시할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 상기 경로로부터 하나 이상의 문자들을 식별할 수 있다. 예를 들어, 시점 t1 내에서, 웨어러블 장치(101)는 "hello"와 같이, 일 라인을 따라 배열된 복수의 문자들을 식별할 수 있다. 웨어러블 장치(101)가 상기 복수의 문자들을 식별하는 것은, 웨어러블 장치(101) 및/또는 웨어러블 장치(101)에 연결된 외부 전자 장치(예, 도 1의 단말(120))에 의해 수행될 수 있다. 웨어러블 장치(101)는 상기 복수의 문자들을 식별하는 것에 기반하여, 표시 영역의 일부분(1120) 내에, 상기 복수의 문자들을 표현한 가상 객체(1131)를 표시할 수 있다. 상기 가상 객체(1131)는, 평면(1110) 상에 접촉된 외부 객체(130)의 경로의 형태를 가질 수 있다.Referring to FIG. 11 , an example state in which an external object 130 is tracked using a second camera 1014 having a different FoV than the display area of the wearable device 101 is shown. Within the state of FIG. 11 , the wearable device 101 may display information obtained by tracking an external object 130 within a portion 1120 of the display area. Within the portion 1120 , the wearable device 101 may display one or more strokes representing the path of the external object 130 contacted on the plane 1110 . According to one embodiment, the wearable device 101 may identify one or more characters from the path. For example, within time t1, the wearable device 101 may identify a plurality of characters arranged along a line, such as “hello.” The identification of the plurality of characters by the wearable device 101 may be performed by the wearable device 101 and/or an external electronic device (e.g., terminal 120 of FIG. 1) connected to the wearable device 101. . The wearable device 101 may display a virtual object 1131 representing the plurality of characters within a portion 1120 of the display area based on identifying the plurality of characters. The virtual object 1131 may have the shape of a path of an external object 130 contacted on the plane 1110.

도 11을 참고하면, 웨어러블 장치(101)는 외부 객체(130)의 모션에 기반하여, 복수의 문자들이 배열된 라인을 추가함을 지시하는 제스쳐를 식별할 수 있다. 알파벳들을 식별하는 도 11의 예시적인 상태 내에서, 웨어러블 장치(101)는 좌측으로부터 우측으로 향하는 방향을 따라 기록된 복수의 문자들을 식별할 수 있다. 상기 상태 내에서, 웨어러블 장치(101)는 우측으로부터 좌측으로 이동된 외부 객체(130)를 식별하는 것에 기반하여, 상기 복수의 문자들이 배열된 제1 라인과 상이한 제2 라인을 이용하여, 외부 객체(130)의 경로에 의해 표현된 새로운 문자를 인식할 수 있다. 시점 t2를 참고하면, 웨어러블 장치(101)는 평면(1110) 내에서, 평면(1110)의 좌측으로부터 우측으로 향하는 방향을 따라 기록된 문자들("WORLD")을 식별할 수 있다. 웨어러블 장치(101)는 시점 t2 내에서, 시점 t1 내에서 식별된 문자들("hello")이 배치된 라인과 상이한 라인 내에, 문자들("WORLD")이 배치된 가상 객체(1132)를, 일부분(1120) 내에 표시할 수 있다. 유사하게 시점 t2 내지 시점 t3 사이에서, 웨어러블 장치(101)는 평면(1110)의 좌측으로 다시 이동되는 외부 객체(130)를 식별하는 것에 기반하여, 문자들("hello")이 배치된 제1 라인, 및 문자들("WORLD")이 배치된 제2 라인과 상이한 라인 내에, 외부 객체(130)의 지점(P)을 추적하여 획득된 문자들("glasses")을 추가할 수 있다. 시점 t3 내에서 웨어러블 장치(101)의 표시 영역 내 일부분(1120)에 표시되는 가상 객체(1133)는, 문자들("hello", "WORLD", "glasses") 각각이 상이한 3개의 라인들을 통해 표시될 수 있다. Referring to FIG. 11 , the wearable device 101 may identify a gesture indicating adding a line in which a plurality of characters are arranged based on the motion of the external object 130. Within the example state of FIG. 11 identifying alphabets, the wearable device 101 can identify a plurality of characters written along a direction from left to right. Within the above state, the wearable device 101 uses a second line different from the first line on which the plurality of characters are arranged, based on identifying the external object 130 moved from right to left, to identify the external object. A new character expressed by the path of (130) can be recognized. Referring to time t2, the wearable device 101 may identify characters (“WORLD”) written within the plane 1110 along a direction from the left to the right of the plane 1110. The wearable device 101 displays a virtual object 1132 on which characters (“WORLD”) are placed within a line different from the line on which the characters (“hello”) identified at time t1 are placed within a time point t2, It can be displayed within a portion (1120). Similarly, between time t2 and time t3, the wearable device 101 displays a first object in which characters (“hello”) are placed based on identifying the external object 130 moving back to the left side of the plane 1110. Lines, and characters (“glasses”) obtained by tracking the point (P) of the external object 130 may be added within a line that is different from the second line where the characters (“WORLD”) are arranged. The virtual object 1133 displayed in a portion 1120 of the display area of the wearable device 101 at time t3 is composed of characters (“hello”, “WORLD”, and “glasses”) through three different lines. can be displayed.

상술한 바와 같이, 웨어러블 장치(101)는 문자가 배열된 방향 및 외부 객체(130)의 방향을 비교하여, 복수의 문자들이 배열된 라인을 추가함을 지시하는 제스쳐를 식별할 수 있다. 예를 들어, 영어와 같이, 라인 내에서 좌측으로부터 우측으로 문자들이 배열되는 언어의 경우, 웨어러블 장치(101)는 우측으로부터 좌측으로 이동되는 외부 객체(130)를 탐지하는 것에 기반하여, 상기 제스쳐를 식별할 수 있다. 예를 들어, 아랍어와 같이, 우측으로부터 좌측으로 문자들이 배열되는 언어의 경우, 웨어러블 장치(101)는 좌측으로부터 우측으로 이동되는 외부 객체(130)를 식별하는 것에 기반하여, 상기 제스쳐를 식별할 수 있다. 웨어러블 장치(101)가 외부 객체(130)의 방향을 이용하여, 외부 객체(130)에 의해 그려지는 문자들이 배열된 라인을 추가하기 때문에, 웨어러블 장치(101)는 단일 라인의 사이즈를 가지는 평면(1110)에 기반하여, 복수의 라인들을 따라 배열된 문자들을 인식하는 것을 지원할 수 있다.As described above, the wearable device 101 may identify a gesture indicating adding a line in which a plurality of characters are arranged by comparing the direction in which the letters are arranged and the direction of the external object 130. For example, in the case of a language such as English, where characters are arranged from left to right within a line, the wearable device 101 performs the gesture based on detecting an external object 130 moving from right to left. can be identified. For example, in the case of a language in which letters are arranged from right to left, such as Arabic, the wearable device 101 can identify the gesture based on identifying the external object 130 moving from left to right. there is. Since the wearable device 101 uses the direction of the external object 130 to add a line in which the characters drawn by the external object 130 are arranged, the wearable device 101 creates a plane ( 1110), it is possible to support recognizing characters arranged along a plurality of lines.

도 12a 내지 도 12b는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 12a 내지 도 12b의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 스케쥴을 저장하기 위한 캘린더 어플리케이션이 외부 객체(130)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 캘린더 어플리케이션을 외부 객체(130)로 등록함을 지시하는 입력을 식별할 수 있다. FIGS. 12A and 12B illustrate an example of an operation in which the wearable device 101 executes an application based on information obtained by tracking an external object 130, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIGS. 12A to 12B. Hereinafter, it is assumed that the calendar application for storing the schedule is matched to the external object 130. The wearable device 101 may identify an input indicating registration of the calendar application as an external object 130 based on the operations of FIGS. 6A to 6D and/or 7 .

도 12a를 참고하면, 캘린더 어플리케이션에 매칭된 외부 객체(130)를 식별한 상태(1201) 내에서, 웨어러블 장치(101)는 표시 영역 내에 상기 캘린더 어플리케이션을 표현하는 아이콘(1210)을 표시할 수 있다. 아이콘(1210)과 함께, 웨어러블 장치(101)는 외부 객체(130)와 중첩으로, 외부 객체(130)로 할당된 속성을 지시하는 시각적 객체를 표시할 수 있다. 도 12a의 예시적인 상태(1201) 내에서, 웨어러블 장치(101)는 캘린더 어플리케이션에 등록된 계정들 중에서, 외부 객체(130)로 매칭된 계정을 지시하는 텍스트(1220)(예, "A 계정")를, 외부 객체(130)와 중첩으로 표시할 수 있다. Referring to FIG. 12A, in the state 1201 of identifying the external object 130 matched to the calendar application, the wearable device 101 may display an icon 1210 representing the calendar application in the display area. . Together with the icon 1210, the wearable device 101 may display a visual object that overlaps the external object 130 and indicates the attribute assigned to the external object 130. Within the example state 1201 of FIG. 12A, the wearable device 101 displays text 1220 indicating an account matched to the external object 130 (e.g., “Account A”) among accounts registered in the calendar application. ) can be displayed overlapping with the external object 130.

도 12a의 상태(1201) 내에서, 웨어러블 장치(101)는 외부 객체(130)로 할당된 속성에 기반하여, 외부 객체(130)의 일부분의 경로, 또는 외부 객체(130)에 포함된 물질에 의해 그려진 적어도 하나의 획을 추적할 수 있다. 예를 들어, 외부 객체(130)의 일 단(예, 외부 객체(130)의 펜촉)으로부터 연장된 잉크를 추적하도록 설정된 속성을 식별한 상태(1201) 내에서, 웨어러블 장치(101)는 상기 잉크에 의해 그려진 적어도 하나의 획을 식별할 수 있다. 웨어러블 장치(101)는 상기 적어도 하나의 획에 의해 표현된 문자(도 12a의 일 예에서, "11/1 휴가")를 식별할 수 있다. 웨어러블 장치(101)는, 웨어러블 장치(101)와 연결된 단말(120) 및/또는 서버(122)를 이용하여, 상기 적어도 하나의 획으로부터 문자를 인식한 결과를 획득할 수 있다. 예를 들어, 웨어러블 장치(101)의 연산량을 감소시키기 위하여, 웨어러블 장치(101)는 단말(120) 및/또는 서버(122)로, 상기 잉크에 의해 그려진 획들로부터 문자를 인식할 것을 요청할 수 있다. 웨어러블 장치(101)의 상기 연산량의 감소는, 웨어러블 장치(101)로부터 방출되는 열을 줄일 수 있다.Within state 1201 of FIG. 12A , the wearable device 101 is connected to the path of a portion of the external object 130 or to the material contained in the external object 130, based on the attributes assigned to the external object 130. At least one stroke drawn by can be traced. For example, within the state 1201 of identifying an attribute set to track ink extending from one end of the external object 130 (e.g., the pen tip of the external object 130), the wearable device 101 tracks the ink. At least one stroke drawn by can be identified. The wearable device 101 may identify a character expressed by the at least one stroke (in the example of FIG. 12A, “11/1 vacation”). The wearable device 101 may obtain a result of character recognition from the at least one stroke using the terminal 120 and/or the server 122 connected to the wearable device 101. For example, in order to reduce the amount of computation of the wearable device 101, the wearable device 101 may request the terminal 120 and/or the server 122 to recognize characters from strokes drawn with the ink. . By reducing the amount of calculation of the wearable device 101, heat emitted from the wearable device 101 can be reduced.

외부 객체(130)로부터 출력된 잉크에 의해 그려진 문자를 식별한 도 12a의 상태(1201) 내에서, 웨어러블 장치(101)는 외부 객체(130)로 매칭된 캘린더 어플리케이션을 실행하기 위한 버튼(1230)을 선택함을 지시하는 입력을 식별할 수 있다. 상기 입력에 응답하여, 웨어러블 장치(101)는 상기 잉크에 의해 그려진 문자들(예, "11/1 휴가")에 기반하여, 캘린더 어플리케이션을 실행할 수 있다. 일 실시예에서, 웨어러블 장치(101)는, 상기 입력 이전에 실행된 캘린더 어플리케이션을 이용하여, 상기 문자들에 기반하는 기능을 실행할 수 있다. 웨어러블 장치(101)는, 외부 객체(130)에 의해 그려진 문자를 식별하는 것에 기반하여, 버튼(1230)과 관련된 상기 입력을 수신하기 이전에, 캘린더 어플리케이션을 실행하여, 상기 식별된 문자와 관련된 기능을 실행할 수 있다. 예를 들어, 캘린더 어플리케이션이 실행된 상태에서, 웨어러블 장치(101)는 텍스트(1220)에 의해 지시되는 계정 내에, 상기 문자들에 포함된 정보에 기반하는 스케쥴 데이터를 추가할 수 있다.In the state 1201 of FIG. 12A in which a character drawn by ink output from the external object 130 is identified, the wearable device 101 uses a button 1230 to execute a calendar application matched to the external object 130. The input that indicates selection can be identified. In response to the input, the wearable device 101 may execute a calendar application based on characters drawn with the ink (eg, “11/1 vacation”). In one embodiment, the wearable device 101 may execute a function based on the characters using a calendar application executed before the input. Based on identifying the character drawn by the external object 130, the wearable device 101, prior to receiving the input associated with the button 1230, executes the calendar application to perform the function associated with the identified character. You can run . For example, while the calendar application is running, the wearable device 101 may add schedule data based on the information included in the text 1220 to the account indicated by the text 1220.

도 12b를 참고하면, 도 12a의 상태(1201) 내에서 버튼(1230)을 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)가 스케쥴 데이터를 추가하기 위한 윈도우(1240)를 표시한 상태(1202)가 도시된다. 상태(1202) 내에서, 웨어러블 장치(101)는 상태(1201) 내에서 식별된 문자들에 기반하여, 스케쥴 데이터를 추가하기 위한 윈도우(1240)를 표시할 수 있다. 윈도우(1240) 내에서, 웨어러블 장치(101)는, 상기 스케쥴 데이터의 생성을 위해 요구되는 파라미터들(예, 일정 제목, 및 시간)을 표시할 수 있다. 웨어러블 장치(101)는 상태(1201) 내에서 외부 객체(130)를 추적하여 획득된 정보(예, 상기 문자들)에 기반하여, 상기 파라미터들을 변경할 수 있다. 예를 들어, 윈도우(1240) 내에 포함되고, 스케쥴 데이터의 명칭을 나타내는 파라미터(예, "일정 제목"의 필드 명칭을 가진 파라미터)는, 상태(1201) 내에서 식별된 문자들 중 일부분(예, "휴가")을 포함할 수 있다. 예를 들어, 윈도우(1240) 내에 포함되고, 스케쥴 데이터의 시간을 나타내는 파라미터(예, "시간"의 필드 명칭을 가진 파라미터)는, 상태(1201) 내에서 식별된 문자들 중 일부분(예, "11/1")에 의해 표현된 날짜 및/또는 시간을 포함할 수 있다. 상기 파라미터들 및 상태(1201) 내에서 식별된 문자들이 매칭되는 것은, 자연어 처리(natural language processing)를 위해 웨어러블 장치(101) 및/또는 서버(122)에 의해 실행되는 엔진(예, 자연어 엔진(natural language unit, NLU))에 의해 수행될 수 있다.Referring to FIG. 12B, the wearable device 101 displays a window 1240 for adding schedule data based on an input indicating selection of the button 1230 in the state 1201 of FIG. 12A. (1202) is shown. Within state 1202, wearable device 101 may display a window 1240 for adding schedule data based on characters identified within state 1201. Within the window 1240, the wearable device 101 may display parameters (eg, schedule title, and time) required for generating the schedule data. The wearable device 101 may change the parameters based on information (eg, the characters) obtained by tracking the external object 130 within the state 1201. For example, a parameter contained within window 1240 and representing the name of the schedule data (e.g., a parameter with a field name of “Schedule Title”) may contain some of the characters identified within state 1201 (e.g., may include "vacation"). For example, a parameter contained within window 1240 and representing a time of schedule data (e.g., a parameter with a field name of “Time”) may be a portion of the characters identified within state 1201 (e.g., “ 11/1"). Matching of the characters identified within the parameters and states 1201 is an engine (e.g., a natural language engine (e.g., natural language engine) executed by the wearable device 101 and/or server 122 for natural language processing. It can be performed by a natural language unit (NLU)).

도 12b를 참고하면, 웨어러블 장치(101)는 윈도우(1240) 내에서, 윈도우(1240)를 통해 표시된 파라미터들에 기반하는 스케쥴 데이터를 추가하기 위한 버튼(1242)을 표시할 수 있다. 버튼(1242) 내에서, 웨어러블 장치(101)는 스케쥴 데이터의 추가 및/또는 저장을 가이드하기 위한 지정된 텍스트(예, "저장")를 표시할 수 있다. 윈도우(1240) 내에서, 웨어러블 장치(101)는 상기 스케쥴 데이터를 추가하는 것을 중단하기 위한 버튼(1244)(예, "취소"와 같은 지정된 텍스트를 포함하는 버튼(1244))을 표시할 수 있다. Referring to FIG. 12B, the wearable device 101 may display a button 1242 within the window 1240 for adding schedule data based on parameters displayed through the window 1240. Within button 1242, wearable device 101 may display designated text (e.g., “Save”) to guide adding and/or saving schedule data. Within window 1240, wearable device 101 may display a button 1244 to stop adding the schedule data (e.g., a button 1244 containing designated text, such as “Cancel”). .

도 12b의 상태(1202) 내에서, 버튼(1242)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 캘린더 어플리케이션을 실행하여, 윈도우(1240)를 통해 표시된 파라미터들에 기반하는 스케쥴 데이터를 저장할 수 있다. 도 12b를 참고하면, 사용자(110)에 의해 이용되는 상이한 전자 장치들(예, 웨어러블 장치(101), 및 단말(120))에서, 상기 스케쥴 데이터가 공유될 수 있다. 예를 들어, 웨어러블 장치(101)에 연결된 단말(120)은, 단말(120)의 디스플레이를 통해 표시되는 화면(1250) 내에서, 상기 스케쥴 데이터에 기반하는 시각적 객체(1252)를 표시할 수 있다.Within state 1202 of FIG. 12B, in response to an input indicating selection of button 1242, wearable device 101 executes the calendar application to schedule a schedule based on the parameters displayed via window 1240. Data can be saved. Referring to FIG. 12B, the schedule data may be shared among different electronic devices (eg, wearable device 101 and terminal 120) used by the user 110. For example, the terminal 120 connected to the wearable device 101 may display a visual object 1252 based on the schedule data within the screen 1250 displayed through the display of the terminal 120. .

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(130)의 일부분의 경로 및/또는 외부 객체(130)에 의해 그려진 적어도 하나의 획으로부터, 스케쥴 데이터를 추가하기 위한 정보를 획득할 수 있다. 외부 객체(130) 및 캘린더 어플리케이션이 매칭된 상태들(1201, 1202) 내에서, 웨어러블 장치(101)는 외부 객체(130)에 의해 그려진 문자들을 인식하여, 상기 정보를 획득할 수 있다. 웨어러블 장치(101)는 상기 정보를 이용하여 스케쥴 데이터를 추가하기 때문에, 외부 객체(130)와 통신하는 것과 독립적으로, 컴퓨터 판독가능한(computer readable) 상기 정보를 획득할 수 있다.As described above, according to one embodiment, the wearable device 101 includes information for adding schedule data from the path of a portion of the external object 130 and/or at least one stroke drawn by the external object 130. can be obtained. Within states 1201 and 1202 in which the external object 130 and the calendar application are matched, the wearable device 101 may recognize characters drawn by the external object 130 and obtain the information. Since the wearable device 101 adds schedule data using the information, it can obtain the computer readable information independently of communicating with the external object 130.

도 13은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1330)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 13의 웨어러블 장치(101)를 포함할 수 있다. FIG. 13 illustrates an example of an operation in which the wearable device 101 executes an application based on information obtained by tracking an external object 1330, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIG. 13 .

도 13을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1330)를 추적하여 획득된 정보를 이용하여 메신저 어플리케이션을 실행하는 상태들(1301, 1302, 1303, 1304)이 도시된다. 상태(1301) 내에서, 웨어러블 장치(101)는 도 6a의 상태들(601, 602)과 유사하게, 웨어러블 장치(101) 내에 설치된 어플리케이션들의 리스트(1310)를 표시할 수 있다. 리스트(1310) 내에 포함된 아이콘들(1311, 1312, 1313) 중에서, 경로(1320)를 따라 외부 객체(1330)로 드래그된 아이콘(1311)에 기반하여, 웨어러블 장치(101)는 아이콘(1311)에 매칭된 메신저 어플리케이션을, 외부 객체(1330)로 매칭함을 지시하는 입력을 식별할 수 있다. 상기 입력에 기반하여, 웨어러블 장치(101)는 상태(1301)로부터 상태(1302)로 전환할 수 있다.Referring to FIG. 13, states 1301, 1302, 1303, and 1304 in which the wearable device 101 executes a messenger application using information obtained by tracking an external object 1330, according to one embodiment, are shown. do. Within state 1301, the wearable device 101 may display a list 1310 of applications installed within the wearable device 101, similar to states 601 and 602 of FIG. 6A. Among the icons 1311, 1312, and 1313 included in the list 1310, based on the icon 1311 dragged to the external object 1330 along the path 1320, the wearable device 101 selects the icon 1311. An input indicating matching the messenger application matched to the external object 1330 can be identified. Based on the input, wearable device 101 may transition from state 1301 to state 1302.

도 13의 상태(1302) 내에서, 웨어러블 장치(101)는 메신저 어플리케이션의 실행을 위해 요구되는 적어도 하나의 파라미터를 수신하기 위한 윈도우(1340)를 표시할 수 있다. 윈도우(1340) 내에서, 웨어러블 장치(101)는 외부 객체(1330)를 추적하여 획득된 정보에 대응하는 메시지를 수신할 상대방을 선택하기 위한 리스트를 표시할 수 있다. 상기 리스트는, 웨어러블 장치(101)의 메모리(예, 도 5의 메모리(520)) 내에 저장된 연락처 리스트와 관련될 수 있다. 도 13의 상태(1302) 내에서, 웨어러블 장치(101)가 윈도우(1340) 내에서 A 사용자를 선택함을 지시하는 입력을 수신한 것으로 가정한다. 상기 가정 내에서, 웨어러블 장치(101)는, 외부 객체(1330)가 A 사용자로 메시지를 송신하기 위한 메신저 어플리케이션의 기능에 매칭됨을 지시하는 속성을 저장할 수 있다. Within state 1302 of FIG. 13, the wearable device 101 may display a window 1340 for receiving at least one parameter required for execution of a messenger application. Within the window 1340, the wearable device 101 may display a list for selecting a counterpart to receive a message corresponding to information obtained by tracking the external object 1330. The list may be related to a contact list stored in the memory of the wearable device 101 (eg, memory 520 in FIG. 5). In state 1302 of FIG. 13 , it is assumed that the wearable device 101 has received an input indicating that user A is selected within the window 1340 . Within the above assumption, the wearable device 101 may store an attribute indicating that the external object 1330 matches the function of the messenger application for sending a message to user A.

도 13을 참고하면, 상태(1302)에 기반하여 외부 객체(1330)를 등록한 이후의 상태(1303) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1330)를 추적할 수 있다. 상태(1303) 내에서, 웨어러블 장치(101)는 외부 객체(1330)와 중첩으로, 외부 객체(1330)로 매칭된 어플리케이션을 표현하는 아이콘(1311) 및 외부 객체(1330)로 할당된 속성을 지시하는 텍스트(1350)를 표시할 수 있다. 상기 가정 내에서, 웨어러블 장치(101)는, 외부 객체(1330)를 추적하여 획득된 정보를 포함하는 메시지를 수신할 상대방을 지시하는 텍스트(1350)(예, "A 사용자")를 표시할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 도 8의 도형들(832, 834)과 같이, 아이콘(1311)의 색상 및/또는 외부 객체(1330)의 색상에 기반하는 도형을, 외부 객체(1330)와 중첩으로 표시할 수 있다.Referring to FIG. 13, within the state 1303 after registering the external object 1330 based on the state 1302, the wearable device 101 can track the external object 1330 included in the display area. . Within state 1303, the wearable device 101 overlaps with the external object 1330 and indicates an icon 1311 representing an application matched with the external object 1330 and an attribute assigned to the external object 1330. The text 1350 can be displayed. Within the above assumption, the wearable device 101 may display text 1350 (e.g., “User A”) indicating the other party to receive a message containing information obtained by tracking an external object 1330. there is. The embodiment is not limited to this, and the wearable device 101 displays a shape based on the color of the icon 1311 and/or the color of the external object 1330, such as the shapes 832 and 834 of FIG. 8. It can be displayed by overlapping with the object 1330.

도 13의 예시적인 상태(1303) 내에서, 웨어러블 장치(101)는 지점(A)으로부터 출력되는 잉크에 의해 그려진 하나 이상의 획들(예, "message"를 표현한 손 글씨)을 식별할 수 있다. 웨어러블 장치(101)는 OCR에 기반하여, 상기 하나 이상의 획들에 대응하는 텍스트를 식별할 수 있다. 상태(1303) 내에서, 웨어러블 장치(101)는 외부 객체(1330)를 추적하여 획득된 정보를 이용하여 어플리케이션(예, 메신저 어플리케이션)을 실행하기 위한 버튼(1355)을 표시할 수 있다. 버튼(1355)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 상태(1303)로부터 상태(1304)로 전환할 수 있다. Within the example state 1303 of FIG. 13 , the wearable device 101 may identify one or more strokes drawn by ink output from point A (eg, handwriting representing “message”). The wearable device 101 may identify text corresponding to the one or more strokes based on OCR. Within state 1303, the wearable device 101 may display a button 1355 for executing an application (eg, a messenger application) using information obtained by tracking an external object 1330. In response to an input indicating selection of button 1355, wearable device 101 may transition from state 1303 to state 1304.

도 13을 참고하면, 상태(1304) 내에서, 웨어러블 장치(101)는 외부 객체(1330)에 대응하는 메신저 어플리케이션으로부터 제공된 윈도우(1360)를 표시할 수 있다. 윈도우(1360) 내에서, 웨어러블 장치(101)는 외부 객체(1330)를 추적하여 획득된 정보를 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1330)에 의해 그려진 획들로부터 식별된 텍스트(예, "message")가, 외부 객체(1330)로 할당된 속성에 의해 지시되는 상대방(예, "A 사용자")로 송신될 것임을, 윈도우(1360)를 이용하여 가이드할 수 있다. 웨어러블 장치(101)는 상기 윈도우(1360)와 함께, 표시 영역 내에 윈도우(1360)에 포함된 정보에 기반하여 메시지를 송신하기 위한 버튼(1372), 및 상기 메시지의 송신을 중단하기 위한 버튼(1375)을 표시할 수 있다. 버튼(1372) 내에서, 웨어러블 장치(101)는 상기 메시지의 송신을 가이드하기 위한 지정된 텍스트(예, "전송")를 표시할 수 있다. 버튼(1374) 내에서, 웨어러블 장치(101)는 메시지의 송신의 중단을 가이드하기 위한 지정된 텍스트(예, "취소")를 표시할 수 있다. 예를 들어, 버튼(1372)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 윈도우(1360) 내에 포함된 정보에 기반하여, 메신저 어플리케이션에 의해 지원되는 기능들 중에서 메시지를 송신하기 위한 기능을 실행할 수 있다. 웨어러블 장치(101)는 메시지를 송신하기 위하여 통신 회로(예, 도 5의 통신 회로(550))를 제어할 수 있다.Referring to FIG. 13, within state 1304, the wearable device 101 may display a window 1360 provided from a messenger application corresponding to an external object 1330. Within the window 1360, the wearable device 101 may display information obtained by tracking the external object 1330. For example, the wearable device 101 may send text (e.g., “message”) identified from strokes drawn by the external object 1330 to the other party (e.g., “message”) indicated by the attribute assigned to the external object 1330. It can be guided using the window 1360 that the information will be transmitted to “User A”). The wearable device 101 includes the window 1360, a button 1372 for transmitting a message based on information included in the window 1360 within the display area, and a button 1375 for stopping transmission of the message. ) can be displayed. Within button 1372, wearable device 101 may display designated text (e.g., “Send”) to guide transmission of the message. Within button 1374, wearable device 101 may display designated text (e.g., “Cancel”) to guide cessation of transmission of the message. For example, in response to an input indicating selection of button 1372, wearable device 101 may send a message, among functions supported by the messenger application, based on information contained within window 1360. functions can be executed. The wearable device 101 may control a communication circuit (eg, the communication circuit 550 of FIG. 5) to transmit a message.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 메신저 어플리케이션에 매칭된 외부 객체(1330)를 추적하여, 상기 메신저 어플리케이션을 이용하여 메시지를 송신하는데 이용되는 정보를 획득할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1330)에 의해 그려진 적어도 하나의 문자로부터 상기 메시지 내에 포함될 텍스트를 획득할 수 있다. 웨어러블 장치(101)는, 웨어러블 장치(101)의 통신 회로를 이용하여 외부 객체(1330)로 할당된 속성에 의해 지시되는 상대방에게 상기 텍스트를 포함하는 메시지를 송신하기 위한 기능을 실행할 수 있다. As described above, according to one embodiment, the wearable device 101 can track an external object 1330 matched to a messenger application and obtain information used to transmit a message using the messenger application. For example, the wearable device 101 may obtain text to be included in the message from at least one character drawn by the external object 1330. The wearable device 101 may execute a function for transmitting a message including the text to the other party indicated by the attribute assigned to the external object 1330 using the communication circuit of the wearable device 101.

도 14는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1410)를 추적하여 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 14의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 오디오 신호를 녹음하기 위한 녹음 어플리케이션이 외부 객체(1410)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 녹음 어플리케이션을 외부 객체(1410)로 등록함을 지시하는 입력을 식별할 수 있다. FIG. 14 illustrates an example of an operation in which the wearable device 101 executes an application based on information obtained by tracking an external object 1410, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIG. 14 . Hereinafter, it is assumed that a recording application for recording an audio signal is matched to the external object 1410. The wearable device 101 may identify an input indicating registration of the recording application as an external object 1410 based on the operations of FIGS. 6A to 6D and/or 7 .

도 14를 참고하면, 웨어러블 장치(101)가 외부 객체(1410)를 추적하는 상이한 상태들(1401, 1402)이 도시된다. 상태(1401) 내에서, 외부 객체(1410)를 식별한 웨어러블 장치(101)는 표시 영역 내에서 외부 객체(1410)와 중첩으로, 외부 객체(1410)로 매칭된 상기 녹음 어플리케이션을 표현한 아이콘(1412) 및/또는 상기 녹음 어플리케이션의 실행에 기반하여 오디오 신호를 녹음하기 위한 버튼(1414)을 표시할 수 있다. 상태(1401) 내에서, 버튼(1414)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 녹음 어플리케이션을 실행할 수 있다. 녹음 어플리케이션의 실행에 기반하여, 웨어러블 장치(101)는 오디오 신호의 녹음을 개시(initiate)할 수 있다. 오디오 신호를 녹음하기 위하여, 웨어러블 장치(101)는 마이크를 포함할 수 있다.Referring to FIG. 14 , different states 1401 and 1402 in which the wearable device 101 tracks an external object 1410 are shown. Within the state 1401, the wearable device 101 that has identified the external object 1410 overlaps the external object 1410 within the display area and displays an icon 1412 representing the recording application matched with the external object 1410. ) and/or a button 1414 for recording an audio signal may be displayed based on execution of the recording application. Within state 1401, in response to an input indicating selection of button 1414, wearable device 101 may execute a recording application. Based on execution of the recording application, the wearable device 101 may initiate recording of the audio signal. To record audio signals, the wearable device 101 may include a microphone.

도14를 참고하면, 녹음 어플리케이션의 실행에 기반하여 오디오 신호를 녹음하는 상태(1402) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1410)와 중첩으로, 상기 녹음된 오디오 신호를 포함하는 파일의 이름을 지시하는 텍스트(1420)를 표시할 수 있다. 상태(1402) 내에서, 웨어러블 장치(101)는 상기 녹음 어플리케이션에 매칭된 외부 객체(1410)를 추적할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1410)에 의해 그려진 손글씨("bookmark")를 식별할 수 있다. 웨어러블 장치(101)가 외부 객체(1410)를 추적하여 획득한 정보는, 상기 손글씨에 대응하는 텍스트를 포함할 수 있다. 예를 들어, 상기 정보는, 상기 손글씨에 대한 OCR을 수행한 결과를 포함할 수 있다.Referring to FIG. 14, in a state 1402 of recording an audio signal based on execution of a recording application, the wearable device 101 overlaps an external object 1410 included in the display area and records the recorded audio signal. Text 1420 indicating the name of the file containing can be displayed. Within state 1402, wearable device 101 may track an external object 1410 matched to the recording application. For example, the wearable device 101 may identify handwriting (“bookmark”) drawn by an external object 1410. Information obtained by the wearable device 101 by tracking the external object 1410 may include text corresponding to the handwriting. For example, the information may include the result of performing OCR on the handwriting.

도 14의 상태(1402) 내에서, 외부 객체(1410)에 의해 그려진 손글씨를 식별하는 것에 기반하여, 웨어러블 장치(101)는 녹음 어플리케이션의 실행에 의해 녹음되는 오디오 신호 내에 북마크를 추가할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 녹음 어플리케이션에 의해 녹음되는 오디오 신호 내에서, 상기 손글씨가 그려진 시점에 대응하는 구간에 북마크를 추가할 수 있다. 상기 북마크는, 상기 오디오 신호에 대응하는 메타 데이터 내에 저장될 수 있다. 상기 북마크의 이름은, 상기 손글씨에 대응하는 텍스트를 포함할 수 있다.Within state 1402 of FIG. 14 , based on identifying handwriting drawn by an external object 1410, the wearable device 101 may add a bookmark within the audio signal recorded by execution of the recording application. For example, the wearable device 101 may add a bookmark to a section corresponding to the time when the handwriting was drawn within the audio signal recorded by the recording application. The bookmark may be stored in metadata corresponding to the audio signal. The name of the bookmark may include text corresponding to the handwriting.

도 14를 참고하면, 상태(1402) 내에서 획득된 오디오 신호를 재생하는 동안 표시되는 화면(1430)의 일 예가 도시된다. 상기 화면(1430)은 상기 오디오 신호를 재생함을 지시하는 입력에 응답하여, 웨어러블 장치(101)에 의해 표시될 수 있다. 일 실시예에서, 웨어러블 장치(101)는 상기 오디오 신호에 대한 STT(speech-to-text)를 수행하여, 상기 오디오 신호 내에 포함된 발언을 표현한 텍스트를 획득할 수 있다. 화면(1430)의 일부분(1432) 내에서, 웨어러블 장치(101)는 상기 획득된 텍스트를 표시할 수 있다. 웨어러블 장치(101)는 화면(1430) 내에 표시된 텍스트 중에서, 상태(1402) 내 손글씨가 그려진 시점에 대응하는 구간에 포함된 텍스트(예, "객체로 글을 써보겠습니다. ")를, 상기 손글씨에 의해 추가된 북마크를 지시하는 시각적 객체(1434)와 함께 표시할 수 있다. 예를 들어, 시각적 객체(1434)는, 상기 구간에 대응하는 오디오 신호의 일부분으로부터 인식된 텍스트(예, "객체로 글을 써보겠습니다. ")를 다른 텍스트와 구분하기 위한 바운딩 박스의 형태를 가질 수 있다. 시각적 객체(1434)를 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 표시 영역 내에 시각적 객체(1434)에 대응하는 북마크의 속성(예, 상기 북마크의 이름)을 표시할 수 있다. 14, an example of a screen 1430 displayed during playback of an audio signal acquired within state 1402 is shown. The screen 1430 may be displayed by the wearable device 101 in response to an input indicating reproduction of the audio signal. In one embodiment, the wearable device 101 may perform speech-to-text (STT) on the audio signal to obtain text representing the speech included in the audio signal. Within a portion 1432 of the screen 1430, the wearable device 101 may display the obtained text. The wearable device 101 selects text (e.g., "I will write with an object. ") included in the section corresponding to the point in time when the handwriting in the state 1402 was drawn, among the text displayed on the screen 1430, to the handwriting. It can be displayed with a visual object 1434 indicating the bookmark added. For example, the visual object 1434 may have the form of a bounding box to distinguish text recognized from a portion of the audio signal corresponding to the section (e.g., “I will write with an object.”) from other text. You can. Based on the input indicating selection of the visual object 1434, the wearable device 101 may display the properties of the bookmark (eg, the name of the bookmark) corresponding to the visual object 1434 in the display area.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 녹음 어플리케이션에 매칭된 외부 객체(1410)를 추적하여, 상기 녹음 어플리케이션의 상이한 기능들을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1410)와 중첩으로 표시된 버튼(1414)에 기반하여, 상기 녹음 어플리케이션에 기반하는 녹음 기능을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 외부 객체(1410)를 추적하여 획득된 정보에 기반하여, 상기 녹음 어플리케이션에 의해 녹음되는 오디오 신호 내에 북마크를 추가하기 위한 기능을 실행할 수 있다.As described above, according to one embodiment, the wearable device 101 may track an external object 1410 matched to a recording application and execute different functions of the recording application. For example, the wearable device 101 may execute a recording function based on the recording application based on the button 1414 displayed overlapping with the external object 1410. For example, the wearable device 101 may execute a function for adding a bookmark to an audio signal recorded by the recording application based on information obtained by tracking the external object 1410.

도 15a 내지 도 15b는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1510)를 추적하여 획득된 정보에 기반하여 복수의 어플리케이션들을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 15a 내지 도 15b의 웨어러블 장치(101)를 포함할 수 있다. 이하에서는, 복수의 어플리케이션들(예, 노트 어플리케이션 및 녹음 어플리케이션)이 외부 객체(1510)로 매칭된 것으로 가정한다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 복수의 어플리케이션들을 외부 객체(1510)로 등록함을 지시하는 입력을 식별할 수 있다. FIGS. 15A and 15B illustrate an example of an operation in which the wearable device 101 executes a plurality of applications based on information obtained by tracking an external object 1510, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIGS. 15A to 15B. Hereinafter, it is assumed that a plurality of applications (eg, a note application and a recording application) are matched to the external object 1510. The wearable device 101 may identify an input indicating registration of the plurality of applications as an external object 1510 based on the operations of FIGS. 6A to 6D and/or 7 .

도 15a를 참고하면, 웨어러블 장치(101)가 외부 객체(1510)를 추적하는 상이한 상태들(1501, 1502)이 도시된다. 상태(1501) 내에서, 외부 객체(1510)를 식별한 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1510)와 중첩으로, 외부 객체(1510)로 매칭된 복수의 어플리케이션들 각각을 표현하는 아이콘들(1512, 1514)을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 노트 어플리케이션을 표현한 아이콘(1512) 및 녹음 어플리케이션을 표현한 아이콘(1514)을 표시할 수 있다. 상태(1501) 내에서, 웨어러블 장치(101)는 지점(P1)으로부터 지점(P2)을 따라 외부 객체(1510)에 의해 그려진 곡선을 식별할 수 있다. 상기 곡선은, 웨어러블 장치(101)가 외부 객체(1510)의 일부분의 경로를 시각화한 것일 수 있다. 상기 곡선은, 외부 객체(1510) 내 잉크에 의해 그려진 것일 수 있다.Referring to FIG. 15A , different states 1501 and 1502 in which the wearable device 101 tracks an external object 1510 are shown. Within the state 1501, the wearable device 101 that has identified the external object 1510 displays each of a plurality of applications matched to the external object 1510 by overlapping with the external object 1510 included in the display area. Icons 1512 and 1514 can be displayed. For example, the wearable device 101 may display an icon 1512 representing a note application and an icon 1514 representing a recording application. Within state 1501, wearable device 101 can identify a curve drawn by external object 1510 from point P1 to point P2. The curve may be the wearable device 101 visualizing a partial path of the external object 1510. The curve may be drawn with ink within the external object 1510.

도 15a를 참고하면, 외부 객체(1510)에 의해 그려진 곡선을 식별한 상태(1501) 내에서, 웨어러블 장치(101)는 외부 객체(1510)로 매칭된 상기 복수의 어플리케이션들을 실행할 수 있다. 예를 들어, 웨어러블 장치(101)는 노트 어플리케이션 및 녹음 어플리케이션을 실행할 수 있다. 녹음 어플리케이션의 실행에 기반하여, 웨어러블 장치(101)는 오디오 신호의 녹음을 개시할 수 있다. 노트 어플리케이션의 실행에 기반하여, 웨어러블 장치(101)는 상기 식별된 곡선에 기반하는 디지털 콘텐트를 식별할 수 있다. 예를 들어, 녹음 어플리케이션의 실행에 기반하여, 상태(1501) 내에서, 웨어러블 장치(101)는 발언(1521)을 포함하는 오디오 신호를 획득할 수 있다. Referring to FIG. 15A , in a state 1501 in which a curve drawn by an external object 1510 is identified, the wearable device 101 may execute the plurality of applications matched to the external object 1510. For example, the wearable device 101 can run a note application and a recording application. Based on execution of the recording application, the wearable device 101 may start recording the audio signal. Based on execution of the note application, the wearable device 101 may identify digital content based on the identified curve. For example, based on execution of a recording application, within state 1501, wearable device 101 may obtain an audio signal including utterance 1521.

도 15a를 참고하면, 상태(1502) 내에서, 상태(1501)와 유사하게, 웨어러블 장치(101)는 외부 객체(1510)에 의해 그려진 곡선을 추적하는 것을 유지할 수 있다. 웨어러블 장치(101)는 상태(1502) 내에서, 상기 녹음 어플리케이션의 실행에 기반하여 녹음을 하는 것을 유지할 수 있다. 웨어러블 장치(101)는 상태(1502) 내에서, 지점(P2)로부터 지점(P3)을 따라 외부 객체(1510)에 의해 그려진 다른 곡선을 식별할 수 있다. 웨어러블 장치(101)는 상태(1502) 내에서, 녹음 어플리케이션에 기반하여 발언(1522)을 포함하는 오디오 신호를 획득할 수 있다.Referring to FIG. 15A , within state 1502 , similar to state 1501 , wearable device 101 may maintain tracking a curve drawn by external object 1510 . Wearable device 101 may maintain recording within state 1502 based on execution of the recording application. Wearable device 101 may identify, within state 1502, another curve drawn by external object 1510 from point P2 to point P3. In state 1502, the wearable device 101 may acquire an audio signal including the utterance 1522 based on the recording application.

일 실시예에 따른, 웨어러블 장치(101)는 상태들(1501, 1502)에 기반하여, 지점들(P1, P2, P3)을 따라 이동된 곡선들을 포함하는 제1 미디어 콘텐트를 획득할 수 있다. 상기 제1 미디어 콘텐트는, 외부 객체(1510)로 매칭된 복수의 어플리케이션들 중에서 노트 어플리케이션의 실행에 기반하여, 획득될 수 있다. 웨어러블 장치(101)는 상태들(1501, 1502)에 기반하여, 발언들(1521, 1522)이 녹음된 제2 미디어 콘텐트를 획득할 수 있다. 상기 제2 미디어 콘텐트는 외부 객체(1510)로 매칭된 복수의 어플리케이션들 중에서 녹음 어플리케이션의 실행에 기반하여 획득될 수 있다. 상기 제1 미디어 콘텐트, 및 상기 제2 미디어 콘텐트는 웨어러블 장치(101)의 메모리(예, 도 5의 메모리(520)) 내에 저장될 수 있다.According to one embodiment, the wearable device 101 may acquire first media content including curves moved along the points P1, P2, and P3 based on the states 1501 and 1502. The first media content may be obtained based on execution of a note application among a plurality of applications matched to the external object 1510. The wearable device 101 may obtain second media content in which the remarks 1521 and 1522 are recorded based on the states 1501 and 1502. The second media content may be obtained based on execution of a recording application among a plurality of applications matched to the external object 1510. The first media content and the second media content may be stored in the memory (eg, memory 520 of FIG. 5) of the wearable device 101.

일 실시예에 따른, 웨어러블 장치(101)는, 외부 객체(1510)로 매칭된 복수의 어플리케이션들 각각을 실행하여 획득한 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동기화할 수 있다. 도 15a를 참고하면, 상태들(1501, 1502) 이후, 웨어러블 장치(101)는 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동기화하기 위한 화면(1530)을 표시할 수 있다. 화면(1530)은, 웨어러블 장치(101)의 디스플레이 장치(예, 도 5의 디스플레이(530))에 의해 형성된 표시 영역을 통해 표시될 수 있다. 화면(1530)은, 외부 객체(1510)로 매칭된 노트 어플리케이션 또는 녹음 어플리케이션 중 적어도 하나로부터 제공될 수 있다.According to one embodiment, the wearable device 101 may synchronize first media content and second media content obtained by executing each of a plurality of applications matched to the external object 1510. Referring to FIG. 15A, after states 1501 and 1502, the wearable device 101 may display a screen 1530 for synchronizing first media content and second media content. The screen 1530 may be displayed through a display area formed by a display device (eg, display 530 in FIG. 5) of the wearable device 101. The screen 1530 may be provided from at least one of a note application or a recording application matched to the external object 1510.

도 15a를 참고하면, 화면(1530) 내에서, 웨어러블 장치(101)는 노트 어플리케이션의 실행에 기반하여 획득된 제1 미디어 콘텐트에 대응하는 시각적 객체(1540)를 표시할 수 있다. 예를 들어, 시각적 객체(1540)는 상태들(1501, 1502) 내에서 지점들(P1, P2, P3)을 따라 이동된 외부 객체(1510)의 일부분의 경로를 표현한 라인일 수 있다. 제1 미디어 콘텐트에 대응하는 시각적 객체(1540)가 표시된 화면(1530)에 기반하여, 웨어러블 장치(101)는 상기 제1 미디어 콘텐트 및 상기 제2 미디어 콘텐트를 동기화하기 위한 기능을 실행할 수 있다. 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동기화하기 위한 기능은, 제1 미디어 콘텐트에 포함된 라인(예, 외부 객체(1510)의 경로를 표현한 라인) 및 제2 미디어 콘텐트에 포함된 오디오 신호를 동시에 재생하는 동작을 포함할 수 있다.Referring to FIG. 15A, within the screen 1530, the wearable device 101 may display a visual object 1540 corresponding to the first media content obtained based on execution of the note application. For example, the visual object 1540 may be a line representing a partial path of the external object 1510 moved along the points P1, P2, and P3 within the states 1501 and 1502. Based on the screen 1530 on which the visual object 1540 corresponding to the first media content is displayed, the wearable device 101 may execute a function for synchronizing the first media content and the second media content. The function for synchronizing the first media content and the second media content simultaneously synchronizes the line included in the first media content (e.g., a line expressing the path of the external object 1510) and the audio signal included in the second media content. It may include a playback action.

도 15a를 참고하면, 화면(1530) 내에서, 웨어러블 장치(101)는 제2 미디어 콘텐트의 상이한 구간들에 대응하는 시각적 객체들(1551, 1552)을 표시할 수 있다. 시각적 객체(1551)는 제2 미디어 콘텐트 내에서, 발언(1521)이 녹음된 제1 구간에 대응할 수 있다. 시각적 객체(1552)는 제2 미디어 콘텐트 내에서, 발언(1522)이 녹음된 제2 구간에 대응할 수 있다. 웨어러블 장치(101)는, 시각적 객체(1540)에 포함된 라인 내에서, 상기 제1 구간 내에서 그려진 라인의 일부분에 인접하여, 상기 제1 구간에 대응하는 시각적 객체(1551)를 표시할 수 있다. 웨어러블 장치(101)는 시각적 객체(1540)에 포함된 라인 내에서, 상기 제2 구간 내에서 그려진 라인의 일부분에 인접하여, 상기 제2 구간에 대응하는 시각적 객체(1552)를 표시할 수 있다. 상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 화면(1530) 내에서 제1 미디어 콘텐트에 포함된 라인 및 제2 미디어 콘텐트에 포함된 오디오 신호를 구간에 기반하여 동기화할 수 있다.Referring to FIG. 15A, within the screen 1530, the wearable device 101 may display visual objects 1551 and 1552 corresponding to different sections of the second media content. The visual object 1551 may correspond to the first section in which the speech 1521 is recorded within the second media content. The visual object 1552 may correspond to a second section in which the utterance 1522 is recorded within the second media content. The wearable device 101 may display a visual object 1551 corresponding to the first section within a line included in the visual object 1540, adjacent to a portion of the line drawn within the first section. . The wearable device 101 may display a visual object 1552 corresponding to the second section within a line included in the visual object 1540, adjacent to a portion of the line drawn within the second section. As described above, according to one embodiment, the wearable device 101 may synchronize the line included in the first media content and the audio signal included in the second media content within the screen 1530 based on the section. .

일 실시예에 따른, 웨어러블 장치(101)는 제1 미디어 콘텐트 및 제2 미디어 콘텐트를 동시에 재생할 수 있다. 예를 들어, 화면(1530) 내에서 지점들(P1, P2)을 따라 곡선을 그리는 제1 애니메이션을 재생하면서, 웨어러블 장치(101)는 시각적 객체(1551)에 대응하는 오디오 신호(예, 발언(1521)을 포함하는 오디오 신호)를 재생할 수 있다. 상기 제1 애니메이션을 재생한 이후, 화면(1530) 내에서 지점들(P2, P3)을 따라 곡선을 그리는 제2 애니메이션을 재생하면서, 웨어러블 장치(101)는 시각적 객체(1552)에 대응하는 오디오 신호(예, 발언(1522)을 포함하는 오디오 신호)를 재생할 수 있다.According to one embodiment, the wearable device 101 may play first media content and second media content simultaneously. For example, while playing a first animation that draws a curve along points P1 and P2 within screen 1530, wearable device 101 may record an audio signal (e.g., utterance (e.g., utterance) corresponding to visual object 1551. 1521) can be played. After playing the first animation, while playing the second animation drawing a curve along the points P2 and P3 within the screen 1530, the wearable device 101 generates an audio signal corresponding to the visual object 1552. (e.g., an audio signal including the utterance 1522) may be played.

상술한 바와 같이, 복수의 어플리케이션들이 외부 객체(1510)와 매칭된 상태 내에서, 웨어러블 장치(101)는 상기 복수의 어플리케이션들 각각을 이용하여 복수의 미디어 콘텐트들을 획득할 수 있다. 도 15a의 예시적인 상태들(1501, 1502) 내에서, 웨어러블 장치(101)는 상이한 타입의 미디어 콘텐트들(예, 시각화된(visualized) 획을 포함하는 제1 미디어 콘텐트, 및 오디오 신호를 포함하는 제2 미디어 콘텐트)을 획득할 수 있다. 웨어러블 장치(101)는 실질적으로(substantially) 동시에 획득된 상기 복수의 미디어 콘텐트들을 동기화할 수 있다.As described above, while a plurality of applications are matched with the external object 1510, the wearable device 101 can acquire a plurality of media contents using each of the plurality of applications. Within example states 1501 and 1502 of FIG. 15A , wearable device 101 may display different types of media content (e.g., first media content comprising visualized strokes, and first media content comprising audio signals). second media content) can be obtained. The wearable device 101 may substantially synchronize the plurality of media contents acquired simultaneously.

도 15b를 참고하면, 웨어러블 장치(101)가 외부 객체(1510)로 매칭된 복수의 어플리케이션들을 동시에 실행하는 예시적인 상태(1503)가 도시된다. 웨어러블 장치(101)는 도 6a 내지 도 6d 및/또는 도 7의 동작들에 기반하여, 상기 복수의 어플리케이션들을 외부 객체(1510)로 등록할 수 있다. 이하에서, 상기 복수의 어플리케이션들은, 아이콘(1512)에 대응하는 노트 어플리케이션 및 아이콘(1514)에 대응하는 녹음 어플리케이션을 포함하는 것으로 가정한다.Referring to FIG. 15B , an example state 1503 in which the wearable device 101 simultaneously executes a plurality of applications matched to an external object 1510 is shown. The wearable device 101 may register the plurality of applications as external objects 1510 based on the operations of FIGS. 6A to 6D and/or 7 . Hereinafter, it is assumed that the plurality of applications include a note application corresponding to the icon 1512 and a recording application corresponding to the icon 1514.

도 15b를 참고하면, 웨어러블 장치(101)는 외부 객체(1510)에 의해 그려진 곡선을 식별한 상태(1503) 내에서, 상기 외부 객체(1510)로 매칭된 복수의 어플리케이션들을 실행할 수 있다. 예를 들어, 외부 객체(1510)의 일부분의 경로, 또는 외부 객체(1510)에 포함된 물질(예, 잉크 및/또는 흑연)에 의해 그려진 상기 곡선을 식별한 상태(1503) 내에서, 웨어러블 장치(101)는 시각적 객체(1560)의 선택을 지시하는 입력에 응답하여, 상기 복수의 어플리케이션들을 실행할 수 있다. 도 15b를 참고하면, 웨어러블 장치(101)의 표시 영역 내에서, 완료("done")와 같은 지정된 텍스트를 포함하는 버튼의 형태를 가지는 시각적 객체(1560)가 예시적으로 도시되지만, 실시예가 이에 제한되는 것은 아니다.Referring to FIG. 15B, the wearable device 101 may execute a plurality of applications matched to the external object 1510 in a state 1503 that identifies a curve drawn by the external object 1510. For example, within the state 1503 of identifying the path of a portion of the external object 1510, or the curve drawn by a material (e.g., ink and/or graphite) included in the external object 1510, the wearable device 101 may execute the plurality of applications in response to an input indicating selection of a visual object 1560. Referring to FIG. 15B, within the display area of the wearable device 101, a visual object 1560 having the form of a button containing designated text such as “done” is exemplarily shown, but the embodiment does not apply to this. It is not limited.

도 15b의 상태(1503) 내에서, 웨어러블 장치(101)는 외부 객체(1510)로 할당된 상기 복수의 어플리케이션들 각각으로부터 제공된 화면들(1571, 1572)이 배열된 멀티-윈도우를 표시할 수 있다. 웨어러블 장치(101)의 표시 영역의 적어도 일부분에 화면들(1571, 1572)을 표시할 수 있다. 도 15b를 참고하면, 웨어러블 장치(101)가 수직 방향 내에서 평행하게 결합된 화면들(1571, 1572)을 표시한 예시적인 케이스가 도시된다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치(101)는 상기 수직 방향과 상이한 방향(예, 수평 방향)을 따라 화면들(1571, 1572)을 표시할 수 있다. 웨어러블 장치(101)는 표시 영역 내에서 서로 이격된 부분들에 화면들(1571, 1572)을 표시할 수 있다.Within state 1503 of FIG. 15B, the wearable device 101 may display a multi-window in which screens 1571 and 1572 provided from each of the plurality of applications assigned to the external object 1510 are arranged. . Screens 1571 and 1572 may be displayed on at least a portion of the display area of the wearable device 101. Referring to FIG. 15B , an example case in which the wearable device 101 displays screens 1571 and 1572 combined in parallel in the vertical direction is shown. The embodiment is not limited to this, and the wearable device 101 may display the screens 1571 and 1572 along a direction (eg, horizontal direction) different from the vertical direction. The wearable device 101 may display screens 1571 and 1572 on portions spaced apart from each other within the display area.

도 15b를 참고하면, 상기 가정에 기반하여, 웨어러블 장치(101)는 녹음 어플리케이션에 대응하는 화면(1571) 및 노트 어플리케이션에 대응하는 화면(1572)을 표시할 수 있다. 웨어러블 장치(101)는 화면(1571) 내에서, 외부 객체(1510) 또는 외부 객체(1510)에 의해 그려진 곡선을 추적하는 동안 획득되었던 오디오 신호를 획득할 수 있다. 상기 오디오 신호가 발언(1523)을 포함하는 예시적인 케이스 내에서, 웨어러블 장치(101)는 화면(1571) 내에, 상기 발언(1523)에 대한 텍스트를 표시할 수 있다. 웨어러블 장치(101)는 화면(1572) 내에서, 상기 곡선을 표현한 이미지를 표시할 수 있다.Referring to FIG. 15B, based on the above assumption, the wearable device 101 may display a screen 1571 corresponding to the recording application and a screen 1572 corresponding to the note application. The wearable device 101 may acquire an audio signal that was acquired while tracking the external object 1510 or a curve drawn by the external object 1510 within the screen 1571. In the example case where the audio signal includes the utterance 1523, the wearable device 101 may display text for the utterance 1523 on the screen 1571. The wearable device 101 may display an image representing the curve within the screen 1572.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 멀티태스킹에 기반하여 외부 객체(1510)로 할당된 복수의 어플리케이션들을 실질적으로 동시에 실행할 수 있다. 웨어러블 장치(101)는 상기 복수의 어플리케이션들로부터 제공된 화면들(1571, 1572)이 배열된 멀티-윈도우를 표시할 수 있다. 웨어러블 장치(101)는, 상기 멀티-윈도우를 이용하여, 통신 회로를 포함하지 않은 외부 객체(1510)에 기반하여, 디지털 콘텐트를 획득하기 위한 하나 이상의 기능들을 실행할 수 있다.As described above, according to one embodiment, the wearable device 101 may substantially simultaneously execute a plurality of applications assigned to the external object 1510 based on multitasking. The wearable device 101 may display a multi-window in which screens 1571 and 1572 provided from the plurality of applications are arranged. The wearable device 101 may use the multi-window to execute one or more functions for acquiring digital content based on an external object 1510 that does not include a communication circuit.

이하에서는, 도 16을 참고하여, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체를 이용하여 상기 외부 객체로 매칭된 어플리케이션들을 실행하는 동작이 설명된다.Below, with reference to FIG. 16 , an operation in which the wearable device 101 uses an external object to execute applications matched to the external object, according to an embodiment, will be described.

도 16은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 16의 웨어러블 장치를 포함할 수 있다. 예를 들어, 도 16의 동작들은, 도 5의 웨어러블 장치(101) 및/또는 프로세서(510)에 의해 수행될 수 있다. 도 16의 동작들은, 도 8a 내지 도 8b, 도 9a 내지 도 9c, 도 10 내지 도 15a 내지 도 15b를 참고하여 상술된 웨어러블 장치(101)의 동작들과 관련될 수 있다. 도 16의 동작들은, 도 2의 동작들 중 적어도 하나(예, 도 2의 동작(220)) 및/또는 도 7의 동작들과 관련될 수 있다.Figure 16 shows an example of a flow chart for a wearable device, according to one embodiment. The wearable device 101 of FIG. 5 may include the wearable device of FIG. 16 . For example, the operations of FIG. 16 may be performed by the wearable device 101 and/or the processor 510 of FIG. 5 . The operations of FIG. 16 may be related to the operations of the wearable device 101 described above with reference to FIGS. 8A to 8B, 9A to 9C, and 10 to 15A to 15B. The operations of FIG. 16 may be related to at least one of the operations of FIG. 2 (e.g., operation 220 of FIG. 2) and/or the operations of FIG. 7.

도 16을 참고하면, 동작(1610) 내에서, 일 실시예에 따른, 웨어러블 장치는, 표시 영역 내에 포함된 외부 객체를 식별할 수 있다. 웨어러블 장치는 메모리(예, 도 5의 메모리(520)) 내에 저장된 정보에 기반하여, 웨어러블 장치로 등록된 외부 객체를 식별할 수 있다. 상기 정보는, 웨어러블 장치로 등록된 외부 객체의 형태, 색상 및/또는 크기를 지시하는 데이터를 포함할 수 있다. 웨어러블 장치는, 웨어러블 장치의 표시 영역과 적어도 부분적으로 중첩된 카메라(예, 도 3b의 동작 인식 카메라(340-2), 도 4b의 카메라들(440-9, 440-10) 및/또는 도 5의 카메라(540))로부터 획득된 프레임들에 기반하여, 상기 외부 객체를 식별할 수 있다. 웨어러블 장치가 외부 객체를 식별하는 것은, 외부 객체에 할당된 적어도 하나의 속성을 식별하는 동작을 포함할 수 있다.Referring to FIG. 16, within operation 1610, the wearable device according to one embodiment may identify an external object included in the display area. The wearable device can identify external objects registered as a wearable device based on information stored in memory (eg, memory 520 in FIG. 5). The information may include data indicating the shape, color, and/or size of an external object registered as a wearable device. The wearable device includes a camera (e.g., the motion recognition camera 340-2 in FIG. 3B, cameras 440-9, 440-10 in FIG. 4B, and/or FIG. 5) that at least partially overlaps the display area of the wearable device. Based on frames obtained from the camera 540, the external object can be identified. Identifying an external object by a wearable device may include identifying at least one attribute assigned to the external object.

도 16을 참고하면, 동작(1620) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 표시 영역 내 외부 객체의 위치에 기반하여 표시할 수 있다. 상기 제1 시각적 객체는, 동작(1610)에 기반하여 식별된 외부 객체를 강조하기 위하여 표시될 수 있다. 상기 제1 시각적 객체는, 예를 들어, 도 8a의 도형들(830, 840), 아이콘들(832, 842)을 포함할 수 있다. 상기 제1 시각적 객체는, 상기 어플리케이션을 지시하는 텍스트(예, 상기 어플리케이션으로 할당된 명칭)를 포함할 수 있다.Referring to FIG. 16, within operation 1620, according to one embodiment, the wearable device displays a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. You can. The first visual object may be displayed to highlight an external object identified based on the action 1610. The first visual object may include, for example, the shapes 830 and 840 and icons 832 and 842 of FIG. 8A. The first visual object may include text indicating the application (eg, a name assigned to the application).

도 16을 참고하면, 동작(1630) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체의 모션과 관련된 제1 정보, 또는 외부 객체에 의해 그려진 이미지를 포함하는 제2 정보 중 적어도 하나를 획득할 수 있다. 예를 들어, 웨어러블 장치는 외부 객체에 할당된 속성에 의해 지시되는 외부 객체의 일부분(예, 도 9a의 지점(P))의 경로를 적어도 부분적으로 포함하는 상기 제1 정보를 획득할 수 있다. 상기 제1 정보는 일 평면(예, 도 9a의 노트(910)에 의해 형성된 평면) 상에 접촉된 외부 객체의 일부분의 경로를 포함할 수 있다. 예를 들어, 웨어러블 장치는 외부 객체에 할당된 속성에 기반하여, 외부 객체로부터 출력되는 물질(예, 잉크 및/또는 흑연)에 의해 그려진 적어도 하나의 획을 포함하는 상기 제2 정보를 획득할 수 있다. 예를 들어, 상기 적어도 하나의 획은, 외부 객체에 의해 그려진 적어도 하나의 획으로 지칭될 수 있다.Referring to FIG. 16, within operation 1630, according to one embodiment, the wearable device displays at least one of first information related to the motion of an external object or second information including an image drawn by the external object. It can be obtained. For example, the wearable device may obtain the first information that at least partially includes the path of a portion of the external object (eg, point P in FIG. 9A) indicated by an attribute assigned to the external object. The first information may include a path of a portion of an external object contacted on a plane (eg, a plane formed by the note 910 in FIG. 9A). For example, the wearable device may obtain the second information including at least one stroke drawn by a material (e.g., ink and/or graphite) output from the external object, based on the attribute assigned to the external object. there is. For example, the at least one stroke may be referred to as at least one stroke drawn by an external object.

도 16을 참고하면, 동작(1640) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 할당된 속성에 기반하여, 제1 정보 또는 제2 정보 중 어느 한 정보를 선택하고, 선택된 정보를 이용하여 어플리케이션을 실행하기 위한 제2 시각적 객체를 표시할 수 있다. 상기 제2 시각적 객체는, 도 9a 내지 도 9c의 버튼(940)을 포함할 수 있다. 일 실시예에 따른, 웨어러블 장치는 외부 객체에 할당된 속성을 이용하여, 동작(1630)의 상기 제1 정보 또는 상기 제2 정보 중 어느 한 정보를 선택적으로 획득할 수 있다. 동작(1640) 이후, 웨어러블 장치는 상기 제2 시각적 객체를 선택함을 지시하는 입력에 응답하여, 상기 선택된 정보에 기반하여 어플리케이션을 실행할 수 있다. 어플리케이션의 실행에 기반하여, 웨어러블 장치는 상기 선택된 정보에 기반하는 어플리케이션의 기능을 실행할 수 있다.Referring to FIG. 16, in operation 1640, according to one embodiment, the wearable device selects either first information or second information based on an attribute assigned to an external object, and selects the selected information. A second visual object for executing an application can be displayed using . The second visual object may include the button 940 of FIGS. 9A to 9C. According to one embodiment, a wearable device may selectively obtain either the first information or the second information of operation 1630 using attributes assigned to an external object. After operation 1640, the wearable device may execute an application based on the selected information in response to an input indicating selection of the second visual object. Based on the execution of the application, the wearable device may execute the function of the application based on the selected information.

도 6a 내지 도 6b, 도 7 내지 도 16을 참고하여 상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 기반하여 어플리케이션을 실행하기 위하여, 상기 외부 객체를 등록하기 위한 입력을 요구할 수 있다. 하지만, 실시예가 이에 제한되는 것은 아니다. 이하에서는, 도 17 내지 도 18을 참고하여, 일 실시예에 따른, 웨어러블 장치가, 상기 입력과 독립적으로, 외부 객체를 식별하고, 식별된 외부 객체에 대응하는 적어도 하나의 어플리케이션을 실행하는 동작의 일 예가 설명된다.As described above with reference to FIGS. 6A to 6B and FIGS. 7 to 16, according to one embodiment, a wearable device requests an input to register an external object in order to execute an application based on the external object. You can. However, the embodiment is not limited thereto. Hereinafter, with reference to FIGS. 17 and 18, an operation in which a wearable device, according to an embodiment, identifies an external object independently of the input and executes at least one application corresponding to the identified external object is described. An example is explained.

도 17은, 일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(130)를 추적하여 획득된 정보에 기반하여, 적어도 하나의 어플리케이션을 추천하기 위한 UI를 표시하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 17의 웨어러블 장치(101)를 포함할 수 있다.FIG. 17 illustrates an example of an operation in which the wearable device 101 displays a UI for recommending at least one application based on information obtained by tracking an external object 130, according to an embodiment. . The wearable device 101 of FIG. 5 may include the wearable device 101 of FIG. 17 .

도 17을 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 표시 영역 내에 포함된 외부 객체(1705)를 식별한 상태(1701)가 도시된다. 이하에서, 상태(1701)는, 웨어러블 장치(101)가 도 6a 내지 도 6d 및/또는 도 7을 참고하여 상술된, 외부 객체(1705)를 등록함을 지시하는 입력을 수신하기 이전의 상태인 것으로 가정한다. 예를 들어, 상태(1701) 내에서, 웨어러블 장치(101)는, 표시 영역 내에 포함된 외부 객체(1705)의 형태, 색상 및/또는 크기와 일치하는 정보를 식별하지 못할 수 있다. 외부 객체(1705)가 웨어러블 장치(101)로 등록되지 않은 상태(1701) 내에서, 웨어러블 장치(101)는 외부 객체(1705)의 카테고리를 식별할 수 있다. 외부 객체(1705)가, 잉크 및/또는 흑연과 같은 물질을 포함하는 펜에 대응하는 지정된 카테고리로 분류되는 경우, 웨어러블 장치(101)는 외부 객체(1705)에 의해 그려지는 적어도 하나의 획을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 노트(1710) 상에서 외부 객체(1705)에 의해 그려지는 아날로그 콘텐트를 식별할 수 있다. 예를 들어, 외부 객체(1705)가 외부 객체(1705)를 쥔 손(140)에 의해 노트(1710) 상에서 이동됨에 따라, 웨어러블 장치(101)는 노트(1710) 상에 접착되고, 외부 객체(1705)로부터 출력된 잉크의 흔적을 식별할 수 있다.Referring to FIG. 17 , a state 1701 is shown in which the wearable device 101 has identified an external object 1705 included in the display area, according to one embodiment. Hereinafter, state 1701 is a state before the wearable device 101 receives an input indicating that it registers the external object 1705, described above with reference to FIGS. 6A to 6D and/or 7. It is assumed that For example, within state 1701, wearable device 101 may not be able to identify information that matches the shape, color, and/or size of external object 1705 included within the display area. In a state 1701 in which the external object 1705 is not registered with the wearable device 101, the wearable device 101 may identify the category of the external object 1705. If the external object 1705 is classified into a designated category corresponding to a pen containing a substance such as ink and/or graphite, the wearable device 101 identifies at least one stroke drawn by the external object 1705. can do. For example, the wearable device 101 may identify analog content drawn by an external object 1705 on the note 1710. For example, as the external object 1705 is moved on the note 1710 by the hand 140 holding the external object 1705, the wearable device 101 is glued on the note 1710, and the external object 1705 ( 1705), traces of printed ink can be identified.

도 17의 예시적인 상태(1701) 내에서, 웨어러블 장치(101)는 외부 객체(1705)에 의해 노트(1710) 상에 그려진 텍스트(1712)를 식별할 수 있다. 웨어러블 장치(101)는 카메라(예, 도 5의 카메라(540))로부터 획득되고, 노트(1710)를 포함하는 이미지에 기반하여, 텍스트(1712)를 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 상기 이미지에 대한 OCR을 수행하여, 텍스트(1712)를 식별할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는 외부 객체(1705)에 의해 생성된 텍스트(1712)에 포함된 정보에 기반하여, 웨어러블 장치(101)에 설치된 복수의 어플리케이션들 중 적어도 하나를 실행할 것을, 사용자(110)에게 추천할 수 있다. 예를 들어, 웨어러블 장치(101)는, 텍스트(1712)가 표 2에 포함된 포맷을 따라 배열된 문자들을 포함하는지 여부에 기반하여, 사용자(110)에게 추천될 적어도 하나의 어플리케이션을 선택할 수 있다. 표 2의 '#'은 0 내지 9 사이의 숫자를 의미할 수 있다.Within example state 1701 of FIG. 17 , wearable device 101 can identify text 1712 drawn on note 1710 by external object 1705 . The wearable device 101 may identify the text 1712 based on an image obtained from a camera (eg, camera 540 in FIG. 5) and including the note 1710. For example, the wearable device 101 may identify text 1712 by performing OCR on the image. According to one embodiment, the wearable device 101 executes at least one of a plurality of applications installed on the wearable device 101 based on information included in the text 1712 generated by the external object 1705. , can be recommended to the user 110. For example, the wearable device 101 may select at least one application to be recommended to the user 110 based on whether the text 1712 includes characters arranged according to the format included in Table 2. . '#' in Table 2 may mean a number between 0 and 9.

포맷format 추천될 어플리케이션Applications to be recommended ####-##-###월 #일
####년 #월 #일 등의 날짜 포맷
####-##-###Month #Day
Date format such as ####year #month #day etc.
캘린더 어플리케이션calendar application
## 시 ## 분 또는 ##:#### Hour ## Minute or ##:## 리마인더(또는 알람) 어플리케이션Reminder (or alarm) application 산술 연산자를 포함하는 수식Formulas containing arithmetic operators 계산기 어플리케이션calculator application 화폐 단위를 포함하는 숫자Numbers containing monetary units 결제 어플리케이션Payment application 그림을 포함하는 비문자적(non-textual) 정보Non-textual information, including pictures 노트 어플리케이션Note application 상기 포맷에 대응하지 않는 문자적 정보Textual information that does not correspond to the above format 노트 어플리케이션Note application

표 2을 참고하면, 웨어러블 장치(101)는 날짜를 기록하기 위한 관례적인 표기법(conventional notation)을 따라 기록된 손글씨를 식별하는 것에 기반하여, 캘린더 어플리케이션의 실행을 추천할 수 있다. 웨어러블 장치(101)는 시간을 기록하기 위한 관례적인 표기법을 따라 기록된 손글씨에 기반하여, 리마인더 어플리케이션의 실행을 추천할 수 있다. 도 17을 참고하면, 텍스트(1712)가 덧셈 연산자(+)를 포함하는 수식의 포맷을 가지기 때문에, 웨어러블 장치(101)는 텍스트(1712)에 기반하여 계산기 어플리케이션을 추천할 수 있다.도 17의 상태(1701) 내에서, 웨어러블 장치(101)는 표시 영역 내에 포함된 외부 객체(1705)와 중첩으로, 계산기 어플리케이션을 표현하는 아이콘(1721)을 표시할 수 있다. 웨어러블 장치(101)는 계산기 어플리케이션에 대응하는 아이콘(1721)과 함께, 웨어러블 장치(101) 내에 설치된 다른 어플리케이션을 표현하는 다른 아이콘을 표시할 수 있다. 예를 들어, 웨어러블 장치(101)는 텍스트(1712)에 기반하여 선택된 어플리케이션(예, 계산기 어플리케이션)의 아이콘(1721)과 함께, 웨어러블 장치(101)에 의해 최근에 실행된 어플리케이션을 표현하는 하나 이상의 아이콘들을 순차적으로 표시할 수 있다. Referring to Table 2, the wearable device 101 may recommend execution of the calendar application based on identifying handwriting written according to conventional notation for recording dates. The wearable device 101 may recommend execution of a reminder application based on handwriting written according to a customary notation for recording time. Referring to FIG. 17, because the text 1712 has the format of a formula including the addition operator (+), the wearable device 101 can recommend a calculator application based on the text 1712. In FIG. 17 Within state 1701, the wearable device 101 may display an icon 1721 representing a calculator application, overlapping with an external object 1705 included in the display area. The wearable device 101 may display an icon 1721 corresponding to the calculator application, as well as other icons representing other applications installed within the wearable device 101. For example, the wearable device 101 may display one or more icons representing applications recently executed by the wearable device 101, along with an icon 1721 of an application (e.g., a calculator application) selected based on the text 1712. Icons can be displayed sequentially.

도 17을 참고하면, 웨어러블 장치(101)가 복수의 아이콘들(1721, 1722, 1723, 1734)을 순차적으로 표시한 예시적인 상태(1701)가 도시된다. 아이콘들(1721, 1722, 1723, 1724) 중에서, 웨어러블 장치(101)는, 텍스트(1712)에 기반하여 추천된, 계산기 어플리케이션에 대응하는 아이콘(1721)을, 외부 객체(1705)의 일부분(예, 펜 촉과 같이, 잉크가 외부 객체(1705)로부터 출력되는 일부분)에 가장 가깝게 배치할 수 있다.Referring to FIG. 17 , an example state 1701 is shown in which the wearable device 101 sequentially displays a plurality of icons 1721, 1722, 1723, and 1734. Among the icons 1721, 1722, 1723, and 1724, the wearable device 101 selects the icon 1721 corresponding to the calculator application, which is recommended based on the text 1712, as part of the external object 1705 (e.g. , such as a pen tip, ink can be placed closest to the part where the ink is output from the external object 1705.

일 실시예에 따른, 웨어러블 장치(101)가 외부 객체(1705) 상에 아이콘들(1721, 1722, 1723, 1724)을 표시하는 순서는, 웨어러블 장치(101)에 의해 실행된 순서와 관련될 수 있다. 예를 들어, 텍스트(1712)에 기반하여 추천된 계산기 어플리케이션에 대응하는 아이콘(1721)을 제외한 아이콘들(1722, 1723, 1724)의 순서는, 웨어러블 장치(101)에 의해 최근에 실행된 어플리케이션들의 순서에 대응할 수 있다. 예를 들어, 웨어러블 장치(101)가 어느 어플리케이션도 추천하지 않는 경우, 웨어러블 장치(101)는 최근에 실행된 복수의 어플리케이션들에 대한 아이콘들을 표시할 수 있다.According to one embodiment, the order in which the wearable device 101 displays the icons 1721, 1722, 1723, and 1724 on the external object 1705 may be related to the order executed by the wearable device 101. there is. For example, the order of the icons 1722, 1723, and 1724, excluding the icon 1721 corresponding to the calculator application recommended based on the text 1712, is the order of the applications recently executed by the wearable device 101. You can respond to the order. For example, when the wearable device 101 does not recommend any applications, the wearable device 101 may display icons for a plurality of recently executed applications.

도 17을 참고하면, 웨어러블 장치(101)는 표시 영역을 통해 보여지는 외부 객체(1705)의 형태에 기반하여, 아이콘들(1721, 1722, 1723, 1724)을 정렬할 수 있다. 예를 들어, 아이콘들(1721, 1722, 1723, 1724)은, 표시 영역 내에서 외부 객체(1705)가 연장된 방향을 따라 배열될 수 있다. 외부 객체(1705) 상에 중첩되는 아이콘들(1721, 1722, 1723, 1724)의 개수는, 표시 영역을 통해 보여지는 외부 객체(1705)의 길이, 및 아이콘들(1721, 1722, 1723, 1724) 각각의 사이즈와 관련될 수 있다. 외부 객체(1705)와 함께 표시되는 아이콘들의 개수는, 지정된 상한을 가지거나, 또는 표시 영역을 통해 보여지는 외부 객체(1705)의 길이에 기반하여 적응적으로 변경될 수 있다.Referring to FIG. 17 , the wearable device 101 may align icons 1721, 1722, 1723, and 1724 based on the shape of the external object 1705 shown through the display area. For example, the icons 1721, 1722, 1723, and 1724 may be arranged along the direction in which the external object 1705 extends within the display area. The number of icons 1721, 1722, 1723, and 1724 overlapping on the external object 1705 is determined by the length of the external object 1705 shown through the display area, and the icons 1721, 1722, 1723, and 1724. It can be related to each size. The number of icons displayed together with the external object 1705 may have a specified upper limit or may be adaptively changed based on the length of the external object 1705 shown through the display area.

도 17을 참고하면, 아이콘들(1721, 1722, 1723, 1724)을 이용하여 어플리케이션들을 추천한 상태(1701) 내에서, 웨어러블 장치(101)는 상기 추천된 어플리케이션들 중 적어도 하나를 실행함을 지시하는 입력을 식별할 수 있다. 예를 들어, 웨어러블 장치(101)는 아이콘(1721)을 선택함을 지시하는 입력에 응답하여, 아이콘(1721)에 대응하는 계산기 어플리케이션을 실행할 수 있다. 웨어러블 장치(101)는 텍스트(1712)에 포함된 수식에 기반하여, 계산기 어플리케이션을 실행하여, 상기 수식의 결과를 출력할 수 있다. 상기 결과는, 웨어러블 장치(101)의 표시 영역 내에서 시각적으로 표시되거나, 및/또는 웨어러블 장치(101)의 스피커를 통해 오디오 신호의 형태로 출력할 수 있다.Referring to FIG. 17, in a state 1701 in which applications are recommended using icons 1721, 1722, 1723, and 1724, the wearable device 101 indicates executing at least one of the recommended applications. input can be identified. For example, the wearable device 101 may execute a calculator application corresponding to the icon 1721 in response to an input indicating selection of the icon 1721. The wearable device 101 may execute a calculator application based on the formula included in the text 1712 and output the result of the formula. The results may be displayed visually within the display area of the wearable device 101 and/or output in the form of an audio signal through a speaker of the wearable device 101.

도 17을 참고하면, 계산기 어플리케이션을 실행한 이후의 상태(1702) 내에서, 웨어러블 장치(101)는 외부 객체(1705)를 등록하기 위한 윈도우(1740)를 표시할 수 있다. 윈도우(1740) 내에서, 웨어러블 장치(101)는 계산기 어플리케이션을 등록할지를 가이드하기 위한 텍스트(예, "이 펜에 계산기를 등록할까요?")를 표시할 수 있다. 윈도우(1740) 내에서, 웨어러블 장치(101)는 상기 계산기 어플리케이션을 등록하기 위한 버튼(1742) 및 윈도우(1740)의 표시를 중단하기 위한 버튼(1746)을 표시할 수 있다. 버튼(1742)을 선택함을 지시하는 입력에 응답하여, 웨어러블 장치(101)는 외부 객체(1705)를 등록할 수 있다. 외부 객체(1705)를 등록하는 상태 내에서, 웨어러블 장치(101)는 외부 객체(1705)에 기반하여 계산기 어플리케이션을 실행하기 위한 정보를 저장할 수 있다.Referring to FIG. 17, in the state 1702 after executing the calculator application, the wearable device 101 may display a window 1740 for registering an external object 1705. Within the window 1740, the wearable device 101 may display text (e.g., “Do you want to register a calculator to this pen?”) to guide whether to register a calculator application. Within the window 1740, the wearable device 101 may display a button 1742 for registering the calculator application and a button 1746 for stopping display of the window 1740. In response to an input indicating selection of the button 1742, the wearable device 101 may register the external object 1705. In the state of registering the external object 1705, the wearable device 101 may store information for executing a calculator application based on the external object 1705.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 펜과 같은 외부 객체(1705)를 식별한 상태(1701) 내에서, 외부 객체(1705)에 의해 그려지는 아날로그 콘텐트를 식별할 수 있다. 외부 객체(1705)가 등록되지 않은 경우, 웨어러블 장치(101)는 상기 아날로그 콘텐트로부터 변환된 디지털 콘텐트에 기반하여, 적어도 하나의 어플리케이션의 실행을 추천할 수 있다. 웨어러블 장치(101)는 어플리케이션의 실행을 추천하여, 펜과 같은 외부 객체(1705)와 관련된 사용자 경험을 강화할 수 있다.As described above, according to one embodiment, the wearable device 101 can identify analog content drawn by an external object 1705, within the state 1701 of identifying the external object 1705, such as a pen. there is. If the external object 1705 is not registered, the wearable device 101 may recommend execution of at least one application based on digital content converted from the analog content. The wearable device 101 may enhance the user experience associated with an external object 1705, such as a pen, by recommending execution of an application.

도 18은, 일 실시예에 따른, 웨어러블 장치에 대한 흐름도의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는, 도 18의 웨어러블 장치를 포함할 수 있다. 예를 들어, 도 18의 동작들은, 도 5의 웨어러블 장치(101) 및/또는 프로세서(510)에 의해 수행될 수 있다. 도 18의 동작들은, 도 17을 참고하여 상술된 웨어러블 장치(101)의 동작들과 관련될 수 있다. 도 18의 동작들은, 도 2, 도 7 및/또는 도 16의 동작들과 관련될 수 있다.Figure 18 shows an example of a flow chart for a wearable device, according to one embodiment. The wearable device 101 of FIG. 5 may include the wearable device of FIG. 18 . For example, the operations of FIG. 18 may be performed by the wearable device 101 and/or the processor 510 of FIG. 5 . The operations of FIG. 18 may be related to the operations of the wearable device 101 described above with reference to FIG. 17 . The operations of FIG. 18 may be related to the operations of FIG. 2, FIG. 7, and/or FIG. 16.

도 18을 참고하면, 동작(1810) 내에서, 일 실시예에 따른, 웨어러블 장치는, 하나 이상의 획들을 그리기 위한 외부 객체를 식별할 수 있다. 상기 외부 객체는, 도 17의 외부 객체(1705)와 같이, 웨어러블 장치에 등록된 외부 객체와 상이한 다른 외부 객체일 수 있다. 웨어러블 장치는, 웨어러블 장치 내 카메라(예, 도 5의 카메라(540))를 이용하여, 상기 외부 객체를 식별할 수 있다. 예를 들어, 웨어러블 장치는 펜을 포함하는 외부 객체를 식별할 수 있다.Referring to FIG. 18, within operation 1810, according to one embodiment, the wearable device may identify an external object for drawing one or more strokes. The external object may be an external object different from the external object registered in the wearable device, such as the external object 1705 of FIG. 17 . The wearable device may identify the external object using a camera within the wearable device (eg, camera 540 in FIG. 5). For example, a wearable device can identify external objects, including a pen.

도 18을 참고하면, 동작(1820) 내에서, 일 실시예에 따른, 웨어러블 장치는, 외부 객체에 인접한 하나 이상의 획들에 의해 지시되는 미디어 콘텐트를 식별할 수 있다. 웨어러블 장치는 외부 객체의 모션을 추적하여, 외부 객체에 그려지는 하나 이상의 획들을 식별할 수 있다. 웨어러블 장치는, 웨어러블 장치 내 카메라를 이용하여 상기 하나 이상의 획들을 포함하는 이미지를 획득할 수 있다. 웨어러블 장치는 획득된 이미지에 대한 OCR을 수행하여, 상기 미디어 콘텐트를 식별할 수 있다. 웨어러블 장치에 의해 식별된 상기 미디어 콘텐트는, 상기 하나 이상의 획들에 의해 지시되는 텍스트, 및/또는 이미지를 포함할 수 있다.Referring to FIG. 18, within operation 1820, the wearable device, according to one embodiment, may identify media content indicated by one or more strokes adjacent to an external object. A wearable device may track the motion of an external object and identify one or more strokes drawn on the external object. The wearable device may acquire an image including the one or more strokes using a camera within the wearable device. The wearable device can identify the media content by performing OCR on the acquired image. The media content identified by the wearable device may include text and/or images indicated by the one or more strokes.

도 18을 참고하면, 동작(1830) 내에서, 일 실시예에 따른, 웨어러블 장치는, 지정된 타입의 미디어 콘텐트가 식별되었는지 여부를 판단할 수 있다. 예를 들어, 웨어러블 장치는, 미디어 콘텐트 내에 표 2의 지정된 포맷을 따라 배열된 텍스트가 포함되어 있는지 여부를 식별할 수 있다. 동작(1830)의 지정된 타입은, 표 2의 지정된 포맷과 관련될 수 있다. 예를 들어, 지정된 타입은, 웨어러블 장치에 의해 식별된 미디어 콘텐트에 대응하는 적어도 하나의 어플리케이션을 식별하기 위해 설정될 수 있다.Referring to FIG. 18, in operation 1830, the wearable device, according to one embodiment, may determine whether media content of a specified type has been identified. For example, the wearable device can identify whether the media content includes text arranged according to the specified format in Table 2. A designated type of operation 1830 may be associated with a designated format in Table 2. For example, the designated type may be set to identify at least one application corresponding to media content identified by the wearable device.

지정된 타입의 미디어 콘텐트를 식별한 경우(1830-예), 동작(1840)에 기반하여, 웨어러블 장치는 지정된 타입에 대응하는 어플리케이션을 표현한 아이콘을 포함하는, 적어도 하나의 아이콘을 표시할 수 있다. 예를 들어, 도 17의 아이콘(1721)과 같이, 웨어러블 장치는 지정된 타입에 대응하는 어플리케이션의 실행을 가이드하기 위한 아이콘을 표시할 수 있다. 웨어러블 장치는 상기 지정된 타입에 대응하는 어플리케이션을 표현하는 아이콘과 함께, 웨어러블 장치에 의해 최근에 실행되었던 다른 어플리케이션들을 표현하는 아이콘들을 표시할 수 있다. 웨어러블 장치에 의해 표시되는 상기 아이콘들은, 표시 영역 내에서 외부 객체와 중첩으로 표시될 수 있다. 상기 아이콘들이 상기 외부 객체와 중첩으로 표시되기 때문에, 웨어러블 장치는, 미디어 콘텐트가 상기 아이콘들에 의해 가려지는 것을 방지할 수 있다. 예를 들어, 웨어러블 장치는 상기 외부 객체 상에 상기 아이콘들을 중첩으로 표시하여, 미디어 콘텐트의 가시성(visibility)을 유지할 수 있다. When media content of the specified type is identified (1830 - Yes), based on operation 1840, the wearable device may display at least one icon, including an icon representing an application corresponding to the specified type. For example, like the icon 1721 in FIG. 17, the wearable device may display an icon to guide the execution of an application corresponding to a specified type. The wearable device may display icons representing applications corresponding to the specified type, as well as icons representing other applications that have been recently executed by the wearable device. The icons displayed by the wearable device may be displayed overlapping with external objects within the display area. Because the icons are displayed overlapping with the external object, the wearable device can prevent media content from being obscured by the icons. For example, a wearable device may maintain visibility of media content by displaying the icons in an overlapping manner on the external object.

지정된 타입의 미디어 콘텐트를 식별하지 못한 경우(1830-아니오), 웨어러블 장치는 동작(1850)을 수행하여, 어플리케이션들이 실행된 히스토리에 기반하여, 적어도 하나의 아이콘을 표시할 수 있다. 예를 들어, 웨어러블 장치는, 웨어러블 장치에 의해 최근에 실행되었던, 지정된 수의 어플리케이션들을 표현하는 아이콘들을 표시할 수 있다. 표시 영역 내에서, 웨어러블 장치는 상기 아이콘들을 외부 객체와 중첩으로 표시할 수 있다. 외부 객체가, 펜과 같이, 길이 방향으로 연장된 형태를 가지는 경우, 웨어러블 장치는 표시 영역 내에서 상기 길이 방향을 따라 상기 아이콘들을 배열할 수 있다. If media content of the specified type is not identified (1830-No), the wearable device may perform operation 1850 and display at least one icon based on the application execution history. For example, a wearable device can display icons representing a specified number of applications that have recently been executed by the wearable device. Within the display area, the wearable device may display the icons overlapping with external objects. When the external object has a shape that extends in the length direction, such as a pen, the wearable device can arrange the icons along the length direction within the display area.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치는 외부 객체와 전기적으로 통신하는 동작과 독립적으로, 상기 외부 객체를 인식할 수 있다. 상기 외부 객체의 인식에 기반하여, 웨어러블 장치는 상기 외부 객체에 기반하는 디지털 콘텐트를 생성하는 기능을 실행할 수 있다. 실시예가 이에 제한되는 것은 아니며, 웨어러블 장치는 외부 객체와 통신하여, 웨어러블 장치에 설치된 어플리케이션의 실행에 이용되는 정보를 획득할 수 있다. 이하에서는, 도 19를 참고하여, 일 실시예에 따른, 웨어러블 장치가 외부 객체와 통신하는 동작의 일 예가 설명된다.As described above, according to one embodiment, the wearable device may recognize the external object independently of the operation of electrically communicating with the external object. Based on the recognition of the external object, the wearable device may execute a function of generating digital content based on the external object. The embodiment is not limited to this, and the wearable device may communicate with an external object to obtain information used to execute an application installed on the wearable device. Below, with reference to FIG. 19, an example of an operation in which a wearable device communicates with an external object according to an embodiment is described.

도 19는, 일 실시예에 따른, 웨어러블 장치(101)가 외부 전자 장치(1920)에 의해 획득된 정보에 기반하여 어플리케이션을 실행하는 동작의 일 예를 도시한다. 도 5의 웨어러블 장치(101)는 도 19의 웨어러블 장치(101)를 포함할 수 있다. FIG. 19 illustrates an example of an operation in which the wearable device 101 executes an application based on information acquired by the external electronic device 1920, according to an embodiment. The wearable device 101 of FIG. 5 may include the wearable device 101 of FIG. 19 .

도 19를 참고하면, 일 실시예에 따른, 웨어러블 장치(101)가 외부 전자 장치(1920)를 식별한 이후의 상태들(1901, 1902, 1903)이 도시된다. 이하에서는 스마트 워치의 형태를 가지는 외부 전자 장치(1920)가 예시적으로 설명되지만, 실시예가 이에 제한되는 것은 아니다. 예를 들어, 웨어러블 장치(101)는 스마트 링, 또는 스타일러스와 같은 외부 전자 장치(1920)와 연결될 수 있다. 웨어러블 장치(101)는 블루투스와 같은 무선 통신 프로토콜에 기반하여 외부 전자 장치(1920)를 식별할 수 있다. 웨어러블 장치(101)는 표시 영역과 적어도 부분적으로 중첩된 FoV를 가지는 카메라(예, 도 5의 카메라(540))를 이용하여 외부 전자 장치(1920)를 식별할 수 있다.Referring to FIG. 19, states 1901, 1902, and 1903 after the wearable device 101 identifies the external electronic device 1920, according to one embodiment, are shown. Hereinafter, an external electronic device 1920 in the form of a smart watch will be described as an example, but the embodiment is not limited thereto. For example, the wearable device 101 may be connected to an external electronic device 1920, such as a smart ring or stylus. The wearable device 101 can identify the external electronic device 1920 based on a wireless communication protocol such as Bluetooth. The wearable device 101 may identify the external electronic device 1920 using a camera (e.g., camera 540 in FIG. 5) having a FoV that at least partially overlaps the display area.

도 19의 상태(1901) 내에서, 웨어러블 장치(101)는 도 6a의 상태들(601, 602)과 유사하게, 웨어러블 장치(101) 내에 설치된 어플리케이션들의 리스트(1910)를 표시할 수 있다. 리스트(1910) 내에 포함된 아이콘들(1911, 1912, 1913) 중에서, 웨어러블 장치(101)는 경로(1930)를 따라 드래그되는 외부 전자 장치(1920) 상으로 드래그되는 아이콘(1913)을 식별할 수 있다. 경로(1930)를 따라 아이콘(1913)을 드래그하는 입력에 기반하여, 웨어러블 장치(101)는 외부 전자 장치(1920)로, 아이콘(1913)에 대응하는 노트 어플리케이션을 할당할 수 있다.Within state 1901 of FIG. 19 , the wearable device 101 may display a list 1910 of applications installed within the wearable device 101 , similar to the states 601 and 602 of FIG. 6A . Among the icons 1911, 1912, and 1913 included in the list 1910, the wearable device 101 can identify the icon 1913 that is dragged onto the external electronic device 1920 along the path 1930. there is. Based on the input of dragging the icon 1913 along the path 1930, the wearable device 101 may allocate a note application corresponding to the icon 1913 to the external electronic device 1920.

도 19를 참고하면, 웨어러블 장치(101)가 외부 전자 장치(1920)로 상기 노트 어플리케이션을 할당한 이후의 상태(1902)가 도시된다. 상태(1902) 내에서, 웨어러블 장치(101)는 외부 전자 장치(1920)와 인접한 표시 영역의 일부분에, 외부 전자 장치(1920)으로 할당된 상기 노트 어플리케이션을 표현하는 아이콘(1913)을 표시할 수 있다. 상태(1902) 내에서, 웨어러블 장치(101)는 카메라를 이용하여 외부 전자 장치(1920)의 모션을 추적할 수 있다. 예를 들어, 웨어러블 장치(101)는 경로(1940)를 따라 이동되는 외부 전자 장치(1920)의 모션을 식별할 수 있다. 웨어러블 장치(101)는 카메라의 프레임들로부터 외부 전자 장치(1920)의 2차원적(two-dimensional) 모션을 식별할 수 있다. 일 실시예에 따른, 웨어러블 장치(101)는, 외부 전자 장치(1920)와 전기적으로 통신하여, 상기 모션을 입체적으로 식별할 수 있다. 예를 들어, 상태(1902) 내에서, 웨어러블 장치(101)는 외부 전자 장치(1920)로, 외부 전자 장치(1920) 내 센서(예, IMU(inertial measurement unit))에 의해 식별된 정보를 요청할 수 있다. 상기 정보는, 경로(1940)를 따라 이동된 외부 전자 장치(1920)의 3차원적 모션을 포함할 수 있다. 외부 전자 장치(1920)로부터 수신된 상기 정보에 기반하여, 웨어러블 장치(101)는 외부 전자 장치(1920)의 3차원적 모션을 식별할 수 있다. Referring to FIG. 19, a state 1902 is shown after the wearable device 101 assigns the note application to the external electronic device 1920. Within state 1902, the wearable device 101 may display an icon 1913 representing the note application assigned to the external electronic device 1920 in a portion of the display area adjacent to the external electronic device 1920. there is. Within state 1902, the wearable device 101 may track the motion of the external electronic device 1920 using a camera. For example, the wearable device 101 may identify the motion of the external electronic device 1920 moving along the path 1940. The wearable device 101 can identify the two-dimensional motion of the external electronic device 1920 from the camera frames. According to one embodiment, the wearable device 101 can electrically communicate with an external electronic device 1920 and identify the motion in three dimensions. For example, within state 1902, wearable device 101 may request information identified by a sensor (e.g., an inertial measurement unit (IMU)) within external electronic device 1920. You can. The information may include three-dimensional motion of the external electronic device 1920 moved along the path 1940. Based on the information received from the external electronic device 1920, the wearable device 101 can identify the three-dimensional motion of the external electronic device 1920.

도 19를 참고하면, 외부 전자 장치(1920)를 추적하여 획득된 정보에 기반하여 노트 어플리케이션을 실행한 이후의 상태(1903)가 도시된다. 상태(1902) 내에서, 상기 노트 어플리케이션을 실행하기 위한 버튼(1950)을 선택하는 입력에 기반하여, 웨어러블 장치(101)는 상태(1902)로부터 상태(1903)로 스위칭할 수 있다. 상태(1903) 내에서, 웨어러블 장치(101)는 노트 어플리케이션을 실행하여, 외부 전자 장치(1920)를 추적하여 획득된 정보에 기반하는 디지털 콘텐트를 저장하기 위한 화면(1960)을 표시할 수 있다. 화면(1960) 내에서, 웨어러블 장치(101)는 상기 경로(1940)를 따라 이동된 외부 전자 장치(1920)의 모션을 표현한 시각적 객체(1962)를 표시할 수 있다. 웨어러블 장치(101)가 외부 전자 장치(1920)의 센서를 이용하여 경로(1940)를 따라 이동된 외부 전자 장치(1920)의 입체적인 모션을 식별하였기 때문에, 웨어러블 장치(101)는 시각적 객체(1962)를 입체적으로 표시할 수 있다.Referring to FIG. 19 , a state 1903 after executing a note application based on information obtained by tracking an external electronic device 1920 is shown. Within state 1902, the wearable device 101 may switch from state 1902 to state 1903 based on an input for selecting a button 1950 for executing the note application. Within state 1903, the wearable device 101 may execute a note application and display a screen 1960 for storing digital content based on information obtained by tracking the external electronic device 1920. Within the screen 1960, the wearable device 101 may display a visual object 1962 representing the motion of the external electronic device 1920 moved along the path 1940. Because the wearable device 101 uses the sensor of the external electronic device 1920 to identify the three-dimensional motion of the external electronic device 1920 moving along the path 1940, the wearable device 101 detects the visual object 1962 can be displayed three-dimensionally.

도 19의 예시적인 상태(1903) 내에서, 웨어러블 장치(101)는 축들(x 축, y 축, 및 z 축)에 기반하여, 시각적 객체(1962)를 입체적으로 열람하기 위한(for browsing) 화면(1960)을 표시할 수 있다. 예를 들어, 상기 축들에 기반하여, 웨어러블 장치(101)는 상기 시각적 객체(1962)를 회전하기 위한 입력을 식별할 수 있다. 상기 입력에 기반하여, 웨어러블 장치(101)는 상기 시각적 객체(1962)를 회전하거나, 이동하여, 3차원 공간 좌표계 내에서 상기 시각적 객체(1962)를 열람하는 사용자 경험을 제공할 수 있다. 웨어러블 장치(101)는 화면(1960) 내에서, 시각적 객체(1962)에 대응하는 디지털 콘텐트를 저장하기 위한 버튼(1964)을 표시할 수 있다. 버튼(1964)을 선택함을 지시하는 입력에 기반하여, 웨어러블 장치(101)는 메모리 내에, 시각적 객체(1962)와 같이 경로(1940)를 입체적으로 표시하기 위한 정보를 저장할 수 있다.In the example state 1903 of FIG. 19, the wearable device 101 displays a screen for browsing a visual object 1962 in three dimensions based on axes (x-axis, y-axis, and z-axis). (1960) can be displayed. For example, based on the axes, the wearable device 101 may identify an input for rotating the visual object 1962. Based on the input, the wearable device 101 may rotate or move the visual object 1962 to provide a user experience of viewing the visual object 1962 within a three-dimensional spatial coordinate system. The wearable device 101 may display a button 1964 for storing digital content corresponding to a visual object 1962 within the screen 1960. Based on the input indicating selection of the button 1964, the wearable device 101 may store information for three-dimensionally displaying the path 1940 as a visual object 1962 in the memory.

상술한 바와 같이, 일 실시예에 따른, 웨어러블 장치(101)는 외부 전자 장치(1920)를 등록하는 것을 지원할 수 있다. 외부 전자 장치(1920) 내에 포함된 센서를 이용하여, 웨어러블 장치(101)는 외부 전자 장치(1920)를 추적하여 획득된 정보를 강화할 수 있다. 예를 들어, 외부 전자 장치(1920)에 포함된 센서를 이용하여, 웨어러블 장치(101)는 카메라를 이용하여 획득된 정보를 강화할 수 있다.As described above, the wearable device 101 according to one embodiment may support registering an external electronic device 1920. Using a sensor included in the external electronic device 1920, the wearable device 101 can track the external electronic device 1920 and enhance information obtained. For example, using a sensor included in the external electronic device 1920, the wearable device 101 can enhance information acquired using a camera.

일 실시예에서, 웨어러블 장치가 외부 객체의 모션, 또는 외부 객체에 의해 그려진 아날로그 콘텐트를 인식하여, 웨어러블 장치 내에 설치된 어플리케이션을 실행하는 방안이 요구될 수 있다. 상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치(wearable device)(예, 도 1 및/또는 도 5의 웨어러블 장치(101))는, 디스플레이(예, 도 5의 디스플레이(530)), 카메라(예, 도 5의 카메라(540)), 및 프로세서(예, 도 5의 프로세서(510))를 포함하도록, 구성될 수 있다. 상기 프로세서는, 상기 카메라를 이용하여 상기 디스플레이의 표시 영역 내에 포함된 외부 객체(예, 도 1의 외부 객체(130))를 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 대응하는 어플리케이션을 표현하는(representing) 제1 시각적 객체(예, 도 1의 아이콘(160))를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획(stroke)을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 외부 객체에 할당된(assigned) 속성(attribute)에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체(예,도 9a의 버튼(940))를, 상기 위치에 기반하여, 표시하도록, 구성될 수 있다. 일 실시예에 따른, 웨어러블 장치는 외부 객체를 추적하여 획득된 정보를 이용하여, 웨어러블 장치 내에 설치된 어플리케이션을 실행할 수 있다. In one embodiment, there may be a need for a wearable device to recognize the motion of an external object or analog content drawn by an external object to execute an application installed in the wearable device. As described above, according to one embodiment, a wearable device (e.g., wearable device 101 of FIGS. 1 and/or 5) includes a display (e.g., display 530 of FIG. 5) and a camera. It may be configured to include a processor (e.g., the camera 540 of FIG. 5) and a processor (e.g., the processor 510 of FIG. 5). The processor may be configured to identify an external object (eg, external object 130 in FIG. 1) included in the display area of the display using the camera. The processor is configured to display a first visual object (e.g., icon 160 in FIG. 1) representing an application corresponding to the external object based on the location of the external object in the display area. It can be. The processor may be configured to display at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object. It can be configured to obtain one. The processor creates a second visual object (e.g., Figure 2) for executing the application using information selected from the first information or the second information, according to an attribute assigned to the external object. The button 940 of 9a may be configured to display based on the location. According to one embodiment, a wearable device may execute an application installed within the wearable device using information obtained by tracking an external object.

예를 들어, 상기 프로세서는, 상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여(by tracking), 상기 제1 정보를 획득하도록, 구성될 수 있다.For example, the processor may be configured to obtain the first information by tracking the path based on whether a portion of the external object indicated by the attribute is in contact with the plane. there is.

예를 들어, 상기 프로세서는, 상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to display within the display one or more lines having the form of the tracked path.

예를 들어, 상기 프로세서는, 제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하도록, 구성될 수 있다. 상기 프로세서는, 상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하도록, 구성될 수 있다. 상기 프로세서는, 상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to identify that the external object moves out of the display area due to a motion of the wearable device while tracking the path using the camera, which is the first camera. The processor may be configured to track the path of the external object using a second camera facing the external object that has moved outside the display area. The processor may be configured to display, within the display, a line having the shape of the path tracked by the second camera.

예를 들어, 상기 프로세서는, 상기 속성에 의해 설정된(set) 색상, 투명도, 또는 두께 중 적어도 하나를 가지는 상기 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to display, in the display, the one or more lines having at least one of color, transparency, or thickness set by the attribute.

예를 들어, 상기 프로세서는, 상기 외부 객체의 일 단으로부터 연장되는 잉크(ink)에 의해 그려진 상기 적어도 하나의 획을 추적하도록 선택된, 상기 속성에 기반하여, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 제2 정보를 획득하도록, 구성될 수 있다.For example, the processor is selected to track the at least one stroke drawn by ink extending from one end of the external object, based on the attribute, among the first information or the second information. It may be configured to obtain the second information.

예를 들어, 상기 프로세서는, 상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하도록, 구성될 수 있다.For example, the processor may be configured to execute the application using the information selected according to the attribute in response to an input indicating selection of the second visual object.

예를 들어, 상기 프로세서는, 상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하도록, 구성될 수 있다.For example, the processor may be configured to execute the application based on the second visual object and display a screen including an image indicated by the information selected according to the attribute on the display. .

예를 들어, 상기 전자 장치는, 통신 회로를 더 포함할 수 있다. 상기 프로세서는, 상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하도록, 구성될 수 있다.For example, the electronic device may further include a communication circuit. The processor executes the application based on the second visual object to send a message containing text indicated by the information selected according to the attribute, indicated by the second visual object through the communication circuit. Can be configured to transmit to an external electronic device.

예를 들어, 상기 프로세서는, 상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하도록, 구성될 수 있다.For example, the processor may be configured to execute the application based on the second visual object and obtain schedule data based on text indicated by the information selected according to the attribute.

상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 디스플레이 내에, 상기 웨어러블 장치의 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 디스플레이의 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하는 동작을 포함할 수 있다.As described above, the method of using a wearable device according to an embodiment may include an operation of displaying a list of a plurality of applications stored in a memory of the wearable device on a display of the wearable device. The method is based on an input indicating that a visual object representing the first application included in the list is superimposed on an external object included in a display area of the display, using the external object to display the first application. It may include an operation to obtain properties for executing. The method includes, after obtaining the attribute, acquiring at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object. may include. The method may include executing the first application using information selected by the attribute from among the first information or the second information.

예를 들어, 상기 속성을 획득하는 동작은, 상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하는 동작을 포함할 수 있다.For example, the operation of acquiring the property may include the operation of displaying a screen for receiving one or more properties related to the first application within the display area in response to the input.

예를 들어, 상기 속성을 획득하는 동작은, 길이 방향으로 연장된 상기 외부 객체의 양 단들(both ends) 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하는 동작을 포함할 수 있다.For example, the operation of acquiring the attribute may include selecting one end adjacent to the first visual object superimposed on the external object by the input among both ends of the external object extending in the longitudinal direction. It may include an identifying operation.

예를 들어, 상기 제1 정보 또는 상기 제2 정보 중 적어도 하나를 획득하는 동작은, 상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하는 동작을 포함할 수 있다.For example, acquiring at least one of the first information or the second information may include obtaining the first information related to the identified set of paths.

예를 들어, 상기 실행하는 동작은, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하는 동작을 포함할 수 있다.For example, the executing operation may include executing the application based on text recognized from information selected by the attribute among the first information or the second information.

상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치의 방법은, 상기 웨어러블 장치의 카메라를 이용하여 상기 웨어러블 장치의 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하는 동작을 포함할 수 있다. 상기 방법은, 상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작을 포함할 수 있다. 상기 방법은, 상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하는 동작을 포함할 수 있다.As described above, the method of using a wearable device according to an embodiment may include an operation of identifying an external object included in a display area of a display of the wearable device using a camera of the wearable device. The method may include displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area. The method obtains at least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information comprising at least one stroke drawn by the external object. It may include actions such as: The method includes displaying a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object. may include.

예를 들어, 상기 획득하는 동작은, 상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여, 상기 제1 정보를 획득하는 동작을 포함할 수 있다.For example, the acquiring operation may include acquiring the first information by tracking the path based on whether a part of the external object indicated by the attribute is in contact with the plane. .

예를 들어, 상기 제1 정보를 획득하는 동작은, 상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.For example, the operation of obtaining the first information may include the operation of displaying one or more lines in the form of the tracked path on the display.

예를 들어, 상기 하나 이상의 라인들을 표시하는 동작은, 제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하는 동작을 포함할 수 있다. 상기 방법은, 상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하는 동작을 포함할 수 있다. 상기 방법은, 상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.For example, the operation of displaying one or more lines may identify that the external object is moved out of the display area by the motion of the wearable device while tracking the path using the camera, which is the first camera. Can include actions. The method may include tracking the path of the external object using a second camera facing the external object that has moved outside the display area. The method may include displaying a line having the shape of the path tracked by the second camera on the display.

예를 들어, 상기 방법은, 상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하는 동작을 포함할 수 있다.For example, the method may include executing the application using the information selected according to the attribute in response to an input indicating selection of the second visual object.

예를 들어, 상기 실행하는 동작은, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하는 동작을 포함할 수 있다.For example, the executing operation may include displaying a screen including an image indicated by the information selected according to the attribute on the display.

예를 들어, 상기 실행하는 동작은, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 웨어러블 장치의 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하는 동작을 포함할 수 있다.For example, the executing operation includes transmitting a message containing text indicated by the information selected according to the attribute to an external electronic device indicated by the second visual object through a communication circuit of the wearable device. It may include actions such as:

예를 들어, 상기 실행하는 동작은, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하는 동작을 포함할 수 있다.For example, the executing operation may include obtaining schedule data based on text indicated by the information selected according to the attribute.

상술한 바와 같은, 일 실시예에 따른, 웨어러블 장치(예, 도 1 및/또는 도 5의 웨어러블 장치(101))는, 디스플레이(예, 도 5의 디스플레이(530)), 메모리(예, 도 5의 메모리(520)) 및 프로세서(예, 도 5의 프로세서(510))를 포함할 수 있다. 상기 프로세서는, 상기 디스플레이 내에, 상기 메모리에 저장된 복수의 어플리케이션들의 리스트(예, 도 6의 리스트(610))를 표시하도록, 구성될 수 있다. 상기 프로세서는, 상기 표시 영역 내에 포함된 외부 객체(예, 도 1의 외부 객체(130)) 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하도록, 구성될 수 있다. 상기 프로세서는, 상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하도록, 구성될 수 있다.As described above, according to one embodiment, a wearable device (e.g., wearable device 101 of FIGS. 1 and/or 5) includes a display (e.g., display 530 of FIG. 5), memory (e.g., FIG. It may include a memory 520 in Figure 5) and a processor (eg, processor 510 in Figure 5). The processor may be configured to display, within the display, a list of a plurality of applications stored in the memory (eg, list 610 in FIG. 6). The processor, based on an input indicating that a visual object representing the first application included in the list is superimposed on an external object (e.g., external object 130 in FIG. 1) included in the display area, It may be configured to obtain properties for executing the first application using the external object. The processor, after acquiring the attribute, obtains at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object, It can be configured. The processor may be configured to execute the first application using information selected by the attribute among the first information or the second information.

예를 들어, 상기 프로세서는, 상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하도록, 구성될 수 있다.For example, the processor may be configured to display a screen for receiving one or more properties related to the first application within the display area in response to the input.

예를 들어, 상기 프로세서는, 길이 방향으로 연장된 상기 외부 객체의 양 단들 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하도록, 구성될 수 있다.For example, the processor may be configured to identify, among both ends of the external object extending in the longitudinal direction, one end adjacent to the first visual object overlaid on the external object by the input.

예를 들어, 상기 프로세서는, 상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하도록, 구성될 수 있다.For example, the processor may be configured to obtain the first information related to the identified set of paths.

예를 들어, 상기 프로세서는, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하도록, 구성될 수 있다.For example, the processor may be configured to execute the application based on text recognized from information selected by the attribute among the first information or the second information.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The device described above may be implemented with hardware components, software components, and/or a combination of hardware components and software components. For example, the devices and components described in the embodiments include a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA), and a programmable logic unit (PLU). It may be implemented using one or more general-purpose or special-purpose computers, such as a logic unit, microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. Additionally, a processing device may access, store, manipulate, process, and generate data in response to the execution of software. For ease of understanding, a single processing device may be described as being used; however, those skilled in the art will understand that a processing device includes multiple processing elements and/or multiple types of processing elements. It can be seen that it may include. For example, a processing device may include a plurality of processors or one processor and one controller. Additionally, other processing configurations, such as parallel processors, are possible.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.Software may include a computer program, code, instructions, or a combination of one or more of these, which may configure a processing unit to operate as desired, or may be processed independently or collectively. You can command the device. The software and/or data may be embodied in any type of machine, component, physical device, computer storage medium or device for the purpose of being interpreted by or providing instructions or data to the processing device. there is. Software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 이때, 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수 개의 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 어플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded on a computer-readable medium. At this time, the medium may continuously store a computer-executable program, or temporarily store it for execution or download. In addition, the medium may be a variety of recording or storage means in the form of a single or several pieces of hardware combined. It is not limited to a medium directly connected to a computer system and may be distributed over a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magneto-optical media such as floptical disks, And there may be something configured to store program instructions, including ROM, RAM, flash memory, etc. Additionally, examples of other media include recording or storage media managed by app stores that distribute applications, sites that supply or distribute various other software, or servers.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described with limited examples and drawings, various modifications and variations can be made by those skilled in the art from the above description. For example, the described techniques are performed in a different order than the described method, and/or components of the described system, structure, device, circuit, etc. are combined or combined in a different form than the described method, or other components are used. Alternatively, appropriate results may be achieved even if substituted or substituted by an equivalent.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 특허청구범위의 범위에 속한다. Therefore, other implementations, other embodiments, and equivalents of the claims also fall within the scope of the claims described below.

Claims (28)

웨어러블 장치(wearable device)(101)에 있어서,
디스플레이(530);
카메라(540); 및
프로세서(510)를 포함하고, 상기 프로세서는,
상기 카메라를 이용하여 상기 디스플레이의 표시 영역 내에 포함된 외부 객체(130)를 식별하고;
상기 외부 객체에 대응하는 어플리케이션을 표현하는(representing) 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하고;
상기 제1 시각적 객체가 표시된 동안, 평면(a plane) 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획(stroke)을 포함하는 제2 정보 중 적어도 하나를 획득하고; 및
상기 외부 객체에 할당된(assigned) 속성(attribute)에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하도록, 구성된,
웨어러블 장치.
In the wearable device 101,
display 530;
camera 540; and
Includes a processor 510, where the processor:
Identifying an external object 130 included in a display area of the display using the camera;
displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area;
At least one of first information related to a path of the external object moved on a plane while the first visual object is displayed, or second information including at least one stroke drawn by the external object Acquire one; and
According to an attribute assigned to the external object, a second visual object for executing the application using information selected from the first information or the second information is displayed based on the location. to, composed,
Wearable devices.
제1항에 있어서, 상기 프로세서는,
상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여(by tracking), 상기 제1 정보를 획득하도록, 구성된,
웨어러블 장치.
The method of claim 1, wherein the processor:
configured to obtain the first information by tracking the path based on whether a portion of the external object indicated by the attribute is in contact with the plane,
Wearable devices.
제1항 내지 제2항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 2, wherein the processor:
configured to display within the display one or more lines having the form of the tracked path,
Wearable devices.
제1항 내지 제3항 중 어느 한 항에 있어서, 상기 프로세서는,
제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하고;
상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하고; 및
상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 3, wherein the processor:
While tracking the path using the camera, which is a first camera, identify that the external object moves outside the display area due to the motion of the wearable device;
tracking the path of the external object using a second camera facing the external object moved outside the display area; and
configured to display in the display a line having the shape of the path tracked by the second camera,
Wearable devices.
제1항 내지 제4항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 속성에 의해 설정된(set) 색상, 투명도, 또는 두께 중 적어도 하나를 가지는 상기 하나 이상의 라인들을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 4, wherein the processor:
configured to display within the display the one or more lines having at least one of color, transparency, or thickness set by the attribute,
Wearable devices.
제1항 내지 제5항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 외부 객체의 일 단으로부터 연장되는 잉크(ink)에 의해 그려진 상기 적어도 하나의 획을 추적하도록 선택된, 상기 속성에 기반하여, 상기 제1 정보 또는 상기 제2 정보 중에서 상기 제2 정보를 획득하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 5, wherein the processor:
Based on the attribute selected to track the at least one stroke drawn by ink extending from one end of the external object, obtain the second information from among the first information or the second information, composed,
Wearable devices.
제1항 내지 제6항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 6, wherein the processor:
configured to, in response to an input indicating selection of the second visual object, execute the application using the information selected according to the attribute,
Wearable devices.
제1항 내지 제7항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 7, wherein the processor:
configured to execute the application based on the second visual object and display a screen including an image indicated by the information selected according to the attribute within the display,
Wearable devices.
제1항 내지 제8항 중 어느 한 항에 있어서, 통신 회로를 더 포함하고,
상기 프로세서는,
상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 8, further comprising a communication circuit,
The processor,
Executes the application based on the second visual object and sends a message including text indicated by the information selected according to the attribute to an external electronic device indicated by the second visual object through the communication circuit. configured to transmit,
Wearable devices.
제1항 내지 제9항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제2 시각적 객체에 기반하여 상기 어플리케이션을 실행하여, 상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하도록, 구성된,
웨어러블 장치.
The method of any one of claims 1 to 9, wherein the processor:
configured to execute the application based on the second visual object and obtain schedule data based on text indicated by the information selected according to the attribute,
Wearable devices.
웨어러블 장치의 방법에 있어서,
상기 웨어러블 장치의 디스플레이 내에, 상기 웨어러블 장치의 메모리에 저장된 복수의 어플리케이션들의 리스트를 표시하는 동작;
상기 디스플레이의 표시 영역 내에 포함된 외부 객체 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하는 동작;
상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작; 및
상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하는 동작을 포함하는,
방법.
In the method of the wearable device,
Displaying, on a display of the wearable device, a list of a plurality of applications stored in a memory of the wearable device;
Based on an input indicating overlapping a visual object representing the first application included in the list on an external object included in the display area of the display, for executing the first application using the external object An operation to acquire a property;
After acquiring the attribute, acquiring at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object; and
Comprising the operation of executing the first application using information selected by the attribute among the first information or the second information,
method.
제11항에 있어서, 상기 속성을 획득하는 동작은,
상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하는 동작을 포함하는,
방법.
The method of claim 11, wherein the operation of acquiring the property is:
In response to the input, displaying a screen for receiving one or more properties related to the first application within the display area,
method.
제11항 내지 제12항 중 어느 한 항에 있어서, 상기 속성을 획득하는 동작은,
길이 방향으로 연장된 상기 외부 객체의 양 단들(both ends) 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하는 동작을 포함하는,
방법.
The method according to any one of claims 11 to 12, wherein the operation of acquiring the property includes:
Among both ends of the external object extending in the longitudinal direction, an operation of identifying one end adjacent to the first visual object superimposed on the external object by the input,
method.
제11항 내지 제13항 중 어느 한 항에 있어서, 상기 제1 정보 또는 상기 제2 정보 중 적어도 하나를 획득하는 동작은,
상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하는 동작을 포함하는,
방법.
The method of any one of claims 11 to 13, wherein the operation of acquiring at least one of the first information or the second information includes:
Comprising the operation of obtaining the first information related to the identified set of paths,
method.
제11항 내지 제14항 중 어느 한 항에 있어서, 상기 실행하는 동작은,
상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하는 동작을 포함하는,
방법.
The method of any one of claims 11 to 14, wherein the executing operation is:
Comprising an operation of executing the application based on text recognized from information selected by the attribute among the first information or the second information,
method.
웨어러블 장치의 방법에 있어서,
상기 웨어러블 장치의 카메라를 이용하여 상기 웨어러블 장치의 디스플레이의 표시 영역 내에 포함된 외부 객체를 식별하는 동작;
상기 외부 객체에 대응하는 어플리케이션을 표현하는 제1 시각적 객체를, 상기 표시 영역 내 상기 외부 객체의 위치에 기반하여 표시하는 동작;
상기 제1 시각적 객체가 표시된 동안, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하는 동작; 및
상기 외부 객체에 할당된 속성에 따라, 상기 제1 정보 또는 상기 제2 정보 중에서 선택된, 정보를 이용하여 상기 어플리케이션을 실행하기 위한 제2 시각적 객체를, 상기 위치에 기반하여 표시하는 동작을 포함하는,
방법.
In the method of the wearable device,
Identifying an external object included in a display area of a display of the wearable device using a camera of the wearable device;
Displaying a first visual object representing an application corresponding to the external object based on the location of the external object in the display area;
While the first visual object is displayed, obtaining at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object; and
Including an operation of displaying a second visual object for executing the application using information selected from the first information or the second information, based on the location, according to the attribute assigned to the external object,
method.
제16항에 있어서, 상기 획득하는 동작은,
상기 속성에 의해 지시되는 상기 외부 객체의 일부분이 상기 평면과 접촉되는지 여부에 기반하여 상기 경로를 추적하여, 상기 제1 정보를 획득하는 동작을 포함하는,
방법.
The method of claim 16, wherein the acquiring operation is:
Comprising an operation of acquiring the first information by tracking the path based on whether a part of the external object indicated by the attribute is in contact with the plane,
method.
제16항 내지 제17항 중 어느 한 항에 있어서, 상기 제1 정보를 획득하는 동작은,
상기 추적된 경로의 형태를 가지는 하나 이상의 라인들을, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법.
The method of any one of claims 16 to 17, wherein the operation of acquiring the first information includes:
Including displaying in the display one or more lines having the form of the tracked path,
method.
제16항 내지 제18항 중 어느 한 항에 있어서, 상기 하나 이상의 라인들을 표시하는 동작은,
제1 카메라인 상기 카메라를 이용하여 상기 경로를 추적하는 동안, 상기 외부 객체가 상기 웨어러블 장치의 모션에 의하여 상기 표시 영역의 밖으로 이동됨을 식별하는 동작;
상기 표시 영역의 밖으로 이동된 상기 외부 객체를 향하는 제2 카메라를 이용하여 상기 외부 객체의 경로를 추적하는 동작; 및
상기 제2 카메라에 의해 추적된 상기 경로의 형태를 가지는 라인을, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법.
The method of any one of claims 16 to 18, wherein the operation of displaying one or more lines includes:
An operation of identifying that the external object moves outside the display area due to a motion of the wearable device while tracking the path using the camera, which is a first camera;
An operation of tracking the path of the external object using a second camera facing the external object that has moved out of the display area; and
Including an operation of displaying a line having the shape of the path tracked by the second camera on the display,
method.
제16항 내지 제19항 중 어느 한 항에 있어서,
상기 제2 시각적 객체를 선택함을 나타내는 입력에 응답하여, 상기 속성에 따라 선택된 상기 정보를 이용하여 상기 어플리케이션을 실행하는 동작을 더 포함하는,
방법.
According to any one of claims 16 to 19,
In response to an input indicating selection of the second visual object, further comprising executing the application using the information selected according to the attribute,
method.
제16항 내지 제20항 중 어느 한 항에 있어서, 상기 실행하는 동작은,
상기 속성에 따라 선택된 상기 정보에 의해 지시되는 이미지를 포함하는 화면을, 상기 디스플레이 내에 표시하는 동작을 포함하는,
방법.
The method of any one of claims 16 to 20, wherein the executing operation is:
Comprising the operation of displaying a screen including an image indicated by the information selected according to the attribute on the display,
method.
제16항 내지 제21항 중 어느 한 항에 있어서, 상기 실행하는 동작은,
상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트를 포함하는 메시지를, 상기 웨어러블 장치의 통신 회로를 통하여 상기 제2 시각적 객체에 의해 지시되는 외부 전자 장치로 송신하는 동작을 포함하는,
방법.
The method of any one of claims 16 to 21, wherein the executing operation is:
An operation of transmitting a message containing text indicated by the information selected according to the attribute to an external electronic device indicated by the second visual object through a communication circuit of the wearable device,
method.
제16항 내지 제22항 중 어느 한 항에 있어서, 상기 실행하는 동작은,
상기 속성에 따라 선택된 상기 정보에 의해 지시되는 텍스트에 기반하는 스케쥴 데이터를 획득하는 동작을 포함하는,
방법.
The method of any one of claims 16 to 22, wherein the executing operation is:
Comprising the operation of obtaining schedule data based on text indicated by the information selected according to the attribute,
method.
웨어러블 장치(101)에 있어서,
디스플레이(530);
메모리(520); 및
프로세서(510)를 포함하고, 상기 프로세서는,
상기 디스플레이 내에, 상기 메모리에 저장된 복수의 어플리케이션들의 리스트(610)를 표시하고;
상기 표시 영역 내에 포함된 외부 객체(130) 상에, 상기 리스트 내에 포함된 제1 어플리케이션을 표현하는 시각적 객체를 중첩함을 나타내는 입력에 기반하여, 상기 외부 객체를 이용하여 상기 제1 어플리케이션을 실행하기 위한 속성을 획득하고;
상기 속성을 획득한 이후, 평면 상에서 이동된 상기 외부 객체의 경로와 관련된 제1 정보, 또는 상기 외부 객체에 의해 그려진 적어도 하나의 획을 포함하는 제2 정보 중 적어도 하나를 획득하고; 및
상기 제1 정보 또는 상기 제2 정보 중에서, 상기 속성에 의해 선택된 정보를 이용하여 상기 제1 어플리케이션을 실행하도록, 구성된,
웨어러블 장치.
In the wearable device 101,
display 530;
memory(520); and
Includes a processor 510, where the processor:
within the display, displaying a list 610 of a plurality of applications stored in the memory;
Executing the first application using the external object based on an input indicating overlapping a visual object representing the first application included in the list on the external object 130 included in the display area acquire properties for;
After acquiring the attribute, obtain at least one of first information related to a path of the external object moved on a plane or second information including at least one stroke drawn by the external object; and
configured to execute the first application using information selected by the attribute among the first information or the second information,
Wearable devices.
제24항에 있어서, 상기 프로세서는,
상기 입력에 응답하여, 상기 표시 영역 내에 상기 제1 어플리케이션과 관련된 하나 이상의 속성들을 수신하기 위한 화면을 표시하도록, 구성된,
웨어러블 장치.
25. The method of claim 24, wherein the processor:
configured to, in response to the input, display a screen for receiving one or more properties related to the first application within the display area,
Wearable devices.
제24항 내지 제25항 중 어느 한 항에 있어서, 상기 프로세서는,
길이 방향으로 연장된 상기 외부 객체의 양 단들 중에서, 상기 입력에 의해 상기 외부 객체 상에 중첩된 상기 제1 시각적 객체에 인접한 일 단을 식별하도록, 구성된,
웨어러블 장치.
The method of any one of claims 24 to 25, wherein the processor:
Configured to identify, among both ends of the external object extending in the longitudinal direction, one end adjacent to the first visual object superimposed on the external object by the input,
Wearable devices.
제24항 내지 제26항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 식별된 일 단의 상기 경로와 관련된 상기 제1 정보를 획득하도록, 구성된,
웨어러블 장치.
The method of any one of claims 24 to 26, wherein the processor:
configured to obtain the first information related to the identified set of paths,
Wearable devices.
제24항 내지 제27항 중 어느 한 항에 있어서, 상기 프로세서는,
상기 제1 정보 또는 상기 제2 정보 중에서 상기 속성에 의해 선택된 정보로부터 인식된, 텍스트에 기반하여 상기 어플리케이션을 실행하도록, 구성된,
웨어러블 장치.

The method of any one of claims 24 to 27, wherein the processor:
configured to execute the application based on text recognized from information selected by the attribute among the first information or the second information,
Wearable devices.

KR1020220170126A 2022-11-01 2022-12-07 Wearable device for executing application based on information obtained by tracking external object and method thereof KR20240062862A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2023/011313 WO2024096267A1 (en) 2022-11-01 2023-08-02 Wearable device for executing application on basis of information obtained by tracking external object, and method thereof
US18/455,218 US20240143067A1 (en) 2022-11-01 2023-08-24 Wearable device for executing application based on information obtained by tracking external object and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR20220144088 2022-11-01
KR1020220144088 2022-11-01

Publications (1)

Publication Number Publication Date
KR20240062862A true KR20240062862A (en) 2024-05-09

Family

ID=91075576

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220170126A KR20240062862A (en) 2022-11-01 2022-12-07 Wearable device for executing application based on information obtained by tracking external object and method thereof

Country Status (1)

Country Link
KR (1) KR20240062862A (en)

Similar Documents

Publication Publication Date Title
CN107810465B (en) System and method for generating a drawing surface
US9165381B2 (en) Augmented books in a mixed reality environment
US9829986B2 (en) Method and wearable device for providing a virtual input interface
US9583032B2 (en) Navigating content using a physical object
US9886102B2 (en) Three dimensional display system and use
US20150379770A1 (en) Digital action in response to object interaction
US11340695B2 (en) Converting a 2D positional input into a 3D point in space
TW201626291A (en) Method and apparatus for processing screen using device
KR20170036704A (en) Multi-user gaze projection using head mounted display devices
KR20150110257A (en) Method and wearable device for providing a virtual input interface
CN103294260A (en) Touch sensitive user interface
CN107861613A (en) Show the method for the omniselector associated with content and realize its electronic installation
US11733783B2 (en) Method and device for presenting a synthesized reality user interface
KR102360176B1 (en) Method and wearable device for providing a virtual input interface
KR20190101827A (en) Electronic apparatus for providing second content associated with first content displayed through display according to motion of external object, and operating method thereof
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
CN105247574B (en) Electronic device, the control method of electronic device and computer-readable recording medium
US11962561B2 (en) Immersive message management
KR20240062862A (en) Wearable device for executing application based on information obtained by tracking external object and method thereof
US20240143067A1 (en) Wearable device for executing application based on information obtained by tracking external object and method thereof
US20240177367A1 (en) Wearable device for controlling displaying of visual object corresponding to external object and method thereof
KR20240082088A (en) Wearable device for displaying media content based on grip form regarding external obejct and method thereof
US20240169603A1 (en) Wearable device for displaying visual object for controlling virtual object and method thereof
KR20240058665A (en) Wearable device for modifying visual object by using data identified by sensor and method thereof
US20240152202A1 (en) Wearable device for controlling multimedia content placed in virtual space and method thereof