WO2016080565A1 - 웨어러블 디바이스 및 그 제어 방법 - Google Patents

웨어러블 디바이스 및 그 제어 방법 Download PDF

Info

Publication number
WO2016080565A1
WO2016080565A1 PCT/KR2014/011062 KR2014011062W WO2016080565A1 WO 2016080565 A1 WO2016080565 A1 WO 2016080565A1 KR 2014011062 W KR2014011062 W KR 2014011062W WO 2016080565 A1 WO2016080565 A1 WO 2016080565A1
Authority
WO
WIPO (PCT)
Prior art keywords
wearable device
visual information
display area
display
processor
Prior art date
Application number
PCT/KR2014/011062
Other languages
English (en)
French (fr)
Inventor
이유리
김현희
신명수
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US15/528,022 priority Critical patent/US10234826B2/en
Priority to KR1020177008246A priority patent/KR102245374B1/ko
Priority to PCT/KR2014/011062 priority patent/WO2016080565A1/ko
Publication of WO2016080565A1 publication Critical patent/WO2016080565A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0023Visual time or date indication means by light valves in general
    • G04G9/0029Details
    • G04G9/0035Details constructional
    • G04G9/0041Illumination devices
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/02Visual time or date indication means by selecting desired characters out of a number of characters or by selecting indicating elements the position of which represent the time, e.g. by using multiplexing techniques
    • G04G9/04Visual time or date indication means by selecting desired characters out of a number of characters or by selecting indicating elements the position of which represent the time, e.g. by using multiplexing techniques by controlling light sources, e.g. electroluminescent diodes
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1639Details related to the display arrangement, including those related to the mounting of the display in the housing the display being based on projection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/0304Detection arrangements using opto-electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/002Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to project the image of a two-dimensional display, such as an array of light emitting or modulating elements or a CRT
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit

Definitions

  • the present specification relates to a wearable device and a control method thereof.
  • the wearable device may be devices such as a smart watch and an HMD. That is, the wearable device may be a device worn by the user. In this case, the display area of the wearable device may be limited. Accordingly, there is a need for a method of extending and using a display area of a wearable device.
  • An object of the present specification is to provide a wearable device and a control method thereof.
  • the wearable device has an object of displaying visual information in the first display area and the second display area.
  • the wearable device has an object of displaying visual information of the first display area by a display unit on the wearable device.
  • the wearable device has an object of displaying the visual information of the second display area based on a light source projected out of the wearable device.
  • the wearable device when detecting that the wearable device is changed to a charged state, the wearable device has an object of controlling visual information of the first display area and the second display area.
  • the wearable device when the wearable device detects an event related to an application in a charged state, the wearable device has an object of controlling visual information about the event.
  • the wearable device has a purpose of detecting a charge level and controlling whether to display visual information based on the charge level.
  • the wearable device has an object of controlling display of visual information on an event based on an application attribute.
  • the wearable device has a purpose of detecting a gesture input and controlling the display of visual information based on the gesture input.
  • the wearable device has an object of displaying an interface for charging information and visual information.
  • a wearable device for displaying visual information on a first display area and a second display area.
  • the visual information of the first display area may be displayed by the display unit on the wearable device
  • the visual information of the second display area may be displayed based on a light source projected out of the wearable device
  • the processor detects that the wearable device is changed to the charged state
  • the processor displays the first visual information on the first display area, the second visual information on the second display area, and the wearable device is being charged.
  • the third visual information related to the first application may be displayed on the second display area.
  • a control method of a wearable device for displaying visual information in a first display area and a second display area comprising: detecting that the wearable device is changed to a charged state; Displaying the first visual information, displaying the second visual information on the second display area, detecting an event related to the first application while the wearable device is charging, and displaying the first application on the second display area. And displaying the related third visual information.
  • the first visual information of the first display area may be displayed on the display unit on the wearable device, and the second visual information of the second display area may be displayed based on the light source projected out of the wearable device.
  • the present specification may provide a wearable device and a method of controlling the same.
  • the wearable device may display visual information in the first display area and the second display area.
  • visual information of the first display area may be displayed by the display unit on the wearable device.
  • visual information of the second display area may be displayed based on a light source projected out of the wearable device.
  • the wearable device when detecting that the wearable device is changed to a charged state, the wearable device may control visual information of the first display area and the second display area.
  • the wearable device when the wearable device detects an event related to an application in a charged state, the wearable device may control visual information on the event.
  • the wearable device may detect a charging level and control whether to display visual information based on the charging level.
  • the wearable device may control the display of visual information on an event based on an application attribute.
  • the wearable device may detect a gesture input and control the display of visual information based on the gesture input.
  • the wearable device may display an interface for charging information and visual information.
  • FIG. 1 is a block diagram of a wearable device according to an exemplary embodiment of the present specification.
  • FIGS. 2A and 2B are diagrams illustrating a method of displaying visual information in a second display area by a wearable device according to an exemplary embodiment of the present specification.
  • 3A and 3B illustrate a method of displaying visual information on a second display area by a wearable device according to an exemplary embodiment of the present specification.
  • FIG. 4 is a diagram illustrating a method of displaying visual information on a second display area based on whether a wearable device is charged according to one embodiment of the present specification.
  • FIG. 5 is a diagram illustrating a method in which a wearable device displays visual information based on an event of an application according to one embodiment of the present specification.
  • 6A and 6B illustrate a method in which a wearable device displays visual information on a second display area based on a charge level, according to an embodiment of the present specification.
  • FIG. 7A and 7B illustrate a method of a wearable device displaying visual information on a second display area based on an attribute of an application according to an embodiment of the present specification.
  • FIGS. 8A and 8B illustrate a method in which a wearable device displays visual information based on a gesture input according to an embodiment of the present specification.
  • 9A and 9B illustrate a method of displaying visual information based on a control input by a wearable device according to an exemplary embodiment of the present specification.
  • FIG. 10 is a diagram for a method of displaying visual information based on a charging place by a wearable device according to one embodiment of the present specification.
  • FIG. 11 is a diagram illustrating a control method of a wearable device according to one embodiment of the present specification.
  • first and / or second may be used to describe various components, but the components should not be limited by the terms. The terms are only for the purpose of distinguishing one component from another component, for example, without departing from the scope of rights in accordance with the concepts herein, the first component may be called a second component, and similarly The second component may also be referred to as a first component.
  • unit refers to a unit that processes at least one function or operation, which may be implemented in a combination of hardware and / or software.
  • the wearable device 100 may be a device worn by a user.
  • the wearable device 100 may be a device that can be charged separately from the user.
  • the wearable device may be separated from the user and charged in combination with the charging device.
  • the charging device may receive power by wire or wirelessly and charge the combined wearable device.
  • the charging device may be supported by the cradle.
  • the cradle may be attached to a wall, a desk, or the like. More specifically, the charging device and the wearable device 100 may be coupled to each other and fixed to the wall by the cradle to be charged.
  • the wearable device 100 may be fixed to a desk or the like in combination with a charging device and charged. That is, the wearable device 100 may be charged in a state separated from the user by a separate charging device, and is not limited to the above-described embodiment.
  • the wearable device 100 may be a smart watch, an HMD, a smart lens, or the like.
  • the wearable device 100 may be a device of a necklace type. That is, the wearable device 100 may be a device that may be worn and detached by a user, and is not limited to the above-described embodiment.
  • the wearable device 100 may include a display unit 110 and a processor 160.
  • the wearable device 100 may further include a light source unit 120 in an optional configuration.
  • the wearable device 100 may further include a camera unit 130 in an optional configuration.
  • the wearable device 100 may further include a control input sensing unit 140 in an optional configuration.
  • the wearable device 100 may further include a communication unit 150 in an optional configuration.
  • the wearable device 100 may further include a location information receiving unit (not shown), and is not limited to the above-described embodiment.
  • the wearable device 100 may include a display unit 110.
  • the display unit 110 may be a unit included on the wearable device 100.
  • the display unit 110 may be a unit controlled by the processor 160.
  • the wearable device 100 may display visual information on the wearable device using the display unit 110.
  • the display unit 110 may include an organic light emitting diode (OLED), a liquid crystal display (LCD), an electronic ink, and a head mounted display (HMD). And a flexible display. That is, the display unit 110 may display visual information on the wearable device 100 using a unit included in the wearable device 100.
  • OLED organic light emitting diode
  • LCD liquid crystal display
  • HMD head mounted display
  • the wearable device 100 may include the light source unit 120 in an optional configuration.
  • the light source unit 120 may be a unit controlled by the processor 160.
  • the light source unit 120 may be a unit that displays visual information by projecting the light source out of the wearable device 100.
  • the light source unit 120 may be a small projector. That is, the wearable device 100 may project the light source out of the wearable device 100 using the light source unit 120 and display visual information.
  • the light source unit 120 may include a light source, a panel, a reflective chip, a lens, and the like. In this case, the light source unit 120 may be controlled by the processor 160.
  • the processor 160 may display visual information using the light source unit 120.
  • the light source unit 120 may pass the light source through the panel, reflect the light source passed through the panel to the reflective chip, and then display the visual information by projecting out of the wearable device 100 through a lens.
  • the light source unit 120 may be included in a charging device other than the wearable device 100.
  • the light source unit 120 may operate after exchanging information through communication with the wearable device 100 as a separate device. This will be described later with reference to FIGS. 3A and 3B.
  • the wearable device 100 may further include a camera unit 130 in an optional configuration.
  • the camera unit 130 may be a unit controlled by the processor 160.
  • the camera unit 130 may detect a front image or a gesture of a user.
  • the camera unit 130 captures an image of the surrounding environment of the wearable device 100 and converts the image into an electrical signal.
  • the camera unit 130 may include an image sensor.
  • the image sensor may convert an optical signal into an electrical signal.
  • An image captured by the camera unit 130 and converted into an electrical signal may be stored in a storage unit (not shown) and then output to the processor 160 or directly to the processor 160 without being stored.
  • the camera unit 130 may detect a gesture of a user located near the wearable device 100.
  • the gesture may be an input detected by the camera unit 130.
  • the processor 160 may execute an operation by detecting the same gesture as the preset gesture using the camera unit 130. That is, the gesture of the user may be detected as an input for controlling the wearable device 100 using the camera unit 130, and the present disclosure is not limited to the above-described embodiment. In this regard, it will be described later with reference to Figs. 8A and 8B.
  • the wearable device 100 may further include a control input sensing unit 140 in an optional configuration.
  • the control input sensing unit 140 may be a unit controlled by the processor 160.
  • the control input sensing unit 140 may transmit a user input or an environment recognized by the device to the processor 160 using at least one sensor mounted on the wearable device 100.
  • the control input sensing unit 140 may sense the user's control input using at least one sensor mounted on the wearable device 100.
  • the at least one sensing means may include various sensing means for sensing a control input input such as a touch sensor, a fingerprint sensor, a motion sensor, a proximity sensor, an illuminance sensor, a voice recognition sensor, and a pressure sensor.
  • the control input sensing unit 160 collectively refers to the various sensing means described above, and the above-described sensors may be included in a device as a separate element or integrated into at least one or more elements.
  • the control input sensing unit 140 may be an element integrated with the display unit 110.
  • the display unit 110 may be a touch sensitive display unit 110. That is, the processor 160 may detect the input for the visual information displayed by the display unit 110 through the control input sensing unit 140.
  • the wearable device 100 may further include a communication unit 150.
  • the communication unit 150 may be controlled by the processor 160.
  • the communication unit 150 may communicate with an external device using various protocols, and may transmit and receive data through this.
  • the wearable device 100 may receive event information about an application through the communication unit 150. That is, the wearable device 100 may receive information from an external device using the communication unit 150.
  • the wearable device 100 may receive location information of the wearable device 100 using the communication unit 150.
  • the wearable device 100 may include a separate location information receiving unit (not shown).
  • the location information receiving unit may include a GPS and may receive location information of the wearable device 100 through a satellite. That is, the location information receiving unit may be a unit that receives location information of the wearable device, and is not limited to the above-described embodiment.
  • the processor 160 may be a unit that controls the display unit.
  • the processor 160 may be a unit that controls at least one of the light source unit 120, the camera unit 130, the control input sensing unit 140, and the communication unit 150.
  • the processor 160 may display visual information in at least one of the first display area and the second display area.
  • visual information of the first display area may be displayed by the display unit 110. That is, the visual information of the first display area may be visual information displayed on the wearable device 100.
  • the visual information of the second display area may be displayed based on a light source projected out of the wearable device 100.
  • the processor 160 may display visual information in an area other than the wearable device 100.
  • the processor 160 may project the light source out of the wearable device 100 using the light source unit 120 and display visual information.
  • the wearable device 100 may be charged while being coupled to a charging device while being coupled to a wall.
  • the processor 160 may display visual information on the wall surface of the wearable device 100 using the light source unit 120.
  • the second display area may be set as an area where the light source is projected.
  • the processor 160 may adjust the size of the second display area by using the light source unit 120. That is, the processor 160 may set a range in which the light source is projected and adjust the second display area based on the set range. At this time, the size of the visual information may also increase at the same time, which will be described later in FIG.
  • the processor 160 may display visual information when the wearable device 100 detects that the wearable device 100 is changed to a charging state.
  • the processor 160 may display the first display area on the wearable device 100 using the display unit 110.
  • the first visual information may be displayed.
  • the processor 160 may display the second visual information on the second display area outside the wearable device 100 using the light source unit 120.
  • the first visual information may be visual information displayed regardless of whether an event of the first application is detected.
  • the first visual information may be visual information that is set based only on a state of charge and is not changed by an external event and an application.
  • the first visual information may be charging information.
  • the wearable device 100 may display charging information on the entire first display area. Through this, the user may be provided with charging information through the entire area of the wearable device 100.
  • the wearable device 100 may display the first interface on the first display area as the charging information.
  • the wearable device 100 may further display the first indicator on the first interface.
  • the first interface may be an interface indicating the charging degree of the wearable device 100.
  • the first indicator may be an indicator indicating the charging level of the wearable device 100 based on the charging information.
  • the first visual information may be a background screen.
  • the second visual information may include at least one of a background screen, a date, and time information.
  • the second visual information may be visual information about the first object.
  • the processor 160 may display the first interface on the first display area before the wearable device 100 is switched to the charging state.
  • the first interface may include a plurality of objects.
  • the plurality of objects may be objects for icons, applications, dates, times, and the like.
  • the processor 160 may detect a control input for selecting the first object in the first interface. Thereafter, when the wearable device 100 is switched to the charged state, the processor 160 may display the second visual information as the visual information on the first object.
  • the processor 160 may display the time and date information as the second visual information in the second display area.
  • the processor 160 may display first visual information on the first display area and detect an event for the first application while displaying second visual information on the second display area.
  • the first application may be software executed in the wearable device 100.
  • the event may be information received from the outside through the communication unit 150.
  • the event may be an SNS, a message, a call signal, or the like.
  • the event may be information detected based on a predetermined setting value.
  • the event may be an alarm detected at a preset time. That is, the event may be related to the first application and is not limited to the above-described embodiment.
  • the processor 160 may further provide notification if the event is detected.
  • the notification may include at least one of a voice notification, a vibration notification, an image notification, and a text notification. Through this, the user can confirm that the event is detected.
  • the processor 160 may display third visual information related to the first application on the second display area.
  • the third visual information may be visual information related to the event.
  • the third visual information may be summary information or alarm information about the message. That is, the third visual information may be visual information on the event, and is not limited to the above-described embodiment.
  • the above-described elements may be included in the wearable device 100 as a separate element or integrated into at least one or more elements.
  • FIGS. 2A and 2B illustrate a method of displaying wearable visual information in a second display area by a wearable device according to an exemplary embodiment of the present specification.
  • the wearable device 100 may display visual information on the first display area 210.
  • the first display area 210 may be an area displayed by the display unit 110 on the wearable device 100 as described above.
  • the wearable device 100 may display first visual information on the first display area 210.
  • the wearable device 100 may display the second visual information on the second display area 220.
  • the second display area 220 may be an area for displaying visual information outside of the wearable device 100.
  • the first visual information may be information about a charge level of the wearable device 100. That is, the first visual information may be a degree of charge of the wearable device 100.
  • the second visual information may be background information. That is, the second visual information may be visual information including information about time, date, and the like.
  • the wearable device 100 may be attached to a wall and charged.
  • the wearable device 100 may be charged while being attached to the wall in combination with the charging device.
  • the charging device may be coupled to the wall through the cradle. That is, the wearable device 100 may be attached to the wall by using the charging device 230 and the cradle coupled to the wall.
  • the wearable device 100 may set the second display area 220 on the wall.
  • the wearable device 100 may shine the light source onto the wall using the light source unit 120.
  • the second display area 220 may be set as an area where the light source reaches.
  • the size of the second display area 220 may be adjusted.
  • the size of the second visual information may be adjusted. That is, the wearable device 100 may control the second display area 220 by adjusting the range of the projected light source. In this way, the user may adjust the size of the visual information on the wearable device 100 while the wearable device 100 is being charged. In addition, the user may control the wearable device 100 even when the wearable device 100 is being charged.
  • FIG. 3A and 3B are diagrams illustrating a method of displaying wearable visual information on a second display area by a wearable device according to an exemplary embodiment of the present specification.
  • the wearable device 100 when detecting that the wearable device 100 is changed to a charged state, the wearable device 100 may display first visual information on the first display area 210. Also, the wearable device 100 may display the second visual information on the second display area 220.
  • the second display area 220 may be an area where the light source is projected outside the wearable device 100.
  • the light source unit 120 may be a separate device that is not included in the wearable device 100.
  • the light source unit 120 may be a separate projector 310.
  • the wearable device 100 may transmit information about the charging state to the projector.
  • the projector 310 may set the second display area 220 in an area adjacent to the wearable device 100 based on the received charging information.
  • the projector 310 may project a light source and set the projected area as the second display area 220.
  • the wearable device 100 may transmit a signal for the second visual information to the projector 310.
  • the projector 310 may display the second visual information based on the received signal.
  • the projector 310 may set the second display area 220 in an area adjacent to the wearable device 100 through location information of the wearable device 100.
  • the wearable device 100 may set an area set by the user or the processor 160 as the second display area 220. In this way, the user may adjust the size and setting area of the second display area 220.
  • the light source unit may be a unit attached to the charging device 230 or the cradle.
  • the charging device 230 may project the light source to set the second display area 220.
  • the wearable device 100 may transmit a signal for the second visual information to the charging device 230 or the cradle.
  • Charging device 230 or cradle may display the second visual information based on the received signal.
  • FIG. 4 is a diagram illustrating a method of displaying visual information on a second display area based on whether a wearable device is charged according to one embodiment of the present specification.
  • the wearable device 100 may display first visual information on the first display area 210.
  • the first visual information may be background information or visual information on the running application.
  • the wearable device 100 may not set the second display area 220 for displaying visual information based on the light source. That is, the wearable device 100 may not project a light source unless it is in a charged state.
  • the wearable device 100 when detecting that the wearable device 100 is changed to a charged state, the wearable device 100 may display the first visual information on the second display area 220. . That is, the wearable device 100 may display the first visual information displayed on the first display area 210 on the second display area 220 in a state before charging. In this case, the wearable device 100 may display the second visual information on the first display area 210. In this case, the second visual information may be charging information. That is, when detecting that the wearable device 100 is changed to the charged state, the wearable device 100 may display the first visual information on the second display area 220 by projecting a light source.
  • the wearable device 100 may display the charging information as the second visual information on the first display area 210.
  • the wearable device 100 may display the first visual information on the first display area again.
  • the second display area 220 may disappear. That is, the wearable device 100 may project a light source only in a charged state, and display visual information on the second display area 220. In this way, the user may control whether to display visual information on the second display area 220 through charging or not.
  • the wearable device 100 may display visual information on the second display area 220 based on a control input for selecting a preset object.
  • the object may be an icon or an application.
  • the object may be a physical button. That is, the wearable device 100 may display the visual information on the second display area 220 by projecting a light source even without being charged, but is not limited to the above-described embodiment.
  • the wearable device 100 may detect that the wearable device 100 is changed to a charging state. In this case, the wearable device 100 may display the first visual information 510 on the first display area 210. Also, the wearable device 100 may display the second visual information on the second display area 220. In this case, the wearable device 100 may detect an event for the first application while being charged. In this case, the wearable device 100 may display the third visual information 530 for the first application. In this case, the third visual information 530 may be visual information about the event.
  • the third visual information 530 may be displayed on the second display area 220 at the same time as the second visual information 520.
  • the wearable device 100 detects an event for the first application, the wearable device 100 ends the display of the second visual information 520 and displays the third visual information 530. It can display, but is not limited to the above-described embodiment.
  • the first visual information 510 may be charging information.
  • the second visual information 520 may be background information. That is, the wearable device 100 may display the charging information 510 on the first display area 210 in the charging state. Also, the wearable device 100 may display the background screen information on the second display area 220 in the charging state.
  • the first application may be a messenger application.
  • the event may be a message for a messenger application received from the outside.
  • the third visual information 530 may be summary information 530 of the message of the messenger application. In this case, as an example, the wearable device 100 may display the summary information 530 of the message while maintaining the background screen. Through this, the user may check the information on the event even when the wearable device 100 is being charged.
  • FIGS. 6A and 6B illustrate a method in which a wearable device displays visual information on a second display area based on a charge level, according to an embodiment of the present specification.
  • the wearable device 100 may display the first visual information 610 on the first display area 210.
  • the wearable device 100 may display the second visual information 620 on the second display area 220.
  • the wearable device 100 may further detect the charging level.
  • the charging level may be a degree in which the wearable device 100 is charged. That is, when all of the wearable device 100 is discharged, the charging level may be zero.
  • the charging level may be 100.
  • the wearable device 100 may further detect the second visual information 620 in the second display area 220 when the charge level is further detected that the charge level is greater than or equal to the first threshold level 630. have.
  • the wearable device 100 may include the first visual information 610 and the second visual information. 620 may be displayed on the first display area 210. In this case, the wearable device 100 may not project the light source. That is, the wearable device 100 may not set the second display area 220.
  • the first threshold level 630 may be a threshold level for determining whether to display the second visual information 620 on the second display area 220.
  • the first threshold level 630 may be changed and set by the user or the processor 160 and may have a predetermined error range.
  • the wearable device 100 may display first visual information 610 in the first display area 210. Can be displayed. Also, the wearable device 100 may display the second visual information 620 on the second display area 220. That is, the wearable device 100 detects the state of charge and only displays the second visual information 620 in the second display area 220 when it detects that the charge level is greater than or equal to the first threshold level 630. Can be displayed. Through this, the wearable device 100 may reduce power consumption. In addition, the wearable device 100 may change whether the above-described second display area 220 is set by the user or the processor 160. Through this, the wearable device 100 may adjust the charging speed and is not limited to the above-described embodiment.
  • the wearable device 100 may display the first visual information 510 on the first display area 210 in a charging state. At the same time, the wearable device 100 may display the second visual information 520 on the second display area 220. In this case, when the wearable device 100 detects an event for the first application, the wearable device 100 may display the third visual information 530. In this case, as an example, the wearable device 100 may control the display of the third visual information 530 based on the application attribute of the first application. In this case, as an example, the property of the application may be determined based on the characteristics of the application.
  • the wearable device 100 when the wearable device 100 detects an event for a first application having a first attribute, the wearable device 100 may display the second visual information 520 and the third visual information. 530 can be displayed simultaneously. That is, the first application having the first property may be an application that can deliver additional information to some areas.
  • the application having the first property may be an SNS, a messenger, or the like.
  • the wearable device 100 when the wearable device 100 detects an event for a first application having a second attribute, the wearable device 100 may display a display of the second visual information 520. After that, the third visual information 530 may be displayed on the second display area 220. That is, the first application having the second attribute may be an application capable of delivering information on an event to the entire area. In this case, as an example, the application having the first attribute may be a telephone or an alarm.
  • the application property of the first application may be changed and set by the user or the processor 160. That is, the attributes of the application can be changed. In this way, the user may set different control methods of the display area.
  • the wearable device 100 may display the first visual information 510 on the first display area 210 in a charging state. At the same time, the wearable device 100 may display the second visual information 520 on the second display area 220. In this case, the wearable device 100 may detect the gesture input using the camera unit 130.
  • the gesture input may be an input for detecting a hand gesture of the user. Also, for example, it may be an input for detecting the movement of the user's head. That is, the gesture input may be a predetermined gesture of the user detected by the camera unit 130, and is not limited to the above-described embodiment.
  • the wearable device 100 may detect the control input by using the control input sensing unit 140.
  • the control input input may be an input of touching the display unit 110 of the wearable device 100.
  • the control input may be a voice input. That is, the wearable device 100 may use a voice input as an input for controlling an application and an event.
  • the wearable device 100 may display third visual information 530.
  • the wearable device 100 may detect the first gesture input.
  • the gesture input may be an input detected by the user's hand 820.
  • the wearable device 100 may execute the first application related to the event based on the first gesture input.
  • the wearable device 100 may display an execution screen 810 of the first application on the second display area 220. That is, the wearable device 100 may maintain the first visual information 510 in the first display area 210.
  • the wearable device 100 may end the display of the third visual information 530 in the second display area 220 and display the execution screen 810 of the first application. That is, the wearable device 100 may control the event using the first gesture input and display the associated execution screen 810.
  • the wearable device 100 may detect the first voice input.
  • the wearable device 100 may end the display of the third visual information 530 based on the first voice input and display the execution screen 810 of the first application. That is, the wearable device 100 may control an event using a gesture input, a voice input, or the like.
  • the wearable device 100 may control an event by using an input detected by the control input sensing unit 140, and the wearable device 100 is not limited to the above-described embodiment.
  • the wearable device 100 may detect that charging of the wearable device 100 is stopped while the first application is executed based on the first gesture input. In this case, the wearable device 100 may display the execution screen 810 of the first application on the first display area 210. In this case, the wearable device 100 may terminate the display of the charging information of the first display area 210. More specifically, the wearable device 100 may not display visual information on the second display area 220 when charging is stopped. That is, the wearable device 100 may not project the light source and do not generate the second display area 220. Therefore, the wearable device 100 may display the execution screen 810 of the first application displayed on the second display area 220 on the first display area 210 during charging. In this way, the user may be continuously provided with execution information of the first application even when the charging of the wearable device 100 is stopped.
  • the wearable device 100 may display the third visual information 530.
  • the wearable device 100 may detect the second gesture input.
  • the wearable device 100 may end the display of the third visual information 530 based on the second gesture input.
  • the wearable device 100 may display the second visual information 520 again.
  • the wearable device 100 may further display fourth visual information (not shown) related to the third visual information 530. That is, the wearable device 100 may forcibly terminate the event of the first application by using the second gesture input.
  • the first application may be a telephone application
  • the event may be a received call event.
  • the user may proceed with the call via the first gesture input.
  • the user may forcibly terminate the call through the second gesture input.
  • the wearable device 100 may detect another input using the control input sensing unit 140 and control an event with the detected input, but is not limited to the above-described embodiment.
  • applications and events may be executed by the user or the processor 160 and are not limited to the above-described embodiment.
  • FIGS. 9A and 9B illustrate a method of displaying visual information based on a control input by a wearable device according to an exemplary embodiment of the present specification.
  • the wearable device 100 may display first visual information on the first display area 210.
  • the wearable device 100 may display the second visual information 520 on the second display area 220.
  • the wearable device 100 may display third visual information 530 related to the first application.
  • the third visual information 530 may be visual information about the event.
  • the wearable device 100 may detect the first input within the first threshold time after detecting the event.
  • the first input may be a first gesture input detected by the camera unit 130.
  • the first gesture input may be a gesture detected by the user's hand 910.
  • the first input may be an input detected by the control input sensing unit 140 and is not limited to the above-described embodiment.
  • the wearable device 100 may execute the first application based on the first input. Also, the wearable device 100 may display the execution screen 920 of the first application on the second display area 220.
  • the wearable device 100 may maintain the first visual information 510 in the first display area 210.
  • the wearable device 100 may end the display of the third visual information 530 in the second display area 220 and display the execution screen 920 of the first application. That is, the wearable device 100 may control the event using the first gesture input and display the associated execution screen 920.
  • the first threshold time may be a threshold time at which the first application may be executed.
  • the first threshold time may be changed and set by the user or the processor 160 and may have a predetermined error.
  • the wearable device 100 when the wearable device 100 detects an event and fails to detect the first gesture within the first threshold time, the wearable device 100 may use the third visual information.
  • the display of 530 may be terminated. Thereafter, the wearable device 100 may display the fourth visual information 930 related to the third visual information.
  • the fourth visual information may be summary information or alarm information indicating that the event is detected. That is, the wearable device 100 may detect an event, display related visual information if the input is not detected within a predetermined time, and end the detection of the event.
  • FIG. 10 is a diagram for a method of displaying visual information based on a charging place by a wearable device according to one embodiment of the present specification.
  • the wearable device 100 may display visual information on the second display area 220 when detecting that the wearable device 100 is changed to a charging state.
  • the wearable device 100 may project a light source out of the wearable device 100 and display visual information on the second display area 220 based on the projected light source.
  • the second display area 220 may be set based on the area where the light source is projected. That is, the size of the second display area 220 may be the same as the size of the area where the light source reaches.
  • the wearable device 100 may control the size of an area in which the light source is projected. That is, the wearable device 100 may adjust the size of the second display area 220, and thus, the size of the visual information displayed on the second display area 220. Also, as an example, the wearable device 100 may control the size of the second display area 220 based on a position to be attached during charging.
  • the wearable device 100 may set the second display area 220 to the first size.
  • the wearable device 100 may set the second display area 220 to a second size.
  • the second size may be larger than the first size. That is, the wearable device 100 may adjust the size of the second display area 220 based on the position where it is attached to charge.
  • the wearable device 100 may project a light source and set the size of the second display area 220 based on the information on which the projected light source is reflected. In more detail, the wearable device 100 may set the size of the second display area 220 based on a point at which the information reflected by the curved surface of the projected light source is changed.
  • the wearable device 100 may receive light source projection information from the charging device or the cradle.
  • the light source projection information may be changed based on the position where the charging device or the cradle is attached.
  • the wearable device 100 may change the size of the second display area 220 based on the received light source projection information.
  • the wearable device 100 may set the size of the second display area 220 differently according to the position where it is attached and charged, and is not limited to the above-described embodiment.
  • FIG. 11 is a diagram illustrating a control method of a wearable device according to one embodiment of the present specification.
  • the wearable device 100 may detect that it is changed to a charged state (S1110).
  • the wearable device 100 may be a device that can be charged separately from the user.
  • the wearable device may be separated from the user and charged in combination with the charging device.
  • the charging device may receive power by wire or wirelessly and charge the combined wearable device.
  • the charging device may be supported by the cradle.
  • the cradle may be attached to a wall, a desk, or the like. More specifically, the charging device and the wearable device 100 may be coupled to each other and fixed to the wall by the cradle to be charged.
  • the wearable device 100 may be fixed to a desk or the like in combination with a charging device and charged. That is, the wearable device 100 may be charged in a state separated from the user by a separate charging device, and is not limited to the above-described embodiment.
  • the wearable device 100 may display the first visual information on the first display area.
  • the first visual information of the first display area may be displayed on the wearable device. It may be displayed on the display unit 110. That is, the first visual information may be visual information displayed on the wearable device.
  • the first visual information may be visual information displayed regardless of whether an event of the first application is detected.
  • the first visual information may be visual information that is set based only on a state of charge and is not changed by an external event and an application.
  • the wearable device 100 may display the second visual information on the second display area (S1130).
  • the second visual information of the second display area may be a wearable device ( 100) may be visual information displayed based on the light source projected out.
  • the wearable device 100 may project a light source using the light source unit 120, and display second visual information on the second display area based on the projected light source. That is, the second visual information may be visual information displayed based on the light source projected outside the wearable device 100.
  • the second visual information may include at least one of a background screen, a date, and time information.
  • the second visual information may be visual information about the first object.
  • the processor 160 may display the first interface on the first display area before the wearable device 100 is switched to the charging state.
  • the first interface may include a plurality of objects.
  • the plurality of objects may be objects for icons, applications, dates, times, and the like.
  • the processor 160 may detect a control input for selecting the first object in the first interface. Thereafter, when the wearable device 100 is switched to the charged state, the processor 160 may display the second visual information as the visual information on the first object. For example, when the first object is an object for time and date information, the processor 160 may display the time and date information as the second visual information in the second display area.
  • the wearable device 100 may detect an event related to the first application while being charged.
  • the first application is executed in the wearable device 100.
  • the event may be information received from the outside through the communication unit 150.
  • the event may be an SNS, a message, a call signal, or the like.
  • the event may be information detected based on a predetermined setting value.
  • the event may be an alarm of a preset time. That is, the event may be related information about the first application and is not limited to the above-described embodiment.
  • the processor 160 may further provide notification if the event is detected.
  • the notification may include at least one of a voice notification, a vibration notification, an image notification, and a text notification. Through this, the user can confirm that the event is detected.
  • the wearable device 100 may display third visual information related to the first application on the second display area (S1150).
  • the wearable device 100 may be a first device. Detecting an event related to an application may display third visual information related to the first application on the second display area.
  • the third visual information may be visual information related to the event.
  • the wearable device 100 may simultaneously display the second visual information and the third visual information based on the attribute of the application.
  • the wearable device 100 may end the display of the second visual information and display the third visual information.
  • the wearable device 100 is not limited to the above-described embodiment.
  • the wearable device 100 and its control method according to the present disclosure are not limited to the configuration and method of the embodiments described as described above, but the embodiments are all of the embodiments so that various modifications can be made. Or some may be selectively combined.
  • the wearable device 100 and the control method of the present specification may be embodied as processor readable codes in a processor readable recording medium included in the network device.
  • the processor-readable recording medium includes all kinds of recording devices that store data that can be read by the processor. Examples of the processor-readable recording medium include ROM, RAM, magnetic tape, floppy disk, optical data storage device, and the like, and may also be implemented in the form of a carrier wave such as transmission through the Internet.
  • the processor-readable recording medium can also be distributed over network coupled computer systems so that the processor-readable code is stored and executed in a distributed fashion.
  • the present invention has industrial applicability that can be used in terminal devices and that can be repeated.

Abstract

본 명세서의 일 실시예에 따라 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 웨어러블 디바이스의 제어 방법에 있어서, 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트하는 단계, 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이 하는 단계, 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이하는 단계, 웨어러블 디바이스가 충전 중인 상태에서 제 1 어플리케이션과 관련된 이벤트를 디텍트하는 단계, 제 2 디스플레이 영역에 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이하는 단계를 포함할 수 있다. 이때, 제 1 디스플레이 영역의 제 1 비주얼 정보는 웨어러블 디바이스 상의 디스플레이 유닛에 디스플레이되고, 제 2 디스플레이 영역의 제 2 비주얼 정보는 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이될 수 있다.

Description

웨어러블 디바이스 및 그 제어 방법
본 명세서는 웨어러블 디바이스 및 그 제어 방법에 대한 것이다.
최근, 웨어러블 디바이스 사용이 증가하고 있다. 이때, 웨어러블 디바이스는 스마트 워치, HMD 등과 같은 디바이스들일 수 있다. 즉, 웨어러블 디바이스는 유저에 의해 착용되는 디바이스일 수 있다. 이때, 웨어러블 디바이스의 디스플레이 영역은 한정적일 수 있다. 따라서, 웨어어블 디바이스의 디스플레이 영역을 확장하여 사용하는 방법이 요구된다.
본 명세서는, 웨어러블 디바이스 및 그 제어 방법을 제공하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 제 1 디스플레이 영역의 비주얼 정보를 웨어러블 디바이스 상의 디스플레이 유닛에 의해 디스플레이하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 제 2 디스플레이 영역의 비주얼 정보를 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트하는 경우, 웨어러블 디바이스는 제 1 디스플레이 영역 및 제 2 디스플레이 영역의 비주얼 정보를 제어하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스가 충전 상태에서 어플리케이션과 관련된 이벤트를 디텍트하는 경우, 웨어러블 디바이스는 이벤트에 대한 비주얼 정보를 제어하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 충전 레벨을 디텍트하고, 충전 레벨에 기초하여 비주얼 정보의 디스플레이 여부를 제어하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 어플리케이션 속성에 기초하여 이벤트에 대한 비주얼 정보의 디스플레이를 제어하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 제스처 인풋을 디텍트하고, 제스처 인풋에 기초하여 비주얼 정보의 디스플레이를 제어하는데 목적을 가지고 있다.
또한, 웨어러블 디바이스는 충전 정보 및 비주얼 정보에 대한 인터페이스를 디스플레이하는데 목적을 가지고 있다.
본 명세서의 일 실시예에 따라 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 웨어러블 디바이스를 제공할 수 있다. 이때, 제 1 디스플레이 영역의 비주얼 정보는 웨어러블 디바이스 상의 디스플레이 유닛에 의해 디스플레이되고, 제 2 디스플레이 영역의 비주얼 정보는 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이되고, 디스플레이 유닛을 제어하는 프로세서를 포함할 수 있다. 이때, 프로세서는 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트한 경우, 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이하고, 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이하고, 웨어러블 디바이스가 충전 중인 상태에서 제 1 어플리케이션과 관련된 이벤트를 디텍트하면 제 2 디스플레이 영역에 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이할 수 있다.
본 명세서의 일 실시예에 따라 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 웨어러블 디바이스의 제어 방법에 있어서, 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트하는 단계, 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이 하는 단계, 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이하는 단계, 웨어러블 디바이스가 충전 중인 상태에서 제 1 어플리케이션과 관련된 이벤트를 디텍트하는 단계, 제 2 디스플레이 영역에 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이하는 단계를 포함할 수 있다. 이때, 제 1 디스플레이 영역의 제 1 비주얼 정보는 웨어러블 디바이스 상의 디스플레이 유닛에 디스플레이되고, 제 2 디스플레이 영역의 제 2 비주얼 정보는 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이될 수 있다.
본 명세서는 웨어러블 디바이스 및 그 제어 방법을 제공할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이할 수 있다.
또한, 본 명세서에 따르면, 제 1 디스플레이 영역의 비주얼 정보는 웨어러블 디바이스 상의 디스플레이 유닛에 의해 디스플레이될 수 있다.
또한, 본 명세서에 따르면, 제 2 디스플레이 영역의 비주얼 정보는 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이될 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트하는 경우, 웨어러블 디바이스는 제 1 디스플레이 영역 및 제 2 디스플레이 영역의 비주얼 정보를 제어할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스가 충전 상태에서 어플리케이션과 관련된 이벤트를 디텍트하는 경우, 웨어러블 디바이스는 이벤트에 대한 비주얼 정보를 제어할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 충전 레벨을 디텍트하고, 충전 레벨에 기초하여 비주얼 정보의 디스플레이 여부를 제어할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 어플리케이션 속성에 기초하여 이벤트에 대한 비주얼 정보의 디스플레이를 제어할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 제스처 인풋을 디텍트하고, 제스처 인풋에 기초하여 비주얼 정보의 디스플레이를 제어할 수 있다.
또한, 본 명세서에 따르면, 웨어러블 디바이스는 충전 정보 및 비주얼 정보에 대한 인터페이스를 디스플레이할 수 있다.
도 1는 본 명세서의 일 실시예에 따른 웨어러블 디바이스의 블록도를 나타낸 도면이다.
도 2a 및 도 2b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 3a 및 도 3b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 4는 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 충전 여부에 기초하여 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 5는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 어플리케이션의 이벤트에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타난 도면이다.
도 6a 및 도 6b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 충전 레벨에 기초하여 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 7a 및 도 7b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 어플리케이션의 속성에 기초하여 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 8a 및 도 8b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 제스처 인풋에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 9a 및 도 9b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 컨트롤 인풋에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 10는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 충전 장소에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다.
도 11은 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 제어 방법을 나타낸 도면이다.
이하 첨부 도면들 및 첨부 도면들에 기재된 내용들을 참조하여 실시예를 상세하게 설명하지만, 청구하고자 하는 범위는 실시 예들에 의해 제한되거나 한정되는 것은 아니다.
본 명세서에서 사용되는 용어는 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례 또는 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 명세서의 설명 부분에서 그 의미를 기재할 것이다. 따라서 본 명세서에서 사용되는 용어는, 단순한 용어의 명칭이 아닌 그 용어가 가지는 실질적인 의미와 본 명세서의 전반에 걸친 내용을 토대로 해석되어야 함을 밝혀두고자 한다.
그리고 본 명세서에서 제1 및/또는 제2 등의 용어는 다양한 구성 요소들을 설명하는데 사용될 수 있지만, 상기 구성 요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성 요소를 다른 구성 요소로부터 구별하는 목적으로만, 예컨대 본 명세서의 개념에 따른 권리 범위로부터 이탈되지 않은 채, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게, 제2 구성요소는 제1 구성요소로도 명명될 수 있다.
또한 명세서 전체에서, 어떤 부분이 어떤 구성 요소를 “포함”한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성 요소를 제외하는 것이 아니라 다른 구성 요소를 더 포함할 수 있는 것을 의미한다. 그리고 명세서에 기재된 “…유닛”, “…부” 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 및/또는 소프트웨어의 결합으로 구현될 수 있다.
도 1는 본 명세서의 일 실시예에 따른 웨어러블 디바이스의 블록도를 나타낸 도면이다. 이때, 웨어러블 디바이스(100)는 유저에 의해 착용되는 디바이스일 수 있다. 또한, 웨어러블 디바이스(100)는 유저로부터 분리되어 충전될 수 있는 디바이스일 수 있다. 일 예로, 웨어러블 디바이스는 유저로부터 분리되어 충전 디바이스와 결합되어 충전될 수 있다. 이때, 일 예로, 충전 디바이스는 유선 또는 무선으로 전원을 공급받고, 결합된 웨어러블 디바이스를 충전시킬 수 있다. 또한, 일 예로, 충전 디바이스는 크래들에 의해 지지될 수 있다. 이때, 크래들은 벽면, 책상 등에 부착될 수 있다. 보다 상세하게는 충전 디바이스와 웨어러블 디바이스(100)는 서로 결합되어 크래들에 의해 벽면에 고정되어 충전될 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 충전 디바이스와 결합하여 책상 등에 고정되어 충전될 수 있다. 즉, 웨어러블 디바이스(100)는 별도의 충전 디바이스에 의해 유저에게 분리된 상태로 충전될 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 웨어러블 디바이스(100)는 스마트 워치, HMD, 스마트 렌즈 등일 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 목걸이 타입으로 된 디바이스일 수 있다. 즉, 웨어러블 디바이스(100)은 유저에 의해 착용 및 분리될 수 있는 디바이스일 수 있으며, 상술한 실시예로 한정되지 않는다.
웨어러블 디바이스(100)는 디스플레이 유닛(110) 및 프로세서(160)를 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 광원 유닛(120)을 더 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 카메라 유닛(130)을 더 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 컨트롤 인풋 센싱 유닛(140)을 더 포함할 수 있다. 또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 커뮤니케이션 유닛(150)을 더 포함할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 위치 정보 수신 유닛(미도시)를 더 포함할 수 있으며, 상술한 실시예로 한정되지 않는다.
웨어러블 디바이스(100)는 디스플레이 유닛(110)을 포함할 수 있다. 이때, 일 예로, 디스플레이 유닛(110)은 웨어러블 디바이스(100) 상에 포함된 유닛일 수 있다. 이때, 디스플레이 유닛(110)은 프로세서(160)에 의해 제어되는 유닛일 수 있다. 웨어러블 디바이스(100)는 디스플레이 유닛(110)을 이용하여 웨어러블 디바이스 상에 비주얼 정보를 디스플레이할 수 있다. 이때, 실시예에 따라, 디스플레이 유닛(110)은 유기 발광 다이오드(Organic Light-Emitting Diode, OLED), 액정 표시 장치(Liquid Crystal Display, LCD), 전자잉크, 헤드 마운트 디스플레이(Head Mounted Display, HMD) 및 플렉서블 디스플레이 중 적어도 하나를 포함할 수 있다. 즉, 디스플레이 유닛(110)은 웨어러블 디바이스(100)에 구비되어 있는 유닛을 이용하여 웨어러블 디바이스(100) 상에 비주얼 정보를 디스플레이할 수 있다.
웨어러블 디바이스(100)는 옵셔널한 구성으로 광원 유닛(120)을 포함할 수 있다. 이때, 광원 유닛(120)은 프로세서(160)에 의해 제어되는 유닛일 수 있다. 일 예로, 광원 유닛(120)은 광원을 웨어러블 디바이스(100) 밖으로 투영하여 비주얼 정보를 디스플레이하는 유닛일 수 있다. 일 예로, 광원 유닛(120)은 소형 프로젝터일 수 있다. 즉, 웨어러블 디바이스(100)는 광원 유닛(120)을 이용하여 웨어러블 디바이스(100) 밖으로 광원을 투영하고 비주얼 정보를 디스플레이할 수 있다. 또한, 일 예로, 광원 유닛(120)은 광원, 패널, 반사칩, 렌즈 등을 포함할 수 있다. 이때, 광원 유닛(120)은 프로세서(160)에 의해 제어될 수 있다. 일 예로, 프로세서(160)는 웨어러블 디바이스(100)가 충전 중임을 디텍트하면 광원 유닛(120)을 이용하여 비주얼 정보를 디스플레이할 수 있다. 이때, 광원 유닛(120)은 광원을 패널에 통과시키고, 패널에 통과된 광원을 반사칩에 반사시킨 후 렌즈를 통해 웨어러블 디바이스(100) 밖으로 투영하여 비주얼 정보를 디스플레이할 수 있다. 또한, 일 예로, 광원 유닛(120)은 웨어러블 디바이스(100)가 아닌 충전 디바이스에 포함될 수 있다. 또한, 일 예로, 광원 유닛(120)은 별도의 디바이스로서 웨어러블 디바이스(100)와 커뮤니케이션을 통해 정보를 교환한 후 동작할 수 있다. 이와 관련해서는 도 3a 및 도 3b에서 후술한다.
웨어러블 디바이스(100)는 옵셔널한 구성으로 카메라 유닛(130)을 더 포함할 수 있다. 이때, 카메라 유닛(130)은 프로세서(160)에 의해 제어되는 유닛일 수 있다. 일 예로, 카메라 유닛(130)은 전방의 이미지 또는 유저의 제스처를 디텍트할 수 있다. 보다 상세하게는, 카메라 유닛(130)은 웨어러블 디바이스(100)의 주변 환경의 이미지를 촬영하여 전기적 신호로 변환한다. 이를 위해 카메라 유닛(130)은 이미지 센서를 포함할 수 있다. 이미지 센서는 광학 신호를 전기적 신호로 변환할 수 있다. 카메라 유닛(130)에서 촬영되어 전기적 신호로 변환된 이미지는 스토리지 유닛(미도시)에 저장된 후 프로세서(160)로 출력되거나, 저장 없이 바로 프로세서(160)로 출력될 수 있다. 또한, 카메라 유닛(130)은 웨어러블 디바이스(100) 주변에 위치하는 유저의 제스처를 디텍트할 수 있다. 이때, 제스처는 카메라 유닛(130)에서 디텍트되는 인풋일 수 있다. 이때, 프로세서(160)는 카메라 유닛(130)을 이용하여 기설정된 제스처와 동일한 제스처를 디텍트하면 오퍼레이션을 실행할 수 있다. 즉, 카메라 유닛(130)을 이용하여 유저의 제스처를 웨어러블 디바이스(100)를 제어하는 인풋으로 디텍트할 수 있으며, 상술한 실시예로 한정되지 않는다. 이와 관련해서, 도 8a 및 도 8b에서 후술한다.
또한, 웨어러블 디바이스(100)는 옵셔널한 구성으로 컨트롤 인풋 센싱 유닛(140)을 더 포함할 수 있다. 이때, 컨트롤 인풋 센싱 유닛(140)은 프로세서(160)에 의해 제어되는 유닛일 수 있다. 컨트롤 인풋 센싱 유닛(140)은 웨어러블 디바이스(100)에 장착된 적어도 하나의 센서를 사용하여 유저 입력 또는 디바이스가 인식하는 환경을 프로세서(160)로 전달할 수 있다. 보다 상세하게는, 컨트롤 인풋 센싱 유닛(140)은 웨어러블 디바이스(100)에 장착된 적어도 하나의 센서를 사용하여 유저의 컨트롤 인풋을 센싱할 수 있다. 여기서 적어도 하나의 센싱 수단은 터치 센서, 지문 센서, 모션 센서, 근접 센서, 조도 센서, 음성 인식 센서 및 압력 센서 등의 컨트롤 인풋 입력을 센싱하기 위한 다양한 센싱 수단을 포함할 수 있다. 컨트롤 인풋 센싱 유닛(160)은 상술한 다양한 센싱 수단을 통칭하는 것으로, 상술한 센서들은 별도의 엘리먼트로 디바이스에 포함되거나, 적어도 하나 이상의 엘리먼트로 통합되어 포함될 수 있다. 또한, 일 예로, 컨트롤 인풋 센싱 유닛(140)은 디스플레이 유닛(110)과 통합된 엘레멘트일 수 있다. 일 예로, 디스플레이 유닛(110)은 터치 센시티브 디스플레이 유닛(110)일 수 있다. 즉, 프로세서(160)는 디스플레이 유닛(110)에 의해 디스플레이되는 비주얼 정보에 대한 인풋을 컨트롤 인풋 센싱 유닛(140)을 통해 디텍트할 수 있다.
또한, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(150)을 더 포함할 수 있다. 이때, 커뮤니케이션 유닛(150)은 프로세서(160)에 의해 제어될 수 있다. 이때, 커뮤니케이션 유닛(150)은 외부 디바이스와 다양한 프로토콜을 사용하여 통신을 수행하고, 이를 통해 데이터를 송신 및 수신할 수 있다. 일 예로, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(150)을 통해 어플리케이션에 대한 이벤트 정보를 수신할 수 있다. 즉, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(150)을 이용하여 외부 디바이스로부터 정보를 수신할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 커뮤니케이션 유닛(150)을 이용하여 웨어러블 디바이스(100)의 위치 정보를 수신할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 별도의 위치 정보 수신 유닛(미도시)를 포함할 수 있다. 이때, 일 예로, 위치 정보 수신 유닛은 GPS를 포함할 수 있으며, 위성을 통해 웨어러블 디바이스(100)의 위치 정보를 수신할 수 있다. 즉, 위치 정보 수신 유닛은 웨어러블 디바이스의 위치 정보를 수신하는 유닛일 수 있으며, 상술한 실시예로 한정되지 않는다.
프로세서(160)는 디스플레이 유닛을 제어하는 유닛일 수 있다. 또한, 프로세서(160)는 광원 유닛(120), 카메라 유닛(130), 컨트롤 인풋 센싱 유닛(140) 및 커뮤니케이션 유닛(150) 중 적어도 하나 이상을 제어하는 유닛일 수 있다. 보다 상세하게는, 프로세서(160)는 비주얼 정보를 제 1 디스플레이 영역 및 제 2 디스플레이 영역 중 적어도 하나의 영역에 디스플레이할 수 있다. 이때, 일 예로, 제 1 디스플레이 영역의 비주얼 정보는 디스플레이 유닛(110)에 의해 디스플레이될 수 있다. 즉, 제 1 디스플레이 영역의 비주얼 정보는 웨어러블 디바이스(100) 위에서 디스플레이되는 비주얼 정보일 수 있다. 또한, 일 예로, 제 2 디스플레이 영역의 비주얼 정보는 웨어러블 디바이스(100) 밖으로 투영되는 광원에 기초하여 디스플레이될 수 있다. 보다 상세하게는, 프로세서(160)는 웨어러블 디바이스(100)상이 아닌 영역에 비주얼 정보를 디스플레이할 수 있다. 이때, 일 예로, 상술한 바와 같이, 프로세서(160)는 광원 유닛(120)을 이용하여 광원을 웨어러블 디바이스(100) 밖으로 투영하고 비주얼 정보를 디스플레이할 수 있다. 일 예로, 웨어러블 디바이스(100)는 충전 디바이스와 결합하여 벽면에 걸어진 상태로 충전될 수 있다. 이때, 프로세서(160)는 광원 유닛(120)을 이용하여 웨어러블 디바이스(100) 옆의 벽면에 비주얼 정보를 디스플레이할 수 있다. 이때, 제 2 디스플레이 영역은 광원이 투영되는 영역으로 설정될 수 있다. 일 예로, 프로세서(160)는 광원 유닛(120)을 이용하여 제 2 디스플레이 영역의 크기를 조절할 수 있다. 즉, 프로세서(160)는 광원이 투영되는 범위를 설정하고, 설정된 범위에 기초하여 제 2 디스플레이 영역을 조절할 수 있다. 이때, 비주얼 정보의 크기도 동시에 커질 수 있으며, 이와 관련해서는 도 10에서 후술한다.
또한, 프로세서(160)는 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트할 때 비주얼 정보를 디스플레이할 수 있다. 이때, 일 예로, 프로세서(160)가 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트하는 경우, 프로세서(160)는 디스플레이 유닛(110)을 이용하여 웨어러블 디바이스(100) 상의 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이할 수 있다. 동시에, 프로세서(160)는 광원 유닛(120)을 이용하여 웨어러블 디바이스(100) 밖의 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이할 수 있다. 이때, 일 예로, 제 1 비주얼 정보는 제 1 어플리케이션의 이벤트가 디텍트되는지 여부와 무관하게 디스플레이되는 비주얼 정보일 수 있다. 보다 상세하게는, 제 1 비주얼 정보는 충전 상태인지 여부에만 기초하여 설정되고, 외부 이벤트 및 어플리케이션에 의해 변경되지 않는 비주얼 정보일 수 있다.
이때, 일 예로, 제 1 비주얼 정보는 충전 정보일 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 제 1 디스플레이 영역 전체에 충전 정보를 디스플레이할 수 있다. 이를 통해, 유저는 웨어러블 디바이스(100)의 전체 영역을 통해 충전 정보를 제공 받을 수 있다.
또 다른 일 예로, 웨어러블 디바이스(100)는 충전 정보로서 제 1 디스플레이 영역에 제 1 인터페이스를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 1 인터페이스 상에 제 1 인디케이터를 더 디스플레이할 수 있다. 이때, 제 1 인터페이스는 웨어러블 디바이스(100)의 충전 정도를 나타내는 인터페이스일 수 있다. 또한, 제 1 인디케이터는 충전 정보에 기초하여 웨어러블 디바이스(100)의 충전 레벨을 나타내는 인디케이터일 수 있다.
또한, 일 예로, 제 1 비주얼 정보는 배경화면일 수 있다. 또한, 일 예로, 제 2 비주얼 정보는 배경화면, 날짜, 시간 정보 중 적어도 하나를 포함할 수 있다. 또 다른 일 예로, 제 2 비주얼 정보는 제 1 오브젝트에 대한 비주얼 정보일 수 있다. 보다 상세하게는, 프로세서(160)는 웨어러블 디바이스(100)가 충전 상태로 전환되기 이전에 제 1 디스플레이 영역에 제 1 인터페이스를 디스플레이할 수 있다. 이때, 제 1 인터페이스는 복수의 오브젝트를 포함할 수 있다. 이때, 복수의 오브젝트는 아이콘, 어플리케이션, 날짜, 시간 등에 대한 오브젝트일 수 있다. 이때, 프로세서(160)는 제 1 인터페이스에서 제 1 오브젝트를 선택하는 컨트롤 인풋을 디텍트할 수 있다. 그 후, 상기 웨어러블 디바이스(100)가 충전 상태로 전환되는 경우, 프로세서(160)는 제 2 비주얼 정보를 제 1 오브젝트에 대한 비주얼 정보로서 디스플레이할 수 있다. 일 예로, 제 1 오브젝트가 시간 및 날짜 정보에 대한 오브젝트인 경우, 프로세서(160)는 제 2 비주얼 정보로서 시간 및 날짜 정보를 제 2 디스플레이 영역에 디스플레이할 수 있다.
또한, 일 예로, 프로세서(160)는 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이하고, 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이한 상태에서 제 1 어플리케이션에 대한 이벤트를 디텍트할 수 있다. 이때, 제 1 어플리케이션은 웨어러블 디바이스(100)에서 실행되는 소프트웨어일 수 있다. 또한, 일 예로, 이벤트는 커뮤니케이션 유닛(150)을 통해 외부에서 수신되는 정보일 수 있다. 이때, 일 예로, 이벤트는, SNS, 메시지, 통화 신호 등일 수 있다. 또한, 일 예로, 이벤트는 기설정된 설정값에 기초하여 디텍트되는 정보일 수 있다. 일 예로, 이벤트는 기설정된 시간에 디텍트되는 알람일 수 있다. 즉, 이벤트는 제 1 어플리케이션에 대한 관련된 것일 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 프로세서(160)는 이벤트를 디텍트면 노티피케이션을 더 제공할 수 있다. 이때, 노티피케이션은 음성 노티피케이션, 진동 노티피케이션, 이미지 노티피케이션 및 텍스트 노티피케이션 중 적어도 하나를 포함할 수 있다. 이를 통해, 유저는 이벤트가 디텍트됨을 확인할 수 있다.
또한, 프로세서(160)는 제 1 어플리케이션과 관련된 이벤트를 디텍트하면 제 2 디스플레이 영역에 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이할 수 있다. 이때, 제 3 비주얼 정보는 이벤트와 관련된 비주얼 정보일 수 있다. 일 예로, 이벤트가 메시지인 경우, 제 3 비주얼 정보는 메시지에 대한 요약 정보 또는 알람 정보일 수 있다. 즉, 제 3 비주얼 정보는 이벤트에 대한 비주얼 정보일 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 상술한 엘레먼트들은 별도의 엘리먼트로 웨어러블 디바이스(100)에 포함되거나, 적어도 하나 이상의 엘리먼트로 통합되어 포함될 수 있다.
도 2a 및 도 2b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 제 2 디스플레이 영역에 비주얼 정보를 나타내는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)가 충전 상태가 아닌 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 비주얼 정보를 디스플레이할 수 있다. 이때, 제 1 디스플레이 영역(210)은 상술한 바와 같이 웨어러블 디바이스(100) 상의 디스플레이 유닛(110)에 의해 디스플레이되는 영역일 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보를 디스플레이할 수 있다. 동시에, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보를 디스플레이할 수 있다. 이때, 제 2 디스플레이 영역(220)은 웨어러블 디바이스(100) 밖에서 비주얼 정보를 디스플레이하는 영역일 수 있다.
이때, 일 예로, 도 2a를 참조하면 제 1 비주얼 정보는 웨어러블 디바이스(100)의 충전 레벨에 대한 정보일 수 있다. 즉, 제 1 비주얼 정보는 웨어러블 디바이스(100)의 충전 정도일 수 있다. 또한, 제 2 비주얼 정보는 배경 화면 정보일 수 있다. 즉, 제 2 비주얼 정보는 시간, 날짜 등에 대한 정보를 포함하는 비주얼 정보일 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 벽면에 부착되어 충전될 수 있다.
보다 상세하게는, 도 2b를 참조하면, 웨어러블 디바이스(100)는 충전 디바이스와 결합하여 벽면에 부착된 상태로 충전될 수 있다. 이때, 일 예로, 충전 디바이스는 크래들을 통해 벽면에 결합될 수 있다. 즉, 웨어러블 디바이스(100)는 벽면에 결합된 충전 디바이스(230) 및 크래들을 이용하여 벽면에 부착될 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)을 벽면에 설정할 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)가 벽면에 부착된 형태로 충전되는 경우, 웨어러블 디바이스(100)는 광원 유닛(120)을 이용하여 광원을 벽면에 비출 수 있다. 이때, 제 2 디스플레이 영역(220)은 광원이 도달하는 영역으로 설정될 수 있다. 이때, 일 예로, 제 2 디스플레이 영역(220)의 크기는 조절될 수 있다. 또한, 제 2 비주얼 정보의 크기도 조절될 수 있다. 즉, 웨어러블 디바이스(100)는 투영되는 광원의 범위를 조절하여 제 2 디스플레이 영역(220)을 제어할 수 있다. 이를 통해, 유저는 웨어러블 디바이스(100)가 충전 중인 상태에서 웨어러블 디바이스(100)에 대한 비주얼 정보의 크기를 조절할 수 있다. 또한, 유저는 웨어러블 디바이스(100)가 충전 중인 경우에도 웨어러블 디바이스(100)를 제어할 수 있다.
도 3a 및 도 3b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 제 2 디스플레이 영역에 비주얼 정보를 나타내는 방법을 나타낸 도면이다. 이때, 도 3a를 참조하면, 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보를 디스플레이할 수 있다.
이때, 일 예로 상술한 바와 같이 제 2 디스플레이 영역(220)은 웨어러블 디바이스(100) 밖에서 광원이 투영되어 설정되는 영역일 수 있다. 이때, 도 3b를 참조하면, 광원 유닛(120)은 웨어러블 디바이스(100)에 포함되지 않은 별도의 디바이스일 수 있다. 보다 상세하게는, 광원 유닛(120)은 별도의 프로젝터(310)일 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)가 충전 상태로 전환되는 경우, 웨어러블 디바이스(100)는 충전 상태에 대한 정보를 프로젝터로 송신할 수 있다. 이때, 프로젝터(310)는 수신한 충전 정보에 기초하여 웨어러블 디바이스(100)와 인접한 영역에 제 2 디스플레이 영역(220)을 설정할 수 있다. 이때, 프로젝터(310)는 광원을 투사하고, 투사된 영역을 제 2 디스플레이 영역(220)으로 설정할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 비주얼 정보에 대한 신호를 프로젝터(310)로 송신할 수 있다. 프로젝터(310)는 수신된 신호에 기초하여 제 2 비주얼 정보를 디스플레이할 수 있다. 또한, 일 예로, 프로젝터(310)는 웨어러블 디바이스(100)의 위치 정보를 통해 웨어러블 디바이스(100)와 인접한 영역에 제 2 디스플레이 영역(220)을 설정할 수 있다. 또한, 웨어러블 디바이스(100)는 유저 또는 프로세서(160)에 의해 설정되는 영역을 제 2 디스플레이 영역(220)으로 설정할 수 있다. 이를 통해, 유저는 제 2 디스플레이 영역(220)의 크기 및 설정 영역을 조절할 수 있다. 또 다른 일 예로, 광원 유닛은 충전 디바이스(230) 또는 크래들에 부착된 유닛일 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)가 충전 디바이스(230) 또는 크래들에 부착된 경우, 충전 디바이스(230)는 광원을 투사하여 제 2 디스플레이 영역(220)을 설정할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 비주얼 정보에 대한 신호를 충전 디바이스(230) 또는 크래들로 송신할 수 있다. 충전 디바이스(230) 또는 크래들은 수신된 신호에 기초하여 제 2 비주얼 정보를 디스플레이할 수 있다.
도 4는 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 충전 여부에 기초하여 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)가 충전 상태가 아닌 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보를 디스플레이할 수 있다. 이때, 제 1 비주얼 정보는 배경화면 정보 또는 실행 중인 어플리케이션에 대한 비주얼 정보일 수 있다. 이때, 웨어러블 디바이스(100)는 광원에 기초하여 비주얼 정보를 디스플레이하는 제 2 디스플레이 영역(220)을 설정하지 않을 수 있다. 즉, 웨어러블 디바이스(100)는 충전 상태가 아니면 광원을 투사하지 않을 수 있다.
이때, 일 예로, 도 4를 참조하면, 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 비주얼 정보를 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 충전 이전 상태에 제 1 디스플레이 영역(210)에 디스플레이한 제 1 비주얼 정보를 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 2 비주얼 정보를 디스플레이할 수 있다. 이때, 제 2 비주얼 정보는 충전 정보일 수 있다. 즉, 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트한 경우, 웨어러블 디바이스(100)는 광원을 투사하여 제 1 비주얼 정보를 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 2 비주얼 정보로서 충전 정보를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)의 충전이 중단된 경우, 웨어러블 디바이스(100)는 제 1 비주얼 정보를 제 1 디스플레이 영역에 다시 디스플레이할 수 있다. 이때, 제 2 디스플레이 영역(220)은 사라질 수 있다. 즉, 웨어러블 디바이스(100)는 충전 상태에서만 광원을 투사하고, 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이할 수 있다. 이를 통해, 유저는 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이할지를 충전 여부를 통해 제어할 수 있다.
또 다른 일 예로, 웨어러블 디바이스(100)는 기설정된 오브젝트를 선택하는 컨트롤 인풋에 기초하여 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이할 수 있다. 이때, 오브젝트는 아이콘, 어플리케이션일 수 있다. 또 다른 일 예로, 오브젝트는 물리적인 버튼일 수 있다. 즉, 웨어러블 디바이스(100)는 충전 상태가 아니어도 광원을 투사하여 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이할 수 있으며, 상술한 실시예로 한정되지 않는다.
도 5는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 어플리케이션의 이벤트에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타난 도면이다. 웨어러블 디바이스(100)는 충전 상태로 변경됨을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(510)를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 충전 중인 상태에서 제 1 어플리케이션에 대한 이벤트를 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 어플리케이션에 대한 제 3 비주얼 정보(530)를 디스플레이할 수 있다. 이때, 제 3 비주얼 정보(530)는 이벤트에 대한 비주얼 정보일 수 있다. 이때, 일 예로, 제 3 비주얼 정보(530)는 제 2 비주얼 정보(520)와 동시에 제 2 디스플레이 영역(220)에 디스플레이될 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)가 제 1 어플리케이션에 대한 이벤트를 디텍트한 경우, 웨어러블 디바이스(100)는 제 2 비주얼 정보(520)의 디스플레이를 종료하고, 제 3 비주얼 정보(530)를 디스플레이할 수 있으며, 상술한 실시예로 한정되지 않는다.
일 예로, 도 5를 참조하면, 제 1 비주얼 정보(510)는 충전 정보일 수 있다. 또한, 제 2 비주얼 정보(520)는 배경화면 정보일 수 있다. 즉, 웨어러블 디바이스(100)는 충전 상태에서 충전 정보(510)를 제 1 디스플레이 영역(210)에 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 충전 상태에서 배경화면 정보를 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 이때, 제 1 어플리케이션은 메신저 어플리케이션일 수 있다. 또한, 이벤트는 외부에서 수신되는 메신저 어플리케이션에 대한 메시지일 수 있다. 이때, 제 3 비주얼 정보(530)는 메신저 어플리케이션의 메시지에 대한 요약 정보(530)일 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 배경화면을 유지하면서 메시지에 대한 요약 정보(530)를 디스플레이할 수 있다. 이를 통해, 유저는 웨어러블 디바이스(100)가 충전 중인 상태에서도 이벤트에 대한 정보를 확인할 수 있다.
도 6a 및 도 6b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 충전 레벨에 기초하여 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트한 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(610)를 디스플레이할 수 있다. 동시에 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(620)를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 충전 레벨을 더 디텍트할 수 있다. 이때, 충전 레벨은 웨어러블 디바이스(100)가 충전된 정도일 수 있다. 즉, 웨어러블 디바이스(100)가 모두 방전된 경우, 충전 레벨은 0일 수 있다. 또한, 웨어러블 디바이스(100)가 모두 충전된 경우, 충전 레벨은 100일 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 충전 레벨이 제 1 스레스홀드 레벨(630) 이상임을 더 디텍트하면 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(620)를 더 디텍트할 수 있다.
보다 상세하게는, 도 6a를 참조하면, 웨어러블 디바이스(100)의 충전 레벨이 제 1 스레스홀드 레벨(630) 미만인 경우, 웨어러블 디바이스(100)는 제 1 비주얼 정보(610) 및 제 2 비주얼 정보(620)를 제 1 디스플레이 영역(210)에 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 광원을 투사하지 않을 수 있다. 즉, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)을 설정하지 않을 수 있다. 이때, 일 예로, 제 1 스레스홀드 레벨(630)은 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(620)를 디스플레이할지 여부를 결정하는 임계 레벨일 수 있다. 또한, 제 1 스레스홀드 레벨(630)은 유저 또는 프로세서(160)에 의해 변경설정 될 수 있으며, 일정한 오차 범위를 가질 수 있다.
또한, 도 6b를 참조하면, 웨어러블 디바이스(100)의 충전 레벨이 제 1 스레스홀드 레벨(630) 이상인 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(610)를 디스플레이할 수 있다. 또한, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(620)를 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 충전 상태를 디텍트하고, 충전 레벨이 제 1 스레스홀드 레벨(630) 이상임을 더 디텍트할 때만 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(620)를 디스플레이할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 전력 소모를 줄일 수 있다. 또한, 웨어러블 디바이스(100)는 상술한 제 2 디스플레이 영역(220)의 설정 유무를 유저 또는 프로세서(160)에 의해 변경할 수 있다. 이를 통해, 웨어러블 디바이스(100)는 충전 속도를 조절할 수 있으며, 상술한 실시예로 한정되지 않는다.
도 7a 및 도 7b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 어플리케이션의 속성에 기초하여 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)는 충전 상태에서 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(510)를 디스플레이할 수 있다. 동시에 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(520)를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)가 제 1 어플리케이션에 대한 이벤트를 디텍트하는 경우, 웨어러블 디바이스(100)는 제 3 비주얼 정보(530)를 디스플레이할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 제 1 어플리케이션의 어플리케이션 속성에 기초하여 제 3 비주얼 정보(530)에 대한 디스플레이를 제어할 수 있다. 이때, 일 예로, 어플리케이션의 속성은 어플리케이션의 특징에 기초하여 결정될 수 있다.
일 예로, 도 7a를 참조하면, 웨어러블 디바이스(100)가 제 1 속성을 갖는 제 1 어플리케이션에 대한 이벤트를 디텍트한 경우, 웨어러블 디바이스(100)는 제 2 비주얼 정보(520) 및 제 3 비주얼 정보(530)를 동시에 디스플레이할 수 있다. 즉, 제 1 속성을 갖는 제 1 어플리케이션은 일부 영역에 부가적인 정보를 전달할 수 있는 어플리케이션일 수 있다. 일 예로, 제 1 속성을 갖는 어플리케이션은 SNS, 메신저 등일 수 있다.
또 다른 일 예로, 도 7b를 참조하면, 웨어러블 디바이스(100)가 제 2 속성을 갖는 제 1 어플리케이션에 대한 이벤트를 디텍트하는 경우, 웨어러블 디바이스(100)는 제 2 비주얼 정보(520)의 디스플레이를 종료하고, 제 3 비주얼 정보(530)를 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 즉, 제 2 속성을 갖는 제 1 어플리케이션은 전체 영역에 이벤트에 대한 정보를 전달할 수 있는 어플리케이션일 수 있다. 이때, 일 예로, 제 1 속성을 갖는 어플리케이션은 전화, 알람 등일 수 있다. 또 다른 일 예로, 제 1 어플리케이션의 어플리케이션 속성은 유저 또는 프로세서(160)에 의해 변경설정될 수 있다. 즉, 어플리케이션의 속성은 변경될 수 있다. 이를 통해, 유저는 디스플레이 영역의 제어방법을 다르게 설정할 수 있다.
도 8a 및 도 8b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 제스처 인풋에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)는 충전 상태에서 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(510)를 디스플레이할 수 있다. 동시에 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(520)를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 카메라 유닛(130)을 이용하여 제스처 인풋을 디텍트할 수 있다. 이때, 일 예로, 제스처 인풋은 유저의 손동작을 디텍트하는 인풋일 수 있다. 또한, 일 예로, 유저의 머리의 움직임을 디텍트하는 인풋일 수 있다. 즉, 제스처 인풋은 카메라 유닛(130)에 의해 디텍트되는 유저의 기설정된 제스처일 수 있으며, 상술한 실시예로 한정되지 않는다. 또 다른 일 예로, 웨어러블 디바이스(100)는 컨트롤 인풋 센싱 유닛(140)을 이용하여 컨트롤 인풋을 디텍트할 수 있다. 이때, 일 예로, 컨트롤 인풋 인풋은 웨어러블 디바이스(100)의 디스플레이 유닛(110) 상을 터치하는 인풋일 수 있다. 또 다른 일 예로, 컨트롤 인풋은 음성 인풋일 수 있다. 즉, 웨어러블 디바이스(100)는 음성 인풋을 어플리케이션 및 이벤트를 제어하는 인풋으로 사용할 수 있다.
일 예로, 도 8a를 참조하면, 웨어러블 디바이스(100)는 제 1 어플리케이션에 대한 이벤트를 디텍트하면 제 3 비주얼 정보(530)를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 제스처 인풋을 디텍트할 수 있다. 이때, 일 예로, 제스처 인풋은 유저의 손(820) 동작에 의해 디텍트되는 인풋일 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 제스처 인풋에 기초하여 이벤트와 관련된 제 1 어플리케이션을 실행할 수 있다. 또한, 웨어러블 디바이스(100)는 제 1 어플리케이션의 실행 화면(810)을 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(510)를 유지할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에서 제 3 비주얼 정보(530)의 디스플레이를 종료하고, 제 1 어플리케이션의 실행 화면(810)을 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 제스처 인풋을 이용하여 이벤트를 제어하고, 관련된 실행 화면(810)을 디스플레이할 수 있다. 또 다른 일 예로, 웨어러블 디바이스(100)는 제 1 음성 인풋을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 음성 인풋에 기초하여 제 3 비주얼 정보(530)의 디스플레이를 종료하고, 제 1 어플리케이션의 실행 화면(810)을 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제스처 인풋, 음성 인풋 등을 이용하여 이벤트를 제어할 수 있다. 또한, 웨어러블 디바이스(100)는 컨트롤 인풋 센싱 유닛(140)에 의해 디텍트되는 인풋을 이용하여 이벤트를 제어할 수 있으며, 상술한 실시예로 한정되지 않는다.
또 다른 일 예로, 웨어러블 디바이스(100)는 제 1 제스처 인풋에 기초하여 제 1 어플리케이션이 실행된 상태에서 웨어러블 디바이스(100)의 충전이 중단됨을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 어플리케이션의 실행화면(810)을 제 1 디스플레이 영역(210)에 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)의 충전 정보의 디스플레이를 종료시킬 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 충전이 중단되면 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이하지 않을 수 있다. 즉, 웨어러블 디바이스(100)는 광원을 투사하지 않고 제 2 디스플레이 영역(220)을 생성하지 않을 수 있다. 따라서, 웨어러블 디바이스(100)는 충전 중에 제 2 디스플레이 영역(220)에 디스플레이된 제 1 어플리케이션의 실행화면(810)을 제 1 디스플레이 영역(210)에 디스플레이할 수 있다. 이를 통해, 유저는 웨어러블 디바이스(100)의 충전이 중단되어도 제 1 어플리케이션의 실행 정보를 지속적으로 제공 받을 수 있다.
또한, 일 예로, 도 8b를 참조하면, 웨어러블 디바이스(100)는 제 1 어플리케이션에 대한 이벤트를 디텍트하면 제 3 비주얼 정보(530)를 디스플레이할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 제 2 제스처 인풋을 디텍트할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 제스처 인풋에 기초하여 제 3 비주얼 정보(530)의 디스플레이를 종료할 수 있다. 그 후, 웨어러블 디바이스(100)는 제 2 비주얼 정보(520)를 다시 디스플레이할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 제 3 비주얼 정보(530)와 관련된 제 4 비주얼 정보(미도시)를 더 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제 2 제스처 인풋을 이용하여 제 1 어플리케이션의 이벤트를 강제 종료 시킬 수 있다. 일 예로, 제 1 어플리케이션이 전화 어플리케이션이고, 이벤트는 수신되는 통화 이벤트일 수 있다. 유저는 제 1 제스처 인풋을 통해 통화를 진행할 수 있다. 또한, 유저는 제 2 제스처 인풋을 통해 통화를 강제 종료 시킬 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 컨트롤 인풋 센싱 유닛(140)을 이용하여 다른 인풋을 디텍트하고, 디텍트된 인풋으로 이벤트를 제어할 수 있으며, 상술한 실시예로 한정되지 않는다.
또한, 어플리케이션 및 이벤트는 유저 또는 프로세서(160)에 의해 실행될 수 있으며, 상술한 실시예로 한정되지 않는다.
도 9a 및 도 9b는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 컨트롤 인풋에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)가 충전 상태로 변경됨을 디텍트하는 경우, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보를 디스플레이할 수 있다. 동시에, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에 제 2 비주얼 정보(520)를 디스플레이할 수 있다. 이때, 웨어러블 디바이스(100)가 제 1 어플리케이션에 대한 이벤트를 디텍트한 경우, 웨어러블 디바이스(100)는 제 1 어플리케이션과 관련된 제 3 비주얼 정보(530)를 디스플레이할 수 있다. 이때, 제 3 비주얼 정보(530)는 이벤트에 대한 비주얼 정보일 수 있다.
이때, 일 예로, 도 9a를 참조하면, 이때, 웨어러블 디바이스(100)는 이벤트를 디텍트한 후 제 1 스레스홀드 시간 이내에 제 1 인풋을 디텍트할 수 있다. 이때, 상술한 바와 같이 제 1 인풋은 카메라 유닛(130)에 의해 디텍트되는 제 1 제스처 인풋일 수 있다. 이때, 일 예로, 상술한 바와 같이 제 1 제스처 인풋은 유저의 손(910)에 의해 디텍트되는 제스처일 수 있다. 또한, 일 예로, 제 1 인풋은 컨트롤 인풋 센싱 유닛(140)에 의해 디텍트되는 인풋일 수 있으며 상술한 실시예로 한정되지 않는다. 이때, 웨어러블 디바이스(100)는 제 1 인풋에 기초하여 제 1 어플리케이션을 실행할 수 있다. 또한, 웨어러블 디바이스(100)는 제 1 어플리케이션의 실행 화면(920)을 제 2 디스플레이 영역(220)에 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 디스플레이 영역(210)에 제 1 비주얼 정보(510)를 유지할 수 있다. 이때, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)에서 제 3 비주얼 정보(530)의 디스플레이를 종료하고, 제 1 어플리케이션의 실행 화면(920)을 디스플레이할 수 있다. 즉, 웨어러블 디바이스(100)는 제 1 제스처 인풋을 이용하여 이벤트를 제어하고, 관련된 실행 화면(920)을 디스플레이할 수 있다. 이때, 일 예로, 제 1 스레스홀드 시간은 제 1 어플리케이션이 실행될 수 있는 임계 시간일 수 있다. 또한, 제 1 스레스홀드 시간은 유저 또는 프로세서(160)에 의해 변경설정될 수 있으며, 일 정한 오차를 가질 수 있다.
또 다른 일 예로, 도 9b를 참조하면, 웨어러블 디바이스(100)가 이벤트를 디텍트하고, 제 1 스레스홀드 시간 이내에 제 1 제스처를 디텍트하지 못한 경우, 웨어러블 디바이스(100)는 제 3 비주얼 정보(530)의 디스플레이를 종료할 수 있다. 그 후, 웨어러블 디바이스(100)는 제 3 비주얼 정보와 관련된 제 4 비주얼 정보(930)를 디스플레이할 수 있다. 이때, 일 예로, 제 4 비주얼 정보는 이벤트가 디텍트되었음을 나타내는 요약 정보 또는 알람 정보일 수 있다. 즉, 웨어러블 디바이스(100)는 이벤트를 디텍트하고, 일정 시간 내에 인풋을 디텍트하지 않으면 관련 비주얼 정보를 디스플레이하고, 이벤트에 대한 디텍트를 종료할 수 있다.
도 10는 본 명세서의 일 실시예에 따라 웨어러블 디바이스가 충전 장소에 기초하여 비주얼 정보를 디스플레이하는 방법을 나타낸 도면이다. 웨어러블 디바이스(100)는 충전 상태로 변경됨을 디텍트하면 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이할 수 있다. 이때, 상술한 바와 같이, 웨어러블 디바이스(100)는 웨어러블 디바이스(100) 밖으로 광원을 투사하고, 투사된 광원에 기초하여 제 2 디스플레이 영역(220)에 비주얼 정보를 디스플레이할 수 있다.
이때, 일 예로, 도 10을 참조하면, 제 2 디스플레이 영역(220)은 광원이 투영되는 영역에 기초하여 설정될 수 있다. 즉, 제 2 디스플레이 영역(220)의 크기는 광원이 도달하는 영역의 크기와 동일할 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 광원이 투영되는 영역의 크기를 제어할 수 있다. 즉, 웨어러블 디바이스(100)는 제 2 디스플레이 영역(220)의 크기를 조절할 수 있으며, 이를 통해 제 2 디스플레이 영역(220)에 디스플레이되는 비주얼 정보의 크기도 조절할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 충전 중 부착되는 위치에 기초하여 제 2 디스플레이 영역(220)의 크기를 제어할 수 있다. 일 예로, 웨어러블 디바이스(100)가 벽면에 부착되어 충전되는 경우, 웨어러블 디바이스(100)는 제 1 사이즈로 제 2 디스플레이 영역(220)을 설정할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)가 책상 위에 부착되어 충전되는 경우, 웨어러블 디바이스(100)는 제 2 사이즈로 제 2 디스플레이 영역(220)을 설정할 수 있다. 이때, 제 2 사이즈는 제 1 사이즈보다 클 수 있다. 즉, 웨어러블 디바이스(100)는 충전하기 위해 부착되는 위치에 기초하여 제 2 디스플레이 영역(220)의 크기를 조절할 수 있다.
이때, 일 예로, 웨어러블 디바이스(100)는 광원을 투사하고, 투사된 광원이 반사되는 정보에 기초하여 제 2 디스플레이 영역(220)의 크기를 설정할 수 있다. 보다 상세하게는, 웨어러블 디바이스(100)는 투사된 광원이 지면이나 벽면 등의 굴곡에 의해 반사되는 정보가 변경되는 지점에 기초하여 제 2 디스플레이 영역(220)의 크기를 설정할 수 있다.
또 다른 일 예로, 웨어러블 디바이스(100)가 충전 디바이스 또는 크래들과 결합되는 경우, 웨어러블 디바이스(100)는 충전 디바이스 또는 크래들부터 광원 투사 정보를 수신할 수 있다. 일 예로, 충전 디바이스 또는 크래들은 부착되는 위치에 기초하여 광원 투사 정보가 변경될 수 있다. 웨어러블 디바이스(100)는 수신된 광원 투사 정보에 기초하여 제 2 디스플레이 영역(220)의 크기를 변경할 수 있다.
즉, 웨어러블 디바이스(100)는 부착되어 충전되는 위치에 따라 제 2 디스플레이 영역(220)의 크기를 다르게 설정할 수 있으며, 상술한 실시예로 한정되지 않는다.
도 11은 본 명세서의 일 실시예에 따라 웨어러블 디바이스의 제어 방법을 나타낸 도면이다.
웨어러블 디바이스(100)는 충전 상태로 변경됨을 디텍트할 수 있다.(S1110) 이때, 도 1에서 상술한 바와 같이, 웨어러블 디바이스(100)는 유저로부터 분리되어 충전될 수 있는 디바이스일 수 있다. 일 예로, 웨어러블 디바이스는 유저로부터 분리되어 충전 디바이스와 결합되어 충전될 수 있다. 이때, 일 예로, 충전 디바이스는 유선 또는 무선으로 전원을 공급받고, 결합된 웨어러블 디바이스를 충전시킬 수 있다. 또한, 일 예로, 충전 디바이스는 크래들에 의해 지지될 수 있다. 이때, 크래들은 벽면, 책상 등에 부착될 수 있다. 보다 상세하게는 충전 디바이스와 웨어러블 디바이스(100)는 서로 결합되어 크래들에 의해 벽면에 고정되어 충전될 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 충전 디바이스와 결합하여 책상 등에 고정되어 충전될 수 있다. 즉, 웨어러블 디바이스(100)는 별도의 충전 디바이스에 의해 유저에게 분리된 상태로 충전될 수 있으며, 상술한 실시예로 한정되지 않는다.
다음으로, 웨어러블 디바이스(100)는 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이할 수 있다.(S1120) 이때, 도 1에서 상술한 바와 같이, 제 1 디스플레이 영역의 제 1 비주얼 정보는 웨어러블 디바이스 상의 디스플레이 유닛(110)에서 디스플레이될 수 있다. 즉, 제 1 비주얼 정보는 웨어러블 디바이스 위에서 디스플레이되는 비주얼 정보일 수 있다. 이때, 일 예로, 제 1 비주얼 정보는 제 1 어플리케이션의 이벤트가 디텍트되는지 여부와 무관하게 디스플레이되는 비주얼 정보일 수 있다. 보다 상세하게는, 제 1 비주얼 정보는 충전 상태인지 여부에만 기초하여 설정되고, 외부 이벤트 및 어플리케이션에 의해 변경되지 않는 비주얼 정보일 수 있다.
다음으로, 웨어러블 디바이스(100)는 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이할 수 있다.(S1130) 이때, 도 1에서 상술한 바와 같이, 제 2 디스플레이 영역의 제 2 비주얼 정보는 웨어러블 디바이스(100) 밖으로 투영된 광원에 기초하여 디스플레이되는 비주얼 정보일 수 있다. 이때, 일 예로, 웨어러블 디바이스(100)는 광원 유닛(120)을 이용하여 광원을 투사하고, 투사된 광원에 기초하여 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이할 수 있다. 즉, 제 2 비주얼 정보는 웨어러블 디바이스(100) 밖에서 투영된 광원에 기초하여 디스플레이되는 비주얼 정보일 수 있다. 또한, 일 예로, 또한, 일 예로, 제 2 비주얼 정보는 배경화면, 날짜, 시간 정보 중 적어도 하나를 포함할 수 있다. 또 다른 일 예로, 제 2 비주얼 정보는 제 1 오브젝트에 대한 비주얼 정보일 수 있다. 보다 상세하게는, 프로세서(160)는 웨어러블 디바이스(100)가 충전 상태로 전환되기 이전에 제 1 디스플레이 영역에 제 1 인터페이스를 디스플레이할 수 있다. 이때, 제 1 인터페이스는 복수의 오브젝트를 포함할 수 있다. 이때, 복수의 오브젝트는 아이콘, 어플리케이션, 날짜, 시간 등에 대한 오브젝트일 수 있다. 이때, 프로세서(160)는 제 1 인터페이스에서 제 1 오브젝트를 선택하는 컨트롤 인풋을 디텍트할 수 있다. 그 후, 상기 웨어러블 디바이스(100)가 충전 상태로 전환되는 경우, 프로세서(160)는 제 2 비주얼 정보를 제 1 오브젝트에 대한 비주얼 정보로서 디스플레이할 수 있다. 일 예로, 제 1 오브젝트가 시간 및 날짜 정보에 대한 오브젝트인 경우, 프로세서(160)는 제 2 비주얼 정보로서 시간 및 날짜 정보를 제 2 디스플레이 영역에 디스플레이할 수 있다.
다음으로, 웨어러블 디바이스(100)는 충전 중인 상태에서 제 1 어플리케이션과 관련된 이벤트를 디텍트할 수 있다.(S1140) 이때, 도 1에서 상술한 바와 같이, 제 1 어플리케이션은 웨어러블 디바이스(100)에서 실행되는 소프트웨어일 수 있다. 또한, 일 예로, 이벤트는 커뮤니케이션 유닛(150)을 통해 외부에서 수신되는 정보일 수 있다. 이때, 일 예로, 이벤트는, SNS, 메시지, 통화 신호 등일 수 있다. 또한, 일 예로, 이벤트는 기설정된 설정값에 기초하여 디텍트되는 정보일 수 있다. 일 예로, 이벤트는 기설정된 시간의 알람 등일 수 있다. 즉, 이벤트는 제 1 어플리케이션에 대한 관련된 정보일 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 프로세서(160)는 이벤트를 디텍트면 노티피케이션을 더 제공할 수 있다. 이때, 노티피케이션은 음성 노티피케이션, 진동 노티피케이션, 이미지 노티피케이션 및 텍스트 노티피케이션 중 적어도 하나를 포함할 수 있다. 이를 통해, 유저는 이벤트가 디텍트됨을 확인할 수 있다.
다음으로, 웨어러블 디바이스(100)는 제 2 디스플레이 영역에 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이할 수 있다.(S1150) 이때, 도 1에서 상술한 바와 같이, 웨어러블 디바이스(100)는 제 1 어플리케이션과 관련된 이벤트를 디텍트하면 제 2 디스플레이 영역에 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이할 수 있다. 이때, 제 3 비주얼 정보는 이벤트와 관련된 비주얼 정보일 수 있다. 일 예로, 이벤트가 메시지인 경우, 제 3 비주얼 정보는 메시지에 대한 요약 정보 또는 알람 정보일 수 있다. 즉, 제 3 비주얼 정보는 이벤트에 대한 비주얼 정보일 수 있으며, 상술한 실시예로 한정되지 않는다. 또한, 일 예로, 웨어러블 디바이스(100)는 어플리케이션의 속성에 기초하여 제 2 비주얼 정보 및 제 3 비주얼 정보를 동시에 디스플레이할 수 있다. 또한, 일 예로, 웨어러블 디바이스(100)는 제 2 비주얼 정보의 디스플레이를 종료하고, 제 3 비주얼 정보를 디스플레이할 수 있으며, 상술한 실시예로 한정되지 않는다.
나아가, 설명의 편의를 위하여 각 도면을 나누어 설명하였으나, 각 도면에 서술되어 있는 실시예들을 병합하여 새로운 실시예를 구현하도록 설계하는 것도 가능하다. 그리고, 당업자의 필요에 따라, 이전에 설명된 실시예들을 실행하기 위한 프로그램이 기록되어 있는 컴퓨터에서 판독 가능한 기록 매체를 설계하는 것도 본 발명의 권리범위에 속한다.
본 명세서에 따른 웨어러블 디바이스(100) 및 그 제어 방법은 상기한 바와 같이 설명된 실시예들의 구성과 방법이 한정되게 적용될 수 있는 것이 아니라, 상기 실시예들은 다양한 변형이 이루어질 수 있도록 각 실시 예들의 전부 또는 일부가 선택적으로 조합되어 구성될 수도 있다.
한편, 본 명세서의 웨어러블 디바이스(100) 및 제어 방법은 네트워크 디바이스에 구비된 프로세서가 읽을 수 있는 기록매체에 프로세서가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 프로세서가 읽을 수 있는 기록매체는 프로세서에 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 프로세서가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, 자기 테이프, 플로피디스크, 광 데이터 저장 장치 등이 있으며, 또한, 인터넷을 통한 송신 등과 같은 캐리어 웨이브의 형태로 구현되는 것도 포함한다. 또한, 프로세서가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 프로세서가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
또한, 이상에서는 본 명세서의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 명세서는 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 명세서의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 명세서의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.
그리고 당해 명세서에서는 물건 발명과 방법 발명이 모두 설명되고 있으며, 필요에 따라 양 발명의 설명은 보충적으로 적용될 수 있다.
-
본 발명은 단말 장치에서 사용 가능하고 반복 가능성이 있는 산업상 이용가능성이 있다.

Claims (20)

  1. 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 웨어러블 디바이스에 있어서,
    상기 제 1 디스플레이 영역의 비주얼 정보는 상기 웨어러블 디바이스 상의 디스플레이 유닛에 의해 디스플레이되고,
    상기 제 2 디스플레이 영역의 비주얼 정보는 상기 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이되고,
    상기 디스플레이 유닛을 제어하는 프로세서를 포함하는 웨어러블 디바이스로서
    상기 프로세서는,
    상기 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트한 경우,
    상기 제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이하고, 상기 제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이하고,
    상기 웨어러블 디바이스가 충전 중인 상태에서 제 1 어플리케이션과 관련된 이벤트를 디텍트하면 상기 제 2 디스플레이 영역에 상기 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이하는, 웨어러블 디바이스.
  2. 제 1 항에 있어서,
    상기 광원을 상기 웨어러블 디바이스 밖으로 투영하는 광원 유닛;을 더 포함하고,
    상기 프로세서는,
    상기 웨어러블 디바이스가 상기 충전 상태로 변경됨을 디텍트하면 상기 광원 유닛을 이용하여 상기 광원을 투영하고,
    상기 투영된 광원에 기초하여 상기 제 2 디스플레이 영역에 상기 비주얼 정보를 디스플레이하는, 웨어러블 디바이스.
  3. 제 2 항에 있어서,
    상기 프로세서는,
    상기 웨어러블 디바이스의 충전 레벨을 더 디텍트하고, 상기 충전 레벨이 제 1 스레스홀드 레벨 이상임을 더 디텍트할 때 상기 제 2 디스플레이 영역에 상기 비주얼 정보를 디스플레이하는, 웨어러블 디바이스.
  4. 제 1 항에 있어서,
    상기 프로세서는,
    상기 제 1 어플리케이션의 어플리케이션 속성에 기초하여 상기 제 2 디스플레이 영역에 디스플레이되는 상기 비주얼 정보를 제어하는, 웨어러블 디바이스.
  5. 제 4 항에 있어서,
    상기 프로세서는,
    상기 디텍트된 이벤트가 제 1 속성을 갖는 상기 제 1 어플리케이션의 이벤트인 경우, 상기 제 2 디스플레이 영역에 상기 제 2 비주얼 정보 및 상기 제 3 비주얼 정보를 동시에 디스플레이하는, 웨어러블 디바이스.
  6. 제 4 항에 있어서,
    상기 프로세서는,
    상기 디텍트된 이벤트가 제 2 속성을 갖는 상기 제 1 어플리케이션의 이벤트인 경우, 상기 제 2 디스플레이 영역에서 상기 제 2 비주얼 정보의 디스플레이를 종료하고, 상기 제 3 비주얼 정보를 디스플레이하는, 웨어러블 디바이스.
  7. 제 1 항에 있어서,
    상기 웨어러블 디바이스의 전방 이미지 또는 제스처 인풋을 디텍트하는 카메라 유닛;을 더 포함하는, 웨어러블 디바이스.
  8. 제 7 항에 있어서,
    상기 프로세서는,
    상기 이벤트를 디텍트하고 제 1 스레스홀드 시간 이내에 제 1 제스처 인풋을 디텍트하면 상기 이벤트에 기초하여 상기 제 1 어플리케이션을 실행하는, 웨어러블 디바이스.
  9. 제 8 항에 있어서,
    상기 프로세서는,
    상기 제 1 어플리케이션의 실행 화면을 상기 제 2 디스플레이 영역에 디스플레이하는, 웨어러블 디바이스.
  10. 제 9 항에 있어서,
    상기 프로세서는,
    상기 제 1 어플리케이션이 실행된 상태에서 상기 웨어러블 디바이스의 충전이 중단됨을 디텍트하면 상기 제 1 어플리케이션의 상기 실행 화면을 상기 제 1 디스플레이 영역에 디스플레이하는, 웨어러블 디바이스.
  11. 제 8 항에 있어서,
    상기 프로세서는,
    상기 이벤트를 디텍트하고 상기 제 1 스레스홀드 시간 이내에 상기 제 1 제스처 인풋을 디텍트하지 않으면 상기 제 3 비주얼 정보의 디스플레이를 종료하는, 웨어러블 디바이스.
  12. 제 11 항에 있어서,
    상기 프로세서는,
    상기 제 3 비주얼 정보의 디스플레이가 종료된 경우, 상기 제 3 비주얼 정보와 관련된 제 4 비주얼 정보를 상기 제 2 비주얼 정보와 함께 디스플레이하는, 웨어러블 디바이스.
  13. 제 7 항에 있어서,
    상기 프로세서는,
    상기 이벤트를 디텍트하고 제 1 스레스홀드 시간 이내에 제 2 제스처 인풋을 디텍트하면 상기 이벤트 및 상기 제 3 비주얼 정보의 디스플레이를 종료하는, 웨어러블 디바이스.
  14. 제 1 항에 있어서,
    상기 제 1 비주얼 정보는 상기 제 1 어플리케이션의 상기 이벤트가 디텍트되는지 여부와 무관하게 디스플레이되는 비주얼 정보인, 웨어러블 디바이스.
  15. 제 1 항에 있어서,
    컨트롤 인풋을 디텍트하는 컨트롤 인풋 센싱 유닛;을 더 포함하고,
    상기 프로세서는,
    상기 웨어러블 디바이스가 충전 상태로 전환되기 이전에 상기 제 1 디스플레이 영역에 제 1 인터페이스를 디스플레이하되, 상기 제 1 인터페이스는 복수의 오브젝트를 포함하고,
    상기 제 1 인터페이스에서 제 1 오브젝트를 선택하는 제 1 컨트롤 인풋을 디텍트하고, 상기 웨어러블 디바이스가 충전 상태로 전환되는 경우,
    상기 제 2 비주얼 정보를 상기 제 1 오브젝트에 기초하여 디스플레이하는, 웨어러블 디바이스.
  16. 제 1 항에 있어서,
    상기 제 1 비주얼 정보는 상기 웨어러블 디바이스의 충전 정보이고,
    상기 프로세서는,
    상기 충전 정보를 나타내는 제 1 인터페이스를 상기 제 1 디스플레이 영역 전체에 디스플레이하는, 웨어러블 디바이스.
  17. 제 16 항에 있어서,
    상기 프로세서는,
    상기 제 1 인터페이스 상에 제 1 인디케이터를 더 디스플레이하되, 상기 제 1 인디케이터는 상기 충전 정보에 기초하여 상기 웨어러블 디바이스의 충전 레벨을 나타내는, 웨어러블 디바이스.
  18. 제 1 항에 있어서,
    상기 프로세서는,
    상기 이벤트를 디텍트하면 노티피케이션을 더 제공하는, 웨어러블 디바이스.
  19. 제 18 항에 있어서,
    상기 노티피케이션은 음성 노티피케이션 및 진동 노티피케이션, 이미지 노티피케이션, 텍스트 노티피케이션 중 적어도 하나를 포함하는, 웨어러블 디바이스.
  20. 제 1 디스플레이 영역 및 제 2 디스플레이 영역에 비주얼 정보를 디스플레이하는 웨어러블 디바이스의 제어 방법에 있어서,
    상기 웨어러블 디바이스가 충전 상태로 변경됨을 디텍트하는 단계;
    제 1 디스플레이 영역에 제 1 비주얼 정보를 디스플레이 하는 단계;로서, 상기 제 1 디스플레이 영역의 상기 제 1 비주얼 정보는 상기 웨어러블 디바이스 상의 디스플레이 유닛에 디스플레이되고,
    제 2 디스플레이 영역에 제 2 비주얼 정보를 디스플레이하는 단계;로서, 상기 제 2 디스플레이 영역의 상기 제 2 비주얼 정보는 상기 웨어러블 디바이스 밖으로 투영되는 광원에 기초하여 디스플레이되고,
    상기 웨어러블 디바이스가 충전 중인 상태에서 제 1 어플리케이션과 관련된 이벤트를 디텍트하는 단계;
    상기 제 2 디스플레이 영역에 상기 제 1 어플리케이션과 관련된 제 3 비주얼 정보를 디스플레이하는 단계;를 포함하는 웨어러블 디바이스의 제어 방법.
PCT/KR2014/011062 2014-11-18 2014-11-18 웨어러블 디바이스 및 그 제어 방법 WO2016080565A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US15/528,022 US10234826B2 (en) 2014-11-18 2014-11-18 Wearable device and control method therefor
KR1020177008246A KR102245374B1 (ko) 2014-11-18 2014-11-18 웨어러블 디바이스 및 그 제어 방법
PCT/KR2014/011062 WO2016080565A1 (ko) 2014-11-18 2014-11-18 웨어러블 디바이스 및 그 제어 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2014/011062 WO2016080565A1 (ko) 2014-11-18 2014-11-18 웨어러블 디바이스 및 그 제어 방법

Publications (1)

Publication Number Publication Date
WO2016080565A1 true WO2016080565A1 (ko) 2016-05-26

Family

ID=56014092

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2014/011062 WO2016080565A1 (ko) 2014-11-18 2014-11-18 웨어러블 디바이스 및 그 제어 방법

Country Status (3)

Country Link
US (1) US10234826B2 (ko)
KR (1) KR102245374B1 (ko)
WO (1) WO2016080565A1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6569131B2 (ja) * 2016-04-26 2019-09-04 株式会社オートネットワーク技術研究所 嵌合検知機能を有する電気接続装置
DE102016215746A1 (de) * 2016-08-23 2018-03-01 Robert Bosch Gmbh Projektor mit berührungsfreier Steuerung
US11657740B1 (en) * 2022-04-18 2023-05-23 Qualcomm Incoporated Displaying directional visual indicators from a wearable device for navigation

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010051469A (ko) * 1999-11-12 2001-06-25 포만 제프리 엘 임베딩된 투사기를 가진 정보 처리 소형 장치
US20020063855A1 (en) * 2000-11-29 2002-05-30 Williams John W. Digital projection system for phones and personal digital assistants
US20090046140A1 (en) * 2005-12-06 2009-02-19 Microvision, Inc. Mobile Virtual Reality Projector
US20090051832A1 (en) * 2002-09-05 2009-02-26 Philip Banks Portable image projection device
KR20100130478A (ko) * 2009-06-03 2010-12-13 엘지전자 주식회사 시계 겸용 휴대 단말기 및 동작방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110069526A (ko) * 2009-12-17 2011-06-23 삼성전자주식회사 휴대단말의 외부 출력 제어 방법 및 장치
KR101999958B1 (ko) * 2013-05-22 2019-07-15 엘지전자 주식회사 이동 단말기 및 그것의 제어 방법
KR102073827B1 (ko) * 2013-05-31 2020-02-05 엘지전자 주식회사 전자 기기 및 그 제어 방법
KR102063076B1 (ko) * 2013-07-10 2020-01-07 엘지전자 주식회사 모바일 디바이스, 헤드 마운트 디스플레이 및 제어 방법
KR20150046594A (ko) * 2013-10-22 2015-04-30 삼성전자주식회사 단말 장치 및 제어 방법
EP3238317A4 (en) * 2014-12-23 2018-08-08 Pogotec, Inc. Wireless camera system and methods
CN105141025A (zh) * 2015-09-29 2015-12-09 京东方科技集团股份有限公司 可穿戴设备、用于可穿戴设备的充电设备以及充电系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010051469A (ko) * 1999-11-12 2001-06-25 포만 제프리 엘 임베딩된 투사기를 가진 정보 처리 소형 장치
US20020063855A1 (en) * 2000-11-29 2002-05-30 Williams John W. Digital projection system for phones and personal digital assistants
US20090051832A1 (en) * 2002-09-05 2009-02-26 Philip Banks Portable image projection device
US20090046140A1 (en) * 2005-12-06 2009-02-19 Microvision, Inc. Mobile Virtual Reality Projector
KR20100130478A (ko) * 2009-06-03 2010-12-13 엘지전자 주식회사 시계 겸용 휴대 단말기 및 동작방법

Also Published As

Publication number Publication date
US20180314212A1 (en) 2018-11-01
US10234826B2 (en) 2019-03-19
KR102245374B1 (ko) 2021-04-28
KR20170086464A (ko) 2017-07-26

Similar Documents

Publication Publication Date Title
WO2015064844A1 (en) Digital device and control method thereof
WO2017039191A1 (ko) 무선 충전용 크래들 및 그것에 적용되는 전자 장치
WO2015108288A1 (ko) 터치 스크린을 이용한 입력 처리 방법 및 장치
WO2018143673A1 (ko) 전자 장치 및 전자 장치의 지문 인식 방법
WO2016060291A1 (ko) 포터블 디바이스 및 그 제어 방법
WO2018084580A1 (en) Device for performing wireless charging and method thereof
WO2016117947A1 (ko) 복수의 디스플레이를 제어하는 전자 장치 및 제어 방법
WO2014157806A1 (en) Display device and control method thereof
WO2014181918A1 (en) Smart watch and method for controlling the same
WO2014088162A1 (en) Portable device and method for providing voice recognition service
WO2015034135A1 (en) Display device and control method thereof
WO2017188577A1 (ko) 배터리의 충전을 제어하기 위한 방법 및 그 전자 장치
WO2016036135A1 (en) Method and apparatus for processing touch input
WO2017142195A1 (ko) 전자 장치 및 그 어플리케이션 전환 및 정렬 방법
WO2018101621A1 (ko) 화면의 크기를 조절하기 위한 방법 및 그 전자 장치
WO2018143643A1 (ko) 전자장치 및 이를 사용하여 디스플레이에 연동된 생체 센서의 제어 방법
WO2018164387A1 (ko) 복수의 신호선들을 포함하는 기판 및 이를 포함하는 전자 장치
WO2018008888A1 (en) Electronic device and screen display method thereof
WO2015152628A1 (en) Input device, method, and system for electronic device
WO2016080561A1 (ko) 디지털 디바이스 및 그 제어 방법
WO2016080557A1 (ko) 웨어러블 디바이스 및 그 제어 방법
WO2017175962A1 (ko) 화면을 표시하는 전자 장치 및 그 제어 방법
WO2017082554A1 (ko) 액세서리 장치를 감지하는 전자장치 및 그의 동작 방법
WO2017082589A1 (ko) 전자장치 및 그의 동작 방법
WO2016080565A1 (ko) 웨어러블 디바이스 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14906286

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20177008246

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15528022

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 14906286

Country of ref document: EP

Kind code of ref document: A1