WO2015126182A1 - 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치 - Google Patents

콘텐츠를 표시하는 방법 및 이를 위한 전자 장치 Download PDF

Info

Publication number
WO2015126182A1
WO2015126182A1 PCT/KR2015/001666 KR2015001666W WO2015126182A1 WO 2015126182 A1 WO2015126182 A1 WO 2015126182A1 KR 2015001666 W KR2015001666 W KR 2015001666W WO 2015126182 A1 WO2015126182 A1 WO 2015126182A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
screen
user
display
content
Prior art date
Application number
PCT/KR2015/001666
Other languages
English (en)
French (fr)
Inventor
노병탁
정철호
김양수
손동일
여재영
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020140194289A external-priority patent/KR20160081084A/ko
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to KR1020167025950A priority Critical patent/KR102299076B1/ko
Priority to US15/120,587 priority patent/US10209779B2/en
Publication of WO2015126182A1 publication Critical patent/WO2015126182A1/ko
Priority to US16/276,786 priority patent/US20190187802A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/163Wearable computers, e.g. on a belt
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/015Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay

Definitions

  • the present invention relates to an electronic device for displaying content.
  • a TV viewing function eg, mobile broadcasting such as DMB (Digital Multimedia Broadcasting) or DVB (Digital Video Broadcasting)
  • a music playback function eg, MP3 (MPEG Audio Layer-3) Photo capture function, Internet connection, and other features are being added.
  • a wearable device that a user can wear on a part of a body has been developed by having a shape such as a watch, a headset, and a glass.
  • the wearable device may operate independently or operate as a companion device in conjunction with another mobile terminal (host device) to provide a user with at least some of the functions of the mobile terminal (eg, call, message, streaming, etc.). ) May be provided to the user.
  • the display of the wearable device is also spread over a part of the user's body.
  • the wearable device also moves according to the movement of the user. For example, assume that the wearable device is wrist watch type and the user is running. While the user is running violently, the user is not easy to check the data displayed on the display of the wearable device worn on the wrist, for example, an alarm.
  • the wearable device of the wristwatch type is more difficult to check because the direction in which data is displayed, that is, the direction of the wrist and the direction of the user's gaze do not match.
  • a method of operating an electronic device may include determining movement information of the electronic device based on sensor data measured through a sensor module, and analyzing one or more biosignals to obtain biometric information about a user. And determining an operation and controlling an operation of the electronic device according to the motion information and the biometric information.
  • an operation method of an electronic device may include determining whether a communication module communicating with an external device is connected to the external device, and operating the electronic device according to a connection state with the external device. Control may include.
  • a method of operating an electronic device includes: pairing one or more external devices, determining motion information of the electronic device using a motion sensor, and analyzing one or more biological signals. Determining biometric information about the user, determining a service that can be provided to the user from the electronic device based on the motion information or the biometric information, and using the external devices to determine the service. It may include an operation provided to the user.
  • a method of displaying content by an electronic device includes obtaining sensing data, determining a current state of a user based on the sensing data, and displaying a screen based on the current state. And determining the content to be displayed on the screen, and displaying the content on the screen.
  • a method of displaying content by an electronic device includes: obtaining sensing data for determining a direction of a screen; determining the direction of the screen based on the sensing data; And determining the display direction of the content according to the direction of the screen, and displaying the content according to the display direction.
  • An electronic device for displaying content a display including a screen for displaying the content, and obtains the sensing data, determine the current state of the user based on the sensing data, the current state
  • the control module may be configured to determine content to be displayed on a screen based on the control, and control the display to display the content.
  • a machine-readable storage medium having recorded thereon a program for executing a method for displaying content by an electronic device comprising: acquiring sensing data and based on the sensing data;
  • the method may include determining a current state of a user, determining a content to be displayed on a screen based on the current state, and displaying the content on the screen.
  • the display of the content can be controlled so that the user can easily check the content according to the state of the display included in the electronic device or the current state of the user who uses the electronic device.
  • FIG. 1 is a diagram illustrating a network environment 100 including an electronic device according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram illustrating a control module of an electronic device (for example, an electronic device) according to various embodiments of the present disclosure.
  • FIG. 3 is a flowchart illustrating an example of a method of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIG. 4 is a flowchart illustrating another example of a method of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a flowchart illustrating still another example of a method for displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a flowchart illustrating still another example of a method for displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIG. 7 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIG 8 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 9 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 10 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 11 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 12 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 13 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 14 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • 15 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • 16 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • 17 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 18 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 19 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • 20A to 20D are diagrams illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • 21A and 21B illustrate another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 22 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 23 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • 24 is a diagram illustrating an example in which a plurality of electronic devices displays content according to various embodiments of the present disclosure.
  • 25 is a block diagram illustrating an electronic device according to various embodiments of the present disclosure.
  • FIG. 26 is a diagram illustrating a communication protocol between a plurality of electronic devices (for example, an electronic device and an electronic device) according to various embodiments of the present disclosure.
  • the expression “or” includes any and all combinations of words listed together.
  • “A or B” may include A, may include B, or may include both A and B.
  • Expressions such as “first,” “second,” “first,” or “second,” used in various embodiments of the present disclosure may modify various elements of the various embodiments, but do not limit the corresponding elements. .
  • the above expressions do not limit the order and / or importance of the corresponding elements.
  • the above expressions may be used to distinguish one component from another.
  • both a first user device and a second user device are user devices and represent different user devices.
  • the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component.
  • a component When a component is said to be “connected” or “connected” to another component, the component may be directly connected to or connected to the other component, It is to be understood that there may be new other components between the other components. On the other hand, when a component is referred to as being “directly connected” or “directly connected” to another component, it may be understood that there is no new other component between the component and the other component. Should be able.
  • An electronic device may include an exercise management function such as detecting a health state of a user who uses the electronic device and informing the user of an exercise schedule, an exercise progress state, an exercise intensity, and the like. It may be a device.
  • the electronic device may include at least one sensor of an acceleration sensor, a gyro sensor, a heart monitoring (HRM) sensor, or an illuminance sensor to determine a motion state of the user.
  • HRM heart monitoring
  • Such an electronic device may be implemented as a wearable device, such as a watch type, a glass type, a head-mounted display type, an earphone type, a necklace type, a shoe type, a waist belt type, an ankle band type, or a band type. have.
  • An electronic device may be a device including a communication function.
  • the electronic device may be a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, a desktop personal computer, a laptop.
  • the electronic device may include at least one of a head-mounted-device (HMD) such as electronic glasses, an electronic garment, an electronic bracelet, an electronic necklace, an electronic accessory, an electronic tattoo, or a smart watch.
  • HMD head-mounted-device
  • the electronic device may be a smart home appliance having a communication function.
  • Smart home appliances are, for example, electronic devices such as televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, cleaners, ovens, microwave ovens, washing machines, air purifiers, set-top boxes, TVs. It may include at least one of a box (eg, Samsung HomeSync TM , Apple TV TM , or Google TV TM ), game consoles, electronic dictionaries, electronic keys, camcorders, or electronic photo frames.
  • an electronic device may include various medical devices (eg, magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), computed tomography (CT), an imaging device, an ultrasound device, etc.), a navigation device, GPS positioning (global positioning system receiver), event data recorder (EDR), flight data recorder (FDR), automotive infotainment device, marine electronic equipment (e.g. marine navigation system and gyro compass), avionics (avionics), security devices, vehicle head units, industrial or household robots, automatic teller's machines (ATMs) of financial institutions, or point of sales (POS) of shops.
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT computed tomography
  • an imaging device an ultrasound device, etc.
  • GPS positioning global positioning system receiver
  • EDR event data recorder
  • FDR flight data recorder
  • automotive infotainment device e.g. marine navigation system and gyro compass
  • avionics avionics
  • security devices
  • an electronic device may be part of a furniture or building / structure that includes a communication function, an electronic board, an electronic signature receiving device, a projector, or various It may include at least one of the measuring device (for example, water, electricity, gas, or radio wave measuring device).
  • the measuring device for example, water, electricity, gas, or radio wave measuring device.
  • An electronic device according to various embodiments of the present disclosure may be a combination of one or more of the aforementioned various devices.
  • an electronic device according to various embodiments of the present disclosure may be a flexible device.
  • the electronic device according to various embodiments of the present disclosure is not limited to the above-described devices.
  • the term “user” used in various embodiments may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • FIG. 1 is a diagram illustrating a network environment 100 including an electronic device 101 according to various embodiments of the present disclosure.
  • the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 140, a display 150, a communication interface 160, and a control module 170. And the sensor module 180.
  • the bus 110 may be a circuit that connects the above-described components to each other and transfers communication (eg, a control message) between the above-described components.
  • a control message e.g., the control message generated from the processor 120 or the control module 170 may be transmitted to the display 150 or the communication interface 160 via the bus 110.
  • the processor 120 may include, for example, the above-described other components (eg, the memory 130, the input / output interface 140, the display 150, and the other components) through the bus 110.
  • the received command can be decoded, and an operation or data processing according to the decoded command can be executed.
  • the memory 130 may include the processor 120 or other components (for example, the input / output interface 140, the display 150, the communication interface 160, the control module 170, or the Instructions or data received from the sensor module 180 or generated by the processor 120 or other components.
  • the memory 130 may include, for example, programming modules such as a kernel 131, middleware 132, an application programming interface (API) 133, or an application 134.
  • programming modules such as a kernel 131, middleware 132, an application programming interface (API) 133, or an application 134.
  • API application programming interface
  • Each of the aforementioned programming modules may be composed of software, firmware, hardware, or a combination of two or more thereof.
  • the memory 130 may store data for determining the direction of the display 150 in advance.
  • the sensing data measured by one or more sensors included in the sensor module 180 may be stored in the memory 130.
  • the memory 130 may include sensing data measured by an acceleration sensor or a gyro sensor included in the sensor module 180 (for example, a moving speed, a moving acceleration, a moving direction, or a direction of the electronic device 101). Slope) can be stored.
  • the memory 130 may store sensor values for determining a user's current exercise (eg, walking, jogging, biking, swimming, badminton, tennis, soccer, baseball, basketball, etc.).
  • the control module 170 may measure the user's blood pressure, blood flow, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, blood glucose or electronic device 101 movement speed, movement acceleration, and movement direction measured for 1 minute.
  • the jogging may be determined by analyzing the inclination of the electronic device 101 and the like. In this case, the user's blood pressure, blood flow, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, blood sugar, or movement speed of the electronic device 101, movement acceleration, or the direction of the electronic device 101 measured during 1 minute are measured. May be stored in the memory 130.
  • the memory 130 may store a type of exercise or an exercise schedule input from a user through the input / output interface 140 or the display 150.
  • the memory 130 may store blood pressure, blood flow, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, blood sugar, and the like previously input by the user.
  • the type of exercise, exercise schedule, blood pressure, blood flow, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, blood sugar, etc., during the exercise of the user are included in the control module 170.
  • sensing data measured by the sensors included in the sensor module 180 may be recorded in the memory 130 by the control module 170.
  • the kernel 131 is a system resource (e.g., used to execute an operation or function implemented in the other other programming modules, for example, the middleware 132, the API 133, or the application 134).
  • the bus 110, the processor 120, or the memory 130 may be controlled or managed.
  • the kernel 131 may provide an interface that allows the middleware 132, the API 133, or the application 134 to access and control or manage individual components of the electronic device 101. have.
  • the middleware 132 may serve as an intermediary to allow the API 133 or the application 134 to communicate with the kernel 131 to exchange data.
  • the middleware 132 may be connected to at least one of the applications 134, for example, in relation to the work requests received from the application 134 (eg, a system resource of the electronic device 101). Control of the work request (eg, scheduling or load balancing) using a method such as assigning a priority to use the bus 110, the processor 120, the memory 130, or the like. Can be performed.
  • the API 133 is an interface for the application 134 to control functions provided by the kernel 131 or the middleware 132. For example, file control, window control, image processing, character control, or the like. It may include at least one interface or function (eg, a command) for.
  • the application 134 may be an SMS / MMS application, an email application, a calendar application, an alarm application, an SNS application, a messenger application, a multimedia application, a health care application (eg, exercise amount or blood sugar). Etc.) or an environment information application (for example, an application for providing barometric pressure, humidity, or temperature information). Additionally or alternatively, the application 134 may be an application related to information exchange between the electronic device 101 and an external electronic device (eg, the electronic device 104). An application related to the information exchange may include, for example, a notification relay application for delivering specific information to the external electronic device, or a device management application for managing the external electronic device. Can be.
  • the notification transmission application may be another application of the electronic device 101 (for example, an SMS / MMS application, an email application, an SNS application, a messenger application, a multimedia application, a health care application, or an environmental information application). It may include a function for delivering the notification information generated in the to the external electronic device (for example, the electronic device 104). Additionally or alternatively, the notification delivery application may, for example, receive notification information from an external electronic device (eg, the electronic device 104) and provide it to the user.
  • the device management application may, for example, perform a function (eg, an external electronic device itself (or a function) for at least a part of an external electronic device (for example, the electronic device 104) that communicates with the electronic device 101.
  • Power on / power off of some components or adjusting the brightness (or resolution) of the display an application running on the external electronic device or a service provided by the external electronic device (eg For example, a call service or a message service) may be managed (eg, installed, deleted or updated).
  • the application 134 may include an application designated according to an attribute (eg, a type of electronic device) of the external electronic device (eg, the electronic device 104).
  • an attribute eg, a type of electronic device
  • the application 134 may include an application related to music playback.
  • the external electronic device is a mobile medical device
  • the application 134 may include an application related to health care.
  • the application 134 may include at least one of an application designated to the electronic device 101 or an application received from an external electronic device (for example, the server 106 or the electronic device 104). Can be.
  • the input / output interface 140 may receive a command or data input from a user through an input / output device (eg, a sensor, a keyboard, or a touch screen), for example, the processor 120 through the bus 110.
  • the memory 130 may be transmitted to the communication interface 160, the control module 170, or the sensor module 180.
  • the input / output interface 140 may provide data about the user's touch input through the touch screen to the processor 120.
  • the input / output interface 140 may be received from, for example, the processor 120, the memory 130, the communication interface 160, or the display module module 170 via the bus 110.
  • Commands or data may be output through the input / output device (eg, a speaker or a display).
  • the input / output interface 140 may output voice data processed by the processor 120 to a user through a speaker.
  • the input / output interface 140 may receive a user input for displaying content (eg, text, image, video, etc.) on the display 150.
  • the display 150 may display various information (eg, multimedia data or text data) to the user.
  • the display 150 may be implemented as, for example, a touch screen, and operate as an input / output interface 140 that receives a touch input or a hovering input from a user.
  • the display 150 may be implemented in a form including a screen or a touch screen.
  • the screen or touch screen may refer to the surface of the display 150 on which one or more content is displayed.
  • the communication interface 160 may connect communication between the electronic device 101 and an external device (for example, the electronic device 104 or the server 106).
  • the communication interface 160 may be connected to the network 162 through wireless or wired communication to communicate with the external device.
  • the wireless communication may include, for example, wireless fidelity (WIFI), Bluetooth (BT), Zigbee (near field communication), global positioning system (GPS) or cellular communication (eg, LTE, LTE-A). , CDMA, WCDMA, UMTS, WiBro, or GSM).
  • the wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a reduced standard 232 (RS-232), or a plain old telephone service (POTS).
  • USB universal serial bus
  • HDMI high definition multimedia interface
  • RS-232 reduced standard 232
  • POTS plain old telephone service
  • the network 162 may be a telecommunications network.
  • the communication network may include at least one of a computer network, the Internet, the Internet of things, and a telephone network.
  • a protocol eg, a transport layer protocol, a data link layer protocol, or a physical layer protocol
  • the middleware 132, the kernel 131, or the communication interface 160 may be supported.
  • the control module 170 may include other components (eg, the processor 120, the memory 130, the input / output interface 140, the communication interface 160, the sensor module 180, etc.). At least some of the information obtained from the processing may be processed and provided to the user in various ways. For example, the control module 170 may use the processor 120 or independently of the electronic device 101, for example, another electronic device (for example, the electronic device 104 or the server 106). At least some functions of the electronic device 101 may be controlled to interwork with the electronic device 101.
  • the control module 170 may use the processor 120 or independently of the electronic device 101, for example, another electronic device (for example, the electronic device 104 or the server 106). At least some functions of the electronic device 101 may be controlled to interwork with the electronic device 101.
  • the control module 170 measures the moving speed, the moving acceleration, the moving direction, the tilt of the electronic device 101 by sensing the sensor module 180, or the user's blood pressure, heart rate, respiratory rate, oxygen saturation, It can be controlled to measure cardiopulmonary sound, calorie consumption, electromyography and electrocardiogram.
  • the control module 170 may be configured to sense current data, a moving speed, a moving acceleration, a moving direction, or an electronic device of the electronic device 101 measured by the sensing data acquired by the sensor module 180, for example, one or more sensors.
  • the direction of the display 150 may be determined using at least one of the inclinations of 101.
  • the size or resolution of the screen included in the display 150 of the electronic device 101 may be restricted. have.
  • the electronic device 101 may be mounted on a body part having a lot of movement, and thus, the control module 170 controls the electronic device 101 to provide various types of user interfaces according to the user's movement. can do. As a result, the usability of the electronic device 101 may be increased.
  • the electronic device 101 displays a text, a picture, a figure, etc. displayed on a screen of the display 150 such as a home screen or an application screen. It can be provided to the user by changing according to the exercise speed, the type or intensity of the exercise operation. For example, suppose a user swims. Since swimming has a unique movement pattern according to the zero method, the electronic device 101 may detect the movement pattern and provide the user with contents suitable for swimming through the display 150. For example, suppose a user runs. The electronic device 101 can detect the movement distance or the movement of the arm of the user who wears the electronic device 101 to find out that the user's exercise is running. As described above, the electronic device 101 may determine the exercise performed by the user by analyzing the movement pattern of the user.
  • the electronic device 101 may receive the type of the exercise from the user before or during the exercise of the user.
  • the control module 170 may provide the user with content corresponding to the type of the input exercise through the display 150.
  • the control module 170 uses at least one of sensing data acquired by the sensor module 180, for example, blood pressure, heart rate, respiratory rate, oxygen saturation, cardiopulmonary sound, calorie consumption, electrocardiogram, electrocardiogram, and the like of the user. You can determine your status.
  • the control module 170 may analyze the sensing data and determine that the user is moving or exercising. For example, if the heart rate of the user measured through the HRM sensor included in the sensor module 180 is 100 or more times, the control module 170 may determine that the user is exercising. For example, if the user's heart rate measured by the HRM sensor is 100-120, the user's exercise intensity is about 70. If the heart rate is 121-140, the user's exercise intensity is medium. It can be determined that the exercise intensity is strong.
  • the control module 170 may determine the exercise progress state of the user as the initial exercise, the middle exercise, or the late exercise according to the time from the time when the user starts the exercise to the current time.
  • the control module 170 may include at least one of sensing data acquired by the sensor module 180, for example, blood pressure, heart rate, respiratory rate, oxygen saturation, cardiopulmonary sound, calorie consumption, electrocardiogram, and electrocardiogram of the user.
  • the user may determine at least one of the type of exercise, the progress state of the exercise, and the intensity of the exercise. For example, suppose a user jogs for 30 minutes in a row.
  • the memory 130 includes sensing data recorded while the user jogs for the past week, for example, sensing data received from the sensor module 180 immediately before the user starts jogging, and the sensor module (eg, while the user is jogging).
  • the sensing data received from the sensor 180 or the sensing data received from the sensor module 180 immediately after the user jogs may be all stored under the control of the control module 170. That is, sensing data received from the sensor module 180 may be accumulated in the memory 130.
  • the sensing data may be stored not only in the memory 130 of the electronic device 101 but also in another device (for example, the electronic device 104 or a server on the network (for example, the server 106)). According to an embodiment, when previously acquired sensing data is stored in the other device or server, the newly acquired sensing data may be updated by transferring the newly acquired sensing data to the devices.
  • control module 170 may determine the type of exercise, the progress state of the exercise, the intensity of exercise, etc., which the user is doing based on the sensing data accumulated in the memory 130. For example, suppose the user is jogging.
  • the control module 170 may include sensing data indicating a state of a user who is jogging (for example, blood pressure, heart rate, respiratory rate, oxygen saturation, cardiopulmonary sound, calorie consumption, electrocardiogram, electrocardiogram, acceleration, angular velocity, and position change).
  • sensing data when the user is jogging among the sensing data accumulated in the memory 130 are similar to each other (for example, 70% or more identical), the user may determine that the user is currently jogging.
  • the control module 170 may determine the sensing data to be used to determine whether the sensing data is similar. For example, assuming that there are a total of 10 types of sensing data, the control module 170 uses 7 types of sensing data among the 10 types of sensing data to determine the type of exercise, progress of the exercise, and exercise. Strength and the like can be determined.
  • the control module 170 may control the electronic device 101 based on one or more of the type of exercise, exercise progress state, exercise intensity, and user state.
  • the control module 170 may display the content (eg, current time, temperature, weather, exercise time, exercise intensity) displayed on the screen of the display 150 based on one or more of the type of exercise, exercise progress state, and exercise intensity. , Heart rate, blood pressure, respiratory rate, oxygen saturation, etc.) may be controlled to change the electronic device 101.
  • the control module 170 controls the display 150 to display six data of current time, temperature, weather, exercise time, heart rate, and blood pressure when the exercise intensity of the user is weak.
  • the data displayed on the screen of the display 150 may be changed to display only three types of data of exercise time, heart rate, and blood pressure.
  • the control module 170 may change the size, color, direction, duration, etc. of the content as well as the type of the content displayed on the screen of the display 150.
  • the control module 170 may limit the operation of the electronic device 101 based on at least one of the type of exercise, exercise progress state, exercise intensity, and user state.
  • the control module 170 displays the incoming call notification, that is, the call 150 is received. Can be controlled.
  • the user may check the incoming call notification displayed on the screen of the display 150 and make a phone call in response thereto.
  • the control module 170 may control the display 150 not to display the incoming call notification. Since the incoming call notification is not displayed, the user may not know that an incoming call is being received.
  • control module 170 may prevent the user from making a phone call during the exercise or prevent the user from stopping the exercise for the phone call. .
  • control module 170 may notify the user that the incoming call has been received by displaying the received call notification (missed call notification) on the display 150 after the user's exercise is finished.
  • the control module 170 controls the electronic device 101 to control all functions (play, stop, rewind, fast forward, repeat section, volume control, etc.) of the music player. ) Can be controlled.
  • the control module 170 controls the electronic device 101 to display all the buttons corresponding to each of the functions of the music player, for example, on the screen of the display 150.
  • the electronic device 101 may be controlled to execute a music player according to user inputs to each of the buttons.
  • the control module 170 may perform one of the functions of the music player (play, stop, rewind, fast forward, repeat section, adjust volume, etc.).
  • the electronic device 101 may be controlled so that the user can adjust only the volume adjusting function.
  • the control module 170 may control the display 150 to display only the buttons corresponding to the volume control function among the buttons corresponding to each of the functions of the music player on the screen of the display 150. .
  • FIGS. 2 to 5 Additional information about the control module 170 is provided through FIGS. 2 to 5 to be described later.
  • the processor 120 and the control module 170 are illustrated as being included in the electronic device 101 as separate components, but the processor 120 is implemented in a form including the control module 170.
  • all operations executed in the control module 170 may be executed.
  • the sensor module 180 may measure a numerical value of a sensor or detect an operation state of the electronic device 101, and may convert the measured or detected information into an electrical signal.
  • the sensor module 180 may measure a moving speed, a moving acceleration, a moving direction, or an inclination of the electronic device 101.
  • the sensor module 180 may be implemented in a form including an acceleration sensor or a gyro sensor.
  • the sensor module 180 may display a user's biosignal (eg, blood pressure, blood flow, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, calorie consumption, electromyogram, electrocardiogram, etc.) of the user. You can also measure.
  • the sensor module 180 may include an olfactory sensor (E-nose sensor, not shown), an EMG sensor (electromyography sensor, not shown), an EEG sensor (electroencephalogram sensor, not shown), and an ECG sensor (electrocardiogram sensor, not shown).
  • Infra red (IR) sensor (not shown), an iris sensor (not shown) or a fingerprint sensor (not shown) may be implemented in a form further comprising one or more.
  • the sensor module 180 may include a heart rate variability (HRV) sensor, and the HRV sensor may detect a pulse wave signal of a user.
  • HRV heart rate variability
  • the HRV sensor may detect the pulse wave signal and calculate an average heart rate, a heart rate distribution map, and the like of the user.
  • the sensor module 180 including at least one of the above-described sensors may further include a control circuit for controlling at least one or more sensors belonging thereto.
  • One or more sensors included in the sensor module 180 may include blood pressure, blood flow, heart rate (HRM), temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, and the like of a user who uses the electronic device 101.
  • One or more vital signs such as blood sugar, waist, height, body fat, calorie consumption, brain waves, voice, skin resistance, electrocardiogram, electrocardiogram, gait, ultrasound, sleep state and facial expression, are available as raw data from the user. Can be collected or measured.
  • the control module 170 may analyze the raw data to determine biometric information about a user who uses the electronic device 101. For example, the control module 170 may analyze a pulse wave signal obtained through a heart rate variability (HRV) sensor to determine an average heart rate, a heart rate distribution, and the like of the user. In this case, the pulse wave signal corresponds to the raw data, and the control module 170 may calculate an average heart rate, a heart rate distribution map, and the like of the user using the pulse wave signal collected through the HRV sensor.
  • HRV heart rate variability
  • the sensor module 180 may include blood-free measurement sensors, such as an ultrasonic blood-free blood glucose meter using Raman spectroscopy.
  • the sensor module 180 may include, for example, a cholesterol measuring device that can easily measure cholesterol.
  • the sensor module 180 may include an ECG sensor.
  • the ECG sensor may detect a pattern signal of an active current of the heart.
  • the ECG sensor may be divided into a current ECG and a voltage ECG according to a signal detection method, and may be implemented by attaching a plurality of ECG electrodes to a side of a portable ECG monitor or electronic device 101 called PEM (Portable EM). May be
  • PEM Portable EM
  • the waveform of the ECG measured by the ECG sensor may be composed of P, Q, R, S, and T waves, wherein an R wave corresponds to a peak signal.
  • Heart rate can be measured by the number of R-wave signals generated per unit time.
  • the ECG sensor may check the heart rate in a HRV (Heart Rate Variability) method.
  • HRV is a technique for measuring the variation of the time interval between R waves, which is a peak signal, and allows the control module 170 to analyze various biological states of a user by analyzing the activity of autonomic nerves from minute changes between heartbeats. Make it predictable.
  • the control module 170 may obtain information for calculating a stress index of the user in relation to the sympathetic nerve or the parasympathetic nerve of the user using the ECG sensor included in the sensor module 180.
  • HRV variation through ECG sensors appears large and complex, but the complexity of the HRV variation is significantly reduced in a disease state or a stressful state.
  • the ECG sensor senses the HRV variation as described above, so that the control module 170 may provide data necessary for calculating the stress index of the user.
  • the sensor module 180 may include a heart rate sensor.
  • the heart rate sensor includes a heart rate monitor (HRM) sensor capable of measuring heart rate per unit time, and a sensor capable of measuring heart rate variability (HRV), which is a variation of a time interval between heart rates.
  • HRM heart rate monitor
  • HRV heart rate variability
  • Photoplethysmography (PPG) a type of heart rate sensor, is also used to measure changes in blood volume or oxygen saturation in a user's blood vessels by measuring changes in blood vessel volume in peripheral blood vessels that occur as the heart repeats contraction and relaxation. Can be.
  • the heart rate sensor included in the electronic device 101 may measure the heart rate of the user.
  • a user's heart rate may be measured using a non-contact method such as a camera or infrared light.
  • the heart rate measured by the heart rate sensor may vary depending on the age, health state, and emotional state of the user.
  • Heart rate patterns may also vary according to the user's age, health, and emotional state. Therefore, the control module 170 may calculate the vascular elasticity of the user and analyze the vascular aging of the user by analyzing the heart rate or the heart rate pattern measured by the heart rate sensor. By determining the vascular elasticity or vascular aging degree of the user as described above, the control module 170 may determine the current state of the user.
  • the sensor module 180 may include an oxygen saturation sensor.
  • the oxygen saturation sensor may measure a ratio of hemoglobin saturated with oxygen in all hemoglobin.
  • the control module 170 may calculate calorie consumption according to the user's exercise, in particular, through an oxygen saturation sensor.
  • Oxygen saturation sensors can also be used to detect risks that can occur to users, such as breathing difficulties, consciousness disorders, shock, lung diseases, acute respiratory distress syndrome (ARDS), high oxygen hypoxia, gas poisoning, and asphyxiation. .
  • the sensor module 180 may include a sleep sensor.
  • the sleep sensor measures a sleep state of a user, and may include one or more of an acceleration sensor, a gyro sensor, a pulse wave sensor, a respiratory rate sensor, and a blood pressure measurement sensor.
  • the sensor module 180 may include a pedometer, and the pedometer may include an accelerometer, a gyro sensor, and the like to measure the number of steps of the user and estimate calories consumed by the user. can do.
  • Pedometer may also calculate the distance traveled by a user using GPS or indoor positioning technology.
  • the sensor module 180 may be implemented to be included outside the electronic device 101.
  • the sensor module 180 may be implemented in a form included in the electronic device 104.
  • the user may wear the electronic device 104, and the electronic device 104 may transmit sensing data to the electronic device 101 which is not worn by the user.
  • the control module 170 of the electronic device 101 receives the sensing data from the electronic device 104 through the communication interface 160, and based on the sensing data, a user possessing the electronic device 104 is provided.
  • the type of exercise being performed, the progress of the exercise, the intensity of the exercise, or the current state of the user may be determined.
  • control module 170 may determine the type of content to be displayed on the screen of the display 150 or a method of displaying the content according to the type of the exercise, the progress of the exercise, the current state of the user such as the exercise intensity or the heart rate. You can decide.
  • the electronic device 101 may be a host device, and the electronic device 104 may be linked with each other through a wireless communication or a wired communication as a companion device.
  • the electronic device 101 operating as the host device includes a control module 170 to receive sensing data from the electronic device 104 acting as a companion device, and based on the sensing data, the electronic device 101 includes a control module 170.
  • Direction can be determined.
  • the control module 170 of the electronic device 101 may control the companion device to display content according to the screen direction of the electronic device 104.
  • FIG. 23 illustrates an example in which the electronic device 101 is a host device and interlocks with the electronic device 104 which is a companion device. A detailed description of FIG. 23 will be described later.
  • the control module 170 may generate control signals according to the operations of the electronic devices 101 and 104. In addition, the control module 170 may transmit the control signal to the electronic device 104 through the communication interface 160. The electronic devices 101 and 104 may perform an operation according to each of the control signals. In this case, the operation of the electronic device 104 determined by the control module 170 may be similar to or the same as the operations performed by the electronic device 101.
  • control module 170 may control to transmit an incoming call notification from the electronic device 101 to the electronic device 104 when the user's exercise intensity is weak and an incoming call is being received. Can be. However, when the exercise intensity of the user is more than moderate, the electronic device 101 may be controlled so that the incoming call notification is not transmitted to the electronic device 104.
  • the control module 170 may control the electronic device 104 such that all of the buttons corresponding to each of the functions of the music player are displayed on the screen.
  • the control module 170 controls the volume of the buttons corresponding to each of the functions of the music player so that the user can use only the volume adjusting function among the functions of the music player.
  • the electronic device 104 may be controlled to display only buttons corresponding to the adjustment function on the screen.
  • FIG. 2 is a block diagram 200 of a control module 170 of an electronic device (for example, the electronic device 101) according to various embodiments of the present disclosure.
  • control module 170 may include a state determination module 210, a direction determination module 220, and a content control module 230.
  • the state determination module 210 may determine the electronic device 101 based on sensing data collected from one or more sensors (eg, an acceleration sensor, a gyro sensor, an HRV sensor, etc.) included in the sensor module 180.
  • a user's current state (hereinafter, referred to as a user state) can be determined. For example, if the heart rate of the user measured by the HRV sensor is 85 ⁇ 130, the state determination module 210 may determine that the user is exercising.
  • the user state determined by the state determination module 210 may include a type of exercise performed by the user, a progress state of the exercise, exercise intensity, and a user's health state.
  • the electronic device 101 may previously receive physical information such as age, height, and weight of the user by the user in order to more accurately determine the user state.
  • the state determination module 210 may determine a stress index for the user. For example, assume that the user's heart rate is 70 to 90. The state determination module 210 determines the stress index for the user as low as the heart rate of the user is 91 to 100, and determines the stress index for the user as medium when the heart rate is 101 to 115. If the heart rate is 116 or more, the stress index for the user may be determined as an image. In addition, the state determination module 210 may control the display 150 to display an exercise stop alarm so that the user can stop the current exercise when the stress index is out of the preset numerical range. For example, even if the stress index for the user corresponds to the middle, middle, or middle phase, the control module 170 may display the exercise stop alarm so that the user can stop the current exercise. ) Can be controlled.
  • the direction determination module 220 analyzes signals collected from one or more sensors (eg, acceleration sensor, gyro sensor, etc.) included in the sensor module 180, that is, sensing data to display 150, in particular content. Can determine the orientation of the screen being displayed.
  • sensors eg, acceleration sensor, gyro sensor, etc.
  • the direction determining module 220 may calculate the rotation direction of the screen. For example, if the electronic device 101 is a watch type, the screen displaying one or more contents may be rotated by 30 degrees with respect to the center of the left wrist of the user.
  • the content control module 230 may determine the display direction of the content displayed on the screen based on the direction of the screen determined by the direction determination module 220. For example, if the content displayed on the screen is text, the content control module 230 may determine to display the text in the horizontal or vertical direction according to the direction of the screen. That is, the content control module 230 controls the display 150 to output the text in a 'left to right' direction, or the text is in an 'up to down' direction. The display 150 may be controlled to be output.
  • the content control module 230 may control the display 150 to output each of two or more contents displayed on one screen in different directions. For example, assume that the first text, the second text, and the image are displayed on the screen. The content control module 230 may determine that the first text and the image are displayed on the screen in the 'left ⁇ right' direction, and the second text may be determined to be displayed on the screen in the 'up ⁇ down' direction.
  • the content control module 230 may determine a display method of the content output to the screen based on the user state determined by the state determination module 210. For example, when the user's movement is intense (for example, when the user is exercising with a high intensity of movement), the state determination module 210 determines the number of contents displayed on the display 150 or the size of each of the contents. You can limit it. In addition, the status determination module 210 may increase the size of the content so that the user can easily check the content. For example, when the user's movement is not intense (for example, when the user is not exercising), such as when the user is not exercising or is walking lightly, the status determination module 210 may display the display 150. It may not limit the number of content displayed through. In addition, the state determination module 210 may reduce the size of the content, control the display 150 to display a plurality of contents on one screen, or display the display 150 to sequentially display the screens including the plurality of contents. Can be controlled.
  • An electronic device for displaying content a display including a screen for displaying the content, and obtains the sensing data, determine the current state of the user based on the sensing data, the current state
  • the control module may be configured to determine content to be displayed on a screen based on the control, and control the display to display the content.
  • FIG. 3 is a flowchart illustrating an example of a method of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the sensor module 180 may collect sensing data under control of the control module 170 (S302).
  • the sensing data may include various sensor values measured by the sensor module 180 (eg, blood pressure, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, blood sugar, etc.) of the user.
  • the control module 170 of the electronic device 101 may determine a current state of the user based on the sensing data (S304).
  • the current state of the user may be whether the user is exercising, the type of exercise when the user is exercising, the exercise progress state, the intensity of exercise, the health state of the user, and the like.
  • the content control module 230 may determine content to be displayed on the screen of the display 150 based on the current state of the user (S308). For example, if the user's exercise intensity is higher, the content control module 230 may determine current time and calories burned as content to be displayed on the screen. On the other hand, if the exercise intensity is lower, the content control module 230 is the content to be displayed on the screen, such as the current time, exercise time, calories burned, heart rate and blood pressure, more than if the exercise intensity is medium or higher. You can decide to display a lot of content.
  • the display 150 may display the content determined by the content control module 230 on the screen in step S306 (S308).
  • FIG. 4 is a flowchart illustrating an example of a method of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the sensor module 180 may collect sensing data under the control of the control module 170 (S402).
  • the sensing data may include various sensor values (eg, speed, acceleration, tilt, GPS coordinates, etc. of the electronic device 101) measured by the sensor module 180.
  • the control module 170 of the electronic device 101 may determine the direction of the screen of the display 150 based on the sensing data (S404).
  • the direction of the screen may indicate a direction in which light is emitted from the LCD, for example, assuming that the screen is implemented as an LCD.
  • the direction determination module 220 determines sensing data (eg, measured by an acceleration sensor or a gyro sensor of the electronic device 101 in step S404). For example, the direction and movement of the screen (for example, the electronic device 101 mounted on the wrist) using the moving speed, the moving acceleration, the moving direction, or the tilt of the electronic device 101, of the electronic device 101. Can be determined according to the tilting movement).
  • the content control module 230 may determine the display direction of the content based on the direction of the screen (S406). For example, the content control module 230 may determine to display the text displayed on the screen in the horizontal direction or in the vertical direction.
  • the display 150 may display one or more contents on the screen according to the display direction of the screen determined in step S406 (S408).
  • the direction of the screen is described as indicating the direction in which the screen is directed, but according to another embodiment, the direction in which the screen is directed may be an orientation of content displayed on the screen.
  • the direction of the screen may be an alignment direction (eg, 'left ⁇ right', 'up ⁇ down', etc.) of the content displayed on the rectangular LCD.
  • the content control module 230 determines a user's arm movement or a user's gaze direction, and determines an angle at which the screen is rotated based on the gaze direction based on the arm movement or the user's gaze direction. You can also determine. For example, the content control module 230 may determine whether the electronic device 101 is closer to a landscape mode or a portrait mode.
  • FIG. 5 is a flowchart illustrating still another example of a method for displaying content by an electronic device according to various embodiments of the present disclosure.
  • the sensor module 180 may collect sensing data under the control of the control module 170 (S502).
  • the sensing data generated by the sensor module 180 may include one or more of a moving speed, a moving acceleration, a moving direction, and an inclination of the electronic device 101 of the electronic device 101, and the sensing data may be a user. Blood pressure, heart rate, respiratory rate, oxygen saturation, calorie consumption, electrocardiogram, and electrocardiogram.
  • the control module 170 of the electronic device 101 may determine the current state of the user or the direction of the screen of the display 150 based on the sensing data (S504).
  • the direction of the screen may refer to a direction in which light is emitted from the LCD, for example, assuming that the screen is implemented as an LCD.
  • the direction determining module 220 rotates the screen direction in the clockwise direction by 30 degrees with respect to the center of the user's left wrist in step S504. Can be determined to be.
  • the content control module 230 may determine the content to be displayed on the screen and the display direction of the content based on the current state of the user or the direction of the screen ( S506). For example, it is assumed that the content to be displayed on the screen is 'Message from Jim' which is text, and the font sizes of the characters of the text are the same. The content control module 230 may control the display 150 to display the text in the horizontal direction or the vertical direction according to the direction of the screen. In addition, if it is determined that the user state is in motion, the content control module 230 may control the output sizes of 'Message from' and 'Jim' of the text to be different from each other.
  • control module 170 may process the text 'Message from Jim' having the same font size to reduce the font size of 'Message from' and increase the font size of 'Jim'.
  • the font color of 'Jim' may be another color distinguished from other text.
  • the display 150 may display content on the screen according to the display direction determined in step S506 (S508).
  • An operation method of an electronic device may include determining motion information of an electronic device through an acceleration sensor or a gyro sensor, and determining biometric information on a user by analyzing one or more biosignals; And controlling the operation of the electronic device according to the motion information and the biometric information.
  • an operation method of an electronic device may include determining whether a communication module communicating with an external device is connected to the external device, and operating the electronic device according to a connection state with the external device. Control may include.
  • a method of operating an electronic device includes: pairing one or more external devices, determining motion information of the electronic device using a motion sensor, and analyzing one or more biological signals. Determining biometric information about the user, determining a service that can be provided to the user from the electronic device based on the motion information or the biometric information, and using the external devices to determine the service. It may include an operation provided to the user.
  • a method of displaying content by an electronic device includes obtaining sensing data, determining a current state of a user based on the sensing data, and displaying a screen based on the current state. And determining the content to be displayed on the screen, and displaying the content on the screen.
  • a method of displaying content by an electronic device includes: obtaining sensing data for determining a direction of a screen; determining the direction of the screen based on the sensing data; And determining the display direction of the content according to the direction of the screen, and displaying the content according to the display direction.
  • FIG. 6 is a flowchart illustrating still another example of a method for displaying content by an electronic device according to various embodiments of the present disclosure. In FIG. 6, it is assumed that the user is exercising.
  • the sensor module 180 may acquire sensing data under the control of the control module 170 (S602).
  • the sensing data obtained by the sensor module 180 may include one or more of a moving speed, a moving acceleration, a moving direction, and an inclination of the electronic device 101 of the electronic device 101. Blood pressure, heart rate, respiratory rate, oxygen saturation, calorie consumption, electrocardiogram, electrocardiogram.
  • the control module 170 of the electronic device 101 may determine a current state of the user based on the sensing data in operation S604.
  • the current state of the user determined by the control module 170 in step S604, for example, the type of exercise, exercise intensity, exercise progress state, etc. that the user wearing the electronic device 101 implemented as a wearable device It may include. If the user is exercising, the current state of the user may include the stress index of the user.
  • the control module 170 may determine the stress index of the user in step S604. The stress index may be determined based on exercise, intensity of exercise, exercise progress, exercise time, body temperature, blood pressure, heart rate, etc. of the user.
  • the control module 170 may determine whether the stress index of the user is greater than or equal to the threshold (S606).
  • the threshold may be a reference value for determining whether the user may continue to exercise. For example, if the user's heart rate is 100 or more, the control module 170 may determine that the stress index is greater than or equal to the threshold. In addition, if the systolic blood pressure of the user is 160mmHg or more, the control module 170 may determine that the stress index is greater than or equal to the threshold. If the stress index is equal to or greater than the threshold as described above, the control module 170 may request the user to stop the exercise.
  • the control module 170 may control the display 150 to display an exercise stop alarm requesting the user to stop the exercise on the screen. (S608).
  • the electronic device 101 can prevent the user from harming his / her health by exercising excessively.
  • the stress index is less than the threshold (S606: NO).
  • the control module 170 may determine an operation according to the current state of the user (S612).
  • the control module 170 may control the electronic device 101 to execute the operation determined in operation S614. If the stress index is less than the threshold value, the control module 170 may control the display 150 to allow the user to continue the exercise, for example, to display an exercise course or the like on the screen.
  • a method of operating an electronic device may include determining movement information of the electronic device based on sensor data measured through a sensor module, and analyzing one or more biosignals to obtain biometric information about a user. And determining an operation and controlling an operation of the electronic device according to the motion information and the biometric information.
  • an operation method of an electronic device may include determining whether a communication module communicating with an external device is connected to the external device, and operating the electronic device according to a connection state with the external device. Control may include.
  • An operation method of an electronic device includes an operation of pairing with one or more external devices, an operation of determining motion information of the electronic device using a motion acceleration sensor or a gyro sensor, and one or more living bodies. Analyzing the signal to determine biometric information for the user, determining a service that can be provided to the user from the electronic device based on the motion information or the biometric information, and using the external devices Providing the service to the user.
  • a method of displaying content by an electronic device includes obtaining sensing data, determining a current state of a user based on the sensing data, and displaying a screen based on the current state. And determining the content to be displayed on the screen, and displaying the content on the screen.
  • a method of displaying content by an electronic device includes: obtaining sensing data for determining a direction of a screen; determining the direction of the screen based on the sensing data; And determining the display direction of the content according to the direction of the screen, and displaying the content according to the display direction.
  • FIG. 7 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIGS. 7A and 7B it is assumed that the user wears the electronic device 101 on a part of the body.
  • Various contents displayed on the screen by the display 150 may be displayed in the form of an image, and an image displayed on the entire screen will be referred to as a “screen image”.
  • FIG. 7A illustrates a basic screen image 701 of the electronic device 101, which includes a current time, date, and day of the week.
  • the control module 170 may control the display 150 to display the basic screen image 701.
  • FIG. 7B illustrates an example of content that the electronic device 101 displays on the screen through the display 150 when the user is exercising.
  • the control module 170 of the electronic device 101 may control the display 150 to display one or more exercise mode screen images 711, 712, 713, and 714.
  • the exercise mode screens may display content such as exercise type, exercise time, remaining time, moving distance, calories burned, user's heart rate, stress due to exercise, and exercise progress.
  • Each of the exercise mode screen images 711-714 of FIG. 7B includes a screen image 711 indicating an exercise index, a screen image 712 indicating an exercise time, and a screen image 713 indicating a user's stress level.
  • each of the exercise mode screen images 711, 712, 713, and 714 may be converted into other screen images by a user input input through a screen of the display 150, such as a scroll input.
  • a user input input through a screen of the display 150
  • the display 150 displays the exercise mode screen image ( 711 may be converted to the exercise mode screen image 712 and displayed.
  • FIG. 7 only describes user input through a screen, according to another exemplary embodiment, the user input may be a voice input or a gesture input.
  • the electronic device 101 may track the gaze of the user and recognize the tracked gaze of the user as a user input.
  • the control module 170 may control the electronic device 101 according to various user inputs such as the voice input, the gesture input, and the gaze of the user, for example, to switch the screen image displayed on the screen or to control the scrolling.
  • the electronic device 101 When the electronic device 101 is executing the exercise mode, the user is exercising so that the electronic device 101 is the exercise mode screen image (for example, the exercise mode screen images 711, 712, 713, and 714). ) Is displayed along with vibration, etc., a user may not be able to check.
  • the electronic device 101 may automatically set the exercise mode screen image that the user does not check as the initial screen image or the basic screen image. For example, if it is determined that the specific exercise mode screen image is displayed together with the vibration but the user does not check, the control module 170 may set the specific exercise mode screen image as the home screen image until the user confirms.
  • the user does not have to input a separate input to the electronic device 101 to check the specific exercise mode screen image.
  • the specific exercise mode screen image as the initial screen image, the number of display of the screen image that the user does not need to check may be reduced, thereby reducing the current consumption of the electronic device 101.
  • FIGS. 8A and 8B are diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIGS. 8A and 8B it is assumed that the user is wearing the electronic device 101 on a part of the body, and the user is in a state of exercising.
  • FIG. 8A illustrates a message notification screen image 810 for notifying the number of messages received by the electronic device 101 or that a new message has arrived.
  • the display 150 may display the number of new messages not confirmed by the user, the sender of the message, and the current time. In FIG. 8A, there are six new messages not confirmed by the user.
  • the electronic device 101 may receive a user input for displaying the content of the new message while displaying the message notification screen image 810. For example, in a state where the message notification screen image 810 is displayed on the screen, the electronic device 101 is a user input for displaying the contents of the message, and the user taps the surface of the screen with a fingertip or a stylus pen. An input can be received.
  • the control module 170 controls the display 150 to switch the screen image from the message alarm screen image 810 to the message display screen image 820 when a user input for displaying the contents of the message is input to the electronic device 101. Can be controlled.
  • the display 150 may display the sender, the contents of the message, the current time or the reception time on the screen through the message screen image 820.
  • the electronic device 101 may switch the screen image from the message display screen image 820 to the message alarm screen image.
  • the electronic device 101 may receive a user input for displaying the content of the message.
  • the electronic device 101 in a state where the message notification screen image 810 is displayed through the display 150, the electronic device 101 is a user input for displaying the contents of the message, and the user may use the fingertip or the stylus pen to display the screen. Receive user input tapping on the surface.
  • the control module 170 controls the display 150 to switch the screen image from the message alarm screen image 810 to the message display screen image 820 when a user input for displaying the contents of the message is input to the electronic device 101. Can be controlled.
  • FIG. 9 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIGS. 9A and 9B it is assumed that the user wears the electronic device 101 on a part of the body.
  • FIG. 9A and 9B illustrate screen images displayed on the display 150 of the electronic device 101 in order.
  • FIG. 9A illustrates screen images when the user is not exercising.
  • 9B illustrates screen images when the user is exercising.
  • the screen when the electronic device 101 is implemented as a wearable device, the screen may be configured as a card type UI in consideration of the limited size of the screen.
  • each of the screen images displayed on the screen may be configured in the form of a page, and the user may search for other pages while turning the pages sequentially through touch or flick input.
  • the order of the pages may be predetermined
  • FIGS. 9A and 9B illustrate an example in which a UI of a card type, for example, one page is configured to be displayed on one screen and displayed on a screen. will be.
  • the order of the pages may be changed according to a user input or arbitrarily changed by the electronic device 101.
  • the electronic device 101 when the electronic device 101 is connected to another electronic device (for example, the electronic device 104) through a communication means (for example, the communication interface 160), the electronic device 101 GUIs, that is, pages related to the connection event with the other electronic device, may be preferentially displayed on the screen.
  • a communication means for example, the communication interface 160
  • the initial screen image of the electronic device 101 is a current time screen image 920 indicating a current time.
  • the control module 170 of the electronic device 101 sets the current time screen image 920 as an initial screen image, and displays the current time screen image 920 in preference to other screen images 910, 930, and 940.
  • the display 150 can be controlled to do so.
  • the electronic device 101 may receive a message from another electronic device (for example, the electronic device 104).
  • the reception of a message from another electronic device by the electronic device 1010 will be referred to as a “message reception event.”
  • the control module 170 of the electronic device 101 may transmit a message related to the message.
  • the alarm screen image 910 may be reset as the initial screen image.
  • the display 150 displays the message alarm screen image 910 as other screen images ( 920, 930, and 940 may be displayed in priority, and according to a user input, the message alarm screen image 910 ⁇ current time screen image 920 ⁇ exercise mode screen image 930 ⁇ music playback screen image 940
  • the screen images may be switched in the order of) '.
  • control module 170 may control the electronic device 101 to reset the current time screen image 920 to the initial screen image again.
  • the electronic device 101 may change the priority of screen images displayed on the display 150.
  • the electronic device 101 is not an order of recent screen images that the user is currently inquiring, but an event generated by another electronic device (for example, a message reception event, a user status alarm event, an exercise mode alarm event, etc.). ),
  • the display order of each of the screen images may be changed to display the screen images associated with each other first. Accordingly, the user can easily check the latest event or information generated in the electronic device 101.
  • the electronic device 101 displays the display order of the screen images without receiving a separate user input, and displays the screen image order before the event is generated. Can be changed again. Thus, the user can easily check the screen images displayed on the electronic device 101 in order.
  • the electronic device 101 displays a message alarm screen image 910 as an initial screen image.
  • the electronic device 101 displays a message alarm screen image 910 ⁇ a current time screen image 920 ⁇ an exercise mode screen image 930 ⁇ a music playback screen image 940.
  • the content may be displayed in the order of.
  • the message alarm screen image 910 which is the initial screen image, may be an initial screen image designated by the user, an initial screen image designated as a default value of the electronic device 101, or a user may have used the electronic device 101 previously. It may be an end screen image at the time.
  • the electronic device 101 may switch the screen image according to a user input.
  • the electronic device 101 displays the current time screen image 920. I can display it.
  • the electronic device 101 may display a music reproduction screen image 940.
  • the message alarm screen image 910 or the exercise mode screen image is input. 930 may be displayed.
  • the current time screen image 920 or the music playback screen image ( 940 may be displayed. If the user input pushing the surface of the screen from left to right or the user input pushing the surface of the screen from left to right while the music playback screen image 940 is being displayed is input, the exercise mode screen image 930 or the message alarm screen image ( 910 may be displayed.
  • the electronic device 101 is a companion device in which the electronic device 101 is a host device and another electronic device 104 is a wearable device, and the host device and the companion device use respective communication means. Assume that it is connected to each other through.
  • the host device for example, the electronic device 101
  • the companion device may display data displayed on the host device on the companion device. Assume that you can.
  • the host device may give priority to events occurring in a companion device (eg, wearable device) equipped with one or more sensors.
  • the host device eg, the electronic device 101
  • the companion device is a smart watch equipped with a PPG sensor.
  • the companion device may measure and display biometric information (eg, heart rate) of the user wearing the companion device on the screen using the PPG sensor.
  • the companion device may transmit the biometric information measured through the PPG sensor to the host device.
  • the host device may preferentially display the biometric information received from the smart watch on its own screen so that the user may check it. That is, the host device gives priority to the biometric information and transmits the biometric information from the companion device.
  • the biometric information can be displayed on its screen in real time.
  • synchronization between a host device and a companion device may be performed at predetermined intervals rather than in real time.
  • the connection between the host device and the companion device may be lost, and synchronization between the two devices may not be achieved. Accordingly, it may be difficult for a user to check a notification related to health such as the biometric information through a host device.
  • the host device for example, the electronic device 101
  • the host device may perform the biometric information related event transmitted from the wearable device (for example, the electronic device 104). You can give priority to.
  • the exercise mode screen image 930 is displayed as an initial screen image.
  • the control module 170 of the electronic device 101 analyzes the sensing signal measured by the acceleration sensor or the biometric sensor to determine the current state of the user as the exercise state if the exercise amount of the user is equal to or greater than the preset exercise amount or more than the preset heart rate. You can decide. If it is determined that the user is exercising, the control module 170 may automatically set the exercise mode screen image 930 as the initial screen image and display it on the screen even if a separate user input is not received. Accordingly, as shown in (b) of FIG. 9, the electronic device 101 determines the 'exercise mode screen image 930 ⁇ music playback screen image 940 ⁇ message alarm screen image 910 ⁇ current time screen image 920. The content may be displayed in the order of '.' In a manner similar to that of FIG. 9A, the screen images 910-940 may be switched according to a user input in FIG. 9B.
  • FIGS. 10A and 10B it is assumed that the user wears the electronic device 101 on a part of the body.
  • FIG. 10A illustrates screen images displayed by the screen of the display 150 when the user is not exercising
  • FIG. 10B is screen images when the user is exercising.
  • the display 150 of the electronic device 101 displays the message alarm screen image 1010 as an initial screen image.
  • the control module 170 displays another screen image. The display 150 can be controlled to do so.
  • the missed call notification screen image 1020 and the exercise schedule notification screen image 1030 are displayed next to the message alarm screen image 1010.
  • the control module 170 may control the display 150 to display the stress level of the user according to the exercise as the initial screen image.
  • 10B illustrates a stress level screen image 1040 showing a stress level of a user.
  • the control module 170 may automatically set the stress level screen image 1040 as the initial screen image even if a separate input from the user is not received.
  • the electronic device 101 can enable a user who is exercising to check his stress level in real time.
  • the screen image 1010 may be set as an initial screen image.
  • the stress level screen image 1040 is set as the initial screen image as shown in FIG. The current status can be displayed separately at the top of the screen.
  • FIG. 11 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • FIGS. 11A and 11B it is assumed that the user wears the electronic device 101 on a part of the body.
  • the electronic device 101 is a companion device and interoperates with another electronic device 104.
  • FIG. 11A illustrates content displayed on a screen through the display 150 when the electronic device 101 is linked with the electronic device 104 which is a host device.
  • the electronic device 101 displays a message alarm screen image 1110 as an initial screen image.
  • the electronic device 101 displays the message alarm screen image 1110 ⁇ the current time screen image 1120 ⁇ the exercise mode screen image 1130 ⁇ the media playback screen image 1140.
  • the content may be displayed in the order of.
  • the electronic device 101 can switch the screen image displayed on the screen according to a user input.
  • the electronic device 101 displays the current time screen ( 1120 may display an image or a media playback screen image 1140 on the screen.
  • the electronic device 101 displays the current time screen ( 1120 may display an image or a media playback screen image 1140 on the screen.
  • a message alarm screen image 1110 or an exercise is input.
  • the mode screen image 1130 may be displayed on the screen.
  • the electronic device 101 may provide the user with content stored in the host device or functions provided by the host device through interworking of the electronic device 104.
  • FIG. 11A it is assumed that the message function and the music play function are provided from the electronic device 104 which is a host device, and the message alarm screen image 1110 and the media play screen image 1140 are the electronic device 101. May be displayed on the screen through the display 150 only when the electronic device 104 is the host device.
  • FIG. 11B illustrates the display 150 when the electronic device 101 does not interwork with the electronic device 104 that is the host device, that is, when the electronic device 101 operates in the stand alone mode.
  • the screen images displayed on the screen are shown.
  • the control module 170 controls the display 150 to provide only screen images according to functions that can be provided to a user regardless of whether the electronic device 104 is connected, that is, functions unique to the electronic device 104. can do.
  • functions according to the message alarm screen image 1110 and the media playback screen image 1140 are functions provided by the electronic device 104. If the device 101 is not associated with the electronic device 104, the device 101 may not be provided to the user. Accordingly, in FIG. 11B, only the current time screen image 1120 and the exercise mode screen image 1130 may be displayed on the screen through the display 150.
  • the control module 170 may remove the screen image associated with the mode requiring communication with the electronic device 104. That is, when the electronic device 101 operates alone, the control module 170 may display only mode screen images that can be displayed when the electronic device 101 operates alone on the display 150. Accordingly, only when the multimedia content stored in the electronic device 101 implemented as the wearable device can be controlled, the control module 170 may display the media play screen image 1140 through the display 150.
  • the control module 170 may record the usage history of the application frequently used by the user at a specific time or at a specific location in the memory 130. When one or more events, such as an event in which a current time reaches the specific time or an event in which the electronic device 101 enters the specific location, occur, the control module 170 automatically generates the specific time based on the usage history. Alternatively, an initial entry screen image of an application frequently used by a user at a specific location may be displayed on the screen through the display 150. According to an embodiment, when the control module 170 reaches the specific time or a specific location, the control module 170 may change the screen image so that the user can easily select an application frequently used by the user.
  • the control module 170 may calculate a preference of each of the applications based on one or more of the use frequency or the total use time of each of the applications.
  • the control module 170 may arbitrarily arrange a menu or an execution icon for selecting each of the applications according to the preference of each of the applications. For example, the control module 170 may display an execution icon corresponding to a high-preferred application on the display 150 to be larger than other execution icons or to be easily visible to the user by displaying it in the center of the screen. Can be.
  • the control module 170 may evaluate a preference corresponding to each of the applications according to the location information of the electronic device 101.
  • the electronic device 101 enters a place with high preference for each application, or the area where the user includes the location (for example, a geofence setting area and an access point signal strength is greater than or equal to a preset reference value). Area, etc.), the control module 170 may control the display 150 to change and display at least one property of a position, a size, and a color of a menu or an execution icon for executing a corresponding application. .
  • FIG. 12 is a diagram illustrating an example in which the electronic device 101 displays content according to various embodiments of the present disclosure.
  • FIG. 12A illustrates a user input 1251 for rejecting a call when the user 1201 is not exercising
  • FIG. 12B is a case where the user 1201 is exercising.
  • FIGS. 12A and 12B it is assumed that an incoming call is received from the caller “Peter smith” to the electronic device 101.
  • the user 1201 may drag left at any point 1230 on the screen 1210. have.
  • a user input input to the electronic device 101 by dragging from one point to another point will be referred to as a 'drag input'.
  • the drag inputs 1251 of FIG. 12 (a) and the drag inputs 1252 of (b) are both for rejecting reception of a call being made to the electronic device 101, but the drag inputs 125 1 and 1252.
  • Each drag lengths d1 and d2 are different from each other.
  • the drag length d2 of the drag input 1252 shown in (b) is longer than the drag length d1 of the drag input 1251 shown in (a).
  • the electronic device 101 may reject the call when the length of the drag input 1251 is greater than or equal to d1.
  • the electronic device 101 may reject the call when the length of the drag input 1252 is greater than or equal to d2.
  • both (a) and (b) of FIG. 12 are drag inputs 1251 and 1252 for rejecting a call, depending on the current state of the user 1201, that is, whether the user 1201 is exercising
  • Reference values for determining whether the drag inputs 1251 and 1252 are valid may be different.
  • the reference value when the user 1201 is exercising may be greater than the reference value when the user is not exercising.
  • the user input 1230 may be at least one of a swipe, a tap, a long press, and a hovering.
  • the control module 170 may apply a reference value for identifying the user input 1230 according to the electronic device 101 or the current state of the user. For example, when the user's movement is fast or the user is vigorously exercising, it may be difficult for the user to check the screen of the electronic device 101 due to the rapid movement in the area where the electronic device 101 is mounted. In addition, when the user is doing a vigorous exercise, the vigorous exercise may make it difficult for the user to distract his attention or may not be able to view the screen for a long time.
  • the user input for example, touch, flick, etc.
  • the electronic device 101 may be used when the user does not exercise or the user does not have a motion.
  • An error of an input value eg, input position, input pattern, input strength, etc.
  • an input value eg, input position, input pattern, input strength, etc.
  • control module 170 may include a touch intensity of the user input, a distance of a flick or a drag, an area to be touched, a size of a gesture input through a camera module (not shown), a holding time of the touch input, The operation of each of the functions of the electronic device 101 may be determined according to the speed of the gesture input.
  • FIG. 13 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 101 displays a vertical UI on the display 150.
  • the vertical UI is a UI that provides a long screen
  • the horizontal UI is a UI that provides a long screen.
  • the first input 1321 pushes the second screen image 1312 from the bottom up while the user selects a point on the screen using a finger or a stylus pen.
  • the control module 170 may control the display 150 to switch the screen image from the second screen image 1312 to the third screen image 1313.
  • the second input 1322 pushes down the second screen 1312 from the top down while the user selects a point on the screen using a finger or a stylus pen.
  • the control module 170 may control the display 150 to switch from the second screen image 1312 to the first screen image 01311.
  • the third input 1323 pushes the second screen image 1312 from left to right while a user selects a point on the screen using a finger or a stylus pen.
  • the control module 170 may control the display 150 to switch the screen image from the second screen image 1312 to the first screen image 1311.
  • the fourth input 1324 pushes the second screen 1312 from right to left in a state where a user selects a point on the screen using a finger or a stylus pen.
  • the control module 170 may control the display 150 to switch from the second screen image 1312 to the third screen image 1313.
  • the screen image or the menu GUI displayed through the display 150 of the electronic device 101 is moved horizontally or vertically even when a user input (for example, a swipe input) is input in either a vertical or horizontal direction. can be changed.
  • a user of the electronic device 101 may not feel confusion caused by the automatic switching of the screen image in the electronic device 101 using the horizontal / vertical screen.
  • the screen image is switched in the manner illustrated in FIG. 13, the user may input the user input to the electronic device 101 in a unified and simple input method.
  • a swab input through a user input as shown in FIG. 13, for example, a user interface may be used. It can receive input / flick signals.
  • the screen image of the electronic device 101 may be automatically switched by the screen image switching method as described with reference to FIG. 13.
  • FIG. 14 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 101 may be implemented as a host device and interwork with the electronic device 104 that is a companion device.
  • the electronic device 104 which is a companion device, may be implemented as a wearable device (eg, a wearable device of a circular wrist watch type) and worn on a part of a user's body.
  • the electronic device 101 which is a host device, may be located at a possible position with the electronic device 104 to control the electronic device 104.
  • the electronic device 104 is in a state of executing an exercise mode under the control of the electronic device 101, and plays an audio file under the control of the electronic device 101.
  • the electronic device 101 includes a screen including information on an audio file being played (eg, a song name, a playing time, etc.) and a menu (eg, volume control, pause, stop, etc.) for controlling audio file playback. 1450 may be displayed.
  • an audio file being played e.g., a song name, a playing time, etc.
  • a menu e.g, volume control, pause, stop, etc.
  • the electronic device 104 determines the degree of movement of the user wearing the electronic device 104 (eg, sprint or walking exercise), and outputs audio and voice according to the degree of movement. You can change the level differentially. As a result, the electronic device 104 may provide an output level and an input level (for example, a microphone) of a sound optimized for the user's hearing.
  • an input level for example, a microphone
  • the electronic device 104 may increase or decrease the output of the speaker or microphone than when the user does not exercise.
  • the electronic device 104 may control the input / output level through, for example, volume adjustment, sensitivity adjustment, noise filtering adjustment, and the like of a speaker, a microphone, a Bluetooth headset, and a headphone, so as to change the call voice level. Accordingly, the user can easily listen to the sound from the electronic device 104 or input the sound into the electronic device 104 even during the exercise.
  • FIG. 15 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 104 of FIG. 15 is a wearable device of the circular wristwatch type shown in FIG. 14 and may be in an interlocking state with the host device 101.
  • FIG. 15 illustrates a case in which the electronic device 104 outputs the sound at the maximum level when the user's movement is equal to or greater than a preset reference value, that is, when the user is vigorously exercising.
  • the electronic device 104 of FIG. 15 is playing a song file entitled “Let it Be”, and the song file may be output through a speaker at a maximum volume.
  • the electronic device 101 includes a screen including information on an audio file being played (eg, a song name, a playing time, etc.) and a menu (eg, volume control, pause, stop, etc.) for controlling audio file playback. 1550 may be displayed.
  • the electronic device 104 worn by the user when the degree of movement of the user is greater than or equal to a preset reference value, for example, when the intensity of the exercise being performed by the user is strong, the electronic device 104 worn by the user notifies the user of the alarm through a display.
  • the display operation can be temporarily stopped.
  • the electronic device 104 may store the alarm in a memory of the electronic device 104 without displaying a notification interrupt. Subsequently, when the movement degree of the user sensed by the sensor module is determined to be less than the preset reference value, the alarm stored in the memory may be displayed and provided to the user. As a result, the electronic device 104 can reduce power consumption and allow the user to conveniently check the alarm.
  • the electronic device 104 may receive various user inputs such as a swipe, a tap, a long press, and a hovering from the user.
  • the electronic device 104 implemented as a wearable device may reduce an input error by blocking a part of user input when the user is exercising or when the user's motion is greater than or equal to a preset reference value. For example, if the user is performing a push-up operation or immediately after the push-up operation, the hovering input may not be correctly input to the electronic device 104. Therefore, the control module 170 may not receive or ignore the hovering input at a predetermined time (for example, during the user's push-up operation).
  • a specific application for example, an application related to one or more of health care, SNS, telephone, alarm, image viewer, and media playback
  • an external electronic device implemented as a wearable device
  • the device 104 can display a counter application.
  • the counter application may be an application associated with the specific application executed in the electronic device 101 or including at least some functions of the specific application.
  • the host device eg, the electronic device 101
  • a user's health care application eg, an application related to heart rate sensor, food calorie management, calorie consumption check, exercise coaching, etc.
  • the electronic device 104 which is a companion device, may also display a health coaching screen related to the user's health care application.
  • the host device eg, the electronic device 104
  • the electronic device 101 which is a companion device, may also execute a gallery application or enter the gallery application.
  • a user interface UI
  • the user can easily access the gallery application through the electronic device 101.
  • the video playback application may also be executed in the electronic device 101 which is a companion device.
  • the host device may play a video
  • the companion device may display information about the video (for example, TV channel information, movie title, or cast information) or a playlist on the screen. Screens of the host device and companion device may simultaneously display the same content.
  • the control module 170 of the electronic device 101 may display the document editing application directly on the screen through the display 150.
  • the control module 170 may control the electronic device 101 to execute the document editing application in response to one user input by a user.
  • the control module 170 of the electronic device 101 which is the companion device, may pop-up content including at least a portion of an icon or document content related to the document editing application on a screen through the display 150.
  • the control module 170 may control the display 150 to drive the document editing application or to display a document edit window instead of the pop-up. .
  • 16 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 101 and the electronic device 104 are interlocked.
  • the electronic device 101 may be a host device, and the electronic device 104 may be a companion device.
  • an application running in the electronic device 101 as a host device may also be executed in the electronic device 104 as a companion device.
  • an application related to a note is executed and displayed on the screen through the display 150.
  • the electronic device 104 which is a companion device also executes an application related to the note and is displayed on the screen 1650.
  • an operation according to a user input input to the electronic device 101 or the electronic device 104 may be performed. It may be executed and displayed on the electronic device 101 and the electronic device 104 simultaneously. For example, if a user creates a new note through the electronic device 104, the electronic device 104 as well as the electronic device 104 as a host device also creates a new note and displays it on the screen through the display 150. I can display it.
  • FIG. 17 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 101 displays a horizontal UI that provides a screen having an elongated shape on a screen through the display 150.
  • FIG. 17 it is assumed that the user is exercising.
  • FIG. 17A illustrates contents that can be displayed on the screen through the display 150, for example, screen images 1711 and 1712 according to a case where a user's exercise intensity is weak and strong.
  • the control module 170 may determine the exercise intensity based on the user's movement change amount, movement speed, exercise duration, calories burned per unit time, and the like.
  • the screen when the user's exercise intensity is weak, the screen includes information on the exercise that the user is performing, for example, the type of exercise (for example, running) and the moving distance (for example, 6.2). km), calories burned due to the exercise (eg, 234 cal), the user's heart rate (eg, 95) and exercise time (eg, 00:28:30) are displayed.
  • the exercise intensity is weak, it is easy for the user to check the screen of the electronic device 101 while exercising. Since the user's exercise intensity is weak, the user continues to exercise while the display 150 of the electronic device 101 displays the above-mentioned contents, for example, the type of exercise, moving distance, calorie consumption, heart rate, and duration of exercise.
  • the first screen image 1711 including the back may be provided from the electronic device 101.
  • Five types of contents are included in the first screen image 1711, but according to another exemplary embodiment, five or more kinds of contents may be displayed on the display 150. According to another exemplary embodiment, a plurality of contents may be displayed on the screen through the display 150 while the screen image is switched.
  • the display 150 may provide the user with a second screen image 1712 that includes only the user's exercise time (eg, 28:30).
  • the control module 170 may control the display 150 to provide the user with a limited number of information on the exercise performed by the user. If the content provided to the user through the display 150 is limited, the control module 170 may control the display 150 to display the content having the highest priority first according to the priority of each of the contents. In (a) of FIG. 17, it is assumed that exercise time among exercise types, moving distances, calories burned, heart rate, and exercise time has a higher priority than other contents.
  • FIG. 17B illustrates content that can be displayed through the display 150 according to a case where a user's exercise intensity is weak and strong, for example, screen images 1713, 1714).
  • the user's schedule may be displayed on the screen as shown in the third screen image 1721.
  • the third screen image 1321 includes the current time, schedule content, date, location, and the like. Since it is easier to check the various contents displayed on the screen of the display 150 compared to the case where the intensity of exercise is weak, the control module 170 displays various contents in one screen image, for example, the third screen image 1721. ), The electronic device 101 may be controlled to be included in the display.
  • the user's schedule may be displayed on the screen as shown in the fourth screen image 1722.
  • the fourth screen image 1322 includes only schedule contents.
  • the control module 170 displays one content on one screen, for example.
  • the electronic device 101 may be controlled to be included in the fourth screen image 1722 and displayed.
  • the control module 170 may determine the content to be displayed on the screen of the display 150 according to the priority. In FIG. 17B, the content having the highest priority may be schedule content. Accordingly, the control module 170 may control the display 150 to display only schedule contents on the screen.
  • the electronic device 101 may display only important information (for example, the second screen image 1712 and the fourth screen image 1722) among various information. Accordingly, the control module 170 of the electronic device 101 may sequentially switch and display various pieces of information for each preset time (for example, 10 seconds). In the case of displaying information by sequentially switching screen images, the control module 170 may display images, letters, numbers, symbols, symbols, animations, videos, icons, GUIs, and the like for displaying the information through the display 150. Alternatively, the shape may be variously adjusted according to the user's exercise level or exercise intensity.
  • FIG. 18 is a diagram illustrating an example of displaying content by an electronic device according to various embodiments of the present disclosure.
  • the electronic device 101 displays a horizontal UI that provides a screen having a long horizontal shape through the display 150. It is also assumed in FIG. 18 that the user is jogging as an exercise.
  • 18 (a) to 18 (c) show that contents displayed on the display 150, for example, screen images, vary according to the exercise intensity of the user's exercise.
  • the control module 170 may vary the amount of information included in the screen image displayed on the screen or the size of the GUI according to the exercise intensity.
  • FIG. 18 (a) shows the content displayed on the screen when the exercise intensity is weak, and (b) shows the content displayed on the screen when the exercise intensity is medium. , (c) is the content displayed on the screen when the exercise intensity is strong.
  • the control module 170 may include the type of exercise (jogging), the exercise time (00:28:30), the exercise distance (6.2 km), and the consumption.
  • the display 150 may be controlled to display the first screen image 1810 including the calorie 234 kcal heart rate 95 on the screen.
  • the display 150 may display a menu button 1811.
  • the electronic device 101 Upon receiving a user input of selecting the menu button 1811 from the user, the electronic device 101 displays the contents displayed on the first screen image 1810 (type of exercise, exercise time, exercise distance, calories burned, Content other than heart rate).
  • control module 170 may display the exercise path as the second screen image 1815 together with the first screen image 1810. Since the exercise intensity is weak, the control module 170 determines that the second screen image 1815 is a map, the user's current location, the user's moving distance, the user's moving speed, the exercise time, the calories burned, the heart rate, the current time, and the moving direction.
  • the display 150 may be controlled to include (turn left after 120 m movement). In addition, the display 150 may display a menu button 1811.
  • the control module 170 when the exercise intensity is 'medium', the control module 170 includes the type of exercise (jogging), the exercise time (00:28:30), and the exercise distance (6.2 km).
  • the display 150 may be controlled to display the first screen image 1820 on the screen.
  • the display 150 may display a menu button 1821 on the screen.
  • the electronic device 101 may determine a content other than the contents (type of exercise, exercise time, and exercise distance) included in the first screen image 1820. Other content can be displayed.
  • control module 170 may display the exercise path as the second screen image 1825 together with the second screen image 1820. Since the exercise intensity is being increased, the control module 170 may display the second screen 1825 image on the map, the user's current location, the user's moving distance, the user's moving speed, the exercise time, the calories burned, the heart rate, and the moving direction (after 120 m movement). Display 150). In addition, the display 150 may display a menu button 1811, and the map included in the second screen image 1825 in FIG. 18B may be a second screen image (A) in FIG. 18A. It may be displayed more briefly than the map included in 1815.
  • the control module 170 displays the display 150 to display the first screen image 1830 including the movement distance (6.2 km) on the screen. Can be controlled.
  • the display 150 may display a menu button 1831.
  • the electronic device 101 may display content other than the contents (movement distance) included in the first screen image 1830.
  • control module 170 may display the moving direction as the second screen image 1835 together with the first screen image 1830. Since the exercise intensity is strong, the control module 170 displays the display screen such that the second screen image 1835 includes the remaining distance (3 km), the estimated time required (00:15:20), and the moving direction (turn left after 120 m movement). 150) can be controlled.
  • the display 150 may display a menu button 1831, and the second screen 1835 image of FIG. 18C shows second screen images of FIGS. 18A and 18B. The display may be displayed more briefly than 1815 and 1525, and a map may be omitted among the contents.
  • the electronic device 101 may adjust the amount of various contents displayed on the display 150.
  • the control module 170 of the electronic device 101 may adjust the amount of content displayed on the display 150 for each level.
  • a level representing the amount of content displayed through the display 150 will be referred to as a 'display level'.
  • the control module 170 of the electronic device 101 may summarize the information corresponding to the content step by step by reducing the amount of content displayed on the display 150 according to the display level.
  • the calendar includes detailed information such as the scheduled time, place, purpose, attendee, current time, and icon corresponding to the meeting schedule.
  • the control module 170 may display the detailed information on the screen so that all the detailed information is included in one screen image. If the display level is 2, the control module 170 may control the display 150 to include only the scheduled time, place, and purpose of the meeting schedule in one screen image. If the display level is 1, the control module 170 may control the display 150 to display only the remaining time and place until the meeting schedule on one screen.
  • the control module 170 may control the display 150 to include the caller's name, face picture, and phone number in one screen image. If the display level is 2, the control module 170 may control the display 150 to include the caller's name and phone number in one screen image. If the display level is 1, the control module 170 may control the display 150 to display only the caller's name on one screen image.
  • the electronic device 101 displays a news article or a message (SMS or MMS) on the screen.
  • the control module 170 may control the display 150 to display the details of the news article or the message included in one screen image. If the display level is 2, the control module 170 may control the display 150 to display the headline and the short abbreviation of the news article or the abbreviation of the message in one screen image. If the display level is 1, the display 150 may be controlled such that only a part of the headline of the news article or the front part of the message is included in one screen image and displayed.
  • a document summary engine using natural language processing or statistical techniques may be pre-installed in the electronic device 101 to process the data as described above.
  • the document contract engine may be included in an external device or a server, and the electronic device 101 may receive and display a news article or a message summarized by the document summary engine through the communication interface 160. have.
  • control module 170 of the electronic device 101 may determine the importance of each of the contents displayed on the display 150 according to the current state or the current situation of the user in units of levels.
  • the control module 170 may determine the content to be displayed on the display 150 according to the importance. For example, as soon as the user starts running as shown in FIG. 18A, the control module 170 may control the display 150 to display contents having the importance level of 1.
  • the content having the importance level 1 may be a detailed map including a user's running route, a calorie consumption amount, and an exercise amount of the user, and the control module 170 displays the calorie consumption amount and the exercise amount alternately on the detail map. 150) can be controlled. After some time has elapsed since the user started running as shown in FIG.
  • the control module 170 may control the display 150 to display contents having the importance level 2.
  • the content having the importance level 2 may be a map showing a user's running route, a running speed of the user, and calorie consumption.
  • the control module 170 may control the display 150 to display the running speed and the calorie consumption of the user on the simple map.
  • the control module 170 may control the display 150 to display contents having the importance level 3.
  • Content having a level of importance of 3 is a moving direction of the user who is running, and the control module 170 may control the display 150 to simply display the moving direction by an arrow or text.
  • FIG. 19 illustrates a case where six screen images 1910, 1920, 1930, 1940, 1950, and 1960 are displayed through the display 150.
  • the control module 170 controls the display 150 such that each screen image 1910-1960 can include only one content and menu button 1905. Can be.
  • the first screen image 1910 includes calories burned 234 kcal and a menu button 1905
  • the second screen image 1920 includes a moving distance (6.2 km) and a menu button 1905
  • the third screen image 1530 includes a heart rate 120 and a menu button 1905
  • the fourth screen image 1940 includes a moving speed (12.2 km / h) and a menu button 1905
  • the fifth screen image 1950 includes an exercise type (running) and a menu button 1905
  • the sixth screen image 1960 includes an exercise duration (00:28:30) and a menu button 1905. can do.
  • the electronic device 101 may move from the first screen image 1910 to the second screen image 1920 when a user input that pushes from right to left while selecting a point on the screen is input. , From the second screen image 1920 to the third screen image 1930, from the third screen image 1930 to the fourth screen image 1940, and from the fourth screen image 1940 to the fifth screen image 1950.
  • the screen image may be switched from the fifth screen image 1950 to the sixth screen image 1960 or from the sixth screen image 1960 to the first screen image 1910.
  • the electronic device 101 may display screen images for indicating each content displayed on the display 150 in order for each preset time. For example, every 10 seconds from the first screen image 1910 to the second screen image 1920, from the second screen image 1920 to the third screen image 1930, and from the third screen image 1930 to the second screen image 1930. From fourth screen image 1940, fourth screen image 1940 to fifth screen image 1950, fifth screen image 1950 to sixth screen image 1960, sixth screen image 1960 The first screen image 1910 may be switched, and the switching operation may be repeated.
  • the electronic device 101 may receive a touch, a tap, a flick, a swipe, a voice input, and a button press provided in advance on the electronic device 101 as a user input.
  • the electronic device 101 may execute a mode desired by the user, display a screen image desired by the user, or switch the screen image according to the user input.
  • the electronic device 101 may display the sixth screen image 1960 from the first screen image 1910.
  • the second screen image 1920 to the first screen image 1910, from the third screen image 1930 to the second screen image 1920, and from the fourth screen image 1940 to the third screen image 1930.
  • the screen image may be switched from the fifth screen image 1950 to the fourth screen image 1940, or from the sixth screen image 1960 to the fifth screen image 1650.
  • 20A to 20C illustrate an example in which the electronic device 101 displays content according to various embodiments of the present disclosure.
  • 20A to 20C it is assumed that the electronic device 101 is implemented as a wrist watch-type wearable device.
  • 20A to 20C are diagrams illustrating examples of checking contents output from a wearable device worn by a user when the electronic device 101 implemented as a watch-type wearable device is worn by the user.
  • FIG. 20A illustrates a case in which the user wears the electronic device 101 on the right hand 2001
  • FIG. 20C illustrates a case where the user wears the electronic device 101 on the left hand 2002
  • FIG. 20A (b) illustrates a coordinate system 2015 when the user wears the electronic device 101 on the right hand 2001 and a gaze direction 2011 that is incident on the screen of the electronic device 101.
  • an electronic device 101 may be worn on a user's right hand 2001 or left hand 2002.
  • the direction toward the user's eyes (the opposite of the direction in which the user looks at the screen 2011, that is, the opposite direction of the eyes) w) coincides with or is similar to the direction z of the screen, ie the direction the screen is facing, with reference to coordinate system 2051.
  • the angle of the screen which corresponds to the direction z of the screen (w) or the direction of vision (w) is equal to or less than a predetermined reference angle (for example, 30 °). If the direction z of the screen is similar to the direction of gaze opposite to w, the control module 170 controls the display 150 to output the content in the horizontal direction (left to right) as shown in FIG. 20A. Can be controlled. According to an embodiment, when the angle formed by the direction Z of the screen and the direction of the opposite line of view w exceeds the predetermined reference angle, that is, the direction z of the screen and the direction of the opposite line of view w are not similar. If not, the control module 170 may control the display 150 not to display content on the screen.
  • a predetermined reference angle for example, 30 °
  • the control module 170 when the direction z of the screen is not similar to the direction of gaze w, the control module 170 turns off the power of the screen or low-powers the electronic device 101.
  • the display 150 may be controlled to operate as a device or to output other content in place of the content, such as a clock, a screen saver, weather information, a lock screen image, and the like.
  • the control module 170 based on the security level of the content, the content on the screen through the display 150.
  • the output can be determined. For example, it is assumed that a user wearing the electronic device 101 is not easy to check contents.
  • the security level of the content is high, for example, when the content is personal information, health information, caller information of an incoming call, etc.
  • the control module 170 may not display the content. Can be controlled.
  • the security level of the content is low, for example, when the content is weather or time, the control module 170 may control the display 150 to display the content.
  • the content having low security level may be output to the screen through the display 150 at any time regardless of the current state of the user.
  • the content may have a security level that is divided into two or more levels.
  • the security level for each content may be predetermined, and the security level of each content may be determined by the control module 170.
  • control module 170 may display only the content whose security level is above or below a certain level, when the direction Z of the screen and the opposite direction of view w are similar. ) Can also be controlled.
  • the control module 170 may include a screen in which the screen of the electronic device 101 has an elongated shape based on the x-axis and the y-axis of the coordinate system 2051 illustrated in FIG. 20A. It can be judged that.
  • the content output through the screens (a) and (c) of 20a may be displayed in a long horizontal form or arranged in a long horizontal form.
  • the y-axis of the coordinate system 2051 is perpendicular to two long sides of four sides of the screen on the screen surface (eg, the center point of the screen surface) of the electronic device 101.
  • the control module 170 may determine the direction Z of the screen (eg, the orientation direction of the screen, a norm vector on the screen surface) using the point where the x-axis and the y-axis meet. In this case, the control module 170 may determine that the user's gaze direction w is closer to the y-axis than the x-axis.
  • control module 170 may have a user who wears the electronic device 101 based on the movement of the user's arm or wrist, or the y-axis direction of the electronic device 101 is similar to gravity or the opposite direction of gravity.
  • the current pose of may be determined to be a pose with a longer side of the screen. Accordingly, the control module 170 may control the display 150 to output the content in a horizontally long form.
  • FIG. 20B illustrates a case in which the user wears the electronic device 101 on the right hand 2001
  • FIG. 20C illustrates a case in which the electronic device 101 is worn on the left hand 2002
  • FIG. 20B (b) illustrates a coordinate system 2052 when the user wears the electronic device 101 on the right hand 2001 and a gaze direction 2012 incident on the screen of the electronic device 101.
  • the screen of the electronic device 101 has a vertical shape to the user based on the x-axis and the y-axis of the coordinate system 2052.
  • the content output through the screens (a) and (c) of 20a may be displayed in a long form or arranged in a long form.
  • the control module 170 may determine that the content is in the horizontal direction (eg, “left”. ⁇ right or left " (right ⁇ left) direction may be controlled to display (150).
  • control module 170 may control the display 150 to adjust the layout so that the content fits in a vertically long screen so that the content is arranged in rows.
  • control module 170 may control the display 150 to output content in a vertical direction, that is, 'up ⁇ down'.
  • the letters may be arranged vertically (sorted by columns) and output.
  • a direction (eg, a horizontal direction, a vertical direction, a 'left to right' direction, and an 'up to down' direction) in which content is disposed on the screen may be determined according to a user input.
  • the user input may be, for example, a user's operation such as a menu selection, a button selection, or an icon selection.
  • the arrangement method of the content according to the user input may be preset information stored in the electronic device 101, and the control module 170 controls the display 150 to output the content according to the arrangement method according to the user input. can do.
  • the arrangement method of the content may be changed according to the user input.
  • the user may input the hand wearing the electronic device 101 into the electronic device 101 to allow the control module 170 to adjust the content arrangement method.
  • the control module 170 determines which side of the four sides of the screen is to output the content. Can be specified. As a result, a method of arranging the content may be determined.
  • one or more sensors provided in advance in the electronic device 101 may detect a pose of the electronic device 101, specifically, a screen, and generate pose information (hereinafter, screen pose information) accordingly.
  • the electronic device 101 can be pitched, yawed or rolled to one side, and one or more sensors pre-equipped in the electronic device 101 can detect the poses. Can be.
  • the screen included in the electronic device 101 may also be pitched, tilted to one side, or rolled.
  • the screen pose information represents information representing a pose currently taken by the screen.
  • the control module 170 may determine or change whether to output the content or the arrangement method of the content based on the screen pose information.
  • control module 170 may determine the direction z of the screen based on the sensing data measured by the acceleration sensor or the gyro sensor provided by the electronic device 101.
  • control module 170 displays the content such as displaying the content in a landscape mode or a horizontal mode or displaying the content in a portrait mode or a vertical mode according to the direction Z of the screen. You can decide how to arrange them.
  • the one or more sensors may detect the movement of the electronic device 101 and generate motion information (hereinafter, referred to as device motion information) accordingly.
  • the electronic device 101 may be tilted or rotated, and the one or more sensors may detect the movement of the electronic device 101.
  • the device motion information indicates information on various motions generated by the electronic device 101.
  • the control module 170 may determine or change whether to output the content or the arrangement method of the content based on the device motion information.
  • control module 170 may include an angle at which the user's eyes form the screen of the display 150 (for example, the direction in which the line of sight is directed toward the screen (-w) and the screen orientation direction Z). Angle, or whether or not the content is output or how the content is arranged may be determined or changed.
  • the direction w of the user's gaze may be determined based on a separate sensor (eg, a camera, an IR camera, or a gaze tracking device) built in the electronic device 101.
  • the electronic device 101 is equipped with a camera device (not shown) facing the same direction as the screen, and analyzes an area including a face area or an eye in an image input through the corresponding camera to the user's gaze or the user. It may be determined whether the face of the camera faces the screen.
  • the control module 170 may extract the eye region, the face region or the pupil region of the user from the image of the face or the eye of the user.
  • the control module 170 may determine a direction w of the user's gaze based on at least one of the eye area, the face area, or the eye area. In this case, the control module 170 may determine the direction w of the user's gaze based on the shape or area of each of the eye area, the face area, or the eye area.
  • pose information about the user's face may be checked based on the face image or the eye image.
  • the control module 170 may know the arrangement form of each component constituting the face of the user's eyes, nose, mouth, etc. through the face image, the relative position of each of the eyes through the eye image, You can see the shape of each of the eyes.
  • the control module 170 may detect one or more of the face pose information, for example, the user's face or the orientation of the pupil, based on the information.
  • the control module 170 may determine the device pose information or the screen pose information based on the face pose information, and the content output through the screen based on the device pose information or the screen pose information. It is also possible to determine how to arrange. That is, the control module 170 may determine the orientation or device pose information of the camera module provided in the electronic device 101 in advance using the face pose information. The control module 170 may also determine the screen pose information or the orientation of the camera module using the face pose information.
  • the user's gaze direction w may be information indicating a movement or a pose (eg, pitch, yaw, roll) of the electronic device 101, for example, device pose information or screen pose. It may be determined based on the information.
  • the information indicating the movement or pose of the electronic device 101 may be detected or determined using at least one of an acceleration sensor, a gyro sensor, and a geomagnetic sensor.
  • the direction Z of the screen of the electronic device 101 is directed in the direction opposite to the ground surface or in a direction similar to the direction opposite to the ground surface.
  • the electronic device 101 determines information indicating a movement or pose of the electronic device 101 by using at least one of the above-described sensors. Subsequently, the electronic device 101 may determine the direction in which the screen is directed, that is, the direction z of the screen, based on the information indicating the movement or pose of the electronic device 101. Subsequently, the electronic device 101 may output content to the screen through the display 150 when the direction z of the screen is within a predetermined reference angle (for example, 45 °) from a direction opposite to the surface (not shown). Can be controlled.
  • a predetermined reference angle for example, 45 °
  • the control module 170 of the electronic device 101 may display the content.
  • the display 150 may be controlled to not be output to the screen of the display 150.
  • the direction or arrangement of the content displayed on the screen may be determined by sensing the movement or the pose of the screen using one or more sensors.
  • the control module 170 may display the content in a landscape mode (horizontal mode) in which the content is displayed in a long form on the screen, or in a portrait mode (vertical mode) in which the content is displayed in a long form.
  • the display 150 may be controlled to display.
  • FIG. 20C illustrates a case in which the user wears the electronic device 101 on the right hand 2001
  • FIG. 20C illustrates a case in which the electronic device 101 is worn on the left hand 2002. will be.
  • FIG. 20C (b) illustrates a gaze direction 2013 when the user wears the electronic device 101 on the right hand 2001 and is incident on the screen of the electronic device 101.
  • an electronic device 101 is worn on a user's right hand 2001 or left hand 2002.
  • the direction toward the user's eyes (opposite direction) w refers to the coordinate system 2053.
  • the direction z of the screen included in, i.e., the direction in which the display 150 faces, is not similar or opposite to each other.
  • the direction z of the screen and the direction w opposite to the line of sight illustrated in FIG. 20C may not be similar or opposite to each other.
  • the direction of the screen (z) and the direction of vision (w) are opposite to each other, or the angle between the screen (z) and the direction of vision (w) is greater than or equal to a predetermined reference angle (eg, 30 °).
  • a predetermined reference angle eg, 30 °.
  • the control module 170 may control the display 150 so that content is not output to the screen.
  • the control module 170 may prevent the display 150 from outputting the content to the screen or prevent power waste that may be generated by turning on the screen by turning off the screen.
  • control module 170 may include, for example, a direction z of the screen of the electronic device 101 worn by a user who is moving based on sensing data acquired from an acceleration sensor or a gyro sensor. Can also be determined. Table 1 below shows the parameters that the control module 170 can use to determine the direction z of the screen. The parameters may be stored in the memory 130.
  • Table 1 below assumes a case in which the electronic device 101 is a wearable device implemented as a wristband type or a wristwatch type that can be worn on a user's wrist.
  • the control module 170 may refer to Table 1 below to refer to a body part of the user wearing the electronic device 101 (for example, the left hand wrist and the right hand). Wrist, adjacent back of the hand, palm adjacent position, etc.) and the orientation z of the screen.
  • the user may move while wearing the electronic device 101.
  • the electronic device 101 detects a movement direction in which the user is smoothly exercising, thereby detecting a body part of the user equipped with the electronic device 101. You can judge.
  • the electronic device 101 is mounted at a position adjacent to the back of the wrist of the left hand wrist, as shown in FIG. 20B.
  • the direction z of the screen on which the content is displayed is the opposite direction to the ground surface.
  • the user moves or moves the palm to face upward, i.e., the direction z of the screen of the electronic device 101 faces the surface direction
  • the user counterclocks the left hand wrist on which the electronic device 101 is worn. It can be tilted easily in the direction.
  • the electronic device 101 is the position or location on the body on which the electronic device 101 is mounted Candidates can also be determined.
  • the control module 170 may determine two mounting position candidates of the electronic device 101 according to the movement of the wrist. According to another embodiment, as shown in Table 1, the control module 170 is inclined to direct the back of the hand mostly toward the surface (eg, the main portion of the screen embedded in the electronic device 101 worn on the wrist). Based on the propensity to determine the direction), the mounting position candidate of the electronic device 101 may be determined as one.
  • FIG. 20D is a view showing a top view of a right arm of a user wearing the electronic device 101.
  • the back of the user's right hand with the electronic device 101 implemented as a wearable device is facing up (the screen of the electronic device 101 is facing away from the surface).
  • the direction z of the screen of the electronic device 101 is directed toward the surface surface, and the user may rotate the wrist clockwise. .
  • One or more sensors such as an acceleration sensor or a gyro sensor, included in the sensor module 180 of the electronic device 101 may move together when the user twists a wrist or turns an arm as shown in FIG. 20D.
  • the tilt or acceleration of the device 101 can be obtained.
  • the control module 170 attaches the electronic device 101 to the user's body using the main direction z of the screen and the directionality of the rotational movement in the electronic device 101 generated by the user's movement. It can be determined whether or not.
  • the control module 170 may determine the position where the electronic device 101 is mounted using the direction z of the screen and the directionality of the rotational movement in the electronic device 101.
  • FIGS. 21A and 21B illustrate an example in which an electronic device displays content on a screen through the display 150 according to various embodiments of the present disclosure.
  • FIGS. 21A and 21B illustrate contents that a user wearing the electronic device 101 implemented in the form of a wearable device can receive from the electronic device 101.
  • the direction z of the screen included in the display 150 of the electronic device 101 and the direction w of the user's gaze do not coincide with each other.
  • the angle between the user's gaze direction w and the direction z of the screen 2150 is A °. That is, the screen 2150 of the electronic device 100 is rotated by A ° in the counterclockwise direction with respect to the counter-direction w.
  • the opposite direction of view w is toward the left side of the screen 2150. Through this, it can be seen that the user's gaze is biased on the left side of the screen 2150.
  • the control module 170 may control the display 150 to display the content in a direction in which the gaze is deflected.
  • the control module 170 may control the display 150 to display the content to the left of the screen 2150.
  • 21A and 21B the content being displayed on the screen 2150 via the display 150 is '7:06' as the current time. If the user's gaze is toward the screen 2150 of the electronic device 101 from the left side of the electronic device 101 as shown in FIG. 21A, the control module 170 may leave the right side of the screen 2150 blank and be deflected to the left side.
  • the display 150 may be controlled to display '7:06'.
  • the direction z of the screen 2150 of the electronic device 101 and the direction w of the user's gaze do not coincide with each other.
  • the angle between the user's gaze direction w and the direction z of the screen 2150 is B °. That is, the screen 2150 of the electronic device 100 is rotated by B ° in the clockwise direction with respect to the direction w opposite to the line of sight.
  • the opposite direction of view w is toward the right side of the screen 2150. Through this, it can be seen that the user's gaze is biased on the right side of the screen 2150.
  • the control module 170 may control the display 150 to display the content in a direction in which the gaze is deflected. Referring to FIG. 21B, since the line of sight of the user is biased to the right, the control module 170 may control the display 150 to display the content to the right of the screen 2150. 21A and 21B, the content being displayed on the screen 2150 via the display 150 is '7:06' as the current time. If the user's gaze enters the screen 2150 of the electronic device 101 from the right side of the electronic device 101 as shown in FIG. 21A, the control module 170 leaves the left side of the screen 2150 blank and is biased to the right side. The display 150 may be controlled to display '7:06'.
  • the display 150 may display a UI displayed on a screen in a horizontal direction or a vertical direction under the control of the control module 170.
  • the UI displayed in the horizontal direction will be referred to as a horizontal UI
  • the UI displayed in the vertical direction will be referred to as a vertical UI.
  • the display 150 may switch the UI displayed on the screen under the control of the control module 170 from the horizontal UI to the vertical UI or from the vertical UI to the horizontal UI.
  • the switching between the horizontal UI and the vertical UI may be predicted using a user profile previously stored in the electronic device 101, such as a range of motion of the user's body stored in advance.
  • the control module 170 may determine the UI displayed on the screen by comparing the user's profile previously stored with the exercise range of the current physical activity of the user. have. In this case, the control module 170 may determine whether to display the horizontal UI or the vertical UI on the screen.
  • the electronic device 101 may determine a UI displayed on the screen according to a user input.
  • the control module 170 may determine whether to display a horizontal UI or a vertical UI on the screen according to the user input.
  • the user input may include a physical button input such as an input for selecting a virtual button, an input for selecting an icon, or a hard key.
  • the control module 170 may detect a motion input (for example, a motion input, a gesture input, etc.) input through the electronic device 101 using a motion sensor.
  • the control module 170 may change the UI even when the degree of similarity is equal to or greater than a reference value by comparing the motion input sensed using the motion sensor with motion data previously stored in the memory 130.
  • the control module 170 may control the display 150 to change the horizontal UI to the vertical UI or to change the vertical UI to the horizontal UI.
  • a user wearing the electronic device 101 implemented as a wearable device may change the direction of the UI displayed on the screen by tilting the wrist or the head or shaking the wrist.
  • the user may make a gesture having a predetermined specific angle, a specific direction, or a specific speed, and the electronic device 101 may perform motion recognition on the gesture.
  • the control module 170 may change the direction of the UI displayed on the screen according to the motion recognition result.
  • the user may change the direction of the UI by wearing a large circle with the arm after wearing the electronic device 101 on the arm, or by tilting the hand after attaching the electronic device 101 to the wrist or finger. Can be.
  • the control module 170 may switch the horizontal UI to the vertical UI or the vertical UI to the horizontal UI based on the user's exercise state and type. That is, the display 150 may automatically convert the UI according to the exercise state or type of the user and display it on the screen.
  • the control module 170 may determine the exercise state or type by the user using at least one sensor included in the electronic device 101, for example, a motion sensor, a position sensor, and a bio sensor.
  • a horizontal UI may be provided to a user in a general situation without exercise, a horizontal UI in a bicycle exercise, and a vertical UI in a running exercise. That is, if a signal intensity below a predetermined reference is detected through the acceleration sensor or the heart rate is below the predetermined reference, the control module 170 may determine that the user is not exercising. When the movement of the user is sensed by the acceleration sensor and the signal pattern measured by the acceleration sensor is similar to the running or more than a predetermined reference, the control module 170 may determine that the user is running.
  • the control module 170 may determine the state of the user as the bicycle riding state. That is, it detects situation information such as position and moving speed with an acceleration sensor or a gyro sensor, and using the data output from the sensors, the control module 170 determines whether to display a horizontal UI or a vertical UI on the screen. Can be. In addition, by using the data output from the sensors, the control module 170 may control the display 150 to change the horizontal UI to the vertical UI or to change the vertical UI to the horizontal UI and display the same.
  • the control module 170 controls the user to drive the vehicle or the vehicle. It can be determined that the vehicle is moving by using. In addition, the control module 170 may determine whether the user operates by using an acceleration sensor or a gyro sensor.
  • the electronic device 101 may determine whether the user is indoors or outdoors by receiving and measuring a sound around the user with an audio device such as a microphone. For example, if the ambient noise is noisy, the user is likely to be in a crowded place, such as outside, or by public transportation. If it is determined that the bus or the subway under such a determination condition, the control module 170 may display a font of a letter or reduce the size of an image when executing an application such as a message, a personal schedule, or a diary. As a result, the electronic device 101 can reduce the privacy exposure of the user and protect the privacy of the user.
  • an audio device such as a microphone
  • the control module 170 may control the display 150 to display a large size of a letter or an image. .
  • the control module 170 analyzes the location information of the electronic device 101 to determine whether the electronic device 101 is located, that is, whether the user is indoor or outdoor, and displays a horizontal UI according to the determination result. Or control the display 150 to display a vertical UI.
  • control module 170 when the user places importance on readability and the like, the control module 170 enlarges the font of the text or executes an image such as a message, a personal schedule, or a diary even when the user is on a bus or subway.
  • the size of can be displayed large.
  • the control module 170 may use an illuminance sensor, a temperature sensor, or a pressure sensor included in the electronic device 101. That is, the control module 170 may determine the space where the user is located by using data output through the illumination sensor, the temperature sensor, or the pressure sensor. In addition, the control module 170 may control the operation of the electronic device 101 according to the space where the user is located. For example, when the illuminance is high, the control module 170 may determine that sunlight is emitted from the outside, and the control module 170 may additionally adjust the screen brightness of the electronic device 101.
  • FIG. 22 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • FIG. 22A illustrates an electronic device 101 executing a horizontal writing mode, which includes a screen of a display 150 in which content is input in a horizontal direction (left to right) from a user.
  • the electronic device 101 is shown.
  • the content being input from the user through the screen of the display 150 is' to be scheduled at 10 o'clock today. Need to attend. ”
  • the electronic device 101 may support writing of text horizontally and may receive text in a horizontal direction from a user.
  • FIG. 22A illustrates an electronic device 101 that is executing a vertical writing mode, and includes an display device in which content is input in a vertical direction (upper to lower) from a user. 101 is a view showing. The content being input from the user through the display 150 in FIG. 22 (b) is also being input from the display 150 in (a). Need to attend. ”
  • the electronic device 101 may support writing text vertically in the vertical writing mode and may receive text in a vertical direction.
  • the electronic device 101 may not only output content in the horizontal or vertical direction of the display 150 but also receive an input from the user.
  • the electronic device 101 may receive a content (eg, text, image, etc.) from the user through a virtual keypad, handwriting recognition, or the like.
  • the horizontal writing mode as shown in FIG. 22A and the vertical writing mode as shown in FIG. 22B may be parallel.
  • the top of the display 150 may be displayed or input content in the horizontal writing mode.
  • the bottom of the display 150 may be displayed or inputted in the vertical writing mode.
  • FIG. 22C illustrates the electronic device 101 through which the content is output in the horizontal and vertical directions through the display 150.
  • a part of the display 150 of the electronic device 101 is executing the horizontal writing mode, and the other part is executing the vertical writing mode.
  • the first content 2201, the second content 2202, and the fourth content 2204 may be disposed in the horizontal direction (left) according to the horizontal writing mode.
  • the third content 2203 is output in the vertical direction (up to down) in accordance with the vertical writing mode.
  • the horizontal writing mode and the vertical writing mode may be parallel on one screen, which may be applied to the input of the content as well as the output of the content.
  • a search engine name for example, NAVER
  • a search box is arranged in a layout constituting the screen image.
  • the contents may be arranged in a horizontal writing or vertical writing format according to the shape of the area.
  • the control module 170 may recognize the portrait mode or the landscape mode by using tilt information of the screen included in the display 150.
  • the control module 170 selects a writing mode that can display more information among horizontal writing and vertical writing using the tilt information, or determines the shapes of the areas constituting the layout of the screen image, If it is long horizontally, the display 150 may be controlled to arrange content in a corresponding area in a horizontal direction. If the length is long, the display 150 may be controlled to arrange content in a vertical form in a corresponding area.
  • FIG. 23 is a diagram illustrating another example in which an electronic device displays content according to various embodiments of the present disclosure.
  • the electronic device 101 may display content in a color requiring less power consumption or a color similar to the color. According to an embodiment, the electronic device 101 may display an edit window 2302 to receive content from a user, or display an edit window 2302 for editing content.
  • the control module 170 may adjust the font or color to save current according to the remaining amount of the battery and the state of charge.
  • the control module 170 may control the operation of the electronic device 101 to minimize the power consumed by the execution of various operations of the electronic device 101.
  • the control module 170 may display a screen image so that the display 150 including the screen can be driven with only a small amount of power in order to reduce the amount of power consumed. Can be configured.
  • the control module 170 may compose the screen image in a color that can be implemented with low power or a color close to the color.
  • the control module 170 may configure a background color of the screen image in a black color.
  • the control module 170 controls some OLEDs to output a background color of red color, and controls the color and size of the remaining portions other than the background, for example, an image or text.
  • control module 170 may control the display 150 to light only a part of the screen in consideration of the characteristics of the OLED. For example, the control module 170 may control the display 150 to light off an area outside the user's gaze angle on the screen where the content is displayed.
  • the control module 170 may control the display 150 including a screen displaying content according to the type of exercise. For example, the operation of determining whether the screen is in a prominent position of the user during the exercise may be easier by determining what kind of exercise is the corresponding exercise. For example, in the case of swimming, since there is a unique movement pattern according to the zero method, when the control module 170 determines that the unique movement pattern according to the zero method is generated, the control module 170 may determine the user's exercise as swimming. As another example, in the case of running outdoors, the control module 170 may determine that the corresponding exercise is running based on the moving distance and the movement information of the arm.
  • the electronic device 101 may previously receive a type of exercise from a user.
  • the user may input the type of exercise to the electronic device 101 before starting the exercise.
  • the control module 170 may obtain a pattern unique to the exercise through the information representing the exercise, that is, the exercise information. In addition, the control module 170 may find out the position and the direction information on which the electronic device 101 is mounted by using the user's body motion range information. The control module 170 may find the gaze direction or the gaze position information of the user based on the position or the direction information of the electronic device 101. In addition, the control module 170 may recognize or estimate the gaze direction or the gaze position information of the user together with the position and the direction information of the electronic device 101. The control module 170 controls the display 150 to display information suitable for the situation, that is, content based on the user's gaze direction, gaze position information, location and direction information of the electronic device 101, Light off.
  • the control module 170 may provide the user with the necessary information by using the pose of the user, the position and the direction information of the electronic device 101.
  • Device 101 can be controlled.
  • the electronic device 101 may provide only necessary information (eg, coaching information, pose correction, etc.) for each time required by the user.
  • the electronic device 101 may reduce power consumption or display only general information by not displaying additional information.
  • the electronic device 101 may be a host device, and the electronic device 104 may be implemented as a companion device so that the electronic device 101 and the electronic device 104 may interwork with each other.
  • the electronic device 101 which is a host device, controls the electronic device 104, which is a companion device.
  • an electronic device 104 which is a companion device, is worn on a wrist of a user 2401, and executes an exercise mode under the control of the electronic device 101.
  • the electronic device 101 may include a sensor module (not shown) of the electronic device 104. Blood pressure, blood flow, heart rate, body temperature, respiratory rate, oxygen saturation, cardiopulmonary sound, blood sugar, etc.) of the electronic device 104, or a moving speed, a moving acceleration, a moving direction, or a tilt of the electronic device 104.
  • the electronic device 101 may determine the current state of the user 2401 or the direction of the display of the electronic device 104 based on the sensor value measured by the sensor module of the electronic device 104.
  • the electronic device 101 may determine the content to be displayed on the display according to the current state of the user 2401 or the direction of the display of the electronic device 104. In addition, the electronic device 101 may transmit content to be displayed on the display of the electronic device 104 to the electronic device 104, and the electronic device 104 may display content received from the electronic device 101. have.
  • the electronic device 101 detects that the user 2401 is in motion through the sensor value measured by the sensor module of the electronic device 104, and converts the electronic device 101 or the electronic device 104 to the exercise mode. Can be.
  • the electronic device 101 or the electronic device 104 may display content according to the exercise mode on the display 190.
  • the control module 170 of the electronic device 101 switches the operation modes of the electronic device 101 and the electronic device 104 to the exercise mode. Accordingly, the type (running) of exercise, calories burned (234 Kcal), moving distance (6.2 km), pulse rate 95, and exercise time (00:28:30) are displayed on the display of the electronic device 104. In addition, content according to the exercise mode may be displayed on the electronic device 101, which is a host device that interworks with the electronic device 104. In addition, on the display 190 of the electronic device 101, an operation mode (exercise mode), calories burned (234 Kcal), moving distance (6.2 km), heart rate 95, and exercise time (00:28) of the electronic device 101 are performed. 30) is displayed.
  • the content displayed on the display of the electronic device 104 may be content transmitted from the electronic device 101.
  • the electronic device 104 may continuously measure the biosignal of the user 2401 using the sensor module under the control of the electronic device 101, and measure the sensor value measured by the sensor module in the electronic device 101. Can be delivered to.
  • 25 is a block diagram 2500 of an electronic device 2501 according to various embodiments.
  • the electronic device 2501 may configure all or part of the electronic device 101 or the electronic device 104 shown in FIG. 1.
  • the electronic device 2501 may include at least one application processor (AP) 2510, a communication module 1220, a subscriber identification module (SIM) card 2524, a memory 2530, and a sensor.
  • AP application processor
  • SIM subscriber identification module
  • the AP 2510 may control a plurality of hardware or software components connected to the AP 2510 by operating an operating system or an application program, and may perform various data processing and operations including multimedia data.
  • the AP 2510 may be implemented with, for example, a system on chip (SoC).
  • SoC system on chip
  • the AP 2510 may further include a graphic processing unit (GPU).
  • GPU graphic processing unit
  • the communication module 2520 may be connected to other electronic devices (eg, the electronic device 2501 (eg, the electronic device 101) through a network. Data transmission and reception may be performed in communication between the electronic device 104 or the server 106.
  • the communication module 2520 may include a cellular module 2521, a Wifi module 2523, and a BT module ( 2525, a GPS module 2527, an NFC module 2528, and a radio frequency (RF) module 2529.
  • RF radio frequency
  • the cellular module 2521 may provide a voice call, a video call, a text service, or an Internet service through a communication network (eg, LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro, or GSM).
  • a communication network eg, LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro, or GSM.
  • the cellular module 2521 may perform identification and authentication of an electronic device in a communication network using, for example, a subscriber identification module (for example, the SIM card 2524).
  • the cellular module 2521 may perform at least some of the functions that the AP 2510 may provide.
  • the cellular module 2521 may perform at least part of a multimedia control function.
  • the cellular module 2521 may include a communication processor (CP).
  • the cellular module 2521 may be implemented with, for example, an SoC.
  • components of the cellular module 2521 eg, a communication processor
  • the memory 2530, or the power management module 2595 are illustrated as separate components from the AP 2510.
  • the AP 2510 may be implemented to include at least some of the aforementioned components (eg, the cellular module 2521).
  • the AP 2510 or the cellular module 2521 may store instructions or data received from at least one of nonvolatile memory or other components connected to the volatile memory. Can be loaded and processed.
  • the AP 2510 or the cellular module 2521 may store data received from at least one of the other components or generated by at least one of the other components in a nonvolatile memory.
  • Each of the WIFI module 2523, the BT module 2525, the GPS module 2525, or the NFC module 2528 may include, for example, a processor for processing data transmitted and received through a corresponding module. Can be.
  • the cellular module 2521, the WIFI module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 are shown as separate blocks, respectively, according to an embodiment. At least some (eg, two or more) of the 2521, the WIFI module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 are contained within one integrated chip (IC) or IC package. May be included.
  • IC integrated chip
  • the processors corresponding to each of the cellular module 2521, the WIFI module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 eg, a cellular module
  • the communication processor corresponding to 2521 and the WIFI processor corresponding to the WIFI module 2523 may be implemented as one SoC.
  • the RF module 2529 may transmit and receive data, for example, an RF signal.
  • the RF module 2529 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), or the like.
  • the RF module 2529 may further include a component, for example, a conductor or a conductive wire, for transmitting and receiving electromagnetic waves in free space in wireless communication.
  • the cellular module 2521, the WIFI module 2523, the BT module 2525, the GPS module 2527, and the NFC module 2528 are shown to share one RF module 2529.
  • At least one of the cellular module 2521, the WIFI module 2523, the BT module 2525, the GPS module 2527, or the NFC module 2528 performs transmission and reception of an RF signal through a separate RF module. can do.
  • the electronic device 2501 may be connected to a companion device (eg, the electronic device 104) through the WIFI module 2523, the BT module 2525, or the NFC module 2528.
  • the electronic device 2501 may access a base station (eg, the server 106) through the cellular module 2521, and may be connected to a host device (eg, the electronic device 101) through the base station. have.
  • the SIM card 2524 may be a card including a subscriber identification module and may be inserted into a slot formed at a specific position of the electronic device.
  • the SIM card 2524 may include unique identification information (eg, an integrated circuit card identifier (ICCID)) or subscriber information (eg, an international mobile subscriber identity (IMSI)).
  • ICCID integrated circuit card identifier
  • IMSI international mobile subscriber identity
  • the memory 2530 may include an internal memory 2532 or an external memory 2534.
  • the internal memory 2532 may be, for example, a volatile memory (for example, a dynamic RAM (DRAM), a static RAM (SRAM), a synchronous dynamic RAM (SDRAM), etc.) or a non-volatile memory (for example).
  • DRAM dynamic RAM
  • SRAM static RAM
  • SDRAM synchronous dynamic RAM
  • OTPROM one time programmable ROM
  • PROM programmable ROM
  • EPROM erasable and programmable ROM
  • EEPROM electrically erasable and programmable ROM
  • mask ROM mask ROM
  • flash ROM NAND flash memory
  • NOR flash memory etc. It may include at least one.
  • the internal memory 2532 may be a solid state drive (SSD).
  • the external memory 2534 may be a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (Mini-SD), extreme digital (XD), or the like. It may further include a Memory Stick.
  • the external memory 2534 may be functionally connected to the electronic device 2501 through various interfaces.
  • the electronic device 2501 may further include a storage device (or a storage medium) such as a hard drive.
  • the sensor module 2540 may measure a physical quantity or detect an operation state of the electronic device 2501 to convert the measured or detected information into an electrical signal.
  • the sensor module 2540 includes, for example, a gesture sensor 2540A, a gyro sensor 2540B, a barometric pressure sensor 2540C, a magnetic sensor 2540D, an acceleration sensor 2540E, a grip sensor 2540F, and a proximity sensor. (2540G), color sensor 2540H (e.g., red, green, blue (RGB) sensor), biometric sensor 2540I, temperature / humidity sensor 2540J, illuminance sensor (2540K) or UV (ultra violet) It may include at least one of the sensors 2540M.
  • a gesture sensor 2540A e.g., a gyro sensor 2540B, a barometric pressure sensor 2540C, a magnetic sensor 2540D, an acceleration sensor 2540E, a grip sensor 2540F, and a proximity sensor.
  • (2540G) color sensor 2540
  • the sensor module 2540 may include, for example, an olfactory sensor (E-nose sensor, not shown), an EMG sensor (electromyography sensor, not shown), an EEG sensor (electroencephalogram sensor, not shown), an ECG.
  • a sensor electrocardiogram sensor, not shown
  • an infrared (IR) sensor not shown
  • an iris sensor not shown
  • a fingerprint sensor not shown
  • the sensor module 2540 may include a heart rate variability (HRV) sensor or a heart rate monitor (HRM) sensor.
  • the sensor module 2540 may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the input device 2550 may include a touch panel 2552, a (digital) pen sensor 2554, a key 2556, or an ultrasonic input device 2558. Can be.
  • the touch panel 2552 may recognize a touch input by at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
  • the touch panel 2552 may further include a control circuit. In the case of the capacitive type, physical contact or proximity recognition is possible.
  • the touch panel 2552 may further include a tactile layer. In this case, the touch panel 2552 may provide a tactile response to the user.
  • the (digital) pen sensor 2554 may be implemented using, for example, a method identical or similar to a method of receiving a user's touch input or using a separate recognition sheet.
  • the key 2556 may include, for example, a physical button, an optical key or a keypad.
  • the ultrasonic input device 2558 is a device that can detect data by detecting sound waves with a microphone (for example, a microphone 2588) in the electronic device 2501 through an input tool for generating an ultrasonic signal. Wireless recognition is possible.
  • the electronic device 2501 may receive a user input from an external device (for example, a computer or a server) connected thereto using the communication module 2520.
  • the display 2560 may include a panel 2602, a hologram device 2564, or a projector 2566.
  • the panel 2602 may be, for example, a liquid-crystal display (LCD) or an active-matrix organic light-emitting diode (AM-OLED).
  • the panel 2602 may be implemented to be, for example, flexible, transparent, or wearable.
  • the panel 2562 may be configured as one module together with the touch panel 2552.
  • the hologram device 2564 may show a stereoscopic image in the air by using interference of light.
  • the projector 2566 may display an image by projecting light onto a screen.
  • the screen may be located inside or outside the electronic device 2501.
  • the display 2560 may further include a control circuit for controlling the panel 2602, the hologram device 2564, or the projector 2666.
  • the interface 2570 may be, for example, a high-definition multimedia interface (HDMI) 2252, a universal serial bus (USB) 2574, an optical interface 2576, or a D-subminiature D-sub. (2578).
  • the interface 2570 may be included in, for example, the communication interface 160 illustrated in FIG. 1. Additionally or alternatively, the interface 2570 may be, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) interface, or an infrared data association (IrDA) compliant interface. It may include.
  • MHL mobile high-definition link
  • SD secure digital
  • MMC multi-media card
  • IrDA infrared data association
  • the audio module 2580 may bidirectionally convert a sound and an electric signal. At least some components of the audio module 2580 may be included in, for example, the input / output interface 140 illustrated in FIG. 1.
  • the audio module 2580 may process sound information input or output through, for example, a speaker 2258, a receiver 2584, an earphone 2586, a microphone 2588, or the like.
  • the camera module 2591 is a device capable of capturing still images and moving images.
  • at least one image sensor for example, a front sensor or a rear sensor
  • a lens not shown
  • an ISP (image signal) processor not shown
  • flash not shown
  • the power management module 2595 may manage power of the electronic device 2501. Although not shown, the power management module 2595 may include, for example, a power management integrated circuit (PMIC), a charger integrated circuit (IC), or a battery or fuel gauge.
  • PMIC power management integrated circuit
  • IC charger integrated circuit
  • battery or fuel gauge a battery or fuel gauge
  • the PMIC may be mounted in, for example, an integrated circuit or an SoC semiconductor.
  • Charging methods may be divided into wired and wireless.
  • the charger IC may charge a battery and prevent overvoltage or overcurrent from flowing from a charger.
  • the charger IC may include a charger IC for at least one of the wired charging method and the wireless charging method.
  • Examples of the wireless charging method include a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, and the like, and additional circuits for wireless charging, such as a coil loop, a resonant circuit, or a rectifier, may be added. have.
  • the battery gauge may measure, for example, the remaining amount of the battery 2596, a voltage, a current, or a temperature during charging.
  • the battery 2596 may store or generate electricity, and supply power to the electronic device 2501 using the stored or generated electricity.
  • the battery 2596 may include, for example, a rechargeable battery or a solar battery.
  • the indicator 2597 may display a specific state of the electronic device 2501 or a portion thereof (for example, the AP 2510), for example, a booting state, a message state, or a charging state.
  • the motor 2598 may convert electrical signals into mechanical vibrations.
  • the electronic device 2501 may include a processing device (eg, a GPU) for supporting mobile TV.
  • the processing apparatus for supporting the mobile TV may process media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or media flow.
  • DMB digital multimedia broadcasting
  • DVD digital video broadcasting
  • Each of the above-described elements of the electronic device according to various embodiments of the present disclosure may be composed of one or more components, and the name of the corresponding element may vary according to the type of the electronic device.
  • An electronic device according to various embodiments of the present disclosure may be configured to include at least one of the above-described components, and some components may be omitted or further include other additional components.
  • some of the components of the electronic device according to various embodiments of the present disclosure may be combined to form one entity, and thus may perform the same functions of the corresponding components before being combined.
  • an electronic device displaying content may acquire a display and sensing data, determine a display direction based on the sensing data, and display a content direction based on the display direction. And a control module to control the display to display the content according to the display direction.
  • FIG. 26 is a diagram illustrating a communication protocol 2600 between a plurality of electronic devices (for example, the electronic device 2610 and the electronic device 2630) according to various embodiments.
  • the communication protocol 2600 may include a device discovery protocol 2601, a capability exchange protocol 2653, and a data / session protocol. 2655) and an application protocol 2657.
  • the device discovery protocol 2601 may detect or detect an external electronic device with which electronic devices (eg, the electronic device 2610 or the electronic device 2630) can communicate with the external device. It may be a protocol for connecting with.
  • the electronic device 2610 for example, the electronic device 101
  • the electronic device 2610 may use the device discovery protocol 2601 to use a communication method (eg, WIFI) that may be used in the electronic device 2610.
  • the electronic device 2630 eg, the electronic device 104
  • the electronic device 2610 may acquire and store identification information about the detected electronic device 2630 by using the device discovery protocol 2651, for communication connection with the electronic device 2630.
  • the electronic device 2610 may establish a communication connection with the electronic device 2630 based on at least the identification information.
  • the device discovery protocol 2651 may be a protocol for mutual authentication between a plurality of electronic devices.
  • the electronic device 2610 may include at least communication information for connecting with the electronic device 2630 (for example, a media access control (MAC) address, a universally unique identifier (UUID), a subsystem identification (SSID), and an IP (IP)). based on an information provider address), authentication between the electronic device 2610 and the electronic device 2630 may be performed.
  • MAC media access control
  • UUID universally unique identifier
  • SSID subsystem identification
  • IP IP
  • the function exchange protocol 2653 may be a protocol for exchanging information related to a function of a service supported by at least one of the electronic device 2610 or the electronic device 2630.
  • the electronic device 2610 and the electronic device 2630 may exchange information related to the function of a service currently provided by each other through the function exchange protocol 2653.
  • the exchangeable information may include identification information indicating a specific service among a plurality of services supported by the electronic device 2610 and the electronic device 2620.
  • the electronic device 2610 may receive identification information of a specific service provided by the electronic device 2630 from the electronic device 2630 through the function exchange protocol 2633. In this case, the first electronic device 2610 may determine whether the electronic device 2610 can support the specific service based on the received identification information.
  • the data / session protocol 2655 may provide, for example, interworking a service between electronic devices (for example, the electronic device 2610 and the electronic device 2630) connected to communicate with each other. It may be a protocol for controlling data flow, which is transmitted and received. For example, at least one of the electronic device 2610 or the electronic device 2630 may perform error control or data quality control using the data / session protocol 2655. Additionally or alternatively, the data / session protocol 2655 may determine a transmission format of data transmitted and received between the electronic device 2610 and the electronic device 2630. In addition, at least one of the electronic device 2610 or the electronic device 2630 manages at least a session for exchanging data with each other using the data / session protocol 2655 (eg, session connection or session termination). )can do.
  • the data / session protocol 2655 eg, session connection or session termination.
  • the application protocol 2657 may be a protocol for providing a procedure or information for exchanging data related to a service provided to an external electronic device.
  • the electronic device 2610 eg, the electronic device 101 or the electronic device 104
  • the electronic device 2630 eg, the electronic device 104
  • the communication protocol 2600 may include a standard communication protocol, a communication protocol designated by an individual or a group (for example, a communication protocol specified by a communication device manufacturer or a network supplier, etc.) or a combination thereof. can do.
  • module used in various embodiments of the present invention may mean, for example, a unit including one or a combination of two or more of hardware, software, or firmware.
  • the term “module” may be interchangeably used with terms such as, for example, unit, logic, logical block, component, or circuit.
  • the module may be a minimum unit or part of an integrally constructed part.
  • the module may be a minimum unit or part of performing one or more functions.
  • the module may be implemented mechanically or electronically.
  • a “module” in accordance with various embodiments of the present invention may be an application-specific integrated circuit (ASIC) chip, field-programmable gate arrays (FPGAs), or programmable logic that perform certain operations, known or developed in the future. It may include at least one of a programmable-logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • a machine-readable storage medium having recorded thereon a program for executing a method for displaying content by an electronic device comprising: acquiring sensing data and based on the sensing data;
  • the method may include determining a current state of a user, determining a content to be displayed on a screen based on the current state, and displaying the content on the screen.
  • an apparatus eg, modules or functions thereof
  • method eg, operations
  • an apparatus eg, modules or functions thereof
  • method eg, operations
  • the present invention may be, for example, computer readable in the form of a programming module. It may be implemented by instructions stored in a computer-readable storage media. When the command is executed by one or more processors (for example, the processor 120), the one or more processors may perform a function corresponding to the command.
  • the computer-readable storage medium may be, for example, the memory 130.
  • At least a part of the programming module may be implemented (for example, executed) by, for example, the processor 120.
  • At least some of the programming modules may include, for example, modules, programs, routines, sets of instructions, or processes for performing one or more functions.
  • the computer-readable recording medium includes magnetic media such as hard disks, floppy disks, and magnetic tapes, and optical recording media such as compact disc read only memory (CD-ROM) and digital versatile disc (DVD).
  • Media magnetic-optical media such as floppy disks, program instructions such as read only memory, random access memory, flash memory, and the like (e.g., programming modules).
  • Hardware devices specifically configured to store and perform < RTI ID 0.0 >
  • Program instructions may also include high-level language code that can be executed by a computer using an interpreter as well as machine code such as produced by a compiler.
  • the hardware device described above may be configured to operate as one or more software modules to perform the operations of the various embodiments of the present invention, and vice versa.
  • Modules or programming modules may include at least one or more of the aforementioned components, omit some of them, or further include additional components.
  • Operations performed by modules, programming modules, or other components in accordance with various embodiments of the present invention may be executed in a sequential, parallel, repetitive, or heuristic manner. In addition, some operations may be executed in a different order, omitted, or other operations may be added.
  • a storage medium storing instructions, wherein the instructions are configured to cause the at least one processor to perform at least one operation when executed by the at least one processor, wherein the at least one operation is Acquiring sensing data for determining a display direction; determining a display direction based on the sensing data; determining a display direction of content according to the display direction; And displaying the content according to a direction.

Abstract

본 발명의 전자 장치의 동작 방법은, 센서 모듈을 통해 측정된 센싱 데이터를 기초로 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작을 포함할 수 있다. 또한 다른 실시예도 가능하다.

Description

콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
본 발명은 콘텐츠를 표시하는 전자 디바이스에 관한 것이다.
최근의 정보통신 기술과 반도체 기술 등의 눈부신 발전에 힘입어 각종 휴대 단말들의 보급과 이용이 급속도로 증가하고 있다. 특히 최근의 휴대 단말들은 각자의 전통적인 고유 영역에 머무르지 않고 다른 단말들의 영역까지 아우르는 모바일 융/복합(mobile convergence) 단계에 이르고 있다. 대표적으로 이동통신 단말의 경우에는 음성 통화나 메시지 송수신과 같은 일반적인 통신 기능 외에도 TV 시청 기능(예컨대, DMB(Digital Multimedia Broadcasting)나 DVB(Digital Video Broadcasting)와 같은 이동 방송), 음악재생기능(예컨대, MP3(MPEG Audio Layer-3) 사진 촬영 기능, 인터넷 접속 기능 등 다양한 기능들이 부가되고 있다.
근래에는 상기 휴대 단말의 일종으로서, 사용자가 손목시계, 헤드셋, 글라스와 같은 형태를 가짐으로써 사용자가 신체의 일부에 착용할 수 있는 웨어러블 장치가 개발되고 있다. 웨어러블 장치는 독자적으로 동작할 수도 있고, 다른 휴대 단말(호스트 디바이스)과 연동되어 컴패니언 디바이스로서 동작하여 사용자에게 상기 휴대 단말의 기능들 중 적어도 일부(예를 들어, 통화(call), 메시지, 스트리밍 등)를 사용자에게 제공할 수도 있다.
사용자의 신체의 일부에 걸쳐질 수 있는 형태로 구현됨으로써, 웨어러블 장치의 디스플레이 또한 사용자의 신체 중 일부에 걸쳐져 있게 된다. 사용자가 상기 웨어러블 장치를 착용한 상태로 손목을 움직이거나, 이동을 하는 등으로 움직이게 되면, 웨어러블 장치 또한 상기 사용자의 움직임에 따라 움직이게 된다. 예를 들어, 웨어러블 장치가 손목시계형이고, 사용자가 달리기를 하는 중이라고 가정한다. 사용자가 격렬하게 달리기를 하는 동안에는, 사용자는 손목에 착용한 웨어러블 장치의 디스플레이에 표시되는 데이터, 예를 들어 알람을 확인하기 용이하지 않다. 특히나 손목시계형의 웨어러블 장치는 데이터가 표시되는 방향, 즉 손목의 방향과 사용자의 시선 방향이 일치하지 않아 더욱 확인이 어렵다.
따라서 본 발명의 목적은 전자 장치의 상태 또는 사용자의 상태에 따라 사용자가 용이하게 콘텐츠를 확인할 수 전자 장치가 상기 콘텐츠를 표시하는 방법 및 상기 전자 장치를 제공함에 있다.
본 발명의 일 실시예에 따른 전자 장치의 동작 방법은, 센서 모듈을 통해 측정된 센서 데이터를 기초로 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.
본 발명의 다른 실시예에 따른 전자 장치의 동작 방법은, 외부 장치와 통신하는 통신 모듈이 상기 외부 장치와 연결되었는지 여부를 판단하는 동작과, 상기 외부 장치와의 연결 상태에 따라 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치의 동작 방법은, 하나 이상의 외부 장치들과 페어링하는 동작과, 모션 센서를 이용하여 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 또는 상기 생체 정보를 근거로 하여 상기 전자 장치로부터 상기 사용자에게 제공될 수 있는 서비스를 결정하는 동작과, 상기 외부 장치들을 이용하여 상기 서비스를 상기 사용자에게 제공하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법은, 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하는 동작과, 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법은, 스크린의 방향을 결정하기 위한 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하는 동작과, 상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작과, 상기 표시 방향에 따라 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
본 발명의 일 실시예에 따른 콘텐츠를 표시하는 전자 장치는, 콘텐츠를 표시하는 스크린을 포함하는 디스플레이와, 센싱 데이터를 획득하고, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하고, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하고, 상기 콘텐츠를 표시하도록 상기 디스플레이를 제어하는 제어 모듈을 포함할 수 있다.
본 발명의 일 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은, 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하는 동작과, 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
본 발명에 따르면, 전자 장치에 포함된 디스플레이의 상태 또는 상기 전자 장치를 이용하는 사용자의 현재 상태에 따라 사용자가 용이하게 콘텐츠를 확인할 수 있도록 상기 콘텐츠의 표시를 제어할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른, 전자 장치를 포함하는 네트워크 환경(100)을 도시한 도면이다.
도 2는 본 발명의 다양한 실시예들에 따른, 전자 장치(예를 들어, 전자 장치)의 제어 모듈의 블록도)를 나타낸 도면이다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 일 예를 나타낸 순서도이다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 다른 예를 나타낸 순서도이다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 또 다른 예를 나타낸 순서도이다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 또 다른 예를 나타낸 순서도이다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다.
도 8은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 다른 예를 나타낸 도면이다.
도 9는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 13은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 14는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 15는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 16은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 17은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 18은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 19는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 20a 내지 도 20d는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 21a 및 도 21b는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 22는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 23은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 24는 본 발명의 다양한 실시예들에 다른 복수의 전자 장치들이 콘텐츠를 표시하는 일 예를 나타낸 도면이다.
도 25는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도를 나타낸 도면이다.
도 26은 본 발명의 다양한 실시예들에 따른 복수의 전자 장치들(예를 들어, 전자 장치 및 전자 장치) 사이의 통신 프로토콜을 나타낸 도면이다.
이하, 본 발명의 다양한 실시예가 첨부된 도면과 연관되어 기재된다. 본 발명의 다양한 실시예는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 발명의 다양한 실시예를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 다양한 실시예의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 발명의 다양한 실시예에서 사용될 수 있는“포함한다” 또는 “포함할 수 있다” 등의 표현은 개시(disclosure)된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한 본 발명의 다양한 실시예에서, “포함하다” 또는 “가지다” 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 발명의 다양한 실시예에서 “또는” 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, “A 또는 B”는, A를 포함할 수도, B를 포함할 수도, 또는 A 와 B 모두를 포함할 수도 있다.
본 발명의 다양한 실시예에서 사용된 “제 1”, “제2”, “첫째” 또는 “둘째” 등의 표현들은 다양한 실시예들의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 발명의 다양한 실시예의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 “연결되어” 있다거나 “접속되어” 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 “직접 연결되어” 있다거나 “직접 접속되어” 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 새로운 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 발명의 다양한 실시예에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명의 다양한 실시예를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 다양한 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 발명의 다양한 실시예에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 발명의 다양한 실시예에 따른 전자 장치는, 상기 전자 장치를 이용하는 사용자의 건강 상태를 감지하고, 상기 사용자에게 운동 스케줄, 운동의 진행 상태, 운동 강도 등을 안내하는 등의 운동 관리 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 가속도 센서, 자이로 센서, HRM(heart monitoring) 센서 또는 조도 센서 중 하나 이상의 센서를 포함하여 사용자의 운동 상태를 파악할 수 있다. 이러한 전자 장치는 웨어러블 장치로서, 손목시계형, 글래스형, HMD(head-mounted display)형, 이어폰형, 목걸이형, 신발형, 허리벨트형, 발목 밴드형, 밴드형 등의 형태로 구현될 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 통신 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예를 들어, 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smart watch) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플 TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예를 들어, MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예를 들어, 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller’s machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 통신 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예를 들어, 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한 본 발명의 다양한 실시예에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예를 들어, 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른, 전자 장치(101)를 포함하는 네트워크 환경(100)을 도시한 도면이다.
도 1을 참조하면, 상기 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160), 제어 모듈(170) 및 센서 모듈(180) 중 하나 이상을 포함할 수 있다.
상기 버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예를 들어, 제어 메시지)을 전달하는 회로일 수 있다. 예를 들어, 프로세서(120) 또는 제어 모듈(170)로부터 생성된 제어 메시지는 버스(110)를 통해 디스플레이(150) 또는 통신 인터페이스(160)로 전달될 수 있다.
*상기 프로세서(120)는, 예를 들면, 상기 버스(110)를 통해 전술한 다른 구성요소들(예를 들어, 상기 메모리(130), 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 상기 제어 모듈(170), 또는 센서 모듈(180) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 메모리(130)는, 상기 프로세서(120) 또는 다른 구성요소들(예를 들어, 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 상기 제어 모듈(170) 또는 상기 센서 모듈(180) 등)로부터 수신되거나 상기 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 메모리(130)는, 예를 들면, 커널(131), 미들웨어(132), 어플리케이션 프로그래밍 인터페이스(API: application programming interface)(133) 또는 어플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 메모리(130)에는, 디스플레이(150)의 방향을 결정하기 위한 데이터가 미리 저장되어 있을 수 있다. 또한 메모리(130)에는 센서 모듈(180)에 포함된 하나 이상의 센서들에 의하여 측정된 센싱 데이터가 저장될 수 있다. 메모리(130)에는 센서 모듈(180)에 포함된 가속도 센서 또는 자이로 센서에 의하여 측정된 센싱 데이터(예를 들어, 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향 또는 전자 장치(101)의 기울기)가 저장될 수 있다.
상기 메모리(130)에는 사용자가 현재 하고 있는 운동(예를 들어, 워킹, 조깅, 자전거 타기, 수영, 배드민턴, 테니스, 축구, 야구, 농구 등)을 결정하기 위한 센서값이 저장되어 있을 수 있다. 예를 들어, 제어 모듈(170)은 1분 동안 측정된 사용자의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 혈당 또는 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향 또는 전자 장치(101)의 기울기 등을 분석하여 상기 사용자가 실행하고 있는 운동을 조깅으로 결정할 수 있다. 이때 1분 동안 측정된 사용자의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 혈당 또는 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향 또는 전자 장치(101)의 기울기 등은 상기 메모리(130)에 저장된 것일 수 있다.
상기 메모리(130)에는 입출력 인터페이스(140) 또는 디스플레이(150)를 통해 사용자로부터 입력된 운동의 종류 또는 운동 스케줄 등이 저장될 수 있다. 메모리(130)에는 사용자에 의하여 미리 입력된 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 혈당 등이 저장될 수 있다. 또한 사용자가 운동을 할 때마다 상기 운동의 종류, 운동 스케줄, 사용자가 상기 운동을 하는 동안의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 혈당 등이 제어 모듈(170)에 의하여 메모리(130)에 기록될 수 있다. 또한 센서 모듈(180)에 포함된 센서들에 의하여 측정된 센싱 데이터가 상기 제어 모듈(170)에 의하여 메모리(130)에 기록될 수 있다.
상기 커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예를 들어, 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(131)은 상기 미들웨어(132), 상기 API(133) 또는 상기 어플리케이션(134)에서 상기 전자 장치(101)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어(132)는 상기 API(133) 또는 상기 어플리케이션(134)이 상기 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한 상기 미들웨어(132)는 상기 어플리케이션(134)으로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 어플리케이션(134) 중 적어도 하나의 어플리케이션에 상기 전자 장치(101)의 시스템 리소스(예를 들어, 상기 버스(110), 상기 프로세서(120) 또는 상기 메모리(130) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예를 들어, 스케줄링 또는 로드 밸런싱)을 수행할 수 있다.
상기 API(133)는 상기 어플리케이션(134)이 상기 커널(131) 또는 상기 미들웨어(132)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예를 들어, 명령어)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 어플리케이션(134)은 SMS/MMS 어플리케이션, 이메일 어플리케이션, 달력 어플리케이션, 알람 어플리케이션, SNS 어플리케이션, 메신저 어플리케이션, 멀티미디어 어플리케이션, 건강 관리(health care) 어플리케이션(예를 들어, 운동량 또는 혈당 등을 측정하는 어플리케이션) 또는 환경 정보 어플리케이션(예를 들어, 기압, 습도 또는 온도 정보 등을 제공하는 어플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 어플리케이션(134)은 상기 전자 장치(101)와 외부 전자 장치(예를 들어, 전자 장치(104)) 사이의 정보 교환과 관련된 어플리케이션일 수 있다. 상기 정보 교환과 관련된 어플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 어플리케이션은 상기 전자 장치(101)의 다른 어플리케이션(예를 들어, SMS/MMS 어플리케이션, 이메일 어플리케이션, , SNS 어플리케이션, 메신저 어플리케이션, 멀티미디어 어플리케이션, 건강 관리 어플리케이션 또는 환경 정보 어플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예를 들어, 전자 장치(104))로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치(예를 들어, 전자 장치(104))로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 어플리케이션은, 예를 들면, 상기 전자 장치(101)와 통신하는 외부 전자 장치(예를 들어, 전자 장치(104))의 적어도 일부에 대한 기능(예를 들어, 외부 전자 장치 자체(또는, 일부 구성 부품)의 파워 온(power on)/파워 오프(power off) 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 어플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예를 들어, 통화 서비스 또는 메시지 서비스)를 관리(예를 들어, 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예에 따르면, 상기 어플리케이션(134)은 상기 외부 전자 장치(예를 들어, 전자 장치(104))의 속성(예를 들어, 전자 장치의 종류)에 따라 지정된 어플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 어플리케이션(134)은 음악 재생과 관련된 어플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 어플리케이션(134)은 건강 관리와 관련된 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 어플리케이션(134)은 전자 장치(101)에 지정된 어플리케이션 또는 외부 전자 장치(예를 들어, 서버(106) 또는 전자 장치(104))로부터 수신된 어플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스(140)은, 입출력 장치(예를 들어, 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스(110)를 통해 상기 프로세서(120), 상기 메모리(130), 상기 통신 인터페이스(160), 상기 제어 모듈(170) 또는 상기 센서 모듈(180)에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)는 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서(120)로 제공할 수 있다. 또한 상기 입출력 인터페이스(140)은, 예를 들면, 상기 버스(110)을 통해 상기 프로세서(120), 상기 메모리(130), 상기 통신 인터페이스(160), 또는 상기 디스플레이 모듈 모듈(170)로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예를 들어, 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)는 상기 프로세서(120)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다. 상기 입출력 인터페이스(140)는 디스플레이(150)에 콘텐츠(예를 들어, 텍스트, 이미지, 동영상 등)를 표시하기 위한 사용자 입력을 수신할 수 있다
상기 디스플레이(150)는 사용자에게 각종 정보(예를 들어, 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다. 또한 상기 디스플레이(150)는, 예를 들어 터치 스크린으로 구현되어 사용자로부터의 터치 입력 또는 호버링 입력 등을 입력받는 입출력 인터페이스(140)로서 동작할 수도 있다.
디스플레이(150)는 스크린(screen) 또는 터치 스크린을 포함하는 형태로 구현될 수 있다. 상기 스크린 또는 터치 스크린은, 하나 이상의 콘텐츠가 표시되는 디스플레이(150)의 표면을 가리킬 수 있다.
상기 통신 인터페이스(160)는 상기 전자 장치(101)와 외부 장치(예를 들어, 전자 장치(104) 또는 서버(106)) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스(160)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, WIFI(wireless fidelity), BT(Bluetooth), 지그비(Zigbee) NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예를 들어, LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 네트워크(162)는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치(101)와 외부 장치 간의 통신을 위한 프로토콜(예를 들어, transport layer protocol, data link layer protocol 또는 physical layer protocol))은 어플리케이션(134), 어플리케이션 프로그래밍 인터페이스(133), 상기 미들웨어(132), 커널(131) 또는 통신 인터페이스(160) 중 적어도 하나에서 지원될 수 있다.
상기 제어 모듈(170)은, 다른 구성 요소들(예를 들어, 상기 프로세서(120), 상기 메모리(130), 상기 입출력 인터페이스(140), 상기 통신 인터페이스(160) 또는 센서 모듈(180) 등)로부터 획득된 정보 중 적어도 일부를 처리하고, 이를 다양한 방법으로 사용자에게 제공 할 수 있다. 예를 들면, 상기 제어 모듈(170)은 상기 프로세서(120)를 이용하여 또는 이와는 독립적으로, 상기 전자 장치(101)가 다른 전자 기기(예를 들어, 전자 장치(104) 또는 서버(106))와 연동하도록 상기 전자 장치(101)의 적어도 일부 기능을 제어할 수 있다
상기 제어 모듈(170)은 센서 모듈(180)이 센싱을 수행하여 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향, 기울기 등을 측정하거나, 사용자의 혈압, 심박수, 호흡수, 산소 포화도, 심폐음, 칼로리 소비량, 근전도, 심전도를 측정하도록 제어할 수 있다.
상기 제어 모듈(170)은 센서 모듈(180)에 의하여 획득된 센싱 데이터, 예를 들어 하나 이상의 센서들에 의하여 측정된 전자 장치(101)의 현재 위치, 이동 속도, 이동 가속도, 이동 방향 또는 전자 장치(101)의 기울기 중 적어도 하나를 이용하여 디스플레이(150)의 방향을 결정할 수 있다.
전자 장치(101)가 웨어러블 장치(예를 들어, 스마트 와치(smart watch) 등)의 형태로 구현되는 경우, 전자 장치(101)의 디스플레이(150)에 포함된 스크린의 사이즈 또는 해상도가 제약될 수 있다. 또한 웨어러블 장치로 구현되는 경우 전자 장치(101)는 움직임이 많은 신체 부위에 장착될 수 있으므로, 제어 모듈(170)은 사용자의 움직임에 따라 다양한 형태의 사용자 인터페이스를 제공하도록 전자 장치(101)를 제어할 수 있다. 이로써 전자 장치(101)의 사용성이 증대될 수 있다.
한 실시예에 따르면, 상기 전자 장치(101)는 홈 화면(Home screen)이나 어플리케이션 화면과 같은 디스플레이(150)의 스크린에 표시되는 텍스트, 그림, 도형 등을 상기 전자 장치(101)의 위치와 사용자의 운동 속도, 운동 동작의 종류 또는 강도에 따라 변경하여 사용자에게 제공할 수 있다. 예를 들어, 사용자가 수영을 한다고 가정한다. 수영은 영법에 따른 고유의 움직임 패턴이 있으므로, 전자 장치(101)는 그 움직임 패턴을 감지하여 수영에 적합한 콘텐츠들을 디스플레이(150)를 통해사용자에게 제공할 수 있다. 예를 들어, 사용자가 달리기를 한다고 가정한다. 전자 장치(101)는 상기 전자 장치(101)를 착용한 사용자의 이동 거리 또는 팔의 움직임 등을 감지하여 사용자의 운동이 달리기임을 알아낼 수 있다. 상기와 같이 전자 장치(101)는 사용자의 움직임 패턴을 분석함으로써 사용자가 하고 있는 운동을 결정할 수 있다.
다른 실시예에 따르면, 전자 장치(101)는, 사용자가 운동을 하기 전 또는 운동을 하고 있는 동안에 사용자로부터 상기 운동의 종류를 입력받을 수 있다. 이때에도 제어 모듈(170)은, 상기 입력된 운동의 종류에 따른 콘텐츠를 상기 디스플레이(150)를 통해 사용자에게 제공할 수도 있다.
상기 제어 모듈(170)은 센서 모듈(180)에 의하여 획득된 센싱 데이터, 예를 들어 사용자의 혈압, 심박수, 호흡수, 산소 포화도, 심폐음, 칼로리 소비량, 근전도, 심전도, 중 적어도 하나를 이용하여 사용자의 상태를 결정할 수 있다. 예를 들어, 제어 모듈(170)은 상기 센싱 데이터를 분석하여 사용자가 이동하거나 또는 운동하고 있는 것으로 결정할 수 있다. 예를 들어, 센서 모듈(180)에 포함된 HRM 센서를 통하여 측정된 사용자의 심박수가 100회 이상이면 제어 모듈(170)은 사용자가 운동 중인 것으로 결정할 수 있다. 예를 들어, HRM 센서에 의하여 측정된 사용자의 심박수가 100~120이면 사용자의 운동 강도가 약(弱), 심박수가 121~140이면 사용자의 운동 강도가 중(中), 141~170이면 사용자의 운동 강도가 강(强)인 것으로 결정할 수 있다.
예를 들어, 사용자가 30분 동안 운동한다고 가정한다. 또한 상기 사용자의 운동 시간 30분을, 3등분하여 00:00:00~00:10:00이면 운동 초기(1단계), 00:10:01~00:20:00은 운동 중기(2단계), 00:20:01~00:30:00이면 운동 후기(3단계)라고 가정한다. 제어 모듈(170)은, 사용자가 운동을 시작한 시각으로부터 현재 시각까지의 시간에 따라 사용자의 운동 진행 상태를 상기 운동 초기, 운동 중기 또는 운동 후기인 것으로 결정할 수 있다.
일 실시예에 따른 제어 모듈(170)은 센서 모듈(180)에 의하여 획득된 센싱 데이터, 예를 들어 사용자의 혈압, 심박수, 호흡수, 산소 포화도, 심폐음, 칼로리 소비량, 근전도, 심전도 중 적어도 하나를 기초로 사용자가 하고 있는 운동의 종류, 상기 운동의 진행 상태, 운동 강도 중 적어도 하나를 결정할 수 있다. 예를 들어, 사용자가 일주일 연속으로 30분 동안 조깅을 하였다고 가정한다. 메모리(130)에는 지난 일주일 동안 사용자가 조깅을 하면서 기록된 센싱 데이터, 예를 들어 사용자가 조깅을 시작하기 직전에 센서 모듈(180)로부터 수신한 센싱 데이터, 사용자가 조깅을 하고 있을 동안에 센서 모듈(180)로부터 수신한 센싱 데이터 또는 사용자가 조깅을 하고 난 직후에 센서 모듈(180)로부터 수신한 센싱 데이터 등이 제어 모듈(170)의 제어 하에 모두 저장될 수 있다. 즉 메모리(130)에는 센서 모듈(180)로부터 수신한 센싱 데이터가 축적될 수 있다. 상기 센싱 데이터는, 전자 장치(101)의 메모리(130)뿐만 아니라 별도의 다른 장치(예를 들어, 전자 장치(104) 또는 네트워크 상의 서버(예를 들어, 서버(106))에 저장될 수 있다. 일 실시예에 따라 상기 다른 장치 또는 서버에, 이전에 획득된 센싱 데이터가 저장되어 있는 경우에는 새로이 획득된 센싱 데이터를 상기 장치들에 전달함으로써 업데이트할 수도 있다.
또한 제어 모듈(170)은 메모리(130)에 축적된 센싱 데이터를 기초로 사용자가 하고 있는 운동의 종류, 운동의 진행 상태, 운동 강도 등을 결정할 수 있다. 예를 들어, 사용자가 조깅을 하고 있는 상태라고 가정한다. 제어 모듈(170)은 조깅을 하고 있는 사용자의 상태(예를 들어, 혈압, 심박수, 호흡수, 산소 포화도, 심폐음, 칼로리 소비량, 근전도, 심전도, 가속도, 각속도, 위치 변화)를 나타내는 센싱 데이터와, 메모리(130)에 축적된 센싱 데이터 중 사용자가 조깅을 하고 있을 때의 센싱 데이터가 서로 유사하면(예를 들어, 70% 이상 동일하면) 사용자가 현재 조깅을 하고 있는 것으로 결정할 수 있다. 일 실시예에 따라 제어 모듈(170)은 센싱 데이터의 유사 여부를 판단하는데 사용할 센싱 데이터를 결정할 수도 있다. 예를 들어, 총 10가지의 센싱 데이터가 있다고 가정하면, 제어 모듈(170)은 상기 10가지의 센싱 데이터 중 7가지의 센싱 데이터를 이용하여 사용자가 하고 있는 운동의 종류, 운동의 진행 상태, 운동 강도 등을 결정할 수 있다.
상기 제어 모듈(170)은, 상기 운동의 종류, 운동 진행 상태, 운동 강도, 사용자 상태 중 하나 이상에 기초하여 전자 장치(101)를 제어할 수 있다. 제어 모듈(170)은 상기 운동의 종류, 운동 진행 상태, 운동 강도 중 하나 이상에 기초하여 디스플레이(150)의 스크린에 표시되는 콘텐츠(예를 들어, 현재 시각, 온도, 날씨, 운동 시간, 운동 강도, 심박수, 혈압, 호흡수, 산소 포화도 등)가 변경되도록 전자 장치(101)를 제어할 수 있다. 예를 들어, 제어 모듈(170)은 사용자의 운동 강도가 약(弱)인 경우에는 현재 시각, 온도, 날씨, 운동 시간, 심박수 및 혈압의 6가지 데이터를 표시하도록 디스플레이(150)를 제어하고, 사용자의 운동 강도가 강(强)인 경우에는 운동 시간, 심박수 및 혈압의 3가지 데이터만을 표시하도록 디스플레이(150)의 스크린에 표시되는 데이터를 변경할 수 있다. 제어 모듈(170)은 디스플레이(150)의 스크린에 표시되는 콘텐츠의 종류뿐만 아니라 콘텐츠가 표시되는 사이즈, 색상, 방향, 지속 시간(duration) 등을 변경할 수도 있다.
또 다른 실시예에 따르면, 상기 제어 모듈(170)은 상기 운동의 종류, 운동 진행 상태, 운동 강도, 사용자 상태 중 적어도 하나에 기초하여 전자 장치(101)의 동작을 제한할 수도 있다.예를 들어, 사용자의 운동 강도가 약(弱)이고, 인커밍 콜(incoming call)을 수신한 경우 제어 모듈(170)은 수신 전화 알림, 즉 상기 호(call)을 수신하고 있음을 알리도록 디스플레이(150)를 제어할 수 있다. 사용자는 디스플레이(150)의 스크린에 표시된 상기 수신 전화 알림을 확인하고, 그에 대한 대응으로써 전화 통화를 할 수 있다. 그러나 사용자의 운동 강도가 강(强)인 경우에는 인커밍 콜을 수신하고 있다고 하더라도 제어 모듈(170)은 상기 수신 전화 알림을 표시하지 않도록 디스플레이(150)를 제어할 수 있다. 상기 수신 전화 알림이 표시되지 않았으므로, 사용자는 인커밍 콜이 수신되고 있음을 알지 못할 수 있다. 상기와 같이 수신 전화 알림을 표시하지 않도록 전자 장치(101)를 제어함으로써, 제어 모듈(170)은 사용자가 운동 중에 전화 통화를 하지 않도록 하거나 또는 전화 통화를 위하여 사용자가 운동을 중단하지 않도록 할 수 있다. 또한 제어 모듈(170)은, 상기 사용자의 운동이 종료된 이후에 상기 수신 전화 알림(부재중 통화 알림)을 디스플레이(150)를 통해 표시함으로써 상기 사용자에게 인커밍 콜이 수신되었음을 알릴 수 있다.
예를 들어, 전자 장치(101)가 뮤직 플레이어 기능을 지원하고, 사용자가 운동 중에 음악을 듣기 위하여 뮤직 플레이어를 실행시켰다고 가정한다. 사용자의 운동 강도가 약(弱)이면, 제어 모듈(170)은 상기 뮤직 플레이어의 모든 기능(재생, 정지, 되감기, 빨리 감기, 구간 반복, 볼륨 조절 등)을 사용자가 조절할 수 있도록 전자 장치(101)를 제어할 수 있다. 또한 사용자의 운동 강도가 약이면, 제어 모듈(170)은 예를 들어, 디스플레이(150)의 스크린에 상기 뮤직 플레이어의 기능들 각각에 대응하는 버튼들이 모두 표시되도록 전자 장치(101)를 제어하고 또한 상기 버튼들 각각에 대한 사용자 입력들에 따라 뮤직 플레이어가 실행되도록 전자 장치(101)를 제어할 수 있다.
그러나 사용자의 운동 강도가 강(强), 예를 들어 미리 설정된 레벨 이상이면, 제어 모듈(170)은 상기 뮤직 플레이어의 기능들(재생, 정지, 되감기, 빨리 감기, 구간 반복, 볼륨 조절 등) 중 볼륨 조절 기능만을 사용자가 조절할 수 있도록 전자 장치(101)를 제어할 수 있다. 예를 들어, 제어 모듈(170)은 디스플레이(150)의 스크린에 상기 뮤직 플레이어의 기능들 각각에 대응하는 버튼들 중 상기 볼륨 조절 기능에 대응하는 버튼들만 표시되도록 디스플레이(150)를 제어할 수 있다.
후술하는 도 2 내지 도 5을 통하여 상기 제어 모듈(170)에 대한 추가적인 정보가 제공된다. 도 1에서는 프로세서(120)와 제어 모듈(170)이 별개의 구성 요소로서 전자 장치(101)에 포함된 것으로 도시되어 있으나, 상기 프로세서(120)는 상기 제어 모듈(170)을 포함하는 형태로 구현될 수 있으며, 상기 제어 모듈(170)에서 실행되는 모든 동작을 실행할 수 있다.
상기 센서 모듈(180)은 센서 수치값을 계측하거나 전자 장치(101)의 동작 상태를 감지하고, 상기 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(180)은, 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향 또는 기울기 등을 측정할 수 있다. 이를 위하여 센서 모듈(180)은 가속도 센서 또는 자이로 센서를 포함하는 형태로 구현될 수 있다.
한 실시예에 따르면, 상기 센서 모듈(180)은 사용자의 생체 신호(예를 들어, 사용자의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 칼로리 소비량, 근전도, 심전도 등)를 측정할 수도 있다. 이를 위하여 센서 모듈(180)은, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 중 하나 이상을 더 포함하는 형태로 구현될 수 있다. 또한 상기 센서 모듈(180)에는 HRV(heart rate variability) 센서가 포함될 수 있으며, 상기 HRV 센서는 사용자의 맥파 신호를 감지할 수 있다. 상기 HRV 센서는 상기 맥파 신호를 감지하여, 사용자의 평균 심박수, 심박 분포도 등을 계산할 수 있다.
상술한 센서들 중 적어도 하나가 포함된 센서 모듈(180)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 센서 모듈(180)에 포함된 하나 이상의 센서들은 전자 장치(101)를 사용하는 사용자의 혈압, 혈류, 심박수(HRM, HRV(heart rate variability)), 체온, 호흡수, 산소 포화도, 심폐음, 혈당, 허리둘레, 키, 체중 체지방량, 칼로리 소비량, 뇌파, 목소리, 피부 저항, 근전도, 심전도, 걸음 걸이, 초음파, 수면 상태 및 얼굴 표정 등과 같은 하나 이상의 생체 신호들을 로우 데이터(raw data)로서 사용자로부터 수집하거나 또는 측정할 수 있다. 상기 제어 모듈(170)은 상기 로우 데이터를 분석하여 전자 장치(101)를 사용하는 사용자에 대한 생체 특성 정보를 결정할 수 있다. 예를 들어, 제어 모듈(170)은 HRV(heart rate variability) 센서를 통해 얻은 맥파 신호를 분석하여 사용자의 평균 심박수, 심박 분포도 등을 결정할 수 있다. 이때 맥파 신호는, 상기 로우 데이터에 해당하며, 제어 모듈(170)은 상기 HRV 센서를 통해 수집된 상기 맥파 신호를 이용하여 사용자의 평균 심박수, 심박 분포도 등을 계산할 수 있다.
센서 모듈(180)은, 예를 들어 라만분광법을 이용한 초음파 무채혈 혈당측정기 등과 같이 무채혈 방식의 측정 센서들을 포함할 수 있다. 또한 센서 모듈(180)은 예를 들어, 콜레스테롤을 간편하게 측정할 수 있는 콜레스테롤 측정 장치를 포함할 수 있다.
한 실시예에 따르면, 센서 모듈(180)은 심전도 센서를 포함할 수 있다. 상기 심전도 센서는 심장의 활동 전류의 패턴 신호를 감지할 수 있다. 상기 심전도 센서는, 신호 검출방식에 따라 전류심전계와 전압심전계로 나눌 수 있으며, PEM(Portable EM)이라고 하는 휴대형 심전도 모니터 장치 또는 전자 장치(101)의 사이드에 복수 개의 ECG 전극을 부착하는 형태로 구현될 수도 있다. 상기 심전도 센서에 의하여 측정되는 심전도의 파형은 P, Q, R, S, T파로 구성될 수 있으며, 그 중 R파는 피크 신호에 해당한다. 심박수는 단위 시간당 발생한 R파 신호의 수를 통해 측정할 수 있다.
상기 심전도 센서는 HRV(Heart Rate Variability) 방식으로 심박수를 체크할 수 있다. HRV는 피크 신호인 R파들 사이의 시간 간격의 변이를 측정하는 기법으로서, 심박 사이의 미세한 변화로부터 자율신경의 활동을 분석할 수 있게 해주므로, 제어 모듈(170)로 하여금 사용자의 다양한 생체 상태를 예측할 수 있도록 한다. 제어 모듈(170)은 센서 모듈(180)에 포함된 심전도 센서를 이용하여 사용자의 교감 신경 또는 부교감 신경과 관련하여 사용자의 스트레스 지수를 계산하기 위한 정보를 획득할 수 있다.
예를 들어, 건강한 사람의 경우, 심전도 센서를 통한 HRV 변이가 크고 복잡하게 나타나지만, 질병 상태나 스트레스가 심한 상태에서는 상기 HRV 변이의 복잡도가 현저히 감소하는 특성을 보인다. 심전도 센서는 상기와 같은 HRV 변이를 감지함으로써, 제어 모듈(170)이 사용자의 스트레스 지수를 계산하는데 필요한 데이터를 제공할 수 있다.
한 실시예에 따르면, 상기 센서 모듈(180)은 심박 센서를 포함할 수 있다. 심박 센서에는, 단위 시간당 심박수를 잴 수 있는 HRM(Heart rate monitor) 센서와 심박 간 시간 간격의 변이인 HRV(heart rate variability)를 잴 수 있는 센서 등이 있다. 또한 심박 센서의 일종인 광혈류량 센서(PPG: Photoplethysmography)는 심장이 수축 이완을 반복하면서 발생하는 말초 혈관에서의 혈관 부피의 변화를 측정함으로써, 사용자의 혈관 내 혈액양의 변화나 산소포화도를 측정하는데 사용될 수 있다.
사용자의 귀, 손목, 경동맥, 손가락, 발목 등에 웨어러블 장치의 형태로 구현된 전자 장치(101)가 부착되거나 또는 접촉됨으로써, 상기 전자 장치(101)에 포함된 심박 센서는, 사용자의 심박을 측정할 수 있다. 또한 카메라 또는 적외선 등의 비접촉 방식을 이용하여 사용자의 심박을 측정할 수도 있다. 상기 심박 센서에 의하여 측정되는 심박수는, 사용자의 나이, 건강 상태, 감정 상태에 따라 그 수치가 달라질 수 있다. 심박 패턴 또한 사용자의 나이, 건강 상태, 감정 상태에 따라 달라질 수 있다. 따라서 제어 모듈(170)은 상기 심박 센서에 의하여 측정된 심박수 또는 심박 패턴을 분석함으로써, 사용자의 혈관 탄성도를 계산할 수 있고, 사용자의 혈관 노화도를 결정할 수 있다. 상기와 같이 사용자의 혈관 탄성도 또는 혈관 노화도를 결정함으로써, 제어 모듈(170)은 사용자의 현재 상태를 결정할 수 있다.
한 실시예에 따르면, 상기 센서 모듈(180)은 산소 포화도 센서를 포함할 수 있다. 상기 산소 포화도 센서는, 전체 혈색소 중에서 산소로 포화된 혈색소가 차지하는 비율을 측정할 수 있다. 제어 모듈(170)은, 특히 산소 포화도 센서를 통하여 사용자의 운동에 따른 칼로리 소모량을 계산할 수 있다. 또한 산소 포화도 센서는, 호흡곤란, 의식장애, 쇼크, 폐질환인 급성호흡곤란증후군(ARDS), 고산지대의 저산소증, 가스중독, 질식사고 등의 사용자에게 발생될 수 있는 위험 상황을 감지하는데 사용될 수 있다.
한 실시예에 따르면, 상기 센서 모듈(180)은 수면 센서를 포함할 수 있다. 상기 수면 센서는 사용자의 수면 상태를 측정하는 것으로서, 가속도 센서, 자이로 센서, 맥파 측정 센서, 호흡수 측정 센서, 혈압 측정 센서 중 하나 이상을 포함할 수 있다.
한 실시예에 따르면, 상기 센서 모듈(180)은 만보기를 포함할 수 있으며, 상기 만보기는 가속도 세서, 자이로 센서 등을 포함하여 사용자의 걸음수를 측정하고, 이를 기초로 사용자가 소모한 칼로리를 추정할 수 있다. 또한 만보기는 GPS 또는 실내측위기술을 이용하여 사용자가 이동한 거리를 계산할 수도 있다.
다른 실시예에 따르면, 상기 센서 모듈(180)은 전자 장치(101)의 외부에 포함되는 형태로 구현될 수도 있다. 예를 들어 센서 모듈(180)은 전자 장치(104)에 포함되는 형태로 구현될 수 있다. 이때, 사용자는 전자 장치(104)를 착용하고 있을 수 있으며, 전자 장치(104)는 사용자에 의하여 착용되고 있지 않은 전자 장치(101)에 센싱 데이터를 전송할 수 있다. 전자 장치(101)의 제어 모듈(170)은 통신 인터페이스(160)를 통해 전자 장치(104)로부터 센싱 데이터를 수신하고, 상기 센싱 데이터를 기초로, 상기 전자 장치(104)를 소지하고 있는 사용자가 실행하고 있는 운동의 종류, 운동의 진행 상태, 운동 강도 또는 사용자의 현재 상태 등을 결정할 수도 있다. 또한 제어 모듈(170)은 상기 운동의 종류, 운동의 진행 상태, 운동 강도 또는 심박수 등의 사용자의 현재 상태 등에 따라 디스플레이(150)의 스크린에 표시할 콘텐츠의 종류 또는 상기 콘텐츠를 표시하는 방식 등을 결정할 수 있다.
한 실시예에 따르면, 전자 장치(101)는 호스트 디바이스로서, 전자 장치(104)는 컴패니언(companion) 디바이스로서 무선 통신 또는 유선 통신을 통해 서로 연동될 수 있다. 상기 호스트 디바이스로 동작하는 전자 장치(101)는 제어 모듈(170)을 포함하여 컴패니언 디바이스로 동작하는 전자 장치(104)로부터 센싱 데이터를 수신하고, 상기 센싱 데이터를 기초로 컴패니언 디바이스에 포함된 스크린의 방향을 결정할 수 있다. 또한 상기 전자 장치(101)의 제어 모듈(170)은 상기 전자 장치(104)의 스크린 방향에 따라 콘텐츠를 표시하도록 컴패니언 디바이스를 제어할 수도 있다. 아래 도 23은 전자 장치(101)가 호스트 디바이스로서, 컴패니언 디바이스인 전자 장치(104)와 연동되는 일 예를 도시한 것이다. 도 23에 대한 상세한 설명은 후술하기로 한다.
상기 제어 모듈(170)은 상기 전자 장치들(101, 104)의 동작에 따른 제어 신호들을 생성할 수 있다. 또한 제어 모듈(170)은 상기 제어 신호를 통신 인터페이스(160)를 통해 전자 장치(104)로 전송할 수 있다. 전자 장치들(101, 104)은 상기 제어 신호들 각각에 따른 동작을 수행할 수 있다. 이때 제어 모듈(170)에 의해 결정된 전자 장치(104)의 동작은, 전자 장치(101)에서 수행되는 동작들과 유사하거나 동일할 수 있다.
예를 들어, 제어 모듈(170)은 사용자의 운동 강도가 약(弱)이고, 인커밍 콜을 수신하고 있는 경우 수신 전화 알림을, 전자 장치(101)로부터 전자 장치(104)로 전달하도록 제어할 수 있다. 그러나 상기 사용자의 운동 강도가 중(中) 이상이면 상기 수신 전화 알림을 전자 장치(104)로 전달하지 않도록 전자 장치(101)을 제어할 수도 있다.
예를 들어, 전자 장치(104)가 뮤직 플레이어 기능을 지원하고, 상기 전자 장치(104)를 소지한 사용자가 운동 중에 음악을 듣기 위하여 뮤직 플레이어를 실행시켰다고 가정한다. 사용자의 운동 강도가 약(弱)이면, 제어 모듈(170)은 상기 뮤직 플레이어의 모든 기능들 각각에 대응하는 버튼들이 모두 스크린에 표시되도록 전자 장치(104)를 제어할 수 있다. 반면에 사용자의 운동 강도가 강(强)이면, 제어 모듈(170)은 상기 뮤직 플레이어의 기능들 중 볼륨 조절 기능만을 사용자가 사용할 수 있도록 상기 뮤직 플레이어의 기능들 각각에 대응하는 버튼들 중 상기 볼륨 조절 기능에 대응하는 버튼들만 스크린에 표시되도록 전자 장치(104)를 제어할 수 있다.
도 2는 본 발명의 다양한 실시예들에 따른, 전자 장치(예를 들어, 전자 장치(101))의 제어 모듈(170)의 블록도(200)를 나타낸 도면이다.
도 2를 참조하면, 상기 제어 모듈(170)은 상태 결정 모듈(210), 방향 결정 모듈(220) 및 콘텐츠 제어 모듈(230)을 포함할 수 있다.
상기 상태 결정 모듈(210)은 상기 센서 모듈(180)에 포함된 하나 이상의 센서들(예를 들어, 가속도 센서, 자이로 센서, HRV 센서 등)로부터 수집된 센싱 데이터를 기초로 전자 장치(101)를 사용하고 있는 사용자의 현재 상태(이하, 사용자 상태)를 결정할 수 있다. 예를 들어, HRV 센서에 의하여 측정된 사용자의 심박수가 85~130이라면 상태 결정 모듈(210)은 사용자가 운동 중인 것으로 결정할 수 있다.
상기 상태 결정 모듈(210)에 의해 결정되는 사용자 상태는, 사용자가 하고 있는 운동의 종류, 운동의 진행 상태, 운동 강도, 사용자의 건강 상태를 포함할 수 있다. 한 실시예에 따르면, 전자 장치(101)는 사용자 상태를 보다 정확하게 파악하기 위하여 상기 사용자의 나이, 키, 몸무게 등과 같은 신체 정보를 사용자에 의해 미리 입력받을 수 있다.
한 실시예에 따르면, 상기 상태 결정 모듈(210)은 사용자에 대한 스트레스 지수를 결정할 수 있다. 예를 들어, 사용자의 심박수가 70~90인 경우를 정상이라고 가정한다. 상기 상태 결정 모듈(210)은 사용자의 심박수가 91~100이면 상기 사용자에 대한 스트레스 지수를 하(下)로 결정하고, 심박수가 101~115이면 상기 사용자에 대한 스트레스 지수를 중(中)으로 결정하고, 심박수가 116 이상이면 상기 사용자에 대한 스트레스 지수를 상(上)으로 결정할 수 있다. 또한 상태 결정 모듈(210)은 상기 스트레스 지수가 미리 설정된 수치 범위를 벗어나게 되는 경우 사용자가 현재 하고 있는 운동을 중단할 수 있도록 운동 중단 알람을 표시하도록 디스플레이(150)를 제어할 수 있다. 예를 들어 사용자에 대한 스트레스 지수가 상, 중, 하 중에서 중 또는 상에 해당하는 경우에도, 제어 모듈(170)은 사용자가 현재 하고 있는 운동을 중단할 수 있도록 운동 중단 알람을 표시하도록 디스플레이(150)를 제어할 수 있다.
방향 결정 모듈(220)은 센서 모듈(180)에 포함된 하나 이상의 센서들(예를 들어, 가속도 센서, 자이로 센서 등)로부터 수집된 신호들, 즉 센싱 데이터를 분석하여 디스플레이(150), 특히 콘텐츠들이 표시되는 스크린의 방향을 결정할 수 있다.
상기 방향 결정 모듈(220)은 스크린의 회전 방향을 계산할 수도 있다. 예를 들어, 전자 장치(101)가 손목시계형이면 하나 이상의 콘텐츠가 표시되는 스크린은 사용자의 왼속 손목 중앙을 기준으로 30도 회전된 상태일 수 있다.
콘텐츠 제어 모듈(230)은, 방향 결정 모듈(220)에 의하여 결정된 스크린의 방향을 기초로 상기 스크린에 표시되는 콘텐츠의 표시 방향을 결정할 수 있다. 예를 들어, 스크린에 표시되는 콘텐츠가 텍스트라고 하면, 콘텐츠 제어 모듈(230)은 스크린의 방향에 따라 상기 텍스트를 가로 또는 세로 방향으로 표시하는 것으로 결정할 수 있다. 즉, 콘텐츠 제어 모듈(230)은 상기 텍스트가 ‘좌(左)→우(右)’ 방향으로 출력되도록 디스플레이(150)를 제어하거나 또는 상기 텍스트가 ‘상(上)→하(下)’ 방향으로 출력되도록 디스플레이(150)를 제어할 수 있다.
한 실시예에 따르면, 콘텐츠 제어 모듈(230)은 하나의 화면에 표시되는 두 개 이상의 콘텐츠들 각각이 서로 다른 방향으로 출력되도록 디스플레이(150)를 제어할 수도 있다. 예를 들어, 스크린에 제1 텍스트, 제2 텍스트 및 이미지가 표시된다고 가정한다. 콘텐츠 제어 모듈(230)은 제1 텍스트 및 이미지는 ‘좌→우’ 방향으로 스크린에 표시되는 것으로 결정하고, 제2 텍스트는 ‘상→하’ 방향으로 스크린에 표시되는 것으로 결정할 수 있다.
콘텐츠 제어 모듈(230)은, 상태 결정 모듈(210)에 의하여 결정된 사용자 상태를 기초로 스크린으로 출력되는 콘텐츠의 표시 방식을 결정할 수 있다. 예를 들어, 사용자의 움직임이 격렬한 경우(예를 들어, 사용자가 움직임 강도가 높은 운동을 하는 경우) 상태 결정 모듈(210)은 디스플레이(150)를 통해 표시되는 콘텐츠의 수 또는 콘텐츠 각각의 크기를 제한할 수 있다. 또한 상태 결정 모듈(210)은 상기 콘텐츠의 사이즈를 증가시킴으로써 사용자가 용이하게 상기 콘텐츠를 확인할 수 있도록 할 수 있다. 예를 들어, 사용자가 운동을 하지 않거나, 가볍게 걷고 잇는 경우와 같이 사용자의 움직임이 격렬하지 않은 경우(예를 들어, 사용자가 운동을 하지 않는 경우), 상태 결정 모듈(210)은 디스플레이(150)를 통해 표시되는 콘텐츠의 수를 제한하지 않을 수 있다. 또한 상태 결정 모듈(210)은 상기 콘텐츠의 사이즈를 감소시키고, 한 화면에 복수 개의 콘텐츠가 표시되도록 디스플레이(150)를 제어하거나 또는 복수 개의 콘텐츠가 포함된 화면들이 순차적으로 표시되도록 디스플레이(150)를 제어할 수 있다.
본 발명의 일 실시예에 따른 콘텐츠를 표시하는 전자 장치는, 콘텐츠를 표시하는 스크린을 포함하는 디스플레이와, 센싱 데이터를 획득하고, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하고, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하고, 상기 콘텐츠를 표시하도록 상기 디스플레이를 제어하는 제어 모듈을 포함할 수 있다.
도 3은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 일 예를 나타낸 순서도이다.
도 3을 참조하면, 센서 모듈(180)은 제어 모듈(170)에 제어 하에 센싱 데이터를 수집할 수 있다(S302). 센싱 데이터는 센서 모듈(180)에 의하여 측정된 각종 센서값(예를 들어, 사용자의 혈압, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 혈당 등)을 포함할 수 있다.
전자 장치(101)의 제어 모듈(170)은 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정할 수 있다(S304). 사용자의 현재 상태는, 사용자가 운동을 하고 있는지 여부, 상기 사용자가 운동을 하고 있을 경우의 상기 운동의 종류, 운동 진행 상태, 운동 강도, 사용자의 건강 상태 등일 수 있다.
단계 S304에서 사용자의 현재 상태가 결정되면, 콘텐츠 제어 모듈(230)은 사용자의 현재 상태를 기초로 디스플레이(150)의 스크린에 표시할 콘텐츠를 결정할 수 있다(S308). 예를 들어, 사용자의 운동 강도가 상(上)이면 콘텐츠 제어 모듈(230)은 스크린에 표시할 콘텐츠로서, 현재 시각과 소모 칼로리를 결정할 수 있다. 반면에 운동 강도가 하(下)이면, 콘텐츠 제어 모듈(230)은 스크린에 표시할 콘텐츠로서, 현재 시각, 운동 시간, 소모 칼로리, 심박수 및 혈압으로서, 운동 강도가 중(中) 이상일 경우보다 더 많은 콘텐츠가 표시되도록 결정할 수 있다.
디스플레이(150)는 단계 S306에서 콘텐츠 제어 모듈(230)에 의하여 결정된 콘텐츠를 스크린에 표시할 수 있다(S308).
도 4는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 일 예를 나타낸 순서도이다.
도 4를 참조하면, 센서 모듈(180)은 제어 모듈(170)의 제어 하에 센싱 데이터를 수집할 수 있다(S402). 센싱 데이터는 센서 모듈(180)에 의하여 측정된 각종 센서값(예를 들어, 전자 장치(101)의 속도, 가속도, 기울기, GPS 좌표 등)을 포함할 수 있다.
전자 장치(101)의 제어 모듈(170)은 상기 센싱 데이터를 기초로 디스플레이(150)의 스크린의 방향을 결정할 수 있다(S404). 이때 스크린의 방향은, 예를 들어 상기 스크린이 LCD로 구현되었다고 가정할 때 상기 LCD로부터 광이 나오는 방향을 가리킬 수 있다. 예를 들어 전자 장치(101)가 원형 손목시계타입으로 구현되었다고 가정하면, 방향 결정 모듈(220)은 단계 S404에서 상기 전자 장치(101)의 가속도 센서 또는 자이로 센서에 의하여 측정된 센싱 데이터(예를 들어, 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향 또는 전자 장치(101)의 기울기 등)를 이용하여 상기 스크린의 지향 방향과 움직임(예를 들어, 손목에 장착된 상기 전자 장치(101)의 틸트 움직임)에 따라 변화된 상기 지향 방향의 변화를 결정할 수 있다.
단계 S404에서 스크린의 방향이 결정되면, 콘텐츠 제어 모듈(230)은 상기 스크린의 방향을 기초로 콘텐츠의 표시 방향을 결정할 수 있다(S406). 예를 들어, 콘텐츠 제어 모듈(230)은 스크린에 표시되는 텍스트를 가로 방향으로 표시하거나 또는 세로 방향으로 표시하는 것으로 결정할 수 있다.
디스플레이(150)는 단계 S406에서 결정된 상기 스크린의 표시 방향에 따라 하나 이상의 콘텐츠를 상기 스크린에 표시할 수 있다(S408).
도 4에서는 스크린의 방향이 상기 스크린이 향하는 방향을 가리키는 것으로 서술하였으나, 다른 실시예에 따라 스크린이 향하는 방향은, 상기 스크린에 표시되는 콘텐츠의 정렬 방향(orientation)일 수 있다. 예를 들어, 상기 스크린이 직사각형 LCD로 구현되었다고 가정한다. 상기 스크린의 방향은 직사각형 LCD에 표시되는 콘텐츠의 정렬 방향(예를 들어, ‘좌→우’, ‘위→아래’ 등)일 수 있다. 한 실시예에 따르면, 콘텐츠 제어 모듈(230)은 사용자의 팔 움직임 또는 사용자의 시선 방향을 판단하고, 상기 팔 움직임 또는 사용자의 시선 방향을 기초로 시선 방향을 기준으로 하여 상기 스크린이 회전된 각도를 판별할 수도 있다. 예를 들어, 콘텐츠 제어 모듈(230)은 전자 장치(101)가 풍경 모드(landscape mode) 인지 또는 인물 모드(portrait mode) 중 어느 것에 더 가까운지 여부를 판단할 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 또 다른 예를 나타낸 순서도이다.
도 5를 참조하면, 센서 모듈(180)은 제어 모듈(170)의 제어 하에 센싱 데이터를 수집할 수 있다(S502). 이때 센서 모듈(180)에 의하여 생성된 센싱 데이터는, 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향, 전자 장치(101)의 기울기 중 하나 이상을 포함할 수 있으며, 또한 센싱 데이터는 사용자의 혈압, 심박수, 호흡수, 산소 포화도, 칼로리 소비량, 근전도, 심전도 중 하나 이상을 포함할 수 있다.
전자 장치(101)의 제어 모듈(170)은 상기 센싱 데이터를 기초로 사용자의 현재 상태 또는 디스플레이(150)의 스크린의 방향을 결정할 수 있다(S504). 이때 스크린의 방향은, 예를 들어 스크린이 LCD로 구현되었다고 가정할 때 상기 LCD로부터 광이 나오는 방향을 가리킬 수 있다. 예를 들어 전자 장치(101)가 원현 손목시계타입으로 구현되었다고 가정하면, 방향 결정 모듈(220)은 단계 S504에서 상기 스크린의 방향이 사용자의 왼쪽 손목 중앙을 기준으로 시계 방향으로 30도 회전된 상태인 것으로 결정할 수 있다. 단계 S506에서 제어 모듈(170)에 의하여 결정되는 사용자의 현재 상태는, 예를 들어 웨어러블 장치로 구현된 전자 장치(101)를 착용한 사용자가 운동(예를 들어, 워킹, 조깅, 수영 등)을 하고 있는 상태일 수 있다.
단계 S504에서 사용자의 현재 상태 또는 스크린의 방향이 결정되면, 콘텐츠 제어 모듈(230)은 상기 사용자의 현재 상태 또는 스크린의 방향을 기초로 스크린에 표시할 콘텐츠 및 상기 콘텐츠의 표시 방향을 결정할 수 있다(S506). 예를 들어, 스크린에 표시될 콘텐츠가 텍스트인 ‘Message from Jim’이고, 상기 텍스트의 문자들의 폰트 사이즈는 동일한 것으로 가정한다. 콘텐츠 제어 모듈(230)은 스크린의 방향에 따라 상기 텍스트를 가로 방향으로 표시하거나 또는 세로 방향으로 표시하도록 디스플레이(150)를 제어할 수 있다. 또한 콘텐츠 제어 모듈(230)은, 사용자 상태가 운동 중인 것으로 결정되면 상기 텍스트 중 ‘Message from’와 ‘Jim’의 출력 사이즈가 서로 달라지도록 제어할 수 있다. 일 실시예에 따라 제어 모듈(170)은 동일한 폰트 사이즈를 가지는 상기 텍스트 ‘Message from Jim’을 처리하여 ‘Message from’의 폰트 사이즈를 감소시키고, ‘Jim’의 폰트 사이즈를 증가시킬 수 있다. 이때, ‘Jim’의 폰트 색상은 다른 텍스트와는 구별되는 다른 색일 수 있다.
디스플레이(150)는 단계 S506에서 결정된 표시 방향에 따라 콘텐츠를 상기 스크린에 표시할 수 있다(S508).
본 발명의 일 실시예에 따른 전자 장치의 동작 방법은, 가속도 센서 또는 자이로 센서를 통해 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.
본 발명의 다른 실시예에 따른 전자 장치의 동작 방법은, 외부 장치와 통신하는 통신 모듈이 상기 외부 장치와 연결되었는지 여부를 판단하는 동작과, 상기 외부 장치와의 연결 상태에 따라 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치의 동작 방법은, 하나 이상의 외부 장치들과 페어링하는 동작과, 모션 센서를 이용하여 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 또는 상기 생체 정보를 근거로 하여 상기 전자 장치로부터 상기 사용자에게 제공될 수 있는 서비스를 결정하는 동작과, 상기 외부 장치들을 이용하여 상기 서비스를 상기 사용자에게 제공하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법은, 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하는 동작과, 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법은, 스크린의 방향을 결정하기 위한 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하는 동작과, 상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작과, 상기 표시 방향에 따라 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
도 6은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법의 또 다른 예를 나타낸 순서도이다. 도 6에서 사용자는 운동을 하고 있는 것으로 가정한다.
도 6을 참조하면, 센서 모듈(180)은 제어 모듈(170)의 제어 하에 센싱 데이터를 획득할 수 있다(S602). 센서 모듈(180)에 의하여 획득된 센싱 데이터는, 전자 장치(101)의 이동 속도, 이동 가속도, 이동 방향, 전자 장치(101)의 기울기 중 하나 이상을 포함할 수 있으며, 또한 센싱 데이터는 사용자의 혈압, 심박수, 호흡수, 산소 포화도, 칼로리 소비량, 근전도, 심전도 중 하나 이상을 포함할 수 있다.
전자 장치(101)의 제어 모듈(170)은 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정할 수 있다(S604). 단계 S604에서 제어 모듈(170)에 의하여 결정되는 사용자의 현재 상태는, 예를 들어 웨어러블 장치로 구현된 전자 장치(101)를 착용한 사용자가 하고 있는 운동의 종류, 운동 강도, 운동 진행 상태 등을 포함할 수 있다. 사용자가 운동을 하고 있는 경우라면, 상기 사용자의 현재 상태는 사용자의 스트레스 지수를 포함할 수도 있다. 일 실시예에 따라 제어 모듈(170)은 단계 S604에서 사용자의 스트레스 지수를 결정할 수 있다. 상기 스트레스 지수는, 사용자가 하고 있는 운동, 운동의 강도, 운동의 진행 상태, 운동 소요 시간, 사용자의 체온, 혈압, 심박수 등을 기초로 결정될 수 있다.
단계 S604에서 사용자의 현재 상태가 결정되면, 제어 모듈(170)은 사용자의 스트레스 지수가 임계값 이상인지 여부를 판단할 수 있다(S606). 상기 임계값은, 사용자가 계속해서 운동을 해도 되는지 여부를 결정하기 위한 기준값일 수 있다. 예를 들어, 사용자의 심박수가 100 이상이면 제어 모듈(170)은 상기 스트레스 지수가 임계값 이상인 것으로 결정할 수 있다. 또한 사용자의 수축기 혈압이 160mmHg 이상이면 제어 모듈(170)은 스트레스 지수가 임계값 이상인 것으로 결정할 수 있다. 상기와 같이 스트레스 지수가 임계값 이상이면, 제어 모듈(170)은 사용자에게 운동을 중단할 것을 요청할 수 있다.
단계 S606의 판단 결과 스트레스 지수가 임계값 이상인 경우(S606: 예), 제어 모듈(170)은 디스플레이(150)를 제어하여 사용자에게 운동을 중단할 것을 요청하는 운동 중단 알람을 스크린에 표시할 수 있다(S608). 상기와 같이 운동 중단 알람을 표시함으로써 전자 장치(101)는 사용자가 무리한 운동을 함으로써 건강을 해치지 않도록 할 수 있다.
단계 S606의 판단 결과 스트레스 지수가 임계값 미만이면(S606: 아니오). 제어 모듈(170)은 사용자의 현재 상태에 따른 동작을 결정할 수 있다(S612). 제어 모듈(170)은 단계 S614에서 결정된 동작을 실행하도록 전자 장치(101)를 제어할 수 있다. 스트레스 지수가 임계값 미만이면, 제어 모듈(170)은 사용자가 운동을 계속하도록, 예를 들어 운동 코스 등을 스크린에 표시하도록 디스플레이(150)를 제어할 수 있다.
본 발명의 일 실시예에 따른 전자 장치의 동작 방법은, 센서 모듈을 통해 측정된 센서 데이터를 기초로 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.
본 발명의 다른 실시예에 따른 전자 장치의 동작 방법은, 외부 장치와 통신하는 통신 모듈이 상기 외부 장치와 연결되었는지 여부를 판단하는 동작과, 상기 외부 장치와의 연결 상태에 따라 전자 장치의 동작을 제어하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치의 동작 방법은, 하나 이상의 외부 장치들과 페어링하는 동작과, 모션가속도 센서 또는 자이로 센서를 이용하여 전자 장치의 움직임 정보를 판단하는 동작과, 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과, 상기 움직임 정보 또는 상기 생체 정보를 근거로 하여 상기 전자 장치로부터 상기 사용자에게 제공될 수 있는 서비스를 결정하는 동작과, 상기 외부 장치들을 이용하여 상기 서비스를 상기 사용자에게 제공하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법은, 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하는 동작과, 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
본 발명의 또 다른 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법은, 스크린의 방향을 결정하기 위한 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하는 동작과, 상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작과, 상기 표시 방향에 따라 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
도 7은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 7의 (a) 및 (b)에서 사용자는 전자 장치(101)를 신체의 일부분에 착용하고 있는 것으로 가정한다. 디스플레이(150)에 의하여 스크린에 표시되는 각종 콘텐츠들은 이미지의 형태로 표시될 수 있으며, 스크린 전체에 걸쳐 표시되는 이미지를 ‘화면 이미지’라 하기로 한다.
도 7의 (a)는 전자 장치(101)의 기본 화면 이미지(701)로서, 스크린에는 현재 시각, 날짜 및 요일이 포함되어 있다. 예를 들어, 사용자가 운동을 하고 있지 않은 경우에는 제어 모듈(170)은 기본 화면 이미지(701)를 표시하도록 디스플레이(150)를 제어할 수 있다.
도 7의 (b)는 사용자가 운동을 하고 있는 경우에 전자 장치(101)가 디스플레이(150)를 통해 스크린에 표시하는 콘텐츠의 일 예를 나타낸 것이다. 도 7의 (b)에서 사용자는 조깅을 하고 있는 것으로 가정한다. 도 7의 (b)를 참조하면, 전자 장치(101)의 제어 모듈(170)은 하나 이상의 운동 모드 화면 이미지들(711, 712, 713, 714)을 표시하도록 디스플레이(150)를 제어할 수 있다. 운동 모드 화면들에는 운동의 종류, 운동 시간, 잔여 시간, 이동 거리, 소모 칼로리, 사용자의 심박수, 운동으로 인한 스트레스 정도, 운동 진행률 등의 콘텐츠가 표시될 수 있다. 도 7의 (b)의 운동 모드 화면 이미지들(711-714) 각각은 운동 지수를 나타낸 화면 이미지(711), 운동 시간을 나타낸 화면 이미지(712), 사용자의 스트레스 정도를 나타낸 화면 이미지(713) 및 운동 진행률을 나타낸 화면 이미지(714)이다. 일 실시예에 따라 운동 모드 화면 이미지들(711, 712, 713, 714) 각각은 스크롤 입력 등과 같은 디스플레이(150)의 스크린을 통해 입력되는 사용자 입력에 의하여 다른 화면 이미지들로 전환될 수 있다. 예를 들어, 스크린(150) 상에 운동 모드 화면 이미지(711)가 표시되고 있는 상태에서 위에서 아래로 움직이는 스크롤 입력 또는 우에서 좌로 움직이는 스크롤 입력이 입력되면, 디스플레이(150)는 운동 모드 화면 이미지(711)를 운동 모드 화면 이미지(712)로 전환하여 표시할 수 있다. 도 7은 스크린을 통한 사용자 입력에 대해서만 서술하였으나, 다른 실시예에 따라 상기 사용자 입력은 음성 입력, 제스처 입력 등이 될 수 있다. 또한 전자 장치(101)는 사용자의 시선을 추적할 수 있으며, 추적된 사용자의 시선을 사용자 입력으로서 인식할 수 있다. 제어 모듈(170)은 상기 음성 입력, 제스처 입력, 사용자의 시선 등의 다양한 사용자 입력에 따라 전자 장치(101)를 제어, 예를 들어 스크린에 표시되는 화면 이미지를 전환하거나 스크롤을 제어할 수 있다.
전자 장치(101)가 운동 모드를 실행하고 있는 경우에는, 사용자가 운동을 하고 있으므로 전자 장치(101)가 운동 모드 화면 이미지(예를 들어, 운동 모드 화면 이미지들(711, 712, 713, 714))을 진동 등과 함께 표시한다고 하더라도 사용자가 확인을 하지 못하는 상황이 발생할 수 있다. 상기와 같이 사용자가 상기 운동 모드 화면 이미지를 확인하지 못한 경우, 전자 장치(101)는 사용자가 확인하지 못한 운동 모드 화면 이미지를 초기 화면 이미지 또는 기본 화면 이미지로 자동 설정할 수 있다. 예를 들어, 진동과 함께 특정 운동 모드 화면 이미지를 표시하였으나 사용자가 확인하지 못했다고 판단되는 경우 제어 모듈(170)은 상기 특정 운동 모드 화면 이미지를 사용자가 확인할 때까지 홈 화면 이미지로 설정할 수 있다. 이로써, 사용자는 상기 특정 운동 모드 화면 이미지를 확인하기 위하여 별도의 입력을 전자 장치(101)에 입력하지 않아도 된다. 또한 상기 특정 운동 모드 화면 이미지를 초기 화면 이미지로 설정함으로써, 사용자가 확인하지 않아도 되는 화면 이미지의 표시 횟수를 줄일 수 있고, 그로 인하여 전자 장치(101)의 전류 소모를 줄일 수 있게 된다.
도 8은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 8의 (a) 및 (b)에서 사용자는 전자 장치(101)를 신체의 일부분에 착용하고 있고, 사용자는 운동을 하고 있는 상태인 것으로 가정한다.
도 8의 (a)는 전자 장치(101)가 수신한 메시지의 개수 또는 새로운 메시지가 왔음을 알리기 위한 메시지 알림 화면 이미지(810)이다. 메시지 알림 화면 이미지(810)를 통해 디스플레이(150)는 사용자에 의하여 확인되지 않은 신규 메시지의 개수, 메시지의 발신자 및 현재 시각을 표시할 수 있다. 도 8의 (a)에서 사용자에 의하여 확인되지 않은 신규 메시지들은 6개이다.
전자 장치(101)는 메시지 알림 화면 이미지(810)를 표시한 상태에서 신규 메시지의 내용을 표시하기 위한 사용자 입력을 수신할 수 있다. 예를 들어, 메시지 알림 화면 이미지(810)가 스크린에 표시되고 상태에서, 전자 장치(101)는 메시지의 내용을 표시하기 위한 사용자 입력으로서, 사용자가 손가락 끝 또는 스타일러스 펜으로 스크린의 표면을 두드리는 사용자 입력을 수신할 수 있다. 제어 모듈(170)은 전자 장치(101)로 메시지의 내용을 표시하기 위한 사용자 입력이 입력되면 메시지 알람 화면 이미지(810)에서 메시지 표시 화면 이미지(820)로 화면 이미지가 전환되도록 디스플레이(150)를 제어할 수 있다.
도 8의 (b)는 신규 메시지들 중 하나의 내용을 표시하는 메시지 표시 화면 이미지(820)를 나타낸 것이다. 메시지 화면 이미지(820)를 통해 디스플레이(150)는 발신자, 메시지의 내용, 현재 시각 또는 수신 시각 등을 스크린에 표시할 수 있다.
한 실시예에 따르면, 전자 장치(101)는 메시지 표시 화면 이미지(820)에서 메시지 알람 화면 이미지로 화면 이미지를 전환할 수 있다. 도 8의 (b)와 같이 메시지 표시 화면 이미지(820)가 디스플레이(150)를 통해 표시되고 있는 상태에서, 전자 장치(101)는 메시지의 내용을 표시하기 위한 사용자 입력을 수신할 수 있다. 예를 들어, 메시지 알림 화면 이미지(810)가 디스플레이(150)를 통해 표시되고 상태에서, 전자 장치(101)는 메시지의 내용을 표시하기 위한 사용자 입력으로서, 사용자가 손가락 끝 또는 스타일러스 펜으로 스크린의 표면을 두드리는 사용자 입력을 수신할 수 있다. 제어 모듈(170)은 전자 장치(101)로 메시지의 내용을 표시하기 위한 사용자 입력이 입력되면 메시지 알람 화면 이미지(810)에서 메시지 표시 화면 이미지(820)로 화면 이미지가 전환되도록 디스플레이(150)를 제어할 수 있다.
도 9는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 9의 (a) 및 (b)에서 사용자는 전자 장치(101)를 신체의 일부분에 착용하고 있는 것으로 가정한다.
도 9의 (a) 및 (b)는 전자 장치(101)의 디스플레이(150)에 표시되는 화면 이미지들을 순서대로 나타낸 것으로서, 도 9의 (a)는 사용자가 운동을 하고 있지 않은 경우의 화면 이미지들이고, 도 9의 (b)는 사용자가 운동을 하고 있는 경우의 화면 이미지들이다.
일 실시예에 따라 전자 장치(101)가 웨어러블 장치로 구현되는 경우 스크린의 제한된 사이즈를 고려하여 카드 형식의 UI로 화면이 구성될 수 있다. 예를 들어, 스크린에 표시되는 화면 이미지들 각각은 페이지의 형태로 구성될 수 있으며, 사용자는 터치 또는 플릭(flick) 입력을 통해 순차적으로 페이지를 넘기면서 다른 페이지들을 조회할 수 있다. 이때 페이지들의 순서는 미리 정해져 있을 수 있으며, 도 9의 (a) 및 (b)는 카드 형식의 UI, 예를 들어 하나의 페이지가 하나의 화면에 표시되도록 구성되어 스크린에 표시되는 일 예를 나타낸 것이다. 이때, 페이지들의 순서는 사용자 입력에 따라 변경되거나 또는 전자 장치(101)에 의해 임의로 변경될 수 있다.
예를 들어, 전자 장치(101)가 다른 전자 장치(예를 들어, 전자 장치(104))와 통신 수단(예를 들어, 통신 인터페이스(160))을 통해 서로 연결된 경우, 전자 장치(101)는 상기 다른 전자 장치와의 연결 이벤트와 관련된 GUI들, 즉 페이지들을 우선적으로 스크린에 표시할 수 있다.
도 9를 일 예로 설명하면, 전자 장치(101)의 초기 화면 이미지가 현재 시각을 나타낸 현재 시각 화면 이미지(920)인 것으로 가정한다. 전자 장치(101)의 제어 모듈(170)은 현재 시각 화면 이미지(920)를 초기 화면 이미지로서 설정하고, 다른 화면 이미지들(910, 930, 940)보다 우선적으로 현재 시각 화면 이미지(920)를 표시하도록 디스플레이(150)를 제어할 수 있다.
일 실시예에 따라 전자 장치(101)는 다른 전자 장치(예를 들어, 전자 장치(104))로부터 메시지를 수신할 수 있다. 전자 장치(1010가 다른 전자 장치로부터 메시지를 수신하는 것을 ‘메시지 수신 이벤트’라 하기로 한다. 상기 메시지 수신 이벤트가 발생하는 경우, 전자 장치(101)의 제어 모듈(170)은 상기 메시지와 관련된 메시지 알람 화면 이미지(910)를 초기 화면 이미지로서 재설정할 수 있다. 메시지 알람 화면 이미지(910)가 초기 화면 이미지로 재설정되었으므로, 디스플레이(150)는 상기 메시지 알람 화면 이미지(910)를 다른 화면 이미지들(920, 930, 940)보다 우선적으로 표시할 수 있다. 또한 사용자 입력에 따라 ‘메시지 알람 화면 이미지(910) → 현재 시각 화면 이미지(920) → 운동 모드 화면 이미지(930) → 음악 재생 화면 이미지(940)’의 순서로 화면 이미지들이 전환될 수 있다.
다른 실시예에 따라 상기 메시지 수신 이벤트의 발생 후 미리 설정된 시간이 경과되면, 제어 모듈(170)은 다시 현재 시각 화면 이미지(920)를 초기 화면 이미지로 재설정하도록 전자 장치(101)를 제어할 수도 있다.
상기와 같이 전자 장치(101)는 디스플레이(150)를 통해 표시되는 화면 이미지들의 우선권을 변경할 수 있다. 일 실시예에 따라 전자 장치(101)는 사용자가 현재 조회 중이던 최근 화면 이미지들의 순서가 아니라 다른 전자 장치 등에 의해 발생된 이벤트(예를 들어, 메시지 수신 이벤트, 사용자 상태 알람 이벤트, 운동 모드 알람 이벤트 등)와 관련된 화면 이미지들 우선적으로 표시하도록 화면 이미지들 각각의 표시 순서를 변경할 수 있다. 이로써 사용자는 전자 장치(101)에 발생된 가장 최신의 이벤트나 정보를 용이하게 확인할 수 있다. 일 실시예에 따라 상기 이벤트가 발생된 후 미리 설정된 시간이 경과한 뒤에는, 전자 장치(101)는 별도의 사용자 입력을 수신하지 않아도 상기 화면 이미지들의 표시 순서를, 상기 이벤트가 발생되기 전의 화면 이미지 순서로 재변경할 수 있다. 이로써 사용자는 용이하게 전자 장치(101)에 표시되는 화면 이미지들을 순서대로 확인할 수 있다.
도 9의 (a)를 참조하면, 전자 장치(101)는 초기 화면 이미지로서 메시지 알람 화면 이미지(910)를 표시하고 있다. 전자 장치(101)는 도 9의 (a)에 도시된 바와 같이 ‘메시지 알람 화면 이미지(910) → 현재 시각 화면 이미지(920) → 운동 모드 화면 이미지(930) → 음악 재생 화면 이미지(940)’의 순서로 콘텐츠를 표시할 수 있다. 일 실시예에 따라 초기 화면 이미지인 메시지 알람 화면 이미지(910)는 사용자에 의해 지정된 초기 화면 이미지, 전자 장치(101)의 기본값으로서 지정된 초기 화면 이미지 또는 이전에 사용자가 전자 장치(101)를 사용했을 때의 종료 화면 이미지일 수 있다. 전자 장치(101)는 사용자 입력에 따라 화면 이미지를 전환할 수 있다. 메시지 알람 화면 이미지(910)가 표시되고 있는 상태에서 예를 들어 위에서 좌로 스크린의 표면을 미는 사용자 입력(스와입(swipe) 입력)이 감지되면 전자 장치(101)는 현재 시각 화면 이미지(920)를 표시할 수 있다. 반대로 좌에서 우로 스크린(150)의 표면을 미는 사용자 입력이 입력되면 전자 장치(101)는 음악 재생 화면 이미지(940)를 표시할 수 있다. 마찬가지로 현재 시각 화면 이미지(920)가 표시되고 있는 상태에서 좌에서 우로 스크린의 표면을 미는 사용자 입력 또는 좌에서 우로 스크린의 표면을 미는 사용자 입력이 입력되면 메시지 알람 화면 이미지(910) 또는 운동 모드 화면 이미지(930)가 표시될 수 있다.
운동 모드 화면 이미지(930)가 표시되고 있는 상태에서 좌에서 우로 스크린의 표면을 미는 사용자 입력 또는 좌에서 우로 스크린의 표면을 미는 사용자 입력이 입력되면 현재 시각 화면 이미지(920) 또는 음악 재생 화면 이미지(940)가 표시될 수 있다. 음악 재생 화면 이미지(940)가 표시되고 있는 상태에서 좌에서 우로 스크린의 표면을 미는 사용자 입력 또는 좌에서 우로 스크린의 표면을 미는 사용자 입력이 입력되면 운동 모드 화면 이미지(930) 또는 메시지 알람 화면 이미지(910)가 표시될 수 있다.
다른 실시 예에 따라 전자 장치(101)는 상기 전자 장치(101)가 호스트 디바이스고, 다른 전자 장치(104)가 웨어러블 장치로 구현된 컴패니언 디바이스이며, 상기 호스트 디바이스와 컴패니언 디바이스가 각각의 통신 수단을 통하여 서로 연결된 상태라고 가정한다. 또한 호스트 디바이스(예를 들어, 전자 장치(101))가 컴패니언 디바이스에서 표시되고 있는 데이터를 상기 호스트 디바이스에 표시할 수 있고, 마찬가지로 컴패니언 디바이스가 호스트 디바이스에서 표시되고 있는 데이터를 상기 컴패니언 디바이스에 표시할 수 있다고 가정한다.
호스트 디바이스는 하나 이상의 센서들이 장착된 컴패니언 디바이스(예를 들어, 웨어러블 장치)에서 발생되는 이벤트들에 우선권를 부여할 수 있다. 상기 호스트 디바이스(예를 들어 전자 장치(101))는 상기 컴패니언 디바이스와 관련된 이벤트를 호스트 디바이스 내에 발생되는 이벤트보다 우선적으로 표시할 수 있다.
예를 들어, 컴패니언 디바이스가 PPG 센서가 장착된 스마트 와치라고 가정한다. 컴패니언 디바이스는 상기 PPG 센서를 이용하여 상기 컴패니언 디바이스를 착용한 사용자의 생체 정보(예를 들어, 심박수)을 측정하여 자신의 스크린에 표시할 수도 있다. 또한 컴패니언 디바이스는 상기 PPG 센서를 통해 측정된 생체 정보를 호스트 디바이스로 전송할 수 있다. 호스트 디바이스는 상기 스마트 와치로부터 수신한 생체 정보를 자신의 스크린에 우선적으로 표시함으로써 사용자가 확인할 수 있도록 할 수 있다 즉 호스트 디바이스는 상기 생체 정보에 우선권을 부여하고, 상기 컴패니언 디바이스로부터 상기 생체 정보를 전달받는 동시에 상기 생체 정보를 실시간으로 자신의 스크린에 표시할 수 있다.
일반적으로 호스트 디바이스와, 웨어러블 장치인 컴패니언 디바이스 사이의 동기화는 실시간으로 이루어지는 것이 아니라 미리 설정된 일정 주기마다 이루어질 수 있다. 또한 호스트 디바이스와 컴패니언 디바이스 사이의 연결이 끊어져서 두 장치들 사이의 동기화가 이루어지지 않을 수도 있다. 그에 따라 사용자는 호스트 디바이스를 통해 상기 생체 정보 등의 건강과 관련된 알람(notification)을 확인하기 힘들게 될 수 있다.
상기 알람을 용이하게 확인할 수 있도록 본 발명의 일 실시예에서 따른 호스트 디바이스(예를 들어, 전자 장치(101))는 웨어러블 장치(예를 들어, 전자 장치(104))로부터 전달된 생체 정보 관련 이벤트에 우선권을 줄 수 있다.
도 9의 (b)는 사용자가 운동을 시작하거나 또는 운동을 하고 있는 경우에, 웨어러블 장치로 구현된 전자 장치(101)가 사용자의 운동량(예를 들어, 이동 거리, 소모 칼로리 등)을 포함하는 운동 모드 화면 이미지(930)를 초기 화면 이미지로서 표시한 것을 나타낸다.
전자 장치(101)의 제어 모듈(170)은 가속도 센서 또는 생체 센서에 의해 측정된 센싱 신호를 분석하여 사용자의 운동량이 미리 설정된 운동량 이상이거나 또는 미리 설정된 심박수 이상이면, 사용자의 현재 상태를 운동 상태로 결정할 수 있다. 사용자가 운동 중인 것으로 결정되면, 제어 모듈(170)은 별도의 사용자 입력을 수신하지 않았더라도 자동으로 운동 모드 화면 이미지(930)를 초기 화면 이미지로서 설정하여 스크린에 표시할 수 있다. 그에 따라 전자 장치(101)는 도 9의 (b)에 도시된 바와 같이 ‘운동 모드 화면 이미지(930) → 음악 재생 화면 이미지(940) → 메시지 알람 화면 이미지(910) → 현재 시각 화면 이미지(920)’의 순서로 콘텐츠를 표시할 수 있다. 도 9의 (a)와 유사한 방식으로 도 9의 (b)에서도 사용자 입력에 따라 화면 이미지들(910-940)이 전환될 수 있다.
도 10은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 10의 (a) 및 (b)에서 사용자는 전자 장치(101)를 신체의 일부분에 착용하고 있는 것으로 가정한다.
도 10의 (a)는 사용자가 운동을 하고 있지 않은 경우에 디스플레이(150)의 스크린에 의해 표시되는 화면 이미지들이고, (b)는 사용자가 운동을 하고 있는 경우의 화면 이미지들이다.
도 10의 (a)를 참조하면, 사용자가 운동을 하고 있지 않은 경우 전자 장치(101)의 디스플레이(150)는 메시지 알람 화면 이미지(1010)를 초기 화면 이미지로서 표시하고 있다. 또한 화면 이미지의 전환을 위한 입력, 예를 들어 사용자의 손가락 또는 스타일러스 펜으로 스크린의 표면을 위에서 아래로 밀어내는 동작이 전자 장치(101)에 입력되면, 제어 모듈(170)은 다른 화면 이미지를 표시하도록 디스플레이(150)를 제어할 수 있다. 도 10의 (a)에서는 부재중 전화 알림 화면 이미지(1020) 및 운동 스케줄 알림 화면 이미지(1030)가 메시지 알람 화면 이미지(1010) 다음으로 표시되고 있다.
사용자가 운동을 하고 있는 경우 제어 모듈(170)은 운동에 따른 사용자의 스트레스 정도를 초기 화면 이미지로서 표시하도록 디스플레이(150)를 제어할 수 있다. 도 10의 (b)는 사용자의 스트레스 레벨을 나타낸 스트레스 레벨 화면 이미지(1040)이다. 사용자가 운동을 시작하면, 제어 모듈(170)은 사용자로부터의 별도 입력이 수신하지 않았더라도 스트레스 레벨 화면 이미지(1040)를 초기 화면 이미지로서 자동 설정할 수 있다. 스트레스 레벨 화면(1040)을 초기 화면 이미지로 설정함으로써, 전자 장치(101)는 운동을 하고 있는 사용자가 실시간으로 자신의 스트레스 레벨을 확인할 수 있도록 할 수 있다.
한 실시예에 따르면, 사용자가 천천히 걷는 경우와 같이 사용자의 운동량이 미리 설정된 운동량 이하이거나 또는 HRV 센서에 의해 측정된 사용자의 스트레스 지수가 미리 설정된 지수 이하인 경우에는 도 10의 (a)와 같이 메시지 알람 화면 이미지(1010)를 초기 화면 이미지로서 설정할 수 있다. 또한 지나친 운동으로 사용자의 스트레스 지수가 미리 설정된 임계값 이상으로 높은 것으로 결정되면, 도 10의 (b)와 같이 스트레스 레벨 화면 이미지(1040)를 초기 화면 이미지로 설정하거나 또는 사용자의 스트레스 레벨 또는 사용자의 현재 상태를 스크린의 상단에 별도로 표시할 수 있다.
도 11은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 11의 (a) 및 (b)에서 사용자는 전자 장치(101)를 신체의 일부분에 착용하고 있는 것으로 가정한다. 또한 도 11에서 전자 장치(101)는 컴패니언 디바이스로서, 타 전자 장치(104)와 연동되는 것으로 가정한다.
도 11의 (a)는 전자 장치(101)가 호스트 디바이스인 전자 장치(104)와 연동되고 있는 경우에 디스플레이(150)를 통해 스크린에 표시되는 콘텐츠를 나타낸 것이다. 도 11의 (a)를 참조하면, 전자 장치(101)는 초기 화면 이미지로서 메시지 알람 화면 이미지(1110)를 표시하고 있다. 전자 장치(101)는 도 11의 (a)에 도시된 바와 같이 ‘메시지 알람 화면 이미지(1110) → 현재 시각 화면 이미지(1120) → 운동 모드 화면 이미지(1130) → 미디어 재생 화면 이미지(1140)’의 순서로 콘텐츠를 표시할 수 있다.
전자 장치(101)는 사용자 입력에 따라 스크린에 표시되는 화면 이미지를 전환할 수 있다. 메시지 알람 화면 이미지(1110)가 표시되고 있는 상태에서 예를 들어 우에서 좌로 스크린의 표면을 미는 사용자 입력 또는 좌에서 우로 스크린의 표면을 미는 사용자 입력이 입력되면 전자 장치(101)는 현재 시각 화면(1120) 이미지 또는 미디어 재생 화면 이미지(1140)를 스크린에 표시할 수 있다. 마찬가지로 현재 시각 화면 이미지(1120)가 표시되고 있는 상태에서 좌에서 우로 스크린(150)의 표면을 미는 사용자 입력 또는 좌에서 우로 스크린의 표면을 미는 사용자 입력이 입력되면 메시지 알람 화면 이미지(1110) 또는 운동 모드 화면 이미지(1130)가 스크린에 표시될 수 있다.
또한 전자 장치(101)는 전자 장치(104)의 연동을 통하여 호스트 디바이스에 저장된 콘텐츠 또는 호스트 디바이스에서 제공되는 기능들을 사용자에게 제공할 수 있다. 도 11의 (a)에서 메시지 기능 및 음악 재생 기능은 호스트 디바이스인 전자 장치(104)로부터 제공되는 것으로 가정하면, 메시지 알람 화면 이미지(1110) 및 미디어 재생 화면 이미지(1140)는 전자 장치(101)가 호스트 디바이스인 전자 장치(104)와 연동되고 있는 경우에만 디스플레이(150)를 통해 스크린에 표시될 수 있다.
도 11의 (b)는 전자 장치(101)가 호스트 디바이스인 전자 장치(104)와 연동되지 않는 경우, 즉 전자 장치(101)가 스탠드 얼론(stand alone) 모드로 동작하는 경우에 디스플레이(150)를 통해 스크린에 표시되는 화면 이미지들을 나타낸 것이다. 호스트 디바이스였던 전자 장치(104)와의 연동이 종료되면, 전자 장치(104)에 의하여 제공되는 기능들은 전자 장치(101)에 의하여 사용자에게 제공될 수 없다. 제어 모듈(170)은 전자 장치(104)와의 연결 여부와 상관없이 사용자에게 제공할 수 있는 기능들, 즉 전자 장치(104) 고유의 기능들에 따른 화면 이미지들만을 제공하도록 디스플레이(150)를 제어할 수 있다.
도 11의 (a)에 도시된 화면 이미지들(1110-1140) 중 메시지 알람 화면 이미지(1110) 및 미디어 재생 화면 이미지(1140)에 따른 기능들은 전자 장치(104)에 의하여 제공되는 기능이므로, 전자 장치(101)가 전자 장치(104)와 연동되지 않는 경우에는 사용자에게 제공될 수 없다. 따라서 도 11의 (b)에는 현재 시각 화면 이미지(1120) 및 운동 모드 화면 이미지(1130) 만이 디스플레이(150)를 통해 스크린에 표시될 수 있다.
일 실시예에 따라 웨어러블 장치로 구현된 전자 장치(101)가 단독으로 동작하는 경우, 예를 들어 호스트 디바이스(예를 들어 전자 장치(104))로부터 전송되는 메시지를 수신하지 않거나 또는 전자 장치(104)와의 연결이 종료된 경우 등에는, 제어 모듈(170)은 전자 장치(104)와의 통신이 필요한 모드와 연관된 화면 이미지를 제거할 수 있다. 즉 전자 장치(101)가 단독으로 동작하는 경우 제어 모듈(170)은 상기 전자 장치(101)가 단독으로 동작하였을 때 표시할 수 있는 모드 화면 이미지들만을 디스플레이(150)를 통해 표시할 수 있다. 그에 따라 웨어러블 장치로 구현된 전자 장치(101)에 저장된 멀티미디어 콘텐츠를 제어할 수 있는 경우에만, 제어 모듈(170)은 디스플레이(150)를 통해 미디어 재생 화면 이미지(1140)를 표시할 수 있다.
또 다른 실시예에 따라, 제어 모듈(170)은 특정 시각 또는 특정 위치에서 사용자가 자주 사용한 어플리케이션의 사용 이력을 메모리(130)에 기록할 수 있다. 현재 시각이 상기 특정 시각에 도달하는 이벤트, 혹은 전자 장치(101)가 상기 특정 위치에 진입하는 이벤트 중 하나 이상의 이벤트들이 발생하면, 제어 모듈(170)은 자동으로 상기 사용 이력을 기초로 상기 특정 시각 또는 특정 위치에서 사용자가 자주 사용한 어플리케이션의 초기 진입 화면 이미지를 디스플레이(150)를 통해 스크린에 표시할 수 있다. 일 실시예에 따라 제어 모듈(170)은 상기 특정 시각 또는 특정 위치에 도달하면, 사용자가 자주 사용한 어플리케이션을 상기 사용자가 용이하게 선택할 수 있도록 화면 이미지를 변경할 수도 있다.
제어 모듈(170)은 어플리케이션들 각각의 사용 빈도 또는 총 사용 시간 중 하나 이상을 기초로 어플리케이션들 각각의 선호도를 계산할 수 있다. 제어 모듈(170)은 어플리케이션들 각각의 선호도에 따라 상기 어플리케이션들 각각을 선택하기 위한 메뉴 또는 실행 아이콘을 임의로 배치할 수 있다. 예를 들어, 제어 모듈(170)은 디스플레이(150)를 통해 선호도가 높은 어플리케이션에 대응하는 실행 아이콘을 다른 실행 아이콘들보다 크게 표시하거나 또는 스크린의 가운데에 표시함으로써 사용자의 눈에 쉽게 띄도록 배치할 수 있다. 일 실시예에 따라 제어 모듈(170)은 전자 장치(101)의 위치 정보에 따른 어플리케이션들 각각에 대응하는 선호도를 평가할 수 있다. 어플리케이션별로 선호도가 높은 장소에 전자 장치(101)가 진입하거나 또는 상기 사용자가 상기 위치가 포함된 영역(예를 들어, 지오펜스(geofence) 설정 영역, AP(access point) 신호 강도가 미리 설정된 기준값 이상인 영역 등)에서 활동하는 동안에는, 상기 제어 모듈(170)은 디스플레이(150)를 제어하여 해당 어플리케이션을 실행하기 위한 메뉴 또는 실행 아이콘의 위치, 크기, 색상 중 적어도 하나의 속성을 변경하여 표시할 수 있다.
도 12는 본 발명의 다양한 실시예에 따른 전자 장치(101)가 콘텐츠를 표시하는 일 예를 나타낸 도면이다.
도 12의 (a)는 사용자(1201)가 운동을 하고 있지 않은 경우에 전화 수신의 거절을 위한 사용자 입력(1251)을 나타낸 도면이고, (b)는 사용자(1201)가 운동을 하고 있는 경우에 전화 수신의 거절을 위한 사용자 입력(1252)을 나타낸 도면이다. 도 12의 (a) 및 (b)에서는 “Peter smith”라는 발신자로부터 전자 장치(101)로 인커밍 콜을 수신하고 있는 것으로 가정한다.
도 12의 (a) 및 (b)를 참조하면, 전화 수신을 거절하기 위한 사용자 입력(1251, 1252)로서 사용자(1201)는 스크린(1210) 상의 임의의 한 지점(1230)에서 좌로 드래그할 수 있다. 상기와 같이 임의의 한 지점에서 다른 지점으로 드래그함으로써 전자 장치(101)에 입력되는 사용자 입력을 ‘드래그 입력’이라 하기로 한다.
도 12의 (a)의 드래그 입력(1251)과 (b)의 드래그 입력(1252)은 모두 전자 장치(101)로 걸려오고 있는 전화의 수신을 거절하기 위한 것이지만, 드래그 입력들(1251, 1252) 각각의 드래그 길이들(d1, d2)은 서로 상이하다. 도 12에서는 (a)에 도시된 드래그 입력(1251)의 드래그 길이(d1)보다 (b)에 도시된 드래그 입력(1252)의 드래그 길이(d2)가 더 길다. 도 12에서 사용자(1201)가 운동을 하고 있지 않을 경우 전자 장치(101)는, 드래그 입력(1251)의 길이가 d1 이상이면 전화의 수신을 거절할 수 있다. 또한 사용자(1201)가 운동을 하고 있을 경우, 전자 장치(101)는 드래그 입력(1252)의 길이가 d2 이상이어야 전화의 수신을 거절할 수 있다.
도 12의 (a)와 (b)가 모두 전화의 수신을 거절하기 위한 드래그 입력(1251, 1252)이기는 하지만, 사용자(1201)의 현재 상태, 즉 사용자(1201)가 운동을 하고 있는지 여부에 따라 상기 드래그 입력(1251, 1252)이 유효한지 여부를 판단하기 위한 기준값은 서로 다를 수 있다. 운동을 하고 있을 경우, 사용자(1201)는 운동을 하고 있지 않을 경우보다 움직임이 많으므로 전자 장치(101)에 잘못된 사용자 입력을 입력할 가능성이 있다. 그에 따라 도 12의 (a) 및 (b)에 도시된 바와 같이 사용자(1201)가 운동을 하고 있을 경우의 기준값이 운동을 하고 있지 않을 경우의 기준값보다 더 클 수 있다.
도 12의 (a) 및 (b)에 도시된 바와 같이 동일한 사용자 입력(1251, 1252)이라고 할지라도 상기 사용자 입력의 유효 여부를 결정하기 위한 기준값을 다르게 적용함으로써, 상기와 같은 사용자로부터의 잘못된 사용자 입력에 따라 전자 장치(101)가 오동작하는 것을 방지할 수 있다.
일 실시 예에 따라 사용자 입력(1230)은 스와입(swipe), 탭(Tap), 롱 프레스(long press), 호버링(hovering) 중 적어도 하나일 수 있다. 상기 사용자 입력(1230)을 입력받을 때, 제어 모듈(170)은 상기 사용자 입력(1230)을 식별하기 위한 기준값을 전자 장치(101) 또는 사용자의 현재 상태에 따라 다르게 적용할 수 있다. 예를 들어, 사용자의 움직임이 빠르거나 또는 사용자가 격렬한 운동을 하고 있는 경우, 사용자는 전자 장치(101)가 장착된 부위에서의 빠른 움직임 때문에 전자 장치(101)의 스크린을 확인하기 어려울 수 있다. 또한 사용자가 격렬한 운동을 하고 있는 경우, 그 격렬한 운동으로 인하여 사용자는 주의를 분산시키기 어렵거나 또는 스크린을 장시간 조회할 여유가 없을 수 있다. 상기와 같은 경우, 전자 장치(101)를 통해 입력되는 사용자 입력(예를 들어, 터치(touch), 플릭(flick) 등)은 사용자가 운동을 하지 않거나 사용자의 동작이 없는 상태인 경우보다 상기 사용자 입력에 따른 입력값(예를 들어, 입력 위치, 입력 패턴, 입력 강도 등)의 오차가 크거나 정확하지 않을 수 있다.
따라서 제어 모듈(170)은 상기 사용자 입력의 터치 강도, 플릭(flick) 또는 드래그(drag)의 거리, 터치되는 면적, 카메라 모듈(미도시)를 통해 입력되는 제스처의 크기, 터치 입력의 유지 시간, 제스처 입력의 속도 등에 따라 전자 장치(101)의 기능들 각각의 동작 여부를 결정할 수 있다.
도 13은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 13에서 전자 장치(101)는 디스플레이(150)를 통해 세로 UI를 표시하고 있다. 세로 UI는 세로가 긴 형태의 화면을 제공하는 UI이고, 가로 UI는 가로가 긴 형태의 화면을 제공하는 UI이다.
도 13을 참조하면 디스플레이(150)의 스크린에는 제1 내지 제3 화면 이미지들(1311, 1312, 1313)이 표시될 수 있다. 제1 화면 이미지(1311)는 알람과 관련된 콘텐츠를 포함하고, 제2 화면 이미지(1312)는 건강 관리와 관련된 콘텐츠를 포함하고, 제3 화면 이미지(1313)는 메시지와 관련된 콘텐츠를 포함할 수 있다. 도 13에서 전자 장치(101)는 제1 내지 제4 입력(1321, 1322, 1323, 1324)를 수신하면 스크린에 표시되는 화면 이미지를 전환할 수 있다. 도 13에서 화면 이미지의 전환을 위한 제1 내지 제4 입력(1321-1324)는 디스플레이(150)에 제2 화면 이미지(1312)가 표시되고 있는 상태에서 입력되고 있는 것으로 가정한다.
도 13을 참조하면, 제1 입력(1321)은 사용자가 손가락 또는 스타일러스 펜을 이용하여 스크린 상의 어느 한 지점을 선택한 상태에서 제2 화면 이미지(1312)를 아래에서 위로 밀어올리는 것이다. 제1 입력(1321)이 입력되면, 제어 모듈(170)은 제2 화면 이미지(1312)에서 제3 화면 이미지(1313)로 화면 이미지가 전환되도록 디스플레이(150)를 제어할 수 있다.
제2 입력(1322)은 사용자가 손가락 또는 스타일러스 펜을 이용하여 스크린 상의 어느 한 지점을 선택한 상태에서 제2 화면(1312)을 위에서 아래로 밀어내리는 것이다. 제2 입력(1322)이 입력되면, 제어 모듈(170)은 제2 화면 이미지(1312)에서 제1 화면 이미지0(1311)로 전환되도록 디스플레이(150)를 제어할 수 있다.
제3 입력(1323)은 사용자가 손가락 또는 스타일러스 펜을 이용하여 스크린 상의 어느 한 지점을 선택한 상태에서 제2 화면 이미지(1312)를 좌에서 우로 미는 것이다. 제3 입력(1323)이 입력되면, 제어 모듈(170)은 제2 화면 이미지(1312)에서 제1 화면 이미지(1311)로 화면 이미지가 전환되도록 디스플레이(150)를 제어할 수 있다.
제4 입력(1324)은 사용자가 손가락 또는 스타일러스 펜을 이용하여 스크린 상의 어느 한 지점을 선택한 상태에서 제2 화면(1312)을 우에서 좌로 미는 것이다. 제4 입력(1324)이 입력되면, 제어 모듈(170)은 제2 화면 이미지(1312)에서 제3 화면 이미지(1313)로 전환되도록 디스플레이(150)를 제어할 수 있다.
즉 수직 또는 수평 어느 방향으로 사용자 입력(예를 들어, 스와입(swipe) 입력)이 입력되어도 전자 장치(101)의 디스플레이(150)를 통해 표시되는 스크린 이미지 또는 메뉴 GUI는 수평 또는 수직으로 이동 또는 변경될 수 있다. 이로써 전자 장치(101)를 사용하는 사용자는 가로/세로 화면을 사용하는 전자 장치(101)에서의 화면 이미지의 자동 전환으로 인한 혼란을 느끼지 않을 수 있게 된다. 또한 도 13에 도시된 바와 같은 방식으로 화면 이미지의 전환이 이루어짐으로써 사용자는 통일되고 심플한 입력 방식으로 전자 장치(101)에 사용자 입력을 입력할 수 있다.
다른 실시예에 따라 도 13에 도시된 전자 장치(101)와 같이 세로가 긴 형태가 아니라 세로가 긴 형태인 경우에도 도 13에 도시된 바와 같은 사용자 입력, 예를 들어 사용자 인터페이스를 통해 입력된 스와입/플릭 신호들을 수신할 수 있다. 또한 도 13에서 설명한 바와 같은 화면 이미지의 전환 방식으로 전자 장치(101)의 화면 이미지가 자동으로 전환될 수 있다.
도 14는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다.
도 14를 참조하면, 전자 장치(101)는 호스트 디바이스로서 구현되어 컴패니언 디바이스인 전자 장치(104)와 연동될 수 있다. 도 14에 도시된 바와 같이, 컴패니언 디바이스인 전자 장치(104)는 웨어러블 장치(예를 들어 원형 손목시계타입의 웨어러블 장치 등)로 구현되어 사용자의 신체 일부에 착용될 수 있다. 또한 호스트 디바이스인 전자 장치(101)는 상기 전자 장치(104)와 가능한 위치에 위치하여 상기 전자 장치(104)를 제어할 수 있다. 도 14에서 전자 장치(104)는 전자 장치(101)의 제어 하에 운동 모드를 실행하고 있는 상태이며, 전자 장치(101)의 제어 하에 오디오 파일을 재생하고 있다. 전자 장치(101)는 재생 중인 오디오 파일에 대한 정보(예: 곡명, 재생 시간 등)와, 오디오 파일이 재생과 관련된 제어를 위한 메뉴(예: 볼륨 조절, 일시 정지, 멈춤 등)를 포함하는 화면(1450)을 표시할 수 있다.
일 실시 예에 따라 전자 장치(104)는 상기 전자 장치(104)를 착용한 사용자의 움직임 정도를 결정하고(예를 들어, 전력질주 또는 걷기 운동 등), 상기 움직임 정도에 따라 오디오 및 음성의 출력 레벨을 차등적으로 변경 적용할 수 있다. 이로써 전자 장치(104)는 사용자의 청각에 최적화된 소리의 출력 레벨 및 입력 레벨(예를 들어, 마이크 등)을 제공할 수 있다.
예를 들어, 사용자가 운동을 열심히 하는 중에 통화를 하게 된 경우, 전자 장치(104)는 상기 사용자가 운동을 하지 않을 때보다 스피커 또는 마이크의 출력을 높이거나 낮출 수 있다. 전자 장치(104)는 통화 음성 레벨을 다르게 하기 위하여 예를 들어, 스피커, 마이크, 블루투스 헤드셋, 헤드폰 등의 볼륨 조정, 감도 조정, 노이즈 필터링 조정 등을 통하여 입출력 레벨을 제어할 수 있다. 이로써 사용자는 운동 중에도 용이하게 전자 장치(104)로부터의 소리를 듣거나 또는 상기 전자 장치(104)에 소리를 입력할 수 있다.
도 15는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 15의 전자 장치(104)는 도 14에 도시된 원형 손목시계타입의 웨어러블 장치로서 호스트 디바이스(101)와 연동 상태일 수 있다.
도 15는 사용자의 움직임이 미리 설정된 기준값 이상일 때, 즉 사용자가 격렬하게 운동을 하고 있을 때에 전자 장치(104)가 사운드를 최대 레벨로 출력한 경우을 나타낸 것이다. 도 15의 전자 장치(104)는 “Let it Be”라는 제목의 노래 파일을 재생 중이며, 상기 노래 파일은 최대 볼륨으로 스피커를 통해 출력될 수 있다. 전자 장치(101)는 재생 중인 오디오 파일에 대한 정보(예: 곡명, 재생 시간 등)와, 오디오 파일이 재생과 관련된 제어를 위한 메뉴(예: 볼륨 조절, 일시 정지, 멈춤 등)를 포함하는 화면(1550)을 표시할 수 있다.
한 실시예에 따르면, 사용자의 움직임 정도가 미리 설정된 기준값 이상인 경우, 예를 들어 사용자가 하고 있는 운동의 강도가 강하면 사용자가 착용하고 있는 전자 장치(104)는 디스플레이를 통해 사용자에게 알람(notification)을 표시하는 동작을 일시적으로 중지할 수 있다.
전자 장치(104)는 알림을 표시하지 않고(Notification interrupt), 상기 알람을 전자 장치(104)의 메모리에 저장할 수 있다. 이후, 센서 모듈을 통해 감지된 사용자의 움직임 정도가 상기 미리 설정된 기준값 미만으로 결정되면, 메모리에 저장되어 있던 알람을 표시하여 사용자에게 제공할 수 있다. 이로써 전자 장치(104)는 전력 소모를 줄일 수 있고, 사용자로 하여금 편리하게 알람을 확인할 수 있도록 한다.
한 실시 예에 따르면, 전자 장치(104)는 스와입(swipe), 탭(tap), 롱 패스(long press), 호버링(hovering) 등의 다양한 사용자 입력을 사용자로부터 수신할 수 있다. 한 실시예에 따르면, 웨어러블 장치로 구현된 전자 장치(104)는 사용자가 운동 중이거나 또는 사용자의 동작이 미리 설정된 기준값 이상으로 클 때에는 일부의 사용자 입력을 차단함으로써 입력 오류를 줄일 수 있다. 예를 들어, 사용자가 푸쉬-업(push-up) 동작을 하고 있거나 또는 상기 푸쉬-업 동작을 한 직후라면, 호버링 입력이 전자 장치(104)로 정확하게 입력되지 않을 수 있다. 따라서 제어 모듈(170)은 일정 시간(예를 들어, 사용자가 푸쉬-업 동작을 하는 동안)에는 상기 호버링 입력을 입력받지 않거나 또는 입력되더라도 무시할 수 있다.
한 실시 예에 따르면, 전자 장치(101)에서 특정 어플리케이션(예를 들어 건강 관리, SNS, 전화, 알람, 이미지 뷰어, 미디어 재생 중 하나 이상과 관련된 어플리케이션)이 실행되면, 웨어러블 장치로 구현되는 외부 전자 장치(104)는 카운터 어플리케이션(counter application)을 표시할 수 있다. 상기 카운터 어플리케이션은, 상기 전자 장치(101)에서 실행되는 상기 특정 어플리케이션과 연관되거나 또는 상기 특정 어플리케이션의 적어도 일부의 기능을 포함하는 어플리케이션일 수 있다. 예를 들어, 호스트 디바이스(예를 들어, 전자 장치(101))가 사용자의 건강 관리 어플리케이션(예를 들어, 심박 센서, 음식 칼로리 관리, 칼로리 소모 체크, 운동 코칭 등과 관련된 어플리케이션)을 구동하고 있는 경우, 컴패니언 디바이스인 전자 장치(104)도 상기 사용자의 건강 관리 어플리케이션과 관련된 헬스 코칭(health coaching) 화면을 표시할 수 있다.
다른 예로서, 호스트 디바이스(예를 들어, 전자 장치(104))가 갤러리 어플리케이션을 통해 사진들을 표시하고 있다면, 컴패니언 디바이스인 전자 장치(101)도 갤러리 어플리케이션을 실행하거나 또는 상기 갤러리 어플리케이션에 진입하기 위한 사용자 인터페이스(UI)를 사용자에게 제공할 수 있다. 이로써 사용자는 전자 장치(101)를 통해서 용이하게 갤러리 어플리케이션에 접근할 수 있다. 또 다른 예로서, 사용자가 호스트 디바이스(예를 들어, 전자 장치(103))를 통해 동영상 재생 어플리케이션을 실행하는 경우, 컴패니언 디바이스인 전자 장치(101)에서도 동영상 재생 어플리케이션이 함께 실행될 수 있다. 이때, 호스트 디바이스에서는 동영상이 재생되고, 컴패니언 디바이스에서는 상기 동영상에 대한 정보(예를 들면, TV 채널 정보, 영화 제목 또는 출연진 정보 등) 또는 재생 리스트를 스크린에 표시할 수 있다, 물론 두 장치, 즉 호스트 디바이스와 컴패니언 디바이스의 스크린들이 동시에 동일한 콘텐츠를 표시할 수도 있다.
또 다른 예로서, 사용자가 호스트 디바이스(예를 들어, 전자 장치(104))를 통해 문서 편집 어플리케이션(예를 들어, 노트, 워드 프로세서 등)을 구동하고 있다고 가정한다. 상기와 같은 경우, 웨어러블 장치로 구현된 컴패니언 디바이스인 전자 장치(101)의 제어 모듈(170)은 상기 문서 편집 어플리케이션을 디스플레이(150)를 통해 스크린 상에 바로 팝업(pop-up) 표시할 수 있다. 또한 제어 모듈(170)은 사용자에 의한 한 번의 사용자 입력에 대응하여 상기 문서 편집 어플리케이션이 실행되도록 전자 장치(101)를 제어할 수도 있다. 예를 들어, 상기 컴패니언 디바이스인 전자 장치(101)의 제어 모듈(170)은 디스플레이(150)를 통해 스크린에 상기 문서 편집 어플리케이션과 관련한 아이콘 또는 문서 내용 중 최소 일부를 포함하는 콘텐츠를 팝업(pop-up)으로 표시할 수 있다 또한 사용자가 상기 팝업을 선택하거나 조작하면, 상기 제어 모듈(170)은 상기 문서 편집 어플리케이션을 구동하거나 상기 팝업 대신 문서 편집창을 표시하도록 디스플레이(150)를 제어할 수 있다.
도 16은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다.
도 16에서 전자 장치(101)와 전자 장치(104)는 연동 중인 것으로 가정한다. 일 실시예에 따라 전자 장치(101)는 호스트 디바이스고, 전자 장치(104)는 컴패니언 디바이스일 수 있다.
전자 장치들(101, 104)이 서로 연동되고 있으므로, 호스트 디바이스인 전자 장치(101)에서 실행되고 있는 어플리케이션이 컴패니언 디바이스인 전자 장치(104)에서도 실행될 수 있다.
도 16을 참조하면, 전자 장치(101)에서는 노트(note)와 관련된 어플리케이션이 실행되어 디스플레이(150)를 통해 스크린에 표시되고 있다. 그에 따라 컴패니언 디바이스인 전자 장치(104)에서도 노트와 관련된 어플리케이션이 실행되어 스크린(1650)에 표시되고 있다.
한 실시예에 따르면, 서로 연동되고 있는 전자 장치들(101, 104)이 동일한 어플리케이션을 실행하여 표시하고 있는 경우, 전자 장치(101) 또는 전자 장치(104)로 입력되는 사용자 입력에 따른 동작이 상기 전자 장치(101) 및 전자 장치(104)에 동시에 실행되어 표시될 수 있다. 예를 들어, 사용자가 전자 장치(104)를 통해 새로운 노트를 생성하였다면, 전자 장치(104)는 물론이고, 호스트 디바이스인 전자 장치(101)도 새로운 노트를 생성하여 디스플레이(150)를 통해 스크린에 표시할 수 있다.
도 17은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 17에서 전자 장치(101)는 디스플레이(150)를 통해 스크린에 가로가 긴 형태의 화면을 제공하는 가로 UI를 표시하고 있다. 또한 도 17에서 사용자는 운동을 하고 있는 것으로 가정한다.
도 17의 (a)는 사용자의 운동 강도가 약한 경우와 강한 경우 각각에 따라 디스플레이(150)를 통해 스크린에 표시될 수 있는 콘텐츠, 예를 들어 화면 이미지들(1711, 1712)을 나타낸 것이다. 이때 제어 모듈(170)은 사용자의 움직임 변화량, 움직임 속도, 운동 지속 시간, 단위 시간당 소모되는 칼로리량 등에 기초하여 상기 운동 강도를 결정될 수 있다.
도 17의 (a)를 참조하면, 사용자의 운동 강도가 약한 경우 스크린에는 사용자가 하고 있는 운동에 대한 정보, 예를 들어 운동의 종류(예를 들어, 달리기), 이동 거리(예를 들어, 6.2km), 상기 운동으로 인하여 소모된 칼로리(예를 들어, 234cal), 사용자의 심박수(예를 들어, 95) 및 운동 시간(예를 들어, 00:28:30)이 표시되고 있다. 운동 강도가 약한 경우에 사용자는 운동을 하는 동시에 전자 장치(101)의 스크린을 확인하는 것이 용이하다. 사용자의 운동 강도는 약한 편에 속하므로, 사용자는 지속적으로 운동을 하면서 전자 장치(101)의 디스플레이(150)는 상기의 콘텐츠, 예를 들어 운동의 종류, 이동 거리, 칼로리 소모량, 심박수, 운동 소요 시간 등을 포함하는 제1 화면 이미지(1711)을 전자 장치(101)로부터 제공받을 수 있다. 제1 화면 이미지(1711)에는 5가지의 콘텐츠들이 포함되고 있으나, 다른 실시예에 따라 5가지 이상의 콘텐츠들이 디스플레이(150)를 통해 표시될 수 있다. 다른 실시예에 따라 화면 이미지가 전환되면서 다수의 콘텐츠들이 디스플레이(150)를 통해 스크린에 표시될 수도 있다.
사용자의 운동 강도가 강해지면, 디스플레이(150)에 의하여 사용자의 운동 시간(예를 들어, 28:30)만을 포함하는 제2 화면 이미지(1712)가 사용자에게 제공될 수 있다. 운동 강도가 강한 경우에는, 사용자가 운동을 하는 동시에 전자 장치(101)의 스크린을 확인하는 것이 어려울 수 있다. 그에 따라 제어 모듈(170)은 상기 사용자가 하고 있는 운동에 대한 정보 중 제한된 수의 정보를 사용자에게 제공하도록 디스플레이(150)를 제어할 수 있다. 디스플레이(150)를 통해 사용자에게 제공되는 콘텐츠가 제한적인 경우, 제어 모듈(170)은 콘텐츠들 각각의 우선 순위에 따라 가장 우선 순위가 높은 콘텐츠를 먼저 표시하도록 디스플레이(150)를 제어할 수 있다. 도 17의 (a)에서는 운동의 종류, 이동 거리, 소모된 열량, 심박수, 운동 시간 중 운동 시간이 다른 콘텐츠들보다 우선 순위가 높은 것으로 가정한다.
도 17의 (a)와 마찬가지로 도 17의 (b)는 사용자의 운동 강도가 약한 경우와 강한 경우 각각에 따라 디스플레이(150)를 통해 표시될 수 있는 콘텐츠(예를 들어, 화면 이미지들(1713, 1714)를 나타낸 것이다.
도 17의 (b)를 참조하면, 사용자의 운동 강도가 약한 경우 스크린에는 사용자의 스케줄이 제3 화면 이미지(1721)와 같이 표시될 수 있다. 제3 화면 이미지(1321)에는 현재 시각, 스케줄 내용, 날짜, 위치 등이 포함되어 있다. 운동 강도가 약한 경우가 강한 경우에 비하여 디스플레이(150)의 스크린에 표시되는 각종 콘텐츠를 확인하기 용이하므로, 제어 모듈(170)은 여러 콘텐츠를 하나의 화면 이미지, 예를 들어 제3 화면 이미지(1721)에 모두 포함되어 표시되도록 전자 장치(101)를 제어할 수 있다.
반면에 사용자의 운동 강도가 강한 경우, 스크린에는 사용자의 스케줄이 제4 화면 이미지(1722)와 같이 표시될 수 있다. 제4 화면 이미지(1322)에는 스케줄 내용만이 포함되어 있다. 운동 강도가 강한 경우, 상기 운동 강도가 약한 경우에 비하여 사용자가 디스플레이(150)의 스크린에 표시되는 각종 콘텐츠를 확인하기 어려우므로, 제어 모듈(170)은 하나의 콘텐츠를 하나의 화면, 예를 들어 제4 화면 이미지(1722)에 포함되어 표시되도록 전자 장치(101)를 제어할 수 있다. 이때 제어 모듈(170)은 우선 순위에 따라 디스플레이(150)의 스크린에 표시할 콘텐츠를 결정할 수 있다. 도 17의 (b)에서 우선 순위가 가장 높은 콘텐츠는 스케줄 내용일 수 있다. 그에 따라 제어 모듈(170)은 스케줄 내용만을 스크린에 표시하도록 디스플레이(150)를 제어할 수 있다.
도 17에 도시된 바와 같이, 전자 장치(101)는 여러 정보 중 중요한 정보(예를 들어, 제2 화면 이미지(1712) 및 제4 화면 이미지(1722))만을 표시할 수 있지만, 다른 실시예에 따라 전자 장치(101)의 제어 모듈(170)은 여러 정보를 미리 설정된 시간마다(예를 들어, 10초) 순차적으로 화면 전환하여 표시할 수도 있다. 순차적으로 화면 이미지를 전환하여 정보를 표시하는 경우, 제어 모듈(170)은 디스플레이(150)를 통해 정보를 나타내기 위한 이미지, 문자, 숫자, 기호, 심볼, 애니메이션, 비디오, 아이콘, GUI 등의 크기 또는 모양을 사용자의 운동 레벨이나 운동 강도에 따라 다양하게 조절할 수 있다.
도 18은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 18에서 전자 장치(101)는 디스플레이(150)를 통해 가로가 긴 형태의 화면을 제공하는 가로 UI를 표시하고 있다. 또한 도 18에서 사용자는 운동으로서 조깅을 하고 있는 것으로 가정한다.
도 18의 (a) 내지 (c)는 사용자가 하고 있는 운동의 운동 강도에 따라 디스플레이(150)에 표시되는 콘텐츠, 예를 들어 화면 이미지가 각기 달라지는 것을 나타낸다. 예를 들어, 제어 모듈(170)은 운동 강도에 따라 스크린에 표시되는 화면 이미지에 포함되는 정보량 또는 GUI의 사이즈를 각각 다르게 할 수 있다.
운동의 강도를 강, 중, 약으로 나눌 수 있다고 가정하면, 도 18의 (a)는 운동 강도가 약일 때에 스크린에 표시되는 콘텐츠고, (b)는 운동 강도가 중일 때에 스크린에 표시되는 콘텐츠며, (c)는 운동 강도가 강일 때에 스크린에 표시되는 콘텐츠다.
도 18의 (a)를 참조하면, 운동 강도가 ‘약’인 경우 제어 모듈(170)은 운동의 종류(조깅), 운동 소요 시간(00:28:30), 운동 거리(6.2 km), 소모 칼로리(234kcal) 심박수(95)를 포함하는 제1 화면 이미지(1810)를 스크린에 표시하도록 디스플레이(150)를 제어할 수 있다. 또한 디스플레이(150)는 메뉴 버튼(1811)을 표시할 수 있다. 사용자로부터 상기 메뉴 버튼(1811)을 선택하는 사용자 입력을 수신하면, 전자 장치(101)는 상기 제1 화면 이미지(1810)에 표시된 콘텐츠들(운동의 종류, 운동 소요 시간, 운동 거리, 소모 칼로리, 심박수) 이외의 다른 콘텐츠를 표시할 수 있다.
또한 제어 모듈(170)은 제1 화면 이미지(1810)와 함께 제2 화면 이미지(1815)로서 운동 경로를 표시할 수 있다. 운동 강도가 약이므로 제어 모듈(170)은 제2 화면 이미지(1815)가 지도, 사용자의 현재 위치, 사용자의 이동 거리, 사용자의 이동 속도, 운동 소요 시간, 소모 칼로리, 심박수, 현재 시각, 이동 방향(120m 이동 후에 좌회전)을 포함하도록 디스플레이(150)를 제어할 수 있다. 또한 디스플레이(150)는 메뉴 버튼(1811)을 표시할 수 있다.
도 18의 (b)를 참조하면, 운동 강도가 ‘중’인 경우 제어 모듈(170)은 운동의 종류(조깅), 운동 소요 시간(00:28:30), 운동 거리(6.2 km)를 포함하는 제1 화면 이미지(1820)를 스크린에 표시하도록 디스플레이(150)를 제어할 수 있다. 또한 디스플레이(150)는 스크린에 메뉴 버튼(1821)을 표시할 수 있다. 사용자로부터 상기 메뉴 버튼(1821)을 선택하는 사용자 입력을 수신하면, 전자 장치(101)는 상기 제1 화면 이미지(1820)에 포함된 콘텐츠들(운동의 종류, 운동 소요 시간, 운동 거리) 이외의 다른 콘텐츠를 표시할 수 있다.
또한 제어 모듈(170)은 제2 화면 이미지(1820)와 함께 제2 화면 이미지(1825)로서 운동 경로를 표시할 수 있다. 운동 강도가 중이므로 제어 모듈(170)은 제2 화면(1825) 이미지가 지도, 사용자의 현재 위치, 사용자의 이동 거리, 사용자의 이동 속도, 운동 소요 시간, 소모 칼로리, 심박수, 이동 방향(120m 이동 후에 좌회전)을 포함하도록 디스플레이(150)를 제어할 수 있다. 또한 디스플레이(150)는 메뉴 버튼(1811)을 표시할 수 있으며, 도 18의 (b)에서의 제2 화면 이미지(1825)에 포함된 지도는 도 18의 (a)에서의 제2 화면 이미지(1815)에 포함된 지도보다 간략하게 표시된 것일 수 있다.
도 18의 (c)를 참조하면, 운동 강도가 ‘강’인 경우 제어 모듈(170)은 운동 거리(6.2 km)를 포함하는 제1 화면 이미지(1830)를 스크린에 표시하도록 디스플레이(150)를 제어할 수 있다. 또한 디스플레이(150)는 메뉴 버튼(1831)을 표시할 수 있다. 사용자로부터 상기 메뉴 버튼(131)을 선택하는 사용자 입력을 수신하면, 전자 장치(101)는 상기 제1 화면 이미지(1830)에 포함된 콘텐츠들(운동 거리) 이외의 다른 콘텐츠를 표시할 수 있다.
또한 제어 모듈(170)은 제1 화면 이미지(1830)과 함께 제2 화면 이미지(1835)로서 이동 방향을 표시할 수 있다. 운동 강도가 강이므로 제어 모듈(170)은, 제2 화면 이미지(1835)가 잔여 거리(3km), 예상 소요 시간(00:15:20), 이동 방향(120m 이동 후에 좌회전)을 포함하도록 디스플레이(150)를 제어할 수 있다. 또한 디스플레이(150)는 메뉴 버튼(1831)을 표시할 수 있으며, 도 18의 (c)에서의 제2 화면(1835) 이미지는 도 18의 (a) 및 (b)에서의 제2 화면 이미지들(1815, 1525)보다 더 간략하게 표시될 수 있으며, 콘텐츠들 중 지도가 생략될 수도 있다.
일 실시 예에 따라 전자 장치(101)는 디스플레이(150)를 통해 표시되는 각종 콘텐츠의 양을 조절할 수 있다. 전자 장치(101)의 제어 모듈(170)은 디스플레이(150)를 통해 표시되는 콘텐츠의 양을 레벨별로 조절할 수 있다. 이하에서는 디스플레이(150)를 통해 표시되는 콘텐츠의 양을 레벨로 나타낸 것을 ‘표시도 레벨’이라 하기로 한다. 전자 장치(101)의 제어 모듈(170)은 상기 표시도 레벨에 따라 디스플레이(150)를 통해 표시되는 콘텐츠의 양을 줄임으로써 상기 콘텐츠에 해당하는 정보를 단계별로 요약할 수 있다.
예를 들어, 일정표에 미팅 일정의 예정 시각, 장소, 목적, 참석자, 현재 시각, 상기 미팅 일정에 대응하는 아이콘 등의 상세 정보가 포함되어 있다고 가정한다. 표시도 레벨이 3이면 제어 모듈(170)은 상기 상세 정보가 모두 하나의 화면 이미지에 포함되어 표시되도록 스크린에 표시할 수 있다. 상기 표시도 레벨이 2이면, 제어 모듈(170)은 상기 미팅 일정의 예정 시각, 장소, 목적만 하나의 화면 이미지에 포함되도록 디스플레이(150)를 제어할 수 있다. 표시도 레벨이 1이면, 상기 제어 모듈(170)은 상기 미팅 일정까지의 남은 시간 및 장소만 하나의 화면에 표시하도록 디스플레이(150)를 제어할 수 있다.
다른 예로서, 전자 장치(101)가 콜 메시지 화면 이미지를 표시한다고 가정한다. 표시도 레벨이 3이면, 제어 모듈(170)은 발신자의 이름, 얼굴 사진, 전화번호가 하나의 화면 이미지에 포함되도록 디스플레이(150)를 제어할 수 있다. 표시도 레벨이 2이면, 제어 모듈(170)은 발신자의 이름과 전화번호가 하나의 화면 이미지에 포함되도록 디스플레이(150)를 제어할 수 있다. 표시도 레벨이 1이면, 제어 모듈(170)은 발신자의 이름만 하나의 화면 이미지에 표시되도록 디스플레이(150)를 제어할 수 있다.
또 다른 예로서 전자 장치(101)가 뉴스 기사(news article) 또는 메시지(SMS 또는 MMS)를 스크린에 표시한다고 가정한다.
표시도 레벨이 3이면, 제어 모듈(170)은 상기 뉴스 기사 또는 메시지의 상세 내용이 하나의 화면 이미지에 포함되어 표시되도록 디스플레이(150)를 제어할 수 있다. 표시도 레벨이 2이면, 제어 모듈(170)은 상기 뉴스 기사의 헤드라인 및 간략한 축약본 또는 상기 메시지의 축약본이 하나의 화면 이미지에 포함되어 표시되도록 디스플레이(150)를 제어할 수 있다. 표시도 레벨이 1이면, 상기 뉴스 기사의 헤드 라인 또는 상기 메시지의 앞부분 일부만 하나의 화면 이미지에 포함되어 표시되도록 디스플레이(150)를 제어할 수 있다. 또한 상기와 같은 데이터 처리를 위하여 자연어 처리나 통계적 기법에 의한 문서요약 엔진이 전자 장치(101)에 미리 설치될 수 있다. 다른 실시예에 따라 상기 문서용약 엔진은 외부 장치 또는 서버에 포함될 수 있으며, 전자 장치(101)는 통신 인터페이스(160)를 통해 상기 문서요약 엔진에 의해 요약된 뉴스 기사 또는 메시지를 수신하여 표시할 수도 있다.
또 다른 예로서, 전자 장치(101)의 제어 모듈(170)은 디스플레이(150)를 통해 표시되는 콘텐츠들 각각의 중요도를 레벨 단위로 사용자의 현재 상태 또는 현재 상황에 따라 결정할 수 있다. 또한 제어 모듈(170)은 상기 중요도에 따라 디스플레이(150)를 통해 표시할 콘텐츠를 결정할 수 있다. 예를 들어, 도 18의 (a)와 같이 사용자가 달리기를 시작한 직후인 경우 제어 모듈(170)은 중요도 레벨이 1인 콘텐츠들을 표시하도록 디스플레이(150)를 제어할 수 있다. 상기 중요도 레벨이 1인 콘텐츠는, 사용자의 달리기 경로를 포함하는 상세 지도, 사용자의 칼로리 소비량, 운동량일 수 있으며, 제어 모듈(170)은 상기 상세 지도 상에 칼로리 소비량 및 운동량이 번갈아 표시되도록 디스플레이(150)를 제어할 수 있다. 도 18의 (b)와 같이 사용자가 달리기를 시작한 후로부터 약간의 시간이 경과한 후부터는, 제어 모듈(170)은 중요도 레벨이 2인 콘텐츠들을 표시하도록 디스플레이(150)를 제어할 수 있다. 상기 중요도 레벨이 2인 콘텐츠는 도 18의 (b)에 도시된 바와 같이 사용자의 달리기 경로를 간단하게 나타낸 지도, 사용자의 달리기 속도, 칼로리 소모량일 수 있다. 제어 모듈(170)은 상기 간단한 지도 상에 사용자의 달리기 속도, 칼로리 소모량이 함께 표시되도록 디스플레이(150)를 제어할 수 있다. 도 18의 (c)와 같이 사용자가 달리기 시작한 후로부터 상당한 시간이 경과하였을 경우에는 제어 모듈(170)은 중요도 레벨이 3인 콘텐츠들을 표시하도록 디스플레이(150)를 제어할 수 있다. 중요도 레벨이 3인 콘텐츠는 달리기를 하고 있는 사용자의 이동 방향으로서, 제어 모듈(170)은 상기 이동 방향을 화살표 또는 텍스트로 간단하게 표시하도록 디스플레이(150)를 제어할 수 있다.도 19는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 19는 6개의 스크린 이미지들(1910, 1920, 1930, 1940, 1950, 1960)이 디스플레이(150)를 통해 표시되는 경우를 나타낸 것이다. 도 19에서 사용자는 현재 달리기를 하고 있으며, 그에 따라 제어 모듈(170)은 각 화면 이미지들(1910-1960)이 하나의 콘텐츠 및 메뉴 버튼(1905)만을 포함할 수 있도록 디스플레이(150)를 제어할 수 있다.
도 19를 참조하면, 제1 화면 이미지(1910)는 소모 칼로리(234kcal)와 메뉴 버튼(1905)를 포함하고, 제2 화면 이미지(1920)는 이동 거리(6.2km)와 메뉴 버튼(1905)을 포함하고, 제3 화면 이미지(1530)는 심박수(120)와 메뉴 버튼(1905)을 포함하고, 제4 화면 이미지(1940)는 이동 속도(12.2 km/h)와 메뉴 버튼(1905)을 포함하고, 제5 화면 이미지(1950)는 운동 종류(달리기)와 메뉴 버튼(1905)을 포함하고, 제6 화면 이미지(1960)는 운동 소요 시간(00:28:30)과 메뉴 버튼(1905)을 포함할 수 있다.
일 실시예에 따라 전자 장치(101)는 예를 들어, 스크린 상의 어느 한 지점을 선택한 상태에서 우에서 좌로 미는 사용자 입력이 입력된 경우 제1 화면 이미지(1910)에서 제2 화면 이미지(1920)로, 제2 화면 이미지(1920)에서 제3 화면 이미지(1930)로, 제3 화면 이미지(1930)에서 제4 화면 이미지(1940)로, 제4 화면 이미지(1940)에서 제5 화면 이미지(1950)로, 제5 화면 이미지(1950)에서 제6 화면 이미지(1960)로, 또는 제6 화면 이미지(1960)에서 제1 화면 이미지(1910)로 화면 이미지를 전환할 수 있다.
일 실시예에 따라 전자 장치(101)는 디스플레이(150)를 통해 표시되는 각각의 콘텐츠를 나타내기 위한 화면 이미지들을 미리 설정된 시간마다 순서대로 표시할 수 있다. 예를 들어, 10초마다 제1 화면 이미지(1910)에서 제2 화면 이미지(1920)로, 제2 화면 이미지(1920)에서 제3 화면 이미지(1930)로, 제3 화면 이미지(1930)에서 제4 화면 이미지(1940)로, 제4 화면 이미지(1940)에서 제5 화면 이미지(1950)로, 제5 화면 이미지(1950)에서 제6 화면 이미지(1960)로, 제6 화면 이미지(1960)에서 제1 화면 이미지(1910)로 전환할 수 있으며, 상기의 전환 동작을 반복할 수 있다. 또한 전자 장치(101)는 상기 사용자 입력으로서, 터치, 탭, 플릭, 스와입, 음성 입력, 전자 장치(101)에 미리 구비된 버튼 누름을 사용자로부터 입력받을 수 있다. 전자 장치(101)는 상기 사용자 입력에 따라 사용자가 원하는 모드를 실행하거나 사용자가 원하는 화면 이미지를 표시하거나 상기 화면 이미지를 전환할 수 있다.
한 실시예에 따르면, 전자 장치(101)는 예를 들어, 스크린 상의 어느 한 지점을 선택한 상태에서 좌에서 우로 미는 사용자 입력이 입력된 경우 제1 화면 이미지(1910)에서 제6 화면 이미지(1960)로, 제2 화면 이미지(1920)에서 제1 화면 이미지(1910)로, 제3 화면 이미지(1930)에서 제2 화면 이미지(1920)로, 제4 화면 이미지(1940)에서 제3 화면 이미지(1930)로, 제5 화면 이미지(1950)에서 제4 화면 이미지(1940)로, 또는 제6 화면 이미지(1960)에서 제5 화면 이미지(1650)로 화면 이미지를 전환할 수 있다.
도 20a 내지 도 20c는 본 발명의 다양한 실시예에 따른 전자 장치(101)가 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 도 20a 내지 도 20c에서 전자 장치(101)는 손목시계형의 웨어러블 장치로 구현된 것으로 가정한다. 또한 도 20a 내지 도 20c는 손목시계형의 웨어러블 장치로 구현된 전자 장치(101)가 사용자에게 착용되었을 때에, 상기 사용자가 손목에 착용한 웨어러블 장치로부터 출력되는 콘텐츠를 확인하는 경우들을 나타낸 도면이다.
도 20a의 (a)는 사용자가 오른손(2001)에 전자 장치(101)를 착용한 경우를 나타낸 것이고, (c)는 왼손(2002)에 전자 장치(101)를 착용한 경우를 나타낸 것이다. 또한 도 20a의 (b)는 사용자가 오른손(2001)에 전자 장치(101)를 착용했을 경우의 좌표계(2015)와 전자 장치(101)의 스크린으로 입사되는 시선 방향(2011)을 나타낸 것이다.
도 20a를 참조하면, 사용자의 오른손(2001) 또는 왼손(2002)에는 전자 장치(101)가 착용될 수 있다. 사용자의 오른손(2001) 또는 왼손(2002)에 전자 장치(101)가 착용되어 있는 경우, 사용자의 눈을 향하는 방향(사용자가 스크린을 바라보는 방향(2011)의 반대 방향, 즉 시선 반대 방향)(w)은 좌표계(2051)을 참조하면, 스크린의 방향(z), 즉 스크린이 향하는 방향과 일치하거나 유사하다.
스크린의 방향(z)과 시선 반대 방향(w)이 일치하거나 또는 스크린의 방향(z)와 시선 반대 방향(w)가 이루는 각의 각도가 미리 정해진 기준 각도(예를 들어, 30°) 이하로서 스크린의 방향(z)과 시선 반대 방향(w)이 유사하다면, 제어 모듈(170)은 상기 콘텐츠가, 도 20a에 도시된 바와 같이 가로 방향(좌→우)으로 출력되도록 상기 디스플레이(150)를 제어할 수 있다. 실시예에 따라 상기 스크린의 방향(Z)와 시선 반대 방향(w)이 이루는 각의 각도가 상기 미리 정해진 기준 각도를 초과하면, 즉 스크린의 방향(z)과 시선 반대 방향(w)이 유사하지 않은 경우에는 제어 모듈(170)은 상기 스크린에 콘텐츠를 표시하지 않도록 디스플레이(150)를 제어할 수 있다. 한 실시예에 따르면, 상기 스크린의 방향(z)와 시선 반대 방향(w)이 유사하지 않은 경우, 제어 모듈(170)은 상기 스크린의 전원을 오프(off)하거나 상기 전자 장치(101)를 저전력 장치로 동작시키거나, 상기 콘텐츠를 대신하는 다른 콘텐츠, 예를 들어 시계, 스크린 세이버, 날씨 정보, 잠금 화면 이미지 등을 스크린에 출력하도록 상기 디스플레이(150)를 제어할 수도 있다.
한 실시예에 따르면, 상기 스크린의 방향(z)과 시선 반대 방향(w)이 유사한 경우, 제어 모듈(170)은 콘텐츠의 보안 레벨을 기초로 하여, 상기 디스플레이(150)를 통한 스크린에서의 콘텐츠 출력 여부를 판단할 수 있다. 예를 들어, 전자 장치(101)를 착용한 사용자가 콘텐츠를 확인하기 용이하지 않은 상황인 것으로 가정한다. 상기 콘텐츠의 보안 레벨이 높은 경우, 예를 들어 상기 콘텐츠가 개인 정보, 건강 정보, 인커밍 콜(incoming call)의 발신자 정보 등인 경우, 제어 모듈(170)은 상기 콘텐츠를 표시하지 않도록 디스플레이(150)를 제어할 수 있다. 반면에 상기 콘텐츠의 보안 레벨이 낮은 경우, 예를 들어 상기 콘텐츠가 날씨나 시각인 경우, 제어 모듈(170)은 상기 콘텐츠를 표시하도록 디스플레이(150)를 제어할 수 있다. 한 실시예에 따르면, 보안 레벨이 낮은 콘텐츠의 경우, 사용자의 현재 상태와 관계없이 언제든지 디스플레이(150)를 통해 스크린에 출력될 수 있다.
상기에서 언급한 바와 같이, 콘텐츠는 2단계 이상으로 구분되는 보안 레벨을 가질 수 있다. 한 실시예에 따르면, 콘텐츠 각각에 대한 보안 레벨이 미리 결정되어 있을 수 있으며, 제어 모듈(170)에 의해 콘텐츠 각각의 보안 레벨이 결정될 수도 있다.
한 실시예에 따르면, 제어 모듈(170)은 상기 보안 레벨이 특정 레벨 이상이거나 또는 특정 레벨 미만인 콘텐츠만을, 상기 스크린의 방향(Z)과 시선 반대 방향(w)이 유사한 경우에 출력하도록 디스플레이(150)를 제어할 수도 있다.
또한 도 20a를 참조하면, 제어 모듈(170)은 전자 장치(101)의 스크린이, 도 20의 (a)에 도시된 좌표계(2051)의 x축과 y축을 기준으로 하여 가로가 긴 형태를 가진 것으로 판단할 수 있다. 또한 20a의 (a) 및 (c)의 스크린을 통해 출력되는 콘텐츠는 가로가 긴 형태를 가지거나 또는 가로가 긴 형태로 배열되어 표시될 수 있다. 도 20의 (a)를 참조하면, 좌표계(2051)의 y축은 전자 장치(101)의 스크린 표면(예를 들어, 스크린 표면의 중앙 지점)에서 상기 스크린의 네 변 중에서 길이가 긴 두 변과 수직으로 만나는 가상의 선분 방향이고, x축은 스크린 표면(예를 들어, 스크린 표면의 중앙 지점)에서 y축과 수직을 이루는 선분 방향이다. 제어 모듈(170)은 x축과 y축이 만나는 지점을 이용하여 상기 스크린의 방향(Z)(예를 들어, 스크린의 지향 방향, 스크린 표면 상의 노옴 벡터(norm vector))를 결정할 수 있다. 이때, 제어 모듈(170)은 상기 사용자의 시선 반대 방향(w)이 x축보다 y축에 근접한 것으로 판단할 수 있다. 예를 들어, 제어 모듈(170)은 상기 전자 장치(101)의 y축 방향이 중력 혹은 중력 반대 방향에 유사하거나, 사용자의 팔 또는 손목의 움직임에 근거하여 전자 장치(101)를 착용하고 있는 사용자의 현재 포즈를 상기 스크린의 가로변이 더 긴 상태의 포즈인 것으로 판단할 수 있다. 그에 따라 상기 제어 모듈(170)은 콘텐츠가 가로로 긴 형태로 출력되도록 디스플레이(150)를 제어할 수 있다.
도 20b의 (a)는 사용자가 오른손(2001)에 전자 장치(101)를 착용한 경우를 나타낸 것이고, (c)는 왼손(2002)에 전자 장치(101)를 착용한 경우를 나타낸 것이다. 또한 도 20b의 (b)는 사용자가 오른손(2001)에 전자 장치(101)를 착용했을 경우의 좌표계(2052)와 전자 장치(101)의 스크린으로 입사되는 시선 방향(2012)을 나타낸 것이다.
도 20b를 참조하면, 사용자에게 전자 장치(101)의 스크린은 좌표계(2052)의 x축과 y축을 기준으로 세로가 긴 형태를 가진다. 또한 20a의 (a) 및 (c)의 스크린을 통해 출력되는 콘텐츠는 세로가 긴 형태를 가지거나 또는 세로가 긴 형태로 배열되어 표시될 수 있다. 상기와 같이 스크린의 방향(z)과 시선 반대 방향(w)이 일치하거나 유사한 경우에는, 스크린의 세로가 가로보다 긴 경우라고 하더라도 제어 모듈(170)은 콘텐츠가 가로 방향(예를 들어, ‘좌→우’ 방향 또는 ‘우→좌’ 방향)으로 출력될 수 있도록 디스플레이(150)를 제어할 수 있다. 즉 제어 모듈(170)은 콘텐츠가 세로로 긴 스크린에 맞도록 레이아웃을 조절하여 상기 콘텐츠가 행 단위로 배열되어 출력되도록 디스플레이(150)를 제어할 수 있다. 다른 실시예에 따라 제어 모듈(170)은 콘텐츠가 세로 방향, 즉 ‘상→하’로 출력되도록 디스플레이(150)를 제어할 수도 있다. 예를 들어, 고대 한문책과 같이, 글자가 세로로 배열(열 단위로 정렬)되어 출력될 수도 있다.
한 실시예에 따르면, 스크린 상에 콘텐츠가 배치되는 방향(예: 가로 방향, 세로 방향, ‘좌→우’ 방향, ‘상→하’ 방향)은 사용자 입력에 따라 결정될 수 있다. 상기 사용자 입력은, 예를 들어, 메뉴의 선택, 버튼 선택 또는 아이콘 선택 등의 사용자의 조작일 수 있다. 상기 사용자 입력에 따른 콘텐츠의 배치 방식은 전자 장치(101)에 미리 설정되어 저장된 정보일 수 있으며, 제어 모듈(170)은 상기 사용자 입력에 따른 배치 방식에 따라 콘텐츠가 출력되도록 디스플레이(150)를 제어할 수 있다. 한 실시예에 따르면, 상기 콘텐츠의 배치 방식은, 상기 사용자 입력에 따라 변경될 수 있다. 예를 들어, 사용자는 전자 장치(101)에 상기 전자 장치(101)를 착용한 손이 무엇인지 입력함으로써, 콘텐츠 배치 방식을 제어 모듈(170)이 조정할 수 있도록 한다. 콘텐츠가 표시되는 스크린이 정사각형 또는 직사각형인 경우, 사용자가 전자 장치(101)를 착용한 손이 결정되면, 제어 모듈(170)은 상기 스크린의 4개의 변들 중 어느 변을 기준을 콘텐츠를 출력할 것인지 지정할 수 있다. 이로써 상기 콘텐츠의 배치 방식이 결정될 수 있다.
한 실시예에 따르면, 전자 장치(101)에 미리 구비된 하나 이상의 센서들은 전자 장치(101), 구체적으로는 스크린의 포즈를 감지하고, 그에 따른 포즈 정보(이하, 스크린 포즈 정보)를 생성할 수 있다. 예를 들어, 전자 장치(101)는 피치(pitch)되거나, 한쪽으로 기울거나(yaw) 또는 롤(roll)될 수 있으며, 전자 장치(101)에 미리 구비된 하나 이상의 센서들은 그 포즈들을 감지할 수 있다. 이때 전자 장치(101)에 포함된 스크린 또한 피치되거나, 한쪽으로 기울거나(yaw) 또는 롤(roll)될 수 있다. 상기 스크린 포즈 정보는 상기 스크린이 현재 취하고 있는 포즈를 나타내는 정보를 나타낸다. 제어 모듈(170)은 상기 스크린 포즈 정보에 기초하여 콘텐츠의 출력 여부 또는 콘텐츠의 배치 방식을 결정하거나 또는 변경할 수 있다. 예를 들어, 제어 모듈(170)은 전자 장치(101)에서 제공되는 가속도 센서나 자이로 센서에 의해 측정된 센싱 데이터에 기초하여 스크린의 방향(z)을 결정할 수 있다. 또한 제어 모듈(170)은 상기 스크린의 방향(Z)에 따라 가로 모드(landscape mode, horizontal mode)로 콘텐츠를 표시하거나 또는 세로 모드(portrait mode, vertical mode)로 콘텐츠를 표시하는 등의 상기 콘텐츠를 배열하는 방식을 결정할 수 있다.
한 실시예에 따르면, 상기 하나 이상의 센서들은 상기 전자 장치(101)의 움직임을 감지하고, 그에 따른 움직임 정보(이하, 장치 움직임 정보)를 생성할 수도 있다. 예를 들어, 전자 장치(101)는 틸트(tilt)되거나 또는 회전될 수 있으며, 상기 하나 이상의 센서들은 상기 전자 장치(101)의 움직임을 감지할 수 있다. 상기 장치 움직임 정보는 상기 전자 장치(101)에서 발생되는 각종 움직임에 대한 정보를 나타낸다. 제어 모듈(170)은 상기 장치 움직임 정보에 기초하여 콘텐츠의 출력 여부 또는 콘텐츠의 배치 방식을 결정하거나 변경할 수 있다.
한 실시예에 따르면, 제어 모듈(170)은 사용자의 눈이 디스플레이(150)의 스크린과 이루는 각도(예를 들어, 시선이 스크린을 향한 방향(-w)과 스크린의 지향 방향(Z)이 이루는 각도)를 기초로 하여 콘텐츠의 출력 여부 또는 콘텐츠의 배치 방식을 결정하거나 변경할 수도 있다.
한 실시예에 따르면, 사용자의 시선 반대 방향(w)은 전자 장치(101)에 내장된 별도 센서(예를 들어, 카메라, IR 카메라, 또는 시선추적 장치)에 기반하여 판단될 수 있다. 예를 들어, 전자 장치(101)에는 스크린과 같은 방향을 향하는 카메라 장치(미도시)가 장착되고, 해당 카메라를 통해 입력된 이미지에서 얼굴 영역이나 눈을 포함하는 영역을 분석하여 사용자의 시선이나 사용자의 얼굴이 스크린을 향하고 있는지 여부를 판단할 수 있다. 예를 들어, 제어 모듈(170)은 사용자의 얼굴 또는 눈을 촬영한 이미지에서 사용자의 눈 영역, 얼굴 영역 또는 눈동자 영역을 추출할 수 있다. 제어 모듈(170)은 상기 눈 영역, 얼굴 영역 또는 눈동자 영역 중 하나 이상을 기초로 하여 사용자의 시선 반대 방향(w)을 판단할 수 있다. 이때, 제어 모듈(170)은 상기 눈 영역, 얼굴 영역 또는 눈동자 영역 각각의 형태 또는 면적을 기초로 상기 사용자의 시선 반대 방향(w)을 판단할 수 있다.
한 실시예에 따르면, 상기 얼굴 이미지 또는 눈 이미지를 기초로 하여 사용자의 얼굴에 대한 포즈 정보(이하, 얼굴 포즈 정보)를 확인할 수도 있다. 예를 들어, 제어 모듈(170)은 상기 얼굴 이미지를 통하여 사용자의 눈, 코, 입 등의 얼굴을 구성하는 구성 요소들 각각의 배치 형태를 알 수 있으며, 눈 이미지를 통하여 눈들 각각의 상대적인 위치, 눈들 각각의 모양을 알 수 있다. 상기 제어 모듈(170)은 상기 정보들을 기초로 상기 얼굴 포즈 정보, 예를 들어 상기 사용자의 얼굴 또는 동공의 지향 중 하나 이상을 감지할 수 있다.
한 실시예에 따르면, 제어 모듈(170)은 상기 얼굴 포즈 정보를 기초로 상기 장치 포즈 정보 또는 상기 스크린 포즈 정보를 결정할 수도 있으며, 상기 장치 포즈 정보 또는 스크린 포즈 정보를 기초로 스크린을 통해 출력되는 콘텐츠의 배치 방식을 결정할 수도 있다. 즉, 제어 모듈(170)은 얼굴 포즈 정보를 이용하여 전자 장치(101)에 미리 구비된 카메라 모듈의 정렬 방향(orientation) 또는 장치 포즈 정보를 결정할 수 있다. 또한 제어 모듈(170)은 상기 얼굴 포즈 정보를 이용하여 상기 스크린 포즈 정보나 상기 카메라 모듈의 정렬 방향(orientation)을 결정할 수도 있다.
한 실시 예에 따르면, 상기 사용자의 시선 반대 방향(w)은, 상기 전자 장치(101)의 움직임이나 포즈(예: pitch, yaw, roll)를 나태는 정보, 예를 들어 장치 포즈 정보, 스크린 포즈 정보 등을 기초로 결정될 수 있다. 또한 상기 전자 장치(101)의 움직임 또는 포즈를 나타내는 정보는 가속도 센서, 자이로 센서 및 지자기 센서 중 하나 이상을 이용하여 감지되거나 결정될 수 있다.
도 20a 및 20b는 사용자가 전자 장치(101)를 착용한 손목을 위에서 내려다 보는 예에 해당한다. 도 20a 및 20b에서, 전자 장치(101)의 스크린의 방향(Z)은 지표면 반대 방향 또는 상기 지표면 반대 방향과 유사한 방향을 향하게 된다. 전자 장치(101)는 상술한 센서들 중 적어도 하나를 이용하여 상기 전자 장치(101)의 움직임 또는 포즈를 나타내는 정보를 결정하고 있다. 이어서 전자 장치(101)는 상기 전자 장치(101)의 움직임 또는 포즈를 나타내는 정보를 기초로 하여 스크린이 지향하는 방향, 즉 스크린의 방향(z)을 결정할 수 있다. 이어서 전자 장치(101)는 상기 스크린의 방향(z)이 지표면 반대 방향(미도시)으로부터 소정의 기준 각도 이내(예를 들어, 45°)이면 콘텐츠가 상기 디스플레이(150)를 통해 스크린에 출력되도록 제어할 수 있다.
다른 실시예에 따르면, 스크린의 방향(z)이 지표면을 향하는 경우에는 사용자가 상기 스크린을 확인할 수 없을 것으로 예측될 수 있다. 상기 스크린의 방향(Z)과 지표면의 지향 방향(미도시)가 이루는 각도가 소정의 기준 각도 이내(예를 들어, 45°)이면, 전자 장치(101)의 제어 모듈(170)은 콘텐츠가 상기 디스플레이(150)의 스크린에 출력되지 않도록 제어할 수 있다.
한 실시예에 따르면, 스크린의 움직임 또는 포즈를 하나 이상의 센서들을 이용하여 감지함으로써, 스크린에 표시되는 콘텐츠의 배치 방향을 결정할 수도 있다. 예를 들어, 제어 모듈(170)은 스크린에 콘텐츠가 가로가 긴 형태로 표시되는 가로 모드(landscape mode, horizontal mode) 또는 세로가 긴 형태로 표시되는 세로 모드(portrait mode, vertical mode)로 상기 콘텐츠가 표시되도록 디스플레이(150)를 제어할 수 있다.
도 20c의 (a)는 사용자가 오른손(2001)에 전자 장치(101)를 착용한 경우를 나타낸 것이고, 도 20c의 (c)는 왼손(2002)에 전자 장치(101)를 착용한 경우를 나타낸 것이다. 또한 도 20c의 (b)는 사용자가 오른손(2001)에 전자 장치(101)를 착용했을 경우의 좌표계(2053)와 전자 장치(101)의 스크린으로 입사되는 시선 방향(2013)을 나타낸 것이다.
도 20c를 참조하면, 사용자의 오른손(2001) 또는 왼손(2002)에는 전자 장치(101)가 착용되어 있다. 사용자의 오른손(2001) 또는 왼손(2002)에 전자 장치(101)가 착용되어 있는 경우, 사용자의 눈을 향하는 방향(시선 반대 방향)(w)은 좌표계(2053)을 참조하면, 디스플레이(150)에 포함된 스크린의 방향(z), 즉 디스플레이(150)가 향하는 방향과 유사하지 않거나 서로 반대이다. 예를 들어, 사용자가 전자 장치(101)를 착용한 상태에 따라 도 20c에 도시된 스크린의 방향(z)와 시선 반대 방향(w)이 유사하지 않거나 서로 반대일 수 있다.
스크린의 방향(z)과 시선 반대 방향(w)이 서로 반대이거나 또는 스크린의 방향(z)와 시선 반대 방향(w)이 이루는 각의 각도가 미리 정해진 기준 각도(예를 들어, 30°) 이상으로서, 상기 스크린의 방향(z)과 시선 반대 방향(w)이 유사하지도 않다면, 제어 모듈(170)은 스크린에 콘텐츠가 출력되지 않도록 디스플레이(150)를 제어할 수 있다. 스크린의 방향(z)과 시선 반대 방향(w)이 서로 반대이거나 유사하지 않는 경우는, 상기 사용자의 시선 방향이 스크린의 방향(z)과 일치하거나 유사함을 의미할 수 있다. 따라서 스크린에 콘텐츠가 출력된다고 하더라도, 사용자는 그 콘텐츠를 확인할 수 없게 된다. 상기와 같은 경우 제어 모듈(170)은 디스플레이(150)가 상기 콘텐츠를 스크린에 출력하지 않도록 하거나 또는 스크린을 오프(off)시킴으로써 상기 스크린을 켜둠으로써 발생될 수 있는 전력 낭비를 방지할 수 있다.
한 실시예에 따르면, 상기 제어 모듈(170)은, 예를 들어, 가속도 센서, 또는 자이로 센서로부터 획득한 센싱 데이터를 기초로 움직이고 있는 사용자가 착용하고 있는 전자 장치(101)의 스크린의 방향(z)을 결정할 수도 있다. 아래 표 1은 제어 모듈(170)이 스크린의 방향(z)을 결정하기 위해 사용할 수 있는 파라미터들을 나타낸 것이다. 상기 파라미터들은 메모리(130)에 저장된 것일 수 있다.
아래의 표 1은 전자 장치(101)가 사용자의 손목에 착용 가능한 팔찌형 또는 손목시계형으로 구현된 웨어러블 장치인 경우를 가정한 것이다. 상기와 같은 웨어러블 장치로 전자 장치(101)가 구현된 경우, 제어 모듈(170)은 아래 표 1를 참조하여 상기 전자 장치(101)가 착용된 사용자의 신체부위(예를 들어, 왼손 손목, 오른손 손목, 손등 인접 부위, 손바닥 인접 위치 등)와 상기 스크린의 방향(z)을 결정할 수 있다.
한 실시예에 따르면, 사용자는 전자 장치(101)를 최초 착용한 후, 상기 전자 장치(101)를 착용한 상태에서 움직일 수 있다. 특히, 사용자가 손목 부위의 회전 운동 또는 틸트 운동을 하면, 전자 장치(101)는 상기 사용자의 원활하게 운동을 하고 있는 운동 방향을 감지함으로써, 상기 전자 장치(101)가 장착된 사용자의 신체 부위를 판단할 수 있다.
예들 들어, 도 20b에 도시된 바와 같이 왼손 손목의 손등 인접 위치에 전자 장치(101)를 장착했다고 가정한다. 이때 콘텐츠가 표시되는 스크린의 방향(z)은 지표면 반대 방향인 것으로 가정한다. 상기 사용자는 손바닥이 위로 향하도록, 즉 전자 장치(101)의 스크린의 방향(z)이 지표면 방향을 향하도록 움직이거나 운동할 때, 사용자는 상기 전자 장치(101)가 착용된 왼손 손목을 반시계 방향으로 용이하게 틸트시킬 수 있다. 그러나 사용자가 전자 장치(101)가 착용된 왼속 손목을 시계 방향으로 틸트시켜서 전자 장치(101)의 스크린의 방향(z)이 지표면 방향을 향하도록 움직이거나 운동하기는 용이하지 않으며, 그에 따른 회전 각도 또한 상대적으로 제한된다. 이는 사람의 신체 부위별 운동 능력에 따른 것이므로, 사용자가 전자 장치(101)를 장착한 후의 원활한 운동 방향을 감지함으로써, 전자 장치(101)는 상기 전자 장치(101)가 장착된 신체상의 위치 또는 위치 후보를 판별할 수도 있다.
전자 장치(101)가 장착된 손이 어느 쪽인지 모르는 경우, 제어 모듈(170)은 손목의 움직임에 따라 상기 전자 장치(101)의 장착 위치 후보를 2개씩 결정할 수 있다. 다른 실시예에 따라 표 1에서와 같이, 제어 모듈(170)은 사람이 대부분 손등을 지표면 반대 방향으로 향하도록 하는 성향(예를 들어, 손목에 착용한 전자 장치(101)에 내장된 스크린의 주된 방향을 판별하려는 성향)을 기초로 하여 상기 전자 장치(101)의 장착 위치 후보를 하나로 결정할 수도 있다.
표 1
전자 장치의 스크린의 주된 방향(z) 손목 틸트 운동 시 전자 장치의 원활한 회전 방향 손목 틸트 운동 후 스크린의 지향 방향(z) 손목이 틸트된 상태에서 이후 틸트 운동 시 원활한 회전 방향 판별된 전자 장치의 장착 위치
지표면 반대 방향 반시계 방향(시계 방향은 상대적으로 제한됨) 지표면 방향 시계 방향(반시계 방향은 상대적으로 제한됨) 왼손 손목의 손등인접 위치
지표면 반대 방향 시계 방향(반시계 방향은 상대적으로 제한됨) 지표면 방향 반시계 방향(시계 방향은 상대적으로 제한됨) 오른손 손목의 손등인접 위치
지표면 방향 반시계 방향(시계 방향은 상대적으로 제한됨) 지표면 반대 방향 시계 방향(반시계 방향은 상대적으로 제한됨) 왼손 손목의 손바닥 인접 위치
지표면 방향 시계 방향(반시계 방향은 상대적으로 제한됨) 지표면 반대 방향 반시계 방향(시계 방향은 상대적으로 제한됨) 오른손 손목의 손바닥 인접 위치
도 20d는 전자 장치(101)가 착용되는 사용자의 오른팔을 위에서 내려다본 모습을 나타낸 도면이다. 상기 표 1과 도 20d를 참조하여 설명하면, 웨어러블 장치로 구현된 전자 장치(101)를 장착한 사용자의 오른손 손등이 위를 향하는 상태(전자 장치(101)의 스크린이 지표면 반대 방향을 향한 상태)에서 상기 사용자의 손바닥이 보이도록 회전하려면, 즉 사용자가 외전 운동(supination)을 하여 전자 장치(101)의 스크린의 방향(z)가 지표면 방향을 향하려면 사용자는 시계 방향으로 손목을 회전시킬 수 있다.
이후, 상기 사용자가, 사용자의 오른손 손바닥이 위를 향하는 상태(스크린이 지표면을 향한 상태)에서 상기 사용자의 손등이 보이도록 회전하려면, 즉 내전 운동(pronation)을 하여 전자 장치(101)의 스크린이 지표면 반대 방향을 향하려면 사용자는 반시계 방향으로 손목을 회전시킬 수 있다.
전자 장치(101)의 센서 모듈(180)에 포함된 하나 이상의 센서들, 예를 들어 가속도 센서 또는 자이로 센서는 도 20d에 도시된 바와 같이 사용자가 손목을 비틀거나 또는 팔을 돌릴 때 함께 움직이게 되는 전자 장치(101)의 기울기 또는 가속도를 획득할 수 있다. 제어 모듈(170)은 상기와 같은 스크린의 주된 방향(z)과 사용자의 움직임에 의해 발생된 전자 장치(101)에서의 회전 운동의 방향성을 이용하여 상기 전자 장치(101)가 사용자의 신체에 부착되었는지 여부를 판단할 수 있다. 또한 제어 모듈(170)은 상기 스크린의 방향(z) 및 전자 장치(101)에서의 회전 운동의 방향성을 이용하여 상기 전자 장치(101)가 장착된 위치를 판별할 수 있다.
도 21a 및 21b는 본 발명의 다양한 실시예에 따른 전자 장치가 디스플레이(150)를 통해 스크린에 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 특히, 도 21a 및 21b는 웨어러블 장치의 형태로 구현된 전자 장치(101)를 착용한 사용자가, 상기 전자 장치(101)로부터 제공받을 수 있는 콘텐츠를 나타낸 도면이다.
도 21a를 참조하면, 전자 장치(101)의 디스플레이(150)에 포함된 스크린의 방향(z) 및 사용자의 시선 반대 방향(w)은 서로 일치하지 않는다. 또한 사용자의 시선 반대 방향(w)과 스크린(2150)의 방향(z) 사이의 각도는 A°이다. 즉 시선 반대 방향(w)을 기준으로 전자 장치(100)의 스크린(2150)은 반시계 방향으로 A° 회전된 상태이다. 도 21a를 참조하면 시선 반대 방향(w)은 스크린(2150)의 좌측을 향해 있다. 이를 통하여 사용자의 시선이 스크린(2150)의 좌측에 편향되어 있음을 알 수 있다. 상기와 같이 사용자의 시선이 스크린(2150)의 한 부분에 편향되어 있는 경우, 제어 모듈(170)은 상기 시선이 편향된 쪽으로 콘텐츠가 편향되어 표시되도록 디스플레이(150)를 제어할 수 있다. 도 21a를 참조하면, 사용자의 시선이 좌측으로 편향되어 있으므로, 제어 모듈(170)은, 콘텐츠가 스크린(2150)의 좌측으로 편향되어 표시되도록 디스플레이(150)를 제어할 수 있다. 도 21a 및 21b에서 디스플레이(150)를 통해 스크린(2150)에 표시되고 있는 콘텐츠는 현재 시각으로서 ‘7:06’이다. 도 21a와 같이 사용자의 시선이 전자 장치(101)의 좌측으로부터 전자 장치(101)의 스크린(2150)을 향하는 것이라면, 제어 모듈(170)은 스크린(2150)의 우측을 비워두고, 좌측에 편향되도록 ‘7:06’을 표시하도록 디스플레이(150)를 제어할 수 있다.
도 21b에서도, 전자 장치(101)의 스크린(2150)의 방향(z) 및 사용자의 시선 반대 방향(w)은 서로 일치하지 않는다. 또한 사용자의 시선 반대 방향(w)과 스크린(2150)의 방향(z) 사이의 각도는 B°이다. 즉 시선 반대 방향(w)을 기준으로 전자 장치(100)의 스크린(2150)은 시계 방향으로 B° 회전된 상태이다. 도 21b를 참조하면 시선 반대 방향(w)은 스크린(2150)의 우측을 향해 있다. 이를 통하여 사용자의 시선이 스크린(2150)의 우측에 편향되어 있음을 알 수 있다. 상기와 같이 사용자의 시선이 스크린(2150)의 한 부분에 편향되어 있는 경우, 제어 모듈(170)은 상기 시선이 편향된 쪽으로 콘텐츠가 편향되어 표시되도록 디스플레이(150)를 제어할 수 있다. 도 21b를 참조하면, 사용자의 시선이 우측으로 편향되어 있으므로, 제어 모듈(170)은, 콘텐츠가 스크린(2150) 의 우측으로 편향되어 표시되도록 디스플레이(150)를 제어할 수 있다. 도 21a 및 21b에서 디스플레이(150)를 통해 스크린(2150)에 표시되고 있는 콘텐츠는 현재 시각으로서 ‘7:06’이다. 도 21a와 같이 사용자의 시선이 전자 장치(101)의 우측으로부터 전자 장치(101)의 스크린(2150)으로 들어오는 것이라면, 제어 모듈(170)은 스크린(2150)의 좌측을 비워두고, 우측에 편향된 상태로 ‘7:06’을 표시하도록 상기 디스플레이(150)를 제어할 수 있다.
한 실시예에 따르면, 디스플레이(150)는 제어 모듈(170)의 제어 하에 스크린에 표시되는 UI를 가로 방향으로 표시하거나 세로 방향으로 표시할 수 있다. 이하에서는, 가로 방향으로 표시되는 UI를 가로 UI라 하고, 세로 방향으로 표시되는 UI를 세로 UI라 하기로 한다. 디스플레이(150)는 제어 모듈(170)의 제어 하에 스크린에 표시되는 UI를, 가로 UI에서 세로 UI로 전환하거나 또는 세로 UI에서 가로 UI로 전환할 수 있다.
상기 가로 UI와 세로 UI의 전환은, 미리 저장된 사용자 신체의 운동 범위와 같이 전자 장치(101)에 미리 저장되어 있던 사용자 프로파일 등을 활용하여 예측될 수 있다. 사용자가 상기 전자 장치(101)를 장착한 후, 제어 모듈(170)은 미리 저장되어 있던 사용자의 프로파일을, 상기 사용자의 현재 신체 활동의 운동 범위와 비교함으로써, 상기 스크린에 표시되는 UI를 결정할 수 있다. 이때 제어 모듈(170)은 스크린에 가로 UI를 표시할 지 또는 세로 UI를 표시할 지 여부를 결정할 수도 있다.
다른 실시예에 따르면, 전자 장치(101)는 사용자 입력에 따라 스크린에 표시되는 UI를 결정할 수 있다. 이때 제어 모듈(170)은 상기 사용자 입력에 따라 스크린에 가로 UI를 표시할 지 또는 세로 UI를 표시할 지 여부를 결정할 수 있다. 상기 사용자 입력은 가상 버튼을 선택하는 입력, 아이콘을 선택하는 입력 또는 하드키(hard key)와 같이 물리적인 버튼 입력이 포함될 수 있다.
한 실시예에 따르면, 제어 모듈(170)은 전자 장치(101)를 통해 입력되는 움직임 입력(예를 들어, 모션 입력, 제스처 입력 등)을 움직임 센서를 이용하여 감지할 수 있다. 제어 모듈(170)은 상기 움직임 센서를 이용해 감지된 움직임 입력과, 메모리(130)에 미리 저장되어 있던 움직임 데이터를 비교하여 유사도가 기준값 이상인 경우에도 UI를 변경할 수 있다. 이때 제어 모듈(170)은 가로 UI를 세로 UI로 변경하거나 또는 세로 UI를 가로 UI로 변경하여 표시하도록 디스플레이(150)를 제어할 수 있다.
예를 들어, 웨어러블 장치로 구현된 전자 장치(101)를 착용하고 있는 사용자는, 손목이나 머리 등을 틸트하거나, 손목을 흔듦(shaking)으로써, 스크린에 표시되는 UI의 방향을 변경할 수 있다. 예를 들어, 사용자는 미리 설정된 특정 각도, 특정 방향 또는 특정 속도를 가지는 제스처를 할 수 있고, 전자 장치(101)는 상기 제스처에 대한 모션 인식을 수행할 수 있다. 제어 모듈(170)은 상기 모션 인식 결과에 따라 스크린에 표시되는 UI의 방향을 변경할 수 있다. 다른 예로서, 사용자는 전자 장치(101)를 팔에 착용한 후 팔로 크게 원을 그리거나, 또는 상기 전자 장치(101)를 손목이나 손가락에 장착한 후 손을 틸트시킴으로써 상기 UI의 방향을 전환시킬 수 있다.
한 실시 예에 따르면, 제어 모듈(170)은 사용자의 운동 상태와 종류를 기초로 하여 가로 UI를 세로 UI로 전환하거나 또는 세로 UI를 가로 UI로 전환할 수 있다. 즉 디스플레이(150)는 상기 사용자의 운동 상태 또는 종류에 따라 자동으로 UI를 변환하여 스크린에 표시할 수 있다. 제어 모듈(170)은 전자 장치(101)에 포함된 적어도 하나의 센서, 예를 들어 움직임 센서, 위치감지 센서, 생체 센서 중 하나 이상을 이용하여 사용자이 운동 상태 또는 종류를 판단할 수 있다.
예를 들어, 운동을 하지 않는 일반 상황에서는 가로 UI, 자전거 운동인 경우에는 가로 UI, 달리기 운동 시에는 세로 UI가 사용자에게 제공될 수 있다. 즉, 가속도 센서를 통해 소정 기준 이하의 신호 세기가 검출되거나 심박수가 소정 기준 이하이면, 제어 모듈(170)은 사용자가 운동을 하지 않는 상태인 것으로 판단할 수 있다. 가속도 센서에 의해 사용자의 이동이 감지되고, 또한 가속도 센서에 의해 측정된 신호 패턴이 달리기와 소정 기준 이상 유사하면, 제어 모듈(170)은 사용자가 달리기를 하고 있는 것으로 판단할 수 있다.
또 다른 예로서, 손목에 장착한 전자 장치(101)에 구비된 가속도 센서의 신호 패턴이 달리기 상태는 아니나 사용자가 좌우로 움직이는 패턴이고, GPS 센서에 의해 측정된 사용자의 이동 거리가 소정 거리 이상이면, 제어 모듈(170)은 사용자의 상태를 자전거 탑승 상태로 판별할 수 있다. 즉 위치와 이동 속도와 같은 상황 정보를 가속도 센서 또는 자이로 센서로 감지하고, 상기 센서들로부터 출력된 데이터를 이용하여 제어 모듈(170)은 스크린에 가로 UI를 표시할지 또는 세로 UI를 표시할 지 결정할 수 있다. 또한 상기 센서들로부터 출력된 데이터를 이용하여 제어 모듈(170)은 가로 UI를 세로 UI로 변경하거나 세로 UI를 가로 UI로 변경하여 표시하도록 디스플레이(150)를 제어할 수도 있다.
한 예로서, 회사나 집, 자주 방문하는 까페, 버스나 지하철 안에서 각기 다른 방향의 UI를 원하는 사용자가 있을 수 있다. 전자 장치(101)에 포함된 GPS 센서나 측위 센서를 이용하여 측정된 이동 속도가 소정 기준 이상이거나, 상기 사용자가 도로 위에 있는 것으로 판단되면, 제어 모듈(170)은 상기 사용자가 자동차나 교통 수단을 이용하여 이동 중인 것으로 판단할 수 있다. 또한 가속도 센서 또는 자이로 센서를 이용하여 상기 제어 모듈(170)은 상기 사용자의 운전 동작 여부를 판단할 수 있다.
한 실시예에 따르면, 전자 장치(101)는 마이크(mic)와 같은 오디오 장치로 사용자 주변의 소리를 입력받아 측정함으로써, 사용자가 실내에 있는지 또는 실외에 있는지 여부를 판단할 수 있다. 예를 들어, 주변 소음이 시끄러우면 사용자는 외부 장소와 같이 복잡한 장소에 있거나 또는 대중 교통을 이용하고 있을 가능성이 높다. 이러한 판단 조건으로 버스나 지하철이라고 판단되면, 제어 모듈(170)은 메시지나 개인 일정, 다이어리와 같은 어플리케이션을 실행할 때에는 글자의 폰트를 작게 하거나 이미지의 사이즈를 작게 표시할 수 있다. 이로써 전자 장치(101)는 사용자의 사생활 노출을 줄이고, 사용자의 프라이버시를 지켜줄 수 있게 된다. 상기 판단 조건으로, 사용자가 운전 중이거나, 조용한 집에 혼자 있거나 또는 사무실 등의 실내에 있다고 판단되면, 제어 모듈(170)은 글자나 이미지의 사이즈가 크게 표시되도록 디스플레이(150)를 제어할 수 있다. 또한 제어 모듈(170)은 전자 장치(101)의 위치 정보를 분석하여, 전자 장치(101)가 위치하고 있는 위치, 즉 사용자의 위치가 실내인지 실외인지 판단하고, 그 판단 결과에 따라 가로 UI를 표시하거나 세로 UI를 표시하도록 디스플레이(150)를 제어할 수 있다.
다른 실시예에 따르면, 상기 사용자가 가독성 등을 중요시하는 경우, 제어 모듈(170)은 상기 사용자가 버스나 지하철에 있다고 하더라도 메시지나 개인 일정, 다이어리와 같은 어플리케이션을 실행할 때에는 글자의 폰트를 크게 하거나 이미지의 사이즈를 크게 표시할 수 있다.
사용자가 위치한 공간이 무엇인지 판단하고자 하는 경우, 제어 모듈(170)은 상기 전자 장치(101)에 포함된 조도 센서, 온도 센서 또는 압력 센서를 이용할 수 있다. 즉 제어 모듈(170)은 조도 센서, 온도 센서 또는 압력 센서를 통해 출력된 데이터를 이용하여 사용자가 위치한 공간을 판단할 수 있다. 또한 제어 모듈(170)은 상기 사용자기 위치한 공간에 따라 전자 장치(101)의 동작을 제어할 수도 있다. 예를 들어 조도가 높은 경우, 제어 모듈(170)은 실외의 햇빛이 비치는 경우로 판단할 수 있고, 또한 상기 제어 모듈(170)은 전자 장치(101)의 스크린 밝기를 추가적으로 조절할 수 있다.
도 22는 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 22의 (a)는 가로 쓰기(horizontal writing) 모드를 실행 중인 전자 장치(101)를 나타낸 것으로서, 사용자로부터 콘텐츠가 가로 방향(좌→우)으로 입력되고 있는 디스플레이(150)의 스크린을 포함하는 전자 장치(101)을 도시한 도면이다. 도 22의 (a)에서 사용자로부터 디스플레이(150)의 스크린을 통해 입력되고 있는 콘텐츠는 ‘오늘 10시 긴급 미팅 예정입니다. 참석필요’라는 텍스트이다. 한 실시예에 따르면, 전자 장치(101)는 상기 가로 쓰기 모드에서, 가로로 글씨 쓰기를 지원할 수 있으며, 사용자로부터 가로 방향으로 문자를 입력받을 수도 있다.
도 22의 (a)는 세로 쓰기(vertical writing) 모드를 실행 중인 전자 장치(101)를 나타낸 것으로서, 사용자로부터 콘텐츠가 세로 방향(상→하)으로 입력되고 있는 디스플레이(150)를 포함하는 전자 장치(101)을 도시한 도면이다. 도 22의 (b)에서 사용자로부터 디스플레이(150)를 통해 입력되고 있는 콘텐츠 또한 (a)의 디스플레이(150)에서 입력되고 있는 ‘오늘 10시 긴급 미팅 예정입니다. 참석필요’라는 텍스트이다. 한 실시예에 따르면, 전자 장치(101)는 상기 세로 쓰기 모드에서 세로로 글씨 쓰기를 지원할 수 있으며, 세로 방향으로 문자를 입력받을 수도 있다.
상기와 같이 전자 장치(101)는 디스플레이(150)의 가로 방향 또는 세로 방향으로 콘텐츠를 출력할 수 있을 뿐만 아니라 사용자로부터 입력받을 수도 있다. 실시예에 따라 전자 장치(101)는 가상 키패드, 필기 인식(handwriting recognition) 등을 통해 사용자로부터 콘텐츠(예를 들어, 텍스트, 이미지 등)를 입력받을 수 있다. 또한 도 22의 (a)와 같은 가로 쓰기 모드와 (b)와 같은 세로 쓰기 모드는 병행될 수 있다. 예를 들어, 디스플레이(150)의 상단은 가로 쓰기 모드로 콘텐츠가 표시되거나 입력될 수 있다. 디스플레이(150)의 하단은 세로 쓰기로 모드로 콘텐츠가 표시되거나 입력될 수 있다.
도 22의 (c)는 디스플레이(150)를 통해 가로 방향 및 세로 방향으로 콘텐츠가 출력되고 있는 전자 장치(101)를 도시한 것이다. 도 22의 (c)를 참조하면, 전자 장치(101)의 디스플레이(150)의 일부는 가로 쓰기 모드를 실행 중이고, 나머지 일부는 세로 쓰기 모드를 실행 중이다. 디스플레이(150)에 표시되고 있는 콘텐츠들(2201, 2202, 2203, 2204) 중 제1 콘텐츠(2201), 제2 콘텐츠(2202) 및 제4 콘텐츠(2204)는 가로 쓰기 모드에 따라 가로 방향(좌→우)으로 출력되고 있다. 또한 제3 콘텐츠(2203)는 세로 쓰기 모드에 따라 세로 방향(상→하)으로 출력되고 있다. 도 22의 (c)에 도시된 바와 같이 가로 쓰기 모드와 세로 쓰기 모드는 하나의 화면에서 병행될 수 있으며, 이는 콘텐츠의 출력뿐만 아니라 콘텐츠의 입력에서도 적용될 수 있다.
한 실시예에 따르면, 웹브라우저 화면과 같이 다양한 콘텐츠가 포함된 화면 이미지를 사용자에게 제공하고자 하는 경우, 상기 화면 이미지를 구성하는 레이아웃 중 검색엔진명(예를 들어, NAVER)과 검색창이 배치된 가로 영역, 본문과 사진이 배치된 세로 영역, 기타 콘텐츠가 배치된 하단의 가로 영역은, 그 영역의 모양에 따라서 콘텐츠들이 가로쓰기 혹은 세로쓰기 형태로 배치될 수 있다. 한 실시 예에 따르면, 제어 모듈(170)은 디스플레이(150)에 포함된 스크린에 대한 틸트 정보를 이용하여 세로 모드 또는 가로모드를 인식할 수 있다. 상기 제어 모듈(170)은 상기 틸트 정보를 이용하여 가로 쓰기와 세로 쓰기 중 더 많은 정보를 표시할 수 있는 쓰기 모드를 선택하거나, 또는 화면 이미지의 레이아웃을 구성하는 영역들의 모양을 판별하여, 해당 영역이 가로로 길면, 해당 영역 내에 가로쓰기로 콘텐츠가 배치되도록 디스플레이(150)를 제어하고, 세로로 길면, 해당 영역 내에 세로쓰기 형태로 콘텐츠가 배치되도록 디스플레이(150)를 제어할 수 있다.
도 23은 본 발명의 다양한 실시예에 따른 전자 장치가 콘텐츠를 표시하는 또 다른 예를 나타낸 도면이다.
도 23을 참조하면, 전자 장치(101)는 보다 적은 전력 소비량을 요구로 하는 색상 또는 상기 색상과 유사한 색상으로 콘텐츠를 표시할 수 있다. 실시예에 따라 전자 장치(101)는 사용자로부터 콘텐츠를 입력받기 위하여 편집창(2302)를 표시하거나 또는 콘텐츠의 편집을 위하여 편집창(2302)을 표시할 수 있다.
한 실시예에 따르면, 제어 모듈(170)은 배터리(Battery)의 잔량 및 충전 상태에 따라 전류를 절약할 수 있도록 폰트 또는 색상을 조절할 수 있다. 전자 장치(101)가 웨어러블 장치 또는 모바일 장치로 구현되는 경우, 해당 장치의 특성상 배터리의 용량은 한정될 수 있다. 따라서 전자 장치(101)의 각종 동작 실행에 의하여 소모되는 전력을 최대한 줄일 수 있도록 제어 모듈(170)은 상기 전자 장치(101)의 동작을 제어할 수 있다.
예를 들어, 전자 장치(101)의 배터리 잔량이 30% 미만으로 떨어지면 제어 모듈(170)은 소모되는 전력량을 최대한 줄이기 위해 스크린을 포함하는 디스플레이(150)가 적은 전력만으로도 구동될 수 있도록 화면 이미지를 구성할 수 있다. 예를 들어, 제어 모듈(170)은 적은 전력으로 구현 가능한 색상 또는 상기 색상에 가까운 색상으로 화면 이미지를 구성할 수 있다. 일 예로서, 상기 스크린이 LCD인 경우, 제어 모듈(170)은 블랙(black) 색상으로 화면 이미지의 배경색을 구성할 수 있다. 일 예로서, 상기 스크린이 OLED인 경우 제어 모듈(170)은 일부 OLED로 하여금 레드(red) 색상의 배경색을 출력하도록 제어하고, 배경 이외의 나머지 부분, 예를 들어 이미지 또는 텍스트의 색상 및 사이즈를 사용자가 용이하게 인식할 수 있는 형태로 변형할 수 있다. 또한 상기 OLED와 같이 스크린의 일부만 라이트 온(light on)시킬 수 있는 경우, 제어 모듈(170)은 상기 OLED의 특성을 고려하여 상기 스크린의 일부만 라이트 온되도록 디스플레이(150)를 제어할 수 있다. 예를 들면, 제어 모듈(170)은 콘텐츠가 표시되는 스크린 중 사용자의 시선 각도를 벗어나는 영역에 대해서는 라이트 오프(light off)시키도록 디스플레이(150)를 제어할 수 있다.
한 실시 예에 따르면, 제어 모듈(170)은 운동 종류에 따라 콘텐츠를 표시하는 스크린을 포함하는 디스플레이(150)를 제어할 수 있다. 예를 들어, 운동 중 스크린이 사용자의 눈에 띄는 위치인지 아닌지를 판별하는 동작은, 해당 운동의 종류가 무엇인지 판별함으로써 더 용이해질 수 있다. 예를 들어, 수영의 경우에는 영법에 따른 고유의 움직임 패턴이 있으므로 제어 모듈(170)은 상기 영법에 따른 고유의 움직임 패턴이 발생된 것으로 판단되면, 사용자의 운동을 수영으로 결정할 수 있다. 다른 예로서, 야외에서 달리기의 경우 제어 모듈(170)은 이동 거리와 팔의 움직임 정보 등을 통해 해당 운동이 달리기임을 판변할 수 있다.
한 실시예에 따르면, 전자 장치(101)는 사용자로부터 운동 종류를 미리 입력받을 수도 있다. 상기 사용자는 운동을 시작하기 전에 전자 장치(101)에 해당 운동의 종류를 입력할 수 있다.
상기와 같은 운동을 나타내는 정보, 즉 운동 정보를 통하여 제어 모듈(170)은 해당 운동 고유의 패턴을 얻어낼 수 있다. 또한 제어 모듈(170)은 사용자의 신체 운동 범위 정보를 이용하여, 전자 장치(101)가 장착된 위치 및 방향 정보를 알아낼 수 있다. 제어 모듈(170)은 상기 전자 장치(101)의 위치 또는 방향 정보를 기반으로 하여 사용자의 시선 방향이나 시선 위치 정보를 알아낼 수 있다. 또한 제어 모듈(170)은 사용자의 시선 방향이나 시선 위치 정보를, 상기 전자 장치(101)의 위치 및 방향 정보와 함께 인식 또는 추정할 수도 있다. 제어 모듈(170)은 상기 사용자의 시선 방향, 시선 위치 정보, 전자 장치(101)의 위치 및 방향 정보에 기반하여 해당 상황에 알맞은 정보, 즉 콘텐츠를 표시하도록 디스플레이(150)를 제어하거나 또는 스크린의 라이트 오프(light off)시킬 수 있다.
특히, 전자 장치(101)가 자동으로 사용자의 운동 종류를 인식한 경우, 제어 모듈(170)은 사용자의 포즈, 전자 장치(101)의 위치 및 방향 정보를 이용하여 사용자에게 필요한 정보를 제공하도록 전자 장치(101)를 제어할 수 있다. 예를 들어, 전자 장치(101)는 사용자에게 필요한 시점마다 필요한 정보(예를 들어, 코칭 정보, 포즈 교정 등)만을 제공할 수 있다. 반면에, 사용자에게 필요하지 않은 시점이라고 판단되면, 전자 장치(101)는 별도의 정보를 표시하지 않음으로써 전력 소모를 줄이거나, 또는 일반적인 정보만을 표시할 수 있다.
도 24는 본 발명의 다양한 실시예들에 다른 복수의 전자 장치들이 콘텐츠를 표시하는 일 예를 나타낸 도면이다. 전자 장치(101)는 호스트 디바이스이고, 전자 장치(104)는 컴패니언 디바이스로 구현되어, 전자 장치(101)와 전자 장치(104)가 서로 연동될 수 있다. 도 24에서는 호스트 디바이스인 전자 장치(101)가 컴패니언 디바이스인 전자 장치(104)를 제어하는 것으로 가정한다.
도 24를 참조하면, 컴패니언 디바이스인 전자 장치(104)는 사용자(2401)의 손목에 착용되어 있으며, 전자 장치(101)의 제어 하에 운동 모드를 실행하고 있다. 전자 장치(104)가 사용자(2401)의 손목에 착용되어 있으므로, 전자 장치(101)는 전자 장치(104)의 센서 모듈(미도시)이 사용자(2401)의 각종 생체 신호(예를 들어, 사용자(2401)의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음, 혈당 등) 또는 전자 장치(104)의 이동 속도, 이동 가속도, 이동 방향 또는 기울기를 측정하도록 제어할 수 있다. 전자 장치(101)는 전자 장치(104)의 센서 모듈을 통해 측정된 센서 수치를 기초로 사용자(2401)의 현재 상태 또는 전자 장치(104)의 디스플레이의 방향을 결정할 수 있다. 전자 장치(101)는 사용자(2401)의 현재 상태 또는 전자 장치(104)의 디스플레이의 방향에 따라 상기 디스플레이에 표시할 콘텐츠를 결정할 수 있다. 또한 전자 장치(101)는 상기 전자 장치(104)의 디스플레이에 표시할 콘텐츠를 상기 전자 장치(104)에 전송할 수 있고, 전자 장치(104)는 전자 장치(101)로부터 수신한 콘텐츠를 표시할 수 있다.
전자 장치(101)는 전자 장치(104)의 센서 모듈에 의해 측정된 센서 수치를 통해 사용자(2401)가 운동 중임을 감지하고, 전자 장치(101) 또는 전자 장치(104)를 운동 모드로 변환시킬 수 있다. 운동 모드가 실행되면 전자 장치(101) 또는 전자 장치(104)는 운동 모드에 따른 콘텐츠를 디스플레이(190)에 표시할 수 있다.
도 24의 전자 장치(101)는 전자 장치(101)의 센서 모듈을 통해 측정된 센서 수치를 기초로 사용자(2401)가 운동 중인 것으로 결정하였다고 가정한다. 도 24에서 전자 장치(101)의 제어 모듈(170)은 전자 장치(101) 및 전자 장치(104)의 동작 모드를 모두 운동 모드로 전환하였다. 그에 따라 전자 장치(104)의 디스플레이 상에는 운동의 종류(달리기), 소모 칼로리(234Kcal), 이동 거리(6.2km), 맥박수(95) 및 운동 시간(00:28:30)이 표시되고 있다. 또한 전자 장치(104)와 연동 중인 호스트 디바이스인 전자 장치(101)에도 운동 모드에 따른 콘텐츠가 표시될 수 있다. 또한 전자 장치(101)의 디스플레이(190) 상에는 전자 장치(101)의 동작 모드(운동 모드), 소모 칼로리(234Kcal), 이동 거리(6.2km), 심박수(95), 운동 시간(00:28:30)이 표시되고 있다.
이때 전자 장치(104)의 디스플레이 상에 표시되는 콘텐츠는 전자 장치(101)로부터 전송된 콘텐츠일 수 있다. 또한 전자 장치(104)는 전자 장치(101)의 제어 하에 지속적으로 센서 모듈을 이용하여 사용자(2401)의 생체 신호를 측정할 수 있고, 상기 센서 모듈에 의해 계측된 센서 수치를 전자 장치(101)에 전달할 수 있다.
도 25는 다양한 실시예들에 따른 전자 장치(2501)의 블록도(2500)를 나타낸 도면이다.
상기 전자 장치(2501)는, 예를 들면, 도 1에 도시된 전자 장치(101) 또는 전자 장치(104)의 전체 또는 일부를 구성할 수 있다. 도 25를 참조하면, 상기 전자 장치(2501)는 하나 이상의 어플리케이션 프로세서(AP: application processor)(2510), 통신 모듈(1220), SIM(subscriber identification module) 카드(2524), 메모리(2530), 센서 모듈(2540), 입력 장치(2550), 디스플레이(2560), 인터페이스(2570), 오디오 모듈(2580), 카메라 모듈(2591), 전력관리 모듈(2595), 배터리(2596), 인디케이터(2597) 및 모터(2598)를 포함할 수 있다.
상기 AP(2510)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(2510)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(2510)는, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시예에 따르면, 상기 AP(2510)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신 모듈(2520)(예를 들어, 상기 통신 인터페이스(2560)는 상기 전자 장치(2501)(예를 들어, 상기 전자 장치(101))와 네트워크를 통해 연결된 다른 전자 장치들(예를 들어, 전자 장치(104) 또는 서버(106)) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신 모듈(2520)은 셀룰러 모듈(2521), Wifi 모듈(2523), BT 모듈(2525), GPS 모듈(2527), NFC 모듈(2528) 및 RF(radio frequency) 모듈(2529)을 포함할 수 있다.
상기 셀룰러 모듈(2521)은 통신망(예를 들어, LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한 상기 셀룰러 모듈(2521)은, 예를 들면, 가입자 식별 모듈(예를 들어, SIM 카드(2524))을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈(2521)은 상기 AP(2510)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈(2521)은 멀티미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈(2521)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한 상기 셀룰러 모듈(2521)은, 예를 들면, SoC로 구현될 수 있다. 도 25에서는 상기 셀룰러 모듈(2521)(예를 들어, 커뮤니케이션 프로세서), 상기 메모리(2530) 또는 상기 전력관리 모듈(2595) 등의 구성요소들이 상기 AP(2510)와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP(2510)가 전술한 구성요소들의 적어도 일부(예를 들어, 셀룰러 모듈(2521))를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP(2510) 또는 상기 셀룰러 모듈(2521)(예를 들어, 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한 상기 AP(2510) 또는 상기 셀룰러 모듈(2521)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 WIFI 모듈(2523), 상기 BT 모듈(2525), 상기 GPS 모듈(2527) 또는 상기 NFC 모듈(2528) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 25에서는 셀룰러 모듈(2521), WIFI 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528)이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈(2521), WIFI 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528) 중 적어도 일부(예를 들어, 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(2521), WIFI 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528) 각각에 대응하는 프로세서들 중 적어도 일부(예를 들어, 셀룰러 모듈(2521)에 대응하는 커뮤니케이션 프로세서 및 WIFI 모듈(2523)에 대응하는 WIFI 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈(2529)은 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈(2529)은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈(2529)은 무선 통신에서 자유 공간 상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 25에서는 셀룰러 모듈(2521), WIFI 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 및 NFC 모듈(2528)이 하나의 RF 모듈(2529)을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈(2521), WIFI 모듈(2523), BT 모듈(2525), GPS 모듈(2527) 또는 NFC 모듈(2528) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
한 실시예에 따르면, 전자 장치(2501)는 WIFI 모듈(2523), BT 모듈(2525) 또는 NFC 모듈(2528)을 통해 컴패니언 디바이스(예를 들어, 전자 장치(104))와 연결될 수 있다. 또한 전자 장치(2501)는 셀룰러 모듈(2521)을 통해 기지국(예를 들어, 서버(106))에 접속할 수 있으며, 상기 기지국을 통해 호스트 디바이스(예를 들어, 전자 장치(101))와 연결될 수 있다.
상기 SIM 카드(2524)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드(2524)는 고유한 식별 정보(예를 들어, ICCID(integrated circuit card identifier)) 또는 가입자 정보(예를 들어, IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리(2530)(예를 들어, 상기 메모리(2530))는 내장 메모리(2532) 또는 외장 메모리(2534)를 포함할 수 있다. 상기 내장 메모리(2532)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리(2532)는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리(2534)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리(2534)는 다양한 인터페이스를 통하여 상기 전자 장치(2501)과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치(2501)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서 모듈(2540)은 물리량을 계측하거나 전자 장치(2501)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서 모듈(2540)은, 예를 들면, 제스처 센서(2540A), 자이로 센서(2540B), 기압 센서(2540C), 마그네틱 센서(2540D), 가속도 센서(2540E), 그립 센서(2540F), 근접 센서(2540G), color 센서(2540H)(예를 들어, RGB(red, green, blue) 센서), 생체 센서(2540I), 온/습도 센서(2540J), 조도 센서(2540K) 또는 UV(ultra violet) 센서(2540M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서 모듈(2540)은, 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시), 지문 센서(미도시) 등을 포함할 수 있다. 또한 센서 모듈(2540)은 HRV(heart rate variability) 센서 또는 HRM(heart rate monitor) 센서 등을 포함할 수 있다. 상기 센서 모듈(2540)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치(2550)는 터치 패널(touch panel)(2552), (디지털) 펜 센서(pen sensor)(2554), 키(key)(2556) 또는 초음파(ultrasonic) 입력 장치(2558)를 포함할 수 있다. 상기 터치 패널(2552)은, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널(2552)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널(2552)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널(2552)은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서(2554)는, 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키(2556)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치(2558)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(2501)에서 마이크(예를 들어, 마이크(2588))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치(2501)는 상기 통신 모듈(2520)를 이용하여 이와 연결된 외부 장치(예를 들어, 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이(2560)(예를 들어, 상기 디스플레이(2560))은 패널(2562), 홀로그램 장치(2564) 또는 프로젝터(2566)을 포함할 수 있다. 상기 패널(2562)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널(2562)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널(2562)은 상기 터치 패널(2552)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치(2564)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(2566)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치(2501)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이(2560)은 상기 패널(2562), 상기 홀로그램 장치(2564), 또는 프로젝터(2666)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스(2570)는, 예를 들면, HDMI(high-definition multimedia interface)(2572), USB(universal serial bus)(2574), 광 인터페이스(optical interface)(2576) 또는 D-sub(D-subminiature)(2578)를 포함할 수 있다. 상기 인터페이스(2570)는, 예를 들면, 도 1에 도시된 통신 인터페이스(160)에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스(2570)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오 모듈(2580)은 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오 모듈(2580)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 상기 오디오 모듈(2580)은, 예를 들면, 스피커(2582), 리시버(2584), 이어폰(2586) 또는 마이크(2588) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라 모듈(2591)은 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예를 들어, 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예를 들어, LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리 모듈(2595)은 상기 전자 장치(2501)의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리 모듈(2595)은, 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리(2596)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(2596)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치(2501)에 전원을 공급할 수 있다. 상기 배터리(2596)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터(2597)는 상기 전자 장치(2501) 혹은 그 일부(예를 들어, 상기 AP(2510))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(2598)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치(2501)는 모바일 TV 지원을 위한 처리 장치(예를 들어, GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디어 플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한 본 발명의 다양한 실시예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
본 발명의 다양한 실시예에 따르면, 콘텐츠를 표시하는 전자 장치는, 디스플레이와, 센싱 데이터를 획득하고, 상기 센싱 데이터를 기초로 디스플레이의 방향을 결정하고, 상기 디스플레이의 방향을 기초로 콘텐츠의 표시 방향을 결정하고, 상기 표시 방향에 따라 상기 콘텐츠를 표시하도록 상기 디스플레이를 제어하는 제어 모듈을 포함할 수 있다.
도 26은 다양한 실시예들에 따른 복수의 전자 장치들(예를 들어, 전자 장치(2610) 및 전자 장치(2630)) 사이의 통신 프로토콜(2600)을 나타낸 도면이다.
도 26을 참조하면, 예를 들어, 상기 통신 프로토콜(2600)은, 장치 발견 프로토콜(device discovery protocol)(2651), 기능 교환 프로토콜(capability exchange protocol)(2653), 데이터 세션 프로토콜(data/session protocol)(2655) 및 어플리케이션 프로토콜(application protocol)(2657) 등을 포함할 수 있다.
한 실시예에 따르면, 상기 장치 발견 프로토콜(2651)은 전자 장치들(예를 들어, 전자 장치(2610) 또는 전자 장치(2630))이 자신과 통신 가능한 외부 전자 장치를 감지하거나 감지된 외부 전자 장치와 연결하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치(2610)(예를 들어, 전자 장치(101))는, 상기 장치 발견 프로토콜(2651)을 이용하여, 상기 전자 장치(2610)에서 사용 가능한 통신 방법(예를 들어, WIFI, BT 또는 USB 등)을 통해, 상기 전자 장치(2210)와 통신 가능한 기기(device)로, 전자 장치(2630)(예를 들어, 전자 장치(104))를 감지할 수 있다. 상기 전자 장치(2610)는, 상기 전자 장치(2630)와의 통신 연결을 위해, 상기 장치 발견 프로토콜(2651)을 이용하여, 감지된 전자 장치(2630)에 대한 식별 정보를 획득하여 저장할 수 있다. 상기 전자 장치(2610)는, 예를 들면, 적어도 상기 식별 정보에 기반하여, 상기 전자 장치(2630)와의 통신 연결을 개설할 수 있다.
어떤 실시예에 따르면, 상기 장치 발견 프로토콜(2651)은 복수의 전자 장치들 사이에서 상호 인증을 하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치(2610)는 적어도 전자 장치(2630)와 연결을 위한 통신 정보(예를 들어, MAC(media access control) address, UUID(universally unique identifier), SSID(subsystem identification), IP(information provider) address)에 기반하여, 상기 전자 장치(2610)와 상기 전자 장치(2630) 간의 인증을 수행할 수 있다.
한 실시예에 따르면, 상기 기능 교환 프로토콜(2653)은 전자 장치(2610) 또는 전자 장치(2630) 중 적어도 하나에서 지원 가능한 서비스의 기능과 관련된 정보를 교환하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치(2610) 및 전자 장치(2630)는 상기 기능 교환 프로토콜(2653)을 통하여, 각각이 현재 제공하고 있는 서비스의 기능과 관련된 정보를 서로 교환할 수 있다. 교환 가능한 정보는 전자 장치(2610) 및 전자 장치(2620)에서 지원 가능한 복수의 서비스들 중에서 특정 서비스를 가리키는 식별 정보를 포함할 수 있다. 예를 들어, 전자 장치(2610)는 상기 기능 교환 프로토콜(2633)을 통해 전자 장치(2630)로부터 상기 전자 장치(2630)가 제공하는 특정 서비스의 식별 정보를 수신할 수 있다. 이 경우, 제1 전자 장치(2610)는 상기 수신된 식별 정보에 기반하여, 상기 전자 장치(2610)가 상기 특정 서비스를 지원할 수 있는지 여부를 판단할 수 있다.
한 실시예에 따르면, 상기 데이터/세션 프로토콜(2655)은 통신이 가능하도록 연결된 전자 장치들(예를 들어, 전자 장치(2610), 전자 장치(2630)) 간에, 예컨대, 서비스를 연동하여 제공하기 위하여 송수신 되는, 데이터 흐름을 제어하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치(2610) 또는 전자 장치(2630) 중 적어도 하나는 상기 데이터/세션 프로토콜(2655)을 이용하여, 오류 제어, 또는 데이터 품질 제어 등을 수행할 수 있다. 추가적으로 또는 대체적으로, 상기 데이터/세션 프로토콜(2655)은 전자 장치(2610)와 전자 장치(2630) 사이에서 송수신되는 데이터의 전송 포맷을 결정할 수 있다. 또한 전자 장치(2610) 또는 전자 장치(2630) 중 적어도 하나는 상기 데이터/세션 프로토콜(2655)를 이용하여 상호간의 데이터 교환을 위한 적어도 세션(session)을 관리(예를 들어, 세션 연결 또는 세션 종료)할 수 있다.
한 실시예에 따르면, 상기 어플리케이션 프로토콜(2657)은 외부 전자 장치로 제공되는 서비스와 관련된 데이터를 교환하기 위한, 절차 또는 정보를 제공하기 위한 프로토콜일 수 있다. 예를 들어, 전자 장치(2610)(예를 들어, 전자 장치(101) 또는 전자 장치(104))은 상기 어플리케이션 프로토콜(2657)을 통해 전자 장치(2630)(예를 들어, 전자 장치(104) 또는 서버(106))로 서비스를 제공할 수 있다.
한 실시예에 따르면, 상기 통신 프로토콜(2600)은 표준 통신 프로토콜, 개인 또는 단체에서 지정한 통신 프로토콜(예를 들어, 통신 장치 제조 업체 또는 네트워크 공급 업체 등에서 자체적으로 지정한 통신 프로토콜) 또는 이들의 조합을 포함할 수 있다.
본 발명의 다양한 실시예에 사용된 용어 “모듈”은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. “모듈”은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. “모듈”은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. “모듈”은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. “모듈”은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 발명의 다양한 실시예에 따른 “모듈”은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
본 발명의 일 실시예에 따른 전자 장치가 콘텐츠를 표시하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은, 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과, 상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하는 동작과, 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
다양한 실시예에 따르면, 본 발명의 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서(120))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(130)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서(120)에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈 의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 발명의 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 발명의 다양한 실시예에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 발명의 다양한 실시예에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 디스플레이의 방향을 결정하기 위한 센싱 데이터를 획득하는 동작과, 상기 센싱 데이터를 기초로 상기 디스플레이의 방향을 결정하는 동작과, 상기 디스플레이의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작과, 상기 표시 방향에 따라 상기 콘텐츠를 표시하는 동작을 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 발명의 실시예들은 본 발명의 실시예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 개시된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.

Claims (57)

  1. 전자 장치의 동작 방법에 있어서,
    센서 모듈을 통해 측정된 센싱 데이터를 기초로 전자 장치의 움직임 정보를 판단하는 동작과,
    하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과,
    상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작을 포함함을 특징으로 하는 방법.
  2. 제1항에 있어서,
    상기 사용자가 상기 전자 장치를 사용하는 사용 패턴을 파악하여 기록함으로써, 상기 사용 패턴을 상기 전자 장치 내에 축적하는 동작을 더 포함함을 특징으로 하는 방법.
  3. 제1항에 있어서, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작은,
    상기 전자 장치의 스크린에 의해 표시되는 UI 화면의 순서 또는 구성을 변경하는 동작을 포함함을 특징으로 하는 방법.
  4. 제3항에 있어서, 상기 UI 화면은,
    메시지 화면 또는 알림 화면을 포함함을 특징으로 하는 방법.
  5. 제1항에 있어서, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작은,
    가로 UI를 세로 UI로 변경하거나 또는 상기 세로 UI를 상기 가로 UI로 변경하는 동작을 포함함을 특징으로 하는 방법.
  6. 제5항에 있어서, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작은,
    상기 사용자 입력에 따라 상기 가로 UI를 상기 세로 UI로 변경하거나 또는 상기 세로 UI를 상기 가로 UI로 변경하는 동작을 포함함을 특징으로 하는 방법.
  7. 1항에 있어서, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작은,
    스크린에 표시되는 콘텐츠의 폰트 크기 변경, 색상 변경 및 내용 축약 중 적어도 포함함을 특징으로 하는 방법.
  8. 제1항에 있어서,
    상기 생체 정보는, HRM 센서 또는 HRV 센서에 의해 측정되는 심박수를 포함하고,
    상기 하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작은,
    상기 HRM 센서 또는 상기 HRV 센서의 의해 측정된 상기 심박수를 기초로 하여 상기 사용자의 현재 상태를 결정하는 동작을 포함함을 특징으로 하는 방법.
  9. 제8항에 있어서, 상기 HRM 센서 또는 상기 HRV 센서의 의해 측정된 상기 심박수를 기초로 하여 상기 사용자의 현재 상태를 결정하는 동작은,
    상기 사용자가 하고 있는 운동의 종류 또는 강도에 따라 각기 다른 기준을 적용하여 상기 사용자의 현재 상태를 결정하는 동작을 포함함을 특징으로 하는 방법.
  10. 제9항에 있어서, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작은,
    상기 운동의 종류와 강도에 따라 스크린의 밝기, 상기 스크린에 콘텐츠가 표시되는 시간, 상기 전자 장치에 발생되는 진동의 종류, 상기 진동의 강도, 상기 전자 장치로부터 입출력되는 오디오의 입력 또는 출력 레벨 및 상기 오디오의 종류 중 적어도 하나를 변경하는 동작을 포함함을 특징으로 하는 방법.
  11. 제1항에 있어서, 상기 움직임 정보 및 생체 정보에 따라 상기 전자 장치의 동작을 제어하는 동작은,
    상기 전자 장치의 방향(orientation) 정보 또는 장착 위치 정보를 근거로 하여 콘텐츠를 표시하는 스크린의 위치를 파악하고, 상기 콘텐츠의 사이즈 또는 비율을 조절하는 동작을 포함함을 특징으로 하는 방법.
  12. 제1항에 있어서,
    상기 전자 장치의 착용 위치 또는 콘텐츠를 표시하는 스크린의 방향을 판단하는 동작과,
    상기 착용 위치 또는 상기 스크린의 방향에 따라 상기 콘텐츠를 변경하여 표시하는 동작을 더 포함함을 특징으로 하는 방법.
  13. 전자 장치의 동작 방법에 있어서,
    외부 장치와 통신하는 통신 모듈이 상기 외부 장치와 연결되었는지 여부를 판단하는 동작과,
    상기 외부 장치와의 연결 상태에 따라 전자 장치의 동작을 제어하는 동작을 포함함을 특징으로 하는 방법.
  14. 제13항에 있어서, 상기 외부 장치와의 연결 상태에 따라 전자 장치의 동작을 제어하는 동작은,
    상기 외부 장치와 연결되어 있는 경우, 상기 전자 장치가 상기 외부 장치를 통해 멀티미디어를 출력하도록 제어하는 동작을 포함함을 특징으로 하는 방법.
  15. 제13항에 있어서,
    상기 외부 장치와의 상기 연결 상태가 변경되면, 그 변경된 상태에 따라 상기 전자 장치를 제어하는 동작을 더 포함함을 특징으로 하는 방법.
  16. 전자 장치의 동작 방법에 있어서,
    하나 이상의 외부 장치들과 페어링하는 동작과,
    모션 센서를 이용하여 전자 장치의 움직임 정보를 판단하는 동작과,
    하나 이상의 생체 신호를 분석하여 사용자에 대한 생체 정보를 판단하는 동작과,
    상기 움직임 정보 또는 상기 생체 정보를 근거로 하여 상기 전자 장치로부터 상기 사용자에게 제공될 수 있는 서비스를 결정하는 동작과,
    상기 외부 장치들을 이용하여 상기 서비스를 상기 사용자에게 제공하는 동작을 포함함을 특징으로 하는 방법.
  17. 제16항에 있어서, 상기 하나 이상의 외부 장치들을 이용하여 상기 서비스를 상기 사용자에게 제공하는 동작은,
    상기 움직임 정보 또는 상기 생체 신호를 근거로 하여 상기 하나 이상의 외부 장치를 통해 사용자에게 수신 알람, 발신 중지 또는 변경을 제공하는 동작을 포함함을 특징으로 하는 방법.
  18. 제16항에 있어서,
    상기 움직임 정보 또는 상기 생체 신호를 근거로 하여 상기 하나 이상의 외부 장치들을 통한 멀티미디어의 제공을 일부 제한하는 동작을 더 포함함을 특징으로 하는 방법.
  19. 제16항에 있어서,
    상기 움직임 정보 또는 상기 생체 신호를 근거로 하여 상기 하나 이상의 외부 장치들을 통해 출력되는 오디오의 입력 또는 출력 레벨을 변경하는 동작을 더 포함함을 특징으로 하는 방법.
  20. 제16항에 있어서,
    상기 움직임 정보 또는 상기 생체 신호를 근거로 하여 상기 하나 이상의 외부 장치들을 통한 외부 입력을 중지하는 동작을 더 포함함을 특징으로 하는 방법.
  21. 전자 장치가 콘텐츠를 표시하는 방법에 있어서,
    센싱 데이터를 획득하는 동작과,
    상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과,
    상기 현재 상태를 기초로 디스플레이에 표시할 콘텐츠를 결정하는 동작과,
    상기 디스플레이에 상기 콘텐츠를 표시하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  22. 제21항에 있어서, 상기 센싱 데이터는,
    사용자의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음 또는 혈당 중 하나 이상을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  23. 제21항에 있어서, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작은,
    상기 사용자가 하고 있는 운동의 종류, 운동 강도, 운동의 진행 상태, 상기 사용자의 이동 방향, 이동 속도 중 하나 이상을 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  24. 제23항에 있어서, 상기 현재 상태를 기초로 디스플레이에 표시할 콘텐츠를 결정하는 동작은,
    상기 운동 강도에 따라 상기 디스플레이에 표시할 콘텐츠의 수 또는 색상을 조절하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  25. 제24항에 있어서,
    상기 운동 강도가 강할수록 상기 디스플레이에 표시할 콘텐츠의 수는 감소하고, 상기 운동 강도가 약할수록 상기 디스플레이에 표시할 콘텐츠의 수는 증가함을 특징으로 하는 콘텐츠 표시 방법.
  26. 제23항에 있어서, 상기 현재 상태를 기초로 디스플레이에 표시할 콘텐츠를 결정하는 동작은,
    상기 이동 속도에 따라 상기 디스플레이에 표시할 콘텐츠의 수 또는 색상을 조절하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  27. 제26항에 있어서,
    상기 이동 속도가 증가할수록 상기 디스플레이에 표시할 콘텐츠의 수는 감소하고, 상기 이동 속도가 감속할수록 상기 디스플레이에 표시할 콘텐츠의 수는 증가함을 특징으로 하는 콘텐츠 표시 방법.
  28. 제21항에 있어서, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작은,
    상기 사용자의 스트레스 지수를 결정하는 동작과,
    상기 스트레스 지수가 미리 설정된 임계값 이상인지 여부를 판단하는 과정을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  29. 제28항에 있어서, 상기 현재 상태를 기초로 디스플레이에 표시할 콘텐츠를 결정하는 동작은,
    상기 스트레스 지수가 상기 임계값 이상인 경우, 운동 중단 알람을 표시하는 것으로 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  30. 제28항에 있어서, 상기 현재 상태를 기초로 디스플레이에 표시할 콘텐츠를 결정하는 동작은,
    상기 스트레스 지수가 상기 임계값 미만인 경우, 상기 사용자가 운동을 지속할 수 있도록 하는 콘텐츠를 표시하는 것으로 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  31. 전자 장치가 콘텐츠를 표시하는 방법에 있어서,
    스크린의 방향을 결정하기 위한 센싱 데이터를 획득하는 동작과,
    상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하는 동작과,
    상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작과,
    상기 표시 방향에 따라 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  32. 제31항에 있어서, 상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작은,
    상기 스크린의 가로가 세로보다 긴 경우, 상기 콘텐츠를 가로 방향으로 표시하도록 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  33. 제31항에 있어서, 상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작은,
    상기 스크린의 세로가 가로보다 긴 경우, 상기 콘텐츠를 세로 방향으로 표시하도록 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  34. 제31항에 있어서, 상기 스크린의 방향에 따른 콘텐츠의 표시 방향을 결정하는 동작은,
    상기 스크린 중 일부에서는 상기 콘텐츠를 가로 방향으로 표시하고, 나머지 일부에서는 상기 콘텐츠를 세로 방향으로 표시하는 것으로 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  35. 제31항에 있어서, 상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하는 동작은,
    상기 센싱 데이터에 포함된 전자 장치의 기울기를 기초로 상기 스크린의 회전각을 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  36. 제31항에 있어서, 상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하는 동작은,
    상기 센싱 데이터에 포함된 전자 장치의 기울기를 기초로 상기 스크린의 회전각을 결정하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  37. 제31항에 있어서, 상기 표시 방향에 따라 상기 콘텐츠를 표시하는 동작은,
    상기 스크린의 방향과 사용자의 시선 반대 방향 사이의 각도가 미리 설정된 기준값 미만인 경우, 상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함함을 특징으로 하는 콘텐츠 표시 방법.
  38. 제37항에 있어서,
    상기 스크린의 방향과 사용자의 시선 반대 방향 사이의 각도가 미리 설정된 기준값 이상인 경우, 상기 스크린에 상기 콘텐츠를 표시하지 않는 동작을 더 포함함을 특징으로 하는 콘텐츠 표시 방법.
  39. 콘텐츠를 표시하는 전자 장치에 있어서,
    콘텐츠를 표시하는 스크린을 포함하는 디스플레이와,
    센싱 데이터를 획득하고, 상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하고, 상기 현재 상태를 기초로 상기 스크린에 표시할 콘텐츠를 결정하고, 상기 스크린에 상기 콘텐츠를 표시하도록 상기 디스플레이를 제어하는 제어 모듈을 포함함을 특징으로 하는 전자 장치.
  40. 제39항에 있어서, 상기 센싱 데이터는,
    사용자의 혈압, 혈류, 심박수, 체온, 호흡수, 산소 포화도, 심폐음 또는 혈당 중 하나 이상을 포함함을 특징으로 하는 전자 장치.
  41. 제39항에 있어서, 상기 제어 모듈은,
    상기 사용자가 하고 있는 운동의 종류, 운동 강도, 운동의 진행 상태, 상기 사용자의 이동 방향, 이동 속도 중 하나 이상을 결정함을 특징으로 하는 전자 장치.
  42. 제41항에 있어서, 상기 제어 모듈은,
    상기 운동 강도에 따라 상기 스크린에 표시할 콘텐츠의 수를 조절함을 특징으로 하는 전자 장치.
  43. 제42항에 있어서, 상기 제어 모듈은,
    상기 운동 강도가 강할수록 상기 스크린에 표시할 콘텐츠의 수를 줄이고, 상기 운동 강도가 약할수록 상기 스크린에 표시할 콘텐츠의 수를 늘림을 특징으로 하는 전자 장치.
  44. 제41항에 있어서, 상기 제어 모듈은,
    상기 이동 속도에 따라 상기 스크린에 표시할 콘텐츠의 수를 조절함을 특징으로 하는 전자 장치.
  45. 제44항에 있어서, 상기 제어 모듈은,
    상기 이동 속도가 증가할수록 상기 스크린에 표시할 콘텐츠의 수를 줄이고, 상기 이동 속도가 감소할수록 상기 스크린에 표시할 콘텐츠의 수를 늘림을 특징으로 하는 전자 장치.
  46. 제39항에 있어서, 상기 제어 모듈은,
    상기 사용자의 스트레스 지수를 결정하고, 상기 스트레스 지수가 미리 설정된 임계값 이상인지 여부를 판단하여 상기 스트레스 지수가 상기 임계값 이상인 경우, 운동 중단 알람을 상기 스크린에 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  47. 제46항에 있어서, 상기 제어 모듈은,
    상기 스트레스 지수가 상기 임계값 미만인 경우, 상기 사용자가 운동을 지속할 수 있도록 하는 콘텐츠를 상기 스크린에 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  48. 제39항에 있어서, 상기 제어 모듈은,
    상기 센싱 데이터를 기초로 상기 스크린의 방향을 결정하고, 상기 스크린의 방향을 기초로 상기 콘텐츠의 표시 방향을 결정하고, 상기 표시 방향에 따라 상기 콘텐츠가 표시되도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  49. 제48항에 있어서, 상기 제어 모듈은,
    상기 스크린의 가로가 세로보다 긴 경우, 상기 콘텐츠를 가로 방향으로 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  50. 제47항에 있어서, 상기 제어 모듈은,
    상기 스크린의 세로가 가로보다 긴 경우, 상기 콘텐츠를 세로 방향으로 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  51. 제48항에 있어서, 상기 제어 모듈은,
    상기 스크린 중 일부에서는 상기 콘텐츠를 가로 방향으로 표시하도록 상기 디스플레이를 제어하고, 상기 스크린 중 나머지 일부에서는 상기 콘텐츠를 세로 방향으로 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  52. 제48항에 있어서, 상기 제어 모듈은,
    상기 센싱 데이터에 포함된 전자 장치의 기울기를 기초로 상기 스크린의 회전각을 결정하고, 상기 회전각을 기초로 상기 콘텐츠가 상기 스크린 중 어느 한 방향으로 치우쳐 표시되도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  53. 제48항에 있어서, 상기 제어 모듈은,
    상기 스크린의 방향과 사용자의 시선 반대 방향 사이의 각도가 미리 설정된 기준값 미만인 경우, 상기 콘텐츠를 가로 방향으로 표시하도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  54. 제48항에 있어서, 상기 제어 모듈은,
    상기 스크린의 방향과 사용자의 시선 반대 방향 사이의 각도가 미리 설정된 기준값 이상인 경우, 상기 콘텐츠를 상기 스크린에 표시하지 않도록 상기 디스플레이를 제어함을 특징으로 하는 전자 장치.
  55. 제48항에 있어서, 상기 제어 모듈은,
    상기 센싱 데이터를 기초로 판단한 사용자 상태로서 사용자의 움직임 정도를 결정하고, 상기 사용자의 움직임 정도가 미리 설정된 기준값 이상이면 상기 스크린에 표시되는 상기 콘텐츠의 수를 제한함을 특징으로 하는 전자 장치.
  56. 제55항에 있어서, 상기 제어 모듈은,
    상기 사용자의 움직임 정도가 미리 설정된 기준값 미만이면 상기 스크린에 표시되는 상기 콘텐츠의 수를 제한하지 않음을 특징으로 하는 전자 장치.
  57. 전자 장치가 콘텐츠를 표시하는 방법을 실행하기 위한 프로그램을 기록한 기계로 읽을 수 있는 저장 매체에 있어서, 상기 방법은,
    센싱 데이터를 획득하는 동작과,
    상기 센싱 데이터를 기초로 사용자의 현재 상태를 결정하는 동작과,
    상기 현재 상태를 기초로 스크린에 표시할 콘텐츠를 결정하는 동작과,
    상기 스크린에 상기 콘텐츠를 표시하는 동작을 포함하는 저장 매체.
PCT/KR2015/001666 2014-02-21 2015-02-17 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치 WO2015126182A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020167025950A KR102299076B1 (ko) 2014-02-21 2015-02-17 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
US15/120,587 US10209779B2 (en) 2014-02-21 2015-02-17 Method for displaying content and electronic device therefor
US16/276,786 US20190187802A1 (en) 2014-02-21 2019-02-15 Method for displaying content and electronic device therefor

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201461943004P 2014-02-21 2014-02-21
US61/943,004 2014-02-21
KR1020140194289A KR20160081084A (ko) 2014-12-30 2014-12-30 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
KR10-2014-0194289 2014-12-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US201615120587A Continuation 2014-02-21 2016-08-22

Publications (1)

Publication Number Publication Date
WO2015126182A1 true WO2015126182A1 (ko) 2015-08-27

Family

ID=53878597

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2015/001666 WO2015126182A1 (ko) 2014-02-21 2015-02-17 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치

Country Status (3)

Country Link
US (2) US10209779B2 (ko)
KR (1) KR102299076B1 (ko)
WO (1) WO2015126182A1 (ko)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106037635A (zh) * 2016-05-11 2016-10-26 南京邮电大学 一种基于可穿戴设备的智能预警系统和方法
WO2017083585A1 (en) * 2015-11-10 2017-05-18 Nike Innovate C.V. Multi-modal on-field position determination
WO2017115366A1 (en) 2015-12-29 2017-07-06 Vr Physio Ltd A therapy and physical training device
WO2017164446A1 (ko) * 2016-03-25 2017-09-28 주식회사 핸디소프트 IoT 기반의 센서 데이터 분석 및 제공 시스템 및 방법
CN109100942A (zh) * 2018-07-17 2018-12-28 云南延奔网络科技有限公司 一种智能家居控制设备及控制方法
EP3358445A4 (en) * 2015-09-30 2019-09-11 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
JP2019534721A (ja) * 2016-08-31 2019-12-05 アップル インコーポレイテッドApple Inc. 水泳分析のシステム及び方法
US10617912B2 (en) 2016-08-31 2020-04-14 Apple Inc. Systems and methods of swimming calorimetry
US10620232B2 (en) 2015-09-22 2020-04-14 Apple Inc. Detecting controllers in vehicles using wearable devices
US10687707B2 (en) 2016-06-07 2020-06-23 Apple Inc. Detecting activity by a wheelchair user
US10687752B2 (en) 2016-08-29 2020-06-23 Apple Inc. Detecting unmeasurable loads using heart rate and work rate
US10694994B2 (en) 2016-03-22 2020-06-30 Apple Inc. Techniques for jointly calibrating load and aerobic capacity
US10699594B2 (en) 2015-09-16 2020-06-30 Apple Inc. Calculating an estimate of wind resistance experienced by a cyclist
US10709933B2 (en) 2016-08-17 2020-07-14 Apple Inc. Pose and heart rate energy expenditure for yoga
US11051720B2 (en) 2017-06-01 2021-07-06 Apple Inc. Fitness tracking for constrained-arm usage
US11896368B2 (en) 2016-08-31 2024-02-13 Apple Inc. Systems and methods for determining swimming metrics
US11937904B2 (en) 2019-09-09 2024-03-26 Apple Inc. Detecting the end of cardio machine activities on a wearable device

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9459781B2 (en) 2012-05-09 2016-10-04 Apple Inc. Context-specific user interfaces for displaying animated sequences
US9547425B2 (en) 2012-05-09 2017-01-17 Apple Inc. Context-specific user interfaces
US10990270B2 (en) 2012-05-09 2021-04-27 Apple Inc. Context-specific user interfaces
US10613743B2 (en) 2012-05-09 2020-04-07 Apple Inc. User interface for receiving user input
US10725550B2 (en) * 2014-01-07 2020-07-28 Nod, Inc. Methods and apparatus for recognition of a plurality of gestures using roll pitch yaw data
US10338678B2 (en) 2014-01-07 2019-07-02 Nod, Inc. Methods and apparatus for recognition of start and/or stop portions of a gesture using an auxiliary sensor
JP6572886B2 (ja) * 2014-05-22 2019-09-11 ソニー株式会社 情報処理装置および情報処理方法
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
NL2013188B1 (nl) * 2014-07-15 2016-09-13 Lely Patent Nv Melkveehouderijsysteem.
EP3195098A2 (en) 2014-07-21 2017-07-26 Apple Inc. Remote user interface
US10452253B2 (en) 2014-08-15 2019-10-22 Apple Inc. Weather user interface
WO2016036481A1 (en) 2014-09-02 2016-03-10 Apple Inc. Reduced-size user interfaces for dynamically updated application overviews
CN115623117A (zh) 2014-09-02 2023-01-17 苹果公司 电话用户界面
US20160238408A1 (en) * 2015-02-18 2016-08-18 Plantronics, Inc. Automatic Determination of User Direction Based on Direction Reported by Mobile Device
US10055121B2 (en) * 2015-03-07 2018-08-21 Apple Inc. Activity based thresholds and feedbacks
US9961544B2 (en) * 2015-05-26 2018-05-01 Skullcandy, Inc. Personalized media delivery
US10621955B2 (en) * 2015-05-28 2020-04-14 Lg Electronics Inc. Wearable terminal for displaying screen optimized for various situations
US9916075B2 (en) 2015-06-05 2018-03-13 Apple Inc. Formatting content for a reduced-size user interface
US11874716B2 (en) 2015-08-05 2024-01-16 Suunto Oy Embedded computing device management
US11210299B2 (en) 2015-12-01 2021-12-28 Amer Sports Digital Services Oy Apparatus and method for presenting thematic maps
US11144107B2 (en) 2015-12-01 2021-10-12 Amer Sports Digital Services Oy Apparatus and method for presenting thematic maps
US11215457B2 (en) 2015-12-01 2022-01-04 Amer Sports Digital Services Oy Thematic map based route optimization
US11137820B2 (en) 2015-12-01 2021-10-05 Amer Sports Digital Services Oy Apparatus and method for presenting thematic maps
US11541280B2 (en) 2015-12-21 2023-01-03 Suunto Oy Apparatus and exercising device
FI127926B (en) 2015-12-21 2019-05-31 Suunto Oy Sensor-based context management
US11284807B2 (en) 2015-12-21 2022-03-29 Amer Sports Digital Services Oy Engaging exercising devices with a mobile device
US11587484B2 (en) * 2015-12-21 2023-02-21 Suunto Oy Method for controlling a display
US11838990B2 (en) 2015-12-21 2023-12-05 Suunto Oy Communicating sensor data in wireless communication systems
DE102016015695A1 (de) 2015-12-21 2017-06-22 Suunto Oy Aktivitätsintensitätspegel-Bestimmung
US11857842B2 (en) 2015-12-21 2024-01-02 Suunto Oy Apparatus and exercising device
US10394316B2 (en) * 2016-04-07 2019-08-27 Hand Held Products, Inc. Multiple display modes on a mobile device
GB2548420B (en) * 2016-06-10 2018-08-22 Polar Electro Oy Clock synchronization within wireless network
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
DE102017009171A1 (de) 2016-10-17 2018-04-19 Amer Sports Digital Services Oy Eingebettete rechenvorrichtung
US11703938B2 (en) 2016-10-17 2023-07-18 Suunto Oy Embedded computing device
JP6868397B2 (ja) * 2017-01-12 2021-05-12 任天堂株式会社 振動制御システム、振動制御装置、振動制御プログラムおよび振動制御方法
DE102017108194A1 (de) * 2017-04-18 2018-10-18 Vorwerk & Co. Interholding Gmbh Verfahren zum Betrieb eines sich selbsttätig fortbewegenden Fahrzeugs
KR102399533B1 (ko) 2017-10-18 2022-05-19 삼성전자주식회사 사용자의 활동에 대응하는 스트레스 지수를 제공하는 방법 및 전자 장치
KR20190088128A (ko) * 2018-01-05 2019-07-26 삼성전자주식회사 전자 장치 및 그의 제어 방법
JP7135421B2 (ja) * 2018-05-11 2022-09-13 富士フイルムビジネスイノベーション株式会社 情報処理装置、情報処理システム及びプログラム
JP7064173B2 (ja) * 2018-05-11 2022-05-10 富士フイルムビジネスイノベーション株式会社 情報処理装置及びプログラム
US10802598B2 (en) * 2018-08-05 2020-10-13 Pison Technology, Inc. User interface control of responsive devices
US11099647B2 (en) * 2018-08-05 2021-08-24 Pison Technology, Inc. User interface control of responsive devices
US10891916B2 (en) * 2018-11-29 2021-01-12 International Business Machines Corporation Automated smart watch complication selection based upon derived visibility score
KR102136284B1 (ko) * 2019-02-22 2020-07-22 박두연 전자장치
GB2588983B (en) * 2019-04-25 2022-05-25 Motional Ad Llc Graphical user interface for display of autonomous vehicle behaviors
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
US11637511B2 (en) 2019-07-23 2023-04-25 BlueOwl, LLC Harvesting energy for a smart ring via piezoelectric charging
US11551644B1 (en) * 2019-07-23 2023-01-10 BlueOwl, LLC Electronic ink display for smart ring
US11537917B1 (en) 2019-07-23 2022-12-27 BlueOwl, LLC Smart ring system for measuring driver impairment levels and using machine learning techniques to predict high risk driving behavior
US11537203B2 (en) 2019-07-23 2022-12-27 BlueOwl, LLC Projection system for smart ring visual output
US11853030B2 (en) 2019-07-23 2023-12-26 BlueOwl, LLC Soft smart ring and method of manufacture
US11949673B1 (en) 2019-07-23 2024-04-02 BlueOwl, LLC Gesture authentication using a smart ring
US11909238B1 (en) 2019-07-23 2024-02-20 BlueOwl, LLC Environment-integrated smart ring charger
US11462107B1 (en) 2019-07-23 2022-10-04 BlueOwl, LLC Light emitting diodes and diode arrays for smart ring visual output
US11594128B2 (en) 2019-07-23 2023-02-28 BlueOwl, LLC Non-visual outputs for a smart ring
US11869213B2 (en) * 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
US11157086B2 (en) 2020-01-28 2021-10-26 Pison Technology, Inc. Determining a geographical location based on human gestures
US11199908B2 (en) 2020-01-28 2021-12-14 Pison Technology, Inc. Wrist-worn device-based inputs for an operating system
KR20220013157A (ko) 2020-07-24 2022-02-04 삼성전자주식회사 전자 장치 및 이의 제어 방법
WO2024049309A1 (en) * 2022-08-28 2024-03-07 Bani Oraba Khlood A medical bracelet to measure vital functions

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080171636A1 (en) * 2007-01-11 2008-07-17 Yamaha Corporation Apparatus for displaying fitness exercise condition
KR100869245B1 (ko) * 2007-11-29 2008-11-18 한국전자통신연구원 사용자 맞춤형 서비스 제공 시스템 및 방법
US20090100384A1 (en) * 2007-10-10 2009-04-16 Apple Inc. Variable device graphical user interface
KR20120098854A (ko) * 2009-12-09 2012-09-05 나이키 인터내셔널 엘티디. 심박수 정보를 이용하는 운동 수행 모니터링 시스템
US20120327123A1 (en) * 2011-06-23 2012-12-27 Verizon Patent And Licensing Inc. Adjusting font sizes
KR20130046147A (ko) * 2011-10-27 2013-05-07 삼성전자주식회사 터치스크린 휴대 기기에서 사용자 인터페이스 개체를 배치하는 방법 및 장치
US20130285963A1 (en) * 2008-10-06 2013-10-31 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern

Family Cites Families (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070159926A1 (en) * 2003-04-17 2007-07-12 Nike, Inc. Adaptive Watch
US6837827B1 (en) * 2003-06-17 2005-01-04 Garmin Ltd. Personal training device using GPS data
US20050276164A1 (en) * 2004-06-12 2005-12-15 Scott Amron Watch adapted to rotate a displayed image so as to appear in a substantially constant upright orientation
JP2006187469A (ja) * 2005-01-06 2006-07-20 Seiko Instruments Inc 運動強度評価装置
KR101196985B1 (ko) 2006-01-19 2012-11-02 삼성전자주식회사 휴대용 단말의 유저 인터페이스 화면 디스플레이 방법
US7827000B2 (en) * 2006-03-03 2010-11-02 Garmin Switzerland Gmbh Method and apparatus for estimating a motion parameter
US7778118B2 (en) * 2007-08-28 2010-08-17 Garmin Ltd. Watch device having touch-bezel user interface
JP4946756B2 (ja) * 2007-09-26 2012-06-06 ブラザー工業株式会社 運動支援装置、運動支援プログラムおよび運動支援システム
JP4662292B2 (ja) * 2008-07-14 2011-03-30 株式会社日本自動車部品総合研究所 燃料噴射装置
CN102203850A (zh) * 2008-09-12 2011-09-28 格斯图尔泰克公司 相对于用户而定向所显示的元素
CA2937212C (en) * 2009-04-26 2019-04-16 Nike Innovate C.V. Athletic watch
CH701440A2 (fr) * 2009-07-03 2011-01-14 Comme Le Temps Sa Montre-bracelet à écran tactile et procédé d'affichage sur une montre à écran tactile.
WO2012115943A1 (en) * 2011-02-22 2012-08-30 Heartmiles, Llc Activity type detection and targeted advertising system
KR101818573B1 (ko) 2011-07-07 2018-01-15 삼성전자 주식회사 얼굴 인식을 이용한 보기모드 표시 방법 및 장치
US20130033228A1 (en) * 2011-08-05 2013-02-07 Evatran Llc Method and apparatus for inductively transferring ac power between a charging unit and a vehicle
US20130120106A1 (en) * 2011-11-16 2013-05-16 Motorola Mobility, Inc. Display device, corresponding systems, and methods therefor
US20130254705A1 (en) * 2012-03-20 2013-09-26 Wimm Labs, Inc. Multi-axis user interface for a touch-screen enabled wearable device
KR20130107156A (ko) 2012-03-21 2013-10-01 주식회사 온비트 사용자의 인증정보 및 사용자의 위치에 따라 변경 가능한 착용형 휴대단말기의 메뉴변경시스템 및 변경방법
US20140180595A1 (en) * 2012-12-26 2014-06-26 Fitbit, Inc. Device state dependent user interface management
CN203252647U (zh) * 2012-09-29 2013-10-30 艾利佛公司 用于判定生理特征的可佩带的设备
US20150182113A1 (en) * 2013-12-31 2015-07-02 Aliphcom Real-time fatigue, personal effectiveness, injury risk device(s)
GB2512393A (en) * 2013-03-28 2014-10-01 Nec Corp Apparatus and methods for small data transmission
FR3004563A1 (fr) * 2013-04-15 2014-10-17 Inside Secure Procede d'acquisition d'une information biologique au moyen d'un courant intracorporel
KR20150009301A (ko) * 2013-07-16 2015-01-26 엘에스산전 주식회사 인버터 시스템의 동작 제어 장치 및 방법
US9606721B2 (en) * 2013-07-22 2017-03-28 Lg Electronics Inc. Mobile terminal and control method thereof
JP2015052387A (ja) * 2013-08-05 2015-03-19 株式会社ジェイテクト ボールねじ装置
EP3063602B1 (en) * 2013-11-01 2019-10-23 Intel Corporation Gaze-assisted touchscreen inputs
US9383818B2 (en) * 2013-12-27 2016-07-05 Google Technology Holdings LLC Method and system for tilt-based actuation
US20150182130A1 (en) * 2013-12-31 2015-07-02 Aliphcom True resting heart rate
US9668367B2 (en) * 2014-02-04 2017-05-30 Microsoft Technology Licensing, Llc Wearable computing systems
CN110251080B (zh) * 2014-02-11 2022-04-26 苹果公司 检测正在穿戴可穿戴电子设备的肢体
US20160034980A1 (en) * 2014-07-31 2016-02-04 iCracked Inc. Method and system to evaluate the condition of client equipment and accurately assess the price and extent of repairs

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080171636A1 (en) * 2007-01-11 2008-07-17 Yamaha Corporation Apparatus for displaying fitness exercise condition
US20090100384A1 (en) * 2007-10-10 2009-04-16 Apple Inc. Variable device graphical user interface
KR100869245B1 (ko) * 2007-11-29 2008-11-18 한국전자통신연구원 사용자 맞춤형 서비스 제공 시스템 및 방법
US20130285963A1 (en) * 2008-10-06 2013-10-31 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR20120098854A (ko) * 2009-12-09 2012-09-05 나이키 인터내셔널 엘티디. 심박수 정보를 이용하는 운동 수행 모니터링 시스템
US20120327123A1 (en) * 2011-06-23 2012-12-27 Verizon Patent And Licensing Inc. Adjusting font sizes
KR20130046147A (ko) * 2011-10-27 2013-05-07 삼성전자주식회사 터치스크린 휴대 기기에서 사용자 인터페이스 개체를 배치하는 방법 및 장치

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10699594B2 (en) 2015-09-16 2020-06-30 Apple Inc. Calculating an estimate of wind resistance experienced by a cyclist
US10620232B2 (en) 2015-09-22 2020-04-14 Apple Inc. Detecting controllers in vehicles using wearable devices
EP3358445A4 (en) * 2015-09-30 2019-09-11 Sony Corporation INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING PROCESS AND PROGRAM
WO2017083585A1 (en) * 2015-11-10 2017-05-18 Nike Innovate C.V. Multi-modal on-field position determination
US11864151B2 (en) 2015-11-10 2024-01-02 Nike, Inc. Multi-modal on-field position determination
US11096140B2 (en) 2015-11-10 2021-08-17 Nike, Inc. Multi-modal on-field position determination
EP3397359A4 (en) * 2015-12-29 2019-08-21 VR Physio Ltd THERAPY AND BODY TRAINING DEVICE
WO2017115366A1 (en) 2015-12-29 2017-07-06 Vr Physio Ltd A therapy and physical training device
US11298588B2 (en) 2015-12-29 2022-04-12 Xr Health Il Ltd Therapy and physical training device
AU2016381634B2 (en) * 2015-12-29 2021-12-16 VRHealth Ltd A therapy and physical training device
CN109069901B (zh) * 2015-12-29 2021-10-15 Vr健康有限公司 治疗和物理训练设备
CN109069901A (zh) * 2015-12-29 2018-12-21 Vr健康有限公司 治疗和物理训练设备
US10773122B2 (en) 2015-12-29 2020-09-15 Xr Health Il Ltd Therapy and physical training device
US10694994B2 (en) 2016-03-22 2020-06-30 Apple Inc. Techniques for jointly calibrating load and aerobic capacity
WO2017164446A1 (ko) * 2016-03-25 2017-09-28 주식회사 핸디소프트 IoT 기반의 센서 데이터 분석 및 제공 시스템 및 방법
CN106037635A (zh) * 2016-05-11 2016-10-26 南京邮电大学 一种基于可穿戴设备的智能预警系统和方法
US10687707B2 (en) 2016-06-07 2020-06-23 Apple Inc. Detecting activity by a wheelchair user
US10709933B2 (en) 2016-08-17 2020-07-14 Apple Inc. Pose and heart rate energy expenditure for yoga
US10687752B2 (en) 2016-08-29 2020-06-23 Apple Inc. Detecting unmeasurable loads using heart rate and work rate
US11103749B2 (en) 2016-08-31 2021-08-31 Apple Inc. Systems and methods of swimming analysis
US10617912B2 (en) 2016-08-31 2020-04-14 Apple Inc. Systems and methods of swimming calorimetry
JP2019534721A (ja) * 2016-08-31 2019-12-05 アップル インコーポレイテッドApple Inc. 水泳分析のシステム及び方法
US11896368B2 (en) 2016-08-31 2024-02-13 Apple Inc. Systems and methods for determining swimming metrics
US11051720B2 (en) 2017-06-01 2021-07-06 Apple Inc. Fitness tracking for constrained-arm usage
CN109100942A (zh) * 2018-07-17 2018-12-28 云南延奔网络科技有限公司 一种智能家居控制设备及控制方法
US11937904B2 (en) 2019-09-09 2024-03-26 Apple Inc. Detecting the end of cardio machine activities on a wearable device

Also Published As

Publication number Publication date
US20190187802A1 (en) 2019-06-20
US10209779B2 (en) 2019-02-19
KR102299076B1 (ko) 2021-09-08
KR20160119239A (ko) 2016-10-12
US20170010677A1 (en) 2017-01-12

Similar Documents

Publication Publication Date Title
WO2015126182A1 (ko) 콘텐츠를 표시하는 방법 및 이를 위한 전자 장치
WO2017026680A1 (en) Method for detecting biometric information and electronic device using same
WO2018131775A1 (ko) 전자 장치 및 그의 동작 방법
WO2017078288A1 (ko) 사용자 프로파일을 생성하기 위한 전자 장치 및 방법
WO2016175607A1 (ko) 휴대 장치 및 휴대 장치의 콘텐트 화면 변경방법
WO2016072749A1 (en) Electronic device, and method for analyzing face information in electronic device
WO2017002989A1 (ko) 워치 타입의 이동 단말기 및 그 제어 방법
WO2018012719A1 (en) Electronic apparatus having a hole area within screen and control method thereof
WO2016195161A1 (en) Watch type terminal and method for controlling the same
WO2017142370A1 (ko) 사용자의 피부 유형에 따른 콘텐트를 제공하기 위한 전자 장치 및 방법
WO2018026102A1 (ko) 전자 장치 및 그의 동작 방법
WO2016144058A1 (en) Wearable electronic device and method for controlling the same
WO2017164680A1 (ko) 디스플레이를 가진 전자 장치
WO2018110891A1 (en) Mobile terminal and method for controlling the same
WO2016018039A1 (en) Apparatus and method for providing information
WO2016043405A1 (en) Mobile terminal and motion-based low power implementing method thereof
WO2015156461A1 (ko) 이동 단말기 및 그 제어방법
WO2016068581A1 (en) Device and method of managing user information based on image
WO2016204443A1 (en) Electronic device for measuring information regarding human body and operating method thereof
WO2016099031A1 (en) Portable apparatus and method of controlling location information of portable apparatus
WO2018182197A1 (en) Device for providing information related to object in image
WO2016024752A1 (en) Wearable device and method of operating the same
WO2017026815A1 (en) Portable apparatus and method for displaying a screen
WO2016122158A1 (en) Image processing method and electronic device for supporting the same
WO2018182279A1 (en) Method and apparatus for providing augmented reality function in electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15752500

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 15120587

Country of ref document: US

ENP Entry into the national phase

Ref document number: 20167025950

Country of ref document: KR

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 15752500

Country of ref document: EP

Kind code of ref document: A1