WO2018143660A1 - 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법 - Google Patents

스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법 Download PDF

Info

Publication number
WO2018143660A1
WO2018143660A1 PCT/KR2018/001317 KR2018001317W WO2018143660A1 WO 2018143660 A1 WO2018143660 A1 WO 2018143660A1 KR 2018001317 W KR2018001317 W KR 2018001317W WO 2018143660 A1 WO2018143660 A1 WO 2018143660A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
screen
information
display
processor
Prior art date
Application number
PCT/KR2018/001317
Other languages
English (en)
French (fr)
Inventor
서형진
아인바운드로만
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/468,764 priority Critical patent/US11079724B2/en
Publication of WO2018143660A1 publication Critical patent/WO2018143660A1/ko
Priority to US17/391,384 priority patent/US20210356914A1/en

Links

Images

Classifications

    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/04Input or output devices integrated in time-pieces using radio waves
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/02Detectors of external physical values, e.g. temperature
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G21/00Input or output devices integrated in time-pieces
    • G04G21/08Touch switches specially adapted for time-pieces
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0005Transmission of control signals
    • G04G9/0011Transmission of control signals using coded signals
    • GPHYSICS
    • G04HOROLOGY
    • G04GELECTRONIC TIME-PIECES
    • G04G9/00Visual time or date indication means
    • G04G9/0064Visual time or date indication means in which functions not related to time can be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1415Digital output to display device ; Cooperation and interconnection of the display device with other functional units with means for detecting differences between the image stored in the host and the images displayed on the displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1454Digital output to display device ; Cooperation and interconnection of the display device with other functional units involving copying of the display data of a local workstation or window to a remote workstation or window so that an actual copy of the data is displayed simultaneously on two or more displays, e.g. teledisplay
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/17Image acquisition using hand-held instruments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0492Change of orientation of the displayed image, e.g. upside-down, mirrored
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/14Detecting light within display terminals, e.g. using a single or a plurality of photosensors
    • G09G2360/144Detecting light within display terminals, e.g. using a single or a plurality of photosensors the light being ambient light
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/16Use of wireless transmission of display information

Definitions

  • Various embodiments of the present disclosure relate to an electronic device for controlling a watch face of a smart watch and a method of operating the same.
  • the watch face the wallpaper of the smart watch, plays an important role in making the smart watch a real watch, not just an electronic device.
  • the existing smart watch does not reflect the clothes worn by the user, the surrounding environment, and / or fashion trends, and was forced to select the watch face only within a preset range. That is, the existing smart watch has a limitation in providing the user with various types of watch faces suitable for the current situation of the user.
  • an electronic device and a method of operating the same provide a watch face suitable for a user in consideration of a clothes worn by a user of the smart watch or a surrounding environment.
  • An electronic device may include a first screen displayed on a display of the second electronic device and a second electronic device using a camera module, a communication module communicating with a second electronic device, and the camera module. And a processor configured to photograph an external background of the second electronic device and to acquire a second screen of the second electronic device by using the first screen and the external background.
  • An operation method of an electronic device may include photographing a first screen displayed on a display of a second electronic device and an external background of the second electronic device by using a camera module, and photographing the first image. And acquiring a second screen of the second electronic device using the first screen and the external background.
  • an electronic device may include a display, a communication module communicating with a first electronic device, and a second screen of a second electronic device.
  • a communication module communicating with a first electronic device
  • a second screen of a second electronic device In response to the information about the display, when the first screen is displayed on the display, and the first electronic device captures an external background of the second electronic device using the first screen displayed on the second electronic device, And a processor configured to receive, from the first electronic device, information on the second screen for setting a second screen.
  • An electronic device does not require complicated steps, and has an effect of automatically providing a watch face suitable for a user in consideration of clothes or a surrounding environment worn by the user.
  • FIG. 1 is a schematic block diagram of an electronic system according to various embodiments of the present disclosure.
  • FIG. 2 is a detailed block diagram of the electronic system shown in FIG. 1.
  • FIG. 3 is a data flow diagram illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • FIG. 4 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • FIG. 7 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • FIG. 8 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • FIG. 9 is a block diagram illustrating a first electronic device and a second electronic device according to various embodiments of the present disclosure.
  • FIG. 10 is a block diagram of a first screen according to various embodiments of the present disclosure.
  • 11A and 11B are block diagrams of a first screen according to various embodiments of the present disclosure.
  • 12A to 12G are block diagrams of an operation of acquiring a second screen according to various embodiments of the present disclosure.
  • FIGS. 13A to 13C are block diagrams illustrating operations of the first electronic device according to various embodiments of the present disclosure.
  • 14A to 14E are block diagrams illustrating operations of a first electronic device according to various embodiments of the present disclosure.
  • 15A to 15E are block diagrams illustrating operations of a first electronic device and a second electronic device according to various embodiments of the present disclosure.
  • 16 is a block diagram illustrating an operation of a first electronic device according to various embodiments of the present disclosure.
  • 17A to 17F are block diagrams illustrating operations of a second electronic device according to various embodiments of the present disclosure.
  • the expression “device configured to” may mean that the device “can” together with other devices or components.
  • processor configured (or configured to) perform A, B, and C may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general purpose processor (eg, a CPU or an application processor) capable of performing the corresponding operations.
  • An electronic device may be, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP ( portable multimedia player), an MP3 player, a medical device, a camera, or a wearable device.
  • Wearable devices may be accessory (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or head-mounted-devices (HMDs), textile or apparel integral (e.g.
  • the electronic device is, for example, a television, a digital video disk (DVD) player, audio , Refrigerator, air conditioner, cleaner, oven, microwave, washing machine, air purifier, set-top box, home automation control panel, security control panel, media box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ), It may include at least one of a game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic frame.
  • a game console eg, Xbox TM , PlayStation TM
  • an electronic dictionary e.g., an electronic key, a camcorder, or an electronic frame.
  • the electronic device may include various medical devices (eg, various portable medical measuring devices (such as blood glucose meters, heart rate monitors, blood pressure monitors, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDR), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g.
  • various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure monitors, or body temperature meters
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT Computed tomography
  • GNSS global navigation satellite systems
  • EDR event data recorders
  • FDRs flight data recorders
  • automotive infotainment devices ship electronics (E.g.
  • an electronic device may be a part of a furniture, building / structure or automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, Gas, or a radio wave measuring instrument).
  • the electronic device may be flexible or a combination of two or more of the aforementioned various devices.
  • Electronic devices according to embodiments of the present disclosure are not limited to the above-described devices.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • Modules may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or known or future developments that perform certain operations. It can include a programmable logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • an apparatus eg, modules or functions thereof
  • a method eg, operations
  • a computer-readable storage medium eg, a memory
  • the instruction is executed by a processor (eg, a processor)
  • the processor may perform a function corresponding to the instruction.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magnetic-optical media (e.g. floppy disks), internal memory, etc.).
  • Instructions may include code generated by a compiler or code executable by an interpreter
  • Modules or program modules may include at least one or more of the above-described components. According to various embodiments of the present disclosure, operations performed by a module, a program module, or another component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least in some cases. Some operations may be executed in a different order, omitted, or other operations may be added.
  • FIG. 1 is a schematic block diagram of an electronic system according to various embodiments of the present disclosure.
  • the electronic system 100 may include a first electronic device 101 and a second electronic device 170.
  • the first electronic device 101 may set (or change) a screen of the second electronic device 170.
  • the first electronic device 101 may refer to a device that is paired with the second electronic device 170.
  • the first electronic device 101 may take a picture of the first screen displayed on the second electronic device 170 and the external background of the second electronic device 170. Also, the second electronic device 101 acquires a second screen of the second electronic device 170 by using the photographed first screen of the second electronic device 170 and the external background of the second electronic device 170. (Or create).
  • the first screen may mean an image including a color pattern.
  • the second screen may mean an image including a background screen and / or a standby screen of the second electronic device 170.
  • the second screen may include a watch face.
  • the watch face may mean a clock screen, a background screen, and / or a standby screen of the second electronic device 170 (eg, a smart watch).
  • the first electronic device 101 may be implemented as a terminal capable of communicating with the smart phone or the second electronic device 170.
  • the second electronic device 170 may display a screen through the display.
  • the second electronic device 170 may display a screen according to the control of the first electronic device 101.
  • the first electronic device 170 may display a first screen under the control of the first electronic device 101.
  • the second electronic device 170 may set (or change) a second screen (eg, a watch face) under the control of the first electronic device 101.
  • the second electronic device 170 may be implemented as a wearable device.
  • the second electronic device 170 may be implemented as a smart watch or an activity tracker.
  • an activity tracker may mean a device for measuring exercise amount or biometric information.
  • FIG. 2 is a detailed block diagram of the electronic system 100 shown in FIG. 1.
  • the electronic system 100 shown in FIG. 2 may further include a network 199 and a server 200 connected through the network 199.
  • the first electronic device 101 may include a processor 110, a camera module 120, a communication module 130, a memory 140, a display 150, and a GPS module 160. In addition, the first electronic device 101 may omit at least one of the components or additionally include other components.
  • the processor 110 may control overall operations of the first electronic device 101.
  • the processor 110 may include one or more of a central processing unit, an application processor, or a communication processor (CP).
  • the processor 110 may execute, for example, an operation or data processing related to control and / or communication of at least one other component of the electronic device 101.
  • the processor 110 may execute a first application 115 for setting a second screen of the second electronic device 170.
  • the first application 115 may refer to an application for setting (or changing) a background screen, a standby screen, and / or a watch face of the second electronic device 170.
  • the processor 110 may set a second screen of the second electronic device 170.
  • the processor 110 may generate a first screen to set a second screen of the second electronic device 170.
  • the processor 110 may transmit the information IM1 about the generated first screen to the second electronic device 170 through the communication module 130.
  • the information IM1 on the first screen may mean information on an image included in the first screen such that the second electronic device 170 displays the first screen.
  • the first screen may mean an image including a color pattern.
  • the color pattern of the first screen may be changed at a predetermined period.
  • the processor 110 may transmit information about the first screen to the second electronic device 170 so that the second electronic device 170 displays the first screen including the color pattern.
  • the processor 110 may photograph the first screen displayed on the second electronic device 470 and the external background of the second electronic device 170 using the camera module 120. In addition, the processor 110 may acquire (or generate) a second screen of the second electronic device 170 using the captured first screen and the external background.
  • the processor 110 may photograph the first screen displayed on the second electronic device 170 and the external background of the second electronic device 170.
  • the processor 110 may obtain information about an external background of the second electronic device 170 using the first screen (eg, a color pattern).
  • the external background of the second electronic device 170 may include wear information (eg, a wear position and a wear pattern) and an ambient color (eg, ambient brightness, skin color, color of clothes, and the like) of the user's second electronic device 170. Pattern, color of the strap and pattern).
  • the external background of the second electronic device 170 may include a wearing position of the second electronic device, a shape of wearing, a peripheral brightness, a color of the user's skin, a color of the user's clothes, a pattern or a style of the user's clothes, a strap It may include information on the color of, and / or the pattern of the strap.
  • the processor 110 may obtain information on the external background by correcting the captured external background based on the color pattern of the first screen.
  • the processor 110 may include a color pattern displayed on the second electronic device 170, a brightness of the surroundings of the second electronic device, a skin color of the user, a pattern of the user's clothes, a color of the user's clothes, and a strap.
  • the ambient color may be determined by comparing at least one of the color of the light emitting device and the pattern of the strap.
  • the processor 110 compares the color pattern displayed on the second electronic device 170 with the reference pattern stored in the memory 140 of the first electronic device 110 to determine the location, direction, and location of the second electronic device 110. And wearing information including at least one of the inclination angles.
  • the processor 110 may determine the correct wearing information and the surrounding color of the second electronic device 170 based on the predetermined color pattern of the first screen.
  • the processor 110 may acquire (or generate) a second screen by using the obtained information about the external background. For example, the processor 110 may acquire (or generate) a second screen based on the wearing information and the surrounding color.
  • the processor 110 may obtain a second screen by using an image stored in the memory 140 by a user or by using frequently.
  • the processor 110 stores the frequently used colors or patterns, and patterns including the same, in the memory 140, and displays the second screen using the stored frequently used colors or patterns, and the patterns including the same. Can also be obtained.
  • the processor 110 may acquire a background of the second screen using an ambient color, and may acquire an object displayed on the background to be contrasted with the background.
  • the processor 110 may obtain additional information based on the location information received through the GPS module 160.
  • the processor 110 may generate a second screen by adding an image related to the acquired additional information to a second screen.
  • the processor 110 may obtain additional information by accessing the server 200 based on the location information.
  • the processor 110 may obtain additional information about the location information stored in the server 200.
  • the additional information may include event information, weather information, country information, time information, season information, and / or fashion information (eg, fashion trends and / or taboo fashions corresponding to the location information) related to the location information. can do.
  • the event information may include information about an event or a conference in a region corresponding to the location information.
  • the processor 110 may generate a second screen by using information about the external background.
  • the processor 110 may acquire at least one of the screens stored in the memory 140 as the second screen by using information on the external background.
  • the processor 110 may display a second screen on the display 150.
  • the processor 110 may adjust the size or shape of the second screen in response to an input (for example, a touch input) for the second screen.
  • the processor 110 may transmit the information IM2 about the obtained second screen to the second electronic device.
  • the information IM2 on the second screen may refer to information on an image included in the second screen such that the second electronic device 170 sets the second screen.
  • the camera module 120 may photograph the first screen of the second electronic device 170, the second electronic device 170, and the external background of the second electronic device 170. In addition, the camera module 120 may transmit the captured first screen of the second electronic device 170 and the external background of the second electronic device 170 to the processor 110.
  • the camera module 120 is a device capable of capturing still images and moving images.
  • at least one image sensor eg, a front sensor or a rear sensor
  • a lens e.g., a lens
  • ISP image signal processor
  • It may include a flash (eg LED or xenon lamp, etc.).
  • the communication module 130 may transmit / receive data with the second electronic device 170 and / or the server 200 using wireless or wired communication.
  • the communication module 130 may transmit information IM1 about the first screen to the second electronic device 170 under the control of the processor 110.
  • the communication module 130 may transmit information IM2 about the second screen to the second electronic device 170 under the control of the processor 110.
  • wireless communication includes LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro), or Global System for GSM (GSM).
  • LTE Long Term Evolution
  • LTE-A LTE Advance
  • CDMA code division multiple access
  • WCDMA wideband CDMA
  • UMTS universal mobile telecommunications system
  • WiBro Global System for GSM
  • GSM Global System for GSM
  • Mobile communications may include, for example, wireless fidelity (WiFi), Bluetooth, Bluetooth low power (BLE), Zigbee, near field communication (NFC), magnetic secure transmission, and radio. It may include at least one of a frequency (RF) or a body area network (BAN).
  • RF frequency
  • BAN body area network
  • the wireless communication may include GNSS.
  • the GNSS may be, for example, a Global Positioning System (GPS), a Global Navigation Satellite System (Glonass), a Beidou Navigation Satellite System (hereinafter referred to as "Beidou”), or a Galileo, the European global satellite-based navigation system.
  • GPS Global Positioning System
  • Glonass Global Navigation Satellite System
  • Beidou Beidou Navigation Satellite System
  • Galileo the European global satellite-based navigation system.
  • Wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a standard standard232 (RS-232), a power line communication, a plain old telephone service (POTS), and the like.
  • the network 162 may comprise a telecommunications network, for example at least one of a computer network (eg, LAN or WAN), the Internet, or a telephone network.
  • the communication module 130 may include, for example, a cellular module, a WiFi module, a Bluetooth module, a GNSS module, an NFC module, and / or an RF module.
  • the cellular module may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network.
  • the cellular module may perform identification and authentication of the electronic device 101 in a communication network using a subscriber identification module (eg, a SIM card).
  • the cellular module may perform at least some of the functions that the processor 110 may provide.
  • the cellular module may include a communication processor (CP).
  • the cellular module, WiFi module, Bluetooth module, GNSS module, or NFC module may be included in one integrated chip (IC) or IC package.
  • the RF module may transmit / receive, for example, a communication signal (eg, an RF signal).
  • the RF module may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
  • PAM power amp module
  • LNA low noise amplifier
  • at least one of the cellular module, the WiFi module, the Bluetooth module, the GNSS module, or the NFC module may transmit and receive an RF signal through a separate RF module.
  • the subscriber identification module may include, for example, a card or an embedded SIM that includes the subscriber identification module, and may include unique identification information (eg, an integrated circuit card identifier (ICCID)) or subscriber information (eg, an international mobile IMSI). subscriber identity)).
  • ICCID integrated circuit card identifier
  • subscriber information eg, an international mobile IMSI. subscriber identity
  • the memory 140 may store data for setting a second screen of the second electronic device.
  • the memory 140 may store the first application 115.
  • the memory 140 may store information about the color pattern as a reference pattern under the control of the processor 110.
  • the memory 140 may include volatile and / or nonvolatile memory.
  • the memory 140 may store, for example, commands or data related to at least one other component of the first electronic device 101.
  • the memory 140 may store software and / or a program.
  • the program may include, for example, a kernel, middleware, an application programming interface (API), and / or an application program (or “application”). At least a portion of the kernel, middleware, or API may be referred to as an operating system.
  • the kernel is, for example, system resources (eg, bus, processor 110, or memory 140) used to execute an action or function implemented in other programs (eg, middleware, APIs, or application programs). ) Can be controlled or managed.
  • the kernel may provide an interface for controlling or managing system resources by accessing individual components of the first electronic device 101 from middleware, APIs, or application programs.
  • the memory 140 may include volatile memory (for example, DRAM, SRAM, or SDRAM), nonvolatile memory (for example, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, flash memory). , A hard drive, or a solid state drive (SSD).
  • volatile memory for example, DRAM, SRAM, or SDRAM
  • nonvolatile memory for example, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, flash memory
  • OTPROM one time programmable ROM
  • PROM PROM
  • EPROM EPROM
  • EEPROM electrically erasable programmable ROM
  • flash ROM flash memory
  • flash memory for example, a solid state drive (SSD).
  • SSD solid state drive
  • the display 150 may display an image under the control of the processor 110.
  • the display 150 may be implemented as a touch screen.
  • the display 150 may display a second screen acquired by the processor 110.
  • the display 150 may transmit a touch input for the second screen to the processor 110.
  • display 150 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper. It may include a display.
  • the display 160 may display, for example, various types of content (eg, text, images, videos, icons, and / or symbols, etc.) to the user.
  • the display 150 may include a touch screen and, for example, may receive a touch, gesture, proximity, or hovering input using an electronic pen or a part of a user's body.
  • the GPS module 160 may receive a GPS signal. In addition, the GPS module 160 may transmit location information on the GPS signal to the processor 110.
  • the second electronic device 170 may include a processor 180, a display 190, a communication module 195, and a memory 197.
  • the processor 180 may control overall operations of the second electronic device 170.
  • the processor 180 may be implemented substantially similarly to the processor of the first electronic device 101.
  • the processor 180 may control an operation for setting a second screen of the second electronic device 170.
  • the processor 180 may execute the second application 185 for setting the second screen of the second electronic device 170.
  • the second application 185 may refer to an application for setting (or changing) a background screen, a standby screen, and / or a watch face of the second electronic device 170.
  • the second application 185 may be an application corresponding to the first application 115.
  • the display 190 may display a first screen under the control of the processor 180.
  • the display 190 may display a first screen including a color pattern.
  • the display 190 may display a second screen under the control of the processor 180.
  • the display 190 may display a second screen (eg, a watch face) transmitted by the first electronic device 110.
  • the communication module 195 may transmit / receive data with the communication module 130 of the first electronic device 110.
  • the communication module 195 may receive information IM1 on the first screen and information IM2 on the second screen.
  • the communication module 195 may transmit the information IM1 about the first screen and the information IM2 about the second screen to the processor 180.
  • the memory 197 may store data for setting a second screen of the second electronic device 170.
  • the memory 197 may store a second application for setting the second screen.
  • the memory 197 may store information IM1 for the first screen and information IM2 for the second screen.
  • the server 200 may communicate with the first electronic device 101 through the network 199.
  • the server 200 may provide additional information according to a request of the first electronic device 101.
  • the server 200 may transmit additional information related to the location information transmitted by the first electronic device 101 to the first electronic device 101.
  • FIG. 3 is a data flow diagram illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may drive the first application 115 to set a second screen of the second electronic device 170 (S301).
  • the first electronic device 101 may request the second electronic device 170 to drive the second application 185 to set the second screen (S303).
  • the second electronic device 170 may drive the second application 185 according to the request of the first electronic device 101 (S305). In addition, the second electronic device 170 may transmit a confirmation signal ACK indicating that the second application 185 has been executed to the first electronic device 101 (S307).
  • the first electronic device 101 may generate a first screen in response to the confirmation signal ACK (S309).
  • the first electronic device 101 may generate a first screen including a color pattern.
  • the color pattern may include a predetermined pattern including a plurality of colors.
  • the color pattern may change the plurality of patterns at predetermined periods.
  • the first electronic device 101 may transmit information IM1 about the first screen to the second electronic device 170 (S311).
  • the second electronic device 170 may display the first screen on the display 190 by using the information IM1 of the first screen (S313).
  • the first electronic device 101 may recognize the first screen displayed on the second electronic device 170 (S315).
  • the first electronic device 101 may photograph an external background based on the first screen displayed on the second electronic device 170.
  • the first electronic device 101 may correct the brightness and the saturation of the external background based on the first screen including the color pattern.
  • the first electronic device 101 may correct an ambient color (eg, ambient brightness and skin color) of the second electronic device using a color pattern.
  • the first electronic device 101 may correct the position of clothes worn by the user and the color of the clothes worn by the user based on the first screen including the color pattern.
  • the first electronic device 101 may acquire (or generate) a second screen by using information on the external background (S317). In addition, the first electronic device 101 may acquire (or generate) a plurality of second screens using information on an external background.
  • the first electronic device 101 may transmit information IM2 about the second screen to the second electronic device 170 (S319).
  • the first electronic device 101 may select at least one of the plurality of second screens and transmit the selected second screens to the second electronic device 170.
  • the second electronic device 170 may display the second screen based on the received information IM2 about the second screen (S321). For example, when the second electronic device 170 applies the second screen, the second electronic device 170 may display the second screen as a watch face. In addition, the second electronic device 170 may determine whether to apply the second screen based on the information IM2 of the second screen.
  • the second electronic device 170 may transmit a completion signal indicating completion of the operation of setting the second screen to the first electronic device 101 (S323).
  • the first electronic device 101 may terminate the first application 115 in response to the received completion signal.
  • the second electronic device 170 may terminate the second application 185 (S327).
  • FIG. 4 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may drive the first application 115 to set a second screen of the second electronic device 170 (S401).
  • the first electronic device 101 may generate a first screen (S403).
  • the first electronic device 101 may generate a first screen including a color pattern.
  • the color pattern may include a predetermined pattern including a plurality of colors.
  • the color pattern may change the pattern at predetermined periods.
  • the first electronic device 101 may request the second electronic device 170 to drive the second application 185 to set the second screen (S405). At this time, the first electronic device 101 may transmit the information IM1 about the first screen to the second electronic device 170 together with the driving request of the second application 185 (S405).
  • the second electronic device 170 may drive the second application 185 according to the request of the first electronic device 101 (S407).
  • the second electronic device 170 may display the first screen on the display 190 using the information IM1 about the first screen.
  • operations of the first electronic device 101 and the second electronic device 170 may be substantially the same as or similar to the operations S315 to S327 described with reference to FIG. 3.
  • FIG. 5 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • the second electronic device 170 may drive the second application 185 to set a second screen of the second electronic device 170 (S501).
  • the second electronic device 170 may request the driving of the first application 115 from the first electronic device 101 to set the second screen (S503). In this case, the second electronic device 170 may request generation of the first screen for setting the second screen.
  • the first electronic device 101 may drive the first application 115 at the request of the second electronic device 170 (S505).
  • the first electronic device 101 may generate a first screen according to a request of the second electronic device 170.
  • the first electronic device 101 may generate a first screen including a color pattern.
  • the color pattern may include a predetermined pattern including a plurality of colors.
  • the color pattern may change the plurality of patterns at predetermined periods.
  • the first electronic device 101 may transmit information IM1 about the first screen to the second electronic device 170 (S509).
  • the second electronic device 170 may display the first screen on the display 190 by using the information IM1 of the first screen (S511).
  • operations of the first electronic device 101 and the second electronic device 170 may be substantially the same as or similar to the operations S315 to S327 described with reference to FIG. 3.
  • FIG. 6 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may drive the first application 115 to set a second screen of the second electronic device 170 (S601).
  • the first electronic device 101 may request the second electronic device 170 to drive the second application 185 to set the second screen (S603).
  • the second electronic device 170 may drive the second application 185 according to the request of the first electronic device 101 (S605). In addition, the second electronic device 170 may transmit a confirmation signal ACK indicating that the second application 185 has been executed to the first electronic device 101 (S607).
  • the first electronic device 101 may generate a first screen in response to the confirmation signal ACK (S609).
  • the first electronic device 101 may transmit information IM1 about the first screen to the second electronic device 170 (S611).
  • the second electronic device 170 may display the first screen on the display 190 by using the information IM1 of the first screen (S613).
  • the first electronic device 101 may recognize the first screen displayed on the second electronic device 170 (S615). In operation S615, the first electronic device 101 may photograph an external background based on the first screen displayed on the second electronic device 170. In this case, the first electronic device 101 may correct the external background based on the first screen including the color pattern.
  • the first electronic device 101 may acquire (or generate) a second screen by using information on the external background (S617).
  • the first electronic device 101 may display the second screen on the display 150 (S619).
  • the first electronic device 101 may adjust the displayed second screen.
  • the first electronic device 101 may adjust the size or shape of the second screen in response to an input (for example, a touch input) for the second screen.
  • the input to the second screen may include zoom-up, zoom-out, and / or swipe.
  • the first electronic device 101 may add a separate image to the second screen in response to an input for the second screen.
  • the separate image may mean an image stored in the memory 140 and / or an image obtained from the server 200.
  • the first electronic device 101 may transmit information IM2 about the adjusted second screen to the second electronic device 170 (S623).
  • the second electronic device 170 may display the second screen based on the received information IM2 of the second screen (S625).
  • the second electronic device 170 may display the second screen as a watch face.
  • FIG. 7 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may drive the first application 115 to set a second screen of the second electronic device 170 (S701).
  • the first electronic device 101 may request the second electronic device 170 to drive the second application 185 in order to set the second screen (S703).
  • the second electronic device 170 may drive the second application 185 according to the request of the first electronic device 101 (S705). In addition, the second electronic device 170 may transmit a confirmation signal ACK indicating that the second application 185 has been executed to the first electronic device 101 (S707).
  • the first electronic device 101 may generate a first screen in response to the confirmation signal ACK (S709).
  • the first electronic device 101 may transmit information IM1 about the first screen to the second electronic device 170 (S711).
  • the second electronic device 170 may display the first screen on the display 190 by using the information IM1 of the first screen (S713).
  • the first electronic device 101 may fail to recognize the first screen displayed on the second electronic device 170 (S715). For example, when the lighting around the second electronic device 170 is insufficient or excessive, the first electronic device may fail to recognize the first screen displayed on the second electronic device 170. In addition, when the position of the first screen displayed on the second electronic device 170 is inconsistent with the camera module 120 of the first electronic device 101, the first electronic device may display the first screen displayed on the second electronic device 170. Recognition of one screen may fail.
  • the first electronic device 101 may request to adjust the movement and / or illumination of the camera (S717).
  • the first electronic device 101 may request the display 150 to adjust the movement and / or lighting of the camera through a pop-up window.
  • the first electronic device 101 may recognize the first screen (S719).
  • the first electronic device 101 may acquire (or generate) a second screen based on the first screen displayed on the second electronic device 170 (S719).
  • the first electronic device 101 may transmit information IM2 about the second screen to the second electronic device 170 (S721).
  • the second electronic device 170 may display the second screen based on the received information IM2 about the second screen (S723). For example, the second electronic device 170 may display the second screen as a watch face.
  • FIG. 8 is a data flow illustrating a method of operating a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may drive the first application 115 to set a second screen of the second electronic device 170 (S801).
  • the first electronic device 101 may request the second electronic device 170 to drive the second application 185 to set the second screen (S803).
  • the second electronic device 170 may drive the second application 185 according to the request of the first electronic device 101 (S805). In addition, the second electronic device 170 may transmit a confirmation signal ACK indicating that the second application 185 has been executed to the first electronic device 101 (S807).
  • the first electronic device 101 may generate a first screen in response to the confirmation signal ACK (S809).
  • the first electronic device 101 may transmit information IM1 about the first screen to the second electronic device 170 (S811).
  • the second electronic device 170 may display the first screen on the display 190 by using the information IM1 of the first screen (S813).
  • the electronic device 101 may recognize the first screen displayed on the second electronic device 170 (S815). Also, the electronic device 101 may photograph an external background based on the first screen displayed on the second electronic device 170 (S815). In this case, the first electronic device 101 may correct the external background based on the first screen including the color pattern.
  • the first electronic device 101 may obtain additional information based on the location information received from the GPS module 160 (S817). For example, the first electronic device 101 may access the server 200 and obtain additional information from the server 200 based on the location information.
  • the first electronic device 101 may obtain additional information. For example, when the information included in the external background includes only information on the skin color of the user, the first electronic device 101 may obtain additional information.
  • the first electronic device 101 may acquire (or generate) a second screen by using information about the external background and additional information (S819). For example, the first electronic device 101 may generate a second screen in which an image related to additional information is added to a screen acquired as information on an external background.
  • the first electronic device 101 may transmit information IM2 about the second screen to the second electronic device 170 (S821).
  • the second electronic device 170 may display the second screen based on the received information IM2 of the second screen (S823).
  • the second electronic device 170 may display the second screen as a watch face.
  • FIG. 9 is a block diagram illustrating a first electronic device and a second electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may generate a first screen.
  • the first electronic device 101 may transmit information IM1 about the first screen to the second electronic device 170.
  • the second electronic device 170 may display a first screen 990 including a color pattern on the display 190.
  • the first electronic device 101 may photograph the first screen 950 displayed on the second electronic device 170 and recognize the photographed first screen 950.
  • the first electronic device 101 may photograph an external background of the second electronic device 170 based on the captured first screen 950 and correct the captured external background.
  • FIG. 10 is a block diagram of a first screen according to various embodiments of the present disclosure.
  • the second electronic device 170 may display first screens 1050, 1052, and 1054 on the display 190.
  • the first screens 1050, 1052, and 1054 may include a color pattern including a plurality of colors. In addition, the first screens 1050, 1052, and 1054 may include color patterns that change at predetermined periods.
  • the color pattern included in the first screen may be set to have different ratios and angles of red, green, blue and the overlapping colors, and white, which are three primary colors of light.
  • the color pattern may be set to change at predetermined time intervals (eg, 100 ms).
  • the first color pattern 1050 may be set to divide red, green, blue, and white at 90 degree angles during the first time.
  • the second color pattern 1052 may be set to divide the red, green, blue, and green colors at 90 degree angles during the second time.
  • the third color pattern 1054 may be set to divide red, green, blue, purple, and white at 72 degree angles during the third time.
  • the first electronic device 101 generates a first color pattern 1050, a second color pattern 1052, and a third color pattern 1054, and generates the first color pattern 1050 and the second color pattern 1052.
  • the third color pattern 1054 may be sequentially changed.
  • the second electronic device 170 displays the first color pattern 1050, the second color pattern 1052, and the third color pattern 1054 under the control of the first electronic device 101.
  • the first color pattern 1050, the second color pattern 1052, and the third color pattern 1054 may be sequentially changed.
  • 11A and 11B are block diagrams of a first screen according to various embodiments of the present disclosure.
  • the first electronic device 101 may recognize the first screen displayed on the second electronic device 170 through the camera module 120.
  • the first electronic device 101 may generate a first screen (eg, a color pattern) including preset colors according to a preset angle.
  • the first electronic device 101 may determine the position of the skin and the clothes worn by the user based on the positions of the colors included in the color pattern 1150 displayed on the second electronic device 170. The position and the vertical position of the strap attached to the second electronic device 170 may be determined.
  • the first electronic device may determine the location of the skin, the location of the clothes worn by the user, and the second electronic device based on the location of the colors included in the color pattern 1150.
  • the vertical position of the strap attached to the device 170 can be determined.
  • the first electronic device determines the skin color of the user, the color and pattern of the clothes worn by the user, and the color of the strap attached to the second electronic device 170 based on the color pattern 1150, the first screen is recognized. Can be judged.
  • 12A to 12G are block diagrams of an operation of acquiring a second screen according to various embodiments of the present disclosure.
  • the first electronic device 101 may include the ambient brightness A of the second electronic device 170, the clothes B worn by the user, and the first electronic device 101 based on the first screen 1250. Information about the skin color C of the user may be obtained.
  • A will be set and described as the ambient brightness of the second electronic device 170
  • B is the clothes worn by the user
  • C is the skin color of the user.
  • the first electronic device 101 may obtain information about the peripheral brightness A of the acquired second electronic device 170, the clothes B worn by the user, and the skin color C of the user.
  • the second screen 1260 may be generated and the second screen 1260 may be displayed on the second electronic device 170.
  • the first electronic device 101 may display a background 1263 of the second screen 1260 based on the ambient brightness A, the color of the clothes B worn by the user, and the skin color C of the user. ) Can be determined. For example, the first electronic device 101 sets the ambient brightness A, the color of the clothes B worn by the user, and the same color, complementary color, and / or adjacent color of the skin color C of the user as the background 1263. You can decide by color.
  • the first electronic device 101 may display the object 1262 of the second screen 1260 based on the ambient brightness A, the color and pattern of the clothes B worn by the user, and the skin color C of the user. Can be determined. For example, the first electronic device 101 may generate a pattern having various thicknesses and intervals as an object based on the color and the pattern of the clothes B worn by the user. In addition, the first electronic device 101 may generate the second screen 1260 such that the object 1262 and the background 1262 are contrasted or similar to each other.
  • the first electronic device 101 provides information about the peripheral brightness A of the acquired second electronic device 170, the clothes B worn by the user, and the skin color C of the user.
  • the second screen 1265 may be generated and the second screen 1265 may be displayed on the second electronic device 170.
  • the first electronic device 101 may display the background 1266 of the second screen 1265 based on the ambient brightness A, the color of the clothes B worn by the user, and the skin color C of the user. ) Can be determined. For example, the first electronic device 101 sets the background brightness of the background 1266 based on the ambient brightness A, the color of the clothes B worn by the user, and the same color, complementary color, and / or adjacent color of the skin color C of the user. You can decide by color.
  • the first electronic device 101 may display the object 1267 of the second screen 1260 based on the ambient brightness A, the color and pattern of the clothes B worn by the user, and the skin color C of the user. Can be determined. For example, the first electronic device 101 may generate a pattern having various thicknesses and intervals as an object based on the color and the pattern of the clothes B worn by the user. Meanwhile, when there is no pattern of the clothes B worn by the user, the first electronic device 101 may generate patterns of various thicknesses and intervals as objects based on the color of the clothes B worn by the user. . In this case, the first electronic device 101 may process patterns of various thicknesses and intervals as gradations based on the color of the clothes B worn by the user.
  • the first electronic device 101 may generate a second screen 1265 such that the object 1267 and the background 1266 are contrasted with each other.
  • the first electronic device 101 generates the second screen 1265 so that the object 1267 and the background 1266 are contrasted with similar colors (eg, the object 1267 and the background 1266 are processed to be gradient processed). Two screens 1265).
  • the first electronic device 101 uses the weather information D in addition to the obtained information about the ambient brightness A of the second electronic device 170 and the skin color B and C of the user.
  • the second screen 1270 may be generated, and the second screen 1270 may be displayed on the second electronic device 170.
  • the first electronic device 101 determines the background 1271 of the second screen 1270 based on the ambient brightness A, the skin color B and C of the user, and the additional information D. Can be. Accordingly, the first electronic device 101 may obtain additional information (eg, weather information D) and determine the color of the background 1271 using weather information D corresponding to the additional information. For example, the first electronic device 101 may display a color indicating the current weather (eg, red or yellow) and / or a color opposite to the current weather based on the acquired weather information D (eg, summer weather). Blue or cyan), and the color (eg, blue or cyan) may be determined as the background 1271 of the second screen 1270.
  • additional information eg, weather information D
  • the first electronic device 101 may display a color indicating the current weather (eg, red or yellow) and / or a color opposite to the current weather based on the acquired weather information D (eg, summer weather). Blue or cyan), and the color (eg, blue or cyan) may be determined as the
  • the first electronic device 101 may determine an image related to the weather information D as an object of the second screen 1270.
  • the first electronic device 101 may display an image representing the current weather (eg, 'sea') based on the acquired weather information D (eg, summer weather) and / or an image opposite to the current weather (eg, 'Ocean' may be generated and the image (eg, 'ocean') may be determined as the object 1272 of the second screen 1270.
  • the first electronic device 101 may further include information on the peripheral brightness A, the clothes B worn by the user, and the skin color C of the user.
  • the second screen 1275 may be generated using the area information E, and the second screen 1275 may be displayed on the second electronic device 170.
  • the first electronic device 101 may display the second screen 1275 based on the ambient brightness A, the clothes B worn by the user, the skin color C of the user, and the additional information E.
  • the background 1276 may be determined. Accordingly, the first electronic device 101 may obtain additional information (eg, region information E) and determine the color of the background 1276 using the region information E corresponding to the additional information. In this case, the first electronic device 101 may exclude a color taboo in the area from the background 1276 based on the area information E.
  • the first electronic device 101 may determine an image related to the area information E as the object 1277 of the second screen 1275. For example, the first electronic device 101 obtains an image of an image representing the current region (eg, 'Taegeukgi') based on the acquired region information E (eg, Korea), and displays the image on the second screen. An object 1277 of 1275 may be determined.
  • the first electronic device 101 obtains an image of an image representing the current region (eg, 'Taegeukgi') based on the acquired region information E (eg, Korea), and displays the image on the second screen.
  • An object 1277 of 1275 may be determined.
  • the first electronic device 101 may additionally include information on the peripheral brightness A, the clothes B worn by the user, and the skin color C of the user.
  • the second screen 1280 may be generated using the event information F, and the second screen 1280 may be displayed on the second electronic device 170.
  • the first electronic device 101 may display the second screen 1280 based on the ambient brightness A, the clothes B worn by the user, the skin color C of the user, and the additional information F. May determine the background 1281 of. Accordingly, the first electronic device 101 may obtain additional information (eg, event information E) and determine the background 1261 using the event information F corresponding to the additional information. In this case, the first electronic device 101 may determine a color related to the corresponding event as the color of the background 1281 based on the event information F.
  • additional information eg, event information E
  • the first electronic device 101 may determine a color related to the corresponding event as the color of the background 1281 based on the event information F.
  • the first electronic device 101 may determine an image related to the event information F as at least one object 1282-1 and 1282-2 on the second screen 1280.
  • the first electronic device 101 may display an image (eg, a logo) for an image (eg, 'SAMSUNG FESTIVAL') representing the corresponding event based on the acquired event information F (eg, an event related to “Samsung”). ), And determine the image (eg, logo) as the first object 1282 of the second screen 1280.
  • the first electronic device 101 displays information (eg, time and / or place) on the second screen 1280 based on the acquired event information F (eg, an event related to “Samsung”). It can be determined as the second object (1282-2) of.
  • the first electronic device 101 may further include information on the peripheral brightness A, the clothes B worn by the user, and the skin color C of the user.
  • the second screen 1285 may be generated using the V fashion information G, and the second screen 1285 may be displayed on the second electronic device 170.
  • the first electronic device 101 may display the second screen 1285 based on the ambient brightness A, the clothes B worn by the user, the skin color C of the user, and additional information G.
  • the background 1286 may be determined.
  • the first electronic device 101 may obtain additional information (eg, fashion information G) and determine the background 1286 using the fashion information G corresponding to the additional information.
  • the first electronic device 101 may obtain fashion information G that is popular at the corresponding location, based on the location information.
  • the first electronic device 101 may determine an image related to the fashion information F as the object 1287 of the second screen 1285. For example, the first electronic device 101 obtains an image of an image (eg, 'flower pattern') representing the fashion trend based on the acquired fashion information G (eg, “flower pattern”), and The image may be determined as the object 1287 of the second screen 1285.
  • an image eg, 'flower pattern'
  • the image may be determined as the object 1287 of the second screen 1285.
  • the second electronic device 170 may be implemented as an activity tracker.
  • the first electronic device 101 may display the second screen 1290 using the obtained ambient brightness A of the second electronic device 170, the clothes B worn by the user, and the skin color C of the user. ) May be generated and the second screen 1290 may be displayed on the second electronic device 170.
  • the first electronic device 101 may display the objects 1291 and 1292 of the second screen 1290 based on the ambient brightness A, the clothes B worn by the user, and the skin color C of the user. 1293). For example, the first electronic device 101 may determine the shape, size, color, display order, and / or display frequency of the objects 1291, 1292, and 1293 of the second screen 1290.
  • the first electronic device 101 may determine an object included in the second screen as a heart shape. In addition, the first electronic device 101 may determine the display order of the objects such that the first object 1291 is displayed first, and the remaining second object 1292 and the third object 1293 are displayed.
  • FIGS. 13A to 13C are block diagrams illustrating operations of the first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may recognize the first screen 1350 displayed on the second electronic device 170 using the camera module 120.
  • the first electronic device 101 may fail to recognize the first screen 1350 displayed on the second electronic device 170. For example, if the first screen 1350 displayed on the second electronic device 170 is not correctly determined, the first electronic device 101 may determine that the recognition of the first screen 1350 has failed.
  • the first electronic device 101 may provide a message 1355 indicating the recognition failure through the display 150.
  • the message 1355 indicating the recognition failure may include a message requesting adjustment of lighting or position.
  • the first electronic device 101 may provide a message 1355 indicating a failure of recognition until the first screen 1350 is correctly recognized.
  • the first electronic device 101 when the recognition of the first screen 1350 fails, the first electronic device 101 sends a message 1360 to adjust the state or position of the first screen 1350 through the display 150. Can provide.
  • the message 1360 and / or move the first screen 1350 in a specific direction eg, up, down, left, and right directions.
  • a guide 1365 may be provided.
  • the first electronic device 101 may display a message 1360 on the display 150 for a 'right move request' to move the first screen 1370 to the right.
  • the first electronic device 101 may display the guide 1365 for the 'right move request' on the display 150 to move the first screen 1370 to the right.
  • the message 1360 and / or the guide may be used to move the first screen 1370 in a specific direction (eg, up, down, left, and right directions). 1365.
  • 14A to 14E are block diagrams illustrating operations of a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may acquire (or generate) the second screen 1450.
  • the first electronic device 101 may display the second screen 1450 on the display 150 to adjust (or change) the second screen 1450.
  • the first electronic device 101 may adjust the second screen 1450 in response to an input (for example, a touch input) for the second screen.
  • the first electronic device 101 enlarges the second screen 1450 in response to a touch input corresponding to zoom-in and displays the enlarged second screen 1451. can do.
  • the first electronic device 101 reduces the second screen 1450 in response to a touch input corresponding to zoom-out and displays the reduced second screen 1452. can do.
  • the first electronic device 101 may move the second screen 1450 in response to a touch input corresponding to a swipe, and display the moved second screen 1453. .
  • the first electronic device 101 may rotate the second screen 1450 in response to a touch input corresponding to the rotation and display the rotated second screen 1454.
  • 15A to 15E are block diagrams illustrating operations of a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may acquire (or generate) a plurality of second screens 1551, 1552, and 1553.
  • the first electronic device 101 may display the plurality of second screens 1551, 1552, and 1553 on the display 150.
  • the first electronic device 101 may select one of the plurality of second screens 1551, 1552, and 1553.
  • the first electronic device 101 may select a second screen 1552 corresponding to a touch input from among the plurality of second screens 1551, 1552, and 1553.
  • the first electronic device 101 may display the selected second screen 1562 on the display 150.
  • the first electronic device 101 may determine whether to apply the selected second screen 1562 to the second electronic device 170.
  • the first electronic device 101 may transmit information IM2 about the second screen 1562 to the second electronic device 170.
  • the first electronic device 101 does not transmit the information IM2 about the second screen 1562 to the second electronic device 170. You may not. In this case, the first electronic device 101 may display a screen for the 'selection request' illustrated in FIG. 15A.
  • the second electronic device 170 may display the second screen 1570 on the display 190 based on the information IM2 of the second screen received from the first electronic device 101. Can be.
  • the second electronic device 170 may display the second screen 1570 as a watch face.
  • the first electronic device 101 may select a plurality of second screens 1551 and 1552 corresponding to a touch input among the plurality of second screens 1551, 1552, and 1553.
  • the first electronic device 101 may display the selected plurality of second screens 1561 and 1562 on the display 150.
  • the first electronic device 101 may determine whether to apply the selected plurality of second screens 1561 and 1562 to the second electronic device 170.
  • the first electronic device 101 may provide information IM2 about the plurality of second screens 1561 and 1562 to the second electronic device. Transmit to device 170.
  • the first electronic device 101 may generate one second screen based on the plurality of selected second screens 1561 and 1562. have.
  • the first electronic device 101 may generate one second screen by synthesizing the plurality of selected second screens 1561 and 1562. In this case, the first electronic device 101 may transmit the information IM2 about one second screen generated based on the selected second screens 1561 and 1562 to the second electronic device 170.
  • the first electronic device 101 when a touch is input to the area 1564 corresponding to 'cancel', the first electronic device 101 provides information IM2 about the plurality of second screens 1561 and 1562 to the second electronic device 170. ) May not be sent. In this case, the first electronic device 101 may display a screen for the 'selection request' illustrated in FIG. 15A.
  • the second electronic device 170 may display the second screen 1580 on the display 190 based on the information IM2 of the second screen received from the first electronic device 101. Can be.
  • the second electronic device 170 may display the second screen 1580 as a watch face.
  • the second screen 1580 may include an image generated by synthesizing the plurality of selected second screens 1561 and 1562.
  • 16 is a block diagram illustrating an operation of a first electronic device according to various embodiments of the present disclosure.
  • the first electronic device 101 may acquire (or generate) the second screen 1650 and display the obtained second screen 1650 on the display 150.
  • the first electronic device 101 may display the second screen 1650 using Augmented Reality (AR).
  • AR Augmented Reality
  • the first electronic device 101 may photograph the body part of the user wearing the second electronic device 170 and the second electronic device 170 (eg, a part of the hand and wrist) by using the camera module 120. have. In addition, the first electronic device 101 may display the photographed second electronic device 170 and the body part of the user wearing the second electronic device 170 on the display 150.
  • the first electronic device 101 may display the second screen 1650 on an area corresponding to the display 190 of the photographed second electronic device 170 using augmented reality technology.
  • the user may determine whether the second screen 1650 generated by the first electronic device 101 is suitable for the user. .
  • 17A to 17F are block diagrams illustrating operations of a second electronic device according to various embodiments of the present disclosure.
  • the second electronic device 170 may display the second screen 1750 obtained from the first electronic device 101 on the display 190.
  • the second electronic device 170 may adjust (or change) the displayed second screen 1750.
  • the second electronic device 170 may adjust the second screen 1750 in response to an input (for example, a touch input) for the second screen 1750 displayed on the display 190.
  • the second electronic device 170 enlarges the second screen 1750 in response to a touch input corresponding to zoom-in and displays the enlarged second screen 1701. can do.
  • the second electronic device 170 reduces the second screen 1750 in response to a touch input corresponding to zoom-out and displays the reduced second screen 1702. can do.
  • the second electronic device 170 may move the second screen 1750 in response to a touch input corresponding to a swipe, and display the moved second screen 1753. .
  • the second electronic device 170 may rotate the second screen 1750 in response to a touch input corresponding to the rotation, and display the rotated second screen 1754.
  • the second electronic device 170 may adjust (or change) the second screen 1750 through an input device (not shown) included in the second electronic device 170.
  • the second electronic device 170 may adjust the second screen 1750 in response to an input of the input device of the second electronic device 170.
  • the second electronic device 170 may display the adjusted second screen 1755.
  • the input device may be implemented in a bezel form of the second electronic device 170 (eg, in the form of a bezel of a watch).
  • the second electronic device 170 rotates the second screen 1750 in response to an input corresponding to the rotation, and the rotated second screen 1755. Can be displayed.
  • an electronic device may include a camera module, a communication module communicating with a second electronic device, and a first screen displayed on a display of the second electronic device using the camera module. And a processor configured to photograph an external background and to acquire a second screen of the second electronic device by using the first screen and the external background.
  • the processor is further configured to display information about the first screen to display the first screen including a color pattern on a display of the second electronic device in order to set the second screen of the second electronic device. It can transmit to the electronic device.
  • the processor may acquire surrounding information on the external background of the second electronic device by using the color pattern displayed on the second electronic device, and obtain the second screen by using the obtained surrounding information. Can be.
  • the processor may determine the wearing information and the surrounding color of the second electronic device using the color pattern displayed on the second electronic device, and obtain the standby screen based on the wearing information and the surrounding color. have.
  • the processor may include one of the color pattern displayed on the second electronic device obtained through the camera module and the brightness of the surroundings of the second electronic device, the skin color of the user, the pattern of the user's clothes, and the color of the user's clothes.
  • the ambient color may be determined by comparing at least one.
  • the processor compares the color pattern displayed on the second electronic device obtained through the camera module with a reference pattern stored in the first electronic device to determine at least one of a position, a direction, and an inclination angle of the second electronic device.
  • the wearing information may be determined to be included.
  • the processor may acquire a background of the second screen by using the surrounding information, and may acquire an object displayed on the background to be contrasted with the background.
  • the first electronic device further includes a GPS module, and the processor acquires additional information based on the location information received through the GPS module, and generates the second screen including an image related to the additional information. can do.
  • the additional information may include at least one of event information, weather information, country information, time information, season information, and fashion information related to the location information.
  • the first electronic device may further include a touch screen, and the processor may display the second screen on the touch screen, and adjust the size or shape of the second screen in response to a touch input to the second screen. have.
  • the second electronic device may include a smart watch, and the second screen may include a watch face.
  • An operation method of an electronic device may include photographing a first screen displayed on a display of a second electronic device and an external background of the second electronic device by using a camera module, and photographing the first image. And acquiring a second screen of the second electronic device using the first screen and the external background.
  • the photographing of the first screen and the external background may include displaying the first screen including a color pattern on a display of the second electronic device in order to set the second screen of the second electronic device. And transmitting information about a first screen to the second electronic device.
  • the acquiring of the second screen may include acquiring peripheral information on the external background of the second electronic device using the color pattern displayed on the second electronic device, and using the acquired peripheral information. And acquiring the second screen.
  • the operation of acquiring the second screen may include determining wear information and the surrounding color of the second electronic device using the color pattern displayed on the second electronic device, and based on the wear information and the ambient color. And acquiring the second screen.
  • the acquiring of the second screen may include: the color pattern displayed on the second electronic device photographed through the camera module and the brightness of the surroundings of the second electronic device, the skin color of the user, the pattern of the user's clothes, And comparing at least one of colors of clothes of a user to determine the surrounding color.
  • the acquiring of the second screen may include comparing the color pattern displayed on the second electronic device photographed by the camera module with a reference pattern stored in the first electronic device, thereby determining the location, direction, And determining the wearing information including at least one of the inclination angles.
  • the photographing of the first screen and the external background may include generating a first screen and setting information on the first screen to set the second screen of the second electronic device. And sending to the device.
  • Acquiring the first screen and the external background may include generating the first screen in response to a request signal received from the second electronic device, and providing information on the first screen to the second electronic device. It may include transmitting to.
  • the operation method of the electronic device may include displaying the second screen on a touch screen of the first electronic device, and adjusting a size or shape of the second screen in response to a touch input to the second screen. It may further include.
  • a second electronic device may include a first display received from the first electronic device to set a display, a communication module communicating with the first electronic device, and a second screen of the second electronic device. In response to information about a screen, displaying the first screen on the display,
  • the first electronic device captures an external background of the second electronic device by using the first screen displayed on the second electronic device, information about the second screen for setting the second screen is displayed.
  • 1 may include a processor for receiving from the electronic device.
  • the processor may display a color pattern on the display by using the information about the first screen.
  • the processor may include the wear information and the surrounding color of the first electronic device determined based on the color pattern displayed on the second electronic device.
  • the second screen may include the wear information and the surrounding color. Can be generated based on color.
  • the second electronic device may include a smart watch, and the second screen may include a watch face.
  • an operation of photographing a first screen displayed on a display of a second electronic device and an external background of the second electronic device using a camera, and the photographed first screen and the A computer program for performing an operation of acquiring a second screen of the second electronic device may be recorded using an external background.
  • Each of the above-described components of the electronic device may be composed of one or more components, and the name of the corresponding component may vary according to the type of the electronic device.
  • the electronic device may include at least one of the above-described components, and some components may be omitted or further include other additional components.
  • some of the components of the electronic device according to various embodiments of the present disclosure may be combined to form one entity, and thus may perform the same functions of the corresponding components before being combined.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라 모듈, 제2전자 장치와 통신하는 통신 모듈, 및 상기 카메라 모듈을 이용하여 상기 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하고, 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 프로세서를 포함할 수 있다.

Description

스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법
본 발명의 다양한 실시 예는 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법에 관한 것이다.
근래에는 스마트 워치의 개발이 활발하게 진행되고 있다. 이에 따라, 스마트 워치의 배경 화면인 워치 페이스의 개발도 활발하게 진행되고 있다.
스마트 워치의 배경 화면인 워치 페이스는 스마트 워치가 단순한 전자 장치가 아닌 실제 시계로 기능하는데 중요한 역할을 한다.
종래에는, 스마트 워치의 워치 페이스를 변경하기 위해서 여려 단계의 과정이 필요하였다. 또한, 기존의 스마트 워치는 사용자가 착용한 의상, 주변 환경, 및/또는 패션 트렌드 등을 반영하지 못하고, 기설정된 범위 내에서만 워치 페이스를 선택할 수 밖에 없었다. 즉, 기존의 스마트 워치는 사용자의 현재 상황에 적합한 다양한 형태의 워치 페이스를 사용자에게 제공하는데 제약이 있었다.
본 발명의 다양한 실시 예에 따르면, 스마트 워치의 사용자가 착용한 의상이나 주변 환경을 고려하여 사용자에게 어울리는 워치 페이스를 제공하는 전자 장치와 이의 동작 방법을 제공하는 것이다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 카메라 모듈, 제2전자 장치와 통신하는 통신 모듈, 및 상기 카메라 모듈을 이용하여 상기 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하고, 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 프로세서를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법은, 카메라 모듈을 이용하여 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하는 동작, 및 촬영된 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 동작을 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는, 디스플레이, 제1전자 장치와 통신하는 통신 모듈, 및 제2전자 장치의 제2화면을 설정하기 위해, 상기 제1전자 장치로부터 수신된 제1화면에 대한 정보에 응답하여, 상기 디스플레이에 상기 제1화면을 표시하고, 상기 제1전자 장치가 상기 제2전자 장치에 표시된 상기 제1화면을 이용하여 상기 제2전자 장치의 외부 배경을 쵤영하면, 상기 제2화면을 설정하기 위한 상기 제2화면에 대한 정보를 상기 제1전자 장치로부터 수신하는 프로세서를 포함할 수 있다.
본 발명의 실시 예에 따른 전자 장치는, 복잡한 단계의 필요하지 않고, 자동으로 사용자가 착용한 의상이나 주변 환경을 고려하여 사용자에게 어울리는 워치 페이스를 제공하는 효과가 있다.
본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 상세한 설명이 제공된다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 시스템의 개략적인 블록도이다.
도 2는 도 1에 도시된 전자 시스템의 구체적인 블록도이다.
도 3은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 4는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 5는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 6은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 7은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 8은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 9는 본 발명의 다양한 실시 예에 따른 제1전자 장치와 제2전자 장치에 대한 블록도이다.
도 10은 본 발명의 다양한 실시 예에 따른 제1화면에 대한 블록도이다.
도 11a와 도 11b는 본 발명의 다양한 실시 예에 따른 제1화면에 대한 블록도이다.
도 12a부터 도 12g는 본 발명의 다양한 실시 예에 따른 제2화면을 획득하는 동작에 대한 블록도이다.
도 13a부터 도 13c는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 14a부터 도 14e는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 15a부터 도 15e는 본 발명의 다양한 실시 예에 다른 제1전자 장치와 제2전자 장치의 동작에 대한 블록도이다.
도 16은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 17a부터 도 17f는 본 발명의 다양한 실시 예에 따른 제2전자 장치의 동작에 대한 블록도이다.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제1," "제2," "첫째," 또는 "둘째," 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시 예들에 따른 전자장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동전화기, 영상전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시 예들에서, 전자장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기청정기, 셋톱박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임콘솔(예: XboxTM, PlayStationTM), 전자사전, 전자키, 캠코더, 또는 전자액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자장비(예:선박용 항법장치, 자이로콤파스등), 항공전자기기(avionics), 보안기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융기관의 ATM, 상점의 POS(point of sales), 또는 사물인터넷 장치(예: 전구, 각종 센서, 스프링클러 장치, 화재경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시 예에 따르면, 전자장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예에서, 전자장치는 플렉서블 하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시 예에 따른 전자장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다.
다양한 실시 예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예:동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예:프로세서)에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광 기록매체(예: CD-ROM, DVD, 자기-광 매체(예: 플롭티컬디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시 예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.
도 1은 본 발명의 다양한 실시 예에 따른 전자 시스템의 개략적인 블록도이다.
도 1을 참조하면, 전자 시스템(100)은 제1전자 장치(101)와 제2전자 장치(170)를 포함할 수 있다.
제1전자 장치(101)는 제2전자 장치(170)의 화면을 설정(또는 변경)할 수 있다. 예컨대, 제1전자 장치(101)는 제2전자 장치(170)와 페어링(pairing)되어 있는 장치를 의미할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면과 제2전자 장치(170)의 외부 배경을 촬영할 수 있다. 또한, 제2전자 장치(101)는 촬영된 제2전자 장치(170)의 제1화면과 제2전자 장치(170)의 외부 배경을 이용하여 제2전자 장치(170)의 제2화면을 획득(또는 생성)할 수 있다.
예컨대, 제1화면은, 컬러 패턴을 포함하는 이미지를 의미할 수 있다. 또한, 제2화면은, 제2전자 장치(170)의 배경 화면 및/또는 대기 화면을 포함하는 이미지를 의미할 수 있다. 예컨대, 제2화면은, 워치 페이스를 포함할 수 있다. 이때, 워치 페이스는 제2전자 장치(170)(예컨대, 스마워 워치)의 시계 화면, 배경 화면, 및/또는 대기 화면을 의미할 수 있다.
한편, 제1전자 장치(101)는 스마트폰 또는 제2전자 장치(170)와 통신할 수 있는 단말기로 구현될 수 있다.
제2전자 장치(170)는 디스플레이를 통해 화면을 표시할 수 있다.
실시 예에 따라, 제2전자 장치(170)는 제1전자 장치(101)의 제어에 따라 화면을 표시할 수 있다. 예컨대, 제1전자 장치(170)는 제1전자 장치(101)의 제어에 따라 제1화면을 표시할 수 있다. 또한, 제2전자 장치(170)는 제1전자 장치(101)의 제어에 따라 제2화면(예컨대, 워치 페이스)를 설정(또는 변경)할 수 있다.
제2전자 장치(170)는 웨어러블 장치로 구현될 수 있다. 예컨대, 제2전자 장치(170)는 스마트 워치 또는 액티비티 트래커(activity tracker)로 구현될 수 있다. 예컨대, 액티비티 트래커는 운동량이나 생체 정보를 측정하는 장치를 의미할 수 있다.
도 2는 도 1에 도시된 전자 시스템(100)의 구체적인 블록도이다. 도 2를 참조하면, 도 2에 도시된 전자 시스템(100)은 네트워크(199)와 네트워크(199)를 통해 접속되는 서버(200)를 더 포함할 수 있다.
제1전자 장치(101)는 프로세서(110), 카메라 모듈(120), 통신 모듈(130), 메모리(140), 디스플레이(150), 및 GPS 모듈(160)을 포함할 수 있다. 또한, 제1전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
프로세서(110)는 제1전자 장치(101)의 전반적인 동작을 제어할 수 있다.
예컨대, 프로세서(110)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(110)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
한편, 프로세서(110)는 제2전자 장치(170)의 제2화면을 설정하기 위한 제1어플리케이션(115)을 실행시킬 수 있다. 예컨대, 제1어플리케이션(115)은 제2전자 장치(170)의 배경 화면, 대기 화면, 및/또는 워치 페이스를 설정(또는 변경)하기 위한 어플리케이션을 의미할 수 있다.
이하에서는 설명의 편의를 위해, 제1어플리케이션(115)이 수행하는 동작은, 프로세서(110)가 수행하는 동작으로 설명할 것이다.
실시 예에 따라, 프로세서(110)는 제2전자 장치(170)의 제2화면을 설정할 수 있다. 예컨대, 프로세서(110)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제1화면을 생성할 수 있다. 또한, 프로세서(110)는, 통신 모듈(130)을 통해, 생성된 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다. 이때, 제1화면에 대한 정보(IM1)는 제2전자 장치(170)가 제1화면을 표시하도록 제1화면에 포함된 이미지에 대한 정보를 의미할 수 있다.
예컨대, 제1화면은 컬러 패턴을 포함하는 이미지를 의미할 수 있다. 또한, 제1화면의 컬러 패턴은 기설정된 주기로 변할 수 있다. 예컨대, 프로세서(110)는 제2전자 장치(170)가 컬러 패턴을 포함하는 제1화면을 표시하도록 제1화면에 대한 정보를 제2전자 장치(170)로 전송할 수 있다.
프로세서(110)는 카메라 모듈(120)을 이용하여 제2전자 장치(470)에 표시된 제1화면과 제2전자 장치(170)의 외부 배경을 촬영할 수 있다. 또한, 프로세서(110)는 촬영된 제1화면과 외부 배경을 이용하여 제2전자 장치(170)의 제2화면을 획득(또는 생성)할 수 있다.
프로세서(110)는 제2전자 장치(170)에 표시된 제1화면과 제2전자 장치(170)의 외부 배경을 촬영할 수 있다. 프로세서(110)는 제1화면(예컨대, 컬러 패턴)을 이용하여 제2전자 장치(170)의 외부 배경에 대한 정보를 획득할 수 있다. 예컨대, 제2전자 장치(170)의 외부 배경은 사용자의 제2전자 장치(170)에 대한 착용 정보(예컨대, 착용 위치와 착용 패턴)와 주변 색상(예컨대, 주변 밝기, 피부색, 옷의 색상 및 패턴, 스트랩의 색상 및 패턴)을 포함할 수 있다. 예컨대, 제2전자 장치(170)의 외부 배경은 제2전자 장치의 착용 위치, 착용 형태, 주변 밝기, 사용자의 피부색, 사용자가 착용한 옷의 색상, 사용자가 착용한 옷의 패턴이나 스타일, 스트랩의 색상, 및/또는 스트랩의 패턴 등에 대한 정보를 포함할 수 있다.
또한, 프로세서(110)는 제1화면의 컬러 패턴을 기준으로 촬영된 외부 배경을 보정하여 외부 배경에 대한 정보를 획득할 수 있다. 예컨대, 프로세서(110)는 제2전자 장치(170)에 표시된 컬러 패턴과 상기 제2전자 장치에 대한 주변의 밝기, 사용자의 피부색, 사용자의 옷의 패턴, 사용자의 옷의 색상, 스트랩(strap)의 색상, 및 스트랩의 패턴 중 적어도 하나를 비교하여 주변 색상을 판단할 수 있다. 또한, 프로세서(110)는 제2전자 장치(170)에 표시된 컬러 패턴과 제1전자 장치(110)의 메모리(140)에 저장된 기준 패턴을 비교하여 제2전자 장치(110)의 위치, 방향, 및 경사각 중 적어도 하나를 포함하는 착용 정보를 판단할 수 있다.
이를 통해, 프로세서(110)는 제1화면의 기설정된 컬러 패턴을 기준으로, 정확한 제2전자 장치(170)의 착용 정보와 주변 색상을 판단할 수 있다.
프로세서(110)는 획득된 외부 배경에 대한 정보를 이용하여 제2화면을 획득(또는 생성)할 수 있다. 예컨대, 프로세서(110)는 착용 정보와 주변 색상에 기초하여 제2화면을 획득(또는 생성)할 수 있다.
또한, 프로세서(110)는 메모리(140)에 저장된 사용자가 선호하거나 사용 빈도가 높은 이미지를 이용하여 제2화면을 획득할 수도 있다. 예컨대, 프로세서(110)는 사용 빈도가 높은 색상이나 무늬, 및 이를 포함하는 패턴을 메모리(140)에 저장하고, 저장된 사용 빈도가 높은 색상이나 무늬, 및 이를 포함하는 패턴을 이용하여 제2화면을 획득할 수도 있다.
예컨대, 프로세서(110)는 주변 색상을 이용하여 상기 제2화면의 배경을 획득하고, 상기 배경과 대비되도록 상기 배경에 표시되는 객체를 획득할 수 있다. 또한, 프로세서(110)는, GPS 모듈(160)을 통해 수신된 위치 정보에 기초하여 추가 정보를 획득할 수 있다. 프로세서(110)는 획득된 추가 정보에 관련된 이미지를 제2화면 추가하여 제2화면을 생성할 수 있다.
한편, 프로세서(110)는 위치 정보에 기초하여 서버(200)에 접속하여 추가 정보를 획득할 수도 있다. 예컨대, 프로세서(110)는 서버(200)에 저장된 위치 정보에 대한 추가 정보를 획득할 수 있다. 이때, 추가 정보는, 위치 정보와 관련된 이벤트 정보, 날씨 정보, 국가 정보, 시간 정보, 계절 정보, 및/또는 패션 정보(예컨대, 위치 정보에 대응하는 지역의 패션 트랜드 및/또는 금기 패션)를 포함할 수 있다. 또한, 이벤트 정보는 위치 정보에 대응하는 지역의 행사나 컨퍼런스에 대한 정보를 포함할 수 있다.
프로세서(110)는 외부 배경에 대한 정보를 이용하여 제2화면을 생성할 수 있다. 또한, 프로세서(110)는 외부 배경에 대한 정보를 이용하여 메모리(140)에 저장된 화면들 중 적어도 하나를 제2화면으로 획득할 수 있다.
실시 예에 따라, 프로세서(110)는 디스플레이(150)에 제2화면을 표시할 수 있다. 또한, 프로세서(110)는 제2화면에 대한 입력(예컨대, 터치 입력)에 응답하여 제2화면의 크기나 형태를 조정할 수 있다.
프로세서(110)는 획득된 제2화면에 대한 정보(IM2)를 제2전자 장치로 전송할 수 있다. 이때, 제2화면에 대한 정보(IM2)는 제2전자 장치(170)가 제2화면을 설정하도록 제2화면에 포함된 이미지에 대한 정보를 의미할 수 있다.
카메라 모듈(120)은 제2전자 장치(170)와 제2전자 장치(170)의 제1화면과 제2전자 장치(170)의 외부 배경을 촬영할 수 있다. 또한, 카메라 모듈(120)은 촬영된 제2전자 장치(170)의 제1화면과 제2전자 장치(170)의 외부 배경을 프로세서(110)로 전송할 수 있다.
예컨대, 카메라 모듈(120)은, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
통신 모듈(130)은 무선 통신 또는 유선 통신을 이용하여 제2전자 장치(170) 및/또는 서버(200)와 데이터를 송수신할 수 있다.
실시 예에 따라, 통신 모듈(130)은, 프로세서(110)의 제어에 따라, 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다. 또한, 통신 모듈(130)은, 프로세서(110)의 제어에 따라, 제2화면에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다.
예컨대, 무선 통신은, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications)등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시 예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission),라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
예컨대, 통신 모듈(130)은, 예를 들면, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GNSS 모듈, NFC 모듈 및/또는 RF 모듈을 포함할 수 있다. 셀룰러 모듈은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈은 가입자 식별 모듈(예: SIM 카드)을 이용하여 통신 네트워크 내에서 전자 장치(101)의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈은 프로세서(110)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GNSS 모듈 또는 NFC 모듈 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈, WiFi 모듈, 블루투스 모듈, GNSS 모듈 또는 NFC 모듈 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(140)는 제2전자 장치의 제2화면을 설정하기 위한 데이터를 저장할 수 있다.
실시 예에 따라, 메모리(140)는 제1어플리케이션(115)을 저장할 수 있다. 또한, 프로세서(110)가 컬러 패턴을 포함하는 제1화면을 생성하면, 메모리(140)는, 프로세서(110)의 제어에 따라, 컬러 패턴에 대한 정보를 기준 패턴으로 저장할 수 있다.
예컨대, 메모리(140)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(140)는, 예를 들면, 제1전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시 예에 따르면, 메모리(140)는 소프트웨어 및/또는 프로그램을 저장할 수 있다. 프로그램은, 예를 들면, 커널, 미들웨어, 어플리케이션 프로그래밍 인터페이스(API), 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 등을 포함할 수 있다. 커널, 미들웨어, 또는 API의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널은, 예를 들면, 다른 프로그램들(예: 미들웨어, API, 또는 어플리케이션 프로그램)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스, 프로세서(110), 또는 메모리(140) 등)을 제어 또는 관리할 수 있다. 또한, 커널은 미들웨어, API, 또는 어플리케이션 프로그램에서 제1전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
예컨대, 메모리(140)는, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브(SSD) 중 적어도 하나를 포함할 수 있다.
디스플레이(150)는 프로세서(110)의 제어에 따라 이미지를 표시할 수 있다. 예컨대, 디스플레이(150)는 터치 스크린으로 구현될 수 있다.
실시 예에 따라, 디스플레이(150)는 프로세서(110)에 의해 획득된 제2화면을 표시할 수 있다. 또한, 디스플레이(150)는 제2화면에 대한 터치 입력을 프로세서(110)로 전송할 수 있다.
예컨대, 디스플레이(150)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템(MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(150)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다.
GPS 모듈(160)은 GPS 신호를 수신할 수 있다. 또한, GPS 모듈(160)은 GPS 신호에 대한 위치 정보를 프로세서(110)로 전송할 수 있다.
제2전자 장치(170)는 프로세서(180), 디스플레이(190), 통신 모듈(195), 및 메모리(197)를 포함할 수 있다.
프로세서(180)는 제2전자 장치(170)의 전반적인 동작을 제어할 수 있다. 프로세서(180)는 제1전자 장치(101)의 프로세서와 실질적으로 유사하게 구현될 수 있다.
실시 예에 따라, 프로세서(180)는 제2전자 장치(170)의 제2화면을 설정하기 위한 동작을 제어할 수 있다.
한편, 프로세서(180)는 제2전자 장치(170)의 제2화면을 설정하기 위한 제2어플리케이션(185)을 실행시킬 수 있다. 예컨대, 제2어플리케이션(185)은 제2전자 장치(170)의 배경 화면, 대기 화면, 및/또는 워치 페이스를 설정(또는 변경)하기 위한 어플리케이션을 의미할 수 있다. 또한, 제2어플리케이션(185)은 제1어플리케이션(115)에 대응되는 어플리케이션일 수 있다.
이하에서는 설명의 편의를 위해, 제2어플리케이션(185)이 수행하는 동작은, 프로세서(180)가 수행하는 동작으로 설명할 것이다.
디스플레이(190)는, 프로세서(180)의 제어에 따라, 제1화면을 표시할 수 있다. 예컨대, 디스플레이(190)는 컬러 패턴을 포함하는 제1화면을 표시할 수 있다.
또한, 디스플레이(190)는, 프로세서(180)의 제어에 따라, 제2화면을 표시할 수 있다. 예컨대, 디스플레이(190)는 제1전자 장치(110)에 의해 전송된 제2화면(예컨대, 워치 페이스)를 표시할 수 있다.
통신 모듈(195)은 제1전자 장치(110)의 통신 모듈(130)과 데이터를 송수신할 수 있다. 예컨대, 통신 모듈(195)은 제1화면에 대한 정보(IM1)와 제2화면에 대한 정보(IM2)를 수신할 수 있다. 또한, 통신 모듈(195)은 제1화면에 대한 정보(IM1)와 제2화면에 대한 정보(IM2)를 프로세서(180)로 전송할 수 있다.
메모리(197)는 제2전자 장치(170)의 제2화면을 설정하기 위한 데이터를 저장할 수 있다. 예컨대, 메모리(197)는 제2화면을 설정하기 위한 제2어플리케이션을 저장할 수 있다. 또한, 메모리(197)는 제1화면에 대한 정보(IM1)와 제2화면에 대한 정보(IM2)를 저장할 수 있다.
서버(200)는 네트워크(199)를 통해 제1전자 장치(101)와 통신할 수 있다.
실시 예에 따라, 서버(200)는 제1전자 장치(101)의 요청에 따라 추가 정보를 제공할 수 있다. 예컨대, 서버(200)는 제1전자 장치(101)가 전송한 위치 정보와 관련된 추가 정보를 제1전자 장치(101)로 전송할 수 있다.
도 3은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 1 내지 도 3을 참조하면, 제1전자 장치(101)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제1어플리케이션(115)을 구동시킬 수 있다(S301).
제1전자 장치(101)는 제2화면을 설정하기 위해 제2전자 장치(170)로 제2어플리케이션(185)의 구동을 요청할 수 있다(S303).
제2전자 장치(170)는 제1전자 장치(101)의 요청에 따라, 제2어플리케이션(185)을 구동시킬 수 있다(S305). 또한, 제2전자 장치(170)는 제2어플리케이션(185)이 실행되었음을 알리는 확인 신호(ACK)를 제1전자 장치(101)로 전송할 수 있다(S307).
제1전자 장치(101)는 확인 신호(ACK)에 응답하여 제1화면을 생성할 수 있다(S309). 예컨대, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면을 생성할 수 있다. 이때, 컬러 패턴은 복수의 색상을 포함하는 기설정된 패턴을 포함할 수 있다. 또한, 컬러 패턴은 기설정 주기로 복수의 패턴들을 변경할 수도 있다.
제1전자 장치(101)는 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다(S311).
제2전자 장치(170)는 제1화면에 대한 정보(IM1)를 이용하여 제1화면을 디스플레이(190)에 표시할 수 있다(S313).
제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면을 인식할 수 있다(S315). 또한, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면에 기초하여 외부 배경을 촬영할 수 있다(S315). 이때, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면에 기초하여, 외부 배경의 명도와 채도를 보정할 수 있다. 예컨대, 제1전자 장치(101)는 컬러 패턴을 이용하여 제2전자 장치의 주변 색상(예컨대, 주변 밝기와 피부색)을 보정할 수 있다. 또한, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면에 기초하여, 사용자가 착용한 옷의 위치와 사용자가 착용한 옷의 색상을 보정할 수 있다.
제1전자 장치(101)는 외부 배경에 대한 정보를 이용하여 제2화면을 획득(또는 생성)할 수 있다(S317). 또한, 제1전자 장치(101)는 외부 배경에 대한 정보를 이용하여 복수의 제2화면들을 획득(또는 생성)할 수도 있다.
제1전자 장치(101)는 제2화면에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다(S319). 복수의 제2화면들을 획득(또는 생성)된 경우, 제1전자 장치(101)는 복수의 제2화면들 중 적어도 하나를 선택하여 제2전자 장치(170)로 전송할 수도 있다.
제2전자 장치(170)는 수신된 제2화면에 대한 정보(IM2)에 기초하여, 제2화면을 표시할 수 있다(S321). 예컨대, 제2전자 장치(170)가 제2화면을 적용할 경우, 제2전자 장치(170)는 제2화면을 워치 페이스로 표시할 수 있다. 또한, 제2전자 장치(170)는 제2화면에 대한 정보(IM2)에 기초하여, 제2화면의 적용 여부를 결정할 수도 있다.
제2전자 장치(170)는 제2화면의 적용이 완료되면, 제2화면을 설정하는 동작의 완료를 나타내는 완료 신호를 제1전자 장치(101)로 전송할 수 있다(S323).
제1전자 장치(101)는 수신된 완료 신호에 응답하여 제1어플리케이션(115)을 종료시킬 수 있다(S325).
또한, 제2전자 장치(170)는 완료 신호를 전송한 후, 제2어플리케이션(185)을 종료시킬 수 있다(S327).
도 4는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 1 내지 도 4를 참조하면, 제1전자 장치(101)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제1어플리케이션(115)을 구동시킬 수 있다(S401).
제1전자 장치(101)는 제1화면을 생성할 수 있다(S403). 예컨대, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면을 생성할 수 있다. 이때, 컬러 패턴은 복수의 색상을 포함하는 기설정된 패턴을 포함할 수 있다. 또한, 컬러 패턴은 기설정 주기로 패턴을 변경할 수도 있다.
제1전자 장치(101)는 제2화면을 설정하기 위해 제2전자 장치(170)로 제2어플리케이션(185)의 구동을 요청할 수 있다(S405). 이때, 제1전자 장치(101)는, 제2어플리케이션(185)의 구동 요청과 함께, 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다(S405).
제2전자 장치(170)는 제1전자 장치(101)의 요청에 따라, 제2어플리케이션(185)을 구동시킬 수 있다(S407). 또한, 제2전자 장치(170)는 제1화면에 대한 정보(IM1)를 이용하여 제1화면을 디스플레이(190)에 표시할 수 있다(S409).
이후의 제1전자 장치(101)와 제2전자 장치(170)의 동작들은, 도 3에서 설명한 동작들(S315~S327)과 실질적으로 동일하거나 유사하게 구현될 수 있다.
도 5는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 1 내지 도 5를 참조하면, 제2전자 장치(170)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제2어플리케이션(185)을 구동시킬 수 있다(S501).
제2전자 장치(170)는 제2화면을 설정하기 위해 제1전자 장치(101)로 제1어플리케이션(115)의 구동을 요청할 수 있다(S503). 이때, 제2전자 장치(170)는 제2화면을 설정하기 위한 제1화면의 생성을 요청할 수 있다.
제1전자 장치(101)는 제2전자 장치(170)의 요청에 따라, 제1어플리케이션(115)을 구동시킬 수 있다(S505). 또한, 제1전자 장치(101)는 제2전자 장치(170)의 요청에 따라 제1화면을 생성할 수 있다(S507). 예컨대, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면을 생성할 수 있다. 이때, 컬러 패턴은 복수의 색상을 포함하는 기설정된 패턴을 포함할 수 있다. 또한, 컬러 패턴은 기설정 주기로 복수의 패턴들을 변경할 수도 있다.
제1전자 장치(101)는 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다(S509).
제2전자 장치(170)는 제1화면에 대한 정보(IM1)를 이용하여 제1화면을 디스플레이(190)에 표시할 수 있다(S511).
이후의 제1전자 장치(101)와 제2전자 장치(170)의 동작들은, 도 3에서 설명한 동작들(S315~S327)과 실질적으로 동일하거나 유사하게 구현될 수 있다.
도 6은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 1 내지 도 6을 참조하면, 제1전자 장치(101)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제1어플리케이션(115)을 구동시킬 수 있다(S601).
제1전자 장치(101)는 제2화면을 설정하기 위해 제2전자 장치(170)로 제2어플리케이션(185)의 구동을 요청할 수 있다(S603).
제2전자 장치(170)는 제1전자 장치(101)의 요청에 따라, 제2어플리케이션(185)을 구동시킬 수 있다(S605). 또한, 제2전자 장치(170)는 제2어플리케이션(185)이 실행되었음을 알리는 확인 신호(ACK)를 제1전자 장치(101)로 전송할 수 있다(S607).
제1전자 장치(101)는 확인 신호(ACK)에 응답하여 제1화면을 생성할 수 있다(S609). 제1전자 장치(101)는 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다(S611).
제2전자 장치(170)는 제1화면에 대한 정보(IM1)를 이용하여 제1화면을 디스플레이(190)에 표시할 수 있다(S613).
제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면을 인식할 수 있다(S615). 또한, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면에 기초하여 외부 배경을 촬영할 수 있다(S615). 이때, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면에 기초하여, 외부 배경을 보정할 수 있다.
제1전자 장치(101)는 외부 배경에 대한 정보를 이용하여 제2화면을 획득(또는 생성)할 수 있다(S617).
제1전자 장치(101)는 제2화면을 디스플레이(150)에 표시할 수 있다(S619).
제1전자 장치(101)는 표시된 제2화면을 조정할 수 있다. 예컨대, 제1전자 장치(101)는 제2화면에 대한 입력(예컨대, 터치 입력)에 응답하여, 제2화면의 크기나 형태를 조정할 수 있다. 예컨대, 제2화면에 대한 입력은, 줌-업(zoom-up), 줌-아웃(zoom-out), 및/또는 스와이프(swipe)를 포함할 수 있다.
또한, 제1전자 장치(101)는 제2화면에 대한 입력에 응답하여, 제2화면에 별도의 이미지를 추가할 수도 있다. 이때, 별도의 이미지는 메모리(140)에 저장된 이미지 및/또는 서버(200)로부터 획득한 이미지를 의미할 수 있다.
제1전자 장치(101)는 조정된 제2화면에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다(S623).
제2전자 장치(170)는 수신된 제2화면에 대한 정보(IM2)에 기초하여, 제2화면을 표시할 수 있다(S625). 예컨대, 제2전자 장치(170)는 제2화면을 워치 페이스로 표시할 수 있다.
도 7은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 1 내지 도 7을 참조하면, 제1전자 장치(101)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제1어플리케이션(115)을 구동시킬 수 있다(S701).
제1전자 장치(101)는 제2화면을 설정하기 위해 제2전자 장치(170)로 제2어플리케이션(185)의 구동을 요청할 수 있다(S703).
제2전자 장치(170)는 제1전자 장치(101)의 요청에 따라, 제2어플리케이션(185)을 구동시킬 수 있다(S705). 또한, 제2전자 장치(170)는 제2어플리케이션(185)이 실행되었음을 알리는 확인 신호(ACK)를 제1전자 장치(101)로 전송할 수 있다(S707).
제1전자 장치(101)는 확인 신호(ACK)에 응답하여 제1화면을 생성할 수 있다(S709). 제1전자 장치(101)는 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다(S711).
제2전자 장치(170)는 제1화면에 대한 정보(IM1)를 이용하여 제1화면을 디스플레이(190)에 표시할 수 있다(S713).
제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면의 인식을 실패할 수 있다(S715). 예컨대, 제2전자 장치(170) 주변의 조명이 부족하거나 과도한 경우, 제1전자 장치는 제2전자 장치(170)에 표시된 제1화면의 인식을 실패할 수 있다. 또한, 제2전자 장치(170)에 표시된 제1화면의 위치가 제1전자 장치(101)의 카메라 모듈(120)과 부정합한 경우, 제1전자 장치는 제2전자 장치(170)에 표시된 제1화면의 인식을 실패할 수 있다.
제1화면의 인식이 실패되면, 제1전자 장치(101)는 카메라의 이동 및/또는 조명을 조절할 것을 요청할 수 있다(S717). 예컨대, 제1전자 장치(101)는 디스플레이(150)에 팝-업 창을 통해 카메라의 이동 및/또는 조명을 조절할 것을 요청할 수 있다.
제1화면을 인식할 수 있도록 카메라의 이동이나 조명의 조절이 있는 경우, 제1전자 장치(101)는 제1화면을 인식할 수 있다(S719). 또한, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면에 기초하여 제2화면을 획득(또는 생성)할 수 있다(S719).
제1전자 장치(101)는 제2화면에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다(S721).
제2전자 장치(170)는 수신된 제2화면에 대한 정보(IM2)에 기초하여, 제2화면을 표시할 수 있다(S723). 예컨대, 제2전자 장치(170)는 제2화면을 워치 페이스로 표시할 수 있다.
도 8은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작 방법에 대한 데이터 플로우이다.
도 1 내지 도 8을 참조하면, 제1전자 장치(101)는 제2전자 장치(170)의 제2화면을 설정하기 위해, 제1어플리케이션(115)을 구동시킬 수 있다(S801).
제1전자 장치(101)는 제2화면을 설정하기 위해 제2전자 장치(170)로 제2어플리케이션(185)의 구동을 요청할 수 있다(S803).
제2전자 장치(170)는 제1전자 장치(101)의 요청에 따라, 제2어플리케이션(185)을 구동시킬 수 있다(S805). 또한, 제2전자 장치(170)는 제2어플리케이션(185)이 실행되었음을 알리는 확인 신호(ACK)를 제1전자 장치(101)로 전송할 수 있다(S807).
제1전자 장치(101)는 확인 신호(ACK)에 응답하여 제1화면을 생성할 수 있다(S809). 제1전자 장치(101)는 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다(S811).
제2전자 장치(170)는 제1화면에 대한 정보(IM1)를 이용하여 제1화면을 디스플레이(190)에 표시할 수 있다(S813).
전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면의 인식할 수 있다(S815). 또한, 전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면에 기초하여 외부 배경을 촬영할 수 있다(S815). 이때, 제1전자 장치(101)는 컬러 패턴을 포함하는 제1화면에 기초하여, 외부 배경을 보정할 수 있다.
제1전자 장치(101)는 GPS 모듈(160)로부터 수신된 위치 정보에 기초하여 추가 정보를 획득할 수 있다(S817). 예컨대, 제1전자 장치(101)는 서버(200)에 접속하고, 위치 정보에 기초하여 서버(200)로부터 추가 정보를 획득할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 촬영된 외부 배경으로부터 획득된 정보가 부족한 경우, 추가 정보를 획득할 수 있다. 예컨대, 제1전자 장치(101)는 외부 배경에 포함된 정보가 사용자의 피부색에 대한 정보만 있는 경우, 추가 정보를 획득할 수 있다.
제1전자 장치(101)는 외부 배경에 대한 정보와 추가 정보를 이용하여 제2화면을 획득(또는 생성)할 수 있다(S819). 예컨대 제1전자 장치(101)는 외부 배경에 대한 정보로 획득된 화면에 추가 정보에 관련된 이미지를 추가한 제2화면을 생성할 수 있다.
제1전자 장치(101)는 제2화면에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다(S821).
제2전자 장치(170)는 수신된 제2화면에 대한 정보(IM2)에 기초하여, 제2화면을 표시할 수 있다(S823). 예컨대, 제2전자 장치(170)는 제2화면을 워치 페이스로 표시할 수 있다.
도 9는 본 발명의 다양한 실시 예에 따른 제1전자 장치와 제2전자 장치에 대한 블록도이다.
제1전자 장치(101)는 제1화면을 생성할 수 있다. 또한, 제1전자 장치(101)는 제1화면에 대한 정보(IM1)를 제2전자 장치(170)로 전송할 수 있다.
도 9(a)를 참조하면, 제2전자 장치(170)는 컬러 패턴을 포함하는 제1화면(990)을 디스플레이(190)에 표시할 수 있다.
도 9(b)를 참조하면, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면(950)을 촬영하고, 촬영된 제1화면(950)을 인식할 수 있다. 또한, 제1전자 장치(101)는 촬영된 제1화면(950)에 기초하여, 제2전자 장치(170)의 외부 배경을 촬영하고, 촬영된 외부 배경을 보정할 수 있다.
도 10은 본 발명의 다양한 실시 예에 따른 제1화면에 대한 블록도이다.
도 10을 참조하면, 제2전자 장치(170)는 제1화면(1050, 1052, 1054)을 디스플레이(190)에 표시할 수 있다.
제1화면(1050, 1052, 1054)은 복수의 색상들을 포함하는 컬러 패턴을 포함할 수 있다. 또한, 제1화면(1050, 1052, 1054)은 기설정된 주기로 변하는 컬러 패턴을 포함할 수 있다.
예컨대, 제1화면에 포함된 컬러 패턴은 빛의 3원색인 빨간색, 초록색, 파란색과 그 겹침 색, 및 흰색을 비율과 각도를 상이하도록 설정될 수 있다. 또한, 컬러 패턴은 기설정된 시간(예컨대, 100ms) 간격으로 변하도록 설정할 수 있다.
예컨대, 제1컬러 패턴(1050)은 제1시간 동안 빨간색, 초록색, 파란색, 및 흰색을 90도 각도로 분할되도록 설정될 수 있다. 제2컬러 패턴(1052)은 제2시간 동안 빨간색, 초록색, 파란색, 및 초록색을 90도 각도로 분할되도록 설정될 수 있다. 또한, 제3컬러 패턴(1054)은 제3시간 동안 빨간색, 초록색, 파란색, 보라색, 및 흰색을 72도 각도로 분할되도록 설정될 수 있다.
제1전자 장치(101)는 제1컬러 패턴(1050), 제2컬러 패턴(1052), 및 제3컬러 패턴(1054)을 생성하고, 제1컬러 패턴(1050), 제2컬러 패턴(1052), 및 제3컬러 패턴(1054)이 순차적으로 변하도록 설정할 수 있다. 또한, 제2전자 장치(170)는 제1전자 장치(101)의 제어에 따라, 제1컬러 패턴(1050), 제2컬러 패턴(1052), 및 제3컬러 패턴(1054)을 표시하고, 제1컬러 패턴(1050), 제2컬러 패턴(1052), 및 제3컬러 패턴(1054)이 순차적으로 변하도록 설정할 수 있다.
도 11a와 도 11b는 본 발명의 다양한 실시 예에 따른 제1화면에 대한 블록도이다.
제1전자 장치(101)는 카메라 모듈(120)을 통해 제2전자 장치(170)에 표시된 제1화면을 인식할 수 있다. 제1전자 장치(101)는 기설정된 각도에 따라 기설정된 색상들을 포함하는 제1화면(예컨대, 컬러 패턴)을 생성할 수 있다.
도 11a와 도 11b를 참조하면, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 컬러 패턴(1150)에 포함된 색들의 위치에 기초하여 피부의 위치, 사용자가 착용한 옷의 위치, 제2전자 장치(170)에 부착된 스트랩의 상하 위치를 판단할 수 있다.
또한, 제1전자 장치는 촬영된 컬러 패턴(1150)이 다른 각도에서 인식되더라도, 컬러 패턴(1150)에 포함된 색들의 위치에 기초하여 피부의 위치, 사용자가 착용한 옷의 위치, 제2전자 장치(170)에 부착된 스트랩의 상하 위치를 판단할 수 있다.
제1전자 장치는 컬러 패턴(1150)에 기초하여 사용자의 피부색, 사용자가 착용한 옷의 색상과 패턴, 제2전자 장치(170)에 부착된 스트랩의 색상 등이 판단되면, 제1화면이 인식되었다고 판단할 수 있다.
도 12a부터 도 12g는 본 발명의 다양한 실시 예에 따른 제2화면을 획득하는 동작에 대한 블록도이다.
도 12a부터 도 12g를 참조하면, 제1전자 장치(101)는 제1화면(1250)을 기준으로 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 및 사용자의 피부색(C)에 대한 정보를 획득할 수 있다.
한편, 12a부터 도 12g에서는 설명의 편의를 위해, A는 제2전자 장치(170)의 주변 밝기, B는 사용자가 착용한 옷, C는 사용자의 피부색로 설정하고 설명할 것이다.
도 12a를 참조하면, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 및 사용자의 피부색(C)에 대한 정보를 이용하여 제2화면(1260)을 생성하고, 제2화면(1260)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B)의 색상, 및 사용자의 피부색(C)에 기초하여 제2화면(1260)의 배경(1263)을 결정할 수 있다. 예컨대, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B)의 색상, 및 사용자의 피부색(C)의 동색, 보색, 및/또는 인접색을 배경(1263)의 색으로 결정할 수 있다.
또한, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B)의 색상과 패턴, 및 사용자의 피부색(C)에 기초하여 제2화면(1260)의 객체(1262)를 결정할 수 있다. 예컨대, 제1전자 장치(101)는 사용자가 착용한 옷(B)의 색상과 패턴에 기초하여 다양한 굵기와 간격의 패턴을 객체로 생성할 수 있다. 또한, 제1전자 장치(101)는 객체(1262)와 배경(1263)이 대비되거나 유사하도록 제2화면(1260)을 생성할 수도 있다.
도 12b를 참조하면, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 및 사용자의 피부색(C)에 대한 정보를 이용하여 제2화면(1265)을 생성하고, 제2화면(1265)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B)의 색상, 및 사용자의 피부색(C)에 기초하여 제2화면(1265)의 배경(1266)을 결정할 수 있다. 예컨대, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B)의 색상, 및 사용자의 피부색(C)의 동색, 보색, 및/또는 인접색을 배경(1266)의 색으로 결정할 수 있다.
또한, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B)의 색상과 패턴, 및 사용자의 피부색(C)에 기초하여 제2화면(1260)의 객체(1267)를 결정할 수 있다. 예컨대, 제1전자 장치(101)는 사용자가 착용한 옷(B)의 색상과 패턴에 기초하여 다양한 굵기와 간격의 패턴을 객체로 생성할 수 있다. 한편, 사용자가 착용한 옷(B)의 패턴이 없는 경우, 제1전자 장치(101)는 사용자가 착용한 옷(B)의 색상에 기초하여 다양한 굵기와 간격의 패턴을 객체로 생성할 수도 있다. 이때, 제1전자 장치(101)는 사용자가 착용한 옷(B)의 색상에 기초하여 다양한 굵기와 간격의 패턴을 그라데이션(gradation)으로 처리할 수도 있다.
제1전자 장치(101)는 객체(1267)와 배경(1266)이 대비되도록 제2화면(1265)을 생성할 수 있다. 또한, 제1전자 장치(101)는 객체(1267)와 배경(1266)이 유사한 색상으로 대비되도록 제2화면(1265)을 생성(예컨대, 객체(1267)와 배경(1266)이 그라데이션 처리되도록 제2화면(1265)을 생성)할 수도 있다.
도 12c를 참조하면, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A)와 사용자의 피부색(B와 C)에 대한 정보에 추가적으로 날씨 정보(D)를 이용하여 제2화면(1270)을 생성하고, 제2화면(1270)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자의 피부색(B와 C), 및 추가 정보(D)에 기초하여 제2화면(1270)의 배경(1271)을 결정할 수 있다. 이에 따라, 제1전자 장치(101)는 추가 정보(예컨대, 날씨 정보(D))를 획득하고, 추가 정보에 대응하는 날씨 정보(D)를 이용하여 배경(1271)의 색을 결정할 수 있다. 예컨대, 제1전자 장치(101)는 획득된 날씨 정보(D)(예컨대, 여름 날씨)에 기초하여 현재 날씨를 나타내는 색상(예컨대, 빨간색이나 노란색) 및/또는 현재 날씨와 반대되는 색상(예컨대, 파란색 또는 청록색)를 생성하고, 상기 색상(예컨대, 파란색 또는 청록색)을 제2화면(1270)의 배경(1271)으로 결정할 수 있다.
또한, 제1전자 장치(101)는 날씨 정보(D)에 관련된 이미지를 제2화면(1270)의 객체로 결정할 수도 있다. 예컨대, 제1전자 장치(101)는 획득된 날씨 정보(D)(예컨대, 여름 날씨)에 기초하여 현재 날씨를 나타내는 이미지(예컨대, '해') 및/또는 현재 날씨와 반대되는 이미지(예컨대, '바다')를 생성하고, 상기 이미지(예컨대, '바다')를 제2화면(1270)의 객체(1272)로 결정할 수 있다.
도 12d를 참조하면, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 사용자의 피부색(C)에 대한 정보에 추가적으로 지역 정보(E)를 이용하여 제2화면(1275)을 생성하고, 제2화면(1275)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B), 사용자의 피부색(C), 및 추가 정보(E)에 기초하여 제2화면(1275)의 배경(1276)을 결정할 수 있다. 이에 따라, 제1전자 장치(101)는 추가 정보(예컨대, 지역 정보(E))를 획득하고, 추가 정보에 대응하는 지역 정보(E)를 이용하여 배경(1276)의 색을 결정할 수 있다. 이때, 제1전자 장치(101)는 지역 정보(E)에 기초하여, 해당 지역에서 금기시되는 색상을 배경(1276)에서 제외시킬 수도 있다.
또한, 제1전자 장치(101)는 지역 정보(E)에 관련된 이미지를 제2화면(1275)의 객체(1277)로 결정할 수 있다. 예컨대, 제1전자 장치(101)는 획득된 지역 정보(E)(예컨대, 대한민국)에 기초하여 현재 지역을 나타내는 이미지(예컨대, '태극기')에 대한 이미지를 획득하고, 상기 이미지를 제2화면(1275)의 객체(1277)로 결정할 수 있다.
도 12e를 참조하면, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 사용자의 피부색(C)에 대한 정보에 추가적으로 이벤트 정보(F)를 이용하여 제2화면(1280)을 생성하고, 제2화면(1280)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B), 사용자의 피부색(C), 및 추가 정보(F)에 기초하여 제2화면(1280)의 배경(1281)을 결정할 수 있다. 이에 따라, 제1전자 장치(101)는 추가 정보(예컨대, 이벤트 정보(E))를 획득하고, 추가 정보에 대응하는 이벤트 정보(F)를 이용하여 배경(1281)을 결정할 수 있다. 이때, 제1전자 장치(101)는 이벤트 정보(F)에 기초하여, 해당 이벤트에 관련된 색상을 배경(1281)의 색으로 결정할 수 있다.
또한, 제1전자 장치(101)는 이벤트 정보(F)에 관련된 이미지를 제2화면(1280)의 적어도 하나의 객체(1282-1과 1282-2)로 결정할 수 있다. 예컨대, 제1전자 장치(101)는 획득된 이벤트 정보(F)(예컨대, "삼성"과 관련된 이벤트)에 기초하여 해당 이벤트를 나타내는 이미지(예컨대, 'SAMSUNG FESTIVAL')에 대한 이미지(예컨대, 로고)를 획득하고, 상기 이미지(예컨대, 로고)를 제2화면(1280)의 제1객체(1282)로 결정할 수 있다. 또한, 제1전자 장치(101)는 획득된 이벤트 정보(F)(예컨대, "삼성"과 관련된 이벤트)에 기초하여 해당 이벤트에 정보(예컨대, 시간 및/또는 장소)를 제2화면(1280)의 제2객체(1282-2)로 결정할 수 있다.
도 12f를 참조하면, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 사용자의 피부색(C)에 대한 정보에 추가적으로 V패션 정보(G)를 이용하여 제2화면(1285)을 생성하고, 제2화면(1285)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B), 사용자의 피부색(C), 및 추가 정보(G)에 기초하여 제2화면(1285)의 배경(1286)을 결정할 수 있다. 이에 따라, 제1전자 장치(101)는 추가 정보(예컨대, 패션 정보(G))를 획득하고, 추가 정보에 대응하는 패션 정보(G)를 이용하여 배경(1286)을 결정할 수 있다. 이때, 제1전자 장치(101)는 위치 정보에 기초하여, 해당 위치에서 유행하는 패션 정보(G)를 획득할 수 있다.
또한, 제1전자 장치(101)는 패션 정보(F)에 관련된 이미지를 제2화면(1285)의 객체(1287)로 결정할 수 있다. 예컨대, 제1전자 장치(101)는 획득된 패션 정보(G)(예컨대, "꽃무늬")에 기초하여 해당 패션 트랜드를 나타내는 이미지(예컨대, '꽃무늬')에 대한 이미지를 획득하고, 상기 이미지를 제2화면(1285)의 객체(1287)로 결정할 수 있다.
도 12g를 참조하면, 제2전자 장치(170)는 액티비티 트래커로 구현될 수도 있다. 예컨대, 제1전자 장치(101)는 획득된 제2전자 장치(170)의 주변 밝기(A), 사용자가 착용한 옷(B), 및 사용자의 피부색(C)을 이용하여 제2화면(1290)을 생성하고, 제2화면(1290)을 제2전자 장치(170)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 주변 밝기(A), 사용자가 착용한 옷(B), 및 사용자의 피부색(C)에 기초하여 제2화면(1290)의 객체(1291, 1292, 1293)를 결정할 수 있다. 예컨대, 제1전자 장치(101)는 제2화면(1290)의 객체(1291, 1292, 1293)의 형태, 크기, 색상, 표시 순서, 및/또는 표시 빈도를 결정할 수 있다.
예컨대, 제1전자 장치(101)는 제2화면에 포함된 객체를 하트 모양으로 결정할 수 있다. 또한, 제1전자 장치(101)는 제1객체(1291)가 먼저 표시되고 나머지 제2객체(1292)와 제3객체(1293)가 표시되도록, 객체의 표시 순서를 결정할 수도 있다.
도 13a부터 도 13c는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 13a를 참조하면, 제1전자 장치(101)는 카메라 모듈(120)을 이용하여 제2전자 장치(170)에 표시된 제1화면(1350)을 인식할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면(1350)의 인식을 실패할 수 있다. 예컨대, 제1전자 장치(101)는 제2전자 장치(170)에 표시된 제1화면(1350)이 정확하게 판단되지 않으면, 제1화면(1350)의 인식이 실패되었다고 판단할 수 있다.
도 13b를 참조하면, 제1화면(1350)의 인식이 실패하면, 제1전자 장치(101)는 디스플레이(150)를 통해 인식 실패를 알리는 메시지(1355)를 제공할 수 있다. 또한, 인식 실패를 알리는 메시지(1355)는 조명이나 위치의 조절을 요청하는 메시지를 포함할 수 있다.
예컨대, 제1전자 장치(101)는 제1화면(1350)을 정확하게 인식할 때까지, 인식 실패를 알리는 메시지(1355)를 제공할 수 있다.
도 13c를 참조하면, 제1화면(1350)의 인식이 실패하면, 제1전자 장치(101)는 디스플레이(150)를 통해 제1화면(1350)의 상태나 위치를 조정하도록 메시지(1360)를 제공할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 제1화면(1350)을 정확하게 인식하기 위해, 제1화면(1350)을 특정한 방향(예컨대, 상하좌우 방향)으로 이동하도록 메시지(1360) 및/또는 가이드(1365)를 제공할 수 있다. 예컨대, 제1전자 장치(101)는 제1화면(1370)을 오른쪽으로 이동하도록 '오른쪽 이동 요청'에 대한 메시지(1360)를 디스플레이(150)에 표시할 수 있다. 또한, 제1전자 장치(101)는 제1화면(1370)을 오른쪽으로 이동하도록 '오른쪽 이동 요청'에 대한 가이드(1365)를 디스플레이(150)에 표시할 수 있다.
예컨대, 제1전자 장치(101)는 제1화면(1370)을 정확하게 인식할 때까지, 제1화면(1370)을 특정한 방향(예컨대, 상하좌우 방향)으로 이동하도록 메시지(1360) 및/또는 가이드(1365)를 제공할 수 있다.
도 14a부터 도 14e는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 14a를 참조하면, 제1전자 장치(101)는 제2화면(1450)을 획득(또는 생성)할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 제2화면(1450)의 조정(또는 변경)을 위해, 제2화면(1450)을 디스플레이(150)에 표시할 수 있다. 제1전자 장치(101)는 제2화면에 대한 입력(예컨대, 터치 입력)에 응답하여 제2화면(1450)을 조정할 수 있다.
도 14b를 참조하면, 제1전자 장치(101)는 줌-인(zoom-in)에 대응하는 터치 입력에 응답하여 제2화면(1450)을 확대하고, 확대된 제2화면(1451)을 표시할 수 있다.
도 14c를 참조하면, 제1전자 장치(101)는 줌-아웃(zoom-out)에 대응하는 터치 입력에 응답하여 제2화면(1450)을 축소하고, 축소된 제2화면(1452)을 표시할 수 있다.
도 14d를 참조하면, 제1전자 장치(101)는 스와이프(swipe)에 대응하는 터치 입력에 응답하여 제2화면(1450)을 이동시키고, 이동된 제2화면(1453)을 표시할 수 있다.
도 14e를 참조하면, 제1전자 장치(101)는 회전에 대응하는 터치 입력에 응답하여 제2화면(1450)을 회전시키고, 회전된 제2화면(1454)을 표시할 수 있다.
도 15a부터 도 15e는 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 15a를 참조하면, 제1전자 장치(101)는 복수의 제2화면들(1551, 1552, 1553)을 획득(또는 생성)할 수도 있다.
실시 예에 따라, 제1전자 장치(101)는 복수의 제2화면들(1551, 1552, 1553)을 디스플레이(150)에 표시할 수 있다. 제1전자 장치(101)는 복수의 제2화면들(1551, 1552, 1553) 중 어느 하나를 선택할 수 있다.
예컨대, 제1전자 장치(101)는 복수의 제2화면들(1551, 1552, 1553) 중 터치 입력에 대응하는 제2화면(1552)을 선택할 수 있다.
도 15b를 참조하면, 제1전자 장치(101)는 선택된 제2화면(1562)을 디스플레이(150)에 표시할 수 있다.
제1전자 장치(101)는 선택된 제2화면(1562)를 제2전자 장치(170)에 적용할 지 여부를 판단할 수 있다.
예컨대, '적용'에 대응하는 영역(1563)에 터치가 입력되면, 제1전자 장치(101)는 제2화면(1562)에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다. 반면에, '취소'에 대응하는 영역(1564)에 터치가 입력되면, 제1전자 장치(101)는 제2화면(1562)에 대한 정보(IM2)를 제2전자 장치(170)로 전송하지 않을 수 있다. 이때, 제1전자 장치(101)는 도 15a에 도시된 '선택 요청'에 대한 화면을 표시할 수 있다.
도 15c를 참조하면, 제2전자 장치(170)는 제1전자 장치(101)로부터 수신된 제2화면에 대한 정보(IM2)에 기초하여 제2화면(1570)을 디스플레이(190)에 표시할 수 있다.
예컨대, 제2전자 장치(170)는 제2화면(1570)을 워치 페이스로서 표시할 수 있다.
도 15d를 참조하면, 제1전자 장치(101)는 복수의 제2화면들(1551, 1552, 1553) 중 터치 입력에 대응하는 복수의 제2화면들(1551와 1552)을 선택할 수도 있다.
제1전자 장치(101)는 선택된 복수의 제2화면들(1561과 1562)을 디스플레이(150)에 표시할 수 있다.
제1전자 장치(101)는 선택된 복수의 제2화면들(1561과 1562)를 제2전자 장치(170)에 적용할 지 여부를 판단할 수 있다.
실시 예에 따라, '적용'에 대응하는 영역(1563)에 터치가 입력되면, 제1전자 장치(101)는 복수의 제2화면들(1561과 1562)에 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다. 예컨대, '적용'에 대응하는 영역(1563)에 터치가 입력되면, 제1전자 장치(101)는 선택된 복수의 제2화면들(1561과 1562)에 기초하여 하나의 제2화면을 생성할 수 있다. 제1전자 장치(101)는 선택된 복수의 제2화면들(1561과 1562)을 합성하여 하나의 제2화면을 생성할 수도 있다. 이때, 제1전자 장치(101)는 선택된 복수의 제2화면들(1561과 1562)에 기초하여 생성된 하나의 제2화면 대한 정보(IM2)를 제2전자 장치(170)로 전송할 수 있다.
한편, '취소'에 대응하는 영역(1564)에 터치가 입력되면, 제1전자 장치(101)는 복수의 제2화면들(1561과 1562)에 대한 정보(IM2)를 제2전자 장치(170)로 전송하지 않을 수 있다. 이때, 제1전자 장치(101)는 도 15a에 도시된 '선택 요청'에 대한 화면을 표시할 수 있다.
도 15e를 참조하면, 제2전자 장치(170)는 제1전자 장치(101)로부터 수신된 제2화면에 대한 정보(IM2)에 기초하여 제2화면(1580)을 디스플레이(190)에 표시할 수 있다.
예컨대, 제2전자 장치(170)는 제2화면(1580)을 워치 페이스로서 표시할 수 있다. 제2화면(1580)은 선택된 복수의 제2화면들(1561과 1562)을 합성하여 생성된 이미지를 포함할 수 있다.
도 16은 본 발명의 다양한 실시 예에 따른 제1전자 장치의 동작에 대한 블록도이다.
도 16을 참조하면, 제1전자 장치(101)는 제2화면(1650)을 획득(또는 생성)할 수 있고, 획득된 제2화면(1650)을 디스플레이(150)에 표시할 수 있다.
실시 예에 따라, 제1전자 장치(101)는 증강 현실 기술(Augmented Reality(AR))을 이용하여 제2화면(1650)을 표시할 수 있다.
제1전자 장치(101)는 카메라 모듈(120)을 이용하여 제2전자 장치(170)와 제2전자 장치(170)를 착용한 사용자의 신체 일부(예컨대, 손과 손목의 일부)를 촬영할 수 있다. 또한, 제1전자 장치(101)는 촬영된 제2전자 장치(170)와 제2전자 장치(170)를 착용한 사용자의 신체 일부를 디스플레이(150)에 표시할 수 있다.
예컨대, 제1전자 장치(101)는, 증강 현실 기술을 이용하여, 제2화면(1650)을 촬영된 제2전자 장치(170)의 디스플레이(190)에 대응하는 영역에 표시할 수 있다.
이를 통해, 제2전자 장치(170)에 제2화면(1650)을 표시하지 않더라도, 사용자는 제1전자 장치(101)에 의해 생성된 제2화면(1650)이 사용자에게 어울리는지를 판단할 수 있다.
도 17a부터 도 17f는 본 발명의 다양한 실시 예에 따른 제2전자 장치의 동작에 대한 블록도이다.
도 17a를 참조하면, 제2전자 장치(170)는 제1전자 장치(101)로부터 획득된 제2화면(1750)을 디스플레이(190)에 표시할 수 있다.
실시 예에 따라, 제2전자 장치(170)는 표시된 제2화면(1750)을 조정(또는 변경)할 수 있다. 제2전자 장치(170)는 디스플레이(190)에 표시된 제2화면(1750)에 대한 입력(예컨대, 터치 입력)에 응답하여 제2화면(1750)을 조정할 수 있다.
도 17b를 참조하면, 제2전자 장치(170)는 줌-인(zoom-in)에 대응하는 터치 입력에 응답하여 제2화면(1750)을 확대하고, 확대된 제2화면(1751)을 표시할 수 있다.
도 17c를 참조하면, 제2전자 장치(170)는 줌-아웃(zoom-out)에 대응하는 터치 입력에 응답하여 제2화면(1750)을 축소하고, 축소된 제2화면(1752)을 표시할 수 있다.
도 17d를 참조하면, 제2전자 장치(170)는 스와이프(swipe)에 대응하는 터치 입력에 응답하여 제2화면(1750)을 이동시키고, 이동된 제2화면(1753)을 표시할 수 있다.
도 17e를 참조하면, 제2전자 장치(170)는 회전에 대응하는 터치 입력에 응답하여 제2화면(1750)을 회전시키고, 회전된 제2화면(1754)을 표시할 수 있다.
도 17f를 참조하면, 제2전자 장치(170)는 제2전자 장치(170)에 포함된 입력 장치(미도시)를 통해, 제2화면(1750)을 조정(또는 변경)할 수도 있다.
실시 예에 따라, 제2전자 장치(170)는 제2전자 장치(170)의 입력 장치에 대한 입력에 응답하여 제2화면(1750)을 조정할 수 있다. 또한, 제2전자 장치(170)는 조정된 제2화면(1755)을 표시할 수 있다. 예컨대, 입력 장치는 제2전자 장치(170)의 베젤 형태(예컨대, 시계의 베젤 형태)로 구현될 수 있다.
예컨대, 제2전자 장치(170)의 입력 장치가 회전되면, 제2전자 장치(170)는 회전에 대응하는 입력에 응답하여 제2화면(1750)을 회전시키고, 회전된 제2화면(1755)을 표시할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는 카메라 모듈, 제2전자 장치와 통신하는 통신 모듈, 및 상기 카메라 모듈을 이용하여 상기 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하고, 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 제2전자 장치의 상기 제2화면을 설정하기 위해, 상기 제2전자 장치의 디스플레이에 컬러 패턴을 포함하는 상기 제1화면을 표시하도록 상기 제1화면에 대한 정보를 상기 제2전자 장치로 전송할 수 있다.
상기 프로세서는, 상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 상기 외부 배경에 대한 주변 정보를 획득하고, 획득된 상기 주변 정보를 이용하여 상기 제2화면을 획득할 수 있다.
상기 프로세서는, 상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 착용 정보와 주변 색상을 판단하고, 상기 착용 정보와 상기 주변 색상에 기초하여 상기 대기 화면을 획득할 수 있다.
상기 프로세서는, 상기 카메라 모듈을 통해 획득된 상기 제2전자 장치에 표시된 상기 컬러 패턴과 상기 제2전자 장치에 대한 주변의 밝기, 사용자의 피부색, 사용자의 옷의 패턴, 및 사용자의 옷의 색상 중 적어도 하나를 비교하여 상기 주변 색상을 판단할 수 있다.
상기 프로세서는, 상기 카메라 모듈을 통해 획득된 상기 제2전자 장치에 표시된 상기 컬러 패턴과 상기 제1전자 장치에 저장된 기준 패턴을 비교하여 상기 제2전자 장치의 위치, 방향, 및 경사각 중 적어도 하나를 포함하는 상기 착용 정보를 판단할 수 있다.
상기 프로세서는, 상기 주변 정보를 이용하여 상기 제2화면의 배경을 획득하고, 상기 배경과 대비되도록 상기 배경에 표시되는 객체를 획득할 수 있다.
상기 제1전자 장치는 GPS 모듈을 더 포함하고, 상기 프로세서는, 상기 GPS 모듈을 통해 수신된 위치 정보에 기초하여 추가 정보를 획득하고, 상기 추가 정보에 관련된 이미지를 포함하는 상기 제2화면을 생성할 수 있다.
상기 추가 정보는, 상기 위치 정보와 관련된 이벤트 정보, 날씨 정보, 국가 정보, 시간 정보, 계절 정보, 및 패션 정보 중 적어도 하나를 포함할 수 있다.
상기 제1전자 장치는 터치 스크린을 더 포함하고, 상기 프로세서는 상기 터치 스크린에 상기 제2화면을 표시하고, 상기 제2화면에 대한 터치 입력에 응답하여 상기 제2화면의 크기나 형태를 조정할 수 있다.
상기 제2전자 장치는 스마트 워치를 포함하고, 상기 제2화면은 워치 페이스를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치의 동작 방법은, 카메라 모듈을 이용하여 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하는 동작, 및 촬영된 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 동작을 포함할 수 있다.
상기 제1화면과 상기 외부 배경을 촬영하는 동작은, 상기 제2전자 장치의 상기 제2화면을 설정하기 위해, 상기 제2전자 장치의 디스플레이에 컬러 패턴을 포함하는 상기 제1화면을 표시하도록 상기 제1화면에 대한 정보를 상기 제2전자 장치로 전송하는 동작을 포함할 수 있다.
상기 제2화면을 획득하는 동작은, 상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 상기 외부 배경에 대한 주변 정보를 획득하는 동작, 및 획득된 상기 주변 정보를 이용하여 상기 제2화면을 획득하는 동작을 포함할 수 있다.
상기 제2화면을 획득하는 동작은, 상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 착용 정보와 주변 색상을 판단하는 동작, 및 상기 착용 정보와 상기 주변 색상에 기초하여 상기 제2화면을 획득하는 동작을 포함할 수 있다.
상기 제2화면을 획득하는 동작은, 상기 카메라 모듈을 통해 촬영된 상기 제2전자 장치에 표시된 상기 컬러 패턴과 상기 제2전자 장치에 대한 주변의 밝기, 사용자의 피부색, 사용자의 옷의 패턴, 및 사용자의 옷의 색상 중 적어도 하나를 비교하여 상기 주변 색상을 판단하는 동작을 포함할 수 있다.
상기 제2화면을 획득하는 동작은, 상기 카메라 모듈을 통해 촬영된 상기 제2전자 장치에 표시된 상기 컬러 패턴과 상기 제1전자 장치에 저장된 기준 패턴을 비교하여 상기 제2전자 장치의 위치, 방향, 및 경사각 중 적어도 하나를 포함하는 상기 착용 정보를 판단하는 동작을 포함할 수 있다.
상기 제1화면과 상기 외부 배경을 촬영하는 동작은, 상기 제2전자 장치의 상기 제2화면을 설정하기 위해, 제1화면을 생성하는 동작, 및 상기 제1화면에 대한 정보를 상기 제2전자 장치로 전송하는 동작을 포함할 수 있다.
상기 제1화면과 상기 외부 배경을 획득하는 동작은, 상기 제2전자 장치로부터 수신된 요청 신호에 응답하여 상기 제1화면을 생성하는 동작, 및 상기 제1화면에 대한 정보를 상기 제2전자 장치로 전송하는 동작을 포함할 수 있다.
상기 전자 장치의 동작 방법은, 상기 제1전자 장치의 터치 스크린에 상기 제2화면을 표시하는 동작, 및 상기 제2화면에 대한 터치 입력에 응답하여 상기 제2화면의 크기나 형태를 조정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 제2전자 장치는 디스플레이, 제1전자 장치와 통신하는 통신 모듈, 및 상기 제2전자 장치의 제2화면을 설정하기 위해, 상기 제1전자 장치로부터 수신된 제1화면에 대한 정보에 응답하여, 상기 디스플레이에 상기 제1화면을 표시하고,
상기 제1전자 장치가 상기 제2전자 장치에 표시된 상기 제1화면을 이용하여 상기 제2전자 장치의 외부 배경을 쵤영하면, 상기 제2화면을 설정하기 위한 상기 제2화면에 대한 정보를 상기 제1전자 장치로부터 수신하는 프로세서를 포함할 수 있다.
상기 프로세서는, 상기 제1화면에 대한 정보를 이용하여, 상기 디스플레이에 컬러 패턴을 표시할 수 있다.
상기 프로세서는, 상기 외부 배경은 상기 제2전자 장치에 표시된 상기 컬러 패턴에 기초하여 판단된 상기 제1전자 장치의 착용 정보와 주변 색상을 포함하고, 상기 제2화면은, 상기 착용 정보와 상기 주변 색상에 기초하여 생성될 수 있다.
상기 제2전자 장치는 스마트 워치를 포함하고, 상기 제2화면은 워치 페이스를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 기록 매체는, 카메라를 이용하여 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하는 동작, 및 촬영된 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 동작을 수행하는 컴퓨터 프로그램을 기록할 수 있다.
상기 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 개시의 범위를 한정하는 것은 아니다. 따라서, 본 개시의 범위는, 본 개시의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.

Claims (15)

  1. 제1전자 장치에 있어서,
    카메라 모듈;
    제2전자 장치와 통신하는 통신 모듈; 및
    상기 카메라 모듈을 이용하여 상기 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하고, 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 프로세서를 포함하는 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 제2전자 장치의 상기 제2화면을 설정하기 위해, 상기 제2전자 장치의 디스플레이에 컬러 패턴을 포함하는 상기 제1화면을 표시하도록 상기 제1화면에 대한 정보를 상기 제2전자 장치로 전송하는 전자 장치.
  3. 제2항에 있어서, 상기 프로세서는,
    상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 상기 외부 배경에 대한 주변 정보를 획득하고, 획득된 상기 주변 정보를 이용하여 상기 제2화면을 획득하는 전자 장치.
  4. 제2항에 있어서, 상기 프로세서는,
    상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 상기 외부 배경에 대한 주변 정보를 획득하고, 획득된 상기 주변 정보를 이용하여 상기 제2화면을 획득하는 전자 장치.
  5. 제4항에 있어서, 상기 프로세서는,
    상기 카메라 모듈을 통해 획득된 상기 제2전자 장치에 표시된 상기 컬러 패턴과 상기 제2전자 장치에 대한 주변의 밝기, 사용자의 피부색, 사용자의 옷의 패턴, 및 사용자의 옷의 색상 중 적어도 하나를 비교하여 상기 주변 색상을 판단하는 전자 장치.
  6. 제3항에 있어서, 상기 프로세서는,
    상기 카메라 모듈을 통해 획득된 상기 제2전자 장치에 표시된 상기 컬러 패턴과 상기 제1전자 장치에 저장된 기준 패턴을 비교하여 상기 제2전자 장치의 위치, 방향, 및 경사각 중 적어도 하나를 포함하는 상기 착용 정보를 판단하는 전자 장치.
  7. 제2항에 있어서, 상기 프로세서는,
    상기 주변 정보를 이용하여 상기 제2화면의 배경을 획득하고, 상기 배경과 대비되도록 상기 배경에 표시되는 객체를 획득하는 전자 장치.
  8. 제7항에 있어서, 상기 제1전자 장치는 GPS 모듈을 더 포함하고,
    상기 프로세서는, 상기 GPS 모듈을 통해 수신된 위치 정보에 기초하여 추가 정보를 획득하고, 상기 추가 정보에 관련된 이미지를 포함하는 상기 제2화면을 생성하는 전자 장치.
  9. 제8항에 있어서,
    상기 추가 정보는, 상기 위치 정보와 관련된 이벤트 정보, 날씨 정보, 국가 정보, 시간 정보, 계절 정보, 및 패션 정보 중 적어도 하나를 포함하는 전자 장치.
  10. 제1항에 있어서, 상기 제1전자 장치는 터치 스크린을 더 포함하고,
    상기 프로세서는 상기 터치 스크린에 상기 제2화면을 표시하고, 상기 제2화면에 대한 터치 입력에 응답하여 상기 제2화면의 크기나 형태를 조정하는 전자 장치.
  11. 제1항에 있어서,
    상기 제2전자 장치는 스마트 워치를 포함하고, 상기 제2화면은 워치 페이스를 포함하는 전자 장치.
  12. 제1전자 장치의 동작 방법에 있어서,
    카메라 모듈을 이용하여 제2전자 장치의 디스플레이에 표시된 제1화면과 상기 제2전자 장치의 외부 배경을 촬영하는 동작; 및
    촬영된 상기 제1화면과 상기 외부 배경을 이용하여 상기 제2전자 장치의 제2화면을 획득하는 동작을 포함하는 전자 장치의 동작 방법.
  13. 제12항에 있어서, 상기 제1화면과 상기 외부 배경을 촬영하는 동작은,
    상기 제2전자 장치의 상기 제2화면을 설정하기 위해, 상기 제2전자 장치의 디스플레이에 컬러 패턴을 포함하는 상기 제1화면을 표시하도록 상기 제1화면에 대한 정보를 상기 제2전자 장치로 전송하는 동작을 포함하는 전자 장치의 동작 방법.
  14. 제13항에 있어서, 상기 제2화면을 획득하는 동작은,
    상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 상기 외부 배경에 대한 주변 정보를 획득하는 동작; 및
    획득된 상기 주변 정보를 이용하여 상기 제2화면을 획득하는 동작을 포함하는 전자 장치의 동작 방법.
  15. 제13항에 있어서, 상기 제2화면을 획득하는 동작은,
    상기 제2전자 장치에 표시된 상기 컬러 패턴을 이용하여, 상기 제2전자 장치의 착용 정보와 주변 색상을 판단하는 동작; 및
    상기 착용 정보와 상기 주변 색상에 기초하여 상기 제2화면을 획득하는 동작을 포함하는 전자 장치의 동작 방법.
PCT/KR2018/001317 2017-01-31 2018-01-31 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법 WO2018143660A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/468,764 US11079724B2 (en) 2017-01-31 2018-01-31 Electronic device for controlling watch face of smart watch and operation method therefor
US17/391,384 US20210356914A1 (en) 2017-01-31 2021-08-02 Electronic device for controlling watch face of smart watch and operation method therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2017-0014041 2017-01-31
KR1020170014041A KR20180089208A (ko) 2017-01-31 2017-01-31 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US16/468,764 A-371-Of-International US11079724B2 (en) 2017-01-31 2018-01-31 Electronic device for controlling watch face of smart watch and operation method therefor
US17/391,384 Continuation US20210356914A1 (en) 2017-01-31 2021-08-02 Electronic device for controlling watch face of smart watch and operation method therefor

Publications (1)

Publication Number Publication Date
WO2018143660A1 true WO2018143660A1 (ko) 2018-08-09

Family

ID=63039928

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/001317 WO2018143660A1 (ko) 2017-01-31 2018-01-31 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법

Country Status (3)

Country Link
US (2) US11079724B2 (ko)
KR (1) KR20180089208A (ko)
WO (1) WO2018143660A1 (ko)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111756985A (zh) * 2019-03-26 2020-10-09 北京小米移动软件有限公司 图像拍摄方法、装置和存储介质
CN113298897A (zh) * 2020-02-24 2021-08-24 Oppo广东移动通信有限公司 生成智能手表表盘的方法、装置、存储介质、智能手表及系统
EP3869466A1 (en) * 2020-02-24 2021-08-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and device for picture generation, electronic device, and storage medium

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102633572B1 (ko) * 2019-02-19 2024-02-06 삼성전자주식회사 워치 페이스 이미지를 결정하기 위한 방법 및 그 전자 장치
CN115015814A (zh) * 2022-05-31 2022-09-06 歌尔股份有限公司 可穿戴产品的绑带识别的方法、装置、可穿戴产品及介质
KR102638912B1 (ko) * 2023-08-22 2024-02-21 주식회사 앱포스터 Nfc 태깅을 이용한 워치페이스 제공 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014189197A1 (en) * 2013-05-22 2014-11-27 Samsung Electronics Co., Ltd. Method and apparatus for displaying schedule on wearable device
KR20160044285A (ko) * 2014-10-15 2016-04-25 엘지전자 주식회사 와치 타입의 이동 단말기
KR20160078083A (ko) * 2014-12-24 2016-07-04 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20160092442A (ko) * 2015-01-27 2016-08-04 엘지전자 주식회사 와치 타입의 이동 단말기
KR101686451B1 (ko) * 2015-08-28 2016-12-14 주식회사 앱포스터 스마트 워치의 화면 설정 방법 및 장치

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4220071B2 (ja) * 1999-08-04 2009-02-04 富士フイルム株式会社 色修正関係抽出方法および色修正方法
US8254674B2 (en) * 2004-10-28 2012-08-28 DigitalOptics Corporation Europe Limited Analyzing partial face regions for red-eye detection in acquired digital images
CN102164238B (zh) * 2006-01-10 2013-09-18 松下电器产业株式会社 颜色校正处理装置、动态摄像机颜色校正装置以及使用其的影像检索装置
US8384770B2 (en) * 2010-06-02 2013-02-26 Nintendo Co., Ltd. Image display system, image display apparatus, and image display method
WO2012135545A1 (en) * 2011-03-29 2012-10-04 Qualcomm Incorporated Modular mobile connected pico projectors for a local multi-user collaboration
US10739971B2 (en) * 2012-05-09 2020-08-11 Apple Inc. Accessing and displaying information corresponding to past times and future times
JP6311216B2 (ja) 2013-03-13 2018-04-18 カシオ計算機株式会社 リスト端末装置及びプログラム
US20170039867A1 (en) * 2013-03-15 2017-02-09 Study Social, Inc. Mobile video presentation, digital compositing, and streaming techniques implemented via a computer network
US9325936B2 (en) * 2013-08-09 2016-04-26 Samsung Electronics Co., Ltd. Hybrid visual communication
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
CN106233227B (zh) * 2014-03-14 2020-04-28 索尼互动娱乐股份有限公司 具有体积感测的游戏装置
KR102244856B1 (ko) 2014-04-22 2021-04-27 삼성전자 주식회사 웨어러블 장치와의 사용자 인터랙션을 제공하는 방법 및 이를 수행하는 웨어러블 장치
US10175866B2 (en) * 2015-06-05 2019-01-08 Apple Inc. Providing complications on an electronic watch
US11327640B2 (en) * 2015-06-05 2022-05-10 Apple Inc. Providing complications on an electronic device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014189197A1 (en) * 2013-05-22 2014-11-27 Samsung Electronics Co., Ltd. Method and apparatus for displaying schedule on wearable device
KR20160044285A (ko) * 2014-10-15 2016-04-25 엘지전자 주식회사 와치 타입의 이동 단말기
KR20160078083A (ko) * 2014-12-24 2016-07-04 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR20160092442A (ko) * 2015-01-27 2016-08-04 엘지전자 주식회사 와치 타입의 이동 단말기
KR101686451B1 (ko) * 2015-08-28 2016-12-14 주식회사 앱포스터 스마트 워치의 화면 설정 방법 및 장치

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111756985A (zh) * 2019-03-26 2020-10-09 北京小米移动软件有限公司 图像拍摄方法、装置和存储介质
CN113298897A (zh) * 2020-02-24 2021-08-24 Oppo广东移动通信有限公司 生成智能手表表盘的方法、装置、存储介质、智能手表及系统
EP3869466A1 (en) * 2020-02-24 2021-08-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Method and device for picture generation, electronic device, and storage medium

Also Published As

Publication number Publication date
US11079724B2 (en) 2021-08-03
US20210356914A1 (en) 2021-11-18
US20200073336A1 (en) 2020-03-05
KR20180089208A (ko) 2018-08-08

Similar Documents

Publication Publication Date Title
WO2018143660A1 (ko) 스마트 워치의 워치 페이스를 제어하는 전자 장치와 이의 동작 방법
WO2017039321A1 (en) Foldable electronic device including hidden display and information display method thereof
AU2016334911B2 (en) Electronic device and method for generating image data
WO2018199542A1 (ko) 전자 장치 및 전자 장치의 영상 표시 방법
WO2018174545A1 (en) Method and electronic device for transmitting audio data to multiple external devices
WO2016072749A1 (en) Electronic device, and method for analyzing face information in electronic device
WO2018062657A1 (en) Method for displaying an image and an electronic device thereof
WO2018182197A1 (en) Device for providing information related to object in image
WO2016018108A1 (en) Apparatus and method for enhancing accuracy of a contactless body temperature measurement
WO2018105952A1 (en) Camera module including aperture and electronic device including the same
WO2016126079A1 (en) Method and electronic device for displaying screen
WO2017074010A1 (en) Image processing device and operational method thereof
WO2019027255A1 (en) ELECTRONIC DEVICE FOR DETERMINING BIOMETRIC INFORMATION AND METHOD FOR OPERATING IT
WO2017078480A1 (en) Electronic device, wearable device, and method for controlling object displayed through electronic device
WO2018151576A1 (en) Electronic device for controlling unmanned aerial vehicle and method of operating the same
WO2016085253A1 (en) Screen configuration method, electronic device, and storage medium
WO2017142256A1 (en) Electronic device for authenticating based on biometric data and operating method thereof
WO2017119662A1 (en) Electronic device and operating method thereof
AU2017346260B2 (en) Electronic device and computer-readable recording medium for displaying images
WO2018097683A1 (ko) 전자 장치, 외부 전자 장치 및 전자 장치와 외부 전자 장치를 연결하기 위한 방법
WO2016175424A1 (ko) 이동 단말기 및 그 제어 방법
WO2017195993A2 (en) Method and electronic device for verifying light source of images
EP3342162A1 (en) Electronic device and method for displaying and generating panoramic image
WO2017090833A1 (en) Photographing device and method of controlling the same
WO2017091019A1 (en) Electronic device and method for displaying and generating panoramic image

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18747448

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18747448

Country of ref document: EP

Kind code of ref document: A1