WO2018038483A1 - 전자 장치 및 전자 장치의 동작 제어 방법 - Google Patents

전자 장치 및 전자 장치의 동작 제어 방법 Download PDF

Info

Publication number
WO2018038483A1
WO2018038483A1 PCT/KR2017/009089 KR2017009089W WO2018038483A1 WO 2018038483 A1 WO2018038483 A1 WO 2018038483A1 KR 2017009089 W KR2017009089 W KR 2017009089W WO 2018038483 A1 WO2018038483 A1 WO 2018038483A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
electronic device
offset value
synchronization signal
waiting time
Prior art date
Application number
PCT/KR2017/009089
Other languages
English (en)
French (fr)
Inventor
김승진
이성준
이광희
정우준
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US16/325,221 priority Critical patent/US11087718B2/en
Priority to EP17843903.0A priority patent/EP3489906B1/en
Publication of WO2018038483A1 publication Critical patent/WO2018038483A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/04Generating or distributing clock signals or signals derived directly therefrom
    • G06F1/12Synchronisation of different clock signals provided by a plurality of clock generators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/725Cordless telephones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/08Details of timing specific for flat panels, other than clock recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/10Mixing of images, i.e. displayed pixel being the result of an operation, e.g. adding, on the corresponding input pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays

Definitions

  • Various embodiments of the present disclosure relate to an electronic device for configuring an image according to a user input and displaying the same on a display.
  • various electronic devices such as smart phones, tablet PCs, portable multimedia players (PMPs), personal digital assistants (PDAs), laptop personal computers (PCs), and wearable devices are being called.
  • various functions eg, social network services (SNS), the Internet, multimedia, photographing and executing photographic videos, document operations, etc.
  • SNS social network services
  • the Internet multimedia, photographing and executing photographic videos, document operations, etc.
  • the computing graphic system of the electronic device configures and displays an image according to a user's input.
  • the shorter the time from receiving the user's input to displaying the image on the display the smoother the screen switching may be performed.
  • a processing time may be delayed or an unnecessary delay time may occur. Accordingly, there is a need for a method of improving the responsiveness of an electronic device according to a user input in order to improve display performance of the electronic device.
  • Various embodiments of the present disclosure provide an electronic device and an operation control method of the electronic device that may improve user responsiveness according to a user input.
  • An electronic device may include a display panel, a display controller, a memory, and a processor electrically connected to the display panel, the display controller, and the memory.
  • the memory when executed, the processor draws an image in response to a periodic synchronization signal, after the image drawing, synthesizes the drawn image in response to the synchronization signal, After image synthesis, the synthesized image is transmitted to the display controller in response to the synchronization signal, the first waiting time after the synthesis image transmission until the next synchronization signal is generated, and in response to the generation of the next synchronization signal, Instructions for controlling the display panel to display an image, determining a first offset value based on the first waiting time, and applying the first offset value to the periodic synchronization signal to determine an image synthesis time point Can be stored.
  • a method of controlling an operation of an electronic device may include: drawing an image in response to a periodic synchronization signal; After drawing the image, synthesizing the drawn image in response to the synchronization signal; After the image synthesis, transferring the synthesized image to a display controller in response to the synchronization signal; Measuring a first waiting time until the next synchronization signal is generated after delivering the synthesized image; Displaying an image on a display panel in response to generation of the next synchronization signal; Determining a first offset value based on the first waiting time; And determining the time point at which the image is synthesized by applying the first offset value to the periodic synchronization signal.
  • an electronic device and an operation control method of the electronic device may minimize a delay time during image processing by adjusting timing of an operation for configuring an image.
  • An electronic device and an operation control method of the electronic device may improve responsiveness according to a user input.
  • an optimized screen display and switching may be provided.
  • FIG. 1 illustrates an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
  • FIG. 4 is a schematic diagram of a logical structure of an electronic device according to various embodiments of the present disclosure.
  • FIG. 5 is a schematic diagram of a logical structure of an electronic device according to various embodiments of the present disclosure.
  • FIG. 6 is a diagram for describing a method of configuring and displaying an image according to a user input in a conventional electronic device.
  • FIG. 7 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 8 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 9 is a schematic diagram of a logical structure of an electronic device according to various embodiments of the present disclosure.
  • FIG. 10 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • 12A and 12B illustrate an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 is a flowchart illustrating an operation control method of an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 is a flowchart illustrating a method of controlling an operation of an electronic device according to various embodiments of the present disclosure.
  • 15 is a flowchart illustrating an operation control method of an electronic device according to various embodiments of the present disclosure.
  • 16 is a flowchart illustrating an operation control method of an electronic device according to various embodiments of the present disclosure.
  • the expression “device configured to” may mean that the device “can” together with other devices or components.
  • processor configured (or configured to) perform A, B, and C may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general purpose processor (eg, a CPU or an application processor) capable of performing the corresponding operations.
  • An electronic device may be, for example, a smartphone, a tablet PC, a mobile phone, a video phone, an e-book reader, a desktop PC, a laptop PC, a netbook computer, a workstation, a server, a PDA, a PMP. It may include at least one of a portable multimedia player, an MP3 player, a medical device, a camera, or a wearable device. Wearable devices may be accessory (e.g. watches, rings, bracelets, anklets, necklaces, eyeglasses, contact lenses, or head-mounted-devices (HMDs), textiles or clothing integrated (e.g.
  • HMDs head-mounted-devices
  • an electronic device may comprise, for example, a television, a digital video disk (DVD) player, Audio, Refrigerator, Air Conditioner, Cleaner, Oven, Microwave Oven, Washing Machine, Air Purifier, Set Top Box, Home Automation Control Panel, Security Control Panel, Media Box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ) , A game console (eg, Xbox TM , PlayStation TM ), an electronic dictionary, an electronic key, a camcorder, or an electronic picture frame.
  • DVD digital video disk
  • the electronic device may include a variety of medical devices (e.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g., various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), cameras or ultrasounds), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment devices, ship electronics (E.g.
  • various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure meters, or body temperature meters
  • MRA magnetic resonance angiography
  • an electronic device may be a part of a furniture, building / structure or automobile, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, water, electricity, Gas, or a radio wave measuring instrument).
  • the electronic device may be flexible or a combination of two or more of the aforementioned various devices.
  • Electronic devices according to embodiments of the present disclosure are not limited to the above-described devices.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170.
  • the electronic device 101 may omit at least one of the components or additionally include other components.
  • the bus 110 may include circuitry that connects the components 110-170 to each other and transfers communication (eg, control messages or data) between the components.
  • the processor 120 may include one or more of a central processing unit, an application processor, or a communication processor (CP).
  • the processor 120 may execute, for example, an operation or data processing related to control and / or communication of at least one other component of the electronic device 101.
  • the memory 130 may include volatile and / or nonvolatile memory.
  • the memory 130 may store, for example, commands or data related to at least one other element of the electronic device 101.
  • the memory 130 may store software and / or a program 140.
  • the program 140 may include, for example, a kernel 141, middleware 143, an application programming interface (API) 145, an application program (or “application”) 147, or the like.
  • API application programming interface
  • application or “application”
  • At least a portion of kernel 141, middleware 143, or API 145 may be referred to as an operating system.
  • the kernel 141 may be a system resource (eg, used to execute an action or function implemented in, for example, other programs (eg, middleware 143, API 145, or application program 147).
  • the bus 110, the processor 120, or the memory 130 may be controlled or managed.
  • the kernel 141 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 101 from the middleware 143, the API 145, or the application program 147. Can be.
  • the middleware 143 may serve as an intermediary for allowing the API 145 or the application program 147 to communicate with the kernel 141 to exchange data.
  • the middleware 143 may process one or more work requests received from the application program 147 according to priority.
  • the middleware 143 may use system resources (eg, the bus 110, the processor 120, or the memory 130, etc.) of the electronic device 101 for at least one of the application programs 147. Prioritize and process the one or more work requests.
  • the API 145 is an interface for the application 147 to control functions provided by the kernel 141 or the middleware 143.
  • the API 145 may include at least the following: file control, window control, image processing, or character control. It can contain one interface or function (eg command).
  • the input / output interface 150 may transmit, for example, a command or data input from a user or another external device to other component (s) of the electronic device 101, or other components of the electronic device 101 ( Commands or data received from the device) can be output to the user or other external device.
  • Display 160 may be, for example, a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical system (MEMS) display, or an electronic paper display. It may include.
  • the display 160 may display, for example, various types of content (eg, text, images, videos, icons, and / or symbols, etc.) to the user.
  • the display 160 may include a touch screen and may receive, for example, a touch, gesture, proximity, or hovering input using an electronic pen or a part of a user's body.
  • the communication interface 170 may establish communication between the electronic device 101 and an external device (eg, the first external electronic device 102, the second external electronic device 104, or the server 106). Can be.
  • the communication interface 170 may be connected to the network 162 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 104 or the server 106).
  • the wireless communication may be, for example, LTE, LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), universal mobile telecommunications system (UMTS), wireless broadband (WiBro), or global network (GSM).
  • LTE Long Term Evolution
  • LTE-A LTE Advance
  • CDMA code division multiple access
  • WCDMA wideband CDMA
  • UMTS universal mobile telecommunications system
  • WiBro wireless broadband
  • GSM global network
  • the wireless communication may include, for example, wireless fidelity (WiFi), Bluetooth, Bluetooth low power (BLE), Zigbee, near field communication (NFC), magnetic secure transmission, and radio. It may include at least one of a frequency (RF) or a body area network (BAN).
  • GNSS GNSS.
  • the GNSS may be, for example, a Global Positioning System (GPS), a Global Navigation Satellite System (Glonass), a Beidou Navigation Satellite System (hereinafter referred to as "Beidou”), or a Galileo, the European global satellite-based navigation system.
  • GPS Global Positioning System
  • Glonass Global Navigation Satellite System
  • Beidou Beidou Navigation Satellite System
  • Galileo the European global satellite-based navigation system.
  • Wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a standard standard232 (RS-232), a power line communication, a plain old telephone service (POTS), and the like.
  • the network 162 may comprise a telecommunications network, for example at least one of a computer network (eg, LAN or WAN), the Internet, or a telephone network.
  • Each of the first and second external electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101. According to various embodiments of the present disclosure, all or part of operations executed in the electronic device 101 may be executed in another or a plurality of electronic devices (for example, the electronic devices 102 and 104 or the server 106). According to this, when the electronic device 101 needs to perform a function or service automatically or by request, the electronic device 101 may instead execute or execute the function or service by itself, or at least some function associated therewith.
  • the other electronic device may request the requested function or The additional function may be executed and the result may be transmitted to the electronic device 101.
  • the electronic device 101 may provide the requested function or service by processing the received result as it is or additionally.
  • Cloud computing distributed computing, or client-server computing techniques can be used.
  • the electronic device 201 may include, for example, all or part of the electronic device 101 illustrated in FIG. 1.
  • the electronic device 201 may include one or more processors (eg, an AP) 210, a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, an input device 250, and a display. 260, an interface 270, an audio module 280, a camera module 291, a power management module 295, a battery 296, an indicator 297, and a motor 298.
  • the 210 may control a plurality of hardware or software components connected to the processor 210 by running an operating system or an application program, and may perform various data processing and operations.
  • the processor 210 may further include a graphic processing unit (GPU) and / or an image signal processor. 210 may include at least some of the components shown in FIG. 2 (eg, cellular module 221). The processor 210 other components: processing by loading the command or data received from at least one (e.g., non-volatile memory) in the volatile memory) and can store the result data into the nonvolatile memory.
  • a graphic processing unit GPU
  • an image signal processor may include at least some of the components shown in FIG. 2 (eg, cellular module 221).
  • the processor 210 other components: processing by loading the command or data received from at least one (e.g., non-volatile memory) in the volatile memory) and can store the result data into the nonvolatile memory.
  • the communication module 220 may include, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227, an NFC module 228, and an RF module 229. have.
  • the cellular module 221 may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network.
  • the cellular module 221 may perform identification and authentication of the electronic device 201 in a communication network by using a subscriber identification module (eg, a SIM card) 224.
  • the cellular module 221 may perform at least some of the functions that the processor 210 may provide.
  • the cellular module 221 may include a communication processor (CP).
  • CP communication processor
  • at least some (eg, two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may be one integrated chip. (IC) or in an IC package.
  • the RF module 229 may transmit / receive a communication signal (for example, an RF signal), for example.
  • the RF module 229 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
  • PAM power amp module
  • LNA low noise amplifier
  • At least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive an RF signal through a separate RF module.
  • Subscriber identification module 224 may include, for example, a card or embedded SIM that includes a subscriber identification module, and may include unique identification information (eg, integrated circuit card identifier (ICCID)) or subscriber information (eg, IMSI). (international mobile subscriber identity)).
  • ICCID integrated circuit card identifier
  • IMSI international mobile subscriber identity
  • the memory 230 may include, for example, an internal memory 232 or an external memory 234.
  • the internal memory 232 may include, for example, volatile memory (for example, DRAM, SRAM, or SDRAM), nonvolatile memory (for example, one time programmable ROM (OTPROM), PROM, EPROM, EEPROM, mask ROM, flash ROM).
  • the flash memory may include at least one of a flash memory, a hard drive, or a solid state drive (SSD)
  • the external memory 234 may be a flash drive, for example, a compact flash (CF) or a secure digital (SD). ), Micro-SD, Mini-SD, extreme digital (xD), multi-media card (MMC), memory stick, etc.
  • the external memory 234 may be functionally connected to the electronic device 201 through various interfaces. Or physically connected.
  • the sensor module 240 may measure, for example, a physical quantity or detect an operation state of the electronic device 201 and convert the measured or detected information into an electrical signal.
  • the sensor module 240 includes, for example, a gesture sensor 240A, a gyro sensor 240B, an air pressure sensor 240C, a magnetic sensor 240D, an acceleration sensor 240E, a grip sensor 240F, and a proximity sensor ( 240G), color sensor 240H (e.g., red (green, blue) sensor), biometric sensor 240I, temperature / humidity sensor 240J, illuminance sensor 240K, or UV (ultra violet) ) May include at least one of the sensors 240M.
  • sensor module 240 may include, for example, an e-nose sensor, an electromyography (EMG) sensor, an electrocardiogram (EEG) sensor, an electrocardiogram (ECG) sensor, Infrared (IR) sensors, iris sensors and / or fingerprint sensors.
  • the sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the electronic device 201 further includes a processor configured to control the sensor module 240 as part of or separately from the processor 210, while the processor 210 is in a sleep state. The sensor module 240 may be controlled.
  • the input device 250 may include, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258.
  • the touch panel 252 may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
  • the touch panel 252 may further include a control circuit.
  • the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
  • the (digital) pen sensor 254 may be, for example, part of a touch panel or may include a separate recognition sheet.
  • the key 256 may include, for example, a physical button, an optical key, or a keypad.
  • the ultrasonic input device 258 may detect ultrasonic waves generated by an input tool through a microphone (for example, the microphone 288) and check data corresponding to the detected ultrasonic waves.
  • Display 260 may include panel 262, hologram device 264, projector 266, and / or control circuitry to control them.
  • the panel 262 may be implemented to be, for example, flexible, transparent, or wearable.
  • the panel 262 may be configured with the touch panel 252 and one or more modules.
  • panel 262 may include a pressure sensor (or force sensor) capable of measuring the strength of the pressure on the user's touch.
  • the pressure sensor may be integrally implemented with the touch panel 252 or one or more sensors separate from the touch panel 252.
  • the hologram 264 may show a stereoscopic image in the air by using interference of light.
  • the projector 266 may display an image by projecting light onto a screen.
  • the screen may be located inside or outside the electronic device 201.
  • the interface 270 may include, for example, an HDMI 272, a USB 274, an optical interface 276, or a D-subminiature 278.
  • the interface 270 may be included in, for example, the communication interface 170 illustrated in FIG. 1.
  • interface 270 may include, for example, a mobile high-definition link (MHL) interface, an SD card / multi-media card (MMC) interface, or an infrared data association (IrDA) compliant interface. have.
  • MHL mobile high-definition link
  • MMC Secure Digital Card
  • IrDA infrared data association
  • the audio module 280 may bidirectionally convert, for example, a sound and an electrical signal. At least some components of the audio module 280 may be included in, for example, the input / output interface 145 illustrated in FIG. 1.
  • the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
  • the camera module 291 is, for example, a device capable of capturing still images and moving images. According to one embodiment, the camera module 291 is one or more image sensors (eg, a front sensor or a rear sensor), a lens, and an image signal processor (ISP). Or flash (eg, LED or xenon lamp, etc.).
  • the power management module 295 may manage power of the electronic device 201, for example.
  • the power management module 295 may include a power management integrated circuit (PMIC), a charger IC, or a battery or fuel gauge.
  • the PMIC may have a wired and / or wireless charging scheme.
  • the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
  • the battery gauge may measure, for example, the remaining amount of the battery 296, the voltage, the current, or the temperature during charging.
  • the battery 296 may include, for example, a rechargeable cell and / or a solar cell.
  • the indicator 297 may display a specific state of the electronic device 201 or a part thereof (for example, the processor 210), for example, a booting state, a message state, or a charging state.
  • the motor 298 may convert electrical signals into mechanical vibrations, and may generate vibrations or haptic effects.
  • the electronic device 201 may be, for example, a mobile TV supporting device capable of processing media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or mediaFlo TM . : GPU).
  • DMB digital multimedia broadcasting
  • DVD digital video broadcasting
  • mediaFlo TM . : GPU mediaFlo TM .
  • Each of the components described in this document may be composed of one or more components, and the names of the corresponding components may vary depending on the type of electronic device.
  • the electronic device eg, the electronic device 201) may include some components, omit additional components, or combine some of the components to form a single entity. It is possible to perform the same function of the previous corresponding
  • the program module 310 may include an operating system and / or various applications running on the operating system for controlling resources related to the electronic device (eg, the electronic device 101).
  • the application program 147 may be included.
  • the operating system may include, for example, Android TM , iOS TM , Windows TM , Symbian TM , Tizen TM , or Bada TM .
  • the program module 310 may include the kernel 320 (eg, the kernel 141), the middleware 330 (eg, the middleware 143), and the API 360 (eg, the API 145).
  • At least a portion of the program module 310 may be preloaded on the electronic device or may be an external electronic device (eg, an electronic device ( 102, 104, server 106, etc.).
  • the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
  • the system resource manager 321 may perform control, allocation, or retrieval of system resources.
  • the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
  • the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver.
  • the middleware 330 may provide various functions through the API 360, for example, to provide functions commonly required by the application 370, or to allow the application 370 to use limited system resources inside the electronic device.
  • the middleware 330 may include a runtime library 335, an application manager 341, a window manager 342, a multimedia manager 343, a resource manager 344, a power manager 345, and a database manager ( 346, a package manager 347, a connectivity manager 348, a notification manager 349, a location manager 350, a graphic manager 351, or a security manager 352.
  • the runtime library 335 may include, for example, a library module that the compiler uses to add new functionality through the programming language while the application 370 is running.
  • the runtime library 335 may perform input / output management, memory management, or arithmetic function processing.
  • the application manager 341 may manage, for example, the life cycle of the application 370.
  • the window manager 342 may manage GUI resources used on the screen.
  • the multimedia manager 343 may identify a format necessary for playing the media files, and may encode or decode the media file using a codec suitable for the format.
  • the resource manager 344 may manage space of source code or memory of the application 370.
  • the power manager 345 may manage, for example, the capacity or power of the battery and provide power information necessary for the operation of the electronic device.
  • the power manager 345 may interwork with a basic input / output system (BIOS).
  • the database manager 346 may create, retrieve, or change a database to be used, for example, in the application 370.
  • the package manager 347 may manage installation or update of an application distributed in the form of a package file.
  • the connectivity manager 348 may manage, for example, a wireless connection.
  • the notification manager 349 may provide the user with events such as, for example, an arrival message, an appointment, a proximity notification, and the like.
  • the location manager 350 may manage location information of the electronic device, for example.
  • the graphic manager 351 may manage, for example, graphic effects to be provided to the user or a user interface related thereto.
  • the security manager 352 may provide system security or user authentication, for example.
  • the middleware 330 may include a telephony manager for managing a voice or video call function of the electronic device or a middleware module capable of forming a combination of functions of the above-described components. .
  • the middleware 330 may provide a module specialized for each type of operating system.
  • the middleware 330 may dynamically delete some of the existing components or add new components.
  • API 360 is, for example, a set of API programming functions, which may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, one API set may be provided for each platform, and in Tizen, two or more API sets may be provided for each platform.
  • the application 370 is, for example, a home 371, a dialer 372, an SMS / MMS 373, an instant message (IM) 374, a browser 375, a camera 376, an alarm 377. , Contacts 378, voice dials 379, emails 380, calendars 381, media players 382, albums 383, watches 384, health care (e.g., measures exercise or blood sugar) Or an application for providing environmental information (eg, barometric pressure, humidity, or temperature information).
  • the application 370 may include an information exchange application capable of supporting information exchange between the electronic device and the external electronic device.
  • the information exchange application may include, for example, a notification relay application for delivering specific information to the external electronic device, or a device management application for managing the external electronic device.
  • the notification delivery application may deliver notification information generated by another application of the electronic device to the external electronic device, or receive notification information from the external electronic device and provide the notification information to the user.
  • the device management application may be, for example, the ability of an external electronic device to communicate with the electronic device (e.g. turn-on / turn-off of the external electronic device itself (or some component) or the brightness (or resolution) of the display). Control), or install, delete, or update an application running on the external electronic device.
  • the application 370 may include an application (eg, a health care application of a mobile medical device) designated according to an attribute of the external electronic device.
  • the application 370 may include an application received from an external electronic device.
  • At least a portion of the program module 310 may be implemented (eg, executed) in software, firmware, hardware (eg, the processor 210), or a combination of at least two or more thereof, and a module for performing one or more functions; It can include a program, routine, instruction set, or process.
  • An electronic device may include a display panel, a display controller, a memory, and a processor electrically connected to the display panel, the display controller, and the memory.
  • the memory when executed, the processor draws an image in response to a periodic synchronization signal, after the image drawing, synthesizes the drawn image in response to the synchronization signal, After image synthesis, the synthesized image is transmitted to the display controller in response to the synchronization signal, the first waiting time after the synthesis image transmission until the next synchronization signal is generated, and in response to the generation of the next synchronization signal, Instructions for controlling the display panel to display an image, determining a first offset value based on the first waiting time, and applying the first offset value to the periodic synchronization signal to determine an image synthesis time point Can be stored.
  • the first offset value is the minimum value or the plurality of first waiting times measured the plurality of times. It may be determined as one of the average value of the first waiting time measured once.
  • the instructions when executed, the processor measures a second wait time from the image drawing to the next synchronization signal generation, and determines a second offset value based on the second wait time.
  • the second offset value may be applied to the periodic synchronization signal to determine an image drawing time point.
  • the second offset value is the minimum value or the plurality of second wait times measured the plurality of times.
  • the determination may be made as one of the average values of the second waiting time measured once.
  • the instructions when executed, may cause the processor to adjust the first offset value or the second offset value based on the time spent drawing the image or the time spent compositing the image. have.
  • An electronic device may include a display panel, a display controller, a memory, and a processor electrically connected to the display panel, the display controller, and the memory.
  • the memory may be configured to determine, by the processor, an image combining scheme based on an operating environment of the electronic device, determine an offset value corresponding to the determined image combining scheme, and perform periodic synchronization. Apply the determined offset value to a signal, draw an image in response to the synchronization signal to which the offset value is applied, and after drawing the image, synthesize the drawn image in response to the synchronization signal to which the offset value is applied, and the image After synthesis, the synthesized image may be transferred to a display controller, and after the image transfer, instructions may be stored to control the display panel to display an image in response to the periodic synchronization signal.
  • the image combining method may include an image combining method through a display controller and an image combining method through a GPU.
  • the operating environment of the electronic device may include the number of applications executed to draw an image.
  • FIG. 4 schematically illustrates a logical structure of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may include a hardware (HW) 401, a kernel 403, a native library 405, a framework 407 (eg, JAVA framework, and the structure of the application (409).
  • HW hardware
  • kernel 403 a kernel 403
  • native library 405 a framework 407 (eg, JAVA framework, and the structure of the application (409).
  • framework 407 eg, JAVA framework, and the structure of the application (409).
  • the hardware may include, for example, the touch panel 410 and the display panel 470.
  • the electronic device may include the touch panel 410 and the display panel 470 integrally formed with a touch screen.
  • the kernel 403 may, for example, control or manage system resources used to execute an action or function implemented in other programs (eg, the application 420, etc.). In addition, the kernel 403 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device in the application 420 or the like. For example, the kernel 403 may access the display controller 460 or the GPU 465 to control or manage the operations of the display controller 460 and the GPU 465.
  • Native library layer 405 includes an image buffer management module (e.g., buffer queue) 435, an image compositing module (e.g., surface flinger) 440, and a graphics library. (Eg, an open graphic library, open GL) 450.
  • image buffer management module e.g., buffer queue
  • image compositing module e.g., surface flinger
  • graphics library e.g., an open graphic library, open GL
  • the framework layer 407 may include an activity 415, a view module 425, and a drawing scheduling module (eg, choreographer) 430. .
  • the application layer 409 may include at least one application 420 that performs an operation of the electronic device.
  • the electronic device may first receive a touch event (1).
  • the touch panel 410 may receive a touch event from a user.
  • the touch panel 410 may recognize basic touch information of touched coordinates and movement of a touch (for example, up / down, etc.) and transmit the basic touch information to the activity 415.
  • Activity 415 may recognize the motion event from the basic touch information (2). For example, the activity 415 may obtain motion event information reflecting an abstract user's intention from basic touch information. For example, the activity 415 may determine which of the various motion events, such as a click, a swipe, and a scroll event, is received based on the touch information.
  • activity 415 may be configured as part of application 420.
  • the activity 415 may manage a screen (eg, a screen or a window) of the application 420 or various events of the application 420.
  • the activity 415 may have various names (eg, windows) according to a framework, and may operate in various ways according to the framework.
  • the electronic device may perform an invalidate procedure (3).
  • activity 415 may update view information that should be updated according to the recognized motion event.
  • the electronic device may configure an image according to a synchronization signal (for example, a vsync signal) provided by the drawing scheduling module 430.
  • a synchronization signal for example, a vsync signal
  • the application 420 may draw an image to be displayed on the display according to the updated view information in association with the view module (4).
  • the drawing scheduling module may manage timing of drawing an image through a change or input of a screen of the electronic device.
  • the drawing scheduling module may receive a synchronization signal (eg, a Vsync signal) transmitted from a configuration such as a display and schedule a task for rendering the display frame.
  • the electronic device may transfer the drawing-completed image to the image buffer management module 435 to maintain a standby state for image composition (5).
  • the electronic device may store an image stored in the graphic buffer after drawing is completed in a separate buffer (for example, a queue buffer) until composition.
  • the electronic device may synthesize a plurality of drawn images (6).
  • the image synthesizing module 440 may be triggered on a synchronization signal (eg, a vsync signal) to synthesize images.
  • the image synthesizing module 440 may take an image waiting to be synthesized from the image buffer management module 435, synthesize the images, and store the synthesized images in the frame buffer.
  • the electronic device may synthesize an image in software at the time of image synthesis or synthesize the image using hardware. For example, when synthesizing the image in software, the electronic device may synthesize the image using the GPU 465.
  • the electronic device may use a graphic library (eg, an open GL ES (GLES) library) 450 for controlling the GPU 465.
  • a graphic library eg, an open GL ES (GLES) library
  • the electronic device may synthesize an image using a hardware composer without the help of the GPU 465.
  • the electronic device may not include the GPU 465.
  • the electronic device may perform a flip operation after compositing the image (7).
  • the electronic device may transmit information of the synthesized frame buffer to the display controller 460.
  • the display controller 460 may transfer pixel data of the frame buffer to the display panel 470 according to a synchronization signal (eg, a vsync signal).
  • a synchronization signal eg, a vsync signal
  • the display controller 460 may fetch pixel data into a direct memory access (DMA) and deliver the pixel data to the display panel as a packet.
  • the packet scheme may be determined according to a protocol of a physically connected interface (eg, MIPI-DSI, HDMI, eDP, etc.).
  • the electronic device may display an image configured through the display panel 470 to display the changed image reflecting the user's input.
  • FIG. 5 schematically illustrates a logical structure of an electronic device according to various embodiments of the present disclosure.
  • the operation and description of the same configuration shown in Figure 4 will be omitted.
  • an electronic device may include an application 515, a view module 525, a drawing scheduling module (eg, a choreographer) 530, an image buffer management module (eg, For example, the image may include a buffer queue)) 535, an image composition module (eg, a surface flinger) 540, a display controller 560, and a display panel 570.
  • the electronic device draws an image from the application 515 and the view module 525 and transmits the image to the image buffer management module 535 according to the synchronization signal vsync provided by the drawing scheduling module 530.
  • the image synthesizing module 540 synthesizes the images imported from the image buffer management module 535 according to the synchronization signal, and the display controller 560 receives the synthesized images and delivers the synthesized images to the display panel 570.
  • the display panel 570 may display an image according to a user input.
  • the electronic device may further include a drawing trigger timing selection module 583, a drawing trigger timing application module 585, and a queue buffer synthesis synthesis measurement module 581.
  • the electronic device may include a module for adjusting the drawing trigger timing to reduce a waiting time of a synchronization signal that may occur between image synthesis after drawing.
  • the queue buffer-synthesis latency measurement module 581 may measure a synchronization signal (eg, vsync signal) latency from the image drawing in the application 515 until the image synthesis module 540 synthesizes the image. Can be. For example, the queue buffer-synthesis latency measurement module 581 passes the drawn image in the application 515 through the queue buffer to the image synthesis module 540 after every cycle (ie, every cycle) and then transfers the image. The time to start of synthesis can be measured. The queue buffer synthesis synthesis measurement module 581 may transmit the measured latency to the drawing trigger timing selection module 583.
  • a synchronization signal eg, vsync signal
  • the drawing trigger timing selection module 583 may calculate a first offset value based on the waiting time received from the queue buffer synthesis synthesis latency measuring module 581.
  • the first offset value may be a time value until the application 515 starts drawing after the synchronization signal (vsync signal).
  • the drawing trigger timing selection module 583 may sample the data of the waiting time.
  • the drawing trigger timing selection module 583 may collect a predetermined amount of waiting time data or waiting time data for a set time.
  • the drawing trigger timing selection module 583 may determine the first offset value based on the collected data.
  • the drawing trigger timing selection module 583 may determine the minimum value of the waiting time as the first offset value in order to minimize the frame drop.
  • the drawing trigger timing selection module 583 may determine the average value of the collected waiting times as the first offset value by considering user responsiveness as a priority. For example, the method of determining the first offset value by the drawing trigger timing selection module 583 may be set in various ways in consideration of the priority of the frame drop rate or the user responsiveness.
  • the drawing trigger timing applying module 585 may apply the determined first offset value to the drawing scheduling module 530.
  • the drawing scheduling module 530 applies a first offset to an existing synchronization signal vsync and then applies a trigger signal (eg, an application 515, a view module 525, etc.) to each component.
  • a trigger signal eg, an application 515, a view module 525, etc.
  • a synchronization signal obtained by applying the first offset may be provided.
  • the application 515 may draw an image in response to the trigger signal instead of the existing synchronization signal. According to an embodiment of the present invention, by drawing an image according to a trigger signal to which the first offset value is applied, eliminating the waiting time that occurs after the image drawing in the application 515 and before the image composition in the image combining module 540. Can be reduced or reduced.
  • the electronic device may further include a flip-sync signal latency measurement module 591, a synthesis trigger timing selection module 593, and a synthesis trigger timing application module 595.
  • the flip-synchronization signal latency measurement module 591 is configured to receive data received by the display panel 570 from the display controller 560 after a flip operation (operation of transferring a synthesized image to the display controller 560). Based on this, the latency of the synchronization signal (eg, the vsync signal) that occurs before displaying the image can be measured. For example, the flip-synchronization signal latency measuring module 591 may transmit a synthesized image (frame buffer image) to the display controller 560 through flips every cycle (that is, every cycle). In operation 560, the waiting time for displaying the image synthesized to the next synchronization signal through the display panel 570 may be measured. The flip-synchronization signal latency measurement module 591 may transmit the measured latency to the synthesis trigger timing selection module 593.
  • the synthesis trigger timing selection module 593 may be measured latency to the synthesis trigger timing selection module 593.
  • the synthesis trigger timing selecting module 593 may calculate a second offset value based on the waiting time received from the flip-sync signal waiting time measuring module 591.
  • the second offset value may be a time value until the image compositing module 540 starts compositing the image after the synchronization signal (vsync signal) in the application 515.
  • the synthesis trigger timing selecting module 593 may sample the data of the waiting time.
  • the synthesis trigger timing selecting module 593 may collect a predetermined amount of waiting time data or waiting time data for a set time.
  • the synthesis trigger timing selection module 593 may determine the second offset value based on the collected data.
  • the synthesis trigger timing selection module 593 may determine the minimum value of the waiting time as the second offset value in order to minimize the frame drop.
  • the synthesis trigger timing selecting module 593 may determine the average value of the collected waiting times as the second offset value by considering user responsiveness as a priority. For example, the method of determining the second offset value by the synthesis trigger timing selecting module 593 may be set in various ways in consideration of a frame drop rate or a priority for user responsiveness.
  • the synthesis trigger timing application module 595 may apply the determined second offset to the image synthesis module 540.
  • the image synthesis module 540 may start synthesizing the image at the trigger timing to which the second offset is applied.
  • the image synthesizing module 540 starts synthesizing the images at a timing that minimizes the display waiting time of the display controller 560, thereby displaying the display panel 570 after the flip of the display controller 560. This eliminates or reduces the waiting time that occurred before the image display.
  • the drawing trigger timing selection module 583, the drawing trigger timing application module 585, and the queue buffer-synthesis latency measurement module 581 may be formed as independent modules or may be integrally configured. It may be formed as a single module.
  • the flip-synchronization signal latency measurement module 591, the synthesis trigger timing selection module 593, and the synthesis trigger timing application module 595 may be formed as independent modules, or may be integrally configured. It may be formed as a single module.
  • the electronic device may include modules for adjusting drawing trigger timing (drawing trigger timing selecting module 583, drawing trigger timing applying module 585, and queue buffer-synthesis latency measuring module 581).
  • modules for adjusting the composite trigger timing flip-synchronized signal latency measurement module 591, composite trigger timing selection module 593 and composite trigger timing application module 595), and drawing It may include only one of the modules for adjusting the trigger timing or the modules for adjusting the synthetic trigger timing.
  • the electronic device may check whether a problem occurs in image drawing or image synthesis timing based on the first waiting time and the second waiting time.
  • dynamic voltage and frequency scaling DVFS
  • the electronic device may determine whether a problem occurs in image drawing and image synthesis timing based on the first waiting time and the second waiting time. For example, the electronic device may check whether image drawing is well completed after image drawing and before image compositing.
  • the electronic device may reset the determined offset value to restore the setting to an initial state.
  • the electronic device may dynamically adjust the image drawing and image composition timing by initializing an offset value (eg, the first offset value or the second offset value) to 0 when a problem occurs.
  • FIG. 6 is a diagram for describing a method of configuring and displaying an image according to a user input in a conventional electronic device.
  • the electronic device may include an application 607, an image composition module (eg, a surface flinger) 605, a display controller 603, and a display panel 601.
  • an image composition module eg, a surface flinger
  • the electronic device draws an image in the application 607
  • the image synthesis module 605 synthesizes the image drawn in the application 607, and displays the display controller 603.
  • Receives the synthesized image transmits the combined image to the display panel 601, and performs the operation of displaying the image by the display panel 601.
  • Each operation in the application 607, the image synthesizing module 605, the display controller 603, and the display panel 601 may be linked according to a synchronization signal (eg, a vsync signal).
  • a synchronization signal eg, a vsync signal
  • the image synthesis module 605 synthesizes an image 630 in response to a next (second) synchronization signal. It may be transferred to the display controller 603.
  • the display controller 603 may transfer (eg, flip 640) the synthesized image to the display panel 601. Thereafter, the display panel 601 may display an image 660 in response to the next (third) synchronization signal.
  • the image synthesizing module 605 may not directly synthesize the image drawn by the application 607, but may generate a waiting time 620 of the synchronization signal to synthesize the image according to the synchronization signal of the next order.
  • a waiting time 650 for waiting for a synchronization signal may occur. Therefore, unnecessary waiting times 620 and 650 may occur after the user input is received before switching the screen (that is, the display panel 601 displays a new image).
  • the electronic device may have a delay time d until an image is displayed on the display panel 601 from the image draw.
  • the delay time d may take until the electronic device draws an image, synthesizes the image, and transmits the image to the display panel 601. That is, as the delay time d from the image drawing to the image display becomes longer, the user responsiveness may decrease, and the screen switching displayed on the display may be delayed. For example, conventionally, due to the waiting times 620 and 650 occurring in the middle of the operation, two cycles of cycles (ie, two or more cycles) until the screen is switched in response to user input (ie, displaying a new image). Synchronization signal (vsync) generation took longer.
  • FIG. 7 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may include an application 707, an image composition module (eg, a surface flinger) 705, a display controller 703, and a display panel 701. .
  • an image composition module eg, a surface flinger
  • the image synthesis module 705 synthesizes the image drawn by the application 707
  • the display controller 703. May receive the synthesized image, transmit the synthesized image to the display panel 701, and display the image.
  • the electronic device may measure a waiting time until the image compositing module 705 synthesizes the image after drawing the image in the application 707. For example, when the electronic device performs each operation according to a synchronization signal (vsync signal), the application 707 draws an image according to the first synchronization signal, and the image synthesis module 705 according to the second synchronization signal. Wait time may occur until) synthesizes the image.
  • the electronic device may measure a waiting time until the start of image synthesis after drawing at set intervals or a set number of times.
  • the electronic device may determine the first offset value off 1 based on the measured waiting time from the measured drawing to the start of image synthesis. For example, the first offset value off 1 may set a time interval from the synchronization signal until the application 707 starts drawing. According to various embodiments, the electronic device may determine the minimum value of the measured waiting time as the first offset value off 1. For example, the image drawing time in the application 707 may change rather than always at a fixed value. When the minimum value of the measured waiting time is determined as the first offset value off 1, since the image drawing time can be sufficiently taken into consideration, a frame drop due to lack of drawing time can be prevented.
  • the electronic device may determine the average value of the measured waiting times as the first offset value off 1. In this case, since the electronic device can further reduce the waiting time, the user's responsiveness of displaying or switching the screen according to the user's input can be further increased.
  • the electronic device may apply the first offset to start drawing the image from a time elapsed by the first offset from the synchronization signal (vsync signal).
  • the waiting time after drawing may be reduced, and the image composition module 705 may synthesize the image.
  • the electronic device may apply the first offset to shift the phase of the image processing operations, thereby eliminating unnecessary waiting time and shortening the image switching time on the display.
  • the electronic device may display an image based on data received by the display panel 701 from the display controller 703 after a flip operation (an operation of transferring the synthesized image to the display controller 703). You can measure the waiting time before displaying.
  • the electronic device may determine the second offset value off 2 based on a waiting time after the flip until the display panel 701 displays the image.
  • the second offset value off 2 may set a time interval from the synchronization signal until the image compositing module 705 starts composing the image.
  • the electronic device may determine, as the second offset value off 2, the minimum value of the waiting time after the measured flip until the display panel 701 displays the image. If the minimum value of the measured waiting time is determined as the second offset value (off 2), since the image synthesis time can be sufficiently considered, a frame drop due to the lack of image synthesis time can be prevented. According to various embodiments of the present disclosure, when considering the user responsiveness, the electronic device may determine the average value of the measured waiting times as the second offset value off 2. In this case, since the electronic device can further reduce the waiting time, the user's responsiveness of displaying or switching the screen according to the user's input can be further increased.
  • the electronic device may apply the second offset to start synthesizing the image from the time elapsed by the second offset from the synchronization signal (vsync signal).
  • the waiting time after the image synthesis may be reduced, and the synthesized image may be directly transmitted to the display controller 703. That is, the electronic device may apply a second offset to shift the phase of image processing operations, thereby eliminating unnecessary waiting time and shortening an image switching time in a display.
  • the electronic device may selectively or together apply the first offset value off 1 or the second offset value off 2.
  • the time d from the image draw 1 to the image display 1 of the electronic device is applied by applying the first offset value off 1 or the second offset value off 2.
  • an electronic device may process (draw and synthesize) an image in one synchronization signal vsync period and apply the offset value (off 1 or off 2) to display on the display panel 701. can do.
  • 8 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure. 8 illustrates a case in which the electronic device applies a fixed first offset value and a second offset value off 2, according to an embodiment.
  • the electronic device applies a fixed first offset value and a second offset value off 2 according to an embodiment.
  • the electronic device measures the waiting time after the image drawing in the application 807 until the image compositing module (eg, surface flinger) 805 synthesizes the image. can do.
  • the electronic device may determine the first offset value off 1 based on the measured waiting time from the measured drawing to the start of image synthesis.
  • the electronic device may display an image based on data received by the display panel 801 from the display controller 803 after a flip operation (an operation of transferring the synthesized image to the display controller 803). You can measure the waiting time before displaying. According to an embodiment, the electronic device may determine the second offset value off 2 based on a waiting time after the flip until the display panel 801 displays the image.
  • the image composition is completed before the drawing operation in the application 807 is completed.
  • the image compositing time at module 805 may be reached.
  • image composition may not be performed immediately, and image drop may be performed in the next cycle, thereby causing frame drop.
  • the time taken for the drawing operation in the application 807 is not the same each time, and some differences may occur.
  • the electronic device maintains a fixed first offset value off 1 and a second offset value off 2
  • the electronic device adaptively associates and determines the first offset value off 1 and the second offset value off 2 to prevent frame drop and to perform image processing. Time can be minimized.
  • the electronic device may determine the first offset value off 1 and the second offset value off 2 in association with each other. For example, the electronic device may determine the first offset value off 1 in consideration of the first offset value off 1 and the drawing time of the application 807. For example, if the second offset value off 2 is set too small and the image is to be synthesized before the drawing is completed, the frame drop may occur because the images to be synthesized are not prepared. The electronic device may determine the first offset value off 1 or the second offset value off 2 in consideration of the drawing time and the image composition time of the application 807 as a whole to prevent the drop of the frame.
  • the electronic device may adaptively determine or change the first offset value off 1 and the second offset value off 2 in consideration of the drawing time and the image synthesis time.
  • a waiting time occurring between an image drawing time, an image composition time, or an operation that is dynamically changed is measured, and reflects the first offset value off 1 and the second offset value off. 2) can be adaptively set or changed according to the situation.
  • by adaptively setting and changing the first offset value (off 1) and the second offset value (off 2) while reducing the image display time according to the user input, while improving the responsiveness It is possible to minimize the frame drop that may occur due to the calculation error of the offset value.
  • FIG. 9 is a schematic diagram of a logical structure of an electronic device according to various embodiments of the present disclosure.
  • an electronic device may include an application 915, a view module 925, a drawing scheduling module (eg, a choreographer) 930, an image buffer management module (eg, For example, a buffer queue)) 935, an image composition module (eg, a surface flinger) 940, a display controller 960, and a display panel 970.
  • the electronic device draws an image in the application 915 and the view module 925 and transmits the image to the image buffer management module 935 according to the synchronization signal vsync provided by the drawing scheduling module 930.
  • the image synthesizing module 940 synthesizes the images imported from the image buffer management module 935 according to the synchronization signal, and the display controller 960 receives the synthesized images and delivers the synthesized images to the display panel 970.
  • the display panel 970 may display an image according to a user input.
  • the electronic device may further include a synthesis trigger timing selection module 981 and a synthesis trigger timing application module 983.
  • the synthesis trigger timing selection module 981 may identify an image combining method.
  • the image compositing module 940 may execute an execution environment of the electronic device (eg, the number of running applications 915, an image format, an image processing operation (eg, rotation or scaling of an image). scaling), etc.) to determine how to compose the image.
  • the image compositing method may include a method using hardware and a method using software.
  • the electronic device may synthesize an image according to the control and operation of the display controller 960.
  • the electronic device may synthesize an image using a graphic library (eg, an open GL ES library) under the control of the GPU.
  • a graphic library eg, an open GL ES library
  • the time consumed may be substantially constant according to the image synthesis method.
  • the time required for image synthesis may be shorter than the graphic library embedded system (GLES) method.
  • the electronic device eg, the synthesis trigger timing selection module 981 may measure a time required according to each image synthesis method.
  • the electronic device may determine the offset value according to the synthesis method based on the time required for each synthesis method.
  • the electronic device may determine an offset value for each image compositing method in consideration of an average image compositing time for each compositing method.
  • the offset value according to the image combining method may be preset.
  • the synthesis trigger timing selection module 981 may determine an image synthesis scheme selected by the image synthesis module 940 and determine an offset value according to the selected image synthesis scheme. For example, the synthesis trigger timing selection module 981 may obtain information about the synthesis method from the image synthesis module 940. The synthesis trigger timing selection module 981 may determine an offset value to be applied in the current image processing cycle based on the obtained information on the synthesis method.
  • the synthesis trigger timing application module 983 may control the timing at which the image synthesis module 940 starts to synthesize the image by applying the determined offset value to the synchronization signal (eg, the vsync signal).
  • the synchronization signal eg, the vsync signal
  • the synthesis trigger timing selection module 981 and the synthesis trigger timing application module 983 may be formed as independent modules, or may be formed as a single module.
  • the time for drawing an image in the application 915 may vary somewhat depending on the application 915 and the image.
  • the time for synthesizing the images may be substantially the same according to the image synthesizing method.
  • the image compositing method is checked and an image compositing point is adjusted by applying a variable offset value according to the image compositing method in an image processing cycle, thereby performing image processing according to a user input (for example, Image display and change) can be easily improved.
  • FIG. 10 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 10 illustrates an operation when processing an image according to the embodiment shown in FIG.
  • the image synthesizing module 1005 may determine an image synthesizing method according to an execution environment of the electronic device.
  • the electronic device may start the synthesis of the image by applying the first offset value 1070 corresponding to the GLES method to the synchronization signal.
  • the electronic device may synthesize an image according to the set first offset value 1070 and perform a flip operation so that the display panel 1001 displays the image in response to the start of the second period (the second vsync signal).
  • the electronic device starts synthesizing the image by applying the second offset value 1080 corresponding to the HWC method to the synchronization signal.
  • the electronic device may adjust the image compositing time by applying a second offset value 1080 that is larger than the first offset value 1070 because the time required for image synthesis is shorter than that of the GLES method. Therefore, when the image synthesis is completed in the second period, the display panel 1001 may display the image in response to the start of the third period (the third vsync signal) by performing the flip operation.
  • the electronic device may adaptively apply an offset value according to the image combining method in every cycle, thereby reducing unnecessary waiting time and improving responsiveness according to a user input.
  • FIG. 11 is a diagram illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 11 illustrates an operation of changing the image combining method from the GLES method to the HWC method according to the embodiment shown in FIG. 9.
  • the electronic device may change an image combining method according to an operating environment of the electronic device.
  • the image synthesizing module eg, surface flinger
  • the image synthesizing module 1005 may determine an image synthesizing method according to an execution environment of the electronic device. For example, in FIG. 11, the image synthesis method is changed from the GLES method to the HWC method at a point.
  • the electronic device may determine the offset value according to the GLES method to be shorter than the offset value according to the HWC method.
  • the image synthesis method is changed to the HWC method from the point a, the time required for image synthesis may be reduced. Thus, a waiting time is formed until the next synchronization signal (vsync signal).
  • the electronic device changes the offset value according to the image processing method (that is, the changed HWC method)
  • the start point of image compositing may be changed.
  • the electronic device adaptively changes and applies the offset value, the screen display on the display 1101 may be continuously performed without generating a delay time of one synchronization signal and generating an additional delay time. .
  • 12A and 12B illustrate an operation of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may change an image combining method according to an operating environment of the electronic device.
  • the image synthesizing module eg, surface flinger
  • the image synthesizing module 1005 may determine an image synthesizing method according to an execution environment of the electronic device.
  • FIGS. 12A and 12B show an operation in the case of changing the image combining method from the HWC method to the GLES method according to the embodiment shown in FIG. 9.
  • the electronic device may determine the offset value according to the GLES method to be shorter than the offset value according to the HWC method. That is, when the image compositing method is changed from the HWC method to the GLES method at the point a, and the electronic device checks it at the point b, which is the image compositing point, and changes the offset value, the increased image compositing time may not be reflected. In this case, because the time for synthesizing the third image is not secured, a stutter phenomenon may occur in which the display 1201 displays the first image in duplicate. That is, the screen displayed on the display 1201 may be stuck.
  • the electronic device may change the offset value in advance by confirming that the image synthesizing method is changed before the image synthesizing module 1203 synthesizes the image of the corresponding period.
  • the electronic device calls a method of the createlayer of the image composition module 1203 so that the application 1205 draws the width and height of the image to be drawn. information such as height, a pixel format, and the like may be transmitted to the image synthesis module 1203 in advance.
  • the image composition module 1203 may determine or determine an image composition scheme in advance based on the received information. According to an embodiment of the present disclosure, when the image synthesizing module 1203 determines or determines an image synthesizing method in advance, the electronic device may immediately set or change an offset value by reflecting this.
  • the electronic device may determine to change the image compositing method from the HWC method to the GLES method.
  • the application 1205 may apply an offset according to the GLES method from the case of drawing the image of the third image (the third frame).
  • the application 1205 may start drawing the third image after waiting until the drawing of the second image (frame 2) is finished.
  • the electronic device since the drawing of the third image is delayed, the electronic device (for example, the image synthesizing module 1203) may apply an offset corresponding to the HWC method until the synthesis of the third image. Thereafter, the electronic device may apply an offset corresponding to the GLES method from the fourth image synthesis.
  • the display 1201 may be configured by confirming an image synthesis method that is changed according to an environment change of the electronic device in advance from the time of synthesis of the corresponding image, and adaptively setting or changing an offset value to reflect the image. It is possible to improve the responsiveness in image processing without occurrence of a stop phenomenon (eg, stutter phenomenon) in.
  • a stop phenomenon eg, stutter phenomenon
  • FIG. 13 is a flowchart illustrating an operation control method of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may draw an image in response to a periodic synchronization signal (eg, a vsync signal).
  • a periodic synchronization signal eg, a vsync signal
  • the electronic device may draw an image in at least one application.
  • the electronic device may synthesize the drawn image in response to the synchronization signal after the drawing.
  • the electronic device may synthesize at least one image drawn by a plurality of applications.
  • the electronic device may synthesize an image in a surface flinger.
  • the electronic device may transmit the synthesized image to the display controller in response to the periodic synchronization signal.
  • the electronic device may perform a flip operation for transferring the synthesized image to the display controller.
  • the electronic device may measure a waiting time until the next synchronization signal is generated after delivery of the synthesized image. For example, the electronic device may measure a waiting time after the flip until displaying an image on the display panel according to the next synchronization signal.
  • the electronic device may display an image on the display panel in response to the generation of the synchronization signal.
  • the electronic device may determine the offset value based on the measured waiting time. For example, the electronic device may determine an offset value corresponding to a waiting time occurring after the image compositing and flipping operation and before displaying the image on the display panel.
  • the electronic device may determine, as an offset value, one of a minimum value of the waiting times measured a plurality of times or an average value of the first waiting times measured a plurality of times. For example, the electronic device may determine the offset value as the average value or the minimum value of the waiting time according to the priority set for the stability or response speed of the display. According to various embodiments of the present disclosure, a method of determining the offset value by the electronic device is not limited thereto and may be variously set.
  • the electronic device may determine an image synthesis time point by applying the offset value determined to the periodic synchronization signal. For example, the electronic device may start image synthesis after a time equal to the offset value determined from the generation of the synchronization signal.
  • the electronic device determines the image drawing time point in consideration of the waiting time until the composition after the image drawing (the waiting time for the synchronization signal (vsync) of the next cycle after the image drawing), thereby waiting after the image drawing.
  • FIG. 14 is a flowchart illustrating a method of controlling an operation of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may draw an image in response to a periodic synchronization signal (eg, a vsync signal).
  • a periodic synchronization signal eg, a vsync signal
  • the electronic device may measure a waiting time from the drawing until the generation of the synchronization signal in the next cycle. For example, in operation 1410, when the electronic device starts drawing in response to the synchronization signal of the first period, in operation 1520, the electronic device may measure a waiting time from completion of the drawing operation until generation of the synchronization signal of the second period. Can be.
  • the electronic device may synthesize the drawn image in response to the synchronization signal after drawing. For example, the electronic device may synthesize an image through a surface flinger.
  • the electronic device may transmit the synthesized image to the display controller in response to the periodic synchronization signal.
  • the electronic device may perform a flip operation for transferring the synthesized image to the display controller.
  • the electronic device may display an image on the display panel in response to the generation of the synchronization signal.
  • the electronic device may determine an offset value based on the measured waiting time. For example, the electronic device may determine an offset value corresponding to a waiting time that occurs after image drawing and before image synthesis.
  • the electronic device may determine, as an offset value, one of a minimum value of the waiting times measured a plurality of times or an average value of the first waiting times measured a plurality of times. For example, the electronic device may determine the offset value as the average value or the minimum value of the waiting time according to the priority set for the stability or response speed of the display. According to various embodiments of the present disclosure, a method of determining the offset value by the electronic device is not limited thereto and may be variously set.
  • the electronic device may determine an image drawing time point by applying the offset value determined to the periodic synchronization signal. For example, the electronic device may start drawing the image after a time equal to the offset value from the synchronization signal generation.
  • the electronic device determines an image combining time point in consideration of a waiting time for displaying an image on a display panel after image combining (a waiting time for a next synchronization signal (vsync) after image combining and transferring).
  • a waiting time for a next synchronization signal (vsync) after image combining and transferring As a result, the image is displayed on the display panel without waiting time after the image synthesis, thereby improving responsiveness to screen display and switching according to a user input.
  • 15 is a flowchart illustrating an operation control method of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may draw an image in response to a periodic synchronization signal (eg, a vsync signal).
  • a periodic synchronization signal eg, a vsync signal
  • the electronic device may draw an image in at least one application.
  • the electronic device may measure a second waiting time from the drawing until the generation of the synchronization signal in the next cycle. For example, in operation 1510, when the electronic device starts drawing in response to the first synchronization signal in the first period, in operation 1520, the electronic device may change from the completion of the drawing operation until the occurrence of the second synchronization signal in the second period. The second waiting time can be measured.
  • the electronic device may synthesize the drawn image in response to the synchronization signal after drawing.
  • the electronic device may synthesize at least one image drawn by a plurality of applications.
  • the electronic device may synthesize an image in a surface flinger.
  • the electronic device may transmit the synthesized image to the display controller in response to the periodic synchronization signal.
  • the electronic device may perform a flip operation for transferring the synthesized image to the display controller.
  • the electronic device may measure a first waiting time until the next synchronization signal is generated after delivery of the synthesized image. For example, the electronic device may measure a first waiting time after flipping until displaying an image on the display panel according to a next synchronization signal.
  • the electronic device may display an image on the display panel in response to the generation of the synchronization signal.
  • the electronic device may determine the first offset value based on the first waiting time. For example, the electronic device may determine a first offset value corresponding to the first waiting time that occurs after the image compositing and flipping operation and before displaying the image on the display panel.
  • the electronic device determines the first offset value as one of a minimum value of the first waiting times measured a plurality of times or an average value of the first waiting times measured a plurality of times. Can be determined. For example, the electronic device may repeatedly measure the first waiting time for a predetermined period or a predetermined number of times. The electronic device may determine the first offset value by analyzing the first waiting time measured a plurality of times according to a set criterion. For example, the electronic device may determine a minimum value of the first waiting time as the first offset value when it is intended to prevent a frame drop occurrence for stable display. For example, the electronic device may determine the second offset value based on the average value of the first waiting time when the response improvement is first considered.
  • the electronic device may determine the image synthesis time by applying the first offset value to the periodic synchronization signal. For example, the electronic device may start image synthesis after a time equal to the first offset value from the synchronization signal generation.
  • the electronic device may determine a second offset value based on the second waiting time. For example, the electronic device may determine a second offset value corresponding to a second waiting time that occurs after image drawing and before image synthesis.
  • the electronic device when the second waiting time is measured a plurality of times, the electronic device offsets the second offset by one of a minimum value of the second waiting times measured a plurality of times or an average value of the second waiting times measured a plurality of times. Can be determined by value.
  • the electronic device may repeatedly measure the second waiting time for a predetermined period or a predetermined number of times.
  • the electronic device may determine the second offset value by analyzing the second waiting time measured a plurality of times according to the set criterion.
  • the electronic device may determine the minimum value of the second waiting time as a second offset value when it is intended to prevent a frame drop occurrence for stable display.
  • the electronic device may determine the second offset value based on the average value of the second waiting times when the response improvement is first considered.
  • the electronic device may determine the image drawing time point by applying the second offset value to the periodic synchronization signal. For example, the electronic device may start drawing the image after a time equal to the second offset value from the synchronization signal generation.
  • the electronic device may adjust the first offset value or the second offset value based on a time for drawing an image or a time for compositing an image.
  • the electronic device may comprehensively consider the image drawing time and the image synthesis time to perform screen switching at a more efficient and accurate timing.
  • 16 is a flowchart illustrating an operation control method of an electronic device according to various embodiments of the present disclosure.
  • the electronic device may determine an image combining method based on the operating environment.
  • the operating environment may include information about the number of applications being executed to perform drawing, the format of an image to be drawn, and processing operations (eg, rotation or scaling) of the image.
  • the image compositing method may include a compositing method using hardware and a compositing method using software.
  • the image compositing method may include a method using a display controller (eg, a hardware composer (HWC) method) or a method using a GPU (eg, a graphic library embedded system (GLES) method).
  • the electronic device may determine an image compositing method for every operation (every frame).
  • the electronic device may determine an offset value corresponding to the determined image combining method.
  • the time required for image composition may be maintained within a predetermined range, depending on the image composition method.
  • the time required for image synthesis may be shorter than that of the GLES method.
  • the electronic device may determine an offset value for each image compositing method in consideration of an average image compositing time for each compositing method.
  • the electronic device may prestore a reference offset value according to the image combining method, or measure a time required for image combining according to the image combining method, and reference offset according to the combining method based on the measured time. You can also set the value.
  • the electronic device may determine an offset value corresponding to the image compositing method determined according to the image compositing method determined every cycle (every frame).
  • the electronic device may apply the determined offset value to the periodic synchronization signal (eg, the vsync signal). According to various embodiments, the electronic device may apply a newly determined offset value every frame (every period).
  • the electronic device may draw an image in response to the synchronization signal to which the offset value is applied. For example, the electronic device may start drawing the image after a time equal to the offset value determined from the synchronization signal generation.
  • the electronic device may synthesize the drawn image in response to the synchronization signal to which the offset value is applied. For example, the electronic device may start image synthesis after a time equal to the offset value determined from the generation of the synchronization signal.
  • the electronic device may transfer the synthesized image to the display controller after image synthesis.
  • the electronic device may perform a flip operation.
  • the electronic device may display an image on the display panel in response to a periodic synchronization signal (eg, a vsync signal). For example, the electronic device may eliminate the waiting time in consideration of the time at the time of image drawing and image synthesis by applying an offset according to the image composition method. Accordingly, the electronic device may display an image in each frame in accordance with a periodic synchronization signal without unnecessary waiting time.
  • a periodic synchronization signal eg, a vsync signal
  • a method of controlling an operation of an electronic device may include: drawing an image in response to a periodic synchronization signal; After drawing the image, synthesizing the drawn image in response to the synchronization signal; After the image synthesis, transferring the synthesized image to a display controller in response to the synchronization signal; Measuring a first waiting time until the next synchronization signal is generated after delivering the synthesized image; Displaying an image on a display panel in response to generation of the next synchronization signal; Determining a first offset value based on the first waiting time; And determining the time point at which the image is synthesized by applying the first offset value to the periodic synchronization signal.
  • the first offset value is a minimum value of the first waiting times measured a plurality of times or an average value of the first waiting times measured a plurality of times. You can decide to either.
  • the method further comprises: measuring a second waiting time after the drawing of the image until a next synchronization signal is generated; Determining a second offset value based on the second wait time; And determining an image drawing time point by applying the second offset value to the periodic synchronization signal.
  • the second offset value is a minimum value of the second waiting times measured a plurality of times or an average value of the second waiting times measured a plurality of times. You can decide to either.
  • the method may further include adjusting the first offset value or the second offset value based on a time for drawing an image or a time for image synthesis.
  • a method of controlling an operation of an electronic device may include determining an image combining method based on an operating environment of the electronic device; Determining an offset value corresponding to the determined image combining method; Applying the determined offset value to a periodic synchronization signal; Drawing an image in response to a synchronization signal to which the offset value is applied; Synthesizing the drawn image in response to a synchronization signal to which the offset value is applied after drawing the image; After the image combining, transferring the synthesized image to a display controller; And after the image transfer, displaying an image on a display panel in response to the periodic synchronization signal.
  • the image combining method may include an image combining method through a display controller and an image combining method through a GPU.
  • the operating environment of the electronic device may include the number of applications executed to draw an image.
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • Modules may be implemented mechanically or electronically, for example, application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or known or future developments that perform certain operations. It can include a programmable logic device.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • At least a portion of an apparatus (eg, modules or functions thereof) or method (eg, operations) according to various embodiments may be stored on a computer-readable storage medium (eg, memory 130) in the form of a program module. It can be implemented as.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical recording media (e.g. CD-ROM, DVD, magnetic-optical media (e.g. floppy disks), internal memory, etc.
  • Instructions may include code generated by a compiler or code executable by an interpreter Modules or program modules according to various embodiments may include at least one or more of the above-described components. In some embodiments, operations performed by a module, a program module, or another component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least, or may include other components. Some operations may be executed in a different order, omitted, or other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

본 발명의 일 실시예에 의한 전자 장치는, 디스플레이 패널, 디스플레이 컨트톨러, 메모리 및 상기 디스플레이 패널, 디스플레이 컨트롤러 및 상기 메모리와 전기적으로 연결된 프로세서를 포함할 수 있다. 상기 메모리는, 실행 시에, 상기 프로세서가, 주기적인 동기화 신호에 응답하여 이미지를 드로잉하고, 상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하고, 상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하고, 상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하고, 상기 다음 동기화 신호의 발생에 응답하여 상기 디스플레이 패널이 이미지를 표시하도록 제어하고, 상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하고, 상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하도록 하는 인스트럭션들을 저장할 수 있다. 이 밖의 다양한 실시예가 가능하다.

Description

전자 장치 및 전자 장치의 동작 제어 방법
본 발명의 다양한 실시예는, 사용자 입력에 따라 이미지를 구성하여 디스플레이에 표시하는 전자 장치 및 전자 장치의 동작 제어 방법에 관한 것이다.
최근 스마트 폰(smart Phone), 태블릿 PC(tablet PC), PMP(portable multimedia player), PDA(personal digital assistant), 랩탑 PC(laptop personal computer) 및 웨어러블 기기(wearable device) 등의 다양한 전자 장치들은 전화 기능뿐만 아니라 다양한 기능(예를 들어, 소셜 네트워크 서비스(SNS), 인터넷, 멀티미디어, 사진 동영상 촬영 및 실행, 문서 작업 등)을 제공할 수 있다.
전자 장치의 컴퓨팅 그래픽 시스템에서는 사용자의 입력에 따라 이미지를 구성하여 표시하게 된다. 이 경우, 사용자의 입력을 수신한 후부터 이미지를 디스플레이에 표시하기까지의 시간을 단축시킬수록 더 원활하게 화면 전환이 이루어질 수 있다. 전자 장치에서 화면에 표시할 이미지를 처리하는 방식에 따라 처리 시간이 지연되거나, 불필요한 지연 시간이 발생할 수 있다. 따라서, 전자 장치의 표시 성능을 향상시키기 위하여 사용자의 입력에 따른 전자 장치의 반응성을 향상시키는 방법이 필요하다.
본 발명의 다양한 실시예들은, 사용자 입력에 따른 사용자 반응성을 향상시킬 수 있는 전자 장치 및 전자 장치의 동작 제어 방법을 제공하고자 한다.
본 발명의 다양한 실시예에 따른 전자 장치는, 디스플레이 패널, 디스플레이 컨트톨러, 메모리 및 상기 디스플레이 패널, 디스플레이 컨트롤러 및 상기 메모리와 전기적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 주기적인 동기화 신호에 응답하여 이미지를 드로잉하고, 상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하고, 상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하고, 상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하고, 상기 다음 동기화 신호의 발생에 응답하여 상기 디스플레이 패널이 이미지를 표시하도록 제어하고, 상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하고, 상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하도록 하는 인스트럭션들을 저장할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 제어 방법은, 주기적인 동기화 신호에 응답하여 이미지를 드로잉하는 동작; 상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하는 동작; 상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하는 동작; 상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하는 동작; 상기 다음 동기화 신호의 발생에 응답하여 디스플레이 패널에 이미지를 표시하는 동작; 상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하는 동작; 및 상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 제어 방법은, 이미지 구성을 위한 동작의 타이밍을 조절하여 이미지 처리 시의 지연 시간을 최소화할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치 및 전자 장치의 동작 제어 방법은, 사용자 입력에 따른 반응성을 향상시킬 수 있다.
본 발명의 다양한 실시예에 따른 사용자 입력에 응답하여, 최적화된 화면 표시 및 전환을 제공할 수 있다.
도 1은 본 발명의 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치를 도시한다.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도이다.
도 3은 본 발명의 다양한 실시예들에 따른 프로그램 모듈의 블록도이다.
도 4는 본 발명의 다양한 실시예들에 따른 전자 장치의 논리적 구조에 대한 개략도이다.
도 5는 본 발명의 다양한 실시예들에 따른 전자 장치의 논리적 구조에 대한 개략도이다.
도 6은 종래의 전자 장치에서 사용자 입력에 따라 이미지를 구성하여 표시하는 방식을 설명하기 위한 도면이다.
도 7은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 8은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 9는 본 발명의 다양한 실시예들에 따른 전자 장치의 논리적 구조에 대한 개략도이다.
도 10은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 12a 및 도 12b는 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
도 13은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
도 14는 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
도 15는 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
도 16은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
이하, 본 문서의 다양한 실시예들이 첨부된 도면을 참조하여 기재된다. 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B" 또는 "A 및/또는 B 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1," "제 2," "첫째," 또는 "둘째,"등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한," "~하는 능력을 가지는," "~하도록 변경된," "~하도록 만들어진," "~를 할 수 있는," 또는 "~하도록 설계된"과 상호 호환적으로(interchangeably) 사용될 수 있다. 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(예: CPU 또는 application processor)를 의미할 수 있다.
본 문서의 다양한 실시예들에 따른 전자 장치는, 예를 들면, 스마트폰, 태블릿 PC, 이동 전화기, 영상 전화기, 전자책 리더기, 데스크탑 PC, 랩탑 PC, 넷북 컴퓨터, 워크스테이션, 서버, PDA, PMP(portable multimedia player), MP3 플레이어, 의료기기, 카메라, 또는 웨어러블 장치 중 적어도 하나를 포함할 수 있다. 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD)), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드 또는 문신), 또는 생체 이식형 회로 중 적어도 하나를 포함할 수 있다. 어떤 실시예들에서, 전자 장치는, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스, 홈 오토매이션 컨트롤 패널, 보안 컨트롤 패널, 미디어 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더, 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션 장치, 위성 항법 시스템(GNSS(global navigation satellite system)), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 드론(drone), 금융 기관의 ATM, 상점의 POS(point of sales), 또는 사물 인터넷 장치 (예: 전구, 각종 센서, 스프링클러 장치, 화재 경보기, 온도조절기, 가로등, 토스터, 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치는 가구, 건물/구조물 또는 자동차의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터, 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시예에서, 전자 장치는 플렉서블하거나, 또는 전술한 다양한 장치들 중 둘 이상의 조합일 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1을 참조하여, 다양한 실시예에서의, 네트워크 환경(100) 내의 전자 장치(101)가 기재된다. 전자 장치(101)는 버스(110), 프로세서(120), 메모리(130), 입출력 인터페이스(150), 디스플레이(160), 및 통신 인터페이스(170)를 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)는, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다. 버스(110)는 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 또는 데이터)을 전달하는 회로를 포함할 수 있다. 프로세서(120)는, 중앙처리장치, 어플리케이션 프로세서, 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서(120)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리(130)는, 휘발성 및/또는 비휘발성 메모리를 포함할 수 있다. 메모리(130)는, 예를 들면, 전자 장치(101)의 적어도 하나의 다른 구성요소에 관계된 명령 또는 데이터를 저장할 수 있다. 한 실시예에 따르면, 메모리(130)는 소프트웨어 및/또는 프로그램(140)을 저장할 수 있다. 프로그램(140)은, 예를 들면, 커널(141), 미들웨어(143), 어플리케이션 프로그래밍 인터페이스(API)(145), 및/또는 어플리케이션 프로그램(또는 "어플리케이션")(147) 등을 포함할 수 있다. 커널(141), 미들웨어(143), 또는 API(145)의 적어도 일부는, 운영 시스템으로 지칭될 수 있다. 커널(141)은, 예를 들면, 다른 프로그램들(예: 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147))에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)을 제어 또는 관리할 수 있다. 또한, 커널(141)은 미들웨어(143), API(145), 또는 어플리케이션 프로그램(147)에서 전자 장치(101)의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어(143)는, 예를 들면, API(145) 또는 어플리케이션 프로그램(147)이 커널(141)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 미들웨어(143)는 어플리케이션 프로그램(147)으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어(143)는 어플리케이션 프로그램(147) 중 적어도 하나에 전자 장치(101)의 시스템 리소스(예: 버스(110), 프로세서(120), 또는 메모리(130) 등)를 사용할 수 있는 우선 순위를 부여하고, 상기 하나 이상의 작업 요청들을 처리할 수 있다. API(145)는 어플리케이션(147)이 커널(141) 또는 미들웨어(143)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 영상 처리, 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다. 입출력 인터페이스(150)는, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치(101)의 다른 구성요소(들)에 전달하거나, 또는 전자 장치(101)의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이(160)는, 예를 들면, 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템 (MEMS) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이(160)는, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 및/또는 심볼 등)을 표시할 수 있다. 디스플레이(160)는, 터치 스크린을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스쳐, 근접, 또는 호버링 입력을 수신할 수 있다. 통신 인터페이스(170)는, 예를 들면, 전자 장치(101)와 외부 장치(예: 제 1 외부 전자 장치(102), 제 2 외부 전자 장치(104), 또는 서버(106)) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스(170)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 외부 장치(예: 제 2 외부 전자 장치(104) 또는 서버(106))와 통신할 수 있다.
무선 통신은, 예를 들면, LTE, LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(Global System for Mobile Communications) 등 중 적어도 하나를 사용하는 셀룰러 통신을 포함할 수 있다. 한 실시예에 따르면, 무선 통신은, 예를 들면, WiFi(wireless fidelity), 블루투스, 블루투스 저전력(BLE), 지그비(Zigbee), NFC(near field communication), 자력 시큐어 트랜스미션(Magnetic Secure Transmission), 라디오 프리퀀시(RF), 또는 보디 에어리어 네트워크(BAN) 중 적어도 하나를 포함할 수 있다. 한실시예에 따르면, 무선 통신은 GNSS를 포함할 수 있다. GNSS는, 예를 들면, GPS(Global Positioning System), Glonass(Global Navigation Satellite System), Beidou Navigation Satellite System(이하 "Beidou") 또는 Galileo, the European global satellite-based navigation system일 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 상호 호환적으로 사용될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard232), 전력선 통신, 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크(162)는 텔레커뮤니케이션 네트워크, 예를 들면, 컴퓨터 네트워크(예: LAN 또는 WAN), 인터넷, 또는 텔레폰 네트워크 중 적어도 하나를 포함할 수 있다.
제 1 및 제 2 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 다양한 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버(106)에서 실행될 수 있다. 한 실시예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버(106))에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버(106))는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예에 따른 전자 장치(201)의 블록도이다. 전자 장치(201)는, 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 포함할 수 있다. 전자 장치(201)는 하나 이상의 프로세서(예: AP)(210), 통신 모듈(220), (가입자 식별 모듈(224), 메모리(230), 센서 모듈(240), 입력 장치(250), 디스플레이(260), 인터페이스(270), 오디오 모듈(280), 카메라 모듈(291), 전력 관리 모듈(295), 배터리(296), 인디케이터(297), 및 모터(298) 를 포함할 수 있다. 프로세서(210)는, 예를 들면, 운영 체제 또는 응용 프로그램을 구동하여 프로세서(210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서(210)는, 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 프로세서(210)는 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서를 더 포함할 수 있다. 프로세서(210)는 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈(221))를 포함할 수도 있다. 프로세서(210) 는 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드)하여 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
통신 모듈(220)(예: 통신 인터페이스(170))와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈(220)은, 예를 들면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227), NFC 모듈(228) 및 RF 모듈(229)를 포함할 수 있다. 셀룰러 모듈(221)은, 예를 들면, 통신망을 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 가입자 식별 모듈(예: SIM 카드)(224)을 이용하여 통신 네트워크 내에서 전자 장치(201)의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 프로세서(210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시예에 따르면, 셀룰러 모듈(221)은 커뮤니케이션 프로세서(CP)를 포함할 수 있다. 어떤 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. RF 모듈(229)은, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈(229)은, 예를 들면, 트랜시버, PAM(power amp module), 주파수 필터, LNA(low noise amplifier), 또는 안테나 등을 포함할 수 있다. 다른 실시예에 따르면, 셀룰러 모듈(221), WiFi 모듈(223), 블루투스 모듈(225), GNSS 모듈(227) 또는 NFC 모듈(228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다. 가입자 식별 모듈(224)은, 예를 들면, 가입자 식별 모듈을 포함하는 카드 또는 임베디드 SIM을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리(230)(예: 메모리(130))는, 예를 들면, 내장 메모리(232) 또는 외장 메모리(234)를 포함할 수 있다. 내장 메모리(232)는, 예를 들면, 휘발성 메모리(예: DRAM, SRAM, 또는 SDRAM 등), 비휘발성 메모리(예: OTPROM(one time programmable ROM), PROM, EPROM, EEPROM, mask ROM, flash ROM, 플래시 메모리, 하드 드라이브, 또는 솔리드 스테이트 드라이브 (SSD) 중 적어도 하나를 포함할 수 있다. 외장 메모리(234)는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD, Mini-SD, xD(extreme digital), MMC(multi-media card) 또는 메모리 스틱 등을 포함할 수 있다. 외장 메모리(234)는 다양한 인터페이스를 통하여 전자 장치(201)와 기능적으로 또는 물리적으로 연결될 수 있다.
센서 모듈(240)은, 예를 들면, 물리량을 계측하거나 전자 장치(201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈(240)은, 예를 들면, 제스처 센서(240A), 자이로 센서(240B), 기압 센서(240C), 마그네틱 센서(240D), 가속도 센서(240E), 그립 센서(240F), 근접 센서(240G), 컬러(color) 센서(240H)(예: RGB(red, green, blue) 센서), 생체 센서(240I), 온/습도 센서(240J), 조도 센서(240K), 또는 UV(ultra violet) 센서(240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 센서 모듈(240)은, 예를 들면, 후각(e-nose) 센서, 일렉트로마이오그라피(EMG) 센서, 일렉트로엔씨팔로그램(EEG) 센서, 일렉트로카디오그램(ECG) 센서, IR(infrared) 센서, 홍채 센서 및/또는 지문 센서를 포함할 수 있다. 센서 모듈(240)은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시예에서는, 전자 장치(201)는 프로세서(210)의 일부로서 또는 별도로, 센서 모듈(240)을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서(210)가 슬립(sleep) 상태에 있는 동안, 센서 모듈(240)을 제어할 수 있다.
입력 장치(250)는, 예를 들면, 터치 패널(252), (디지털) 펜 센서(254), 키(256), 또는 초음파 입력 장치(258)를 포함할 수 있다. 터치 패널(252)은, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널(252)은 제어 회로를 더 포함할 수도 있다. 터치 패널(252)은 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다. (디지털) 펜 센서(254)는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트를 포함할 수 있다. 키(256)는, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드를 포함할 수 있다. 초음파 입력 장치(258)는 마이크(예: 마이크(288))를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이(260)(예: 디스플레이(160))는 패널(262), 홀로그램 장치(264), 프로젝터(266), 및/또는 이들을 제어하기 위한 제어 회로를 포함할 수 있다. 패널(262)은, 예를 들면, 유연하게, 투명하게, 또는 착용할 수 있게 구현될 수 있다. 패널(262)은 터치 패널(252)과 하나 이상의 모듈로 구성될 수 있다. 한 실시예에 따르면, 패널(262)은 사용자의 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서(또는 포스 센서)를 포함할 수 있다. 상기 압력 센서는 터치 패널(252)과 일체형으로 구현되거나, 또는 터치 패널(252)과는 별도의 하나 이상의 센서로 구현될 수 있다. 홀로그램 장치(264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터(266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 스크린은, 예를 들면, 전자 장치(201)의 내부 또는 외부에 위치할 수 있다. 인터페이스(270)는, 예를 들면, HDMI(272), USB(274), 광 인터페이스(optical interface)(276), 또는 D-sub(D-subminiature)(278)를 포함할 수 있다. 인터페이스(270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(170)에 포함될 수 있다. 추가적으로 또는 대체적으로, 인터페이스(270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈(280)은, 예를 들면, 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈(280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(145)에 포함될 수 있다. 오디오 모듈(280)은, 예를 들면, 스피커(282), 리시버(284), 이어폰(286), 또는 마이크(288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다. 카메라 모듈(291)은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, 이미지 시그널 프로세서(ISP), 또는 플래시(예: LED 또는 xenon lamp 등)를 포함할 수 있다. 전력 관리 모듈(295)은, 예를 들면, 전자 장치(201)의 전력을 관리할 수 있다. 한 실시예에 따르면, 전력 관리 모듈(295)은 PMIC(power management integrated circuit), 충전 IC, 또는 배터리 또는 연료 게이지를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리(296)의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리(296)는, 예를 들면, 충전식 전지 및/또는 태양 전지를 포함할 수 있다.
인디케이터(297)는 전자 장치(201) 또는 그 일부(예: 프로세서(210))의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 모터(298)는 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동, 또는 햅틱 효과 등을 발생시킬 수 있다. 전자 장치(201)는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(mediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있는 모바일 TV 지원 장치(예: GPU)를 포함할 수 있다. 본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시예에서, 전자 장치(예: 전자 장치(201))는 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함하거나, 또는, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시예에 따른 프로그램 모듈의 블록도이다. 한 실시예에 따르면, 프로그램 모듈(310)(예: 프로그램(140))은 전자 장치(예: 전자 장치(101))에 관련된 자원을 제어하는 운영 체제 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 운영 체제는, 예를 들면, AndroidTM, iOSTM, WindowsTM, SymbianTM, TizenTM, 또는 BadaTM를 포함할 수 있다. 도 3을 참조하면, 프로그램 모듈(310)은 커널(320)(예: 커널(141)), 미들웨어(330)(예: 미들웨어(143)), (API(360)(예: API(145)), 및/또는 어플리케이션(370)(예: 어플리케이션 프로그램(147))을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 전자 장치 상에 프리로드 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버(106) 등)로부터 다운로드 가능하다.
커널(320)은, 예를 들면, 시스템 리소스 매니저(321) 및/또는 디바이스 드라이버(323)를 포함할 수 있다. 시스템 리소스 매니저(321)는 시스템 리소스의 제어, 할당, 또는 회수를 수행할 수 있다. 한 실시예에 따르면, 시스템 리소스 매니저(321)는 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부를 포함할 수 있다. 디바이스 드라이버(323)는, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다. 미들웨어(330)는, 예를 들면, 어플리케이션(370)이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션(370)이 전자 장치 내부의 제한된 시스템 자원을 사용할 수 있도록 API(360)를 통해 다양한 기능들을 어플리케이션(370)으로 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330) 는 런타임 라이브러리(335), 어플리케이션 매니저(341), 윈도우 매니저(342), 멀티미디어 매니저(343), 리소스 매니저(344), 파워 매니저(345), 데이터베이스 매니저(346), 패키지 매니저(347), 커넥티비티 매니저(348), 노티피케이션 매니저(349), 로케이션 매니저(350), 그래픽 매니저(351), 또는 시큐리티 매니저(352) 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리(335)는, 예를 들면, 어플리케이션(370)이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리(335)는 입출력 관리, 메모리 관리, 또는 산술 함수 처리를 수행할 수 있다. 어플리케이션 매니저(341)는, 예를 들면, 어플리케이션(370)의 생명 주기를 관리할 수 있다. 윈도우 매니저(342)는 화면에서 사용되는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저(343)는 미디어 파일들의 재생에 필요한 포맷을 파악하고, 해당 포맷에 맞는 코덱을 이용하여 미디어 파일의 인코딩 또는 디코딩을 수행할 수 있다. 리소스 매니저(344)는 어플리케이션(370)의 소스 코드 또는 메모리의 공간을 관리할 수 있다. 파워 매니저(345)는, 예를 들면, 배터리의 용량 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보를 제공할 수 있다. 한 실시예에 따르면, 파워 매니저(345)는 바이오스(BIOS: basic input/output system)와 연동할 수 있다. 데이터베이스 매니저(346)는, 예를 들면, 어플리케이션(370)에서 사용될 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저(347)는 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 갱신을 관리할 수 있다.
커넥티비티 매니저(348)는, 예를 들면, 무선 연결을 관리할 수 있다. 노티피케이션 매니저(349)는, 예를 들면, 도착 메시지, 약속, 근접성 알림 등의 이벤트를 사용자에게 제공할 수 있다. 로케이션 매니저(350)는, 예를 들면, 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저(351)는, 예를 들면, 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저(352)는, 예를 들면, 시스템 보안 또는 사용자 인증을 제공할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화(telephony) 매니저 또는 전술된 구성요소들의 기능들의 조합을 형성할 수 있는 하는 미들웨어 모듈을 포함할 수 있다. 한 실시예에 따르면, 미들웨어(330)는 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 미들웨어(330)는 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다. API(360)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼 별로 하나의 API 셋을 제공할 수 있으며, 타이젠의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션(370)은, 예를 들면, 홈(371), 다이얼러(372), SMS/MMS(373), IM(instant message)(374), 브라우저(375), 카메라(376), 알람(377), 컨택트(378), 음성 다이얼(379), 이메일(380), 달력(381), 미디어 플레이어(382), 앨범(383), 와치(384), 헬스 케어(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보(예: 기압, 습도, 또는 온도 정보) 제공 어플리케이션을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 전자 장치와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리 어플리케이션을 포함할 수 있다. 예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션에서 발생된 알림 정보를 외부 전자 장치로 전달하거나, 또는 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온/턴-오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 또는 외부 전자 장치에서 동작하는 어플리케이션을 설치, 삭제, 또는 갱신할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치의 속성에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션)을 포함할 수 있다. 한 실시예에 따르면, 어플리케이션(370)은 외부 전자 장치로부터 수신된 어플리케이션을 포함할 수 있다. 프로그램 모듈(310)의 적어도 일부는 소프트웨어, 펌웨어, 하드웨어(예: 프로세서(210)), 또는 이들 중 적어도 둘 이상의 조합으로 구현(예: 실행)될 수 있으며, 하나 이상의 기능을 수행하기 위한 모듈, 프로그램, 루틴, 명령어 세트 또는 프로세스를 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 디스플레이 패널, 디스플레이 컨트톨러, 메모리 및 상기 디스플레이 패널, 디스플레이 컨트롤러 및 상기 메모리와 전기적으로 연결된 프로세서를 포함할 수 있다.
일 실시예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 주기적인 동기화 신호에 응답하여 이미지를 드로잉하고, 상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하고, 상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하고, 상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하고, 상기 다음 동기화 신호의 발생에 응답하여 상기 디스플레이 패널이 이미지를 표시하도록 제어하고, 상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하고, 상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하도록 하는 인스트럭션들을 저장할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 실행 시에, 상기 프로세서가, 상기 제1 대기 시간을 복수 회 측정한 경우, 상기 제1 오프셋 값은 상기 복수 회 측정한 제1 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나로 결정하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 실행 시에, 상기 프로세서가, 상기 이미지 드로잉 이후 다음 동기화 신호 발생시까지의 제2 대기 시간을 측정하고, 상기 제2 대기 시간을 기반으로 제2 오프셋 값을 결정하고, 상기 주기적인 동기화 신호에 상기 제2 오프셋 값을 적용하여 이미지 드로잉 시점을 결정하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 실행 시에, 상기 프로세서가, 상기 제2 대기 시간을 복수 회 측정한 경우, 상기 제2 오프셋 값은 상기 복수 회 측정한 제2 대기 시간 중 최소값 또는 상기 복수 회 측정한 제2 대기 시간의 평균값 중 하나로 결정하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은, 실행 시에, 상기 프로세서가, 이미지 드로잉에 소요되는 시간 또는 이미지 합성에 소요되는 시간에 기초하여 상기 제1 오프셋 값 또는 상기 제2 오프셋 값을 조정하도록 할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는, 디스플레이 패널, 디스플레이 컨트톨러, 메모리 및 상기 디스플레이 패널, 디스플레이 컨트롤러 및 상기 메모리와 전기적으로 연결된 프로세서를 포함할 수 있다.
일 실시예에 따르면, 상기 메모리는, 실행 시에, 상기 프로세서가, 상기 전자 장치의 동작 환경에 기반하여 이미지 합성 방식을 결정하고, 결정한 이미지 합성 방식에 대응하는 오프셋 값을 결정하고, 주기적인 동기화 신호에 상기 결정된 오프셋 값을 적용하고, 상기 오프셋 값이 적용된 동기화 신호에 응답하여 이미지를 드로잉하고, 상기 이미지 드로잉 이후, 상기 오프셋 값이 적용된 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하고, 상기 이미지 합성 이후, 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하고, 상기 이미지 전달 이후, 상기 주기적인 동기화 신호에 응답하여 상기 디스플레이 패널이 이미지를 표시하도록 제어하도록 하는 인스트럭션들을 저장할 수 있다.
일 실시예에 따르면, 상기 이미지 합성 방식은 디스플레이 컨트롤러를 통한 이미지 합성 방식과 GPU를 통한 이미지 합성 방식을 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치의 동작 환경은 이미지를 드로잉하기 위해 실행 중인 어플리케이션의 개수를 포함할 수 있다.
도 4는 본 발명의 다양한 실시예에 따른 전자 장치의 논리적인 구조를 개략적으로 도시한다.
일 실시예에 따르면, 전자 장치는 하드웨어(hardware, HW)(401), 커넬(kernel)(403), 네이티브 라이브러리(native library)(405), 프레임워크(framework)(407)(예를 들어, 자바 프레임워크(JAVA framework), 및 어플리케이션(409)의 구조를 포함할 수 있다.
하드웨어는 예를 들어, 터치 패널(410) 및 디스플레이 패널(470)을 포함할 수 있다. 예를 들어, 전자 장치는 터치 패널(410) 및 디스플레이 패널(470)은 일체형으로 형성된 터치 스크린을 포함할 수 있다.
커널(403)은 예를 들어, 다른 프로그램들(예를 들어, 어플리케이션(420) 등) 에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들을 제어 또는 관리할 수 있다. 또한, 커널(403)은 어플리케이션(420) 등에서 전자 장치의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다. 예를 들어, 커널(403)은 디스플레이 컨트롤러(460) 또는 GPU(465)에 접근하여 디스플레이 컨트롤러(460) 및 GPU(465)의 동작을 제어 또는 관리할 수 있다.
네이티브 라이브러리 계층(405)은 이미지 버퍼 관리 모듈(예를 들어, 버퍼 큐(buffer queue))(435), 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(440), 및 그래픽 라이브러리(예를 들어, 오픈 그래픽 라이브러리(open graphic library, open GL))(450)을 포함할 수 있다.
프레임워크 계층(407)은 액티비티(activity)(415), 뷰(view) 모듈(425) 및 드로잉(drawing) 스케줄링 모듈(예를 들어, 코레오그래퍼 (choreographer))(430)를 포함할 수 있다.
어플리케이션 계층(409)은 전자 장치의 동작을 수행하는 적어도 하나의 어플리케이션(420)을 포함할 수 있다.
전자 장치에서 사용자의 입력에 따라 디스플레이 패널(470)에 표시할 이미지를 구성하는 동작을 살펴보면, 우선적으로 전자 장치는 터치 이벤트를 수신할 수 있다(1). 예를 들어, 터치 패널(410)은 사용자로부터 터치 이벤트를 수신할 수 있다. 예를 들어, 터치 패널(410)은 터치된 좌표, 터치의 이동(예를 들어, 위(up)/아래(down) 등)의 기본적인 터치 정보를 인식하여 액티비티(415)로 전달할 수 있다.
액티비티(415)는 기본적인 터치 정보로부터 모션 이벤트를 인식할 수 있다(2). 예를 들어, 액티비티(415)는 기본적인 터치 정보로부터 추상적인 사용자의 의도를 반영한 모션 이벤트 정보를 획득할 수 있다. 예를 들어, 액티비티(415)는 터치 정보를 기반으로 수신된 터치 이벤트가 클릭, 스와이프, 스크롤 등 다양한 모션 이벤트들 중 어떠한 모션 이벤트인지 판단할 수 있다.
다양한 실시예에 따르면, 액티비티(415)는 어플리케이션(420)의 일부로 구성될 수 있다. 일 실시예에 따르면, 액티비티(415)는 어플리케이션(420)의 화면(예를 들어, 스크린(screen) 또는 윈도우(window)) 또는 어플리케이션(420)의 다양한 이벤트를 관리할 수 있다. 다양한 실시예에 따르면, 액티비티(415)는 프레임워크(framework)에 따라 다양한 명칭(예를 들어, 윈도우)을 가질 수 있으며, 프레임워크에 따라 다양한 방법으로 동작할 수 있다.
전자 장치는 모션 이벤트를 판단한 이후, invalidate 절차를 수행할 수 있다(3). 예를 들어, 액티비티(415)는 인식된 모션 이벤트에 따라 업데이트 되어야 하는 뷰(view) 정보를 업데이트할 수 있다.
전자 장치는 뷰 정보가 업데이트 되면, 드로잉 스케줄링 모듈(430)에서 제공하는 동기화 신호(예를 들어, vsync 신호)에 따라 이미지를 구성할 수 있다. 예를 들어, 어플리케이션(420)은 뷰 모듈과 연동하여 업데이트된 뷰 정보에 따라 디스플레이에 표시할 이미지를 드로잉(draw)할 수 있다(4). 일 실시예에 따르면, 드로잉 스케줄링 모듈은 전자 장치의 화면의 변화 또는 입력을 통해 이미지를 드로잉(drawing)하는 타이밍을 관리할 수 있다. 드로잉 스케줄링 모듈은 디스플레이 등의 구성으로부터 전달되는 동기화 신호(예를 들어, Vsync 신호)를 수신하고, 디스플레이 프레임을 렌더링하기 위한 작업을 스케줄링 할 수 있다.
전자 장치는 드로잉 완료된 이미지를 이미지 버퍼 관리 모듈(435)에 전달하여 이미지 합성을 위한 대기 상태를 유지할 수 있다(5). 예를 들어, 전자 장치는 드로잉 완료되어 그래픽 버퍼에 저장된 이미지를 합성 시까지 별도의 버퍼(예를 들어, 큐 버퍼)에 저장할 수 있다.
전자 장치는 드로잉 완료된 복수의 이미지들을 합성할 수 있다(6). 예를 들어, 이미지 합성 모듈(440)는 동기화 신호(예를 들어, vsync 신호)에 트리거(trigger)되어 이미지들을 합성할 수 있다. 예를 들어, 이미지 합성 모듈(440)는 이미지 버퍼 관리 모듈(435)로부터 합성 대기 중인 이미지를 가져와서 이미지들을 합성하여 프레임 버퍼에 저장할 수 있다. 다양한 실시예들에 따르면, 전자 장치는 이미지 합성 시에 소프트웨어 적으로 이미지를 합성하거나, 하드웨어를 이용하여 이미지를 합성할 수 있다. 예를 들어, 소프트웨어 적으로 이미지를 합성할 경우 전자 장치는 GPU(465)를 이용하여 이미지를 합성할 수 있다. 이 경우, 전자 장치는 GPU(465) 제어를 위하여 그래픽 라이브러리(예를 들어, 오픈 GL ES(open GL ES, GLES) 라이브러리)(450)를 사용할 수 있다. 하드웨어를 이용하여 이미지를 합성할 경우, 전자 장치는 GPU(465)의 도움 없이 하드웨어 컴포저(composer)를 이용하여 이미지를 합성할 수 있다. 예를 들어, 전자 장치가 하드웨어를 이용하여 이미지를 합성하는 경우, 전자 장치는 GPU(465)를 포함하지 않을 수 있다.
전자 장치는 이미지를 합성한 이후 플립(flip) 동작을 수행할 수 있다(7). 예를 들어, 전자 장치는 합성 완료된 프레임 버퍼의 정보를 디스플레이 컨트롤러(460)로 전달할 수 있다. 디스플레이 컨트롤러(460)는 동기화 신호(예를 들어, vsync 신호)에 따라 프레임 버퍼의 픽셀 데이터를 디스플레이 패널(470)에 전달할 수 있다. 예를 들어, 디스플레이 컨트롤러(460)는 픽셀데이터를 DMA(direct memory access)로 페치(fetch)하여 패킷으로 디스플레이 패널에 전달할 수 있다. 예를 들어, 패킷 방식은 물리적으로 연결된 인터페이스 (예를 들어, MIPI-DSI, HDMI, eDP 등)의 프로토콜에 따라 결정될 수 있다. 전자 장치는 디스플레이 패널(470)을 통하여 구성한 이미지를 표시함으로써, 사용자의 입력을 반영하여 변화된 이미지를 표시할 수 있다.
도 5는 본 발명의 다양한 실시예에 따른 전자 장치의 논리적인 구조를 개략적으로 도시한다. 이하에서, 도 4에 도시된 동일한 구성에 대한 동작 및 설명은 생략한다.
본 발명이 다양한 실시예들에 따르면, 전자 장치는 어플리케이션(515), 뷰 모듈(525), 드로잉 스케줄링 모듈(예를 들어, 코레오그래퍼(choreographer))(530), 이미지 버퍼 관리 모듈(예를 들어, 버퍼 큐))(535), 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(540), 디스플레이 컨트롤러(560), 디스플레이 패널(570)을 포함할 수 있다. 예를 들어, 전자 장치는 드로잉 스케줄링 모듈(530)에서 제공하는 동기화 신호(vsync)에 따라 어플리케이션(515) 및 뷰 모듈(525)에서 이미지를 드로잉(draw)하여 이미지 버퍼 관리 모듈(535)에 전달하고, 이미지 합성 모듈(540)가 동기화 신호에 맞춰서 이미지 버퍼 관리 모듈(535)로부터 불러온 이미지들을 합성하고, 합성한 이미지들을 디스플레이 컨트롤러(560)가 수신하여 디스플레이 패널(570)에 전달하는 동작을 통하여 디스플레이 패널(570)이 사용자 입력에 따른 이미지를 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치는 드로잉 트리거 타이밍 선정 모듈(583), 드로잉 트리거 타이밍 적용 모듈(585) 및 큐 버퍼-합성 대기시간 측정 모듈(581)을 더 포함할 수 있다. 예를 들어, 전자 장치는 드로잉 이후 이미지 합성 사이에 발생할 수 있는 동기화 신호의 대기 시간을 감소시키기 위하여 드로잉 트리거 타이밍을 조절하기 위한 모듈을 포함할 수 있다.
큐 버퍼-합성 대기시간 측정 모듈(581)은 어플리케이션(515)에서의 이미지 드로잉 이후 이미지 합성 모듈(540)에서 이미지를 합성할때까지의 동기화 신호(예를 들어, vsync 신호) 대기 시간을 측정할 수 있다. 예를 들어, 큐 버퍼-합성 대기시간 측정 모듈(581)은 매 싸이클(즉, 매 주기)마다 어플리케이션(515)에서 드로잉 완료된 이미지를 큐 버퍼를 통하여 이미지 합성 모듈(540)로 전달한 후에 해당 이미지를 합성 시작하기까지의 시간을 측정할 수 있다. 큐 버퍼-합성 대기시간 측정 모듈(581)은 측정한 대기 시간을 드로잉 트리거 타이밍 선정 모듈(583)에 전달할 수 있다.
드로잉 트리거 타이밍 선정 모듈(583)은 큐 버퍼-합성 대기시간 측정 모듈(581)로부터 전달 받은 대기 시간에 기반하여 제1 오프셋 값을 연산할 수 있다. 예를 들어, 제1 오프셋 값은 어플리케이션(515)에서 동기화 신호(vsync 신호) 이후에 드로잉을 시작할 때까지의 시간 값일 수 있다. 예를 들어, 드로잉 트리거 타이밍 선정 모듈(583)은 대기 시간의 데이터를 샘플링할 수 있다. 드로잉 트리거 타이밍 선정 모듈(583)은 일정 양의 대기 시간 데이터, 또는 설정된 시간 동안의 대기 시간 데이터를 수집할 수 있다. 예를 들어, 드로잉 트리거 타이밍 선정 모듈(583)은 수집한 데이터를 기반으로 제1 오프셋 값을 결정할 수 있다. 다양한 실시예에 따르면, 드로잉 트리거 타이밍 선정 모듈(583)은 프레임 드롭(frame drop)을 최소한으로 만들기 위하여 대기 시간의 최소값을 제1 오프셋 값으로 결정할 수 있다. 드로잉 트리거 타이밍 선정 모듈(583)은 사용자 반응성을 우선 순위로 고려하여 수집한 대기 시간의 평균값을 제1 오프셋 값으로 결정할 수 있다. 예를 들어, 드로잉 트리거 타이밍 선정 모듈(583)이 제1 오프셋 값을 결정하는 방식은 프레임 드롭률 또는 사용자 반응성에 대한 우선순위를 고려하여 다양하게 설정될 수 있다.
드로잉 트리거 타이밍 적용 모듈(585)은 결정된 제1 오프셋 값을 드로잉 스케줄링 모듈(530)에 적용할 수 있다. 예를 들어, 드로잉 스케줄링 모듈(530)는 기존의 동기화 신호(vsync)에 제1 오프셋을 적용시킨 후에 각 구성요소(예를 들어, 어플리케이션(515), 뷰 모듈(525) 등)에 트리거 신호(예를 들어, 제1 오프셋을 적용시킨 동기화 신호)를 제공할 수 있다.
이에 따라, 어플리케이션(515)은 기존의 동기화 신호 대신에 트리거 신호에 응답하여 이미지를 드로잉할 수 있다. 본 발명의 실시예에 따르면, 제1 오프셋 값을 적용한 트리거 신호에 따라 이미지를 드로잉함으로써, 어플리케이션(515)에서의 이미지 드로잉 후 이미지 합성 모듈(540)에서의 이미지 합성 이전에 발생하였던 대기 시간을 없애거나 감소시킬 수 있다.
다양한 실시예들에 따르면, 전자 장치는 플립-동기화 신호 대기시간 측정 모듈(591), 합성 트리거 타이밍 선정 모듈(593) 및 합성 트리거 타이밍 적용 모듈(595)을 더 포함할 수 있다.
플립-동기화 신호 대기시간 측정 모듈(591)은 플립(flip) 동작(합성 완료된 이미지를 디스플레이 컨트롤러(560)에 전달하는 동작) 이후에 디스플레이 패널(570)이 디스플레이 컨트롤러(560)로부터 수신한 데이터를 기반하여 이미지를 표시하기 전에 발생하는 동기화 신호(예를 들어, vsync 신호) 대기 시간을 측정할 수 있다. 예를 들어, 플립-동기화 신호 대기시간 측정 모듈(591)은 매 싸이클(즉, 매 주기)마다 합성 완료된 이미지(프레임 버퍼 이미지)가 플립을 통해 디스플레이 컨트롤러(560)로 전달된 이후, 디스플레이 컨트롤러(560)에서 다음 동기화 신호에 합성된 이미지를 디스플레이 패널(570)을 통해 표시하기까지의 대기 시간을 측정할 수 있다. 플립-동기화 신호 대기시간 측정 모듈(591)은 측정한 대기 시간을 합성 트리거 타이밍 선정 모듈(593)에 전달할 수 있다.
합성 트리거 타이밍 선정 모듈(593)은 플립-동기화 신호 대기시간 측정 모듈(591)로부터 전달 받은 대기 시간에 기반하여 제2 오프셋 값을 연산할 수 있다. 예를 들어, 제2 오프셋 값은 어플리케이션(515)에서 동기화 신호(vsync 신호) 이후에 이미지 합성 모듈(540)가 이미지의 합성을 시작할 때까지의 시간 값일 수 있다. 예를 들어, 합성 트리거 타이밍 선정 모듈(593)은 대기 시간의 데이터를 샘플링할 수 있다. 합성 트리거 타이밍 선정 모듈(593)은 일정 양의 대기 시간 데이터, 또는 설정된 시간 동안의 대기 시간 데이터를 수집할 수 있다. 예를 들어, 합성 트리거 타이밍 선정 모듈(593)은 수집한 데이터를 기반으로 제2 오프셋 값을 결정할 수 있다. 다양한 실시예에 따르면, 합성 트리거 타이밍 선정 모듈(593)은 프레임 드롭(frame drop)을 최소한으로 만들기 위하여 대기 시간의 최소값을 제2 오프셋 값으로 결정할 수 있다. 합성 트리거 타이밍 선정 모듈(593)은 사용자 반응성을 우선 순위로 고려하여 수집한 대기 시간의 평균값을 제2 오프셋 값으로 결정할 수 있다. 예를 들어, 합성 트리거 타이밍 선정 모듈(593)이 제2 오프셋 값을 결정하는 방식은 프레임 드롭률 또는 사용자 반응성에 대한 우선순위를 고려하여 다양하게 설정될 수 있다.
합성 트리거 타이밍 적용 모듈(595)은 결정된 제2 오프셋을 이미지 합성 모듈(540)에 적용할 수 있다. 이미지 합성 모듈(540)는 제2 오프셋이 적용된 트리거 타이밍에 이미지의 합성을 시작할 수 있다. 본 발명의 실시예에 따르면, 이미지 합성 모듈(540)는 디스플레이 컨트롤러(560)의 디스플레이 대기 시간을 최소한으로 하는 타이밍에 이미지의 합성을 시작함으로써, 디스플레이 컨트롤러(560)의 플립 이후 디스플레이 패널(570)의 이미지 표시 전에 발생하였던 대기 시간을 없애거나 감소시킬 수 있다.
다양한 실시예에 따르면, 드로잉 트리거 타이밍 선정 모듈(583), 드로잉 트리거 타이밍 적용 모듈(585) 및 큐 버퍼-합성 대기시간 측정 모듈(581)은 각각의 독립적인 모듈로 형성될 수도 있고, 일체로 구성된 단일의 모듈로 형성될 수도 있다. 다양한 실시예에 따르면, 플립-동기화 신호 대기시간 측정 모듈(591), 합성 트리거 타이밍 선정 모듈(593) 및 합성 트리거 타이밍 적용 모듈(595)은 각각의 독립적인 모듈로 형성될 수도 있고, 일체로 구성된 단일의 모듈로 형성될 수도 있다. 또한, 다양한 실시예에 따르면, 전자 장치는 드로잉 트리거 타이밍을 조절하기 위한 모듈들(드로잉 트리거 타이밍 선정 모듈(583), 드로잉 트리거 타이밍 적용 모듈(585) 및 큐 버퍼-합성 대기시간 측정 모듈(581)) 및 합성 트리거 타이밍을 조절하기 위한 모듈들(플립-동기화 신호 대기시간 측정 모듈(591), 합성 트리거 타이밍 선정 모듈(593) 및 합성 트리거 타이밍 적용 모듈(595))을 모두 포함할 수도 있고, 드로잉 트리거 타이밍을 조절하기 위한 모듈들 또는 합성 트리거 타이밍을 조절하기 위한 모듈들 중 하나만을 포함할 수도 있다.
다양한 실시예에 따르면, 전자 장치는 제1 대기 시간 및 제2 대기 시간을 기반으로 이미지 드로잉 또는 이미지 합성 타이밍에 문제가 발생하였는지를 체크할 수 있다. 예를 들어, 전자 장치가 동작 상황(예를 들어, 잠금 모드 또는 절전 모드 등)에 따라 동적 전압 및 주파수 스케일링(dynamic voltage and frequency scaling, DVFS)이 발생할 수 있다. 예를 들어, DVFS에 따라 전압 및 프로세서(예를 들어, CPU)의 클럭(clock)이 낮아지는 경우, 이미지 드로잉 시간이 지연되고, 이에 따라 이미지 합성 시간도 지연될 수 있다. 전자 장치는 제1 대기 시간 및 제2 대기 시간을 기반으로 이미지 드로잉 및 이미지 합성 타이밍에 문제가 발생하였는지 여부를 확인할 수 있다. 예를 들어, 전자 장치는 이미지 드로잉 후 이미지 합성 이전에 이미지 드로잉이 잘 완료되었는지를 체크할 수 있다. 일 실시예에 따르면, 전자 장치는 이미지 드로잉 또는 이미지 합성 타이밍에 문제가 발생한 경우, 결정한 오프셋 값을 리셋(reset)하여 초기 상태로 설정을 복구할 수 있다. 예를 들어, 전자 장치는 문제 발생 시에 오프셋 값(예를 들어, 제1 오프셋 값 또는 제2 오프셋 값)을 0으로 초기화하여 이미지 드로잉 및 이미지 합성 타이밍을 동적으로 조절할 수 있다.
본 발명의 다양한 실시예들에 따르면, 드로잉 트리거 타이밍 또는 합성 트리거 타이밍을 동적으로 제어함으로써, 이미지 구성 시의 대기 시간을 감소시키고 사용자 입력에 따른 반응성을 향상시킬 수 있다.
도 6은 종래의 전자 장치에서 사용자 입력에 따라 이미지를 구성하여 표시하는 방식을 설명하기 위한 도면이다.
전자 장치는 어플리케이션(607), 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(605), 디스플레이 컨트롤러(603) 및 디스플레이 패널(601)을 포함할 수 있다. 전자 장치가 디스플레이 패널(601)에 이미지를 표시하기 위해서는 어플리케이션(607)에서 이미지를 드로잉(draw)하고, 어플리케이션(607)에서 드로인한 이미지를 이미지 합성 모듈(605)가 합성하고, 디스플레이 컨트롤러(603)가 합성된 이미지를 수신하여 디스플레이 패널(601)에 전달하고, 디스플레이 패널(601)이 이미지를 표시하는 동작을 수행하는 단계를 거치게 된다.
어플리케이션(607), 이미지 합성 모듈(605), 디스플레이 컨트롤러(603) 및 디스플레이 패널(601)에서의 각 동작은 동기화 신호(예를 들어, vsync 신호)에 따라 연계될 수 있다. 예를 들어, 어플리케이션(607)이 첫 번째 동기화 신호에 응답하여 이미지를 드로잉(610)한 경우, 이미지 합성 모듈(605)는 다음 번(두 번째) 동기화 신호에 응답하여 이미지를 합성(630)하여 디스플레이 컨트롤러(603)에 전달할 수 있다. 디스플레이 컨트롤러(603)는 합성된 이미지를 디스플레이 패널(601)에 전달(예를 들어, 플립(flip)(640))할 수 있다. 이후, 다음 번(세 번째) 동기화 신호에 응답하여 디스플레이 패널(601)이 이미지를 표시(660)할 수 있다. 이 경우, 이미지 합성 모듈(605)는 어플리케이션(607)에서 드로잉된 이미지를 바로 합성하는 것이 아니라, 다음 순서의 동기화 신호에 맞춰서 이미지를 합성하기에 동기화 신호의 대기 시간(620)이 발생할 수 있다. 또한, 디스플레이 컨트롤러(603)에서 디스플레이 패널(601)에 이미지를 전달하는 경우에도 동기화 신호를 기다리기 위한 대기 시간(650)이 발생할 수 있다. 따라서, 사용자 입력을 수신한 후에 화면을 전환(즉, 디스플레이 패널(601)이 새로운 이미지를 표시)하기까지 불필요한 대기 시간(620, 650)이 발생할 수 있다. 예를 들어, 전자 장치는 이미지 드로잉(draw)부터 디스플레이 패널(601)에 이미지를 표시할 때까지 지연 시간(d)을 가질 수 있다. 예를 들어, 전자 장치가 이미지를 드로잉(draw)하고, 합성하여 디스플레이 패널(601)에 전달할 때까지 지연 시간(d)가 소요될 수 있다. 즉, 이미지 드로잉부터 이미지 표시까지의 지연 시간(d)이 길어질수록 사용자 반응성이 감소하고, 디스플레이에 표시되는 화면 전환이 지연될 수 있다. 예를 들어, 종래에는 동작 중간에 발생하는 대기 시간들(620, 650)로 인하여, 사용자 입력에 응답하여 화면을 전환(즉, 새로운 이미지 표시)할 때까지 2 싸이클의 주기(즉, 2번 이상의 동기화 신호(vsync) 발생) 이상의 시간이 소요되었다.
도 7은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
다양한 실시예에 따르면, 전자 장치는 어플리케이션(707), 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(705), 디스플레이 컨트롤러(703) 및 디스플레이 패널(701)을 포함할 수 있다. 전자 장치가 디스플레이 패널(701)에 이미지를 표시하기 위해서는 어플리케이션(707)에서 이미지를 드로잉(draw)하고, 어플리케이션(707)에서 드로잉한 이미지를 이미지 합성 모듈(705)가 합성하고, 디스플레이 컨트롤러(703)가 합성된 이미지를 수신하여 디스플레이 패널(701)에 전달하고, 디스플레이 패널(701)이 이미지를 표시하는 동작을 수행할 수 있다.
일 실시예에 따르면, 전자 장치는 어플리케이션(707)에서의 이미지 드로잉 이후에 이미지 합성 모듈(705)에서 이미지를 합성할 때까지의 대기 시간을 측정할 수 있다. 예를 들어, 전자 장치는 동기화 신호(vsync 신호)에 따라 각 동작을 수행할 경우에, 어플리케이션(707)에서 첫 번째 동기화 신호에 따라 이미지를 드로잉하고, 두 번째 동기화 신호에 맞춰 이미지 합성 모듈(705)가 이미지를 합성할 때까지 대기 시간이 발생할 수 있다. 전자 장치는 설정된 기간 간격으로 또는 설정된 횟수만큼 드로잉 후 이미지 합성 시작까지의 대기 시간을 측정할 수 있다.
일 실시예에 따르면, 전자 장치는 측정한 드로잉 후 이미지 합성 시작까지의 대기 시간을 기반으로 제1 오프셋 값(off 1)을 결정할 수 있다. 예를 들어, 제1 오프셋 값(off 1)은 동기화 신호로부터 어플리케이션(707)이 드로잉을 시작할 때까지의 시간 간격을 설정한 값일 수 있다. 다양한 실시예들에 따르면, 전자 장치는 측정한 대기 시간의 최소값을 제1 오프셋 값(off 1)으로 결정할 수 있다. 예를 들어, 어플리케이션(707)에서의 이미지 드로잉 시간은 항상 고정된 값이 아니라 변경될 수 있다. 측정한 대기 시간의 최소값을 제1 오프셋 값(off 1)으로 결정할 경우, 이미지 드로잉 시간을 충분히 고려할 수 있기 때문에 드로잉 시간의 부족으로 인한 프레임 드롭(frame drop)을 방지할 수 있다. 다양한 실시예들에 따르면, 전자 장치는 사용자 반응성을 우선적으로 고려하는 경우 측정한 대기 시간들의 평균값을 제1 오프셋 값(off 1)으로 결정할 수 있다. 이 경우, 전자 장치는 대기 시간을 보다 축소시킬 수 있기 때문에 사용자의 입력에 따라 화면을 표시 또는 전환하는 사용자 반응성을 더 높일 수 있다.
예를 들어, 전자 장치는 제1 오프셋을 적용하여 동기화 신호(vsync 신호)로부터 제1 오프셋만큼 경과한 시간부터 이미지 드로잉을 시작할 수 있다. 이 경우, 드로잉 이후의 대기 시간을 줄이고, 이미지 합성 모듈(705)에서 이미지를 합성할 수 있다. 즉, 전자 장치는 제1 오프셋을 적용하여 이미지 처리 동작들의 위상을 쉬프트시킴으로써, 불필요한 대기 시간을 없애고 디스플레이에서의 이미지 전환 시간을 단축시킬 수 있다.
일 실시예에 따르면, 전자 장치는 플립(flip) 동작(합성 완료된 이미지를 디스플레이 컨트롤러(703)에 전달하는 동작) 이후에 디스플레이 패널(701)이 디스플레이 컨트롤러(703)로부터 수신한 데이터를 기반하여 이미지를 표시할 때까지의 대기 시간을 측정할 수 있다.
일 실시예에 따르면, 전자 장치는 플립(flip) 이후 디스플레이 패널(701)이 이미지를 표시할 때까지의 대기 시간을 기반으로 제2 오프셋 값(off 2)을 결정할 수 있다. 예를 들어, 제2 오프셋 값(off 2)은 동기화 신호로부터 이미지 합성 모듈(705)가 이미지 합성을 시작할 때까지의 시간 간격을 설정한 값일 수 있다.
다양한 실시예들에 따르면, 전자 장치는 측정한 플립(flip) 이후 디스플레이 패널(701)이 이미지를 표시할 때까지의 대기 시간의 최소값을 제2 오프셋 값(off 2)으로 결정할 수 있다. 측정한 대기 시간의 최소값을 제2 오프셋 값(off 2)으로 결정할 경우, 이미지 합성 시간을 충분히 고려할 수 있기 때문에 이미지 합성 시간의 부족으로 인한 프레임 드롭(frame drop)을 방지할 수 있다. 다양한 실시예들에 따르면, 전자 장치는 사용자 반응성을 우선적으로 고려하는 경우 측정한 대기 시간들의 평균값을 제2 오프셋 값(off 2)으로 결정할 수 있다. 이 경우, 전자 장치는 대기 시간을 보다 축소시킬 수 있기 때문에 사용자의 입력에 따라 화면을 표시 또는 전환하는 사용자 반응성을 더 높일 수 있다.
예를 들어, 전자 장치는 제2 오프셋을 적용하여 동기화 신호(vsync 신호)로부터 제2 오프셋만큼 경과한 시간부터 이미지의 합성을 시작할 수 있다. 이 경우, 이미지 합성 이후의 대기 시간을 줄이고, 합성된 이미지를 바로 디스플레이 컨트롤러(703)에 전달할 수 있다. 즉, 전자 장치는 제2 오프셋을 적용하여 이미지 처리 동작들의 위상을 쉬프트시킴으로써, 불필요한 대기 시간을 없애고 디스플레이에서의 이미지 전환 시간을 단축시킬 수 있다.
다양한 실시예들에 따르면, 전자 장치는 제1 오프셋 값(off 1) 또는 제2 오프셋 값(off 2)을 선택적으로 또는 함께 적용할 수 있다.
다양한 실시예들에 따르면, 제1 오프셋 값(off 1) 또는 제2 오프셋 값(off 2)를 적용함으로써, 전자 장치의 이미지 드로잉(draw 1)부터 이미지 표시(display 1)까지의 소요 시간(d)이 감소될 수 있다. 본 발명의 다양한 실시예에 따른 전자 장치는, 오프셋 값(off 1 또는 off 2)을 적용함으로써, 한 번의 동기화 신호(vsync) 주기 안에 이미지를 처리(드로잉 및 합성)하여 디스플레이 패널(701)에 표시할 수 있다.
도 8은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다. 도 8은 일 실시예에 따라, 전자 장치가 고정된 제1 오프셋 및 제2 오프셋 값(off 2)을 적용하는 경우를 도시한다. 이하에서, 도 7의 동작과 중복되는 설명은 생략한다.
일 실시예에 따르면, 전자 장치는 어플리케이션(807)에서의 이미지 드로잉 이후에 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(805)에서 이미지를 합성할 때까지의 대기 시간을 측정할 수 있다. 일 실시예에 따르면, 전자 장치는 측정한 드로잉 후 이미지 합성 시작까지의 대기 시간을 기반으로 제1 오프셋 값(off 1)을 결정할 수 있다.
일 실시예에 따르면, 전자 장치는 플립(flip) 동작(합성 완료된 이미지를 디스플레이 컨트롤러(803)에 전달하는 동작) 이후에 디스플레이 패널(801)이 디스플레이 컨트롤러(803)로부터 수신한 데이터를 기반하여 이미지를 표시할 때까지의 대기 시간을 측정할 수 있다. 일 실시예에 따르면, 전자 장치는 플립(flip) 이후 디스플레이 패널(801)이 이미지를 표시할 때까지의 대기 시간을 기반으로 제2 오프셋 값(off 2)을 결정할 수 있다.
도 8을 참조하면, 전자 장치가 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)을 고정된 값으로 유지하는 경우, 어플리케이션(807)에서의 드로잉 동작이 완료되기 이전에 이미지 합성 모듈(805)에서의 이미지 합성 시간이 도달할 수 있다. 이 경우, 합성할 이미지가 없기 때문에 바로 이미지 합성을 수행하지 못하고, 다음 주기에서 이미지 합성이 이루어져서 프레임 드롭이 발생할 수 있다. 예를 들어, 어플리케이션(807)에서의 드로잉 동작에 걸리는 시간은 매번 동일하지 않고, 약간의 차이가 발생할 수 있다. 따라서, 전자 장치가 고정된 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)을 유지하는 경우, 일부 싸이클에서 오히려 이미지 표시 및 전환이 늦어질 가능성이 있다. 예를 들어, 프레임 드롭이 발생하는 경우, 전자 장치가 이미지 드로잉부터 이미지를 디스플레이 패널(801)에 표시하는 때까지의 시간(d) 길어질 수 있다. 다만, 도 7에 도시된 바와 같이, 프레임 드롭이 발생하지 않는 경우에는 오프셋 값을 적용하여 이미지 드로잉부터 이미지를 디스플레이 패널(801)에 표시하는 때까지의 시간을 단축시킬 수 있다. 따라서, 본 발명의 다양한 실시예들에 따르면, 전자 장치는 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)를 적응적으로 서로 연관시켜 결정함으로써 프레임 드롭을 방지하고 이미지 처리에 걸리는 시간을 최소화할 수 있다.
다양한 실시예에 따르면, 전자 장치는 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)을 연관시켜 결정할 수 있다. 예를 들어, 전자 장치는 제1 오프셋 값(off 1) 및 어플리케이션(807)의 드로잉 시간 등을 고려하여 제1 오프셋 값(off 1)을 결정할 수 있다. 예를 들어, 제2 오프셋 값(off 2)을 너무 작게 설정하여 드로잉이 완료되기 전에 이미지를 합성하고자 할 경우, 합성할 이미지들이 준비되지 않았기 때문에 프레임 드롭이 발생할 수 있다. 전자 장치는 프레임 드롭을 방지하기 위하여 어플리케이션(807)의 드로잉 시간 및 이미지 합성 시간을 전체적으로 고려하여 제1 오프셋 값(off 1) 또는 제2 오프셋 값(off 2)을 결정할 수 있다. 다양한 실시예에 따르면, 전자 장치는 드로잉 시간 및 이미지 합성 시간 고려하여 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)을 적응적으로 결정 또는 변경할 수 있다. 본 발명의 일 실시예에 따르면, 동적으로 변경되는 이미지 드로잉 시간, 이미지 합성 시간 또는 동작 사이에 발생하는 대기 시간을 측정하고, 이를 반영하여 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)을 상황에 따라 적응적으로 설정 또는 변경할 수 있다. 본 발명의 일 실시예에 따르면, 제1 오프셋 값(off 1) 및 제2 오프셋 값(off 2)을 적응적으로 설정 및 변경함으로써, 사용자 입력에 따른 이미지 표시 시간을 단축시키고, 반응성을 향상시키면서도 오프셋 값의 연산 오차에 따라 발생할 수 있는 프레임 드롭을 최소화할 수 있다.
도 9는 본 발명의 다양한 실시예들에 따른 전자 장치의 논리적 구조에 대한 개략도이다.
본 발명이 다양한 실시예들에 따르면, 전자 장치는 어플리케이션(915), 뷰 모듈(925), 드로잉 스케줄링 모듈(예를 들어, 코레오그래퍼(choreographer))(930), 이미지 버퍼 관리 모듈(예를 들어, 버퍼 큐))(935), 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(940), 디스플레이 컨트롤러(960), 디스플레이 패널(970)을 포함할 수 있다. 예를 들어, 전자 장치는 드로잉 스케줄링 모듈(930)에서 제공하는 동기화 신호(vsync)에 따라 어플리케이션(915) 및 뷰 모듈(925)에서 이미지를 드로잉(draw)하여 이미지 버퍼 관리 모듈(935)에 전달하고, 이미지 합성 모듈(940)가 동기화 신호에 맞춰서 이미지 버퍼 관리 모듈(935)로부터 불러온 이미지들을 합성하고, 합성한 이미지들을 디스플레이 컨트롤러(960)가 수신하여 디스플레이 패널(970)에 전달하는 동작을 통하여 디스플레이 패널(970)이 사용자 입력에 따른 이미지를 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치는 합성 트리거 타이밍 선정 모듈(981) 및 합성 트리거 타이밍 적용 모듈(983)을 더 포함할 수 있다.
합성 트리거 타이밍 선정 모듈(981)은 이미지 합성 방식을 확인할 수 있다. 예를 들어, 이미지 합성 모듈(940)는 전자 장치의 실행 환경(예를 들어, 실행 중인 어플리케이션(915)의 개수, 이미지 포맷, 이미지 처리 동작(예를 들어, 이미지의 회전(rotation) 또는 스케일링(scaling) 처리 여부 등) 등)을 고려하여 이미지의 합성 방식을 결정할 수 있다. 예를 들어, 이미지 합성 방식은 하드웨어를 이용하는 방식과 소프트웨어를 이용하는 방식이 있을 수 있다. 예를 들어, 하드웨어 컴포저(composer) 등을 이용하는 경우, 전자 장치는 디스플레이 컨트롤러(960)의 제어 및 동작에 따라 이미지를 합성할 수 있다. 예를 들어, GPU를 이용하는 경우, 전자 장치는 GPU의 제어 하에 그래픽 라이브러리(예를 들어, open GL ES 라이브러리)를 이용하여 이미지를 합성할 수 있다. 예를 들어, 이미지 합성 방식에 따라 소모되는 시간이 대체적으로 일정할 수 있다. 예를 들어, HWC(hardware composer) 방식의 경우 GLES(graphic library embedded system) 방식보다 이미지 합성에 소요되는 시간이 평균적으로 짧을 수 있다. 일 실시예에 따르면, 전자 장치(예를 들어, 합성 트리거 타이밍 선정 모듈(981))는 각 이미지 합성 방식에 따라 소요되는 시간을 측정할 수 있다. 전자 장치는 각 합성 방식에 따라 소요되는 시간을 기반으로 합성 방식에 따른 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 각 합성 방식에 따른 평균적인 이미지 합성 시간을 고려하여 이미지 합성 방식 각각에 대한 오프셋 값을 결정할 수 있다. 일 실시예에 따르면, 이미지 합성 방식에 따른 오프셋 값은 기 설정되어 있을 수도 있다.
일 실시예에 따르면, 합성 트리거 타이밍 선정 모듈(981) 이미지 합성 모듈(940)가 선택하는 이미지 합성 방식을 확인하고, 선택된 이미지 합성 방식에 따라 오프셋 값을 결정할 수 있다. 예를 들어, 합성 트리거 타이밍 선정 모듈(981)은 이미지 합성 모듈(940)로부터 합성 방식에 대한 정보를 획득할 수 있다. 합성 트리거 타이밍 선정 모듈(981)은 획득한 합성 방식에 대한 정보에 기반하여 현재의 이미지 처리 싸이클에서 적용할 오프셋 값을 결정할 수 있다.
합성 트리거 타이밍 적용 모듈(983)은 동기화 신호(예를 들어, vsync 신호)에 결정된 오프셋 값을 적용하여 이미지 합성 모듈(940)가 이미지의 합성을 시작하는 시점을 제어할 수 있다.
다양한 실시예에 따르면, 합성 트리거 타이밍 선정 모듈(981) 및 합성 트리거 타이밍 적용 모듈(983)은 각각의 독립적인 모듈로 형성될 수도 있고, 일체로 구성된 단일의 모듈로 형성될 수도 있다.
예를 들어, 어플리케이션(915)에서 이미지를 드로잉하는 시간은 어플리케이션(915) 및 이미지에 따라 다소 가변적일 수 있다. 다만, 이미지들을 합성하는 시간은 이미지 합성 방식에 따라 대체적으로 동일하게 유지될 수 있다. 본 발명의 다양한 실시예들에 따르면, 이미지 합성 방식을 확인하여 이미지 처리 싸이클에서 이미지 합성 방식에 따라 가변적인 오프셋 값을 적용하여 이미지 합성 시점을 조절함으로써, 사용자 입력에 따른 이미지 처리(예를 들어, 이미지 표시 및 변경)의 반응성을 용이하게 향상시킬 수 있다.
도 10은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다. 예를 들어, 도 10은 도 9에 도시된 실시예에 따라 이미지를 처리하는 경우의 동작을 도시한다.
일 실시예에 따르면, 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(1005)는 전자 장치의 실행 환경에 따라 이미지 합성 방식을 결정할 수 있다. 첫번째 주기에서 이미지 합성 모듈(1005)가 GLES 방식으로 이미지를 합성하기로 결정한 경우, 전자 장치는 동기화 신호에 GLES 방식에 대응하는 제1 오프셋 값(1070)을 적용하여 이미지의 합성을 시작할 수 있다. 전자 장치는 설정된 제1 오프셋 값(1070)에 따라 이미지를 합성하고, 플립 동작을 수행하여, 제2 주기 시작(두 번째 vsync 신호)에 응답하여 디스플레이 패널(1001)이 이미지를 표시할 수 있다. 이후, 제2 주기에서 이미지 합성 모듈(1005)가 HWC 방식으로 이미지를 합성하기로 결정한 경우, 전자 장치는 동기화 신호에 HWC 방식에 대응하는 제2 오프셋 값(1080)을 적용하여 이미지의 합성을 시작할 수 있다. 즉, 전자 장치는 HWC 방식의 경우 GLES 방식보다 이미지 합성에 소요되는 시간이 짧기에 제1 오프셋 값(1070)보다 큰 제2 오프셋 값(1080)을 적용하여 이미지 합성 시점을 조절할 수 있다. 따라서, 제2 주기에서의 이미지 합성이 완료되면 플립 동작을 수행하여 이어지는 제3 주기 시작(세 번째 vsync 신호)에 응답하여 디스플레이 패널(1001)이 이미지를 표시할 수 있다. 본 발명의 다양한 실시예에 따르면, 전자 장치는 매 주기에서의 이미지 합성 방식에 따라 적응적으로 오프셋 값을 적용함으로써, 불필요하게 발생하는 대기 시간을 감소시키고 사용자 입력에 따른 반응성을 향상시킬 수 있다.
도 11은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다. 예를 들어, 도 11은 9에 도시된 실시예에 따라 이미지 합성 방식을 GLES 방식에서 HWC 방식으로 변경하는 경우의 동작을 도시한다.
다양한 실시예들에 따르면, 전자 장치는 전자 장치의 동작 환경에 따라 이미지 합성 방식을 변경할 수 있다. 예를 들어, 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(1005)는 전자 장치의 실행 환경에 따라 이미지 합성 방식을 결정할 수 있다. 예를 들어, 도 11의 경우, a 지점에서 이미지 합성 방식이 GLES 방식에서 HWC 방식으로 변경되는 경우를 나타낸다.
일반적으로, GLES 방식의 경우 HWC 방식보다 이미지 합성에 소요되는 시간이 길다. 따라서, 전자 장치는 GLES 방식에 따른 오프셋 값을 HWC 방식에 따른 오프셋 값보다 짧게 결정할 수 있다.
예를 들어, a 지점을 기점으로 이미지 합성 방식이 HWC 방식으로 변경되기 때문에 이미지 합성에 소요되는 시간이 줄어들 수 있다. 따라서, 다음 동기화 신호(vsync 신호)가 있기까지 대기 시간이 형성된다. 이후에, 전자 장치는 이미지 처리 방식(즉, 변경된 HWC 방식)에 따라 오프셋 값을 변경하기 때문에 이미지 합성 시작 시점이 변경될 수 있다. 일 실시예에 따르면, 전자 장치는 오프셋 값을 적응적으로 변경시켜 적용하기 때문에, 한 번의 동기화 신호 대기 시간이 발생할 뿐 추가적인 지연 시간의 발생 없이 디스플레이(1101)에서의 화면 표시는 연속적으로 이루어질 수 있다.
도 12a 및 도 12b는 본 발명의 다양한 실시예들에 따른 전자 장치의 동작을 설명하기 위한 도면이다.
다양한 실시예들에 따르면, 전자 장치는 전자 장치의 동작 환경에 따라 이미지 합성 방식을 변경할 수 있다. 예를 들어, 이미지 합성 모듈(예를 들어, 서페이스 플링거(surface flinger))(1005)는 전자 장치의 실행 환경에 따라 이미지 합성 방식을 결정할 수 있다. 예를 들어, 도 12a 및 12b는 9에 도시된 실시예에 따라 이미지 합성 방식을 HWC 방식에서 GLES 방식으로 변경하는 경우의 동작을 도시한다.
도 12a는 이미지 합성 방식의 변경을 해당 주기의 이미지 합성 시점에 확인하는 경우를 도시한다. 일반적으로, GLES 방식의 경우 HWC 방식보다 이미지 합성에 소요되는 시간이 길다. 따라서, 전자 장치는 GLES 방식에 따른 오프셋 값을 HWC 방식에 따른 오프셋 값보다 짧게 결정할 수 있다. 즉, a 지점에서 이미지 합성 방식이 HWC 방식에서 GLES 방식으로 변경되고, 전자 장치가 이미지 합성 시점인 b 지점에서 이를 확인하여 오프셋 값을 변경하는 경우, 늘어난 이미지 합성 시간을 반영하지 못할 수가 있다. 이 경우, 제3 이미지를 합성할 시간이 확보되지 못하기 때문에 디스플레이(1201)가 제1 이미지를 중복해서 표시하는 스터터(stutter) 현상이 발생할 수 있다. 즉, 디스플레이(1201)에 표시되는 화면이 멈칫거리는 현상이 발생할 수 있다.
도 12b를 참조하면, 이미지 합성 방식의 변경을 해당 주기의 이미지 합성 시점 이전에 미리 확인하는 경우를 도시한다. 예를 들어, 전자 장치는 이미지 합성 방식이 변경됨을 이미지 합성 모듈(1203)가 해당 주기의 이미지를 합성하기 이전에 확인하여 미리 오프셋 값을 변경할 수 있다. 예를 들어, 전자 장치는 새로운 어플리케이션(1205)이 실행되는 경우, 이미지 합성 모듈(1203)의 createlayer의 메소드를 호출하여 해당 어플리케이션(1205)이 드로잉(draw)할 이미지의 폭(width), 높이(height), 픽셀 포맷(pixel format) 등의 정보를 미리 이미지 합성 모듈(1203)에 전달할 수 있다. 이미지 합성 모듈(1203)는 전달 받은 정보에 기초하여, 이미지 합성 방식을 미리 판단 또는 결정할 수 있다. 일 실시예에 따르면, 전자 장치는 이미지 합성 모듈(1203)가 이미지 합성 방식을 미리 판단 또는 결정하는 경우, 이를 즉각적으로 반영하여 오프셋 값을 설정 또는 변경할 수 있다.
도 12b에서, c 지점에서 새로운 어플리케이션(1205)이 실행되면, 전자 장치는 이미지 합성 방식을 HWC 방식에서 GLES 방식으로 변경하기로 결정할 수 있다. 이 경우, 어플리케이션(1205)에서는 3번 이미지(3번 프레임)의 이미지를 드로잉하는 경우부터 GLES 방식에 따른 오프셋을 적용시킬 수 있다. 이 경우, 어플리케이션(1205)은 2번 이미지(2번 프레임)의 드로잉이 종료될 때까지 대기한 후에 3번 이미지의 드로잉을 시작할 수 있다. 일 실시예에 따르면, 전자 장치(예를 들어, 이미지 합성 모듈(1203))는 3번 이미지의 드로잉이 지연되었기 때문에, 3번 이미지의 합성까지는 HWC 방식에 대응하는 오프셋을 적용할 수 있다. 이후, 전자 장치는 4번 이미지 합성부터는 GLES 방식에 대응하는 오프셋을 적용할 수 있다. 본 발명의 일 실시예에 따르면, 전자 장치의 환경 변화에 따라 변경되는 이미지 합성 방식을 해당 이미지의 합성 시점보다 미리 확인하고, 이를 반영하여 오프셋 값을 적응적으로 설정 또는 변경함으로써, 디스플레이(1201)에서의 멈춤 현상(예를 들어, stutter 현상)의 발생 없이 이미지 처리 시의 반응성을 향상시킬 수 있다.
도 13은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
1310 동작에서, 전자 장치는 주기적인 동기화 신호(예를 들어, vsync 신호)에 응답하여 이미지를 드로잉(draw)할 수 있다. 예를 들어, 전자 장치는 적어도 하나의 어플리케이션에서 각각 이미지를 드로잉할 수 있다.
1320 동작에서, 전자 장치는 드로잉 이후의 동기화 신호에 응답하여 드로잉된 이미지를 합성할 수 있다. 예를 들어, 전자 장치는 복수의 어플리케이션에서 드로잉한 적어도 하나의 이미지를 합성할 수 있다. 예를 들어, 전자 장치는 이미지 합성 모듈(surface flinger)에서 이미지를 합성할 수 있다.
1330 동작에서, 전자 장치는 주기적인 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달할 수 있다. 예를 들어, 전자 장치는 합성된 이미지를 디스플레이 컨트롤러에 전달하는 플립(flip) 동작을 수행할 수 있다.
1340 동작에서, 전자 장치는 합성된 이미지의 전달 이후 다음 동기화 신호 발생시까지의 대기 시간을 측정할 수 있다. 예를 들어, 전자 장치는 플립 이후 다음 동기화 신호에 따라 디스플레이 패널에 이미지를 표시할 때까지의 대기 시간을 측정할 수 있다.
1350 동작에서, 전자 장치는 동기화 신호의 발생에 응답하여 디스플레이 패널에 이미지를 표시할 수 있다.
1360 동작에서, 전자 장치는 측정한 대기 시간을 기반으로 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 이미지 합성과 플립 동작 이후부터 디스플레이 패널에 이미지를 표시하기 전까지 발생하는 대기 시간에 대응하는 오프셋 값을 결정할 수 있다.
일 실시예에 따르면, 전자 장치는 대기 시간을 복수 회 측정한 경우, 상기 복수 회 측정한 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나를 오프셋 값으로 결정할 수 있다. 예를 들어, 전자 장치는 디스플레이의 안정성 또는 반응 속도에 대하여 설정된 우선 순위에 따라 대기 시간의 평균값 또는 최소값으로 오프셋 값을 결정할 수 있다. 다양한 실시예에 따르면, 전자 장치가 오프셋 값을 결정하는 방식은 이에 한정되지 않고 다양하게 설정될 수 있다.
1370 동작에서, 전자 장치는 주기적인 동기화 신호에 결정한 오프셋 값을 적용하여 이미지 합성 시점을 결정할 수 있다. 예를 들어, 전자 장치는 동기화 신호 발생부터 결정한 오프셋 값만큼의 시간 이후에 이미지 합성을 시작할 수 있다.
다양한 실시예에 따르면, 전자 장치는 이미지 드로잉 후 합성까지의 대기 시간(이미지 드로잉 이후 다음 주기의 동기화 신호(vsync)를 기다리는 대기 시간)을 고려하여 이미지 드로잉 시점을 결정함으로써, 이미지 드로잉 이후에 대기 시간 없이 이미지 합성을 바로 수행할 수 있게 함으로써, 사용자 입력에 따른 화면 표시 및 전환에 대한 반응성을 향상시킬 수 있다.
도 14는 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
1410 동작에서, 전자 장치는 주기적인 동기화 신호(예를 들어, vsync 신호)에 응답하여 이미지를 드로잉(draw)할 수 있다.
1420 동작에서, 전자 장치는 드로잉 이후 다음 주기의 동기화 신호 발생시까지의 대기 시간을 측정할 수 있다. 예를 들어, 1410 동작에서, 전자 장치가 제1 주기의 동기화 신호에 응답하여 드로잉을 시작한 경우, 전자 장치는 1520 동작에서, 드로잉 작업 완료 후부터 제2 주기의 동기화 신호 발생시까지의 대기 시간을 측정할 수 있다.
1430 동작에서, 전자 장치는 드로잉 이후의 동기화 신호에 응답하여 드로잉된 이미지를 합성할 수 있다. 예를 들어, 전자 장치는 이미지 합성 모듈(surface flinger)을 통하여 이미지를 합성할 수 있다.
1440 동작에서, 전자 장치는 주기적인 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달할 수 있다. 예를 들어, 전자 장치는 합성된 이미지를 디스플레이 컨트롤러에 전달하는 플립(flip) 동작을 수행할 수 있다.
1450 동작에서, 전자 장치는 동기화 신호의 발생에 응답하여 디스플레이 패널에 이미지를 표시할 수 있다.
1460 동작에서, 전자 장치는 측정한 대기 시간을 기반으로 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 이미지 드로잉 이후 이미지 합성 전까지 발생하는 대기 시간에 대응하는 오프셋 값을 결정할 수 있다.
일 실시예에 따르면, 전자 장치는 대기 시간을 복수 회 측정한 경우, 상기 복수 회 측정한 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나를 오프셋 값으로 결정할 수 있다. 예를 들어, 전자 장치는 디스플레이의 안정성 또는 반응 속도에 대하여 설정된 우선 순위에 따라 대기 시간의 평균값 또는 최소값으로 오프셋 값을 결정할 수 있다. 다양한 실시예에 따르면, 전자 장치가 오프셋 값을 결정하는 방식은 이에 한정되지 않고 다양하게 설정될 수 있다.
1470 동작에서, 전자 장치는 주기적인 동기화 신호에 결정한 오프셋 값을 적용하여 이미지 드로잉 시점을 결정할 수 있다. 예를 들어, 전자 장치는 동기화 신호 발생부터 오프셋 값만큼의 시간 이후에 이미지 드로잉을 시작할 수 있다.
다양한 실시예에 따르면, 전자 장치는 이미지 합성 후 디스플레이 패널에 이미지를 표시하기까지의 대기 시간(이미지 합성 및 전달 이후 다음 주기의 동기화 신호(vsync)를 기다리는 대기 시간)을 고려하여 이미지 합성 시점을 결정함으로써, 이미지 합성 이후에 대기 시간 없이 이미지가 디스플레이 패널에 표시되게 함으로써, 사용자 입력에 따른 화면 표시 및 전환에 대한 반응성을 향상시킬 수 있다.
도 15은 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
1510 동작에서, 전자 장치는 주기적인 동기화 신호(예를 들어, vsync 신호)에 응답하여 이미지를 드로잉(draw)할 수 있다. 예를 들어, 전자 장치는 적어도 하나의 어플리케이션에서 각각 이미지를 드로잉할 수 있다.
1520 동작에서, 전자 장치는 드로잉 이후 다음 주기의 동기화 신호 발생시까지의 제2 대기 시간을 측정할 수 있다. 예를 들어, 1510 동작에서, 전자 장치가 제1 주기의 제1 동기화 신호에 응답하여 드로잉을 시작한 경우, 전자 장치는, 1520 동작에서, 드로잉 작업 완료 후부터 제2 주기의 제2 동기화 신호 발생시까지의 제2 대기 시간을 측정할 수 있다.
1530 동작에서, 전자 장치는 드로잉 이후의 동기화 신호에 응답하여 드로잉된 이미지를 합성할 수 있다. 예를 들어, 전자 장치는 복수의 어플리케이션에서 드로잉한 적어도 하나의 이미지를 합성할 수 있다. 예를 들어, 전자 장치는 이미지 합성 모듈(surface flinger)에서 이미지를 합성할 수 있다.
1540 동작에서, 전자 장치는 주기적인 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달할 수 있다. 예를 들어, 전자 장치는 합성된 이미지를 디스플레이 컨트롤러에 전달하는 플립(flip) 동작을 수행할 수 있다.
1550 동작에서, 전자 장치는 합성된 이미지의 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정할 수 있다. 예를 들어, 전자 장치는 플립 이후 다음 동기화 신호에 따라 디스플레이 패널에 이미지를 표시할 때까지의 제1 대기 시간을 측정할 수 있다.
1560 동작에서, 전자 장치는 동기화 신호의 발생에 응답하여 디스플레이 패널에 이미지를 표시할 수 있다.
1570 동작에서, 전자 장치는 제1 대기 시간을 기반으로 제1 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 이미지 합성과 플립 동작 이후부터 디스플레이 패널에 이미지를 표시하기 전까지 발생하는 제1 대기 시간에 대응하는 제1 오프셋 값을 결정할 수 있다.
일 실시예에 따르면, 전자 장치는 제1 대기 시간을 복수 회 측정한 경우, 상기 복수 회 측정한 제1 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나로 상기 제1 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 일정 기간 동안 또는 일정 횟수만큼 제1 대기 시간을 반복적으로 측정할 수 있다. 전자 장치는 복수 번 측정한 제1 대기 시간을 설정된 기준에 따라 분석하여 제1 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 안정적인 디스플레이를 위하여 프레임 드롭(frame drop) 발생을 방지하려는 경우, 제1 대기 시간 중 최소값을 제1 오프셋 값으로 결정할 수 있다. 예를 들어, 전자 장치는 반응성 향상을 우선적으로 고려할 경우, 제1 대기 시간의 평균값을 제2 오프셋 값을 결정할 수 있다.
1580 동작에서, 전자 장치는 주기적인 동기화 신호에 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정할 수 있다. 예를 들어, 전자 장치는 동기화 신호 발생부터 제1 오프셋 값만큼의 시간 이후에 이미지 합성을 시작할 수 있다.
1590 동작에서, 전자 장치는 제2 대기 시간을 기반으로 제2 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 이미지 드로잉 이후 이미지 합성 전까지 발생하는 제2 대기 시간에 대응하는 제2 오프셋 값을 결정할 수 있다.
일 실시예에 따르면, 전자 장치는 제2 대기 시간을 복수 회 측정한 경우, 상기 복수 회 측정한 제2 대기 시간 중 최소값 또는 상기 복수 회 측정한 제2 대기 시간의 평균값 중 하나를 상기 제2 오프셋 값으로 결정할 수 있다. 예를 들어, 전자 장치는 일정 기간 동안 또는 일정 횟수만큼 제2 대기 시간을 반복적으로 측정할 수 있다. 전자 장치는 복수 번 측정한 제2 대기 시간을 설정된 기준에 따라 분석하여 제2 오프셋 값을 결정할 수 있다. 예를 들어, 전자 장치는 안정적인 디스플레이를 위하여 프레임 드롭(frame drop) 발생을 방지하려는 경우, 제2 대기 시간 중 최소값을 제2 오프셋 값으로 결정할 수 있다. 예를 들어, 전자 장치는 반응성 향상을 우선적으로 고려할 경우, 제2 대기 시간의 평균값을 제2 오프셋 값을 결정할 수 있다.
1595 동작에서, 전자 장치는 주기적인 동기화 신호에 제2 오프셋 값을 적용하여 이미지 드로잉 시점을 결정할 수 있다. 예를 들어, 전자 장치는 동기화 신호 발생부터 제2 오프셋 값만큼의 시간 이후에 이미지 드로잉을 시작할 수 있다.
다양한 실시예들에 따르면, 전자 장치는 이미지 드로잉에 소요되는 시간 또는 이미지 합성에 소요되는 시간에 기초하여 상기 제1 오프셋 값 또는 상기 제2 오프셋 값을 조정할 수 있다. 전자 장치는 이미지 드로잉 시간 및 이미지 합성 시간을 종합적으로 고려하여 보다 효율적이고 정확한 타이밍에 화면 전환을 수행할 수 있다.
도 16는 본 발명의 다양한 실시예들에 따른 전자 장치의 동작 제어 방법의 순서도이다.
1610 동작에서, 전자 장치는 동작 환경에 기반하여 이미지 합성 방식을 결정할 수 있다. 예를 들어, 동작 환경은 드로잉을 수행하기 위하여 실행 중인 어플리케이션의 개수, 드로잉할 이미지의 포맷, 이미지의 처리 동작(예를 들어, 회전 또는 스케일링 등)의 정보를 포함할 수 있다. 예를 들어, 이미지 합성 방식은 하드웨어를 이용한 합성 방식과 소프트웨어를 이용한 합성 방식을 포함할 수 있다. 예를 들어, 이미지 합성 방식은 디스플레이 컨트롤러를 이용하는 방식(예를 들어, HWC(hardware composer) 방식) 또는 GPU를 이용하는 방식(예를 들어, GLES(graphic library embedded system) 방식)을 포함할 수 있다. 예를 들어, 전자 장치는 매 주기(매 프레임)에서의 동작마다 이미지 합성 방식을 결정할 수 있다.
1620 동작에서, 전자 장치는 결정한 이미지 합성 방식에 대응하는 오프셋 값을 결정할 수 있다. 예를 들어, 이미지 합성에 소요되는 시간은 이미지 합성 방식에 따라 대체적으로 일정한 범위 내로 유지될 수 있다. 예를 들어, HWC 방식의 경우 GLES 방식보다 이미지 합성에 소요되는 시간이 평균적으로 짧을 수 있다. 예를 들어, 전자 장치는 각 합성 방식에 따른 평균적인 이미지 합성 시간을 고려하여 이미지 합성 방식 각각에 대한 오프셋 값을 결정할 수 있다. 일 실시예에 따르면, 전자 장치는 이미지 합성 방식에 따른 기준 오프셋 값을 기 저장하고 있거나, 이미지 합성 방식에 따른 이미지 합성 시의 소요 시간을 측정하고, 측정한 시간에 기반하여 합성 방식에 따른 기준 오프셋 값을 설정할 수도 있다. 다양한 실시예들에 따르면, 전자 장치는 매 주기(매 프레임)마다 결정되는 이미지 합성 방식에 따라 결정되는 이미지 합성 방식에 대응하는 오프셋 값을 결정할 수 있다.
1630 동작에서, 전자 장치는 주기적인 동기화 신호(예를 들어, vsync 신호)에 결정된 오프셋 값을 적용할 수 있다. 다양한 실시예들에 따르면, 전자 장치는 매 프레임(매 주기)마다 새롭게 결정된 오프셋 값을 적용할 수 있다.
1640 동작에서, 전자 장치는 오프셋 값이 적용된 동기화 신호에 응답하여 이미지를 드로잉할 수 있다. 예를 들어, 전자 장치는 동기화 신호 발생부터 결정된 오프셋 값만큼의 시간 이후에 이미지 드로잉을 시작할 수 있다.
1650 동작에서, 전자 장치는 이미지 드로잉 이후, 오프셋 값이 적용된 동기화 신호에 응답하여 드로잉된 이미지를 합성할 수 있다. 예를 들어, 전자 장치는 동기화 신호 발생부터 결정된 오프셋 값만큼의 시간 이후에 이미지 합성을 시작할 수 있다.
1660 동작에서, 전자 장치는 이미지 합성 이후, 합성된 이미지를 디스플레이 컨트롤러에 전달할 수 있다. 예를 들어, 전자 장치는 플립(flip) 동작을 수행할 수 있다.
1670 동작에서, 전자 장치는 주기적인 동기화 신호(예를 들어, vsync 신호)에 응답하여 디스플레이 패널에 이미지를 표시할 수 있다. 예를 들어, 전자 장치는 이미지 합성 방식에 따른 오프셋을 적용하여 이미지 드로잉 및 이미지 합성 시의 시간을 고려하여 대기 시간을 없앨 수 있다. 따라서, 전자 장치는 불필요한 대기 시간 없이 주기적인 동기화 신호에 맞춰서 각 프레임에서의 이미지를 표시할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 제어 방법은, 주기적인 동기화 신호에 응답하여 이미지를 드로잉하는 동작; 상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하는 동작; 상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하는 동작; 상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하는 동작; 상기 다음 동기화 신호의 발생에 응답하여 디스플레이 패널에 이미지를 표시하는 동작; 상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하는 동작; 및 상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하는 동작을 포함할 수 있다.
일 실시예에 따르면, 방법은, 상기 제1 대기 시간을 복수 회 측정한 경우, 상기 제1 오프셋 값은 상기 복수 회 측정한 제1 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나로 결정할 수 있다.
일 실시예에 따르면, 방법은, 상기 이미지 드로잉 이후 다음 동기화 신호 발생시까지의 제2 대기 시간을 측정하는 동작; 상기 제2 대기 시간을 기반으로 제2 오프셋 값을 결정하는 동작; 및 상기 주기적인 동기화 신호에 상기 제2 오프셋 값을 적용하여 이미지 드로잉 시점을 결정하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 방법은, 상기 제2 대기 시간을 복수 회 측정한 경우, 상기 제2 오프셋 값은 상기 복수 회 측정한 제2 대기 시간 중 최소값 또는 상기 복수 회 측정한 제2 대기 시간의 평균값 중 하나로 결정할 수 있다.
일 실시예에 따르면, 방법은, 이미지 드로잉에 소요되는 시간 또는 이미지 합성에 소요되는 시간에 기초하여 상기 제1 오프셋 값 또는 상기 제2 오프셋 값을 조정하는 동작을 더 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치의 동작 제어 방법은, 상기 전자 장치의 동작 환경에 기반하여 이미지 합성 방식을 결정하는 동작; 결정한 이미지 합성 방식에 대응하는 오프셋 값을 결정하는 동작; 주기적인 동기화 신호에 상기 결정된 오프셋 값을 적용하는 동작; 상기 오프셋 값이 적용된 동기화 신호에 응답하여 이미지를 드로잉하는 동작; 상기 이미지 드로잉 이후, 상기 오프셋 값이 적용된 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하는 동작; 상기 이미지 합성 이후, 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하는 동작; 및 상기 이미지 전달 이후, 상기 주기적인 동기화 신호에 응답하여 디스플레이 패널에 이미지를 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 이미지 합성 방식은 디스플레이 컨트롤러를 통한 이미지 합성 방식과 GPU를 통한 이미지 합성 방식을 포함할 수 있다.
일 실시예에 따르면, 상기 전자 장치의 동작 환경은 이미지를 드로잉하기 위해 실행 중인 어플리케이션의 개수를 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. "모듈"은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있으며, 예를 들면, 어떤 동작들을 수행하는, 알려졌거나 앞으로 개발될, ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays), 또는 프로그램 가능 논리 장치를 포함할 수 있다. 다양한 실시예에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는 프로그램 모듈의 형태로 컴퓨터로 판독 가능한 저장 매체(예: 메모리(130))에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(예: 자기테이프), 광기록 매체(예: CD-ROM, DVD, 자기-광 매체 (예: 플롭티컬 디스크), 내장 메모리 등을 포함할 수 있다. 명령어는 컴파일러에 의해 만들어지는 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 다양한 실시예에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 다른 구성요소를 더 포함할 수 있다. 다양한 실시예에 따른, 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.

Claims (16)

  1. 전자 장치에 있어서,
    디스플레이 패널;
    디스플레이 컨트톨러;
    메모리; 및
    상기 디스플레이 패널, 디스플레이 컨트롤러 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    주기적인 동기화 신호에 응답하여 이미지를 드로잉하고,
    상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하고,
    상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하고,
    상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하고,
    상기 다음 동기화 신호의 발생에 응답하여 상기 디스플레이 패널이 이미지를 표시하도록 제어하고,
    상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하고,
    상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  2. 제1항에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 제1 대기 시간을 복수 회 측정한 경우, 상기 제1 오프셋 값은 상기 복수 회 측정한 제1 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나로 결정하도록 하는 것을 특징으로 하는 전자 장치.
  3. 제1항에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 이미지 드로잉 이후 다음 동기화 신호 발생시까지의 제2 대기 시간을 측정하고,
    상기 제2 대기 시간을 기반으로 제2 오프셋 값을 결정하고,
    상기 주기적인 동기화 신호에 상기 제2 오프셋 값을 적용하여 이미지 드로잉 시점을 결정하도록 하는 것을 특징으로 하는 전자 장치.
  4. 제3항에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    상기 제2 대기 시간을 복수 회 측정한 경우, 상기 제2 오프셋 값은 상기 복수 회 측정한 제2 대기 시간 중 최소값 또는 상기 복수 회 측정한 제2 대기 시간의 평균값 중 하나로 결정하도록 하는 것을 특징으로 하는 전자 장치.
  5. 제3항에 있어서,
    상기 인스트럭션들은, 실행 시에, 상기 프로세서가,
    이미지 드로잉에 소요되는 시간 또는 이미지 합성에 소요되는 시간에 기초하여 상기 제1 오프셋 값 또는 상기 제2 오프셋 값을 조정하도록 하는 것을 특징으로 하는 전자 장치.
  6. 전자 장치에 있어서,
    디스플레이 패널;
    디스플레이 컨트톨러;
    메모리; 및
    상기 디스플레이 패널, 디스플레이 컨트롤러 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하고,
    상기 메모리는, 실행 시에, 상기 프로세서가,
    상기 전자 장치의 동작 환경에 기반하여 이미지 합성 방식을 결정하고,
    결정한 이미지 합성 방식에 대응하는 오프셋 값을 결정하고,
    주기적인 동기화 신호에 상기 결정된 오프셋 값을 적용하고,
    상기 오프셋 값이 적용된 동기화 신호에 응답하여 이미지를 드로잉하고,
    상기 이미지 드로잉 이후, 상기 오프셋 값이 적용된 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하고,
    상기 이미지 합성 이후, 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하고,
    상기 이미지 전달 이후, 상기 주기적인 동기화 신호에 응답하여 상기 디스플레이 패널이 이미지를 표시하도록 제어하도록 하는 인스트럭션들을 저장하는 것을 특징으로 하는 전자 장치.
  7. 제6항에 있어서,
    상기 이미지 합성 방식은 디스플레이 컨트롤러를 통한 이미지 합성 방식과 GPU를 통한 이미지 합성 방식을 포함하는 것을 특징으로 하는 전자 장치.
  8. 제6항에 있어서,
    상기 전자 장치의 동작 환경은 이미지를 드로잉하기 위해 실행 중인 어플리케이션의 개수를 포함하는 것을 특징으로 하는 전자 장치.
  9. 전자 장치의 동작 제어 방법에 있어서,
    주기적인 동기화 신호에 응답하여 이미지를 드로잉하는 동작;
    상기 이미지 드로잉 이후, 상기 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하는 동작;
    상기 이미지 합성 이후, 상기 동기화 신호에 응답하여 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하는 동작;
    상기 합성된 이미지 전달 이후 다음 동기화 신호 발생시까지의 제1 대기 시간을 측정하는 동작;
    상기 다음 동기화 신호의 발생에 응답하여 디스플레이 패널에 이미지를 표시하는 동작;
    상기 제1 대기 시간을 기반으로 제1 오프셋 값을 결정하는 동작; 및
    상기 주기적인 동기화 신호에 상기 제1 오프셋 값을 적용하여 이미지 합성 시점을 결정하는 동작을 포함하는 전자 장치의 동작 제어 방법.
  10. 제9항에 있어서,
    상기 제1 대기 시간을 복수 회 측정한 경우, 상기 제1 오프셋 값은 상기 복수 회 측정한 제1 대기 시간 중 최소값 또는 상기 복수 회 측정한 제1 대기 시간의 평균값 중 하나로 결정하는 것을 특징으로 하는 전자 장치의 동작 제어 방법.
  11. 제9항에 있어서,
    상기 이미지 드로잉 이후 다음 동기화 신호 발생시까지의 제2 대기 시간을 측정하는 동작;
    상기 제2 대기 시간을 기반으로 제2 오프셋 값을 결정하는 동작; 및
    상기 주기적인 동기화 신호에 상기 제2 오프셋 값을 적용하여 이미지 드로잉 시점을 결정하는 동작을 더 포함하는 전자 장치의 동작 제어 방법.
  12. 제11 항에 있어서,
    상기 제2 대기 시간을 복수 회 측정한 경우, 상기 제2 오프셋 값은 상기 복수 회 측정한 제2 대기 시간 중 최소값 또는 상기 복수 회 측정한 제2 대기 시간의 평균값 중 하나로 결정하는 것을 특징으로 하는 전자 장치의 동작 제어 방법.
  13. 제11항에 있어서,
    이미지 드로잉에 소요되는 시간 또는 이미지 합성에 소요되는 시간에 기초하여 상기 제1 오프셋 값 또는 상기 제2 오프셋 값을 조정하는 동작을 더 포함하는 전자 장치의 동작 제어 방법.
  14. 전자 장치의 동작 제어 방법에 있어서,
    상기 전자 장치의 동작 환경에 기반하여 이미지 합성 방식을 결정하는 동작;
    결정한 이미지 합성 방식에 대응하는 오프셋 값을 결정하는 동작;
    주기적인 동기화 신호에 상기 결정된 오프셋 값을 적용하는 동작;
    상기 오프셋 값이 적용된 동기화 신호에 응답하여 이미지를 드로잉하는 동작;
    상기 이미지 드로잉 이후, 상기 오프셋 값이 적용된 동기화 신호에 응답하여 상기 드로잉된 이미지를 합성하는 동작;
    상기 이미지 합성 이후, 상기 합성된 이미지를 디스플레이 컨트롤러에 전달하는 동작; 및
    상기 이미지 전달 이후, 상기 주기적인 동기화 신호에 응답하여 디스플레이 패널에 이미지를 표시하는 동작을 포함하는 전자 장치의 동작 제어 방법.
  15. 제14항에 있어서,
    상기 이미지 합성 방식은 디스플레이 컨트롤러를 통한 이미지 합성 방식과 GPU를 통한 이미지 합성 방식을 포함하는 것을 특징으로 하는 전자 장치의 동작 제어 방법.
  16. 제14항에 있어서,
    상기 전자 장치의 동작 환경은 이미지를 드로잉하기 위해 실행 중인 어플리케이션의 개수를 포함하는 것을 특징으로 하는 전자 장치의 동작 제어 방법.
PCT/KR2017/009089 2016-08-23 2017-08-21 전자 장치 및 전자 장치의 동작 제어 방법 WO2018038483A1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/325,221 US11087718B2 (en) 2016-08-23 2017-08-21 Electronic device, and method for controlling operation of electronic device
EP17843903.0A EP3489906B1 (en) 2016-08-23 2017-08-21 Electronic device, and method for controlling operation of electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020160107236A KR102606693B1 (ko) 2016-08-23 2016-08-23 전자 장치 및 전자 장치의 동작 제어 방법
KR10-2016-0107236 2016-08-23

Publications (1)

Publication Number Publication Date
WO2018038483A1 true WO2018038483A1 (ko) 2018-03-01

Family

ID=61245091

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2017/009089 WO2018038483A1 (ko) 2016-08-23 2017-08-21 전자 장치 및 전자 장치의 동작 제어 방법

Country Status (4)

Country Link
US (1) US11087718B2 (ko)
EP (1) EP3489906B1 (ko)
KR (1) KR102606693B1 (ko)
WO (1) WO2018038483A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114461093A (zh) * 2021-08-19 2022-05-10 荣耀终端有限公司 一种环境光的检测方法、电子设备、芯片系统及存储介质

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111124230B (zh) * 2019-12-24 2020-11-17 腾讯科技(深圳)有限公司 输入响应方法、装置、电子设备及计算机可读存储介质
KR20220017119A (ko) 2020-08-04 2022-02-11 삼성전자주식회사 디스플레이 다중 구동 방법 및 이를 지원하는 전자 장치
CN112241303B (zh) * 2020-10-15 2023-02-21 展讯半导体(南京)有限公司 图像处理方法及系统、电子设备及存储介质
CN113867663B (zh) * 2020-10-22 2024-04-09 华为技术有限公司 一种显示方法及电子设备
CN117742835A (zh) * 2022-09-14 2024-03-22 荣耀终端有限公司 一种请求vSync信号的方法及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068985A2 (en) * 2004-12-20 2006-06-29 Nvidia Corporation Real-time display post-processing using programmable hardware
US20120262463A1 (en) * 2011-04-03 2012-10-18 Reuven Bakalash Virtualization method of vertical-synchronization in graphics systems
US20140063069A1 (en) * 2012-09-04 2014-03-06 Vijay G. Prabakaran Frame Timing Synchronization for an Inline Scaler Using Multiple Buffer Thresholds
US20160049105A1 (en) * 2014-08-12 2016-02-18 Samsung Electronics Co., Ltd. Device and method of providing sampled data and device and method of displaying diagnosis interface
EP3056983A1 (en) * 2013-11-06 2016-08-17 Huawei Device Co., Ltd. Display frame generation method and terminal device

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5565897A (en) 1994-01-14 1996-10-15 Elonex Technologies, Inc. Interactive system for calibration of display monitors
US7394474B2 (en) 2004-03-17 2008-07-01 Rgb Systems, Inc. Method and apparatus for implementing an overlay cursor and associated scope trigger in a video test generator
EP2493140B1 (en) 2011-02-24 2018-07-18 Nokia Solutions and Networks Oy Method for transporting multimedia information and device for processing multimedia information
JP6349908B2 (ja) * 2014-04-22 2018-07-04 富士通株式会社 データ処理方法、データ処理装置及びプログラム
US9679345B2 (en) 2014-08-08 2017-06-13 Advanced Micro Devices, Inc. Method and system for frame pacing
US20160188279A1 (en) * 2014-12-27 2016-06-30 Intel Corporation Mode-switch protocol and mechanism for hybrid wireless display system with screencasting and native graphics throwing
KR20160087476A (ko) * 2015-01-13 2016-07-22 삼성디스플레이 주식회사 터치 스크린 패널 및 그의 구동방법
JP6598408B2 (ja) 2016-03-08 2019-10-30 華為技術有限公司 表示方法および端末デバイス

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006068985A2 (en) * 2004-12-20 2006-06-29 Nvidia Corporation Real-time display post-processing using programmable hardware
US20120262463A1 (en) * 2011-04-03 2012-10-18 Reuven Bakalash Virtualization method of vertical-synchronization in graphics systems
US20140063069A1 (en) * 2012-09-04 2014-03-06 Vijay G. Prabakaran Frame Timing Synchronization for an Inline Scaler Using Multiple Buffer Thresholds
EP3056983A1 (en) * 2013-11-06 2016-08-17 Huawei Device Co., Ltd. Display frame generation method and terminal device
US20160049105A1 (en) * 2014-08-12 2016-02-18 Samsung Electronics Co., Ltd. Device and method of providing sampled data and device and method of displaying diagnosis interface

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3489906A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114461093A (zh) * 2021-08-19 2022-05-10 荣耀终端有限公司 一种环境光的检测方法、电子设备、芯片系统及存储介质
CN114461093B (zh) * 2021-08-19 2023-01-20 荣耀终端有限公司 一种环境光的检测方法、电子设备、芯片系统及存储介质

Also Published As

Publication number Publication date
KR102606693B1 (ko) 2023-11-28
EP3489906A4 (en) 2019-07-24
KR20180022211A (ko) 2018-03-06
US11087718B2 (en) 2021-08-10
US20190206367A1 (en) 2019-07-04
EP3489906A1 (en) 2019-05-29
EP3489906B1 (en) 2021-07-07

Similar Documents

Publication Publication Date Title
WO2016137187A1 (en) Apparatus and method for providing screen mirroring service
AU2015350680B2 (en) Power control method and apparatus for reducing power consumption
WO2018151505A1 (en) Electronic device and method for displaying screen thereof
WO2018182292A1 (en) Electronic device and control method thereof
WO2017057912A1 (ko) 전자 장치에서 어플리케이션 실행 장치 및 방법
WO2017135599A1 (ko) 외부 전자 장치를 제어하기 위한 방법 및 전자 장치
WO2018038483A1 (ko) 전자 장치 및 전자 장치의 동작 제어 방법
WO2017082685A1 (ko) 표시 제어 방법, 이를 구현한 디스플레이 패널, 디스플레이 장치 및 전자 장치
WO2016175602A1 (en) Electronic device for providing short-cut user interface and method therefor
WO2017022971A1 (ko) 전자 장치에서 디스플레이 방법 및 장치
WO2018155928A1 (ko) 복수의 생체 센서를 이용하여 인증을 수행하기 위한 전자 장치 및 그의 동작 방법
WO2018128509A1 (en) Electronic device and method for sensing fingerprints
WO2018044052A1 (en) Method for displaying time information and electronic device supporting the same
WO2017131401A1 (ko) 전자 장치 및 전자 장치의 사용자 인터페이스 제어 방법
WO2017119690A1 (ko) 전자 장치 및 그 동작 방법
WO2017209446A1 (en) Electronic device and information processing system including the same
WO2018044065A1 (en) Method for displaying time information in low power state and electronic device including the same
WO2017023040A1 (en) Screen controlling method and electronic device for supporting the same
WO2018135903A1 (en) Electronic device and method for displaying screen by the same
WO2018048217A1 (en) Electronic apparatus and operating method thereof
WO2017142359A1 (ko) 전자 장치 및 그 동작 방법
WO2018034493A1 (en) Electronic device and control method therefor
WO2017183930A1 (ko) 전자 장치 및 그 제어 방법
WO2017119725A1 (en) Method for storing image and electronic device thereof
WO2017026795A1 (en) Method and electronic device for processing user input

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17843903

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2017843903

Country of ref document: EP

Effective date: 20190221