WO2017022971A1 - 전자 장치에서 디스플레이 방법 및 장치 - Google Patents

전자 장치에서 디스플레이 방법 및 장치 Download PDF

Info

Publication number
WO2017022971A1
WO2017022971A1 PCT/KR2016/007637 KR2016007637W WO2017022971A1 WO 2017022971 A1 WO2017022971 A1 WO 2017022971A1 KR 2016007637 W KR2016007637 W KR 2016007637W WO 2017022971 A1 WO2017022971 A1 WO 2017022971A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
display
processor
area
electronic device
Prior art date
Application number
PCT/KR2016/007637
Other languages
English (en)
French (fr)
Inventor
심현우
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to CN201680044681.9A priority Critical patent/CN107851416B/zh
Priority to US15/749,255 priority patent/US10872556B2/en
Priority to EP16833208.8A priority patent/EP3330953A4/en
Publication of WO2017022971A1 publication Critical patent/WO2017022971A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • G09G3/035Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays for flexible display surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1601Constructional details related to the housing of computer displays, e.g. of CRT monitors, of flat displays
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1438Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using more than one graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0232Special driving of display border areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2330/00Aspects of power supply; Aspects of display protection and defect management
    • G09G2330/02Details of power systems and of start or stop of display operation
    • G09G2330/021Power management, e.g. power saving
    • G09G2330/022Power management, e.g. power saving in absence of operation, e.g. no data being entered during a predetermined time

Definitions

  • Various embodiments of the present disclosure relate to a display processing method and an apparatus in an electronic device.
  • the flexible display may indicate a display that can be bent and detached freely, and the bent display may represent a display in which the curved shape of the display is maintained in consideration of a design or the like.
  • An electronic device having a bent display may extend the display area to the left and right sides of the electronic device as well as the front of the electronic device.
  • the screen may be enlarged by bending the left and right edges of the display.
  • the display panel may be changed and provided in various ways such as 16:10 and 16:11 instead of standard resolution (for example, 16: 9).
  • the electronic device is responsible for specific processing (eg, image processing for display such as image drawing) of the display area of the electronic device in a processor (for example, an AP). Doing.
  • the electronic device may operate as a structure in which a processor (eg, an AP) generates an image through image processing of all display areas of the display and then draws the corresponding image on the display.
  • the electronic device may operate by dividing the display area into a main area and a sub area.
  • the processor may process an image through image processing for the sub area when the processor adds arbitrary processing to the sub area.
  • the processor may consume current corresponding to image processing for all display regions even when image processing for the sub region, and consequently, the overall current consumption of the processor may increase. For example, when image processing is performed on all display areas in an AP, current consumption of about 200mW to 300mW is consumed.
  • Various embodiments disclose a display method and an apparatus capable of reducing current consumption due to a bent display operation in an electronic device.
  • Various embodiments of the present disclosure disclose a display method and apparatus for dividing a bent display into a main area of a front surface and a sub area of a side surface of the electronic device having a bent display and independently processing the main area and the sub area.
  • the processor processes only the image for display of the main area of the bent display, and displays the remaining area (eg, the sub area) in the display control circuit (eg, the Display Driver IC).
  • the display control circuit eg, the Display Driver IC
  • an electronic device may include a housing; A display including a first area exposed on one surface of the housing, the first area being flat, and a second area extending from the first area and at least partially curved; A second processor electrically connected with the display; A first processor electrically connected with the second processor; And at least one memory electrically coupled with at least one of the first processor or the second processor;
  • the at least one memory includes: first instructions that, when executed, cause the first processor to process data to be displayed in a first area of the display and provide it to the second processor; And store second instructions for processing the data provided from the first processor to generate data to be displayed in a second area of the display.
  • an electronic device may include a housing; A display including a first area exposed on one surface of the housing and extending to bend at least a portion from the first area; At least two processors electrically connected to the display; At least one memory electrically coupled with at least one of the at least two processors; The at least one memory stores, when executed, first instructions that cause a first of the at least two processors to display a screen in the first area and the second area, and the at least one memory
  • the second processor may be configured to store second instructions for displaying a screen in the second area without displaying a screen in the first area.
  • An electronic device may include a display including a main area of a front surface and a sub area of a side surface, and configured to display an image received from a display control panel based on at least a part of a main area and a sub area; A processor configured to process a full resolution image corresponding to the main area and the sub area, or a write resolution image corresponding to the main area and transmit the same to a display control circuit; And a display control circuit configured to transfer the full resolution image transmitted from the processor to the display, or to process the virtual image for the sub-area, and transmit the light resolution image and the virtual image transferred from the processor to the display.
  • a method of operating an electronic device may include: a first processing process of processing a light resolution image for a main area of a display corresponding to a display method; A second processing step of processing a virtual image for a sub area of a display based on the light resolution image; And a third processing process of processing a display using the light resolution image and the virtual image.
  • various embodiments of the present disclosure may include a computer-readable recording medium that records a program for executing the method on a processor.
  • the current consumption according to the display operation may be reduced.
  • the image for display of the main area in a particular scenario eg lock screen, internet, gallery, etc.
  • the processor eg AP
  • the rest of the area eg sub-area
  • Images for display can be shared and processed by a display control circuit (eg, DDI (Display Driver IC)) to reduce current consumption.
  • DDI Display Driver IC
  • the display control circuit may process the image for the sub-regions, etc., which are divided in the flat panel display, instead of the processor, thereby increasing the degree of freedom of user interface (UI) implementation.
  • UI user interface
  • the user interface displays the standard resolution (main area resolution, e.g. 16: 9), and the left and right edge parts (e.g. sub-area), regardless of the current consumption. You can make the screen look bigger (eg 16:10, 16:11).
  • the bezel area of the electronic device may be minimized.
  • FIG. 1 is a diagram illustrating a network environment including an electronic device according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram illustrating an electronic device according to various embodiments of the present disclosure.
  • FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
  • FIG. 4 is a diagram illustrating an example of an electronic device having a bent display according to various embodiments of the present disclosure.
  • 5A and 5B are diagrams schematically illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
  • 6 and 7 are diagrams for describing a display operation of an electronic device according to various embodiments of the present disclosure.
  • FIG 8, 9, 10, and 11 are diagrams illustrating an example of displaying an image using a main area and a sub area in an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 is a diagram illustrating a display processing operation in an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 is a flowchart illustrating a display method in an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 is a flowchart illustrating a display method in an electronic device according to various embodiments of the present disclosure.
  • 15 is a flowchart illustrating a display method in an electronic device according to various embodiments of the present disclosure.
  • expressions such as “A or B,” “at least one of A or / and B,” or “one or more of A or / and B” may include all possible combinations of items listed together.
  • “A or B,” “at least one of A and B,” or “at least one of A or B,” includes (1) at least one A, (2) at least one B, Or (3) both of cases including at least one A and at least one B.
  • first,” “second,” “first,” or “second,” and the like may modify various components, regardless of order and / or importance, and may form a component. It is used to distinguish it from other components and does not limit the components.
  • the first user device and the second user device may represent different user devices regardless of the order or importance.
  • the first component may be called a second component, and similarly, the second component may be renamed to the first component.
  • One component (such as a first component) is "(functionally or communicatively) coupled with / to" to another component (such as a second component) or " When referred to as “connected to”, it should be understood that any component may be directly connected to the other component or may be connected through another component (eg, a third component).
  • a component e.g., a first component
  • another component e.g., a second component
  • no other component e.g., a third component
  • “configured to” means having the ability to “suitable for,” “ ⁇ , depending on the context, for example, hardware or software. the capacity to, “” designed to, “” adapted to, “” made to, “or” capable of. “ Can be used interchangeably.
  • the term “configured to” may not necessarily mean only “specifically designed to” in hardware. Instead, in some situations, the expression “device configured to” may mean that the device “can” along with other devices or components.
  • the phrase “processor configured (or configured to) perform A, B, and C” may be implemented by executing a dedicated processor (eg, an embedded processor) to perform its operation, or one or more software programs stored in a memory device. It may mean a general-purpose processor (eg, a central processing unit (CPU) or an application processor (AP)) capable of performing corresponding operations.
  • a dedicated processor eg, an embedded processor
  • AP application processor
  • An electronic device may include, for example, a smartphone, a tablet personal computer, a mobile phone, a video phone, an e-book reader, Desktop personal computer (PC), laptop personal computer (PC), netbook computer, workstation, server, personal digital assistant (PDA), portable multimedia player (PMP), MP3 player, mobile medical It may include at least one of a device, a camera, or a wearable device.
  • a wearable device may be an accessory (eg, a watch, ring, bracelet, anklet, necklace, glasses, contact lens, or head-mounted-device (HMD), fabric, or clothing) (Eg, electronic clothing), a body-attachable (eg, skin pad or tattoo), or a living implantable circuit (eg, an implantable circuit).
  • an accessory eg, a watch, ring, bracelet, anklet, necklace, glasses, contact lens, or head-mounted-device (HMD), fabric, or clothing
  • HMD head-mounted-device
  • fabric eg, electronic clothing
  • body-attachable eg, skin pad or tattoo
  • a living implantable circuit eg, an implantable circuit
  • the electronic device may be a home appliance.
  • Home appliances are, for example, televisions, digital video disk (DVD) players, audio, refrigerators, air conditioners, vacuum cleaners, ovens, microwaves, washing machines, air purifiers, set-top boxes, home automation controls Panel (home automation control panel), security control panel, TV box (e.g. Samsung HomeSync TM , Apple TV TM , or Google TV TM ), game console (e.g. Xbox TM , PlayStation TM ), electronic dictionary It may include at least one of an electronic key, a camcorder, or an electronic picture frame.
  • DVD digital video disk
  • the electronic device may include various medical devices (eg, various portable medical measuring devices (such as blood glucose meters, heart rate monitors, blood pressure monitors, or body temperature meters), magnetic resonance angiography (MRA), magnetic resonance imaging (MRI), Computed tomography (CT), imaging or ultrasound), navigation devices, global navigation satellite systems (GNSS), event data recorders (EDRs), flight data recorders (FDRs), automotive infotainment Devices, ship electronics (e.g.
  • various portable medical measuring devices such as blood glucose meters, heart rate monitors, blood pressure monitors, or body temperature meters
  • MRA magnetic resonance angiography
  • MRI magnetic resonance imaging
  • CT Computed tomography
  • imaging or ultrasound navigation devices
  • GNSS global navigation satellite systems
  • EDRs event data recorders
  • FDRs flight data recorders
  • automotive infotainment Devices ship electronics
  • POS Point of sales
  • Internet of things e.g., light bulbs, sensors, electricity or gas meters, sprinkler devices, fire alarms, thermostats, street lights, sat. It may include at least one of (toaster), exercise equipment, hot water tank, heater, boiler.
  • an electronic device may be a furniture or part of a building / structure, an electronic board, an electronic signature receiving device, a projector, or various measuring devices (eg, Water, electricity, gas, or radio wave measuring instrument).
  • the electronic device may be a combination of one or more of the aforementioned various devices.
  • An electronic device according to an embodiment may be a flexible electronic device.
  • the electronic device according to an embodiment of the present disclosure is not limited to the above-described devices, and may include a new electronic device according to technology development.
  • the term user may refer to a person who uses an electronic device or a device (eg, an artificial intelligence electronic device) that uses an electronic device.
  • FIG. 1 is a diagram illustrating a network environment including an electronic device according to various embodiments of the present disclosure.
  • the electronic device 101 may include a bus 110, a processor 120, a memory 130, an input / output interface 150, a display 160, and a communication interface 170. have. According to an embodiment of the present disclosure, the electronic device 101 may omit at least one of the components or additionally include other components.
  • the bus 110 may include, for example, circuitry that connects the components 110-170 to each other and delivers communication (eg, control messages and / or data) between the components.
  • the processor 120 may include one or more of a central processing unit (CPU), an application processor (AP), or a communication processor (CP).
  • the processor 120 may execute, for example, an operation or data processing related to control and / or communication of at least one other element of the electronic device 101.
  • the memory 130 may include volatile memory and / or non-volatile memory.
  • the memory 130 may store, for example, a command or data related to at least one other element of the electronic device 101.
  • the memory 130 may store software and / or program 140.
  • the program 140 may include, for example, a kernel 141, middleware 143, an application programming interface (API) 145, and / or an application program (or “application”) 147. have. At least a portion of kernel 141, middleware 143, or API 145 may be referred to as an operating system (OS).
  • OS operating system
  • the kernel 141 may be a system resource (eg, bus 110, processor 120, or, for example) that is used to execute an action or function implemented in other programs (eg, middleware 143, API 145, or application program 147). Memory 130, etc.) can be controlled or managed.
  • the kernel 141 may provide an interface for controlling or managing system resources by accessing individual components of the electronic device 101 from the middleware 143, the API 145, or the application program 147.
  • the middleware 143 may serve as an intermediary for allowing the API 145 or the application program 147 to communicate with the kernel 141 to exchange data.
  • the middleware 143 may process one or more work requests received from the application program 147 according to priority. For example, the middleware 143 may give priority to the use of system resources (eg, the bus 110, the processor 120, or the memory 130, etc.) of the electronic device 101 to at least one of the application programs 147. For example, the middleware 143 may perform the scheduling or load balancing on the one or more work requests by processing the one or more work requests according to the priority given to the at least one.
  • system resources eg, the bus 110, the processor 120, or the memory 130, etc.
  • API 145 is, for example, an interface for application 147 to control functions provided by kernel 141 or middleware 143. For example, file control, window control, image processing, and the like. ), Or at least one interface or function (eg, a command) for character control or the like.
  • the input / output interface 150 may serve as an interface that may transfer commands or data input from a user or another external device to other component (s) of the electronic device 101. Also, the input / output interface 150 may output a command or data received from other component (s) of the electronic device 101 to a user or another external device.
  • Display 160 may be, for example, a liquid crystal display (LCD), a light-emitting diode (LED) display, an organic light-emitting diode (OLED) display, or microelectronics.
  • LCD liquid crystal display
  • LED light-emitting diode
  • OLED organic light-emitting diode
  • MEMS Microelectromechanical systems
  • the display 160 may display, for example, various types of content (eg, text, image, video, icon, symbol, etc.) to the user.
  • the display 160 may include a touch screen, and may include, for example, a touch, gesture, proximity, or hovering using an electronic pen or a part of a user's body. An input can be received.
  • the communication interface 170 may establish communication between the electronic device 101 and an external device (eg, the first external electronic device 102, the second external electronic device 104, or the server 106).
  • the communication interface 170 may be connected to the network 162 through wireless or wired communication to communicate with an external device (eg, the second external electronic device 104 or the server 106).
  • Wireless communication is, for example, a cellular communication protocol, for example, long-term evolution (LTE), LTE Advance (LTE-A), code division multiple access (CDMA), wideband CDMA (WCDMA), UMTS (universal).
  • LTE long-term evolution
  • LTE-A LTE Advance
  • CDMA code division multiple access
  • WCDMA wideband CDMA
  • UMTS universal
  • the wireless communication may include, for example, short range communication 164.
  • the short range communication 164 may include, for example, at least one of wireless fidelity (WiFi), Bluetooth (Bluetooth), near field communication (NFC), global navigation satellite system (GNSS), and the like.
  • GNSS may be used according to the area of use or bandwidth, for example, global positioning system (GPS), global navigation satellite system (Glonass), Beidou navigation satellite system (hereinafter referred to as "Beidou”) or Galileo, the European global satellite-based navigation system. It may include at least one of.
  • GPS global positioning system
  • Glonass global navigation satellite system
  • Beidou Beidou navigation satellite system
  • Galileo the European global satellite-based navigation system. It may include at least one of.
  • GPS global positioning system
  • the wired communication may include, for example, at least one of a universal serial bus (USB), a high definition multimedia interface (HDMI), a reduced standard 232 (RS-232), a plain old telephone service (POTS), and the like.
  • the network 162 may include a telecommunications network, for example, at least one of a computer network (for example, a LAN or a WAN), the Internet, and a telephone network.
  • Each of the first and second external electronic devices 102 and 104 may be the same or different type of device as the electronic device 101.
  • the server 106 may include a group of one or more servers.
  • all or part of operations executed in the electronic device 101 may be executed in another or a plurality of electronic devices (for example, the electronic devices 102 and 104 or the server 106.
  • the electronic device 101 may, in addition to or in addition execute the function or service itself, perform at least some of the functions associated with another device (eg, an electronic device). (102, 104) or server 106.
  • Another electronic device executes the requested function or additional function, and outputs the result to electronic device 101.
  • the electronic device 101 may process the received result as it is or additionally to provide the requested function or service.
  • Cloud computing cloud computing
  • Distributed Computing distributed computing
  • client-server computing client-server computing
  • FIG. 2 is a block diagram of an electronic device according to various embodiments of the present disclosure.
  • the electronic device 201 may include, for example, all or part of the electronic device 101 illustrated in FIG. 1.
  • the electronic device 201 may include one or more processors (eg, an application processor) 210, a communication module 220, a subscriber identification module 224, a memory 230, a sensor module 240, an input device 250, a display 260, an interface 270, an audio module 280, and a camera module. 291, power management module 295, battery 296, indicator 297, and motor 298.
  • the processor 210 may control, for example, a plurality of hardware or software components connected to the processor 210 by driving an operating system or an application program, and may perform various data processing and operations.
  • the processor 210 may be implemented with, for example, a system on chip (SoC).
  • SoC system on chip
  • the processor 210 may further include a graphic processing unit (GPU) and / or an image signal processor.
  • the processor 210 may include at least some of the components illustrated in FIG. 2 (eg, the cellular module 221).
  • the processor 210 may load and process instructions or data received from at least one of the other components (eg, nonvolatile memory) into the volatile memory, and store various data in the nonvolatile memory.
  • the communication module 220 may have a configuration that is the same as or similar to that of the communication interface 170 of FIG. 1.
  • the communication module 220 may be, for example, a cellular module 221, a WiFi module 223, a Bluetooth module 225, a GNSS module 227 (e.g., a GPS module, a Glonass module, a Beidou module, or a Galileo module), an NFC module 228, and a radio frequency (RF).
  • Module 229 may be included.
  • the cellular module 221 may provide, for example, a voice call, a video call, a text service, or an internet service through a communication network. According to an embodiment of the present disclosure, the cellular module 221 may perform identification and authentication of the electronic device 201 in a communication network using a subscriber identification module (eg, a subscriber identification module (SIM) card) 224. According to an embodiment of the present disclosure, the cellular module 221 may perform at least some of the functions that the processor 210 may provide. According to an embodiment of the present disclosure, the cellular module 221 may include a communication processor (CP).
  • CP communication processor
  • Each of the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may include, for example, a processor for processing data transmitted and received through a corresponding module.
  • at least some (eg, two or more) of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may be included in one integrated chip (IC) or IC package. .
  • the RF module 229 may transmit / receive, for example, a communication signal (eg, an RF signal).
  • the RF module 229 may include, for example, a transceiver, a power amp module (PAM), a frequency filter, a low noise amplifier (LNA), an antenna, or the like.
  • PAM power amp module
  • LNA low noise amplifier
  • at least one of the cellular module 221, the WiFi module 223, the Bluetooth module 225, the GNSS module 227, or the NFC module 228 may transmit and receive an RF signal through a separate RF module.
  • the subscriber identification module 224 may include, for example, a card including a subscriber identification module and / or an embedded SIM, and may include unique identification information (eg, an integrated circuit card identifier (ICCID) or subscriber information). (Eg, international mobile subscriber identity).
  • ICCID integrated circuit card identifier
  • subscriber information e.g, international mobile subscriber identity
  • the memory 230 may include, for example, an internal memory 232 or an external memory 234.
  • the internal memory 232 may be, for example, volatile memory (eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.), or nonvolatile memory (non-volatile memory).
  • volatile memory eg, dynamic RAM (DRAM), static RAM (SRAM), or synchronous dynamic RAM (SDRAM), etc.
  • nonvolatile memory non-volatile memory
  • -volatile memory e.g., one time programmable read only memory (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash
  • OTPROM one time programmable read only memory
  • PROM programmable ROM
  • EPROM erasable and programmable ROM
  • EEPROM electrically erasable and programmable ROM
  • mask ROM mask e.g., one time programmable read only memory (OTPROM), programmable ROM (PROM), erasable and programmable ROM (EPROM), electrically erasable and programmable ROM (EEPROM), mask ROM, flash ROM, flash
  • It may include at least one of a memory (for example, NAND flash or NOR flash), a hard drive, or a solid state drive (SSD).
  • a memory for example, NAND flash or NOR flash
  • the external memory 234 may be a flash drive, for example, compact flash (CF), secure digital (SD), micro secure digital (Micro-SD), mini secure digital (mini-SD), or extreme digital (XD). It may further include a MMC (MultiMediaCard) or a memory stick (memory stick).
  • the external memory 234 may be functionally and / or physically connected to the electronic device 201 through various interfaces.
  • the sensor module 240 may measure a physical quantity or detect an operation state of the electronic device 201 to convert the measured or detected information into an electrical signal.
  • the sensor module 240 may include, for example, a gesture sensor 240A, a gyro sensor 240B, a barometer 240C, a magnetic sensor 240D, an acceleration sensor 240E, and a grip sensor. (grip sensor) 240F, proximity sensor 240G, color sensor 240H (e.g. RGB, red, green, blue) sensor, medical sensor 240I, temperature / humidity sensor It may include at least one of a humidity sensor 240J, an illumination sensor 240K, or an UV (ultra violet) sensor 240M.
  • the sensor module 240 may include, for example, an olfactory sensor, an electromyography sensor, an electroencephalogram sensor, an electrocardiogram sensor, or an IR. (infrared) sensor, iris sensor (iris scan sensor) and / or fingerprint scan sensor (finger scan sensor).
  • the sensor module 240 may further include a control circuit for controlling at least one or more sensors belonging therein.
  • the electronic device 201 may further include a processor configured to control the sensor module 240 as part of or separately from the processor 210 to control the sensor module 240 while the processor 210 is in a sleep state. .
  • the input device 250 may include, for example, a touch panel 252, a (digital) pen sensor 254, a key 256, or an ultrasonic input device 258.
  • the touch panel 252 may use at least one of capacitive, resistive, infrared, or ultrasonic methods, for example.
  • the touch panel 252 may further include a control circuit.
  • the touch panel 252 may further include a tactile layer to provide a tactile response to the user.
  • the (digital) pen sensor 254 may be, for example, part of a touch panel or may include a separate sheet for recognition.
  • the key 256 may include, for example, a physical button, an optical key, or a keypad.
  • the ultrasonic input device 258 may detect ultrasonic waves generated by the input tool through a microphone (for example, the microphone 288) and check data corresponding to the detected ultrasonic waves.
  • the display 260 may include a panel 262, a hologram device 264, or a projector 266.
  • the panel 262 may include a configuration that is the same as or similar to that of the display 160 of FIG. 1.
  • the panel 262 may be implemented to be, for example, flexible, transparent, or wearable.
  • the panel 262 may be configured as a single module with the touch panel 252.
  • the hologram 264 may show a stereoscopic image in the air by using interference of light.
  • the projector 266 may display an image by projecting light onto a screen.
  • the screen may be located inside or outside the electronic device 201.
  • the display 260 may further include a control circuit for controlling the panel 262, the hologram device 264, or the projector 266.
  • the interface 270 may include, for example, a high-definition multimedia interface (HDMI) 272, a universal serial bus (USB) 274, an optical interface 276, or a D-subminiature (D-sub) 278.
  • the interface 270 may be included in, for example, the communication interface 170 illustrated in FIG. 1.
  • interface 270 may include, for example, a mobile high-definition link (MHL) interface, a secure digital (SD) card / multi-media card (MMC) interface, or an infrared data association. ) May include a standard interface.
  • MHL mobile high-definition link
  • SD secure digital
  • MMC multi-media card
  • infrared data association May include a standard interface.
  • the audio module 280 may bidirectionally convert, for example, a sound and an electrical signal. At least some components of the audio module 280 may be included in, for example, the input / output interface 150 illustrated in FIG. 1.
  • the audio module 280 may process sound information input or output through, for example, a speaker 282, a receiver 284, an earphone 286, a microphone 288, or the like.
  • the camera module 291 is, for example, a device capable of capturing still images and moving images.
  • the camera module 291 may include at least one image sensor (eg, a front sensor or a rear sensor), a lens, an image signal processor (ISP), or Flash (eg, LED or xenon lamp, etc.).
  • ISP image signal processor
  • Flash eg, LED or xenon lamp, etc.
  • the power management module 295 may manage power of the electronic device 201, for example.
  • the power management module 295 may include a power management integrated circuit (PMIC), a charger integrated circuit (ICC), or a battery 296 or a battery or fuel gauge.
  • the PMIC may have a wired and / or wireless charging scheme.
  • the wireless charging method may include, for example, a magnetic resonance method, a magnetic induction method, an electromagnetic wave method, or the like, and may further include additional circuits for wireless charging, such as a coil loop, a resonance circuit, a rectifier, and the like. have.
  • the battery gauge may measure, for example, the remaining amount of the battery 296, the voltage, the current, or the temperature during charging.
  • the battery 296 may include, for example, a rechargeable battery and / or a solar battery.
  • the indicator 297 may display a specific state of the electronic device 201 or a portion thereof (for example, the processor 210), for example, a booting state, a message state, or a charging state.
  • the motor 298 may convert an electrical signal into mechanical vibration, and may generate a vibration or haptic effect.
  • the electronic device 201 may include a processing device (eg, a GPU) for supporting mobile TV.
  • the processing apparatus for supporting mobile TV may process media data according to a standard such as digital multimedia broadcasting (DMB), digital video broadcasting (DVB), or MediaFlo TM .
  • DMB digital multimedia broadcasting
  • DVD digital video broadcasting
  • MediaFlo TM MediaFlo TM
  • each of the components described in this document may be composed of one or more components, and the names of the corresponding components may vary depending on the type of electronic device.
  • the electronic device may be configured to include at least one of the components described in this document, and some components may be omitted or further include other additional components.
  • some of the components of the electronic device according to various embodiments of the present disclosure may be combined to form one entity, and thus may perform the same functions of the corresponding components before being combined.
  • FIG. 3 is a block diagram of a program module according to various embodiments of the present disclosure.
  • the program module 310 (eg, the program 140) is an operating system (OS) for controlling resources related to the electronic device (eg, the electronic device 101) and / or various applications running on the operating system.
  • OS operating system
  • the operating system may be, for example, android, ios, windows, symbian, tizen, bada, or the like.
  • the program module 310 may include a kernel 320, middleware 330, an application programming interface (API) 360, and / or an application 370. At least a part of the program module 310 may be preloaded on the electronic device or may be downloaded from an external electronic device (for example, the electronic devices 102 and 104, the server 106, and the like).
  • API application programming interface
  • the kernel 320 may include, for example, a system resource manager 321 and / or a device driver 323.
  • the system resource manager 321 may perform control, allocation, or retrieval of system resources.
  • the system resource manager 321 may include a process manager, a memory manager, or a file system manager.
  • the device driver 323 may include, for example, a display driver, a camera driver, a Bluetooth driver, a shared memory driver, a USB driver, a keypad driver, a WiFi driver, an audio driver, or an inter-process communication (IPC) driver.
  • IPC inter-process communication
  • the middleware 330 may provide functions commonly required by the application 370 or provide various functions to the application 370 through the API 360 so that the application 370 can efficiently use limited system resources inside the electronic device. have.
  • the middleware 330 eg, the middleware 143 may include a runtime library 335, an application manager 341, a window manager 342, a multimedia manager 343, and a resource manager 344.
  • the runtime library 335 may include, for example, a library module that the compiler uses to add new functionality through the programming language while the application 370 is running.
  • the runtime library 335 may perform input / output management, memory management, or a function for an arithmetic function.
  • the application manager 341 may manage a life cycle of at least one of the applications 370.
  • the window manager 342 may manage GUI resources used on the screen.
  • the multimedia manager 343 may identify a format necessary for playing various media files, and may encode or decode the media file using a codec suitable for the format.
  • the resource manager 344 may manage resources such as source code, memory, or storage space of at least one of the applications 370.
  • the power manager 345 may operate in conjunction with a basic input / output system (BIOS) to manage a battery or power, and provide power information necessary for the operation of the electronic device.
  • BIOS basic input / output system
  • the database manager 346 may generate, search for, or change a database to be used by at least one of the applications 370.
  • the package manager 347 may manage installation or update of an application distributed in the form of a package file.
  • the connection manager 348 may manage, for example, a wireless connection such as WiFi or Bluetooth. Notification manager 349 may display or notify events such as arrival messages, appointments, proximity notifications, and the like in a manner that does not disturb the user.
  • the location manager 350 manages location information of the electronic device.
  • the graphic manager 351 may manage graphic effects to be provided to the user or a user interface related thereto.
  • the security manager 352 may provide various security functions required for system security or user authentication. According to an embodiment of the present disclosure, when the electronic device (eg, the electronic device 101) includes a telephone function, the middleware 330 may further include a telephone manager for managing a voice or video call function of the electronic device.
  • the middleware 330 may include a middleware module that forms a combination of various functions of the above-described components.
  • the middleware 330 may provide modules specialized according to types of operating systems in order to provide differentiated functions.
  • the middleware 330 may dynamically delete some of the existing components or add new components.
  • API 360 (eg, API 145) is, for example, a set of API programming functions and may be provided in different configurations depending on the operating system. For example, in the case of Android or iOS, one API set may be provided for each platform, and in the case of Tizen, two or more API sets may be provided for each platform.
  • Application 370 (e.g., application program 147) is, for example, home 371, dialer 372, SMS / MMS 373, instant message (IM) 374, browser 375, camera 376, alarm 377, contact 378, voice dial 379, e-mail.
  • IM instant message
  • 380 calendar 381, media player 382, album 383, watch 384, health care (e.g. to measure exercise or blood sugar), or provide environmental information (e.g. barometric pressure, humidity, or temperature) It may include one or more applications that can perform a function such as).
  • the application 370 may be an application that supports information exchange between an electronic device (eg, the electronic device 101) and an external electronic device (eg, the electronic devices 102 and 104).
  • Information exchange application ").
  • the information exchange application may include, for example, a notification relay application for delivering specific information to an external electronic device, or a device management application for managing the external electronic device.
  • the notification delivery application may include notification information generated by another application of the electronic device (eg, an SMS / MMS application, an email application, a health care application, or an environmental information application). , 104)). Also, the notification delivery application may receive notification information from an external electronic device and provide the notification information to a user, for example.
  • another application of the electronic device eg, an SMS / MMS application, an email application, a health care application, or an environmental information application. , 104)
  • the notification delivery application may receive notification information from an external electronic device and provide the notification information to a user, for example.
  • the device management application may, for example, turn at least one function of an external electronic device (eg, the electronic devices 102 and 104) in communication with the electronic device (eg, turn on the external electronic device itself (or some component part). Turn-on / turn-off or adjust the brightness (or resolution) of the display, applications that operate on an external electronic device, or services provided by an external electronic device, such as call or message services Etc.) can be managed (e.g., installed, deleted, or updated).
  • the application 370 may include an application (eg, a health care application of a mobile medical device) specified according to an external electronic device (eg, an attribute of the electronic devices 102 and 104).
  • the application 370 may include an application received from an external electronic device (for example, the server 106 or the electronic devices 102 and 104).
  • the application 370 may include a preloaded application or a third party application downloadable from a server.
  • the names of the components of the program module 310 according to the shown embodiment may vary depending on the type of operating system.
  • At least a part of the program module 310 may be implemented in software, firmware, hardware, or a combination of two or more thereof. At least some of the program module 310 may be implemented (for example, executed) by, for example, a processor (for example, the processor 210). At least some of the program module 310 may include, for example, a module, a program, a routine, sets of instructions, or a process for performing one or more functions.
  • module may refer to a unit that includes one or a combination of two or more of hardware, software, or firmware.
  • a “module” may be interchangeably used with terms such as, for example, unit, logic, logical block, component, or circuit.
  • the module may be a minimum unit or part of an integrally constructed part.
  • the module may be a minimum unit or part of performing one or more functions.
  • the “module” can be implemented mechanically or electronically.
  • a “module” is one of application-specific integrated circuit (ASIC) chips, field-programmable gate arrays (FPGAs), or programmable-logic devices that perform certain operations, known or developed in the future. It may include at least one.
  • ASIC application-specific integrated circuit
  • FPGAs field-programmable gate arrays
  • At least a portion of an apparatus (eg, modules or functions thereof) or method (eg, operations) may be, for example, computer-readable storage media in the form of a program module. It can be implemented as a command stored in. When the command is executed by a processor (eg, the processor 120), the one or more processors may perform a function corresponding to the command.
  • the computer-readable recording medium may be, for example, the memory 130.
  • Computer-readable recording media include hard disks, floppy disks, magnetic media (e.g. magnetic tape), optical media (e.g. compact disc read only memory), DVD ( digital versatile discs, magneto-optical media (e.g. floptical disks), hardware devices (e.g. read only memory, random access memory (RAM), or flash memory)
  • the program instructions may include not only machine code generated by a compiler, but also high-level language code executable by a computer using an interpreter, etc.
  • the hardware device described above may be various. It can be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
  • Modules or program modules according to various embodiments of the present disclosure may include at least one or more of the aforementioned components, some of them may be omitted, or may further include additional other components.
  • Operations performed by a module, program module, or other component according to various embodiments of the present disclosure may be executed in a sequential, parallel, repetitive, or heuristic manner.
  • some operations may be executed in a different order, may be omitted, or other operations may be added.
  • the embodiments disclosed in this document are presented for the purpose of explanation and understanding of the disclosed, technical content, it does not limit the scope of the technology described in this document. Accordingly, the scope of this document should be construed as including all changes or various other embodiments based on the technical spirit of this document.
  • an electronic device capable of operating a display by dividing a display area into a main area and a sub area may perform image processing for the main area and the sub area in a main processor (eg, an AP) and a subprocessor.
  • a main processor e.g. an AP
  • a subprocessor e.g., display control circuit (e.g., DDI, Display Driver IC)
  • DDI Display Driver IC
  • a main area e.g. display the standard resolution (e.g. 16: 9) through the front area
  • the subprocessor displays additional images (e.g. virtual images) through the sub-area (e.g. You can make it look larger (e.g. 16:10, 16:11, etc.) and make the bezel area look minimal.
  • a device may include an application processor (AP), a communication processor (CP), and a GPU such as all information communication devices, multimedia devices, wearable devices, and application devices that support the display function. and any device using one or more of a variety of processors, such as a graphics processing unit (CPU) and a central processing unit (CPU).
  • AP application processor
  • CP communication processor
  • GPU graphics processing unit
  • CPU central processing unit
  • FIG. 4 is a diagram illustrating an example of an electronic device having a bent display according to various embodiments of the present disclosure.
  • the electronic device includes a bent display 400, a housing (or main body) 450 on which the bend display 400 is seated and fastened, and an additional device formed in the housing 450 to perform a function of the electronic device.
  • the accessory device may include a first speaker 401, a second speaker 403, a microphone 405, a sensor (eg, front camera module 407, an illuminance sensor 409, etc.), a communication interface (eg, charging or data input / output (Input / Output) port 411, audio input / output port 413, etc.), button 415, and the like.
  • an electronic device having a bent display 400 is described as an example, but is not limited thereto.
  • the electronic device may include an electronic device having a flexible display or a flat panel display capable of operating the display area as a main area and a sub area.
  • the bented display 400 may bend, bend or roll without damage through a paper-thin and flexible substrate.
  • the bent display 400 may be fastened to the housing 450 to maintain a bent shape.
  • the electronic device may be implemented as a display device that can be bent and detached like a flexible display, including a bent display 400.
  • Bended Display 400 is a glass that wraps liquid crystals in liquid crystal displays (LCDs), light emitting diodes (LEDs), organic light emitting diodes (OLEDs), and active OLEDs (AMOLEDs).
  • the substrate can be replaced with a plastic film, giving it the flexibility to fold and unfold.
  • the bented display 400 may have a specific screen size (eg, 3 inches, 4 inches, 4.65 inches, 4.8 inches, 5 inches, 6.5 inches, 7.7 inches, 8.9 inches, 10.1 inches, etc.) depending on the size of the electronic device. It may have an active matrix screen.
  • a radius of curvature may be extended to at least one side of the electronic device (eg, at least one of a left side, a right side, an upper side, and a bottom side) to operate the bent display 400. (Eg, a radius of curvature of 5 cm, 1 cm, 7.5 mm, 5 mm, 4 mm, etc.) can be folded and fastened to the side of the housing 450.
  • the bent display 400 according to various embodiments may be implemented in a right angle shape without a radius of curvature.
  • an area appearing in front of the bent display 400 is called a main area 416, and extends from the main area 416 to extend at least one side surface of the housing 450 (eg, reference numerals 10 and 20 of FIG. 4).
  • the region bent to the side of the housing 450 may be referred to as a sub region 420.
  • the main area 416 and the sub area 420 are divided for convenience of description and do not mean a physically separated form.
  • the main region 416 and the sub region 420 have a shape in which at least one end is bent, and the at least one bent end is implemented by one bent display 400 extending to at least one side of the electronic device. Can be.
  • at least one end bent according to an implementation manner may be extended to the rear surface of the electronic device.
  • image processing by the main area 416 may be performed by a processor (eg, an AP) of the electronic device.
  • the sub area 420 may be displayed on a display panel (not shown) in the electronic device. It may be in charge of a display control circuit (eg, a display driver circuit (DDI)) provided as an electrical signal (eg, a multi high voltage level (MHVL) signal), in various embodiments, the main area 416 and the sub.
  • Image processing for the area 420 may be distributed and processed by the processor and the display control circuit, thereby reducing the current consumption of the processor that is consumed for image processing for the display.
  • a display control circuit eg, a display driver circuit (DDI)
  • an electrical signal eg, a multi high voltage level (MHVL) signal
  • the bent display 400 may support inputs and outputs, and may simultaneously or separately process inputs and outputs of the main area 416 and the sub area 420.
  • examples of image processing operations for the main area 416 and the sub area 420 will be described with reference to the following drawings.
  • the processor may set the main area 416 as a single color (for example, black).
  • the display device may not output the main area 416 and the sub area 420 by cutting off the power supply to the main area 416.
  • the display control circuit may process and display an image for display in the sub area 420 according to the operation of the sub area 420.
  • the right hand mode and the left hand mode of the electronic device may be defined by using an environment setting provided by the electronic device, a separate application, or a grip state detection of the user.
  • the electronic device may also process the input and output using only the sub area 420 of the side corresponding to the corresponding mode. For example, in the example of FIG. 4, when the electronic device is set to the right hand mode, an input and an output are performed through the sub area 420 of the right side 10, and when the electronic device is set to the left hand mode, the input and output are performed through the sub area 420 of the left side 20. Can be done.
  • 5A is a diagram schematically illustrating a configuration of an electronic device according to various embodiments of the present disclosure.
  • an electronic device 500 may include a wireless communication unit 510, a user input unit 520, a touchscreen 530, an audio processor 540, a memory 550, an interface unit 560, a camera module 570, and a controller. 580 (or processor), and a power supply 590.
  • the electronic device 500 since the components illustrated in FIG. 5A are not essential, the electronic device 500 may be implemented to have more or fewer components than those illustrated in FIG. 5A.
  • the wireless communication unit 510 may have the same or similar configuration as the communication module 220 of FIG. 2.
  • the wireless communication unit 510 may include one or more modules that enable wireless communication between the electronic device 500 and another external electronic device.
  • the wireless communication unit 510 may include a mobile communication module 511, a wireless local area network (WLAN) module 513, a short range communication module 515, and a location calculation module 517.
  • the wireless communication unit 510 may include a module (eg, a short range communication module, a telecommunication module, etc.) for communicating with a peripheral external electronic device.
  • the mobile communication module 511 may have the same or similar configuration as the cellular module 221 of FIG. 2.
  • the mobile communication module 511 is a base station, an external electronic device (eg, the electronic device 104), and various servers (eg, an integration server, a provider server, a content server, and a content server in a mobile communication network. ), An internet server, a cloud server, or the like, may transmit and receive a wireless signal.
  • the wireless signal may include a voice signal, a data signal, or various types of control signals.
  • the mobile communication module 411 may transmit various data necessary for the operation of the electronic device 500 to an external device (for example, the server 106 or the other electronic device 104) in response to a user request.
  • the WLAN module 513 may have a configuration that is the same as or similar to that of the WiFi module 223 of FIG. 2.
  • the WLAN module 513 may represent a module for establishing a wireless LAN link with a wireless Internet connection and another external electronic device (for example, the electronic device 102 or the server 106).
  • the WLAN module 513 may be embedded or external to the electronic device 500.
  • Wireless internet technologies may include wireless fidelity (WiFi), wireless broadband (Wibro), world interoperability for microwave access (WiMax), high speed downlink packet access (HSDPA), or millimeter wave (mmWave).
  • the WLAN module 513 transmits various data of the electronic device 500 to an external device (for example, an external electronic device or a server) in cooperation with another external electronic device connected to the electronic device 500 through a network (for example, a wireless Internet network). Or from the outside.
  • the WLAN module 513 may be always on, or may be turned on or turned off according to a setting of the electronic device 500 or a user input.
  • the short range communication module 515 may represent a module for performing short range communication.
  • Near field communication technologies include Bluetooth, Bluetooth low energy (BLE), radio frequency identification (RFID), infrared data association (IrDA), ultra wideband (UWB), Zigbee, or NFC ( near field communication).
  • the short range communication module 515 may interwork with other external electronic devices connected to the electronic device 500 through a network (for example, a short range communication network) to transmit or receive various data of the electronic device 500 to the external electronic device.
  • the short range communication module 515 may maintain the always on state or may be turned on or off according to a setting of the electronic device 500 or a user input.
  • the location calculation module 517 may have the same or similar configuration as the GNSS module 227 of FIG. 2.
  • the position calculation module 517 is a module for acquiring a position of the electronic device 500, and a representative example may include a global position system (GPS) module.
  • GPS global position system
  • the location calculation module 517 may measure the location of the electronic device 500 on the basis of triangulation.
  • the user input unit 520 may generate input data for controlling the operation of the electronic device 500 in response to a user input.
  • the user input unit 520 may include at least one input means for detecting various inputs of a user.
  • the user input unit 520 may include a keypad, a dome switch, a physical button, a touch pad (static pressure / capacitance), a jog & shuttle, and a sensor (eg, a sensor module 240). And the like.
  • the user input unit 520 may be partially implemented in the form of a button on the outside of the electronic device 500, or may be partially or entirely implemented as a touch panel.
  • the user input unit 520 may receive a user input for initiating an operation of the electronic device 500 (eg, a display processing operation by dividing a main area and a sub area) according to various embodiments of the present disclosure.
  • An input signal may be generated according to a user input.
  • the touch screen 530 represents an input / output device capable of simultaneously performing an input function and a display function, and may include a display 531 (eg, the display 160 and 260) and a touch sensing unit 533.
  • the touch screen 530 may provide an input / output interface between the electronic device 500 and the user, may transmit a user's touch input to the electronic device 500, and may include a mediator that shows the output from the electronic device 500 to the user.
  • the touch screen 530 may show a visual output to the user.
  • the visual output may be in the form of text, graphics, video, and combinations thereof.
  • the display 531 may display (output) various information processed by the electronic device 500.
  • the display 531 may display various user interfaces (UI) or graphical user interfaces (GUI) related to the use of the electronic device 500.
  • UI user interfaces
  • GUI graphical user interfaces
  • the display 531 may use various displays (eg, display 160).
  • the display 531 may be a bent display.
  • the display 531 may include a display control circuit (eg, DDI, Display Driver IC) that provides an electrical signal (eg, a multi high voltage level (MHVL) signal) to a display panel (not shown) ( Not shown).
  • the display control circuitry is an essential component of the composition of the display 531.
  • the display control circuitry may provide driving signals and data to the display 531 so that an image (eg, text, picture, still image, video, etc.) is displayed on the screen.
  • an MHVL signal can be used to represent a circuit driving various types of displays such as LCD, PDP, and OLED.
  • the touch sensing unit 533 may be mounted on the display 531 and sense a user input of touching or approaching the surface of the touch screen 530.
  • the user input may include a touch event or a proximity event input based on at least one of single-touch, multi-touch, hovering, or air gesture.
  • the touch sensing unit 533 may receive a user input for starting an operation related to the use of the electronic device 500 and generate an input signal according to the user input in various embodiments of the present disclosure.
  • the audio processor 540 may have a configuration that is the same as or similar to that of the audio module 280 of FIG. 2.
  • the audio processor 540 transmits an audio signal input from the controller 580 to a speaker 541 and transmits an audio signal such as a voice input from a microphone 543 to the controller 580.
  • the audio processor 540 may convert the voice / sound data into an audible sound through the speaker 541 under the control of the controller 580, and may convert an audio signal such as a voice received from the microphone 543 into a digital signal and transmit the converted audio signal to the controller 580.
  • the speaker 541 may output audio data received from the wireless communication unit 510 or stored in the memory 550.
  • the speaker 541 may output sound signals related to various operations (functions) performed by the electronic device 500.
  • the microphone 543 may receive an external sound signal and process the same as electrical voice data. Various noise reduction algorithms may be implemented in the microphone 543 to remove noise generated while receiving an external sound signal.
  • the microphone 543 may be responsible for input of an audio stream, such as a voice command (eg, a voice command for starting display processing by dividing the main area and the sub area).
  • the memory 550 may store one or more programs executed by the controller 580 and perform a function for temporarily storing input / output data. You may.
  • the input / output data may include, for example, a file such as a video, an image, a photo, and the like.
  • the memory 550 is responsible for storing the obtained data, and the data obtained in real time may be stored in a temporary storage device, and data determined to be stored may be stored in a storage device that can be stored for a long time.
  • the memory 550 may store one or more programs and data related to executing a display function by dividing a main area and a sub area of the display 531 of the electronic device 500.
  • the memory 550 may be configured to determine image processing of a main area by a processor (eg, an AP) and image processing of a sub area by a display control circuit (eg, DDI) in various embodiments of the present disclosure. Instructions may be stored.
  • the memory 550 may include one or more application modules (or software modules).
  • the application module may include instructions for displaying data based on a main area and a sub area of the display 531.
  • the interface unit 560 may have the same or similar configuration as the interface 270 of FIG. 2.
  • the interface unit 560 may receive data from another external electronic device or receive power and transfer the power to each of the components of the electronic device 500.
  • the interface unit 560 may transmit data inside the electronic device 500 to another external electronic device.
  • wired / wireless headset port, external charger port, wired / wireless data port, memory card port, audio input / output port, video input / output port, earphone port And the like may be included in the interface unit 560.
  • the camera module 570 (eg, the camera module 291) represents a configuration supporting the capturing function of the electronic device 500.
  • the camera module 570 may photograph an arbitrary subject under the control of the controller 580, and transfer the photographed data (eg, an image) to the display 531 and the controller 580.
  • the controller 580 may control overall operations of the electronic device 500.
  • the controller 580 may have the same or similar configuration as the processor 210 of FIG. 2.
  • the controller 580 may detect the start of an operation of displaying a specific image on the display 531. For example, the controller 580 may determine that the operation is started for the display in response to the detection of an image display request by a user or the detection of a turn-on of the display 531.
  • the controller 580 checks an image transfer method in response to the start of the display operation and transfers a full resolution (eg, 2560 * 1600) image (eg, an image for an entire display area including a main area and a sub area).
  • the controller 580 may refer to the setting information stored in advance in the memory 550 to determine whether the image is delivered by image processing corresponding to the full resolution (for example, 2560 * 1600) or the image fits in the main area (for example, 2560 * 1440). It can be determined whether the image is delivered by processing.
  • a light resolution (eg, 2560 * 1440) image eg, an image for a portion of the entire display area (eg, the main area)
  • the controller 580 may refer to the setting information stored in advance in the memory 550 to determine whether the image is delivered by image processing corresponding to the full resolution (for example, 2560 * 1600) or the image fits in the main area (for example, 2560 * 1440). It can be determined whether the image is delivered by processing.
  • the controller 580 determines to deliver a full resolution (eg 2560 * 1600) image
  • the controller 580 generates a full resolution image through image processing for display by the full resolution image, and displays the full resolution image and the full resolution image for display.
  • Control information may be transferred to a display control circuit (eg, DDI).
  • the controller 580 determines the light resolution (eg, 2560 * 1440) image transmission, the controller 580 generates a light resolution image through image processing for display by the light resolution image, and generates a light resolution image (eg, an image for the main area). ) And control information for displaying the light resolution image may be transmitted to the display control circuit (eg, DDI).
  • the control information for the display of the light resolution image may include information related to image processing for the sub area, in addition to the display information for the main area.
  • the controller 580 may include one or more processors for controlling the operation of the electronic device 500.
  • the controller 580 may control operations of hardware modules such as the interface unit 560 and the display 531. The control operation of the controller 580 according to various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
  • the controller 580 may perform an image processing operation for the display of the electronic device 500 according to various embodiments of the present disclosure in cooperation with software modules stored in the memory 550. According to various embodiments of the present disclosure, the controller 580 executes one or more programs stored in the memory 550 to control one or more processors (one or more) that control the operation of the electronic device 500 according to various embodiments of the present disclosure. or more processors).
  • the power supply unit 590 may receive an external power source or an internal power source under the control of the controller 580 to supply power for operation of each component.
  • the power supply unit 590 may supply or turn off (on / off) power to the display 531, the camera module 570, and the like under the control of the controller 580.
  • Various embodiments described in the present invention can be implemented in a recording medium that can be read by a computer or similar device using software, hardware or a combination thereof.
  • 5B is a diagram schematically illustrating a configuration of an electronic device for processing a display according to various embodiments of the present disclosure.
  • image processing for the first area (main area) and the at least one second area (sub area) of the display 800 may be shared. The operation of processing is described.
  • an electronic device 500 may include a first processor 600, a second processor 700, a display 800, and a memory 900.
  • the display 800 is exposed to one surface of a housing (eg, 450 of FIG. 4) of the electronic device 500, and has a flat first area (eg, a main area of the front of the electronic device 500), and the first display. It may include a second region (eg, a sub region of the side of the electronic device 500) extending at least partially from one region. According to various embodiments of the present disclosure, the display 800 may display a screen by dividing the first area from the second area. In various embodiments, the second area may use an edge portion of the bent display, a folding surface in the flexible display, or a sub area separated in the flat display.
  • the first processor 600 may have the same or similar configuration as the processor 210 of FIG. 2 or the controller 580 of FIG. 5A.
  • the first processor 600 may be implemented as an application processor (AP).
  • AP application processor
  • the first processor 600 may process to display a screen in a first area of the display 800 or in a first area and a second area of the display 800 in response to a user setting.
  • the first processor 600 may determine a display method based on a display use setting of the user (for example, whether at least one second area of the display 800 is used). When determining the use of the first area, the first processor 600 may perform image processing for the display corresponding to the first area and generate control information accordingly.
  • the first processor 600 may perform image processing for the display corresponding to the first area and the second area, and generate control information accordingly.
  • the first processor 600 may transfer the processed image and the control information to the second processor 700.
  • the first processor 600 may further include a screen processing determiner 650 that determines whether the display is performed by the first area or the display by the first area and the second area.
  • the second processor 700 may be implemented by, for example, a display driver integrated circuit (DDI).
  • the second processor 700 may receive control information for image and display processing from the first processor 600.
  • the second processor 700 may determine a display scheme based on the received control information.
  • the second processor 700 may transfer the received image to the display 800 as it is.
  • the second processor 700 when the second processor 700 determines the display by the second area of the display 800 based on the control information, specific processing for the second area based on the control information (pixel extension, Virtual images may be generated by gradation or blur.
  • the second processor 700 may transmit the image for the first area and the specific processed virtual image received from the first processor 600 to the display 800.
  • the second processor 700 may include an interface 710, a memory 720, a decoder 730, an image quality corrector 740, a brightness compensator 750, a screen compensator 760, and the like.
  • the interface 710 may include, for example, a serial interface (eg, MIPI DSI, Mobile Industry Processor Interface Display Serial Interface). According to various embodiments of the present disclosure, the interface 710 may process a command (eg, control information) and data (eg, an image) transmission with the first processor 600 (eg, the screen processing determiner 650).
  • a command eg, control information
  • data eg, an image
  • the memory 720 may include, for example, a frame buffer. According to various embodiments of the present disclosure, the memory 720 may record (for example, buffer) the image transmitted through the interface 710 (for example, display the screen display area), and may refer to a video buffer, video memory, video RAM, or the like. Can be used.
  • Decoder 730 may, for example, convert the coded image to its original form.
  • the image quality correction unit 740, the brightness correction unit 750, and the screen correction unit 760 may process image quality, brightness, or screen correction of an image to be displayed on the display 800.
  • the memory 900 may have the same or similar configuration as the memory 230 of FIG. 2 or the memory 550 of FIG. 4. According to various embodiments of the present disclosure, the memory 900 may be implemented as at least one memory electrically connected to at least one of the at least two processors (eg, the first processor 600 and the second processor 700) (eg, the first processor 600). have.
  • the memory 900 may store first instructions that, when executed, cause the first processor 600 of the at least two processors to display a screen in the first area and the second area of the display 800. According to various embodiments of the present disclosure, the memory 900 may, when executed, cause the second processor 700 of the at least two processors not to display a screen in the first area of the display 800 and to display the screen in the second area of the display 800. May store second instructions.
  • the memory 900 may include a first memory (not shown) and a second memory (not shown) for storing first instructions and second instructions.
  • the second memory storing the second instructions may be implemented as a memory 720 disposed in the second processor 700.
  • power consumed by the second instructions 700 by the second instructions may be smaller than power consumed by the first processor 600 by the first instructions. It is demonstrated in the description with reference to ⁇ Table 1> which will be described later.
  • an electronic device may include a housing; A display including a first area exposed on one surface of the housing, the first area being flat, and a second area extending from the first area and at least partially curved; A second processor electrically connected with the display; A first processor electrically connected with the second processor; And at least one memory electrically coupled with at least one of the first processor or the second processor;
  • the at least one memory includes: first instructions that, when executed, cause the first processor to process data to be displayed in a first area of the display and provide it to the second processor; And store second instructions for processing the data provided from the first processor to generate data to be displayed in a second area of the display.
  • the first processor may include an application processor
  • the second processor may be configured to include a display driver integrated circuit.
  • a first memory of the at least one memory may store the first instructions
  • a second memory of the at least one memory may be configured to store the second instructions.
  • the second memory may be configured to be disposed in the second processor.
  • the power consumed by the second instructions by the second instructions may be less than the power consumed by the first instructions by the first instructions.
  • the at least one memory is configured to, when executed, store the second instructions that cause the second processor to display a screen in the second area without displaying the screen in the first area. can do.
  • the first processor may determine whether to deliver a full resolution image or a light resolution image in response to initiation of displaying a specific image, and generate image and control information corresponding to the determined image transfer method. It can be configured to deliver to the display control circuit.
  • the first processor when determining a full resolution image transfer, the first processor generates control information for displaying a full resolution image, and generates a full resolution image through image processing for display by the full resolution image.
  • control information for displaying the light resolution image may be generated, and the light resolution image may be generated through image processing for display by the light resolution image.
  • the second processor when receiving the image and the control information for the display from the first processor, the second processor may be configured to determine whether the image is a full resolution image or a light resolution image based on the control information. . In various embodiments, the second processor transmits the received full resolution image to the display without image processing in the case of a full resolution image, and after receiving a specific image process in the case of a light resolution image, the received image and the processed image are displayed on the display. Can be configured to deliver.
  • the second processor may be configured to determine image processing for the sub area when the received image is a light resolution image. According to various embodiments of the present disclosure, if the second processor determines that the image is a light resolution image, the second processor determines an image processing scheme to be displayed through the sub-region based on the control information, and applies the at least part of the received image corresponding to the determined processing scheme. It can be configured to perform image processing based on.
  • the second processor determines whether image processing for the sub region is necessary based on control information, and when determining the image processing, the second processor and the virtual region for processing the virtual image based on the control information. It can be configured to determine the image processing method for the image. In various embodiments, the second processor is configured to generate at least one virtual image for the sub-region using a light resolution image received from the first processor through a specific process for the sub-region on either side or on one side. It can be configured to deliver light resolution images and virtual images to the display.
  • an electronic device including a display divided into a main area and a sub area includes a main area on a front side and a sub area on a side thereof, and the image received from the display control panel is included in at least a portion of the main area and sub areas.
  • a display based on the display;
  • a processor configured to process a full resolution image corresponding to the main area and the sub area, or a write resolution image corresponding to the main area and transmit the same to a display control circuit;
  • a display control circuit configured to transfer the full resolution image transmitted from the processor to a display, or to process the virtual image for the sub-area, and to transmit the light resolution image and the virtual image transferred from the processor to the display.
  • an electronic device may include a housing; A display including a first area exposed on one surface of the housing and extending to bend at least a portion from the first area; At least two processors electrically connected to the display; At least one memory electrically coupled with at least one of the at least two processors; The at least one memory stores, when executed, first instructions that cause a first of the at least two processors to display a screen in the first area and the second area, and the at least one memory
  • the second processor may be configured to store second instructions for displaying a screen in the second area without displaying a screen in the first area.
  • 6 and 7 are diagrams for describing a display operation of an electronic device according to various embodiments of the present disclosure.
  • the electronic device supports a full resolution of 2560 * 1600
  • the front main area supports a resolution of 2560 * 1440
  • each of the sub-areas of both sides supports a resolution of 2560 * 80.
  • the sum of the resolution of the main area and the resolution of the sub area corresponds to the full resolution.
  • the numerical value of the resolution is not merely used to describe a specific embodiment or for convenience of description, but may be variously implemented according to characteristics of a display or an electronic device.
  • an electronic device to which a bent display is applied may make a screen larger by using a sub area when a landscape or portrait mode is used. For example, suppose you support 2560 * 1440 resolution through the main area on the front, and you expand the 2560 * 80 resolution through the sub-areas on both sides to expand the entire 2560 * 1600 (e.g. 2056 * (1440 + 80 + 80)). For example, the sub-regions on both sides may be used to extend 160 pixels, or the sub-regions on either side may be used to extend 80 pixels.
  • the display of the main area may be processed by an application processor (AP) 600, and the display of the sub areas may be processed by a display driver IC (DDI) 700.
  • AP application processor
  • DPI display driver IC
  • the AP 600 performs image processing for the resolution 2560 * 1440 of the main area in front of the image for display, not image processing for the full resolution 2560 * 1600, and performs image processing.
  • the first image for example, 2560 * 1440 resolution image
  • the DDI 700 when the first image (light resolution image) corresponding to the resolution 2560 * 1440 of the main area is transferred from the AP 600, a second image (virtual image) for displaying through the sub areas based on the transferred first image (E.g., at least one 2560 * 80 image).
  • the DDI 700 may make the screen larger by performing specific processing on the sub areas.
  • the DDI 700 may display the second image in the sub area through specific processing such as pixel extension, gradation, blur, etc. based on the first image.
  • the electronic device when an electronic device displays a lock screen, the Internet, or a specific image, the electronic device may correspond to a usage scenario for a bent display (eg, a main area and a sub area), and may include a main area and a sub area.
  • Image processing for can be processed independently by distinguishing it from AP 600 and DDI 700.
  • the AP 600 may transmit a full resolution image (eg, 2560 * 1600 image) to the DDI 700, and when the DDI 700 receives the full resolution image from the AP 600, Full resolution images can be delivered to the display 800 without any image processing for the area.
  • a full resolution image eg, 2560 * 1600 image
  • the display 800 may display an image transmitted from the DDI 700 through a main area or a main area and at least one sub area.
  • FIG 8, 9, 10, and 11 are diagrams illustrating an example of displaying an image using a main area and a sub area in an electronic device according to various embodiments of the present disclosure.
  • the electronic device provides a full resolution of 2560 * 1600 by a bent display.
  • the resolution of the bent display may be divided into the resolution of the main area 810 (eg, 2560 * 1440) and the resolution of the sub areas 820 and 830 (eg, 2560 * (80 * 2)), and each resolution.
  • the full resolution may be determined by the sum of these.
  • the AP 600 processes only 2560 * 1440 images for the main area 810 and transfers the image to the DDI 700, the remaining 160 pixels (for example, 80 pixels of the first sub-area 820 and 80 pixels of the second sub-area 830). ) Can be processed by the DDI 700 to display a full 2560 * 1600 image.
  • the AP 600 responds to a user's display usage setting (eg, all sub-areas). Images for 1440 (main area 810) and control information (for example, use of all sub areas) may be transmitted.
  • the DDI 700 may randomly process sub-regions 2560 * 160 on both sides 820 and 830 based on control information to provide an effect of displaying a 2560 * 1600 image.
  • the arbitrary processing on the sub areas 820 and 830 may be processed based on at least a portion of an image (eg, 2560 * 1440 image) transferred for the main area 810 in the DDI 700.
  • the DDI 700 may include a first sub-area 820 through specific processing (eg, pixel extension, gradation, or blur) in the left and right edge portions of the transferred image. And an image for the second sub area 830.
  • the AP 600 processes only 2560 * 1440 images for the main area 810 and transfers the image to the DDI 700
  • the remaining 80 pixels for example, 80 pixels of the first sub-area 820 determined based on control information
  • 80 pixels of two sub-areas 830 can be processed by the DDI 700 to display a full 2560 * 1520 image.
  • the AP 600 is configured to display 2560 * 1440 (main area 810) in response to a user's display use setting (for example, left or right use of a sub area). You can pass the image and its control information (for example, using the left or right side of the sub area).
  • the DDI 700 may randomly process the subregion 2560 * 80 (eg, the first subregion 820 or the second subregion 830) on either side based on the control information to display a 2560 * 1520 image. Can provide an effect.
  • FIG. 10 an example of a case where 80 pixels of the second sub area 830 is arbitrarily processed and displayed based on the control information may be illustrated.
  • the arbitrary processing on the second sub-region 830 may be performed based on at least a portion of an image (for example, 2560 * 1440 image) transmitted for the main region 810 in the DDI 700.
  • the DDI 700 is configured for the second sub-region 830 through a specific process (eg, pixel extension, gradation or blur, etc.) at the left edge portion of the transferred image.
  • a specific process eg, pixel extension, gradation or blur, etc.
  • the AP 600 processes only 2560 * 1440 images for the main area 810 and transfers the image to the DDI 700, the remaining 160 pixels (for example, 80 pixels of the first sub-area 820 and 80 pixels of the second sub-area 830).
  • the entire 2560 * 1440 image can be displayed without any additional processing.
  • the AP 600 displays an image for 2560 * 1440 (main area 810) corresponding to the user's display usage setting (for example, sub-area not used) and the corresponding image.
  • Control information eg, no sub area
  • the DDI 700 may provide an effect of displaying a 2560 * 1440 image without any arbitrary processing on the sub areas 820 and 830 based on the control information.
  • the AP 600 processes a full resolution 2560 * 1660 image of a bent display and transmits the same to the DDI 700.
  • the 2560 * 1600 image is processed without additional processing of the sub-regions 820 and 830. Can be delivered to the display 800.
  • the subdivisions 820 and 830 may operate independently in the DDI 700.
  • the DDI 700 may process the sub areas 820 and 830 independently of the main area 810 based on the control information received from the AP 600.
  • the DDI 700 may turn on all of the sub-regions 820 and 830 (eg, see FIG. 9).
  • the DDI 700 may turn on only a sub region of one side of the sub regions 820 and 830 (eg, the second sub region 830 of FIG. 10), and the sub region of the other side (eg, The first sub area 820 of FIG. 10 may be processed to be off.
  • the DDI 700 may turn off all of the subregions 820 and 830 (eg, see FIG. 11).
  • the image processing for the display of the display 800 is distributed through the AP 600 and the DDI 700, and according to the full resolution image processing in the AP 600.
  • the consumption current consumed can be reduced. For example, as shown in the example in Table 1 below, when the image processing for the sub area is processed by the DDI 700 instead of the AP 600, the current consumption is reduced as compared to when the AP 600 processes the full resolution image. can do.
  • the AP 600 when the AP 600 processes the image alone, the AP 600 consumes 324.78 mW and the DDI 700 consumes 194.5 mW.
  • the current consumption of the AP 600 when the image processing is distributed in the AP 600 and the DDI 700, the current consumption of the AP 600 may be 24.78 mW and the current consumption of the DDI 700 may be 199.5 mW.
  • the same power consumption may occur as 823.1 mW regardless of single processing or distributed processing.
  • the power consumed in the DDI 700 may be smaller than the power consumed in the AP 600.
  • a gain of 295 mW can be seen at the total current consumption.
  • the burden on the current consumption due to the image processing may be reduced, and the degree of freedom of UI or UX implementation is correspondingly Can increase.
  • the UX may be classified into a screen that requires a specific process or a screen that does not need the sub area, and the sub area may be processed by the DDI 700 and displayed according to the divided UX.
  • the UX in which the image is displayed may be provided only through the main area instead of the entire area of the display area. Since the AP 600 performs only image processing (eg, light resolution image) for the main area, current consumption can be reduced as compared to image processing (eg, full resolution image) for the main area and the sub area.
  • image processing eg, full resolution image
  • the image processing according to the control information separately from the image of the main area for the sub area in the DDI 700 (eg, pixel extension).
  • the image is provided by a gradation, blur, etc.
  • the power consumed in the DDI 700 is lower than the power consumed in the AP 600, so that the current consumption can be reduced together with the visual effect.
  • FIG. 12 is a diagram illustrating a display processing operation in an electronic device according to various embodiments of the present disclosure.
  • the AP 600 may determine an operation initiation of displaying a specific image. For example, the AP 600 may detect a specific image display request by a user or detect that the display 800 is turned on in an off state. The AP 600 may determine that an operation for displaying an image is started in response to detecting an image display request or turning on the display 800.
  • the AP 600 may determine an image transfer method.
  • the user may use the display settings of the electronic device to configure the use of the main area and the sub area (or set the power saving mode), the setting of the sub area to be used when the sub area is used (for example, use all sub areas, The use of the left subarea, the use of the right subarea, and no use of the subarea can be set in advance.
  • the user may set an image type (or category) to be displayed by distinguishing the main area from the sub area.
  • the electronic device may determine a display in which the main area and the sub area are combined based on the setting information according to the display setting of the user.
  • the electronic device determines whether image processing for the main area (e.g., display method based on the main area) or image processing for the main area and sub area (e.g., full resolution display method of the bent display) based on the setting information. You can decide.
  • the AP 600 may generate an image and control information having a resolution corresponding to the delivery scheme.
  • the AP 600 may generate an image (eg, a full resolution image) through image processing corresponding to full resolution (eg, 2560 * 1600), and the image to be delivered is full.
  • Control information indicating the resolution image can be generated.
  • the AP 600 may generate an image (eg, a light resolution image) through image processing corresponding to the resolution of the main area (eg, 2560 * 1440), and the image to be transferred may be selected from the main area. Control information indicating that the image is a light resolution image can be generated.
  • the control information may include information indicating whether the DDI 700 processes the image for the sub area with respect to the image transmitted by the AP 600 to the DDI 700. Accordingly, the DDI 700 may determine whether to process an image of at least one sub region based on the control information. According to an embodiment of the present disclosure, the AP 600 may determine whether to transmit the image to 2560 * 1600 or the image to 2560 * 1440 based on the setting information set by the user.
  • the AP 600 may transfer image and control information to the DDI 700.
  • the AP 600 may transmit a full resolution image (eg 2560 * 1600 image) and its control information or light resolution image (eg 2560 * 1440 image) and its control information to the DDI 700.
  • the DDI 700 may determine whether to process the image based on the control information. For example, if the DDI 700 determines that the transferred image is a 2560 * 1600 image based on the control information, the DDI 700 may determine to directly transmit the image transferred from the AP 600 to the display 800 without image processing. If the DDI 700 determines that the image transmitted based on the control information is a 2560 * 1440 image, the DDI 700 transmits the processed image to the display 800 after image processing for the sub area based on the control information based on the image transmitted from the AP 600. Can be determined.
  • the DDI 700 may perform image processing corresponding to the control information based on the image transferred from the AP 600. For example, specific processing (eg, pixel extension, gradation, blur, etc.) may be performed according to the control information.
  • specific processing eg, pixel extension, gradation, blur, etc.
  • the DDI 700 may expand the delivered 2560 * 1440 image to 2560 * 1600 image.
  • the DDI 700 may process an image by extending pixels of edge portions of both sides in at least one side by a resolution (eg, 2560 * 80) of a subregion in a 2560 * 1440 image. Through the image processing, the DDI 700 may extend the 2560 * 1440 image in the sub area to provide an effect of displaying the 2560 * 1520 or 2560 * 1600 image.
  • the DDI 700 transfers an image (eg, 2560 * 1600 image) transmitted from the AP 600 to the display 800 as it is, or according to the image processing of the operation 1211, depending on whether the operation 1211 is performed.
  • Images processed for * 160 or 2560 * 80 e.g., 2560 * 1600 images or 2560 * 1520 images
  • the display 800 may receive an image from the DDI 700 and display the received image.
  • the display 800 may display an image (eg, 2560 * 1600 image) processed by the AP 600 through the entire area including the main area and the sub area.
  • the display 800 displays images processed by the AP 600 through the main area (e.g. 2560 * 1440 images) and displays images processed by the DDI 700 (e.g. 2560 * 160 images or 2560 * 80 images) through the sub area. This can provide the same effect as the actual 2560 * 1600 image or the 2560 * 1520 image being displayed.
  • FIG. 13 is a flowchart illustrating a display method in an electronic device according to various embodiments of the present disclosure.
  • FIG. 13 discloses a display method in a processor (eg, an AP 600) of the electronic device of FIG. 12 described above.
  • a processor eg, an AP 600
  • a processor may detect the start of an operation of displaying a specific image. For example, the processor may determine that the operation is started for the display in response to the detection of the image display request by the user or the detection of the turn-on of the display 800.
  • the processor may determine whether the image is delivered in full resolution by checking an image transfer scheme in response to the start of the display operation. For example, the processor may refer to the preset setting information to determine whether the image is delivered by image processing that fits a full resolution (eg, 2560 * 1600) or by image processing that fits the main area (eg, 2560 * 1440). You can decide if it is a delivery.
  • the processor may generate control information for display of the full resolution image. .
  • the processor may generate a full resolution image through image processing for display by the full resolution image, sequentially or in parallel with operation 1307.
  • the processor may deliver the full resolution image and control information to the DDI 700.
  • control information for may be generated.
  • the processor may generate the light resolution image through image processing for display by the light resolution image, sequentially or in parallel with operation 1311.
  • the processor may transmit the light resolution image and the control information to the DDI 700.
  • FIG. 14 is a flowchart illustrating a display method in an electronic device according to various embodiments of the present disclosure.
  • FIG. 14 discloses a display method in the above-described display control circuit (eg, DDI 700) of the electronic device of FIG. 12.
  • DDI 700 display control circuit
  • the display control circuit may receive an image and control information for display from a processor (eg, the AP 600).
  • the display control circuit may include a full resolution image (hereinafter, referred to as a full image) and control information or a light resolution image transmitted by the processor in response to the description in the description of FIG. 13 (eg, operation 1309 or operation 1313). (Hereinafter, referred to as a light image) and its control information can be received.
  • the display control circuit may perform image processing for the display based on the received image and the control information.
  • the display control circuit may determine whether the transferred image is a full image or a light image based on the received control information.
  • the display control circuit may determine whether to process the image in operation 1403 based on the determined result. According to an embodiment of the present disclosure, if it is determined that the display control circuit is a full image, image processing may be omitted. If it is determined that the display image is a light image, the display control circuit may determine an image processing method to be displayed through the sub area based on the control information, and determine the determined processing. Image processing may be performed based on at least a portion of the received image (eg, an edge portion of the image) corresponding to the scheme.
  • the display control circuitry may transfer the image to the display 800.
  • the display control circuit may transfer the received full image to the display 800 as it is without a separate image in the case of a full image, and after receiving a specific image in the case of a light image, for example, Image) and the processed image (eg, an image for at least one sub-region) may be transferred to the display 800.
  • FIG. 15 is a flowchart illustrating a display method in the display control circuit according to FIG. 14.
  • the display control circuit may check the display processing scheme based on the control information received from the processor (eg, the AP 600), and in operation 1503, may determine whether image processing is required. have. For example, the display control circuit may determine whether the image received from the processor is a full resolution image or a light resolution image based on the control information. If the display control circuit determines that the image is a light resolution image, it may determine that image processing is necessary.
  • the display control circuit may transfer the received full resolution image to the display 800 as it is. For example, if it is determined that the display control circuit is a full resolution image, the display control circuit may determine to transfer the full resolution image to the display 800 without image processing.
  • the display control circuit may determine an image processing scheme of the sub area based on the control information. For example, the display control circuit may determine a sub area for processing (eg, drawing) a virtual image and an image processing method for the virtual image based on the control information when determining the image processing.
  • the display control circuit may perform image processing for the sub area in response to the determining image processing method.
  • the display control circuitry may use the received light resolution image to specify specific processing (e.g. pixel extension, gradation, blur, etc.) for sub-areas on either or both sides. ) May generate at least one image (eg, a virtual image) (eg, at least one 2560 * 80 image) for the sub area.
  • the virtual image may be generated corresponding to both side sub-areas.
  • the display control circuit may generate a virtual image (eg, a 2560 * 80 image of the left sub-region) for the left sub-region by processing the image using the left edge portion of the light resolution image.
  • the display control circuit may generate a virtual image for the right sub region (eg, a 2560 * 60 image of the right sub region) by processing the image using the right edge portion of the light resolution image.
  • the display control circuitry may generate a final image to be delivered to the display 800 based on the received image (eg, a light resolution image) and the processed image (eg, a virtual image).
  • the display control circuit may be based on a light resolution image (e.g., 2560 * 1440 image) and a virtual image (e.g., at least one 2560 * 80 image) in front of the main area and both side sub-areas.
  • An image (eg, 2560 * 1600 image) corresponding to a full resolution (eg, 2560 * 1600) for display may be generated.
  • the display control circuit may generate an image (eg, 2560 * 1520 image) corresponding to a corresponding resolution (eg, 2560 * 1520) for display on a part of the surface including the main area and one side sub-region. .
  • the display control circuit may deliver the generated final image to the display 800.
  • the display 800 may display an image transmitted from the display control circuit.
  • a display method of an electronic device may include a first processing process of processing a light resolution image for a main area of a display corresponding to a display method; A second processing step of processing a virtual image for a sub area of a display based on the light resolution image; And a third processing step of processing a display using the light resolution image and the virtual image.
  • the first processing may include: detecting, by a first processor (eg, an AP), initiation of an operation of displaying an image; Determining the display method using a full resolution image or a light resolution image in response to the operation start; And generating a full resolution image or a light resolution image corresponding to the determined display method.
  • a first processor eg, an AP
  • the first process may generate, by the first processor, image and control information corresponding to the determined display scheme, and transfer the generated image and control information to a second processor (eg, DDI). It can be configured to include a process.
  • the first processing process when determining a full resolution image transfer, the first processing process generates control information for displaying a full resolution image, and generates a full resolution image through image processing for display by the full resolution image. Process of doing; And determining the light resolution image transfer, generating control information for displaying the light resolution image, and generating a light resolution image through image processing for display by the light resolution image.
  • the second processor when the second processor receives an image for display and control information from the first processor, the second processor determines whether the image is a full resolution image or a light resolution image based on the control information. It can be configured to include the process of determining. According to various embodiments of the present disclosure, the second process may transfer the received full resolution image to the display without image processing in the case of the full resolution image, and display the received image and the processed image after specific image processing in the case of the light resolution image. It can be configured to include the process of passing on.
  • the second processing may include determining image processing for a sub area when the received image is a light resolution image. According to various embodiments of the present disclosure, if it is determined that the second processing process is a light resolution image, the second processing process determines an image processing method to be displayed through the sub area based on the control information, and at least a part of the received image corresponding to the determined processing method. It may be configured to include a process of performing image processing based on.
  • the second process may include determining whether image processing for a sub region is necessary based on control information, and when determining image processing, a sub region for processing a virtual image based on the control information; It may be configured to include the process of determining the image processing method for the virtual image.
  • the second processing step is performed by at least one of the at least one sub-area for the sub-area through specific processing for the sub-area on either side or at one side using the light resolution image received from the first processor. It may be configured to include a process of generating one virtual image and transferring the light resolution image and the virtual image to the display.

Abstract

본 발명의 다양한 실시 예들은 제1 영역과 제2 영역으로 구분되는 디스플레이를 가지는 전자 장치에서 디스플레이 처리 방법 및 장치에 관한 것이다. 본 발명의 다양한 실시 예들에 따르면, 전자 장치에 있어서, 하우징; 상기 하우징의 일면에 노출되고, 편평한 제1 영역, 및 상기 제1 영역으로부터 연장되고, 적어도 일부가 휘어진 제2 영역을 포함하는 디스플레이; 상기 디스플레이와 전기적으로 연결된 제2 프로세서; 상기 제2 프로세서와 전기적으로 연결된 제1 프로세서; 및 상기 제1 프로세서 또는 제2 프로세서 중 적어도 하나와 전기적으로 연결된 적어도 하나의 메모리를 포함하며; 상기 적어도 하나의 메모리는, 실행 시에, 상기 제1 프로세서가, 상기 디스플레이의 제1 영역에 디스플레이될 데이터를 처리하여, 상기 제2 프로세서로 제공하도록 하는 제1 인스트럭션들; 및 상기 제2 프로세서가, 상기 제1 프로세서로부터 제공된 데이터를 처리하여, 상기 디스플레이의 제2 영역에 디스플레이될 데이터를 생성하도록 하는 제2 인스트럭션들을 저장하도록 구성할 수 있다. 다양한 실시 예들이 가능하다.

Description

전자 장치에서 디스플레이 방법 및 장치
본 발명의 다양한 실시 예들은 전자 장치에서 디스플레이 처리 방법 및 장치에 관한 것이다.
최근 디지털 기술의 발달과 함께 이동통신 단말기, 스마트 폰(smart phone), 태블릿(tablet) PC(Personal Computer), PDA(Personal Digital Assistant), 전자수첩, 노트북(notebook), 웨어러블 기기(wearable device), 또는 TV(television) 등과 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 그리고 최근에는 플렉서블 디스플레이(flexible display)를 비롯하여, 플렉서블 디스플레이와 전자 장치 결합에 의해 구현되는 벤디드 디스플레이(bended display)를 가지는 전자 장치가 개발 및 사용되고 있다. 플렉서블 디스플레이는 구부렸다가 폈다가를 자유자재로 할 수 있는 디스플레이를 나타내며, 벤디드 디스플레이는 디자인 등을 고려하여 디스플레이를 구부려진 형태가 유지되는 디스플레이를 나타낼 수 있다.
벤디드 디스플레이(bended display)를 가지는 전자 장치는, 전자 장치의 전면(front)뿐만 아니라, 전자 장치의 좌우 측면(side)까지 디스플레이 영역을 확장할 수 있다. 예를 들어, 벤디드 디스플레이를 전자 장치에 적용하는 경우, 디스플레이의 좌우 에지(edge) 부분을 휘게 만들어 화면을 크게 보이도록 할 수 있다. 한 실시 예에 따르면, 디스플레이 패널을 표준 해상도(예: 16:9)가 아닌 16:10, 16:11 등과 같이 다양하게 변경하여 제공할 수 있다.
전자 장치는, 프로세서(processor)(예: AP(Application Processor))에서, 전자 장치의 디스플레이 영역에 대한 특정 처리(예: 이미지 드로잉(drawing)과 같은 디스플레이를 위한 이미지 프로세싱(image processing))를 담당하고 있다. 예를 들어, 전자 장치는 프로세서(예: AP)에서 디스플레이의 모든 디스플레이 영역에 대한 이미지 프로세싱을 통해 이미지를 생성한 후 해당 이미지를 디스플레이에 그려주는(drawing) 구조로 동작할 수 있다. 또한 전자 장치는 디스플레이 영역을 메인 영역과 서브 영역으로 구분하여 동작할 수 있다. 디스플레이 영역을 메인 영역과 서브 영역으로 구분하여 동작하는 전자 장치는, 서브 영역에 대한 임의의 처리를 추가하는 경우 프로세서에서 서브 영역을 위한 이미지 프로세싱을 통해 이미지를 처리할 수 있다. 따라서 프로세서는 서브 영역에 대한 이미지 프로세싱 시에도, 모든 디스플레이 영역에 대한 이미지 프로세싱에 대응하는 전류를 소모할 수 있고, 결과적으로 프로세서의 전체의 소모 전류가 증가할 수 있다. 예를 들어, AP에서 모든 디스플레이 영역에 대해 이미지 처리를 수행하는 경우 대략 200mW ~ 300mW 정도의 전류를 소모하고 있다.
다양한 실시 예들에서는 전자 장치에서 벤디드 디스플레이 운영에 따른 소모 전류를 감소할 수 있는 디스플레이 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는 벤디드 디스플레이를 갖는 전자 장치에서 벤디드 디스플레이를 전면의 메인 영역과 측면의 서브 영역으로 구분하고, 메인 영역과 서브 영역을 독립적으로 처리할 수 있는 디스플레이 방법 및 장치에 관하여 개시한다.
다양한 실시 예들에서는 프로세서(예: AP)는 벤디드 디스플레이의 메인 영역의 디스플레이를 위한 이미지만 처리하고, 디스플레이 제어회로(예: DDI(Display Driver IC))에서 나머지 영역(예: 서브 영역)의 디스플레이를 위한 이미지를 처리하여 디스플레이 할 수 있는 디스플레이 방법 및 장치에 관하여 개시한다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 하우징; 상기 하우징의 일면에 노출되고, 편평한 제1 영역, 및 상기 제1 영역으로부터 연장되고, 적어도 일부가 휘어진 제2 영역을 포함하는 디스플레이; 상기 디스플레이와 전기적으로 연결된 제2 프로세서; 상기 제2 프로세서와 전기적으로 연결된 제1 프로세서; 및 상기 제1 프로세서 또는 제2 프로세서 중 적어도 하나와 전기적으로 연결된 적어도 하나의 메모리를 포함하며; 상기 적어도 하나의 메모리는, 실행 시에, 상기 제1 프로세서가, 상기 디스플레이의 제1 영역에 디스플레이될 데이터를 처리하여, 상기 제2 프로세서로 제공하도록 하는 제1 인스트럭션들; 및 상기 제2 프로세서가, 상기 제1 프로세서로부터 제공된 데이터를 처리하여, 상기 디스플레이의 제2 영역에 디스플레이될 데이터를 생성하도록 하는 제2 인스트럭션들을 저장하도록 구성할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 하우징; 상기 하우징의 일면에 노출되고, 편평한 제1 영역, 및 상기 제1 영역으로부터 적어도 일부가 휘어지도록 연장된 제2 영역을 포함하는 디스플레이; 상기 디스플레이와 전기적으로 연결된 적어도 두 개의 프로세서들; 상기 적어도 두 개의 프로세서들 중 적어도 하나와 전기적으로 연결된 적어도 하나의 메모리; 상기 적어도 하나의 메모리는, 실행 시에, 상기 적어도 두 개의 프로세서들 중 제1 프로세서가, 상기 제1 영역 및 상기 제2 영역에 화면을 디스플레이 하도록 하는 제1 인스트럭션들을 저장하고, 상기 적어도 하나의 메모리는, 실행 시에, 상기 적어도 두 개의 프로세서들 중 제2 프로세서가, 상기 제1 영역에는 화면을 디스플레이 하지 않고, 상기 제2 영역에는 화면을 디스플레이 하도록 하는 제2 인스트럭션들을 저장하도록 구성할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치는, 전면의 메인 영역과 측면의 서브 영역을 포함하고, 디스플레이 제어회로부터 수신된 이미지를 메인 영역 및 서브 영역 적어도 일부에 기반하여 디스플레이 하는 디스플레이; 상기 메인 영역과 상기 서브 영역에 대응하는 풀 해상도 이미지, 또는 상기 메인 영역에 대응하는 라이트 해상도 이미지를 처리하여 디스플레이 제어회로에 전달하는 프로세서; 및 상기 프로세서로부터 전달된 풀 해상도 이미지를 디스플레이에 전달하거나, 상기 서브 영역을 위한 가상 이미지를 처리하고 상기 프로세서로부터 전달된 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하는 디스플레이 제어회로를 포함할 수 있다.
본 발명의 다양한 실시 예들에 따른 전자 장치의 동작 방법은, 디스플레이 방식에 대응하여 디스플레이의 메인 영역을 위한 라이트 해상도 이미지를 처리하는 제1 처리 과정; 상기 라이트 해상도 이미지에 기반하여 디스플레이의 서브 영역을 위한 가상 이미지를 처리하는 제2 처리 과정; 및 상기 라이트 해상도 이미지와 상기 가상 이미지를 이용하여 디스플레이를 처리하는 제3 처리 과정을 포함할 수 있다.
상기와 같은 과제를 해결하기 위하여 본 발명의 다양한 실시 예들에서는, 상기 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록 매체를 포함할 수 있다.
다양한 실시 예들에 따른 디스플레이 방법 및 장치에 따르면, 디스플레이 운영에 따른 소모 전류를 감소할 수 있다. 다양한 실시 예들에서는, 특정 시나리오(예: 락 스크린(lock screen), 인터넷, 갤러리 등)에서 메인 영역의 디스플레이를 위한 이미지는 프로세서(예: AP)에서 처리하고, 나머지 영역(예: 서브 영역)의 디스플레이를 위한 이미지는 디스플레이 제어회로(예: DDI(Display Driver IC))에서 분담하여 처리함으로 소모 전류를 줄일 수 있다.
다양한 실시 예들에 따르면, 디스플레이 영역을 메인 영역과 서브 영역으로 구분하여 동작하는 경우, 서브 영역(예: 벤디드 디스플레이(bended display)의 에지(edge) 부분, 플렉서블 디스플레이(flexible display)에서 접히는 면, 또는 평면 디스플레이에서 구분되는 서브 영역 등)에 대한 이미지를 프로세서에서 처리하지 않고, 디스플레이 제어회로에서 처리하도록 함으로써, 유저 인터페이스(UI) 구현의 자유도롤 높일 수 있다. 예를 들어, 듀얼 에지가 적용된 전자 장치에서 표준 해상도(메인 영역 해상도, 예: 16:9)를 디스플레이 시키면서 좌우 에지 부분(예: 서브 영역)에 대해, 소모 전류에 구애 받지 않으면서, 해당 유저 인터페이스에 맞게 디스플레이 시켜 화면을 보다 크게(예: 16:10, 16:11) 보이게 할 수 있다. 또한, 다양한 실시 예들에 따르면, 전자 장치의 베젤 영역을 최소한으로 보이게 할 수 있는 효과도 있다.
도 1은 다양한 실시 예들에 따른 전자 장치를 포함하는 네트워크 환경을 도시하는 도면이다.
도 2는 다양한 실시 예들에 따른 전자 장치의 블록도를 도시하는 도면이다.
도 3은 다양한 실시 예들에 따른 프로그램 모듈의 블록도를 도시하는 도면이다.
도 4는 본 발명의 다양한 실시 예들에 따른 벤디드 디스플레이를 갖는 전자 장치의 예시를 도시하는 도면이다.
도 5a 및 도 5b는 본 발명의 다양한 실시 예들에 따른 전자 장치의 구성을 개략적으로 도시하는 도면들이다.
도 6 및 도 7은 본 발명의 다양한 실시 예들에 따른 전자 장치의 디스플레이 동작을 설명하기 위해 도시하는 도면들이다.
도 8, 도 9, 도 10 및 도 11은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 메인 영역과 서브 영역을 이용하여 이미지를 디스플레이 하는 예시를 도시하는 도면들이다.
도 12는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 처리 동작을 설명하기 위해 도시하는 도면이다.
도 13은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 방법을 도시하는 흐름도이다.
도 14는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 방법을 도시하는 흐름도이다.
도 15는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 방법을 도시하는 흐름도이다.
이하, 본 문서의 다양한 실시 예들이 첨부된 도면을 참조하여 기재된다. 실시 예 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경(modifications), 균등물(equivalents), 및/또는 대체물(alternatives)을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다.
본 문서에서, "가진다," "가질 수 있다," "포함한다," 또는 "포함할 수 있다" 등의 표현은 해당 특징(예: 수치, 기능, 동작, 또는 부품 등의 구성요소)의 존재를 가리키며, 추가적인 특징의 존재를 배제하지 않는다.
본 문서에서, "A 또는 B," "A 또는/및 B 중 적어도 하나," 또는 "A 또는/및 B 중 하나 또는 그 이상"등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. 예를 들면, "A 또는 B," "A 및 B 중 적어도 하나," 또는 "A 또는 B 중 적어도 하나"는, (1) 적어도 하나의 A를 포함, (2) 적어도 하나의 B를 포함, 또는 (3) 적어도 하나의 A 및 적어도 하나의 B 모두를 포함하는 경우를 모두 지칭할 수 있다.
본 문서에서 사용된 "제 1," "제 2," "첫째," 또는 "둘째," 등의 표현들은 다양한 구성요소들을, 순서 및/또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 예를 들면, 제 1 사용자 기기와 제 2 사용자 기기는, 순서 또는 중요도와 무관하게, 서로 다른 사용자 기기를 나타낼 수 있다. 예를 들면, 본 문서에 기재된 권리 범위를 벗어나지 않으면서 제 1 구성요소는 제 2 구성요소로 명명될 수 있고, 유사하게 제 2 구성요소도 제 1 구성요소로 바꾸어 명명될 수 있다.
어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "(기능적으로 또는 통신적으로) 연결되어((operatively or communicatively) coupled with/to)" 있다거나 "접속되어(connected to)" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소(예: 제 1 구성요소)가 다른 구성요소(예: 제 2 구성요소)에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소와 상기 다른 구성요소 사이에 다른 구성요소(예: 제 3 구성요소)가 존재하지 않는 것으로 이해될 수 있다.
본 문서에서, "~하도록 구성된(또는 설정된)(configured to)"은 상황에 따라, 예를 들면, 하드웨어적 또는 소프트웨어적으로 "~에 적합한(suitable for)," "~하는 능력을 가지는(having the capacity to)," "~하도록 설계된(designed to)," "~하도록 변경된(adapted to)," "~하도록 만들어진(made to)," 또는 "~를 할 수 있는(capable of)"과 상호 화환적으로(interchangeably) 사용될 수 있다. 용어 "~하도록 구성된(또는 설정된)"은 하드웨어(hardware)적으로 "특별히 설계된(specifically designed to)" 것만을 반드시 의미하지 않을 수 있다. 대신, 어떤 상황에서는, "~하도록 구성된 장치"라는 표현은, 그 장치가 다른 장치 또는 부품들과 함께 "~할 수 있는" 것을 의미할 수 있다. 예를 들면, 문구 "A, B, 및 C를 수행하도록 구성된(또는 설정된) 프로세서"는 해당 동작을 수행하기 위한 전용 프로세서(예: 임베디드 프로세서), 또는 메모리 장치에 저장된 하나 이상의 소프트웨어 프로그램들을 실행함으로써, 해당 동작들을 수행할 수 있는 범용 프로세서(generic-purpose processor)(예: CPU(central processing unit) 또는 AP(application processor))를 의미할 수 있다.
본 문서에서 사용된 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 문서에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 문서에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 문서의 실시 예들을 배제하도록 해석될 수 없다.
본 문서의 다양한 실시 예들에 따른 전자 장치는, 예를 들면, 스마트폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 영상 전화기, 전자책 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), 워크스테이션(workstation), 서버, PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예들에 따르면, 웨어러블 장치는 액세서리형(예: 시계, 반지, 팔찌, 발찌, 목걸이, 안경, 콘택트 렌즈, 또는 머리 착용형 장치(head-mounted-device(HMD) 등), 직물 또는 의류 일체형(예: 전자 의복), 신체 부착형(예: 스킨 패드(skin pad) 또는 문신), 또는 생체 이식형 회로(예: implantable circuit) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예들에서, 전자 장치는 가전 제품(home appliance)일 수 있다. 가전 제품은, 예를 들면, 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), 홈 오토매이션 컨트롤 패널(home automation control panel), 보안 컨트롤 패널(security control panel), TV 박스(예: 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(예: XboxTM, PlayStationTM), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
다른 실시 예에서, 전자 장치는, 각종 의료기기(예: 각종 휴대용 의료측정기기(혈당 측정기, 심박 측정기, 혈압 측정기, 또는 체온 측정기 등), MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 또는 초음파기 등), 네비게이션(navigation) 장치, 위성 항법 시스템(GNSS, global navigation satellite system), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치, 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛(head unit), 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller's machine), 상점의 POS(point of sales), 또는 사물 인터넷 장치(internet of things)(예: 전구, 각종 센서, 전기 또는 가스 미터기, 스프링클러 장치, 화재경보기, 온도조절기(thermostat), 가로등, 토스터(toaster), 운동기구, 온수탱크, 히터, 보일러 등) 중 적어도 하나를 포함할 수 있다.
어떤 실시 예에 따르면, 전자 장치는 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 수신 장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측 기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 다양한 실시 예들에서, 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 어떤 실시 예에 따른 전자 장치는 플렉서블 전자 장치일 수 있다. 또한, 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않으며, 기술 발전에 따른 새로운 전자 장치를 포함할 수 있다.
이하, 첨부 도면을 참조하여, 다양한 실시 예들에 따른 전자 장치가 설명된다. 본 문서에서, 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 다양한 실시 예들에 따른 전자 장치를 포함하는 네트워크 환경을 도시하는 도면이다.
도 1을 참조하여, 다양한 실시 예들에서의, 네트워크 환경 100 내의 전자 장치 101이 기재된다. 전자 장치 101은 버스(bus) 110, 프로세서(processor) 120, 메모리(memory) 130, 입출력 인터페이스(input/output interface) 150, 디스플레이(display) 160, 및 통신 인터페이스(communication interface) 170을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 101은, 구성요소들 중 적어도 하나를 생략하거나 다른 구성요소를 추가적으로 구비할 수 있다.
버스 110은, 예를 들면, 구성요소들(110-170)을 서로 연결하고, 구성요소들 간의 통신(예: 제어 메시지 및/또는 데이터)을 전달하는 회로를 포함할 수 있다.
프로세서 120은, 중앙처리장치(central processing unit(CPU)), 어플리케이션 프로세서(application processor(AP)), 또는 커뮤니케이션 프로세서(communication processor(CP)) 중 하나 또는 그 이상을 포함할 수 있다. 프로세서 120은, 예를 들면, 전자 장치 101의 적어도 하나의 다른 구성요소들의 제어 및/또는 통신에 관한 연산이나 데이터 처리를 실행할 수 있다.
메모리 130은, 휘발성 메모리(volatile memory) 및/또는 비휘발성 메모리(non-volatile memory)를 포함할 수 있다. 메모리 130은, 예를 들면, 전자 장치 101의 적어도 하나의 다른 구성요소에 관계된 명령(command) 또는 데이터(data)를 저장할 수 있다. 한 실시 예에 따르면, 메모리 130은 소프트웨어(software) 및/또는 프로그램(program) 140을 저장할 수 있다. 프로그램 140은, 예를 들면, 커널(kernel) 141, 미들웨어(middleware) 143, 어플리케이션 프로그래밍 인터페이스(application programming interface(API)) 145, 및/또는 어플리케이션 프로그램(또는 "어플리케이션") 147 등을 포함할 수 있다. 커널 141, 미들웨어 143, 또는 API 145의 적어도 일부는, 운영 시스템(operating system(OS))으로 지칭될 수 있다.
커널 141은, 예를 들면, 다른 프로그램들(예: 미들웨어 143, API 145, 또는 어플리케이션 프로그램 147)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 버스 110, 프로세서 120, 또는 메모리 130 등)을 제어 또는 관리할 수 있다. 또한, 커널 141은 미들웨어 143, API 145, 또는 어플리케이션 프로그램 147에서 전자 장치 101의 개별 구성요소에 접근함으로써, 시스템 리소스들을 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
미들웨어 143은, 예를 들면, API 145 또는 어플리케이션 프로그램 147이 커널 141과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다.
또한 미들웨어 143은 어플리케이션 프로그램 147으로부터 수신된 하나 이상의 작업 요청들을 우선 순위에 따라 처리할 수 있다. 예를 들면, 미들웨어 143은 어플리케이션 프로그램 147 중 적어도 하나에 전자 장치 101의 시스템 리소스(예: 버스 110, 프로세서 120, 또는 메모리 130 등)를 사용할 수 있는 우선 순위를 부여할 수 있다. 예컨대, 미들웨어 143은 상기 적어도 하나에 부여된 우선 순위에 따라 상기 하나 이상의 작업 요청들을 처리함으로써, 상기 하나 이상의 작업 요청들에 대한 스케쥴링(scheduling) 또는 로드 밸런싱(load balancing) 등을 수행할 수 있다.
API 145는, 예를 들면, 어플리케이션 147이 커널 141 또는 미들웨어 143에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어(file control), 창 제어(window control), 영상 처리(image processing), 또는 문자 제어(character control) 등을 위한 적어도 하나의 인터페이스 또는 함수(function)(예: 명령어)를 포함할 수 있다.
입출력 인터페이스 150은, 예를 들면, 사용자 또는 다른 외부 기기로부터 입력된 명령 또는 데이터를 전자 장치 101의 다른 구성요소(들)에 전달할 수 있는 인터페이스의 역할을 할 수 있다. 또한, 입출력 인터페이스 150은 전자 장치 101의 다른 구성요소(들)로부터 수신된 명령 또는 데이터를 사용자 또는 다른 외부 기기로 출력할 수 있다.
디스플레이 160은, 예를 들면, 액정 디스플레이(liquid crystal display(LCD)), 발광 다이오드(light-emitting diode(LED)) 디스플레이, 유기 발광 다이오드(organic light-emitting diode(OLED)) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 디스플레이 160은, 예를 들면, 사용자에게 각종 콘텐츠(예: 텍스트(text), 이미지(image), 비디오(video), 아이콘(icon), 또는 심볼(symbol) 등)을 디스플레이 할 수 있다. 디스플레이 160은, 터치 스크린(touch screen)을 포함할 수 있으며, 예를 들면, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치(touch), 제스처(gesture), 근접(proximity), 또는 호버링(hovering) 입력을 수신할 수 있다.
통신 인터페이스 170은, 예를 들면, 전자 장치 101과 외부 장치(예: 제1 외부 전자 장치 102, 제2 외부 전자 장치 104, 또는 서버 106) 간의 통신을 설정할 수 있다. 예를 들면, 통신 인터페이스 170은 무선 통신 또는 유선 통신을 통해서 네트워크 162에 연결되어 외부 장치(예: 제2 외부 전자 장치 104 또는 서버 106)와 통신할 수 있다.
무선 통신은, 예를 들면, 셀룰러 통신 프로토콜로서, 예를 들면, LTE(long-term evolution), LTE-A(LTE Advance), CDMA(code division multiple access), WCDMA(wideband CDMA), UMTS(universal mobile telecommunications system), WiBro(Wireless Broadband), 또는 GSM(global system for mobile communications) 등 중 적어도 하나를 사용할 수 있다. 또한, 무선 통신은, 예를 들면, 근거리 통신 164를 포함할 수 있다. 근거리 통신 164는, 예를 들면, WiFi(wireless fidelity), 블루투스(Bluetooth), NFC(near field communication), 또는 GNSS(global navigation satellite system) 등 중 적어도 하나를 포함할 수 있다. GNSS는 사용 지역 또는 대역폭 등에 따라, 예를 들면, GPS(global positioning system), Glonass(global navigation satellite system), Beidou Navigation satellite system(이하, "Beidou") 또는 Galileo, the European global satellite-based navigation system 중 적어도 하나를 포함할 수 있다. 이하, 본 문서에서는, "GPS"는 "GNSS"와 혼용되어 사용(interchangeably used)될 수 있다. 유선 통신은, 예를 들면, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232), 또는 POTS(plain old telephone service) 등 중 적어도 하나를 포함할 수 있다. 네트워크 162는 통신 네트워크(telecommunications network), 예를 들면, 컴퓨터 네트워크(computer network)(예: LAN 또는 WAN), 인터넷, 또는 전화 네트워크(telephone network) 중 적어도 하나를 포함할 수 있다.
제1 및 제2 외부 전자 장치(102, 104) 각각은 전자 장치 101과 동일한 또는 다른 종류의 장치일 수 있다. 한 실시 예에 따르면, 서버 106은 하나 또는 그 이상의 서버들의 그룹을 포함할 수 있다. 다양한 실시 예들에 따르면, 전자 장치 101에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 전자 장치(예: 전자 장치(102,104), 또는 서버 106에서 실행될 수 있다. 한 실시 예에 따르면, 전자 장치 101이 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치 101은 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 다른 장치(예: 전자 장치(102, 104), 또는 서버 106)에게 요청할 수 있다. 다른 전자 장치(예: 전자 장치(102, 104), 또는 서버 106)는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치 101로 전달할 수 있다. 전자 장치 101은 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅(cloud computing), 분산 컴퓨팅(distributed computing), 또는 클라이언트-서버 컴퓨팅(client-server computing) 기술이 이용될 수 있다.
도 2는 다양한 실시 예에 따른 전자 장치의 블록도이다.
전자 장치 201은, 예를 들면, 도 1에 도시된 전자 장치 101의 전체 또는 일부를 포함할 수 있다. 전자 장치 201은 하나 이상의 프로세서(예: AP(application processor)) 210, 통신 모듈 220, 가입자 식별 모듈 224, 메모리 230, 센서 모듈 240, 입력 장치 250, 디스플레이 260, 인터페이스 270, 오디오 모듈 280, 카메라 모듈 291, 전력 관리 모듈 295, 배터리 296, 인디케이터 297, 및 모터 298를 포함할 수 있다.
프로세서 210은, 예를 들면, 운영 체제 또는 어플리케이션 프로그램을 구동하여 프로세서 210에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 각종 데이터 처리 및 연산을 수행할 수 있다. 프로세서 210은, 예를 들면, SoC(system on chip)로 구현될 수 있다. 한 실시 예에 따르면, 프로세서 210은 GPU(graphic processing unit) 및/또는 이미지 신호 프로세서(image signal processor)를 더 포함할 수 있다. 프로세서 210은 도 2에 도시된 구성요소들 중 적어도 일부(예: 셀룰러 모듈 221)를 포함할 수도 있다. 프로세서 210은 다른 구성요소들(예: 비휘발성 메모리) 중 적어도 하나로부터 수신된 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리하고, 다양한 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
통신 모듈 220은, 도 1의 통신 인터페이스 170와 동일 또는 유사한 구성을 가질 수 있다. 통신 모듈 220은, 예를 들면, 셀룰러 모듈 221, WiFi 모듈 223, 블루투스 모듈 225, GNSS 모듈 227(예: GPS 모듈, Glonass 모듈, Beidou 모듈, 또는 Galileo 모듈), NFC 모듈 228 및 RF(radio frequency) 모듈 229를 포함할 수 있다.
셀룰러 모듈 221은, 예를 들면, 통신 네트워크를 통해서 음성 통화, 영상 통화, 문자 서비스, 또는 인터넷 서비스 등을 제공할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 221은 가입자 식별 모듈(예: SIM(subscriber identification module) 카드) 224를 이용하여 통신 네트워크 내에서 전자 장치 201의 구별 및 인증을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 221은 프로세서 210이 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 한 실시 예에 따르면, 셀룰러 모듈 221은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다.
WiFi 모듈 223, 블루투스 모듈 225, GNSS 모듈 227 또는 NFC 모듈 228 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 어떤 실시 예에 따르면, 셀룰러 모듈 221, WiFi 모듈 223, 블루투스 모듈 225, GNSS 모듈 227 또는 NFC 모듈 228 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다.
RF 모듈 229는, 예를 들면, 통신 신호(예: RF 신호)를 송수신할 수 있다. RF 모듈 229는, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter), LNA(low noise amplifier), 또는 안테나(antenna) 등을 포함할 수 있다. 다른 실시 예에 따르면, 셀룰러 모듈 221, WiFi 모듈 223, 블루투스 모듈225, GNSS 모듈 227 또는 NFC 모듈 228 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호를 송수신할 수 있다.
가입자 식별 모듈 224는, 예를 들면, 가입자 식별 모듈을 포함하는 카드 및/또는 내장 SIM(embedded SIM)을 포함할 수 있으며, 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
메모리 230(예: 메모리 130)은, 예를 들면, 내장 메모리 232 또는 외장 메모리 234를 포함할 수 있다. 내장 메모리 232는, 예를 들면, 휘발성 메모리(volatile memory)(예: DRAM(dynamic RAM(random access memory)), SRAM(static RAM), 또는 SDRAM(synchronous dynamic RAM) 등), 비휘발성 메모리(non-volatile memory)(예: OTPROM(one time programmable ROM(read only memory)), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, 플래시 메모리(예: NAND flash 또는 NOR flash 등), 하드 드라이브, 또는 솔리드 스테이트 드라이브(solid state drive(SSD)) 중 적어도 하나를 포함할 수 있다.
외장 메모리 234는 플래시 드라이브(flash drive), 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital), MMC(MultiMediaCard) 또는 메모리 스틱(memory stick) 등을 더 포함할 수 있다. 외장 메모리 234는 다양한 인터페이스를 통하여 전자 장치 201과 기능적으로 및/또는 물리적으로 연결될 수 있다.
센서 모듈 240은, 예를 들면, 물리량을 계측하거나 전자 장치 201의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 센서 모듈 240은, 예를 들면, 제스처 센서(gesture sensor) 240A, 자이로 센서(gyro sensor) 240B, 기압 센서(barometer) 240C, 마그네틱 센서(magnetic sensor) 240D, 가속도 센서(acceleration sensor) 240E, 그립 센서(grip sensor) 240F, 근접 센서(proximity sensor) 240G, 컬러 센서(color sensor) 240H(예: RGB(red, green, blue) 센서), 생체 센서(medical sensor) 240I, 온/습도 센서(temperature-humidity sensor) 240J, 조도 센서(illuminance sensor) 240K, 또는 UV(ultra violet) 센서 240M 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로(additionally or alternatively), 센서 모듈 240은, 예를 들면, 후각 센서(E-nose sensor), EMG 센서(electromyography sensor), EEG 센서(electroencephalogram sensor), ECG 센서(electrocardiogram sensor), IR(infrared) 센서, 홍채 센서(iris scan sensor) 및/또는 지문 센서(finger scan sensor)를 포함할 수 있다. 센서 모듈 240은 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다. 어떤 실시 예에서는, 전자 장치 201은 프로세서 210의 일부로서 또는 별도로, 센서 모듈 240을 제어하도록 구성된 프로세서를 더 포함하여, 프로세서 210가 슬립(sleep) 상태에 있는 동안, 센서 모듈 240을 제어할 수 있다.
입력 장치 250은, 예를 들면, 터치 패널(touch panel) 252, (디지털) 펜 센서(pen sensor) 254, 키(key) 256, 또는 초음파(ultrasonic) 입력 장치 258를 포함할 수 있다. 터치 패널 252는, 예를 들면, 정전식, 감압식, 적외선 방식, 또는 초음파 방식 중 적어도 하나의 방식을 사용할 수 있다. 또한, 터치 패널 252는 제어 회로를 더 포함할 수도 있다. 터치 패널 252는 택타일 레이어(tactile layer)를 더 포함하여, 사용자에게 촉각 반응을 제공할 수 있다.
(디지털) 펜 센서 254는, 예를 들면, 터치 패널의 일부이거나, 별도의 인식용 쉬트(sheet)를 포함할 수 있다. 키 256은, 예를 들면, 물리적인 버튼, 광학식 키, 또는 키패드(keypad)를 포함할 수 있다. 초음파 입력 장치 258은 마이크(예: 마이크 288)를 통해, 입력 도구에서 발생된 초음파를 감지하여, 상기 감지된 초음파에 대응하는 데이터를 확인할 수 있다.
디스플레이 260(예: 디스플레이 160)는 패널 262, 홀로그램 장치 264, 또는 프로젝터 266을 포함할 수 있다. 패널 262는, 도 1의 디스플레이 160과 동일 또는 유사한 구성을 포함할 수 있다. 패널 262는, 예를 들면, 유연하게(flexible), 투명하게(transparent), 또는 착용할 수 있게(wearable) 구현될 수 있다. 패널 262는 터치 패널 252와 하나의 모듈로 구성될 수도 있다. 홀로그램 장치 264는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 프로젝터 266은 스크린(screen)에 빛을 투사하여 영상을 디스플레이 할 수 있다. 스크린은, 예를 들면, 전자 장치 201의 내부 또는 외부에 위치할 수 있다. 한 실시 예에 따르면, 디스플레이 260은 패널 262, 홀로그램 장치 264, 또는 프로젝터 266을 제어하기 위한 제어 회로를 더 포함할 수 있다.
인터페이스 270은, 예를 들면, HDMI(high-definition multimedia interface) 272, USB(universal serial bus) 274, 광 인터페이스(optical interface) 276, 또는 D-sub(D-subminiature) 278을 포함할 수 있다. 인터페이스 270은, 예를 들면, 도 1에 도시된 통신 인터페이스 170에 포함될 수 있다. 추가적으로 또는 대체적으로(additionally and alternatively), 인터페이스 270은, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure digital) 카드/MMC(multi-media card) 인터페이스, 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
오디오 모듈 280은, 예를 들면, 소리(sound)와 전기 신호를 쌍방향으로 변환시킬 수 있다. 오디오 모듈 280의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스 150에 포함될 수 있다. 오디오 모듈 280은, 예를 들면, 스피커 282, 리시버 284, 이어폰 286, 또는 마이크 288 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
카메라 모듈 291은, 예를 들면, 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시 예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈, ISP(image signal processor), 또는 플래시(flash)(예: LED 또는 xenon lamp 등)를 포함할 수 있다.
전력 관리 모듈 295는, 예를 들면, 전자 장치 201의 전력을 관리할 수 있다. 한 실시 예에 따르면, 전력 관리 모듈 295는 PMIC(power management integrated circuit), 충전 IC(charger integrated circuit), 또는 배터리 296 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다. PMIC는, 유선 및/또는 무선 충전 방식을 가질 수 있다. 무선 충전 방식은, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등을 포함하며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로, 또는 정류기 등을 더 포함할 수 있다. 배터리 게이지는, 예를 들면, 배터리 296의 잔량, 충전 중 전압, 전류, 또는 온도를 측정할 수 있다. 배터리 296은, 예를 들면, 충전식 전지(rechargeable battery) 및/또는 태양 전지(solar battery)를 포함할 수 있다.
인디케이터 297은 전자 장치 201 또는 그 일부(예: 프로세서 210)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 디스플레이 할 수 있다. 모터 298은 전기적 신호를 기계적 진동으로 변환할 수 있고, 진동(vibration), 또는 햅틱(haptic) 효과 등을 발생시킬 수 있다. 도시되지는 않았으나, 전자 장치 201은 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 모바일 TV 지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting), 또는 미디어플로(MediaFloTM) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 문서에서 기술된 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 다양한 실시 예에서, 전자 장치는 본 문서에서 기술된 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 다양한 실시 예에 따른 전자 장치의 구성요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
도 3은 다양한 실시 예에 따른 프로그램 모듈의 블록도이다.
한 실시 예에 따르면, 프로그램 모듈 310(예: 프로그램 140)은 전자 장치(예: 전자 장치 101)에 관련된 자원을 제어하는 운영 체제(operating system(OS)) 및/또는 운영 체제 상에서 구동되는 다양한 어플리케이션(예: 어플리케이션 프로그램 147)을 포함할 수 있다. 운영 체제는, 예를 들면, 안드로이드(android), iOS, 윈도우즈(windows), 심비안(symbian), 타이젠(tizen), 또는 바다(bada) 등이 될 수 있다.
프로그램 모듈 310은 커널 320, 미들웨어 330, 어플리케이션 프로그래밍 인터페이스(application programming interface (API)) 360, 및/또는 어플리케이션 370을 포함할 수 있다. 프로그램 모듈 310의 적어도 일부는 전자 장치 상에 프리로드(preload) 되거나, 외부 전자 장치(예: 전자 장치(102, 104), 서버 106 등)로부터 다운로드(download) 가능하다.
커널 320(예: 커널 141)은, 예를 들면, 시스템 리소스 매니저 321 및/또는 디바이스 드라이버 323을 포함할 수 있다. 시스템 리소스 매니저 321은 시스템 리소스의 제어, 할당, 또는 회수 등을 수행할 수 있다. 한 실시 예에 따르면, 시스템 리소스 매니저 321은 프로세스 관리부, 메모리 관리부, 또는 파일 시스템 관리부 등을 포함할 수 있다. 디바이스 드라이버 323은, 예를 들면, 디스플레이 드라이버, 카메라 드라이버, 블루투스 드라이버, 공유 메모리 드라이버, USB 드라이버, 키패드 드라이버, WiFi 드라이버, 오디오 드라이버, 또는 IPC(inter-process communication) 드라이버를 포함할 수 있다.
미들웨어 330은, 예를 들면, 어플리케이션 370이 공통적으로 필요로 하는 기능을 제공하거나, 어플리케이션 370이 전자 장치 내부의 제한된 시스템 자원을 효율적으로 사용할 수 있도록 API 360을 통해 다양한 기능들을 어플리케이션 370으로 제공할 수 있다. 한 실시 예에 따르면, 미들웨어 330(예: 미들웨어 143)은 런타임 라이브러리 335, 어플리케이션 매니저(application manager) 341, 윈도우 매니저(window manager) 342, 멀티미디어 매니저(multimedia manager) 343, 리소스 매니저(resource manager) 344, 파워 매니저(power manager) 345, 데이터베이스 매니저(database manager) 346, 패키지 매니저(package manager) 347, 연결 매니저(connectivity manager) 348, 통지 매니저(notification manager) 349, 위치 매니저(location manager) 350, 그래픽 매니저(graphic manager) 351, 또는 보안 매니저(security manager) 352 중 적어도 하나를 포함할 수 있다.
런타임 라이브러리 335는, 예를 들면, 어플리케이션 370이 실행되는 동안에 프로그래밍 언어를 통해 새로운 기능을 추가하기 위해 컴파일러가 사용하는 라이브러리 모듈을 포함할 수 있다. 런타임 라이브러리 335는 입출력 관리, 메모리 관리, 또는 산술 함수에 대한 기능 등을 수행할 수 있다.
어플리케이션 매니저 341은, 예를 들면, 어플리케이션 370 중 적어도 하나의 어플리케이션의 생명 주기(life cycle)를 관리할 수 있다. 윈도우 매니저 342는 화면에서 사용하는 GUI 자원을 관리할 수 있다. 멀티미디어 매니저 343은 다양한 미디어 파일들의 재생에 필요한 포맷(format)을 파악하고, 해당 포맷에 맞는 코덱(codec)을 이용하여 미디어 파일의 인코딩(encoding) 또는 디코딩(decoding)을 수행할 수 있다. 리소스 매니저 344는 어플리케이션 370 중 적어도 어느 하나의 어플리케이션의 소스 코드, 메모리 또는 저장 공간 등의 자원을 관리할 수 있다.
파워 매니저 345는, 예를 들면, 바이오스(BIOS: basic input/output system) 등과 함께 동작하여 배터리(battery) 또는 전원을 관리하고, 전자 장치의 동작에 필요한 전력 정보 등을 제공할 수 있다. 데이터베이스 매니저 346은 어플리케이션 370 중 적어도 하나의 어플리케이션에서 사용할 데이터베이스를 생성, 검색, 또는 변경할 수 있다. 패키지 매니저 347은 패키지 파일의 형태로 배포되는 어플리케이션의 설치 또는 업데이트를 관리할 수 있다.
연결 매니저 348은, 예를 들면, WiFi 또는 블루투스 등의 무선 연결을 관리할 수 있다. 통지 매니저 349는 도착 메시지, 약속, 근접성 알림 등의 사건(event)을 사용자에게 방해되지 않는 방식으로 디스플레이 또는 통지할 수 있다. 위치 매니저 350은 전자 장치의 위치 정보를 관리할 수 있다. 그래픽 매니저 351은 사용자에게 제공될 그래픽 효과 또는 이와 관련된 사용자 인터페이스를 관리할 수 있다. 보안 매니저 352는 시스템 보안 또는 사용자 인증 등에 필요한 제반 보안 기능을 제공할 수 있다. 한 실시 예에 따르면, 전자 장치(예: 전자 장치 101)가 전화 기능을 포함한 경우, 미들웨어 330은 전자 장치의 음성 또는 영상 통화 기능을 관리하기 위한 통화 매니저(telephony manager)를 더 포함할 수 있다.
미들웨어 330은 전술한 구성요소들의 다양한 기능의 조합을 형성하는 미들웨어 모듈을 포함할 수 있다. 미들웨어 330은 차별화된 기능을 제공하기 위해 운영 체제의 종류 별로 특화된 모듈을 제공할 수 있다. 또한, 미들웨어 330은 동적으로 기존의 구성요소를 일부 삭제하거나 새로운 구성요소들을 추가할 수 있다.
API 360(예: API 145)는, 예를 들면, API 프로그래밍 함수들의 집합으로, 운영 체제에 따라 다른 구성으로 제공될 수 있다. 예를 들면, 안드로이드 또는 iOS의 경우, 플랫폼(platform) 별로 하나의 API 셋을 제공할 수 있으며, 타이젠(tizen)의 경우, 플랫폼 별로 두 개 이상의 API 셋을 제공할 수 있다.
어플리케이션 370(예: 어플리케이션 프로그램 147)은, 예를 들면, 홈 371, 다이얼러 372, SMS/MMS 373, IM(instant message) 374, 브라우저 375, 카메라 376, 알람 377, 컨택트 378, 음성 다이얼 379, 이메일 380, 달력 381, 미디어 플레이어 382, 앨범 383, 시계(watch) 384, 건강 관리(health care)(예: 운동량 또는 혈당 등을 측정), 또는 환경 정보 제공(예: 기압, 습도, 또는 온도 정보 등을 제공) 등의 기능을 수행할 수 있는 하나 이상의 어플리케이션을 포함할 수 있다.
한 실시 예에 따르면, 어플리케이션 370은 전자 장치(예: 전자 장치 101)와 외부 전자 장치(예: 전자 장치(102, 104)) 사이의 정보 교환을 지원하는 어플리케이션(이하, 설명의 편의 상, "정보 교환 어플리케이션")을 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 어플리케이션, 또는 외부 전자 장치를 관리하기 위한 장치 관리(device management) 어플리케이션을 포함할 수 있다.
예를 들면, 알림 전달 어플리케이션은 전자 장치의 다른 어플리케이션(예: SMS/MMS 어플리케이션, 이메일 어플리케이션, 건강 관리 어플리케이션, 또는 환경 정보 어플리케이션 등)에서 발생된 알림 정보를 외부 전자 장치(예: 전자 장치(102, 104))로 전달하는 기능을 포함할 수 있다. 또한, 알림 전달 어플리케이션은, 예를 들면, 외부 전자 장치로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다.
장치 관리 어플리케이션은, 예를 들면, 전자 장치와 통신하는 외부 전자 장치(예: 전자 장치(102, 104))의 적어도 하나의 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴-온(turn-on)/턴-오프(turn-off) 또는 디스플레이의 밝기(또는, 해상도) 조절), 외부 전자 장치에서 동작하는 어플리케이션 또는 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스 등)를 관리(예: 설치, 삭제, 또는 업데이트)할 수 있다.
한 실시 예에 따르면, 어플리케이션 370은 외부 전자 장치(예: 전자 장치(102, 104))의 속성)에 따라 지정된 어플리케이션(예: 모바일 의료 기기의 건강 관리 어플리케이션 등)을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 370은 외부 전자 장치(예: 서버 106 또는 전자 장치(102, 104))로부터 수신된 어플리케이션을 포함할 수 있다. 한 실시 예에 따르면, 어플리케이션 370은 프리로드 어플리케이션(preloaded application) 또는 서버로부터 다운로드 가능한 제3자 어플리케이션(third party application)을 포함할 수 있다. 도시된 실시 예에 따른 프로그램 모듈 310의 구성요소들의 명칭은 운영 체제의 종류에 따라서 달라질 수 있다.
다양한 실시 예들에 따르면, 프로그램 모듈 310의 적어도 일부는 소프트웨어, 펌웨어(firmware), 하드웨어, 또는 이들 중 적어도 둘 이상의 조합으로 구현될 수 있다. 프로그램 모듈 310의 적어도 일부는, 예를 들면, 프로세서(예: 프로세서 210)에 의해 구현(implement)(예: 실행)될 수 있다. 프로그램 모듈 310의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트(sets of instructions) 또는 프로세스 등을 포함할 수 있다.
본 문서에서 사용된 용어 "모듈"은, 예를 들면, 하드웨어, 소프트웨어 또는 펌웨어 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은, 예를 들면, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component), 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시 예들에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그램 모듈의 형태로 컴퓨터로 읽을 수 있는 기록 매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어가 프로세서(예: 프로세서 120)에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 기록 매체는, 예를 들면, 메모리 130이 될 수 있다.
컴퓨터로 판독 가능한 기록 매체는, 하드디스크, 플로피디스크, 마그네틱 매체(magnetic media)(예: 자기테이프), 광기록 매체(optical media)(예: CD-ROM(compact disc read only memory), DVD(digital versatile disc), 자기-광 매체(magneto-optical media)(예: 플롭티컬 디스크(floptical disk)), 하드웨어 장치(예: ROM(read only memory), RAM(random access memory), 또는 플래시 메모리 등) 등을 포함할 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 다양한 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
다양한 실시 예들에 따른 모듈 또는 프로그램 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 다양한 실시 예들에 따른 모듈, 프로그램 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 그리고 본 문서에 개시된 실시 예는 개시된, 기술 내용의 설명 및 이해를 위해 제시된 것이며, 본 문서에서 기재된 기술의 범위를 한정하는 것은 아니다. 따라서, 본 문서의 범위는, 본 문서의 기술적 사상에 근거한 모든 변경 또는 다양한 다른 실시 예를 포함하는 것으로 해석되어야 한다.
제안하는 본 발명의 다양한 실시 예들은 디스플레이 영역을 메인 영역과 서브 영역으로 구분하여 디스플레이를 운영할 수 있는 전자 장치에서, 메인 영역과 서브 영역에 대한 이미지 처리를 메인 프로세서(예: AP)와 서브 프로세서(예: 디스플레이 제어회로(예: DDI, Display Driver IC))에서 분담하여 처리하는 디스플레이 방법 및 장치에 관한 것이다. 예를 들면, 벤디드 디스플레이를 갖는(예: 하나의 에지(single edge) 또는 둘 이상의 에지(예: 듀얼 에지(dual edge)가 적용된) 전자 장치에서, 메인 프로세서에 의해, 메인 영역(예: 전면(front) 영역)을 통해 표준 해상도(예: 16:9)를 디스플레이 시키면서, 서브 프로세서에 의해, 서브 영역(예: 측면의 에지 부분)을 통해 추가적인 이미지(예: 가상 이미지)를 디스플레이 하여 화면을 크게(예: 16:10, 16:11 등) 보이도록 하고, 또한 베젤 영역을 최소한으로 보이게 할 수 있다.
본 발명의 다양한 실시 예들에 따른 장치는 디스플레이 기능을 지원하는 모든 정보통신기기, 멀티미디어기기, 웨어러블 장치(wearable device) 및 그에 대한 응용기기와 같이 AP(application processor)), CP(communication processor), GPU(graphic processing unit), 및 CPU(central processing unit) 등의 다양한 프로세서 중 하나 또는 그 이상을 사용하는 모든 장치를 포함할 수 있다.
이하에서, 첨부 도면을 참조하여 본 발명의 다양한 실시 예들에 따른 디스플레이 방법 및 장치에 대하여 살펴보기로 한다. 하지만, 본 발명의 다양한 실시 예들이 하기에서 기술하는 내용에 의해 제한되거나 한정되는 것은 아니므로, 하기의 실시 예에 의거하여 다양한 실시 예들에 적용할 수 있음에 유의하여야 한다. 이하에서 설명되는 본 발명의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 발명의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 발명의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.
도 4는 본 발명의 다양한 실시 예들에 따른 벤디드 디스플레이를 갖는 전자 장치의 예시를 도시한 도면이다.
상기 도 4에 도시된 바와 같이, 전자 장치는, 벤디드 디스플레이 400과, 벤디드 디스플레이 400이 안착되어 체결되는 하우징(또는 본체) 450과, 하우징 450에 형성되어 전자 장치의 기능 수행을 위한 부가 장치 등을 포함하여 구성된다. 다양한 실시 예들에서, 부가 장치는 제1 스피커 401, 제2 스피커 403, 마이크 405, 센서(예: 전면 카메라 모듈 407, 조도 센서 409 등), 통신 인터페이스(예: 충전 또는 데이터 입/출력(Input/Output) 포트 411, 오디오 입/출력 포트 413 등), 버튼 415 등을 포함할 수 있다. 다양한 실시 예들에서는, 전자 장치가 벤디드 디스플레이 400를 갖는 전자 장치를 예로 설명하지만, 이에 한정하지는 않는다. 예를 들면, 본 발명의 다양한 실시 예들에서, 전자 장치는, 디스플레이 영역을 메인 영역과 서브 영역으로 운영할 수 있는 플레서블 디스플레이(flexible display) 또는 평면 디스플레이를 갖는 전자 장치를 포함할 수 있다.
다양한 실시 예들에서, 벤디드 디스플레이 400은 종이처럼 얇고 유연한 기판을 통해 손상 없이 휘거나 구부리거나 말 수 있다. 본 발명의 다양한 실시 예들에서 벤디드 디스플레이 400은 하우징 450에 체결되어 구부러진 형태를 유지할 수 있다. 본 발명의 다양한 실시 예들에서 전자 장치는 벤디드 디스플레이 400과 같은 형태를 비롯하여, 플렉서블 디스플레이(flexible display)와 같이 구부렸다가 폈다가를 자유자재로 할 수 있는 디스플레이 장치로 구현될 수도 있다. 벤디드 디스플레이 400은 액정 디스플레이(LCD, Liquid Crystal Display), 발광다이오드(LED, Light Emitting Diode), 유기발광다이오드(OLED, Organic LED) 및 능동형 OLED(AMOLED, Active Matrix OLED) 등에서 액정을 싸고 있는 유리 기판을 플라스틱 필름으로 대체하여, 접고 펼 수 있는 유연성을 부여할 수 있다.
다양한 실시 예들에서, 벤디드 디스플레이 400은 전자 장치의 크기에 따라 특정 화면 크기(예컨대, 3인치, 4인치, 4.65인치, 4.8인치, 5인치, 6.5인치, 7.7인치, 8.9인치, 10.1인치 등)의 액티브 매트릭스 화면(active matrix screen)을 가질 수 있다. 다양한 실시 예들에 따라, 전자 장치의 적어도 하나의 측면(side)(예: 좌측, 우측, 상측, 하측 중 적어도 하나의 면)까지 연장되어, 벤디드 디스플레이 400이 동작 가능한 곡률 반경(radius of curvature)(예: 곡률 반경 5cm, 1cm, 7.5mm, 5mm, 4mm 등) 이하로 접혀 하우징 450의 측면에 체결될 수 있다. 이에 한정하지 않으며, 다양한 실시 예들에 따른 벤디드 디스플레이 400은 곡률 반경이 없는 직각 형태로 구현할 수도 있다.
본 발명의 다양한 실시 예들에서는 벤디드 디스플레이 400의 전면(front)에 나타나는 영역을 메인 영역 416이라 칭하고, 메인 영역 416으로부터 연장되어 하우징 450의 적어도 하나의 측면(예: 도 4의 참조번호 10, 20 참조)으로 구부러져서 하우징 450의 측면에 나타나는 영역을 서브 영역 420이라 할 수 있다.
다양한 실시 예들에서, 메인 영역 416과 서브 영역 420은 설명의 편의를 위해 구분한 것으로, 물리적으로 분리된 형태를 의미하지 않는다. 다양한 실시 예들에 따라, 메인 영역 416과 서브 영역420은 적어도 하나의 끝단이 구부러진 형태를 가지며, 구부러지는 적어도 하나의 끝단이 전자 장치의 적어도 하나의 측면까지 연장되는 하나의 벤디드 디스플레이 400에 의해 구현될 수 있다. 다양한 실시 예들에 따라, 구현 방식에 따라 구부러지는 적어도 하나의 끝단이 전자 장치의 후면까지 연장되어 구현될 수도 있다.
다양한 실시 예들에서, 메인 영역 416에 의한 이미지 프로세싱은 전자 장치의 프로세서(예: AP(Application Processor)에서 담당할 수 있다. 다양한 실시 예들에서, 서브 영역 420은 전자 장치에서 디스플레이 패널(미도시)에 전기적 신호(예: MHVL(Multi High Voltage Level) 신호)로 제공하는 디스플레이 제어회로(예: 디스플레이 드라이버 회로(DDI, Display Driver IC))에서 담당할 수 있다. 다양한 실시 예들에서는, 메인 영역 416과 서브 영역 420을 위한 이미지 처리를 프로세서와 디스플레이 제어회로에서 분산하여 처리하여, 디스플레이를 위한 이미지 프로세싱에 소모되는 프로세서의 소모 전류를 감소할 수 있다.
다양한 실시 예들에서, 벤디드 디스플레이 400은 입력과 출력을 지원할 수 있으며, 메인 영역 416과 서브 영역 420에 의한 입력 및 출력을 동시적으로 또는 개별적으로 처리할 수 있다. 다양한 실시 예들에서, 메인 영역 416과 서브 영역 420에 대한 이미지 프로세싱 동작 예시들에 대해 후술하는 도면들을 참조하여 설명될 것이다.
다양한 실시 예들에 따르면, 전자 장치의 커버(미도시) 등에 의해 메인 영역 416이 가려지는 것과 같이, 메인 영역 416이 사용되지 않는 경우에서는, 프로세서에서는 메인 영역 416을 단색(예: 검은색 등)으로 출력하거나, 또는 메인 영역 416과 서브 영역 420의 전원을 분리하여 메인 영역 416으로의 전원 공급을 차단하여 디스플레이 하지 않을 수 있다. 이러한 경우, 서브 영역 420의 운영에 따라 디스플레이 제어회로에서 서브 영역 420에 디스플레이를 위한 이미지를 처리하여 디스플레이 할 수도 있다.
또한 다양한 실시 예들에 따르면, 전자 장치에서 제공되는 환경 설정, 별도의 어플리케이션, 또는 사용자의 파지 상태 감지를 이용하여 전자 장치의 오른손 모드 및 왼손 모드를 정의할 수 있다. 그리고 전자 장치는 해당 모드에 대응하는 측면의 서브 영역 420만을 이용하여 입력 및 출력을 처리할 수도 있다. 일 예로, 도 4의 예시에서 전자 장치가 오른손 모드로 설정된 경우 오른쪽 측면 10의 서브영역 420을 통해 입력 및 출력이 이루어지고, 왼손 모드로 설정된 경우 왼쪽 측면 20의 서브 영역 420을 통해 입력 및 출력이 이루어질 수 있다.
도 5a는 본 발명의 다양한 실시 예들에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.
상기 도 5a를 참조하면, 본 발명의 다양한 실시 예들에 따른 전자 장치 500은 무선 통신부 510, 사용자 입력부 520, 터치스크린(touchscreen) 530, 오디오 처리부 540, 메모리 550, 인터페이스부 560, 카메라 모듈 570, 제어부 580(또는 프로세서), 그리고 전원 공급부 590을 포함할 수 있다. 본 발명의 다양한 실시 예들에서 전자 장치 500은 도 5a에 도시된 구성들이 필수적인 것은 아니어서, 도 5a에 도시된 구성들보다 많은 구성들을 가지거나, 또는 그보다 적은 구성들을 가지는 것으로 구현될 수 있다.
상기 무선 통신부 510은 상기 도 2의 통신 모듈 220과 동일 또는 유사한 구성을 가질 수 있다. 상기 무선 통신부 510은 전자 장치 500과 다른 외부 전자 장치 사이의 무선 통신을 가능하게 하는 하나 또는 그 이상의 모듈들을 포함할 수 있다. 예를 들어, 무선 통신부 510은 이동통신 모듈 511, 무선 랜(WLAN, wireless local area network) 모듈 513, 근거리 통신 모듈 515, 그리고 위치 산출 모듈 517 등을 포함하여 구성될 수 있다. 다양한 실시 예들에서, 상기 무선 통신부 510은 주변의 외부 전자 장치와 통신을 수행하기 위한 모듈(예: 근거리 통신 모듈, 원거리 통신 모듈 등)을 포함할 수 있다.
상기 이동통신 모듈 511은 상기 도 2의 셀룰러 모듈 221과 동일 또는 유사한 구성을 가질 수 있다. 상기 이동통신 모듈 511은 이동통신 네트워크 상에서 기지국, 외부 전자 장치(예: 전자 장치 104), 그리고 다양한 서버들(예: 통합 서버(integration server), 프로바이더 서버(provider server), 콘텐츠 서버(content server), 인터넷 서버(internet server), 또는 클라우드 서버(cloud server) 등) 중 적어도 하나와 무선 신호를 송수신할 수 있다. 상기 무선 신호는 음성 신호, 데이터 신호 또는 다양한 형태의 제어 신호를 포함할 수 있다. 상기 이동통신 모듈 411은 전자 장치 500의 동작에 필요한 다양한 데이터들을 사용자 요청에 응답하여 외부 장치(예: 서버 106 또는 다른 전자 장치 104 등)로 전송할 수 있다.
상기 무선 랜 모듈 513은 상기 도 2의 WiFi 모듈 223과 동일 또는 유사한 구성을 가질 수 있다. 상기 무선 랜 모듈 513은 무선 인터넷 접속 및 다른 외부 전자 장치(예: 전자 장치 102 또는 서버 106)와 무선 랜 링크(link)를 형성하기 위한 모듈을 나타낼 수 있다. 상기 무선 랜 모듈 513은 전자 장치 500에 내장되거나 외장될 수 있다. 무선 인터넷 기술로는 WiFi(wireless fidelity), Wibro(wireless broadband), WiMax(world interoperability for microwave access), HSDPA(high speed downlink packet access), 또는 mmWave(millimeter wave) 등이 이용될 수 있다. 상기 무선 랜 모듈 513은 전자 장치 500과 네트워크(예: 무선 인터넷 네트워크)를 통해 연결되어 있는 다른 외부 전자 장치와 연동하여, 전자 장치 500의 다양한 데이터들을 외부(예: 외부 전자 장치 또는 서버)로 전송하거나, 또는 외부로부터 수신할 수 있다. 상기 무선 랜 모듈 513은 상시 온(on) 상태를 유지하거나, 전자 장치 500의 설정 또는 사용자 입력에 따라 턴-온(turn-on) 또는 턴-오프(turn-off)될 수 있다.
상기 근거리 통신 모듈 515은 근거리 통신(short range communication)을 수행하기 위한 모듈을 나타낼 수 있다. 근거리 통신 기술로 블루투스(bluetooth), 저전력 블루투스(BLE, bluetooth low energy), RFID(radio frequency identification), 적외선 통신(IrDA, infrared data association), UWB(ultra wideband), 지그비(zigbee), 또는 NFC(near field communication) 등이 이용될 수 있다. 상기 근거리 통신 모듈 515은 전자 장치 500과 네트워크(예: 근거리 통신 네트워크)를 통해 연결되어 있는 다른 외부 전자 장치와 연동하여, 전자 장치 500의 다양한 데이터들을 외부 전자 장치로 전송하거나 수신 받을 수 있다. 상기 근거리 통신 모듈 515은 상시 온 상태를 유지하거나, 전자 장치 500의 설정 또는 사용자 입력에 따라 턴-온 또는 턴-오프 될 수 있다.
상기 위치 산출 모듈 517은 상기 도 2의 GNSS 모듈 227과 동일 또는 유사한 구성을 가질 수 있다. 상기 위치 산출 모듈 517은 전자 장치 500의 위치를 획득하기 위한 모듈로서, 대표적인 예로는 GPS(global position system) 모듈을 포함할 수 있다. 상기 위치 산출 모듈 517은 삼각 측량의 원리로 전자 장치 500의 위치를 측정할 수 있다.
상기 사용자 입력부 520은 전자 장치 500의 동작 제어를 위한 입력 데이터를 사용자 입력에 응답하여 발생할 수 있다. 상기 사용자 입력부 520은 사용자의 다양한 입력을 검출하기 위한 적어도 하나의 입력 수단을 포함할 수 있다. 예를 들어, 상기 사용자 입력부 520은 키패드(key pad), 돔 스위치(dome switch), 물리 버튼, 터치패드(정압/정전), 조그셔틀(jog & shuttle), 그리고 센서(예: 센서 모듈 240) 등을 포함할 수 있다.
상기 사용자 입력부 520은 일부가 전자 장치 500의 외부에 버튼 형태로 구현될 수 있으며, 일부 또는 전체가 터치 패널(touch panel)로 구현될 수도 있다. 상기 사용자 입력부 520은 본 발명의 다양한 실시 예들에 따른 전자 장치 500의 동작(예: 메인 영역과 서브 영역의 구분에 의한 디스플레이 처리 동작 등)을 개시(initiation)하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다.
상기 터치스크린 530은 입력 기능과 디스플레이 기능을 동시에 수행할 수 있는 입출력 장치를 나타내며, 디스플레이 531(예: 디스플레이(160, 260))과 터치감지부 533을 포함할 수 있다. 상기 터치스크린 530은 전자 장치 500과 사용자 사이에 입출력 인터페이스를 제공하며, 사용자의 터치 입력을 전자 장치 500에게 전달할 수 있고, 또한 전자 장치 500으로부터의 출력을 사용자에게 보여주는 매개체 역할을 포함할 수 있다. 상기 터치스크린 530은 사용자에게 시각적인 출력(visual output)을 보여줄 수 있다. 상기 시각적 출력은 텍스트(text), 그래픽(graphic), 비디오(video)와 이들의 조합의 형태로 나타날 수 있다.
본 발명의 다양한 실시 예들에 따르면, 상기 디스플레이 531은 전자 장치 500에서 처리되는 다양한 정보를 디스플레이(출력)할 수 있다. 예를 들어, 상기 디스플레이 531은 전자 장치 500의 사용과 관련된 다양한 유저 인터페이스(UI, user interface) 또는 그래픽 유저 인터페이스(GUI, graphical UI)를 디스플레이 할 수 있다. 상기 디스플레이 531은 다양한 디스플레이(예: 디스플레이 160)가 사용될 수 있다. 다양한 실시 예들에서, 상기 디스플레이 531은 벤디드 디스플레이가 사용될 수 있다.
본 발명의 다양한 실시 예들에 따르면, 상기 디스플레이 531은 디스플레이 패널(미도시)에 전기적 신호(예: MHVL(Multi High Voltage Level) 신호)로 제공하는 디스플레이 제어회로(예: DDI, Display Driver IC)(미도시)를 포함할 수 있다. 다양한 실시 예들에서, 디스플레이 제어회로는 디스플레이 531의 구도에 필수적인 핵심 구성 요소로, 화면에 이미지(예: 텍스트, 그림, 정지영상, 동영상 등)가 디스플레이 되도록 구동 신호 및 데이터를 디스플레이 531에 전기적 신호(예: MHVL 신호)로 제공하는 IC로서, LCD, PDP, OLED 등 다양한 방식의 디스플레이를 구동하는 회로를 나타낼 수 있다.
상기 터치감지부 533은 상기 디스플레이 531에 안착될 수 있으며, 상기 터치스크린 530 표면에 접촉 또는 근접하는 사용자 입력을 감지할 수 있다. 상기 사용자 입력은 싱글터치(single-touch), 멀티터치(multi-touch), 호버링(hovering), 또는 에어 제스처 중 적어도 하나에 기반하여 입력되는 터치 이벤트 또는 근접 이벤트를 포함할 수 있다. 상기 터치감지부 533은 본 발명의 다양한 실시 예들에서 전자 장치 500의 사용과 관련된 동작을 개시하기 위한 사용자 입력을 수신할 수 있고, 사용자 입력에 따른 입력 신호를 발생할 수 있다.
상기 오디오 처리부 540은 도 2의 오디오 모듈 280과 동일 또는 유사한 구성을 가질 수 있다. 상기 오디오 처리부 540은 상기 제어부 580으로부터 입력 받은 오디오 신호를 스피커(SPK, speaker) 541로 전송하고, 마이크(MIC, microphone) 543으로부터 입력 받은 음성 등의 오디오 신호를 제어부 580에 전달하는 기능을 수행할 수 있다. 상기 오디오 처리부 540은 음성/음향 데이터를 제어부 580의 제어에 따라 스피커 541을 통해 가청음으로 변환하여 출력하고, 마이크 543으로부터 수신되는 음성 등의 오디오 신호를 디지털 신호로 변환하여 제어부 580에게 전달할 수 있다.
상기 스피커 541은 무선 통신부 510으로부터 수신되거나, 또는 메모리 550에 저장된 오디오 데이터를 출력할 수 있다. 상기 스피커 541은 전자 장치 500에서 수행되는 다양한 동작(기능)과 관련된 음향 신호를 출력할 수도 있다.
상기 마이크 543은 외부의 음향 신호를 입력 받아 전기적인 음성 데이터로 처리할 수 있다. 상기 마이크 543에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘(noise reduction algorithm)이 구현될 수 있다. 상기 마이크 543은 음성 명령(예: 메인 영역과 서브 영역의 구분에 의한 디스플레이 처리를 개시하기 위한 음성 명령) 등과 같은 오디오 스트림의 입력을 담당할 수 있다.
상기 메모리 550(예: 메모리(130, 230))은 제어부 580에 의해 실행되는 하나 또는 그 이상의 프로그램들(one or more programs)을 저장할 수 있고, 입/출력되는 데이터들의 임시 저장을 위한 기능을 수행할 수도 있다. 상기 입/출력되는 데이터들은 예를 들어, 동영상, 이미지, 사진 등의 파일을 포함할 수 있다. 상기 메모리 550은 획득된 데이터를 저장하는 역할을 담당하며, 실시간으로 획득된 데이터는 일시적인 저장 장치에 저장할 수 있고, 저장하기로 확정된 데이터는 오래 보관 가능한 저장 장치에 저장할 수 있다.
상기 메모리 550은 전자 장치 500의 디스플레이 531의 메인 영역과 서브 영역 구분에 의한 디스플레이 기능을 실행하는 것과 관련되는 하나 또는 그 이상의 프로그램들과 데이터를 저장할 수 있다. 예를 들어, 상기 메모리 550은 본 발명의 다양한 실시 예들에서, 프로세서(예: AP)에 의한 메인 영역의 이미지 처리와, 디스플레이 제어회로(예: DDI)에 의한 서브 영역의 이미지 처리를 결정하도록 하는 인스트럭션들(instructions)을 저장할 수 있다. 상기 메모리 550은 하나 이상의 어플리케이션 모듈(또는 소프트웨어 모듈) 등을 포함할 수 있다. 상기 어플리케이션 모듈은 디스플레이 531의 메인 영역 및 서브 영역에 기반하여 데이터를 디스플레이 하기 위한 인스트럭션들을 포함할 수 있다.
상기 인터페이스부 560은 도 2의 인터페이스 270과 동일 또는 유사한 구성을 가질 수 있다. 상기 인터페이스부 560은 외부 다른 외부 전자 장치로부터 데이터를 전송 받거나, 전원을 공급받아 전자 장치 500 내부의 각 구성들에 전달할 수 있다. 상기 인터페이스부 560은 전자 장치 500 내부의 데이터가 다른 외부 전자 장치로 전송되도록 할 수 있다. 예를 들어, 유/무선 헤드셋 포트(port), 외부 충전기 포트, 유/무선 데이터 포트, 메모리 카드(memory card) 포트, 오디오 입/출력(Input/Output) 포트, 비디오 입/출력 포트, 이어폰 포트 등이 인터페이스부 560에 포함될 수 있다.
상기 카메라 모듈 570(예: 카메라 모듈 291)은 전자 장치 500의 촬영 기능을 지원하는 구성을 나타낸다. 상기 카메라 모듈 570은 제어부 580의 제어에 따라 임의의 피사체를 촬영하고, 촬영된 데이터(예: 이미지)를 디스플레이 531 및 제어부 580에 전달할 수 있다.
상기 제어부 580은 전자 장치 500의 전반적인 동작을 제어할 수 있다. 다양한 실시 예들에서, 상기 제어부 580은 상기 도 2의 프로세서 210과 동일 또는 유사한 구성을 가질 수 있다. 다양한 실시 예들에서, 상기 제어부 580은 특정 이미지를 디스플레이 531에 디스플레이 하는 동작 개시를 감지할 수 있다. 예를 들어, 제어부 580은, 사용자에 의한 이미지 디스플레이 요청 감지, 또는 디스플레이 531의 턴-온(turn-on) 감지 등에 대응하여 디스플레이를 위한 동작 개시로 판단할 수 있다. 상기 제어부 580은, 디스플레이 동작 개시에 응답하여 이미지 전달 방식을 확인하여 풀 해상도(full resolution)(예: 2560*1600) 이미지(예: 메인 영역과 서브 영역을 포함하는 디스플레이 전체 영역을 위한 이미지) 전달인지 또는 라이트 해상도(light resolution)(예: 2560*1440) 이미지(예: 디스플레이 전체 영역 중 일부 영역(예: 메인 영역)을 위한 이미지) 전달인지 여부를 판단할 수 있다. 예를 들어, 제어부 580은, 메모리 550에 미리 저장된 설정 정보를 참조하여 풀 해상도(예: 2560*1600)에 맞는 이미지 처리에 의한 이미지 전달인지, 또는 메인 영역(예: 2560*1440)에 맞는 이미지 처리에 의한 이미지 전달인지 결정할 수 있다.
상기 제어부 580은, 풀 해상도(예: 2560*1600) 이미지 전달을 결정하면, 풀 해상도 이미지에 의한 디스플레이를 위한 이미지 프로세싱을 통해 풀 해상도 이미지를 생성하고, 풀 해상도 이미지와 풀 해상도 이미지의 디스플레이를 위한 제어 정보를 디스플레이 제어회로(예: DDI)에 전달할 수 있다.
상기 제어부 580은, 라이트 해상도(예: 2560*1440) 이미지 전달을 결정하면, 라이트 해상도 이미지에 의한 디스플레이를 위한 이미지 프로세싱을 통해 라이트 해상도 이미지를 생성하고, 라이트 해상도 이미지(예: 메인 영역을 위한 이미지)와 라이트 해상도 이미지의 디스플레이를 위한 제어 정보를 디스플레이 제어회로(예: DDI)에 전달할 수 있다. 다양한 실시 예들에 따라, 라이트 해상도 이미지의 디스플레이를 위한 제어 정보는 메인 영역에 대한 디스플레이의 정보 이외에, 서브 영역에 대한 이미지 처리와 관련된 정보를 포함할 수 있다.
제어부 580은 전자 장치 500의 동작을 제어하기 위한 하나 또는 그 이상의 프로세서들을 포함할 수 있다. 다양한 실시 예들에서, 제어부 580은 인터페이스부 560, 디스플레이 531 등의 하드웨어적 모듈의 동작을 제어할 수 있다. 본 발명의 다양한 실시 예들에 따른 상기 제어부 580의 제어 동작은 후술하는 도면들을 참조하여 구체적으로 설명된다.
본 발명의 다양한 실시 예들에 따르면, 상기 제어부 580은 메모리 550에 저장된 소프트웨어 모듈들과 연동하여 본 발명의 다양한 실시 예들에 따른 전자 장치 500의 디스플레이를 위한 이미지 프로세싱 동작을 수행할 수 있다. 본 발명의 다양한 실시 예들에 따르면, 상기 제어부 580은 메모리 550에 저장되는 하나 또는 그 이상의 프로그램들을 실행하여 본 발명의 다양한 실시 예들에 따른 전자 장치 500의 동작을 제어하는 하나 또는 그 이상의 프로세서들(one or more processors)로 구현될 수 있다.
상기 전원 공급부 590은 제어부 580의 제어에 의해 외부의 전원, 내부의 전원을 인가 받아 각 구성 요소들의 동작에 필요한 전원을 공급할 수 있다. 본 발명의 다양한 실시 예들에서 상기 전원 공급부 590은 제어부 580의 제어에 의해 상기 디스플레이 531, 상기 카메라 모듈 570 등에 전원을 공급 또는 차단(on/off)할 수 있다.
본 발명에서 설명되는 다양한 실시 예들은 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터(computer) 또는 이와 유사한 장치로 읽을 수 있는 기록 매체 내에서 구현될 수 있다.
도 5b는 본 발명의 다양한 실시 예들에 따른 디스플레이를 처리하기 위한 전자 장치의 구성을 개략적으로 도시하는 도면이다.
상기 도 5b를 참조하여, 다양한 실시 예들에서 제1 프로세서 600과 제2 프로세서 700에서, 디스플레이 800의 제1 영역(메인 영역)과 적어도 하나의 제2 영역(서브 영역)을 위한 이미지 처리를 분담하여 처리하는 동작이 설명된다.
상기 도 5b를 참조하면, 본 발명의 다양한 실시 예들에 따른 전자 장치 500은 제1 프로세서 600, 제2 프로세서 700, 디스플레이 800, 그리고 메모리 900을 포함할 수 있다.
다양한 실시 예들에서, 디스플레이 800은 전자 장치 500의 하우징(예: 도 4의 450)의 일면에 노출되고, 편평한 제1 영역(예: 전자 장치 500의 전면(front)의 메인 영역), 및 상기 제1 영역으로부터 적어도 일부가 휘어지도록 연장된 제2 영역(예: 전자 장치 500의 측면(side)의 서브 영역)을 포함할 수 있다. 다양한 실시 예들에서, 디스플레이 800은 제1 영역과 제2 영역을 구분하여 화면을 디스플레이 할 수 있다. 다양한 실시 예들에서, 제2 영역은 벤디드 디스플레이의 에지 부분, 플렉서블 디스플레이에서 접히는 면, 또는 평면 디스플레이에서 구분되는 서브 영역을 사용할 수 있다.
다양한 실시 예들에서, 제1 프로세서 600은, 상기 도 2의 프로세서 210 또는 상기 도 5a의 제어부 580과 동일 또는 유사한 구성을 가질 수 있다. 예를 들면, 제1 프로세서 600은 어플리케이션 프로세서(AP)로 구현할 수 있다. 다양한 실시 예들에서, 제1 프로세서 600은 사용자 설정에 대응하여 디스플레이 800의 제1 영역, 또는 디스플레이 800의 제1 영역 및 제2 영역에 화면을 디스플레이 하도록 처리할 수 있다. 한 실시 예에 따르면, 제1 프로세서 600은 사용자의 디스플레이 사용 설정(예: 디스플레이 800의 적어도 하나의 제2 영역 사용 여부)에 기반하여 디스플레이 방식을 결정할 수 있다. 제1 프로세서 600은 제1 영역 사용을 결정하는 경우 제1 영역에 대응하는 디스플레이를 위한 이미지 처리를 수행하고, 그에 따른 제어 정보를 생성할 수 있다. 제1 프로세서 600은 제1 영역과 제2 영역의 사용을 결정하는 경우 제1 영역과 제2 영역에 대응하는 디스플레이를 위한 이미지 처리를 수행하고, 그에 따른 제어 정보를 생성할 수 있다. 제1 프로세서 600은 처리된 이미지와 제어 정보를 제2 프로세서 700에 전달할 수 있다. 다양한 실시 예들에서, 제1 프로세서 600은 제1 영역에 의한 디스플레이, 또는 제1 영역 및 제2 영역에 의한 디스플레이 여부를 결정하는 화면처리 판단부 650을 더 포함할 수도 있다.
다양한 실시 예들에서, 제2 프로세서 700은, 예를 들면, 디스플레이 드라이버 집적회로(DDI, Display Driver Integrated Circuit)로 구현할 수 있다. 다양한 실시 예들에서, 제2 프로세서 700은 제1 프로세서 600으로부터 이미지와 디스플레이 처리를 위한 제어 정보를 수신할 수 있다. 제2 프로세서 700은 수신된 제어 정보에 기초하여 디스플레이 방식을 결정할 수 있다.
다양한 실시 예들에 따라, 제2 프로세서 700은 제어 정보에 기초하여 디스플레이 800의 제1 영역 및 제2 영역에 의한 디스플레이를 결정하는 경우, 수신된 이미지를 그대로 디스플레이 800에 전달할 수 있다.
다양한 실시 예들에 따라, 제2 프로세서 700은 제어 정보에 기초하여 디스플레이 800의 제2 영역에 의한 디스플레이를 결정하는 경우, 제어 정보에 기초하여 제2 영역을 위한 특정 처리(픽셀 확장(pixel extension), 그라데이션(gradation) 또는 블러(blur) 등)에 의해 가상 이미지를 생성할 수 있다. 제2 프로세서 700은 제1 프로세서 600으로부터 수신된 제1 영역을 위한 이미지와 특정 처리된 가상 이미지를 디스플레이 800에 전달할 수 있다.
다양한 실시 예들에서, 제2 프로세서 700은 인터페이스 710, 메모리 720, 디코더 730, 화질 보정부 740, 밝기 보정부 750, 화면 보정부 760 등을 포함하여 구현할 수 있다.
인터페이스 710은, 예를 들면, 시리얼 인터페이스(serial interface)(예: MIPI DSI, Mobile Industry Processor Interface Display Serial Interface)를 포함할 수 있다. 다양한 실시 예들에 따라, 인터페이스 710은 제1 프로세서 600(예: 화면처리 판단부 650)과의 명령어(예: 제어 정보)와 데이터(예: 이미지) 전송을 처리할 수 있다.
메모리 720은, 예를 들면, 프레임 버퍼(frame buffer)를 포함할 수 있다. 다양한 실시 예들에 따라, 메모리 720은 인터페이스 710을 통해 전달되는 이미지를 기록(예: 버퍼링(buffering))(예: 화면 디스플레이 영역 기록)할 수 있고, 비디오 버퍼, 비디오 메모리, 비디오 램 등의 용어로 사용될 수 있다.
디코더(decoder) 730은, 예를 들면, 코드화된 이미지를 원래의 형태로 변환할 수 있다.
화질 보정부 740, 밝기 보정부 750, 화면 보정부 760은 디스플레이 800을 통해 디스플레이 할 이미지에 대한 화질, 밝기 또는 화면 보정을 처리할 수 있다.
다양한 실시 예들에서, 메모리 900은, 상기 도 2의 메모리 230 또는 상기 도 4의 메모리 550과 동일 또는 유사한 구성을 가질 수 있다. 다양한 실시 예들에 따라, 메모리 900은 적어도 두 개의 프로세서들(예: 제1 프로세서 600 및 제2 프로세서 700) 중 적어도 하나(예: 제1 프로세서 600)와 전기적으로 연결되는 적어도 하나의 메모리로 구현할 수 있다.
다양한 실시 예들에 따라, 메모리 900은, 실행 시에, 적어도 두 개의 프로세서들 중 제1 프로세서 600이, 디스플레이 800의 제1 영역 및 제2 영역에 화면을 디스플레이 하도록 하는 제1 인스트럭션들을 저장할 수 있다. 다양한 실시 예들에 따라, 메모리 900은, 실행 시에, 적어도 두 개의 프로세서들 중 제2 프로세서 700이, 디스플레이 800의 제1 영역에는 화면을 디스플레이 하지 않고, 디스플레이 800의 제2 영역에는 화면을 디스플레이 하도록 하는 제2 인스트럭션들을 저장할 수 있다.
다양한 실시 예들에 따라, 메모리 900은 제1 인스트럭션들과 제2 인스트럭션들을 저장하기 위한 제1 메모리(미도시)와 제2 메모리(미도시)를 포함하여 구현할 수 있다. 다양한 실시 예들에 따라, 제2 인스트럭션들을 저장하는 제2 메모리는 제2 프로세서 700에 배치되는 메모리 720으로 구현할 수 있다.
다양한 실시 예들에 따르면, 제1 인스트럭션들에 의해 제1 프로세서 600에서 소비되는 전력보다, 제2 인스트럭션들에 의해 제2 프로세서 700에서 소비되는 전력이 작을 수 있다. 후술하는 <표 1>를 참조한 설명 부분에서 설명된다.
이상에서 살펴본 바와 같이, 본 발명의 다양한 실시 예들에 따르면, 전자 장치는, 하우징; 상기 하우징의 일면에 노출되고, 편평한 제1 영역, 및 상기 제1 영역으로부터 연장되고, 적어도 일부가 휘어진 제2 영역을 포함하는 디스플레이; 상기 디스플레이와 전기적으로 연결된 제2 프로세서; 상기 제2 프로세서와 전기적으로 연결된 제1 프로세서; 및 상기 제1 프로세서 또는 제2 프로세서 중 적어도 하나와 전기적으로 연결된 적어도 하나의 메모리를 포함하며; 상기 적어도 하나의 메모리는, 실행 시에, 상기 제1 프로세서가, 상기 디스플레이의 제1 영역에 디스플레이될 데이터를 처리하여, 상기 제2 프로세서로 제공하도록 하는 제1 인스트럭션들; 및 상기 제2 프로세서가, 상기 제1 프로세서로부터 제공된 데이터를 처리하여, 상기 디스플레이의 제2 영역에 디스플레이될 데이터를 생성하도록 하는 제2 인스트럭션들을 저장하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제1 프로세서는 어플리케이션 프로세서를 포함하고, 상기 제2 프로세서는 디스플레이 드라이버 집적회로(display driver integrated circuit)를 포함하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 메모리 중 제1 메모리는 상기 제1 인스트럭션들을 저장하고, 상기 적어도 하나의 메모리 중 제2 메모리는 상기 제2 인스트럭션들을 저장하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 메모리는 상기 제2 프로세서 내부에 배치하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제1 인스트럭션들에 의해 상기 제1 프로세서에서 소비되는 전력보다, 상기 제2 인스트럭션들에 의해 상기 제2 프로세서에서 소비되는 전력이 작을 수 있다.
다양한 실시 예들에서, 상기 적어도 하나의 메모리는, 실행 시에, 상기 제2 프로세서가, 상기 제1 영역에는 화면을 디스플레이 하지 않고, 상기 제2 영역에는 화면을 디스플레이 하도록 하는 제2 인스트럭션들을 저장하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제1 프로세서는, 특정 이미지를 디스플레이 하는 동작 개시에 응답하여 풀 해상도 이미지 전달인지, 또는 라이트 해상도 이미지 전달인지 결정할 수 있고, 결정된 이미지 전달 방식에 대응하는 이미지 및 제어 정보를 생성하여 상기 디스플레이 제어회로에 전달하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제1 프로세서는, 풀 해상도 이미지 전달을 결정하면, 풀 해상도 이미지의 디스플레이를 위한 제어 정보를 생성하고, 풀 해상도 이미지에 의한 디스플레이를 위한 이미지 처리를 통해 풀 해상도 이미지를 생성하고, 라이트 해상도 이미지 전달을 결정하면, 라이트 해상도 이미지의 디스플레이를 위한 제어 정보를 생성하고, 라이트 해상도 이미지에 의한 디스플레이를 위한 이미지 처리를 통해 라이트 해상도 이미지를 생성하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제2 프로세서는, 상기 제1 프로세서로부터 디스플레이를 위한 이미지와 제어 정보를 수신하면, 제어 정보에 기반하여 상기 이미지가 풀 해상도 이미지인지 또는 라이트 해상도 이미지인지 판단하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 프로세서는, 풀 해상도 이미지의 경우 이미지 처리 없이 수신된 풀 해상도 이미지를 디스플레이에 전달하고, 라이트 해상도 이미지의 경우 특정 이미지 처리 후, 수신된 이미지와 처리된 이미지를 디스플레이에 전달하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제2 프로세서는, 수신된 이미지가 라이트 해상도 이미지인 경우 서브 영역을 위한 이미지 처리를 결정하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 프로세서는, 라이트 해상도 이미지인 것으로 결정하면, 제어 정보에 기초하여 서브 영역을 통해 디스플레이 할 이미지 처리 방식을 결정하고, 결정된 처리 방식에 대응하여 수신된 이미지의 적어도 일부에 기반하여 이미지 처리를 수행하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제2 프로세서는, 제어 정보에 기반하여 서브 영역을 위한 이미지 처리가 필요한지 여부를 결정하고, 이미지 처리를 결정할 시 상기 제어 정보에 기반하여 가상 이미지를 처리하기 위한 서브 영역과 가상 이미지를 위한 이미지 처리 방식을 판단하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 프로세서는, 제1 프로세서로부터 수신된 라이트 해상도 이미지를 이용하여 양 측면 또는 어느 일 측면의 서브 영역을 위한 특정 처리를 통해 서브 영역을 위한 적어도 하나의 가상 이미지를 생성하고, 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하도록 구성할 수 있다.
다양한 실시 예들에서, 메인 영역과 서브 영역으로 구분되는 디스플레이를 포함하는 전자 장치는, 전면의 메인 영역과 측면의 서브 영역을 포함하고, 디스플레이 제어회로부터 수신된 이미지를 메인 영역 및 서브 영역 적어도 일부에 기반하여 디스플레이 하는 디스플레이; 상기 메인 영역과 상기 서브 영역에 대응하는 풀 해상도 이미지, 또는 상기 메인 영역에 대응하는 라이트 해상도 이미지를 처리하여 디스플레이 제어회로에 전달하는 프로세서; 및 상기 프로세서로부터 전달된 풀 해상도 이미지를 디스플레이에 전달하거나, 상기 서브 영역을 위한 가상 이미지를 처리하고 상기 프로세서로부터 전달된 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하는 디스플레이 제어회로를 포함하도록 구성할 수 있다.
본 발명의 다양한 실시 예들에 따르면, 전자 장치는, 하우징; 상기 하우징의 일면에 노출되고, 편평한 제1 영역, 및 상기 제1 영역으로부터 적어도 일부가 휘어지도록 연장된 제2 영역을 포함하는 디스플레이; 상기 디스플레이와 전기적으로 연결된 적어도 두 개의 프로세서들; 상기 적어도 두 개의 프로세서들 중 적어도 하나와 전기적으로 연결된 적어도 하나의 메모리; 상기 적어도 하나의 메모리는, 실행 시에, 상기 적어도 두 개의 프로세서들 중 제1 프로세서가, 상기 제1 영역 및 상기 제2 영역에 화면을 디스플레이 하도록 하는 제1 인스트럭션들을 저장하고, 상기 적어도 하나의 메모리는, 실행 시에, 상기 적어도 두 개의 프로세서들 중 제2 프로세서가, 상기 제1 영역에는 화면을 디스플레이 하지 않고, 상기 제2 영역에는 화면을 디스플레이 하도록 하는 제2 인스트럭션들을 저장하도록 구성할 수 있다.
도 6 및 도 7은 본 발명의 다양한 실시 예들에 따른 전자 장치의 디스플레이 동작을 설명하기 위해 도시하는 도면들이다.
다양한 실시 예들에 따른, 도 6 및 도 7에서는 전자 장치가 풀 해상도 2560*1600을 지원하고, 전면의 메인 영역이 해상도 2560*1440를 지원하고, 양 측면의 서브 영역 각각이 해상도 2560*80을 지원하며, 메인 영역의 해상도와 서브 영역의 해상도의 합이 풀 해상도에 대응하는 경우를 예시로 도시한다. 다양한 실시 예들에서, 해상도의 수치는 단지 특정한 실시 예를 설명하기 위해 또는 설명의 편의를 위해 사용된 것으로 고정된 것은 아니며, 디스플레이 혹은 전자 장치의 특성에 따라 다양하게 구현할 수 있다.
도 6 및 도 7을 참조하면, 벤디드 디스플레이가 적용된 전자 장치는 가로 또는 세로 모드 사용 시 서브 영역을 이용하여 화면을 보다 크게 보이게 할 수 있다. 예를 들어, 전면의 메인 영역을 통해 2560*1440 해상도를 지원한다고 가정할 시, 양쪽 측면의 서브 영역들을 통해 2560*80 해상도를 각각 확장하여 전체 2560*1600(예: 2056*(1440+80+80))을 지원할 수 있다. 예를 들어, 양쪽 측면의 서브 영역들을 모두 사용하여 160 픽셀(pixel)을 확장하거나, 어느 한 측면의 서브 영역을 사용하여 80 픽셀을 확장할 수 있다.
다양한 실시 예에 따르면, 메인 영역에 대한 디스플레이는 AP(Application Processor) 600에서 처리하고, 서브 영역들에 대한 디스플레이는 DDI(Display Driver IC) 700에서 처리할 수 있다.
도 6 및 도 7을 예시로 살펴보면, AP 600에서는 디스플레이를 위한 이미지에 대해 풀 해상도 2560*1600에 대한 이미지 프로세싱이 아닌, 전면의 메인 영역의 해상도 2560*1440에 대한 이미지 프로세싱을 수행하고, 이미지 프로세싱에 따른 제1 이미지(라이트 해상도 이미지)(예: 2560*1440 해상도의 이미지)를 DDI 700에 전달할 수 있다. DDI 700에서는 AP 600로부터 메인 영역의 해상도 2560*1440에 대응하는 제1 이미지(라이트 해상도 이미지)가 전달되면, 전달된 제1 이미지에 기반하여 서브 영역들을 통해 디스플레이 하기 위한 제2 이미지(가상 이미지)(예: 적어도 하나의 2560*80 이미지)를 처리할 수 있다. 예를 들어, DDI 700은 서브 영역들에 대한 특정 처리를 통해 화면을 보다 크게 보이게 할 수 있다. 한 실시 예에 따르면, DDI 700은 제1 이미지에 기반하여 픽셀 확장(pixel extension), 그라데이션(gradation), 블러(blur) 등과 같은 특정 처리를 통해 서브 영역에 제2 이미지를 디스플레이 할 수 있다.
다양한 실시 예에 따르면, 전자 장치는 락 스크린(lock screen), 인터넷, 특정 이미지를 디스플레이 하는 경우, 벤디드 디스플레이(예: 메인 영역, 서브 영역)에 대한 사용 시나리오에 대응하여, 메인 영역과 서브 영역에 대한 이미지 처리를 AP 600과 DDI 700에서 구분하여 독립적으로 처리할 수 있다.
한편, AP 600은 풀 해상도의 이미지로 디스플레이 방식을 결정하는 경우, 풀 해상도 이미지(예: 2560*1600 이미지)를 DDI 700에 전달할 수 있고, DDI 700은 AP 600으로부터 풀 해상도 이미지가 전달되면, 서브 영역을 위한 이미지 프로세싱 동작 없이 풀 해상도 이미지를 그대로 디스플레이 800에 전달할 수 있다.
다양한 실시 예에 따르면, 디스플레이 800은 DDI 700에서 전달되는 이미지를 메인 영역 또는 메인 영역과 적어도 하나의 서브 영역을 통해 디스플레이 할 수 있다.
도 8, 도 9, 도 10 및 도 11은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 메인 영역과 서브 영역을 이용하여 이미지를 디스플레이 하는 예시를 도시하는 도면들이다.
도 8에 도시한 바와 같이, 전자 장치가 벤디드 디스플레이에 의해 풀 해상도 2560*1600을 제공하는 것을 가정할 수 있다. 다양한 실시 예들에서, 벤디드 디스플레이의 해상도는 메인 영역 810의 해상도(예: 2560*1440)와 서브 영역 820, 830의 해상도(예: 2560*(80*2))로 구분될 수 있고, 각 해상도들의 합에 의해 풀 해상도가 결정될 수 있다.
다양한 실시 예들에 따르면, AP 600에서는 메인 영역 810을 위한 2560*1440 이미지만 처리하여 DDI 700에 전달하면, 나머지 160 픽셀(예: 제1 서브 영역 820의 80 픽셀 및 제2 서브 영역 830의 80 픽셀)은 DDI 700에서 처리하여 전체 2560*1600 이미지를 디스플레이 할 수 있다.
한 실시 예에 따르면, 도 9에 예시한 바와 같이, 특정 이미지(예: 락 스크린, 인터넷, 또는 이미지 등)에 대해 AP 600에서는 사용자의 디스플레이 사용 설정(예: 모든 서브 영역 사용)에 대응하여 2560*1440(메인 영역 810)을 위한 이미지와 그에 따른 제어 정보(예: 모든 서브 영역 사용)를 전달할 수 있다. 다양한 실시 예들에서, DDI 700에서는 제어 정보에 기초하여 양 측면의 서브 영역들(2560*160) 820, 830에 대해 임의 처리하여 2560*1600 이미지가 디스플레이 되는 효과를 제공할 수 있다. 다양한 실시 예들에서, 서브 영역들 820, 830에 대한 임의 처리는, DDI 700에서 메인 영역 810을 위해 전달된 이미지(예: 2560*1440 이미지)의 적어도 일부에 기반하여 처리할 수 있다. 한 실시 예에 따라, DDI 700은 전달된 이미지의 좌측 및 우측의 에지 부분에서 특정 처리(예: 픽셀 확장(pixel extension), 그라데이션(gradation) 또는 블러(blur) 등)를 통해 제1 서브 영역 820과 제2 서브 영역 830을 위한 이미지를 처리할 수 있다.
다양한 실시 예들에 따르면, AP 600에서는 메인 영역 810을 위한 2560*1440 이미지만 처리하여 DDI 700에 전달하면, 나머지 80 픽셀(예: 제어 정보에 기초하여 결정되는 제1 서브 영역 820의 80 픽셀 또는 제2 서브 영역 830의 80 픽셀)에 대해 DDI 700에서 처리하여 전체 2560*1520 이미지를 디스플레이 할 수 있다.
한 실시 예에 따르면, 도 10에 예시한 바와 같이, 특정 이미지에 대해 AP 600에서는 사용자의 디스플레이 사용 설정(예: 서브 영역의 왼쪽 또는 오른쪽 사용)에 대응하여 2560*1440(메인 영역 810)을 위한 이미지와 그에 따른 제어 정보(예: 서브 영역의 왼쪽 또는 오른쪽 사용)를 전달할 수 있다. 다양한 실시 예들에서, DDI 700에서는 제어 정보에 기초하여 어느 한 측면의 서브 영역(2560*80)(예: 제1 서브 영역 820 또는 제2 서브 영역 830)에 대해 임의 처리하여 2560*1520 이미지가 디스플레이 되는 효과를 제공할 수 있다. 도 10의 예시에서는, 제어 정보에 기초하여 제2 서브 영역 830의 80 픽셀에 대해 임의 처리하여 디스플레이 하는 경우의 예시를 나타낼 수 있다. 다양한 실시 예들에서, 제2 서브 영역 830에 대한 임의 처리는, DDI 700에서 메인 영역 810을 위해 전달된 이미지(예: 2560*1440 이미지)의 적어도 일부에 기반하여 처리할 수 있다. 한 실시 예에 따라, DDI 700은 전달된 이미지의 좌측의 에지 부분에서 특정 처리(예: 픽셀 확장(pixel extension), 그라데이션(gradation) 또는 블러(blur) 등)를 통해 제2 서브 영역 830을 위한 이미지를 처리할 수 있다.
다양한 실시 예들에 따르면, AP 600에서는 메인 영역 810을 위한 2560*1440 이미지만 처리하여 DDI 700에 전달하면, 나머지 160 픽셀(예: 제1 서브 영역 820의 80 픽셀 및 제2 서브 영역 830의 80 픽셀)에 대해 DDI 700에서 별도의 처리 없이, 전체 2560*1440 이미지를 디스플레이 할 수 있다.
한 실시 예에 따르면, 도 11에 예시한 바와 같이, 특정 이미지에 대해 AP 600에서는 사용자의 디스플레이 사용 설정(예: 서브 영역 미사용)에 대응하여 2560*1440(메인 영역 810)을 위한 이미지와 그에 따른 제어 정보(예: 서브 영역 미사용)를 전달할 수 있다. 다양한 실시 예들에서, DDI 700에서는 제어 정보에 기초하여 서브 영역들 820, 830에 대한 별도의 임의 처리 없이 2560*1440 이미지가 디스플레이 되는 효과를 제공할 수 있다.
한편, 도면에서는 도시하지 않았으나, AP 600에서는 벤디드 디스플레이의 풀 해상도 2560*1660 이미지를 처리하여 DDI 700에 전달하면, DDI 700에서는 서브 영역들 820, 830에 대한 별도의 처리 없이 2560*1600 이미지를 디스플레이 800에 전달할 수 있다.
다양한 실시 예들에 따르면, 서브 영역들 820, 830에 대해 DDI 700에서 독립적으로 운영할 수 있다. 예를 들어, DDI 700은 AP 600로부터 수신된 제어 정보에 기초하여 서브 영역들 820, 830을 메인 영역 810과 독립적으로 온/오프 처리할 수 있다. 다양한 실시 예에 따라, DDI 700은 서브 영역들 820, 830을 모두 턴-온(예: 도 9 참조) 처리할 수 있다. 다양한 실시 예에 따라, DDI 700은 서브 영역들 820, 830 중 어느 한 측면의 서브 영역(예: 도 10의 제2 서브 영역 830)만을 턴-온 처리하고, 다른 한 측면의 서브 영역(예: 도 10의 제1 서브 영역 820)은 오프 처리할 수 있다. 다양한 실시 예에 따라, DDI 700은 서브 영역들 820, 830을 모두 턴-오프(예: 도 11 참조) 처리할 수 있다.
다양한 실시 예들에 따르면, 전술한 도 6 내지 도 11을 참조한 설명에서와 같이, 디스플레이 800의 디스플레이를 위한 이미지 처리를, AP 600와 DDI 700를 통해 분산 처리함으로써, AP 600에서 풀 해상도 이미지 처리에 따라 소모되는 소모 전류를 감소할 수 있다. 예를 들어, 아래 <표 1>의 예시에 나타낸 바와 같이, 서브 영역에 대한 이미지 처리를 AP 600이 아닌 DDI 700에서 처리할 시, AP 600에서 풀 해상도 이미지를 처리하는 경우에 비해 소모 전류를 절감할 수 있다.
다양한 실시 예에 따라, <표 1>을 참조하면, AP 600에서 이미지 처리를 단독 처리하는 경우 AP 600의 소모 전류는 324.78 mW이고 DDI 700의 소모 전류는 194.5 mW와 같이 발생할 수 있다. 반면, AP 600와 DDI 700에서 이미지 처리를 분산 처리하는 경우 AP 600의 소모 전류는 24.78 mW이고 DDI 700의 소모 전류는 199.5 mW와 같이 발생할 수 있다. 디스플레이 패널(미도시)의 경우 단독 처리 또는 분산 처리에 상관 없이 동일한 소모 전류 823.1 mW와 같이 발생할 수 있다. <표 1>의 예시와 같이, 단독 처리와 분산 처리에 따른 전체 소모 전류의 경우, 분산 처리 방식에 따른 DDI 700의 소모 전류 증가(예: 199.5 mW - 194.5 mW = 5.0 mW)에 비해, 단독 처리 방식에 따른 AP 600의 소모 전류 증가(예: 324.78 mW - 24.78 mW = 300 mW)가 높음을 알 수 있다. 다시 말해, AP 600에서 소비되는 전력보다, DDI 700에서 소비되는 전력이 작을 수 있다. 결과적으로, AP 600과 DDI 700에 의해 분산 처리하는 경우 전체 소모 전류에서 295 mW 이득을 볼 수 있다.
다양한 실시 예들에 따르면, 전술한 비교 예시와 같이, AP 600과 DDI 700에서 이미지 처리를 분산하여 처리하는 경우, 이미지 처리에 따른 소모 전류에 대한 부담을 줄일 수 있으며, 그에 대응하여 UI 또는 UX 구현 자유도를 높일 수 있다. 예를 들어, 서브 영역에 대해 특정 처리가 필요한 화면 또는 필요 없는 화면으로 UX를 구분할 수 있고, 구분된 UX에 따라 서브 영역을 DDI 700에서 이미지 처리하여 디스플레이 할 수 있다.
한 실시 예에 따르면, 제어 정보에 기초하여 서브 영역에 대해 특정 처리가 필요하지 않은 경우, 디스플레이 영역의 전체 영역이 아닌 메인 영역만을 통해 이미지가 디스플레이 되는 UX를 제공할 수 있다. AP 600에서는 메인 영역을 위한 이미지(예: 라이트 해상도 이미지) 처리만을 수행하게 되므로, 메인 영역과 서브 영역을 위한 이미지(예: 풀 해상도 이미지) 처리에 비해 소모 전류를 감소할 수 있다.
한 실시 예에 따르면, 제어 정보에 기초하여 서브 영역에 대해 특정 처리가 필요한 경우, DDI 700에서 서브 영역에 대해 메인 영역의 이미지와는 별도로 제어 정보에 따른 이미지 처리(예: 픽셀 확장(pixel extension), 그라데이션(gradation), 블러(blur) 등)에 의해 이미지를 제공함에 따라 정형화된 이미지와는 다른 형태의 이미지가 디스플레이 되는 UX를 제공할 수 있다. 이미지 처리에 소비되는 전력의 경우 AP 600에서 소비되는 전력보다, DDI 700에서 소비되는 전력이 낮으므로, 시각적 효과와 함께 소모 전류를 감소할 수 있다.
도 12는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 처리 동작을 설명하기 위해 도시하는 도면이다.
도 12를 참조하면, 동작 1201에서, AP 600은, 특정 이미지를 디스플레이 하는 동작 개시(initiation)를 결정할 수 있다. 예를 들어, AP 600은, 사용자에 의해 특정 이미지 디스플레이 요청을 감지하거나, 또는 디스플레이 800이 오프(off) 상태에서 턴-온(turn-on) 되는 것을 감지할 수 있다. AP 600은, 이미지 디스플레이 요청 감지 또는 디스플레이 800의 턴-온 감지 등에 대응하여 이미지 디스플레이를 위한 동작 개시로 판단할 수 있다.
동작 1203에서, AP 600은, 디스플레이 동작 개시를 결정하면, 이미지 전달 방식을 판단할 수 있다. 예를 들어, 사용자는 전자 장치의 디스플레이 설정을 통해, 메인 영역과 서브 영역 구분에 의한 사용 설정(또는 절전 모드 사용 설정), 서브 영역 사용 시 사용할 서브 영역에 대한 설정(예: 모든 서브 영역 사용, 왼쪽 서브 영역 사용, 오른쪽 서브 영역 사용, 서브 영역 미사용) 등을 사전에 설정할 수 있다. 추가적으로 또는 대체적으로, 사용자는 메인 영역과 서브 영역을 구분에 의해 디스플레이 할 이미지 종류(또는 카테고리)를 설정할 수도 있다. 전자 장치는 사용자의 디스플레이 설정에 따른 설정 정보에 기반하여 메인 영역과 서브 영역을 조합한 디스플레이를 결정할 수 있다. 전자 장치는 설정 정보에 기반하여 메인 영역을 위한 이미지 처리(예: 메인 영역 기반의 디스플레이 방식) 또는 메인 영역과 서브 영역을 위한 이미지 처리(예: 벤디드 디스플레이의 풀 해상도 기반의 디스플레이 방식) 여부를 결정할 수 있다.
동작 1205에서, AP 600은, 전달 방식에 대응하는 해상도의 이미지와 제어 정보를 생성할 수 있다. 예를 들어, AP 600은, 풀 해상도 기반의 디스플레이 방식에서는 풀 해상도(예: 2560*1600)에 대응하는 이미지 프로세싱을 통해 이미지(예: 풀 해상도 이미지)를 생성할 수 있고, 전달하는 이미지가 풀 해상도 이미지인 것을 나타내는 제어 정보를 생성할 수 있다. AP 600은, 메인 영역 기반의 디스플레이 방식에서는 메인 영역의 해상도(예: 2560*1440)에 대응하는 이미지 프로세싱을 통해 이미지(예: 라이트 해상도 이미지)를 생성할 수 있고, 전달하는 이미지가 메인 영역을 위한 라이트 해상도 이미지인 것을 나타내는 제어 정보를 생성할 수 있다. 다양한 실시 예들에서, 제어 정보는 AP 600이 DDI 700에게 전달하는 이미지에 대해 DDI 700가 서브 영역에 대한 이미지 처리 여부를 지시하는 정보를 포함할 수 있다. 따라서 DDI 700은 제어 정보에 기반하여 적어도 하나의 서브 영역의 이미지 처리 여부를 결정할 수 있다. 한 실시 예에 따르면, AP 600은, 사용자에 의해 설정된 설정 정보에 기반하여 2560*1600으로 이미지를 전송할 지, 또는 2560*1440으로 이미지를 전송할 지 판단할 수 있다.
동작 1207에서, AP 600은, 이미지 및 제어 정보를 DDI 700에 전달할 수 있다. 예를 들어, AP 600은 풀 해상도 이미지(예: 2560*1600 이미지) 및 그의 제어 정보 또는 라이트 해상도 이미지(예: 2560*1440 이미지) 및 그의 제어 정보를 DDI 700에 전송할 수 있다.
동작 1209에서, DDI 700은, AP 600으로부터 이미지 및 제어 정보가 수신되면, 제어 정보에 기초하여 이미지 처리 여부를 결정할 수 있다. 예를 들어, DDI 700은 제어 정보에 기초하여 전달된 이미지가 2560*1600 이미지인 것으로 판단하면, 이미지 처리 없이 디스플레이 800에 AP 600으로부터 전달된 이미지를 바로 전송하는 것으로 결정할 수 있다. DDI 700은 제어 정보에 기초하여 전달된 이미지가 2560*1440 이미지인 것으로 판단하면, AP 600으로부터 전달된 이미지에 기초하여 제어 정보에 따라 서브 영역을 위한 이미지 처리 후 디스플레이 800에 처리된 이미지를 전송하는 것으로 결정할 수 있다.
동작 1209에서, DDI 700은, 이미지 처리를 결정하는 경우, 동작 1211에서, AP 600으로부터 전달된 이미지에 기초하여 제어 정보에 대응하는 이미지 처리를 수행할 수 있다. 예를 들어, 제어 정보에 따라 특정 처리(예: 픽셀 확장(pixel extension), 그라데이션(gradation), 블러(blur) 등)를 수행할 수 있다. 한 실시 예에 따르면, 특정 처리가 픽셀 확장인 경우, DDI 700은, 전달된 2560*1440 이미지를 2560*1600 이미지로 확장할 수 있다. 다양한 실시 예들에서, DDI 700은 2560*1440 이미지에서 양 측면의 에지 부분의 픽셀을 서브 영역의 해상도(예: 2560*80)만큼 적어도 일 측면으로 확장하는 방식으로 이미지 처리할 수 있다. DDI 700은 이미지 처리를 통해, 서브 영역에 2560*1440 이미지가 연장되어 2560*1520 또는 2560*1600 이미지로 보여지는 효과를 제공할 수 있다.
동작 1213에서, DDI 700은, 동작 1211의 수행 여부에 따라, AP 600으로부터 전달된 이미지(예: 2560*1600 이미지)를 그대로 디스플레이 800에 전달하거나, 또는 동작 1211의 이미지 처리에 따라 서브 영역(2560*160 또는 2560*80)을 위해 처리된 이미지(예: 2560*1600 이미지 또는 2560*1520 이미지)를 디스플레이 800에 전달할 수 있다.
동작 1215에서, 디스플레이 800은, DDI 700으로부터 이미지를 수신하고, 수신된 이미지를 디스플레이 할 수 있다. 예를 들어, 디스플레이 800은 메인 영역과 서브 영역을 포함하는 전 영역을 통해 AP 600에서 처리된 이미지(예: 2560*1600 이미지)를 디스플레이 할 수 있다. 또는 디스플레이 800은 메인 영역을 통해 AP 600에서 처리된 이미지(예: 2560*1440 이미지)를 디스플레이 하고 서브 영역을 통해 DDI 700에서 처리된 이미지(예: 2560*160 이미지 또는 2560*80 이미지)를 디스플레이 하여, 실제 2560*1600 이미지 또는 2560*1520 이미지가 디스플레이 되는 것과 같은 효과를 제공할 수 있다.
도 13은 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 방법을 도시하는 흐름도이다.
도 13에 도시한 바와 같이, 도 13은 전술한 도 12의 전자 장치의 프로세서(예: AP 600)에서 디스플레이 방법을 개시한다.
도 13을 참조하면, 동작 1301에서, 프로세서(예: AP 600)는, 특정 이미지를 디스플레이 하는 동작 개시를 감지할 수 있다. 예를 들어, 프로세서는, 사용자에 의한 이미지 디스플레이 요청 감지, 또는 디스플레이 800의 턴-온 감지 등에 대응하여 디스플레이를 위한 동작 개시로 판단할 수 있다.
동작 1303 및 동작 1305에서, 프로세서는, 디스플레이 동작 개시에 응답하여 이미지 전달 방식을 확인하여 풀 해상도 이미지 전달인지 여부를 판단할 수 있다. 예를 들어, 프로세서는, 미리 설정된 설정 정보를 참조하여 풀 해상도(예: 2560*1600)에 맞는 이미지 처리에 의한 이미지 전달인지, 또는 메인 영역(예: 2560*1440)에 맞는 이미지 처리에 의한 이미지 전달인지 결정할 수 있다.
동작 1305에서, 프로세서는, 풀 해상도(full resolution)(예: 2560*1600) 이미지 전달을 결정하면(동작 1305의 예), 동작 1307에서, 풀 해상도 이미지의 디스플레이를 위한 제어 정보를 생성할 수 있다. 다양한 실시 예에 따르면, 프로세서는, 동작 1307에 순차적으로 또는 병렬적으로, 풀 해상도 이미지에 의한 디스플레이를 위한 이미지 프로세싱을 통해 풀 해상도 이미지를 생성할 수 있다.
동작 1309에서, 프로세서는, 풀 해상도 이미지와 제어 정보를 DDI 700에 전달할 수 있다.
동작 1305에서, 프로세서는, 라이트 해상도(light resolution)(예: 2560*1440) 이미지 전달을 결정하면(동작 1305의 아니오), 동작 1311에서, 라이트 해상도 이미지(예: 메인 영역을 위한 이미지)의 디스플레이를 위한 제어 정보를 생성할 수 있다. 다양한 실시 예에 따르면, 프로세서는, 동작 1311에 순차적으로 또는 병렬적으로, 라이트 해상도 이미지에 의한 디스플레이를 위한 이미지 프로세싱을 통해 라이트 해상도 이미지를 생성할 수 있다.
동작 1313에서, 프로세서는, 라이트 해상도 이미지와 제어 정보를 DDI 700에 전달할 수 있다.
도 14는 본 발명의 다양한 실시 예들에 따른 전자 장치에서 디스플레이 방법을 도시하는 흐름도이다.
도 14에 도시한 바와 같이, 도 14는 전술한 도 12의 전자 장치의 디스플레이 제어회로(예: DDI 700)에서 디스플레이 방법을 개시한다.
도 14를 참조하면, 동작 1401에서, 디스플레이 제어회로(예: DDI 700)는, 프로세서(예: AP 600)로부터 디스플레이를 위한 이미지와 제어 정보를 수신할 수 있다. 예를 들어, 디스플레이 제어회로는, 도 13을 참조한 설명 부분(예: 동작 1309 또는 동작 1313)에서 설명한 바와 대응하여 프로세서가 전달하는 풀 해상도 이미지(이하, 풀 이미지)와 그의 제어 정보 또는 라이트 해상도 이미지(이하, 라이트 이미지)와 그의 제어 정보를 수신할 수 있다.
동작 1403에서, 디스플레이 제어회로는, 수신된 이미지와 제어 정보에 기반하여 디스플레이를 위한 이미지 처리를 수행할 수 있다. 다양한 실시 예들에서, 디스플레이 제어회로는, 수신된 제어 정보에 기초하여 전달된 이미지가 풀 이미지인지 또는 라이트 이미지인지 판단할 수 있다. 디스플레이 제어회로는, 판단하는 결과에 기반하여 동작 1403에서, 이미지 처리 여부를 결정할 수도 있다. 한 실시 예에 따르면, 디스플레이 제어회로는 풀 이미지인 것으로 결정하면 이미지 처리를 생략할 수 있고, 라이트 이미지인 것으로 결정하면 제어 정보에 기초하여 서브 영역을 통해 디스플레이 할 이미지 처리 방식을 결정하고, 결정된 처리 방식에 대응하여 수신된 이미지의 적어도 일부(예: 이미지의 에지 부분)에 기반하여 이미지 처리를 수행할 수 있다.
동작 1405에서, 디스플레이 제어회로는, 이미지를 디스플레이 800에 전달할 수 있다. 예를 들어, 디스플레이 제어회로는, 풀 이미지의 경우 별도의 이미지 처리 없이 수신된 풀 이미지를 그대로 디스플레이 800에 전달할 수 있고, 라이트 이미지의 경우 특정 이미지 처리 후, 수신된 이미지(예: 메인 영역을 위한 이미지)와 처리된 이미지(예: 적어도 하나의 서브 영역을 위한 이미지)를 디스플레이 800에 전달할 수 있다.
도 15는 도 14에 따른 디스플레이 제어회로에서 디스플레이 방법을 도시하는 흐름도이다.
동작 1501에서, 디스플레이 제어회로(예: DDI 700)는, 프로세서(예: AP 600)로부터 수신된 제어 정보에 기반하여 디스플레이 처리 방식을 확인하고, 동작 1503에서, 이미지 처리가 필요한지 여부를 판단할 수 있다. 예를 들어, 디스플레이 제어회로는, 제어 정보에 기초하여 프로세서로부터 수신된 이미지가 풀 해상도 이미지인지, 또는 라이트 해상도 이미지인지 판단할 수 있다. 디스플레이 제어회로는, 라이트 해상도 이미지인 것으로 판단하면 이미지 처리가 필요한 것으로 결정할 수 있다.
동작 1503에서, 디스플레이 제어회로는 이미지 처리가 필요 없는 것으로 판단하면(동작 1503의 아니오), 동작 1511에서, 수신된 풀 해상도 이미지를 그대로 디스플레이 800에 전달할 수 있다. 예를 들어, 디스플레이 제어회로는, 풀 해상도 이미지인 것으로 판단하면 이미지 처리 없이 디스플레이 800에 풀 해상도 이미지를 그대로 전달하는 것으로 결정할 수 있다.
동작 1503에서, 디스플레이 제어회로는, 이미지 처리가 필요한 것으로 판단하면(동작 1503의 예), 동작 1505에서, 제어 정보에 기반하여 서브 영역의 이미지 처리 방식을 판단할 수 있다. 예를 들어, 디스플레이 제어회로는, 이미지 처리 결정 시 제어 정보에 기반하여 가상 이미지를 처리(예: 그리기(drawing))하기 위한 서브 영역과 가상 이미지를 위한 이미지 처리 방식을 판단할 수 있다.
동작 1507에서, 디스플레이 제어회로는, 결정하는 이미지 처리 방식에 대응하여 서브 영역을 위한 이미지 처리를 수행할 수 있다. 예를 들어, 디스플레이 제어회로는, 수신된 라이트 해상도 이미지를 이용하여 양 측면 또는 어느 일 측면의 서브 영역을 위한 특정 처리(예: 픽셀 확장(pixel extension), 그라데이션(gradation), 블러(blur) 등)를 통해 서브 영역을 위한 적어도 하나의 이미지(예: 가상 이미지)(예: 적어도 하나의 2560*80 이미지)를 생성할 수 있다. 다양한 실시 예들에서, 가상 이미지는 양 측면 서브 영역에 대응하게 생성될 수 있다. 한 실시 예에 따르면, 디스플레이 제어회로는, 왼쪽 서브 영역을 위한 가상 이미지(예: 왼쪽 서브 영역의 2560*80 이미지)는 라이트 해상도 이미지의 왼쪽 에지 부분을 이용하여 이미지 처리하여 생성할 수 있다. 디스플레이 제어회로는, 오른쪽 서브 영역을 위한 가상 이미지(예: 오른쪽 서브 영역의 2560*60 이미지)는 라이트 해상도 이미지의 오른쪽 에지 부분을 이용하여 이미지 처리하여 생성할 수 있다.
동작 1509에서, 디스플레이 제어회로는, 수신된 이미지(예: 라이트 해상도 이미지)와 처리된 이미지(예: 가상 이미지)에 기반하여 디스플레이 800에 전달할 최종 이미지를 생성할 수 있다. 예를 들어, 디스플레이 제어회로는, 라이트 해상도 이미지(예: 2560*1440 이미지)와 가상 이미지(예: 적어도 하나의 2560*80 이미지)에 기반하여, 메인 영역과 양 측면 서브 영역을 포함하는 전면에 디스플레이를 위한 풀 해상도(예: 2560*1600)에 대응하는 이미지(예: 2560*1600 이미지)를 생성할 수 있다. 또는, 디스플레이 제어회로는, 메인 영역과 어느 일 측면 서브 영역을 포함하는 일부 면에 디스플레이를 위한 해당 해상도(예: 2560*1520)에 대응하는 이미지(예: 2560*1520 이미지)를 생성할 수 있다.
동작 1511에서, 디스플레이 제어회로는, 생성된 최종 이미지를 디스플레이 800에 전달할 수 있다.
다양한 실시 예들에서, 디스플레이 800은 디스플레이 제어회로에서, 전달되는 이미지를 디스플레이 할 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 다양한 실시 예들에 따르면, 전자 장치의 디스플레이 방법은, 디스플레이 방식에 대응하여 디스플레이의 메인 영역을 위한 라이트 해상도 이미지를 처리하는 제1 처리 과정; 상기 라이트 해상도 이미지에 기반하여 디스플레이의 서브 영역을 위한 가상 이미지를 처리하는 제2 처리 과정; 및 상기 라이트 해상도 이미지와 상기 가상 이미지를 이용하여 디스플레이를 처리하는 제3 처리 과정을 포함하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제1 처리 과정은, 제1 프로세서(예: AP)에 의해, 이미지를 디스플레이 하는 동작 개시를 감지하는 과정; 상기 동작 개시에 응답하여 풀 해상도 이미지 또는 라이트 해상도 이미지에 의한 상기 디스플레이 방식을 결정하는 과정; 및 결정된 디스플레이 방식에 대응하여 풀 해상도 이미지 또는 라이트 해상도 이미지를 생성하는 과정을 포함하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제1 처리 과정은, 상기 제1 프로세서에 의해, 결정된 디스플레이 방식에 대응하는 이미지 및 제어 정보를 생성하고, 생성된 이미지와 제어 정보를 제2 프로세서(예: DDI)에 전달하는 과정을 포함하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제1 처리 과정은, 풀 해상도 이미지 전달을 결정하면, 풀 해상도 이미지의 디스플레이를 위한 제어 정보를 생성하고, 풀 해상도 이미지에 의한 디스플레이를 위한 이미지 처리를 통해 풀 해상도 이미지를 생성하는 과정; 및 라이트 해상도 이미지 전달을 결정하면, 라이트 해상도 이미지의 디스플레이를 위한 제어 정보를 생성하고, 라이트 해상도 이미지에 의한 디스플레이를 위한 이미지 처리를 통해 라이트 해상도 이미지를 생성하는 과정을 포함하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제2 처리 과정은, 제2 프로세서에 의해, 제1 프로세서로부터 디스플레이를 위한 이미지와 제어 정보를 수신하면, 제어 정보에 기반하여 상기 이미지가 풀 해상도 이미지인지 또는 라이트 해상도 이미지인지 판단하는 과정을 포함하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 처리 과정은, 풀 해상도 이미지의 경우 이미지 처리 없이 수신된 풀 해상도 이미지를 디스플레이에 전달하고, 라이트 해상도 이미지의 경우 특정 이미지 처리 후, 수신된 이미지와 처리된 이미지를 디스플레이에 전달하는 과정을 포함하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제2 처리 과정은, 수신된 이미지가 라이트 해상도 이미지인 경우 서브 영역을 위한 이미지 처리를 결정하는 과정을 포함하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 처리 과정은, 라이트 해상도 이미지인 것으로 결정하면, 제어 정보에 기초하여 서브 영역을 통해 디스플레이 할 이미지 처리 방식을 결정하고, 결정된 처리 방식에 대응하여 수신된 이미지의 적어도 일부에 기반하여 이미지 처리를 수행하는 과정을 포함하도록 구성할 수 있다.
다양한 실시 예들에서, 상기 제2 처리 과정은, 제어 정보에 기반하여 서브 영역을 위한 이미지 처리가 필요한지 여부를 결정하고, 이미지 처리를 결정할 시 상기 제어 정보에 기반하여 가상 이미지를 처리하기 위한 서브 영역과 가상 이미지를 위한 이미지 처리 방식을 판단하는 과정을 포함하도록 구성할 수 있다. 다양한 실시 예들에서, 상기 제2 처리 과정은, 제2 프로세서에 의해, 제1 프로세서로부터 수신된 라이트 해상도 이미지를 이용하여 양 측면 또는 어느 일 측면의 서브 영역을 위한 특정 처리를 통해 서브 영역을 위한 적어도 하나의 가상 이미지를 생성하고, 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하는 과정을 포함하도록 구성할 수 있다.
본 명세서와 도면에 개시된 본 발명의 다양한 실시 예들은 본 발명의 기술 내용을 쉽게 설명하고 본 발명의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 범위는 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    하우징;
    상기 하우징의 일면에 노출되고, 편평한 제1 영역, 및 상기 제1 영역으로부터 연장되고, 적어도 일부가 휘어진 제2 영역을 포함하는 디스플레이;
    상기 디스플레이와 전기적으로 연결된 제2 프로세서;
    상기 제2 프로세서와 전기적으로 연결된 제1 프로세서; 및
    상기 제1 프로세서 또는 제2 프로세서 중 적어도 하나와 전기적으로 연결된 적어도 하나의 메모리를 포함하며;
    상기 적어도 하나의 메모리는, 실행 시에,
    상기 제1 프로세서가, 상기 디스플레이의 제1 영역에 디스플레이될 데이터를 처리하여, 상기 제2 프로세서로 제공하도록 하는 제1 인스트럭션들; 및
    상기 제2 프로세서가, 상기 제1 프로세서로부터 제공된 데이터를 처리하여, 상기 디스플레이의 제2 영역에 디스플레이될 데이터를 생성하도록 하는 제2 인스트럭션들을 저장하는 것을 특징으로 하는 장치.
  2. 제1항에 있어서,
    상기 제1 프로세서는 어플리케이션 프로세서를 포함하고,
    상기 제2 프로세서는 디스플레이 드라이버 집적회로(display driver integrated circuit)를 포함하는 것을 특징으로 하는 장치.
  3. 제1항에 있어서,
    상기 적어도 하나의 메모리 중 제1 메모리는 상기 제1 인스트럭션들을 저장하고,
    상기 적어도 하나의 메모리 중 제2 메모리는 상기 제2 인스트럭션들을 저장하는 것을 특징으로 하는 장치.
  4. 제3항에 있어서,
    상기 제2 메모리는 상기 제2 프로세서 내부에 배치된 것을 특징으로 하는 장치.
  5. 제3항에 있어서,
    상기 제1 인스트럭션들에 의해 상기 제1 프로세서에서 소비되는 전력보다, 상기 제2 인스트럭션들에 의해 상기 제2 프로세서에서 소비되는 전력이 작은 것을 특징으로 하는 장치.
  6. 제1항에 있어서,
    상기 적어도 하나의 메모리는, 실행 시에, 상기 제2 프로세서가, 상기 제1 영역에는 화면을 디스플레이 하지 않고, 상기 제2 영역에는 화면을 디스플레이 하도록 하는 제2 인스트럭션들을 저장하는 것을 특징으로 하는 장치.
  7. 제1항에 있어서, 상기 제1 프로세서는
    디스플레이를 위한 동작 개시에 응답하여 풀 해상도 이미지 전달인지, 또는 라이트 해상도 이미지 전달인지 결정하고, 상기 결정된 이미지 전달 방식에 대응하는 이미지 및 제어 정보를 생성하여 상기 제2 프로세서에 전달하도록 설정된 장치.
  8. 제1항에 있어서, 상기 제2 프로세서는
    상기 제1 프로세서로부터 디스플레이를 위한 이미지와 제어 정보를 수신하면, 제어 정보에 기반하여 상기 이미지가 풀 해상도 이미지인지 또는 라이트 해상도 이미지인지 판단하고,
    풀 해상도 이미지의 경우 이미지 처리 없이 수신된 풀 해상도 이미지를 디스플레이에 전달하고, 라이트 해상도 이미지의 경우 특정 이미지 처리 후 수신된 이미지와 처리된 이미지를 디스플레이에 전달하고,
    라이트 해상도 이미지인 것으로 결정하면, 제어 정보에 기초하여 서브 영역을 통해 디스플레이 할 이미지 처리 방식을 결정하고, 결정된 처리 방식에 대응하여 수신된 이미지의 적어도 일부에 기반하여 이미지 처리를 수행하도록 설정된 장치.
  9. 제8항에 있어서, 상기 제2 프로세서는
    제1 프로세서로부터 수신된 라이트 해상도 이미지를 이용하여 양 측면 또는 어느 일 측면의 서브 영역을 위한 특정 처리를 통해 서브 영역을 위한 적어도 하나의 가상 이미지를 생성하고, 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하도록 설정된 장치.
  10. 전자 장치에 있어서,
    전면의 메인 영역과 측면의 서브 영역을 포함하고, 디스플레이 제어회로부터 수신된 이미지를 메인 영역 및 서브 영역 적어도 일부에 기반하여 디스플레이 하는 디스플레이;
    상기 메인 영역과 상기 서브 영역에 대응하는 풀 해상도 이미지, 또는 상기 메인 영역에 대응하는 라이트 해상도 이미지를 처리하여 디스플레이 제어회로에 전달하는 프로세서; 및
    상기 프로세서로부터 전달된 풀 해상도 이미지를 디스플레이에 전달하거나, 상기 서브 영역을 위한 가상 이미지를 처리하고 상기 프로세서로부터 전달된 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하는 상기 디스플레이 제어회로를 포함하는 전자 장치.
  11. 전자 장치의 디스플레이 방법에 있어서,
    디스플레이 방식에 대응하여 디스플레이의 메인 영역을 위한 라이트 해상도 이미지를 처리하는 제1 처리 과정;
    상기 라이트 해상도 이미지에 기반하여 디스플레이의 서브 영역을 위한 가상 이미지를 처리하는 제2 처리 과정; 및
    상기 라이트 해상도 이미지와 상기 가상 이미지를 이용하여 디스플레이를 처리하는 제3 처리 과정을 포함하는 방법.
  12. 제11항에 있어서, 상기 제1 처리 과정은,
    제1 프로세서에 의해, 이미지를 디스플레이 하는 동작 개시를 감지하는 과정;
    상기 동작 개시에 응답하여 풀 해상도 이미지 또는 라이트 해상도 이미지에 의한 상기 디스플레이 방식을 결정하는 과정; 및
    결정된 디스플레이 방식에 대응하여 풀 해상도 이미지 또는 라이트 해상도 이미지를 생성하는 과정을 포함하는 방법.
  13. 제12항에 있어서, 상기 제1 처리 과정은
    상기 제1 프로세서에 의해, 결정된 디스플레이 방식에 대응하는 이미지 및 제어 정보를 생성하고, 생성된 이미지와 제어 정보를 제2 프로세서에 전달하는 과정을 포함하는 방법.
  14. 제13항에 있어서, 상기 제2 처리 과정은
    제2 프로세서에 의해, 제1 프로세서로부터 디스플레이를 위한 이미지와 제어 정보를 수신하면, 제어 정보에 기반하여 상기 이미지가 풀 해상도 이미지인지 또는 라이트 해상도 이미지인지 판단하는 과정,
    풀 해상도 이미지의 경우 이미지 처리 없이 수신된 풀 해상도 이미지를 디스플레이에 전달하고, 라이트 해상도 이미지의 경우 특정 이미지 처리 후, 수신된 이미지와 처리된 이미지를 디스플레이에 전달하는 과정,
    라이트 해상도 이미지인 것으로 결정하면, 제어 정보에 기초하여 서브 영역을 통해 디스플레이 할 이미지 처리 방식을 결정하고, 결정된 처리 방식에 대응하여 수신된 이미지의 적어도 일부에 기반하여 이미지 처리를 수행하는 과정을 포함하는 방법.
  15. 제13항에 있어서, 상기 제2 처리 과정은
    제2 프로세서에 의해, 제1 프로세서로부터 수신된 라이트 해상도 이미지를 이용하여 양 측면 또는 어느 일 측면의 서브 영역을 위한 특정 처리를 통해 서브 영역을 위한 적어도 하나의 가상 이미지를 생성하고, 라이트 해상도 이미지와 가상 이미지를 디스플레이에 전달하는 과정을 포함하는 방법.
PCT/KR2016/007637 2015-07-31 2016-07-14 전자 장치에서 디스플레이 방법 및 장치 WO2017022971A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN201680044681.9A CN107851416B (zh) 2015-07-31 2016-07-14 电子设备的显示方法和装置
US15/749,255 US10872556B2 (en) 2015-07-31 2016-07-14 Display method and apparatus for electronic device
EP16833208.8A EP3330953A4 (en) 2015-07-31 2016-07-14 Display method and apparatus for electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2015-0109088 2015-07-31
KR1020150109088A KR102408876B1 (ko) 2015-07-31 2015-07-31 전자 장치에서 디스플레이 방법 및 장치

Publications (1)

Publication Number Publication Date
WO2017022971A1 true WO2017022971A1 (ko) 2017-02-09

Family

ID=57943184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2016/007637 WO2017022971A1 (ko) 2015-07-31 2016-07-14 전자 장치에서 디스플레이 방법 및 장치

Country Status (5)

Country Link
US (1) US10872556B2 (ko)
EP (1) EP3330953A4 (ko)
KR (1) KR102408876B1 (ko)
CN (1) CN107851416B (ko)
WO (1) WO2017022971A1 (ko)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102388981B1 (ko) * 2017-03-24 2022-04-22 삼성전자주식회사 디스플레이 및 디스플레이를 포함하는 전자 장치
KR102255793B1 (ko) * 2018-06-14 2021-05-25 삼성전자주식회사 디스플레이 영역의 크기 변경이 가능한 플렉시블 디스플레이를 포함하는 전자 장치 및 그 제어 방법
CN110874130B (zh) * 2018-08-31 2021-06-25 Oppo广东移动通信有限公司 通知信息的处理方法和电子设备
KR102222871B1 (ko) * 2019-02-22 2021-03-04 삼성전자주식회사 디스플레이 장치 및 이의 영상 표시 방법
CN111831240B (zh) * 2019-04-17 2022-02-22 北京小米移动软件有限公司 终端屏幕的显示控制方法、装置及存储介质
CN112581557A (zh) * 2019-09-30 2021-03-30 Oppo广东移动通信有限公司 图层绘制方法及电子设备
CN111489675B (zh) * 2020-03-30 2022-02-18 联想(北京)有限公司 一种电子设备调节显示的方法、装置、系统及存储介质
KR20220065953A (ko) * 2020-11-13 2022-05-23 삼성디스플레이 주식회사 표시장치
CN112565908B (zh) * 2020-11-26 2023-04-11 北京百度网讯科技有限公司 用于图像的显示方法、装置、电子设备及存储介质
CN112650462B (zh) * 2020-12-29 2022-11-04 展讯半导体(南京)有限公司 图像处理方法及其装置、电子设备和存储介质
KR20220096134A (ko) * 2020-12-30 2022-07-07 엘지디스플레이 주식회사 곡면형 평판 표시장치와 그 구동방법
CN116991519A (zh) * 2021-03-30 2023-11-03 联想(北京)有限公司 一种显示控制方法以及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100099419A (ko) * 2009-03-03 2010-09-13 엘지전자 주식회사 이미지 데이터 표시 방법 및 이를 적용한 이동 통신 단말기
US20130040732A1 (en) * 2008-11-14 2013-02-14 Bally Gaming, Inc. Apparatus, method, and system to provide a multiple processor architecture for server-based gaming
KR20130082471A (ko) * 2012-01-11 2013-07-19 이 잉크 홀딩스 인코포레이티드 듀얼 스크린 전자 기기 및 그 작동 방법
KR20140112756A (ko) * 2013-03-14 2014-09-24 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법
KR20150063824A (ko) * 2013-12-02 2015-06-10 삼성전자주식회사 디스플레이 드라이버 ic, 이의 동작 방법, 및 이를 포함하는 장치들
KR20150084561A (ko) * 2014-01-14 2015-07-22 삼성전자주식회사 전자 장치, 디스플레이 장치의 드라이버, 이를 포함하는 통신 장치 및 디스플레이 시스템

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1605428A1 (en) * 2004-06-07 2005-12-14 Sony Ericsson Mobile Communications AB Display for a mobile terminal for wireless communication
JP4542386B2 (ja) * 2004-07-30 2010-09-15 シスメックス株式会社 画像表示システム、画像提供装置、画像表示装置、およびコンピュータプログラム
KR100699265B1 (ko) * 2005-07-25 2007-03-27 삼성전자주식회사 디스플레이장치 및 그 제어방법
JP2007219205A (ja) * 2006-02-17 2007-08-30 Epson Imaging Devices Corp 電気光学装置および電子機器
CN101751114B (zh) 2008-12-22 2012-01-25 联想(北京)有限公司 移动终端的显示切换方法及移动终端
US8271048B2 (en) * 2008-12-01 2012-09-18 Lenovo (Beijing) Limited Operation mode switching method for communication system, mobile terminal and display switching method therefor
EP2226991B1 (en) 2009-03-03 2014-04-30 Lg Electronics Inc. Foldable mobile terminal
CN102694925A (zh) * 2012-06-11 2012-09-26 中山爱科数字家庭产业孵化基地有限公司 一种便携智能终端的省电显示装置和方法
GB2504944A (en) * 2012-08-13 2014-02-19 Plastic Logic Ltd Wrapable flexible display for attaching to a smartphone etc. with control of display contents following display form.
US20140063068A1 (en) * 2012-09-03 2014-03-06 Nvidia Corporation Accommodating display data corresponding to a scanout area of a graphics processor within an incompatible display unit
CN103092327B (zh) * 2013-02-04 2015-09-09 华为技术有限公司 用户设备及其显示方法
US9019170B2 (en) 2013-03-14 2015-04-28 Lg Electronics Inc. Display device and method for controlling the same
KR20150007910A (ko) * 2013-07-11 2015-01-21 삼성전자주식회사 사용자 인터렉션을 제공하는 사용자 단말 장치 및 그 방법
KR101387784B1 (ko) 2013-08-13 2014-04-21 경희대학교 산학협력단 서브패널 및 이를 포함하는 입체영상 표시장치
US9891742B2 (en) * 2014-10-17 2018-02-13 Dell Products, Lp Method and apparatus for managing touch functionality in a repetitively flexible device
US10169842B2 (en) * 2015-07-06 2019-01-01 International Business Machines Corporation Dynamic content adjustment on a bendable transparent display

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130040732A1 (en) * 2008-11-14 2013-02-14 Bally Gaming, Inc. Apparatus, method, and system to provide a multiple processor architecture for server-based gaming
KR20100099419A (ko) * 2009-03-03 2010-09-13 엘지전자 주식회사 이미지 데이터 표시 방법 및 이를 적용한 이동 통신 단말기
KR20130082471A (ko) * 2012-01-11 2013-07-19 이 잉크 홀딩스 인코포레이티드 듀얼 스크린 전자 기기 및 그 작동 방법
KR20140112756A (ko) * 2013-03-14 2014-09-24 엘지전자 주식회사 디스플레이 장치 및 그 제어 방법
KR20150063824A (ko) * 2013-12-02 2015-06-10 삼성전자주식회사 디스플레이 드라이버 ic, 이의 동작 방법, 및 이를 포함하는 장치들
KR20150084561A (ko) * 2014-01-14 2015-07-22 삼성전자주식회사 전자 장치, 디스플레이 장치의 드라이버, 이를 포함하는 통신 장치 및 디스플레이 시스템

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3330953A4 *

Also Published As

Publication number Publication date
CN107851416A (zh) 2018-03-27
US20180226012A1 (en) 2018-08-09
US10872556B2 (en) 2020-12-22
KR20170014979A (ko) 2017-02-08
CN107851416B (zh) 2022-01-25
KR102408876B1 (ko) 2022-06-15
EP3330953A4 (en) 2018-07-11
EP3330953A1 (en) 2018-06-06

Similar Documents

Publication Publication Date Title
WO2017022971A1 (ko) 전자 장치에서 디스플레이 방법 및 장치
WO2017116024A1 (en) Electronic device having flexible display and method for operating the electronic device
AU2015350680B2 (en) Power control method and apparatus for reducing power consumption
WO2016137187A1 (en) Apparatus and method for providing screen mirroring service
WO2017131449A1 (en) Electronic device and method for running function according to transformation of display of electronic device
WO2017126886A1 (ko) 플렉서블 디스플레이 장치 및 디스플레이 제어 방법
WO2017061762A1 (ko) 복수의 디스플레이를 구비한 전자장치 및 그 제어 방법
WO2017078366A1 (ko) 복수의 디스플레이들을 포함하는 전자 장치 및 그 동작 방법
WO2018101744A1 (en) Electronic device having combined button
WO2017026709A1 (ko) 전자 기기의 해상도 조정 방법 및 장치
WO2016114609A1 (en) Electronic device and method of processing information in electronic device
WO2017082685A1 (ko) 표시 제어 방법, 이를 구현한 디스플레이 패널, 디스플레이 장치 및 전자 장치
WO2017209530A1 (en) Method of switching application and electronic device therefor
WO2018155893A1 (en) Interface providing method for multitasking and electronic device implementing the same
WO2017014587A1 (en) Electronic device and method for managing object in folder on electronic device
WO2017018722A1 (en) Screen operating method and electronic device supporting the same
WO2018128509A1 (en) Electronic device and method for sensing fingerprints
EP3469468A1 (en) Method and electronic device for recognizing touch
WO2017119690A1 (ko) 전자 장치 및 그 동작 방법
WO2018044065A1 (en) Method for displaying time information in low power state and electronic device including the same
WO2017209446A1 (en) Electronic device and information processing system including the same
WO2017052216A1 (en) Method for providing events corresponding to touch attributes and electronic device thereof
EP3479206A1 (en) Electronic device having input sensing panels and method
WO2017023040A1 (en) Screen controlling method and electronic device for supporting the same
WO2018016704A1 (en) Method and apparatus for operation of an electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16833208

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15749255

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2016833208

Country of ref document: EP