WO2020017743A1 - 디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법 - Google Patents

디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법 Download PDF

Info

Publication number
WO2020017743A1
WO2020017743A1 PCT/KR2019/005127 KR2019005127W WO2020017743A1 WO 2020017743 A1 WO2020017743 A1 WO 2020017743A1 KR 2019005127 W KR2019005127 W KR 2019005127W WO 2020017743 A1 WO2020017743 A1 WO 2020017743A1
Authority
WO
WIPO (PCT)
Prior art keywords
sub
area
region
display
main
Prior art date
Application number
PCT/KR2019/005127
Other languages
English (en)
French (fr)
Inventor
이상언
김다솜
김준환
양지은
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to US17/058,733 priority Critical patent/US11474692B2/en
Publication of WO2020017743A1 publication Critical patent/WO2020017743A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1681Details related solely to hinges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/03Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays
    • G09G3/035Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes specially adapted for displays having non-planar surfaces, e.g. curved displays for flexible display surfaces
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04806Zoom, i.e. interaction techniques or interactors for controlling the zooming operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2354/00Aspects of interface with display user
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/04Display device controller operating with a plurality of display units

Definitions

  • Embodiments disclosed in this document relate to a technology for improving a display method of an execution screen of a plurality of applications in an electronic device.
  • the electronic device may display an execution screen of an application executed by the electronic device using the display.
  • Electronic devices such as smart phones and tablets generally output the execution screen of one application to the entire area of the display.
  • an electronic device supporting a function such as a multi-window mode or a multi-screen mode may divide a display into two areas and output an execution screen of a different application in each of the divided areas. have.
  • an area in which the focus is obtained may be expressed by differently designating a color of the area in which the focus is obtained among the plurality of areas. For example, an area obtained with focus may be visually distinguished using color points. However, even if any area of the electronic device acquires the focus, the user may not easily recognize the area where the focus is obtained and thus may not be able to secure visibility.
  • an electronic device includes a display and a processor operatively connected to the display to control the display, wherein the processor is configured to include one of a plurality of applications.
  • the electronic device may be configured to display a plurality of execution screens corresponding to a plurality of applications and to display the divided display areas formed in different sizes and to operate the display.
  • a processor connected to the control unit to control the display, wherein the processor is a sub-region displaying the second application based on an input to a second application other than a first application among the plurality of applications. Focus a sub area, increase the size of the first sub area based on an input to the second application, and display the expanded first sub area; and the focused first sub area is the second sub area. Area of the pointed state based on input to the application.
  • a method of driving an electronic device may include displaying a first execution screen corresponding to a first application of a plurality of applications on a main area of a display, and among the plurality of applications. Displaying a second execution screen corresponding to a second application on a first sub-region among a plurality of sub-regions displaying an execution screen corresponding to a plurality of applications except the first application, and the second application Increasing the size of the first sub-area based on an input to and displaying the expanded first sub-area, wherein the expanded first sub-area is at least a portion of the main area and / or the first sub-area; Overlaps at least a portion of a second sub-region except a sub-region, and the expanded first sub-region is the main The upper layer is visually displayed above the region and the second sub-region.
  • the area of the focused area is increased among the plurality of areas, thereby improving visibility and allowing the user to more easily manipulate the focused area.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a diagram illustrating an electronic device according to an exemplary embodiment.
  • FIG. 3 is a diagram illustrating a case in which a main area is focused in a display according to an exemplary embodiment.
  • FIG. 4 is a diagram illustrating a case of displaying an extended first sub-region in a display according to an exemplary embodiment.
  • FIG. 5 is a diagram illustrating a case in which a main area is focused in a display according to another exemplary embodiment.
  • FIG. 6 is a diagram illustrating a case in which an extended first sub-region is displayed on a display according to another exemplary embodiment.
  • FIG. 7 is a diagram illustrating a case where an electronic device is unfolded according to another exemplary embodiment.
  • FIG. 8 is a diagram illustrating a case where an electronic device is folded according to another embodiment.
  • FIG. 9 is a diagram illustrating a case of calling a keyboard in a state where there is an extended first sub-region in a display according to another exemplary embodiment.
  • FIG. 10 is a diagram illustrating a case of calling a keyboard in a state where a first sub area is present in a display according to another exemplary embodiment.
  • FIG. 11 is a view illustrating a process of displaying a first sub-region in which a first sub-region is focused and displayed in an extended first sub-region in a state where a main region is focused in a display according to another exemplary embodiment.
  • FIG. 12 is a flowchart illustrating a method of driving an electronic device according to an embodiment of the present disclosure.
  • FIG. 13 is a diagram illustrating a process of adjusting a size of a focused first sub-region in a display according to another exemplary embodiment.
  • FIG. 14 is a diagram illustrating a process of adjusting a size of a focused first sub-region in a display according to another exemplary embodiment.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or the second network 199.
  • the electronic device 104 may communicate with the server 108 through a long range wireless communication network.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module.
  • the components may be included.
  • at least one of the components may be omitted or one or more other components may be added to the electronic device 101.
  • some of these components may be implemented in one integrated circuit.
  • the sensor module 176 eg, fingerprint sensor, iris sensor, or illuminance sensor
  • the display device 160 eg, display
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to one embodiment, as at least part of the data processing or operation, the processor 120 may receive a command or data received from another component (eg, the sensor module 176 or the communication module 190) from the volatile memory. 132 may be loaded, process instructions or data stored in the volatile memory 132, and store the result data in the nonvolatile memory 134.
  • software eg, the program 140
  • the processor 120 may receive a command or data received from another component (eg, the sensor module 176 or the communication module 190) from the volatile memory.
  • 132 may be loaded, process instructions or data stored in the volatile memory 132, and store the result data in the nonvolatile memory 134.
  • the processor 120 may include a main processor 121 (eg, a central processing unit or an application processor), and a coprocessor 123 (eg, a graphics processing unit, an image signal processor) that may be operated independently or together. , Sensor hub processor, or communication processor). Additionally or alternatively, the coprocessor 123 may be configured to use lower power than the main processor 121 or to be specialized for its designated function. The coprocessor 123 may be implemented separately from or as part of the main processor 121.
  • a main processor 121 eg, a central processing unit or an application processor
  • a coprocessor 123 eg, a graphics processing unit, an image signal processor
  • the coprocessor 123 may be configured to use lower power than the main processor 121 or to be specialized for its designated function.
  • the coprocessor 123 may be implemented separately from or as part of the main processor 121.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 may be active (eg, execute an application). At least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) together with the main processor 121 while in the) state. Control at least some of the functions or states associated with the. According to one embodiment, the coprocessor 123 (eg, an image signal processor or communication processor) may be implemented as part of other functionally related components (eg, camera module 180 or communication module 190). have.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101.
  • the data may include, for example, software (eg, the program 140) and input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 may be stored as software in the memory 130, and may include, for example, an operating system 142, middleware 144, or an application 146.
  • the input device 150 may receive a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • the input device 150 may include, for example, a microphone, a mouse, or a keyboard.
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101.
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker may be used for general purposes such as multimedia playback or recording playback, and the receiver may be used to receive an incoming call.
  • the receiver may be implemented separately from or as part of a speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101.
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device.
  • the display device 160 may include touch circuitry configured to sense a touch, or a sensor circuit (eg, a pressure sensor) set to measure the strength of the force generated by the touch. have.
  • the audio module 170 may convert sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment of the present disclosure, the audio module 170 may acquire sound through the input device 150, or may output an external electronic device (for example, a sound output device 155 or directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device for example, a sound output device 155 or directly or wirelessly connected to the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 detects an operating state (eg, power or temperature) or an external environmental state (eg, a user state) of the electronic device 101, and generates an electrical signal or data value corresponding to the detected state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an infrared sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used for the electronic device 101 to be directly or wirelessly connected to an external electronic device (for example, the electronic device 102).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card interface
  • audio interface audio interface
  • connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (eg, the electronic device 102).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101.
  • the power management module 388 may be implemented as at least a part of a power management integrated circuit (PMIC), for example.
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101.
  • the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 may establish a direct (eg wired) communication channel or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). Establish and perform communication over established communication channels.
  • the communication module 190 may operate independently of the processor 120 (eg, an application processor) and include one or more communication processors supporting direct (eg, wired) or wireless communication.
  • the communication module 190 may include a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, A local area network (LAN) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • the corresponding communication module of these communication modules may be a first network 198 (e.g., a short range communication network such as Bluetooth, WiFi direct, or an infrared data association (IrDA)) or a second network 199 (e.g., a cellular network, the Internet, or Communicate with external electronic devices through a telecommunication network such as a computer network (eg, LAN or WAN).
  • a first network 198 e.g., a short range communication network such as Bluetooth, WiFi direct, or an infrared data association (IrDA)
  • a second network 199 e.g., a cellular network, the Internet, or Communicate with external electronic devices through a telecommunication network such as a computer network (eg, LAN or WAN).
  • a telecommunication network such as a computer network (eg, LAN or WAN).
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented by a plurality of components (
  • the wireless communication module 192 uses subscriber information (e.g., international mobile subscriber identifier (IMSI)) stored in the subscriber identification module 196 in a communication network such as the first network 198 or the second network 199.
  • subscriber information e.g., international mobile subscriber identifier (IMSI)
  • IMSI international mobile subscriber identifier
  • the antenna module 197 may transmit or receive a signal or power to an external (eg, an external electronic device) or from an external source.
  • the antenna module may be formed of a conductor or a conductive pattern, and in some embodiments, may further include another component (eg, an RFIC) in addition to the conductor or the conductive pattern.
  • the antenna module 197 may include one or more antennas, from which at least one suitable for a communication scheme used in a communication network, such as the first network 198 or the second network 199. Antenna may be selected by the communication module 190, for example. The signal or power may be transmitted or received between the communication module 190 and the external electronic device through the selected at least one antenna.
  • At least some of the components are connected to each other and connected to each other through a communication method (eg, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)). For example, commands or data).
  • a communication method eg, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • a communication method eg, a bus, a general purpose input and output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or part of operations executed in the electronic device 101 may be executed in one or more external devices among the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 101 instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that receive the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101.
  • the electronic device 101 may process the result as it is or additionally and provide it as at least part of the response to the request.
  • cloud computing distributed computing, or client-server computing technology may be used.
  • the electronic device 101 may include a display 200 and a housing 300.
  • the display 200 may be disposed on the front of the electronic device 101.
  • the display 200 may be arranged to be at least partially surrounded by the housing 300.
  • the display 200 may be disposed on an inner space formed by the housing 300.
  • the display 200 may be disposed to surround the side and the rear side by the housing 300.
  • the display 200 may output an execution screen of an application.
  • the entire area of the display 200 may be divided into a plurality of display areas 210, 220, and 230.
  • the display 200 may output execution screens of different applications using each of the plurality of display areas 210, 220, and 230.
  • the display 200 displays the execution screen of the first application in the main area 210, the execution screen of the second application in the first sub area 220, and the execution screen of the third application in the second sub area. And output to 230.
  • the electronic device 101 may display a plurality of execution screens corresponding to a plurality of applications on the plurality of display areas 210, 220, and 230 formed at least partially different sizes or the same size. You can print
  • the display 200 may include a main area 210, a first sub area 220, and a second sub area 230.
  • FIG. 2 may be an example of displaying a plurality of execution screens on the display 200 (an exemplary size, an exemplary shape, and an exemplary arrangement).
  • the display 200 displays a process of executing an application or an operation result of the application only in some areas of the plurality of sub areas 220 and 230, and does not execute in the remaining areas of the plurality of sub areas 220 and 230. Icons representing the applications of the state may be displayed or the execution screen may not be displayed.
  • the main area 210 may be any one of display areas displaying an execution screen of a main application (eg, a main) of the plurality of display areas 210, 220, and 230.
  • the execution screen of the main application may be an execution screen corresponding to the application designated by the user.
  • the user may designate an application to be displayed on the main area 210 as a first application by using an input (for example, a touch input or a voice input).
  • the main area 210 may be an area for displaying an execution screen corresponding to an execution process or an operation result of the first application.
  • the execution screen of the main application may be an execution screen corresponding to an application designated by a processor (eg, the processor 120 of FIG. 1) of the electronic device 101.
  • the processor may preset the first application. In this case, if there is no user input separately, the main area 210 may display an execution screen corresponding to the execution process or the operation result of the first application.
  • the sub-regions 220 and 230 may be display regions other than the main region 210.
  • the plurality of sub areas 220 and 230 may be display areas displaying execution screens corresponding to a plurality of applications except for the first application.
  • the plurality of sub areas 220 and 230 may include a first sub area 220 and a second sub area 230, which may be an exemplary form of displaying an execution screen of an application on the display 200. have. That is, the display 200 may adjust the number and shape of the sub areas in the plurality of sub areas 220 and 230 in various ways.
  • the main area 210 may be an area for displaying an execution screen corresponding to an application having a high priority in a multi-application execution process.
  • the first sub-area 220 and the second sub-area 230 may be areas for displaying an execution screen corresponding to an application having a low priority in a multi-application execution process.
  • each of the main area 210, the first sub area 220, and the second sub area 230 may be defined as an area set to display an execution screen corresponding to one application.
  • the main area 210, the first sub area 220, and the second sub area 230 may independently display execution screens corresponding to different applications.
  • the housing 300 may be disposed on the outer and edge regions of the electronic device 101.
  • the housing 300 may protect other components disposed inside the electronic device 101.
  • the housing 300 may define an edge shape and a binding shape of the electronic device 101.
  • the housing 300 has a shape of a front plate, facing away from the front plate, and a rear portion facing the front plate and a side portion surrounding a space between the front plate and the rear plate. It may comprise a back plate (back plate) formed integrally.
  • the housing 300 may include a first plate facing a first direction, a second plate facing a second direction opposite to the first direction, and a third plate perpendicular to the first direction and facing the first plate. And a third plate surrounding a portion of the space between the two plates.
  • the housing 300 may be formed of a metal material or a non-metal material having a rigidity of a size set to support the display 200.
  • the housing 300 may include a voice input and output, a flash, and a camera on the surface of the electronic device 101.
  • a voice output unit eg, a speaker
  • a flash e.g., a flash
  • a camera may be disposed on one side of the electronic device 101
  • a voice input unit eg, a microphone
  • the housing 300 may include an antenna.
  • an antenna may be formed on at least a portion of an edge region of the housing 300.
  • the electronic device 101 may include a processor.
  • the processor may be operatively connected with the display 200.
  • the processor may control the display 200.
  • the processor may supply image data and various control signals for displaying an execution screen of an application on the display 200.
  • FIG 3 is a diagram illustrating a case in which the main area 210 is focused in the display 200 according to an exemplary embodiment.
  • the focus may refer to a state in which a corresponding display area is pointed based on an input to an application.
  • the focus may designate an application to be activated based on a user input or an input for operating an application, and a display area corresponding to the designated application may be selected. For example, when an event for executing a first application is triggered based on a user's input (for example, a touch input or a voice input), the main region 210 displaying the first application may be focused. . As another example, when an execution or action event is triggered according to a specified condition (for example, an alarm or a scheduler notified at a specified time) or reception of information (for example, a message or a received picture), the first application is triggered. The main area 210 displaying the focus may be focused.
  • a specified condition for example, an alarm or a scheduler notified at a specified time
  • reception of information for example, a message or a received picture
  • the display 200 may display execution screens corresponding to different applications in each of the main area 210, the first sub-area 220, and the second sub-area 230.
  • the display 200 displays an execution screen of a photo application in the main area 210, an execution screen of a message application in a first sub area 220, and an e-mail in a second sub area 230.
  • the execution screen of the application can be displayed.
  • the processor may set an execution screen corresponding to any one of the plurality of applications as the main execution screen.
  • the processor may be configured to display the main execution screen on the main area 210.
  • the processor may set the execution screen of the photo application as the main execution screen and display the main screen 210 in the main region 210.
  • the focused area may be defined as a selected area based on a user input or input of information on an application among the main area 210, the first sub area 220, or the second sub area 230. Can be.
  • the main area 210 may be focused.
  • the processor instructs the user to focus on the main area 210. If so, the main region 210 may be focused.
  • the processor performs a command for editing, transferring, or sharing a photo
  • the processor determines that an event for the photo application is triggered and focuses the main area 210 displaying an execution screen corresponding to the photo application. can do.
  • the plurality of sub-regions 220 and 230 may be disposed adjacent to the first edge E1 formed in the first direction (eg, the Y-axis direction) among the corners of the main region 210.
  • the main area 210 may be disposed on one side area of the display 200.
  • the main region 210 may be disposed in a left region of the display 200 in which upper and lower edges are disposed in a first direction.
  • the plurality of sub areas 220 and 230 may be disposed in the remaining area of the area occupied by the main area 210.
  • the plurality of sub regions 220 and 230 may be disposed in the right region of the display 200 in which upper and lower edges are disposed in the first direction.
  • the first sub-region 220 and the second sub-region 230 may be divided by a second edge E2 formed in a second direction (eg, the X-axis direction) perpendicular to the first direction. have.
  • the first sub-region 220 and the second sub-region 230 may be formed by dividing the plurality of sub-regions 220 and 230. For example, as shown in FIG. 3, the first sub-area 220 and the second sub-area 230 are divided into upper and lower portions in a right region of the display 200 in which upper and lower edges are disposed in a first direction. Can be.
  • the main region 210 may have a first length L1 in the X-axis direction.
  • the main region 210 may have a second length L2 in the Y-axis direction.
  • the first sub-region 220 may have a third length L3 in the X-axis direction.
  • the third length L3 may be shorter than the first length L1.
  • the first sub-region 220 may have a fourth length L4 in the Y-axis direction.
  • the fourth length L4 may be shorter than the second length L2.
  • the size of the first sub-region 220 may be smaller than the size of the main region 210.
  • the size of the first sub-region 220 and the size of the second sub-region 230 may be controlled according to the focus. For example, as shown in FIG. 3, when both of the first sub-region 220 and the second sub-region 230 are not focused, the size of the first sub-region 220 and the size of the second sub-region 230 are determined. Can be set to be the same.
  • FIG. 4 is a diagram illustrating a case in which the extended first sub-region 240 is displayed on the display 200 according to an exemplary embodiment.
  • the extended first sub-area 240 may be a sub-area that displays an execution screen on which an application focused by a user is executed. For example, when a user inputs a message, the processor (eg, the processor 120 of FIG. 1) determines that the user has instructed to focus the message application, and expands the execution screen displaying the message application. It may be displayed on the sub area 240.
  • the processor eg, the processor 120 of FIG. 1
  • the extended first sub-area 240 may be a sub-area that displays an execution screen on which an application focused by the processor is executed. For example, when receiving a message, the processor may set the message application to focus and display an execution screen displaying the message application on the extended first sub-area 240.
  • the processor when the first sub-area 220 is focused, may include the first sub-area 220 such that the size of the first sub-area 220 is larger than the size of the second sub-area 230. It may be set to display the extended first sub-region 240 by increasing the size of.
  • the electronic device 101 increases the size of the focused first sub-area 220 and the size of the objects constituting the execution screen in the first sub-area 220 so as to expand on the display 200. Can be displayed.
  • the processor may be configured to display the focused first sub-region 220 as the extended first sub-region 240. For example, when the user performs a touch input to the first sub-area 220 or a voice input to execute a message application, the processor determines that the message application displayed in the first sub-area 220 is in focus. The size of the first subregion 220 may be increased to display the expanded first subregion 240. As another example, when the processor executes an instruction to create, send, or receive a message, the processor determines that the first sub-area 220 displaying the execution screen corresponding to the message application has the highest priority. The size of the first subregion 220 may be increased to display the expanded first subregion 240.
  • the size of the extended first sub-region 240 may be larger than the size of the second sub-region 230.
  • the size of the expanded first sub-region 240 may be smaller than the size of the main region 210.
  • the fifth length L5 which is the length in the X-axis direction of the extended first sub-region 240
  • the third length L3 which is the length in the X-axis direction of the second sub-region 230. It may be longer and shorter than the first length L1, which is a length in the X-axis direction of the main region 210.
  • the sixth length L6 of the extended first sub-region 240 in the Y-axis direction is longer than the fourth length L4 of the second sub-region 230 in the Y-axis direction. It may be shorter than the second length L2, which is a length of the main region 210 in the Y-axis direction.
  • FIG 5 is a diagram illustrating a case in which the main area 410 is focused in the display 400 according to another exemplary embodiment.
  • the display 400 may display execution screens corresponding to different applications in each of the main area 410, the first sub area 420, and the second sub area 430.
  • the display 400 displays an execution screen corresponding to the photo application in the main area 410, displays an execution screen corresponding to the message application in the first sub area 420, and displays a second sub area ( In operation 430, an execution screen corresponding to the email application may be displayed.
  • the processor may set an execution screen corresponding to any one of the plurality of applications as the main execution screen.
  • the processor may be configured to display the main execution screen in the main area 410.
  • the processor may set the photo application to be the main execution screen and display the main application 410.
  • the main area 410 may be focused. For example, when a user performs a touch input on the main area 410, the processor may focus on the main area 410. As another example, when the processor performs a command for editing, transmitting, or sharing a photo, the processor may focus on the main area 410 displaying an execution screen corresponding to the photo application.
  • the plurality of sub-regions 420 and 430 may be disposed adjacent to the third edge E3 formed in the second direction (for example, the X-axis direction) among the corners of the main region 410.
  • the main area 410 may be disposed on one side area of the display 400.
  • the main area 410 may be disposed in an upper area of the display 400 in which upper and lower edges are disposed in a first direction.
  • the plurality of sub areas 420 and 430 may be disposed in the remaining area of the area occupied by the main area 410.
  • the plurality of sub regions 420 and 430 may be disposed in the lower region of the display 400 where upper and lower edges are disposed in the first direction.
  • the first sub-region 420 and the second sub-region 430 may be divided by a fourth edge E4 formed in a first direction (eg, Y-axis direction) perpendicular to the second direction. have.
  • the first subregion 420 and the second subregion 430 may be formed by dividing the interiors of the plurality of subregions 420 and 430. For example, as shown in FIG. 5, the first sub-area 420 and the second sub-area 430 may be divided into left and right in a lower area of the display 400 in which upper and lower edges are disposed in a first direction. have.
  • the main region 410 may have a seventh length L7 in the Y-axis direction.
  • the main region 410 may have an eighth length L8 in the X-axis direction.
  • the first sub-region 420 may have a ninth length L9 in the Y-axis direction.
  • the ninth length L9 may be shorter than the seventh length L7.
  • the first sub-region 420 may have a tenth length L10 in the X-axis direction.
  • the tenth length L10 may be shorter than the eighth length L8.
  • the size of the first sub-region 420 may be smaller than the size of the main region 410.
  • the size of the first sub-region 420 and the size of the second sub-region 430 may be controlled according to the focus. For example, as shown in FIG. 5, when both the first sub-region 420 and the second sub-region 430 are not focused, the size of the first sub-region 420 and the size of the second sub-region 430 may be adjusted. Can be set to be the same.
  • FIG. 6 is a diagram illustrating a case in which the extended first sub-region 440 is displayed on the display 400 according to an exemplary embodiment.
  • the extended first sub area 440 may be a sub area displaying an execution screen on which an application activated by a processor (for example, the processor 120 of FIG. 1) is executed.
  • a processor for example, the processor 120 of FIG. 1
  • the processor sets an activation screen for displaying a message application displayed in the expanded first sub-area 440, and displays an execution screen for executing the message application to display a message input by the user. It may be displayed on the extended first sub area 440.
  • the size of the first sub-region 420 and the size of the second sub-region 430 may be controlled according to the focus. As illustrated in FIG. 6, when the first subregion 420 is focused, the size of the first subregion 420 is larger than the size of the second subregion 430. May be increased to be displayed as the extended first sub-region 440.
  • the extended first sub-region 440 may be implemented when the first sub-region 420 is focused. For example, when a user performs a touch input to the first sub-area 420 or a voice input to execute a message application displayed on the first sub-area 420, the processor may determine that the first sub-area 420 is not included. The image may be determined to be in focus, and the size of the first sub region 420 may be increased to display the expanded first sub region 440. As another example, when the processor executes a command for creating, transmitting, or receiving a message, the processor may determine that the message application is selected. Accordingly, the processor may focus on the first sub area 420 displaying the execution screen corresponding to the message application and increase the size of the first sub area 420 to display the expanded first sub area 440. have.
  • the size of the expanded first sub-region 440 may be larger than the size of the second sub-region 430.
  • the size of the expanded first sub-region 440 may be smaller than the size of the main region 410.
  • the eleventh length L11 which is the length in the Y-axis direction of the extended first sub-region 440, is greater than the ninth length L9, which is the length in the Y-axis direction of the second sub-region 430. It may be longer and shorter than the seventh length L7, which is a length in the Y-axis direction of the main region 410.
  • the twelfth length L12 which is the length in the X-axis direction of the extended first sub-region 440, is longer than the tenth length L10, which is the length in the X-axis direction of the second sub-region 430. It may be shorter than the eighth length L8, which is a length of the main region 410 in the X-axis direction.
  • FIG. 7 is a diagram illustrating a case where the electronic device 101 is outstretched according to another exemplary embodiment.
  • 8 is a diagram illustrating a case in which the electronic device 101 is folded, according to another exemplary embodiment.
  • the electronic device 101 may have a foldable characteristic.
  • the electronic device 101 having a foldable characteristic may have an expanded state illustrated in FIG. 7, a folded state illustrated in FIG. 8, and an intermediate state that is a state between the expanded state and the folded state.
  • the electronic device 101 may include a housing 500, a cover 530 covering a foldable portion of the housing 500, and a display 600 disposed in a space formed by the housing 500. Can be.
  • the housing 500 includes a first structure 510, a third bezel 520a, a fourth bezel 520b, including a first bezel 510a and a second bezel 510b. And a second structure 520 including a notch portion 524, a first rear cover 580, and a second rear cover 590.
  • the present invention is not limited thereto and may be implemented by combination and / or combination of other shapes or components.
  • the first structure 510 and the first back cover 580 may be integrally formed
  • the second structure 520 and the second back cover 590 may be integrally formed. Can be.
  • the first structure 510 and the second structure 520 may be disposed at both sides about the first boundary line B1.
  • the first structure 510 and the second structure 520 may be folded based on the first boundary line B1.
  • the first boundary line B1 may be set to have a structure in which the first structure 510 and the second structure 520 are symmetrically folded.
  • the first boundary line B1 may pass through the center of the display 600.
  • the display 600 may be disposed on a space formed by the housing 500.
  • the display 600 may be seated on a recess formed by the housing 500 to constitute most of the front surface of the electronic device 101.
  • the display 600 may include a main area, an extended first sub area 620, and a second sub area 630.
  • the main area 610 may occupy more than half of the area of the display 600. Accordingly, the first boundary line B1 may cross the inside of the main area 610 of the display 600. The display 600 may be folded along a first boundary line B1 crossing the interior of the main area 610. Accordingly, the display 600 may at least partially fold the main area 610.
  • the extended first sub-region 620 is formed to extend beyond the second boundary line B2, which is a boundary between the main region 610 and the second sub-region 630, and extends toward the main region 610. Can be.
  • the extended first sub region 620 may be extended to be adjacent to the first boundary line B1.
  • the extended first sub-region 620 may overlap at least a portion of the main region 610 and the second sub-region 630.
  • the edge area of the display 600 may be surrounded by the bezel area.
  • the bezel area may include a first bezel 510a, a second bezel 510b, a third bezel 520a, a fourth bezel 520b, and a notch 524.
  • the first to fourth bezels 510a, 510b, 520a, and 520b may support the display 600 to maintain the shape of the display 600.
  • the notch 524 may be formed to have a predetermined area adjacent to one corner of the second structure 520.
  • the arrangement, shape, and size of the notch 524 is not limited to the illustrated example.
  • notch 524 may be provided in another corner of second structure 520 or in any area between the top and bottom corners.
  • the notch 524 may be disposed to be adjacent to the extended first sub-region 620.
  • the notch 524 may be disposed to be adjacent to one side edge of the extended first sub-region 620.
  • components for performing various functions embedded in the electronic device 101 are electronically through the notch 524 or through one or more openings provided in the notch 524. It may be exposed on the front of the device 101.
  • the components may include various kinds of sensors.
  • the sensor may include at least one of a front camera, a receiver, or a proximity sensor.
  • the first rear cover 580 may be disposed in at least some region of the rear surface of the electronic device 101.
  • the first back cover 580 may have a substantially rectangular periphery. An edge of the first back cover 580 may be wrapped by the first structure 510.
  • the second back cover 590 may be disposed on an opposite side of the first back cover 580 based on the first boundary line B1 of the back of the electronic device 101. An edge of the second back cover 590 may be wrapped by the second structure 520.
  • first back cover 580 and the second back cover 590 may have a substantially symmetrical shape with respect to the first boundary line B1.
  • first rear cover 580 and the second rear cover 590 are not necessarily symmetrical with each other, and the electronic device 101 may include the first rear cover 580 and the second rear cover having various shapes. 590).
  • the first structure 510, the second structure 520, the first back cover 580, and the second back cover 590 may include various components (eg, PCBs) of the electronic device 101.
  • a printed circuit board or a battery may be formed.
  • the cover 530 may be disposed between the first structure 510 and the second structure 520.
  • the cover 530 may be configured to cover a folded structure (eg, a hinge structure) of the housing 500.
  • the cover 530 may be covered by a part of the first structure 510 and the second structure 520 or exposed to the outside according to the state (open state or folded state) of the electronic device 101.
  • the cover 530 may be covered by the first structure 510 and the second structure 520 and may not be exposed.
  • the cover 530 may be exposed to the outside between the first structure 510 and the second structure 520.
  • FIG 9 illustrates a case in which the keyboard 810 is called while the first sub-area 720 extended from the display 700 is present.
  • the display 700 may include a main area 710, an extended first sub area 720, and a second sub area 730.
  • the extended first sub area 720 may be a focused area.
  • the extended first sub area 720 may be disposed under the display 700.
  • the display 800 may display an input means.
  • the input means may be a keyboard 810 through which a user may input letters, numbers, or symbols by performing a touch on the surface of the display 800.
  • the present invention is not limited thereto, and the input means may be an area in which a user may input a figure or a picture that can be drawn by dragging on the display 800.
  • the electronic device 101 may call the keyboard 810 on the display 800 in response to the set input. For example, when the electronic device 101 detects a user's touch, the electronic device 101 may call the keyboard 810 on the display 800. For another example, the keyboard 810 may be called on the display 800 by pressing a button disposed on one side of the electronic device 101. As another example, the electronic device 101 needs to input a text field on an execution screen (for example, an execution screen of a second application) displayed on the focused first sub-area 720 inside the display 800. In this case, the keyboard 810 may be called. The keyboard 810 may be disposed on at least some area of the display 800. For example, the keyboard 810 can be called from the bottom edge of the display 800 and placed in the bottom area.
  • an execution screen for example, an execution screen of a second application
  • the electronic device 101 may extend the first sub area so that the first sub area 820 extended on the display 800 does not overlap the input means. 820 may be moved. For example, when the keyboard 810 is displayed in the lower area of the display 800, the electronic device 101 may move the first sub-area 820 extended on the display 800 to the upper part where the keyboard 810 is not disposed. You can move it to an area.
  • the expanded first subregion 820 may be focused to have a higher priority than the second subregion 830.
  • the electronic device 101 may set the extended first subregion 820 to cover at least a portion of the second subregion 830 while moving on the second subregion 830.
  • FIG. 10 illustrates a case in which the keyboard 1010 is called while the first sub-area 920 is present in the display 900 according to another exemplary embodiment.
  • the display 900 may include a main area 910, a first sub area 920, and a second sub area 930.
  • the first sub area 920 may be a focused area.
  • the first sub area 920 may be disposed under the display 900.
  • FIG. 10 illustrates a case in which the focused first subregion 920 has the same size as the second subregion 930. In this case, the focused first sub-region 920 may have a different color from that of the second sub-region 930. Alternatively, an emphasis mark may appear on the focused first sub-region 920.
  • the present invention is not limited thereto, and the size of the focused first sub-region 920 may be larger than that of the second sub-region 930 as described with reference to FIGS. 3 to 6.
  • the display 1000 may display an input means.
  • the input means may be a keyboard 1010 through which a user may input letters, numbers, or symbols by performing a touch on the surface of the display 1000.
  • the present invention is not limited thereto, and the input means may be an area in which a user may input a figure or a picture that can be drawn by dragging on the display 1000.
  • the electronic device 101 may call the keyboard 1010 on the display 1000 in response to the set input. For example, when the electronic device 101 detects a user's touch, the electronic device 101 may call the keyboard 1010 on the display 1000. For another example, the keyboard 1010 may be called on the display 1000 by pressing a button disposed on one side of the electronic device 101. As another example, the electronic device 101 needs to input a text field on an execution screen (for example, an execution screen of a second application) displayed on the focused first sub-region 920 inside the display 1000. In this case, the keyboard 1010 may be called. The keyboard 1010 may be disposed on at least some area of the display 1000. For example, the keyboard 1010 may be called from the lower edge of the display 1000 and disposed in the lower area.
  • the electronic device 101 when an input means is displayed on the display 1000, the electronic device 101 includes a main area 910, a first sub area 1020, and a second sub area 1030 overlapping the input means.
  • the arrangement relationship of at least some of the main area 910, the first sub area 1020, and the second sub area 1030 may be adjusted.
  • the electronic device 101 may change the sizes of at least some of the main area 910, the first sub area 1020, and the second sub area 1030.
  • the electronic device 101 may change the positional relationship of at least some of the main area 910, the first sub area 1020, and the second sub area 1030.
  • the electronic device 101 may include a main area 910, a first sub area 1020, and a second sub area 1030.
  • the size and position of the main region 910, the first sub-region 1020, and the second sub-region 1030 may be changed so as not to overlap with the 1010.
  • the main area 910 on the display 1000 may have a reduced size compared to before the keyboard 1010 is called.
  • the main region 910 since the main region 910 is not focused, it may be at least partially covered by the second sub-region 1030.
  • the second sub-region 1030 may move on the main region 910 to overlap with the main region 910.
  • the present invention is not limited thereto, and the main area 910 and the second sub area 1030 may not overlap.
  • the main area 910 and the second sub area 1030 may be rearranged on the display 1000 to ensure visibility.
  • the first sub-region 1020 may be a focused region.
  • the first sub-region 1020 may move to the upper portion of the display 1000 so as not to overlap the keyboard 1010, the main region 910, and the second sub-region 1030.
  • FIG. 11 is a view illustrating a process of displaying the first sub-region 1120 as an extended first sub-region 1210 while the main region 1110 is focused in the display 1100 according to another exemplary embodiment. to be.
  • the display 1100 may include a main area 1110, a first sub area 1120, a second sub area 1130, and an object 1140.
  • the main area 1110 may be a focused area.
  • the object 1140 may be disposed in the main area 1110.
  • the object 1140 may be a component of an execution screen displayed on the main area 1110.
  • the object 1140 may be an icon for executing a function of an application displaying an execution screen of the main area 1110 or a command symbol indicating an operation state of the application.
  • the object 1140 may set the main area 1110 as the focused area.
  • the object 1140 may move inside the display 1110.
  • the object 1140 may move into the first sub-region 1120 or the second sub-region 1130 by a user's touch input (drag and drop, etc.) on the display 1110.
  • the electronic device 101 may use the processor (eg, the processor 120 of FIG. 1) to move the object 1140 from the inside of the main area 1110 to the first or second sub area 1120. 1130 may be moved into the interior.
  • the electronic device 101 may set the extended first sub area 1210 by moving the object 1140 disposed on the display 1100 to the first sub area 1120.
  • the processor of the electronic device 101 may determine that the first sub-region 1120 on which the object 1140 is disposed is focused.
  • the processor of the electronic device 101 may increase the size of the first sub area 1120 and display the expanded first sub area 1210.
  • FIG. 12 is a flowchart of a method of driving the electronic device 101, according to an exemplary embodiment.
  • the electronic device 101 displays an execution screen corresponding to a first application among a plurality of applications (eg, the display 200 of FIG. 2) of the main area (eg, FIG. 2).
  • the main area 210 may be displayed.
  • the processor of the electronic device 101 (for example, the processor 120 of FIG. 1) may set the first application based on a user input or information preset in the processor.
  • the processor may display an execution screen corresponding to an event occurring in the first application in the main area.
  • the electronic device 101 displays a plurality of sub areas (eg, the plurality of sub areas 220 of FIG. 2) that display an execution screen corresponding to a plurality of applications except the first application. , 230) may be displayed on the first sub-region (eg, the first sub-region 220 of FIG. 2) of the display.
  • the processor of the electronic device 101 may set the second application based on a user input or information preset in the processor.
  • the processor may display an execution screen corresponding to an event occurring in the second application in the first sub area.
  • the electronic device 101 increases the size of the first subregion based on an input to the second application to expand the first subregion (eg, the expanded first subregion of FIG. 4). Area 240).
  • the processor of the electronic device 101 may focus the first sub-region in response to a user's input to the second application or an event of operating the second application.
  • the processor may display the extended first sub-area by increasing the size of the focused first sub-area and the sizes of the objects constituting the execution screen inside the first sub-area.
  • FIG. 13 is a diagram illustrating a process of adjusting the size of a focused first sub-region 1320 in the display 1300 according to another exemplary embodiment.
  • the display 1300 may include a main area 1310, a focused first sub area 1320, and a second sub area 1330.
  • the first sub-region 1320 may be focused based on an input for the first sub-region 1320 of the user or an input for triggering an event for the second application.
  • the first subregion 1320 may be enlarged by a designated area compared to before it is focused to increase its size.
  • the focused first sub-region 1320 may have first to third drag parts 1340, 1350, and 1360, which may drag.
  • the size of the focused first sub-region 1320 may be enlarged as compared with before dragging through a gesture of dragging the first to third drag units 1340, 1350, and 1360. For example, a user places a finger or a touch pen on the first to third drag units 1340, 1350, and 1360, and then drags the finger or the touch pen out of the focused first sub-region 1320. The operation may enlarge the size of the focused first sub-region 1320.
  • the first drag unit 1340 may be a side of the edge of the first sub-region 1320 that is disposed inside the display 1300 and parallel to the first direction (eg, Y-axis direction).
  • the second drag unit 1350 may be a side of the edge of the first sub-region 1320 that is disposed inside the display 1300 and is parallel to the second direction (for example, the X-axis direction).
  • the third drag unit 1360 may be a vertex inside the display 1300 of vertices of the first sub-region 1320.
  • the third drag unit 1360 may be a point where the first drag unit 1340 and the second drag unit 1350 meet.
  • the focused first sub-region 1320 may be enlarged based on a drag input for at least some of the first to third drag units 1340, 1350, and 1360. Even when a drag input is performed on some of the first to third drag units 1340, 1350, and 1360, the length in the second direction relative to the length of the focused first sub-region 1320 in the first direction. The ratio of can be maintained. Accordingly, the display 1400 may display the expanded first sub-region 1410 after the drag input is completed.
  • the extended first sub-region 1410 may have a preset maximum size.
  • the processor may control the extended first sub-region 1410 not to be larger than the maximum size even when the user performs the drag input to exceed the maximum size.
  • the size of the expanded first sub-region 1410 may be reduced based on a drag input for at least a portion of the drag unit.
  • the drag portion may be restored to the same size as that of the first sub-region 1320.
  • a user places a finger or a touch pen on an inner side or corner of the expanded first sub-region 1410 and then drags the finger or touch pen into the expanded first sub-region 1410.
  • the operation may reduce the size of the expanded first sub region 1410.
  • the extended first sub-region 1410 may be restored to the same size as that of the focused first sub-region 1320.
  • the focused first sub-region 1320 when the focused first sub-region 1320 loses the acquired focus, the focused first sub-region 1320 may return to the size prior to obtaining the focus. When the focused first subregion 1320 loses the acquired focus, the focused first subregion 1320 may be displayed in the same size as the second subregion 1330.
  • FIG. 14 is a diagram illustrating a process of adjusting the size of the focused first sub-region 1520 in the display 1500 according to another exemplary embodiment.
  • the display 1500 may include a main area 1510, a focused first sub area 1520, and a second sub area 1530.
  • the first sub-region 1520 may be focused based on an input for a user's first sub-region 1520 or an input for triggering an event for a second application.
  • the first sub-region 1520 may be enlarged by an area enlarged by a designated area as compared with before being focused.
  • the button 1540 may be generated on one side of the focused first sub-region 1520.
  • the button 1540 may be generated to be adjacent to the focused first sub-region 1520.
  • the button 1540 may be generated in an inner direction of the display 1500 among diagonal directions of the focused first sub-region 1520.
  • the size of the focused first sub-region 1520 through the gesture of selecting the button 1540 may be enlarged as compared with before selecting the button 1540.
  • the user may enlarge the size of the focused first sub-region 1320 by selecting the button 1540 using a finger or a touch pen.
  • the focused first sub-region 1520 may be enlarged based on a selection input for the button 1540.
  • a ratio of the length in the second direction to the length in the first direction of the focused first sub-region 1520 may be maintained.
  • the display 1600 may display the extended first sub-area 1610 after the selection input is completed.
  • the extended first sub region 1610 may have a preset maximum size.
  • a button 1620 may be generated on one side of the extended first sub-region 1620.
  • the button 1620 may be generated to be adjacent to the extended first sub area 1610.
  • the button 1620 may be generated in an inner direction of the display 1600 among diagonal directions of the extended first sub-region 1610.
  • the button 1620 generated on one side of the extended first sub-region 1610 may have the button 1540 generated on one side of the focused first sub-region 1610 toggled. It may be a button.
  • the size of the expanded first sub-area 1610 is reduced by a gesture of selecting the button 1620 generated on one side of the expanded first sub-area 1610 compared to before selecting the button 1620. You can. For example, the user may reduce the size of the expanded first sub-region 1610 by selecting the button 1620 using a finger or a touch pen.
  • the focused first sub-region 1520 when the focused first sub-region 1520 loses the acquired focus, the focused first sub-region 1520 may return to the size prior to obtaining the focus. When the focused first sub-region 1520 loses the acquired focus, the focused first sub-region 1520 may be displayed in the same size as the second sub-region 1530.
  • the electronic device 101 may include a display (eg, the display 200 of FIG. 2) and a processor (eg, the processor of FIG. 1) that is operably connected to the display to control the display. 120, wherein the processor displays an execution screen corresponding to a first application among a plurality of applications in a main area (eg, the main area 210 of FIG. 2) and the first screen.
  • a first sub area eg, FIG.
  • Extended Article 1 sub-region 240 wherein the extended first sub-region overlaps at least a portion of the main region and / or at least a portion of a second sub-region except for the first sub-region.
  • the extended first sub region may be visually displayed as an upper layer than the main region and the second sub region.
  • the size of the extended first sub region may be larger than the size of the second sub region and smaller than the size of the main region.
  • the plurality of sub-regions are disposed adjacent to a first corner (eg, the first corner E1 of FIG. 3) formed in a first direction among the corners of the main region, and the first sub-region and The second sub-region may be divided by a second edge (eg, the second edge E2 of FIG. 3) formed in a second direction perpendicular to the first direction.
  • a first corner eg, the first corner E1 of FIG. 3
  • the second sub-region may be divided by a second edge (eg, the second edge E2 of FIG. 3) formed in a second direction perpendicular to the first direction.
  • the display is folded along a first boundary line (eg, the first boundary line B1 of FIG. 7) crossing the inside of the main area, and the extended first sub-region is the main area and the It may be formed to extend beyond the second boundary line (eg, the second boundary line B2 of FIG. 7), which is a boundary line of the second sub-region, and extend toward the main region.
  • a first boundary line eg, the first boundary line B1 of FIG. 7
  • the extended first sub-region is the main area and the It may be formed to extend beyond the second boundary line (eg, the second boundary line B2 of FIG. 7), which is a boundary line of the second sub-region, and extend toward the main region.
  • the expanded first sub area is moved so that the expanded first sub area does not overlap the input means. You can.
  • an input means eg, the keyboard 810 of FIG. 9
  • the main area, the first sub area, and the first sub area when an input means is displayed on the display, the main area, the first sub area, and the first sub area so that the main area, the first sub area, and the second sub area do not overlap the input means.
  • the arrangement relationship of at least some of the second sub-regions may be adjusted.
  • the extended first sub-area may be set by moving an object (eg, the object 1140 of FIG. 11) disposed on the display to the first sub-area.
  • an object eg, the object 1140 of FIG. 11
  • the first sub-region may further include a drag unit (eg, first to third drag units 1340, 1350, and 1360 of FIG. 13) disposed inside the display after being focused. It may have an enlarged size based on a drag input for at least a portion of the drag unit.
  • a drag unit eg, first to third drag units 1340, 1350, and 1360 of FIG. 13
  • an electronic device may include a display for dividing a plurality of execution screens corresponding to a plurality of applications into a plurality of display regions formed in different sizes and being operatively connected to the display to control the display. And a processor configured to focus a first sub area, which is a sub area displaying the second application, based on an input to a second application other than a first application among the plurality of applications. And increase the size of the first sub-area based on the input to the second application to display the expanded first sub-area, wherein the focused first sub-area is based on the input to the second application. It may be an area of a pointed state.
  • the processor is configured to increase the size of the first sub-area larger than the size of the second sub-area except for the first sub-area to display the expanded first sub-area, and the expansion
  • the first sub region may overlap at least a portion of the main region or at least a portion of the second sub region.
  • a notch portion may be formed in at least a portion of a bezel region, which is an edge region of the display, and the notch portion may be disposed adjacent to one side edge of the first sub-region.
  • the expanded first sub-area in the input mode in which a keyboard for inputting a letter or a symbol is displayed on the display, may be moved to an area where the keyboard is not displayed.
  • the main area, the first sub area, and the second sub area do not overlap the keyboard.
  • An arrangement relationship of at least some of the region, the first sub-region, and the second sub-region may be adjusted.
  • a method of driving an electronic device may include displaying an execution screen corresponding to a first application among a plurality of applications on a main area of a display, and executing the plurality of applications except the first application. Displaying an execution screen corresponding to a second application among a plurality of sub-regions displaying a screen on the first sub-region of the display, and increasing the size of the first sub-region based on an input to the second application And displaying the extended first sub-area, wherein the expanded first sub-area is at least a portion of the main area and / or at least a portion of a second sub-area except for the first sub-area; An overlapping first sub-region, the expanded first sub-region being visually larger than the main region and the second sub-region It may be represented by the upper layer (upper layer).
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a tablet, or a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a camera
  • a wearable device e.g., a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch, or a smart watch
  • first, second, or first or second may be used merely to distinguish a component from other corresponding components, and to separate the components from other aspects (e.g. Order).
  • Some (eg first) component may be referred to as “coupled” or “connected” to another (eg second) component, with or without the term “functionally” or “communically”.
  • any component can be connected directly to the other component (eg, by wire), wirelessly, or via a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit.
  • the module may be a minimum unit or part of an integrally configured component or part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of this document may include one or more instructions stored on a storage medium (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, electronic device 101). It may be implemented as software (eg, program 140) including the.
  • a processor eg, the processor 120 of the device (eg, the electronic device 101) may call and execute at least one command among one or more instructions stored from the storage medium. This enables the device to be operated to perform at least one function in accordance with the at least one command invoked.
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' means only that the storage medium is a tangible device and does not contain a signal (e.g. electromagnetic wave), which is the term used when the data is stored semi-permanently on the storage medium. It does not distinguish cases where it is temporarily stored.
  • a signal e.g. electromagnetic wave
  • a method according to various embodiments of the present disclosure may be included in a computer pro memory product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • Computer program products are distributed in the form of device-readable storage media (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store TM ) or two user devices (e.g. Can be distributed (eg, downloaded or uploaded) directly or online between smartphones.
  • an online distribution at least a portion of the computer program product may be stored at least temporarily or temporarily created on a device-readable storage medium such as a server of a manufacturer, a server of an application store, or a memory of a relay server.
  • each component eg, a module or a program of the above-described components may include singular or plural objects.
  • one or more components or operations of the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of the component of each of the plurality of components the same as or similar to that performed by the corresponding component of the plurality of components before the integration. .
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, or may be omitted. Or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

디스플레이 및 상기 디스플레이와 작동적으로 연결되어(operationally connected) 상기 디스플레이를 제어하는 프로세서를 포함하고, 상기 프로세서는, 제1 어플리케이션에 대응하는 제1 실행 화면을 메인 영역에 표시하고, 제2 어플리케이션에 대응하는 제2 실행 화면을 상기 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들 중 제1 서브 영역에 표시하고, 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하고, 상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 및/또는 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 적어도 일부와 중첩되고, 상기 확장된 제1 서브 영역은 상기 메인 영역 및 상기 제2 서브 영역보다 시각적으로 상위 층(upper layer)으로 표시되는 전자 장치가 개시된다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법
본 문서에서 개시되는 실시 예들은 전자 장치에서 복수의 어플리케이션들의 실행 화면의 표시 방식을 개선하는 기술과 관련된다.
디스플레이를 구비한 전자 장치가 광범위하게 보급되고 있다. 전자 장치는 디스플레이를 이용하여 전자 장치가 실행하고 있는 어플리케이션(application)의 실행 화면을 표시할 수 있다.
스마트 폰이나 태블릿과 같은 전자 장치들은 일반적으로 하나의 어플리케이션의 실행 화면을 디스플레이의 전체 영역에 출력한다. 한편 멀티 윈도우 모드(multi-window mode) 또는 멀티 스크린 모드와 같은 기능을 지원하는 전자 장치는, 디스플레이를 통상 2개의 영역으로 분할하고, 분할된 각각의 영역에 서로 다른 어플리케이션의 실행 화면을 출력할 수 있다.
전자 장치가 멀티 윈도우 모드로 동작하는 경우, 복수의 영역들 중 포커스를 획득한 영역의 색상을 다르게 지정하는 방식으로 포커스를 획득한 영역을 표현할 수 있다. 예를 들어 포커스를 획득한 영역은 색상 강조(color point)를 이용하여 시각적으로 구분할 수 있도록 할 수 있다. 그러나 전자 장치가 어느 하나의 영역이 포커스를 획득하더라도 사용자가 포커스를 획득한 영역을 쉽게 인지하지 못하여 시인성을 확보할 수 없는 문제가 발생할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 디스플레이 및 상기 디스플레이와 작동적으로 연결되어(operationally connected) 상기 디스플레이를 제어하는 프로세서를 포함하고, 상기 프로세서는, 복수의 어플리케이션들(applications) 중 제1 어플리케이션에 대응하는 실행 화면을 메인 영역에 표시하고, 상기 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들 중 제2 어플리케이션에 대응하는 제2 실행 화면을 제1 서브 영역에 표시하고, 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하고, 상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 및/또는 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 적어도 일부와 중첩되고, 상기 확장된 제1 서브 영역은 상기 메인 영역 및 상기 제2 서브 영역보다 시각적으로 상위 층(upper layer)으로 표시된다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 복수의 어플리케이션들에 대응하는 복수의 실행 화면을 서로 다른 크기로 형성된 복수의 표시 영역들로 분할하여 출력하는 디스플레이 및 상기 디스플레이와 작동적으로 연결되어 상기 디스플레이를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 어플리케이션들 중 제1 어플리케이션을 제외한 제2 어플리케이션에 대한 입력에 기반하여, 상기 제2 어플리케이션을 표시하는 서브 영역인 제1 서브 영역을 포커스(focus)하고, 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하고, 상기 포커스된 제1 서브 영역은 상기 제2 어플리케이션에 대한 입력에 기반하여 강조된(pointed) 상태의 영역이다.
또한, 본 문서에 개시되는 일 실시 예에 따른 전자 장치의 구동 방법은, 복수의 어플리케이션들 중 제1 어플리케이션에 대응하는 제1 실행 화면을 디스플레이의 메인 영역에 표시하는 동작, 상기 복수의 어플리케이션들 중 제2 어플리케이션에 대응하는 제2 실행 화면을, 상기 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들 중 제1 서브 영역에 표시하는 동작, 및 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하는 동작을 포함하고, 상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 및/또는 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 적어도 일부와 중첩되고, 상기 확장된 제1 서브 영역은 상기 메인 영역 및 상기 제2 서브 영역보다 시각적으로 상위 층(upper layer)으로 표시된다.
본 문서에 개시되는 실시 예들에 따르면, 복수의 영역들 중 포커스를 얻은 영역의 크기를 확대함으로써 시각적으로 나머지 영역들과의 구분을 확실하게 할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 복수의 영역들 중 포커스를 얻은 영역의 면적이 넓어짐으로써 시인성을 개선하고 사용자가 포커스를 얻은 영역을 보다 용이하게 조작할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 다양한 실시 예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시 예에 따른 전자 장치를 나타낸 도면이다.
도 3은 일 실시 예에 따른 디스플레이에서 메인 영역이 포커스된 경우를 나타낸 도면이다.
도 4는 일 실시 예에 따른 디스플레이에서 확장된 제1 서브 영역을 표시하는 경우를 나타낸 도면이다.
도 5는 다른 실시 예에 따른 디스플레이에서 메인 영역이 포커스된 경우를 나타낸 도면이다.
도 6은 다른 실시 예에 따른 디스플레이에서 확장된 제1 서브 영역을 표시하는 경우를 나타낸 도면이다.
도 7은 다른 실시 예에 따른 전자 장치가 펼쳐진 경우를 나타낸 도면이다.
도 8은 다른 실시 예에 따른 전자 장치가 접힌 경우를 나타낸 도면이다.
도 9는 또 다른 실시 예에 따른 디스플레이에서 확장된 제1 서브 영역이 있는 상태에서 키보드를 호출하는 경우를 나타낸 도면이다.
도 10은 또 다른 실시 예에 따른 디스플레이에서 제1 서브 영역이 있는 상태에서 키보드를 호출하는 경우를 나타낸 도면이다.
도 11은 또 다른 실시 예에 따른 디스플레이에서 메인 영역이 포커스된 상태에서 제1 서브 영역이 포커스되어 확장된 제1 서브 영역으로 표시하는 과정을 나타낸 도면이다.
도 12는 일 실시 예에 따른 전자 장치의 구동 방법을 나타낸 흐름도이다.
도 13은 또 다른 실시 예에 따른 디스플레이에서 포커스된 제1 서브 영역의 크기를 조정하는 과정을 나타낸 도면이다.
도 14는 또 다른 실시 예에 따른 디스플레이에서 포커스된 제1 서브 영역의 크기를 조정하는 과정을 나타낸 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령(command) 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(388)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 안테나 모듈은, 일 실시 예에 따르면, 도전체 또는 도전성 패턴으로 형성될 수 있고, 어떤 실시 예에 따르면, 도전체 또는 도전성 패턴 이외에 추가적으로 다른 부품(예: RFIC)을 더 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 일 실시 예에 따른 전자 장치(101)를 나타낸 도면이다. 전자 장치(101)는 디스플레이(200) 및 하우징(300)을 포함할 수 있다.
일 실시 예에서, 디스플레이(200)는 전자 장치(101)의 전면에 배치될 수 있다. 디스플레이(200)는 하우징(300)에 의해 적어도 일부가 둘러싸이도록 배치될 수 있다. 디스플레이(200)는 하우징(300)에 의해 형성된 내부 공간 상에 배치될 수 있다. 예를 들어, 디스플레이(200)는 하우징(300)에 의해 측면 및 후면이 둘러싸이도록 배치될 수 있다.
일 실시 예에서, 디스플레이(200)는 어플리케이션의 실행 화면을 출력할 수 있다. 디스플레이(200)의 전체 영역은 복수의 표시 영역들(210, 220, 230)들로 구분될 수 있다. 디스플레이(200)는 복수의 표시 영역들(210, 220, 230) 각각을 이용하여 서로 다른 어플리케이션의 실행 화면을 출력할 수 있다. 예를 들어, 디스플레이(200)는 제1 어플리케이션의 실행 화면을 메인 영역(210)에, 제2 어플리케이션의 실행 화면을 제1 서브 영역(220)에, 제3 어플리케이션의 실행 화면을 제2 서브 영역(230)에 출력할 수 있다. 일 실시 예에서, 전자 장치(101)는 복수의 어플리케이션(application)에 대응하는 복수의 실행 화면을 적어도 일부가 서로 다른 크기 또는 서로 같은 크기로 형성된 복수의 표시 영역들(210, 220, 230)에 출력할 수 있다.
일 실시 예에서, 도 2와 같이 디스플레이(200)는 메인 영역(210), 제1 서브 영역(220), 및 제2 서브 영역(230)을 포함할 수 있다. 그러나 이에 한정되지 않으며, 도 2는 디스플레이(200) 상에서 복수의 실행 화면들을 표시하는 하나의 예(예시적인 크기, 예시적인 모양, 예시적인 배치 형태)일 수 있다. 디스플레이(200)는 복수의 서브 영역들(220, 230) 중 일부 영역에서만 어플리케이션이 실행되는 과정 또는 어플리케이션의 동작 결과를 표시하고, 복수의 서브 영역들(220, 230) 중 나머지 영역에서는 실행되지 않는 상태의 어플리케이션들을 나타내는 아이콘(icon)들을 표시하거나 실행 화면을 표시하지 않을 수 있다.
일 실시 예에서, 메인 영역(210)은 복수의 표시 영역들(210, 220, 230) 중 주된(예: main) 어플리케이션의 실행 화면을 표시하는 어느 하나의 표시 영역일 수 있다. 예를 들어, 주된 어플리케이션의 실행 화면은 사용자가 지정한 어플리케이션에 해당하는 실행 화면일 수 있다. 사용자는 입력(예: 터치 입력 또는 음성 입력)을 이용하여 메인 영역(210) 상에 표시하고자 하는 어플리케이션을 제1 어플리케이션으로 지정할 수 있다. 이 경우, 메인 영역(210)은 제1 어플리케이션의 실행 과정 또는 동작 결과에 대응하는 실행 화면을 표시하는 영역일 수 있다. 다른 예로, 주된 어플리케이션의 실행 화면은 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))에 의해 지정된 어플리케이션에 대응하는 실행 화면 일 수 있다. 프로세서는 제1 어플리케이션을 미리 설정할 수 있다. 이 경우, 메인 영역(210)에는 별도로 사용자의 입력이 없는 경우 제1 어플리케이션의 실행 과정 또는 동작 결과에 대응하는 실행 화면이 표시될 수 있다.
일 실시 예에서, 복수의 서브 영역들(220, 230)은 메인 영역(210)을 제외한 나머지 표시 영역들일 수 있다. 복수의 서브 영역들(220, 230)은 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면들을 표시하는 표시 영역들일 수 있다. 복수의 서브 영역들(220, 230)은 제1 서브 영역(220) 및 제2 서브 영역(230)을 포함할 수 있으며, 이는 디스플레이(200) 상에서 어플리케이션의 실행 화면을 표시하는 예시적인 형태일 수 있다. 즉, 디스플레이(200)는 복수의 서브 영역들(220, 230) 내 서브 영역들의 개수 및 형태를 다양하게 조정할 수 있다.
일 실시 예에서, 메인 영역(210)은 다중 어플리케이션 실행 과정에서 높은 우선 순위를 갖는 어플리케이션에 대응하는 실행 화면을 표시하는 영역일 수 있다. 제1 서브 영역(220) 및 제2 서브 영역(230)은 다중 어플리케이션 실행 과정에서 낮은 우선 순위를 갖는 어플리케이션에 대응하는 실행 화면을 표시하는 영역일 수 있다.
일 실시 예에서, 메인 영역(210), 제1 서브 영역(220), 및 제2 서브 영역(230) 각각은 하나의 어플리케이션에 대응하는 실행 화면을 표시하도록 설정된 영역으로 정의할 수 있다. 메인 영역(210), 제1 서브 영역(220) 및 제2 서브 영역(230)은 서로 다른 어플리케이션들에 대응하는 실행 화면을 독립적으로 표시할 수 있다.
일 실시 예에서, 하우징(300)은 전자 장치(101)의 외곽 및 가장자리 영역 상에 배치될 수 있다. 하우징(300)은 전자 장치(101)의 내부에 배치된 다른 구성요소들을 보호할 수 있다. 하우징(300)은 전자 장치(101)의 테두리 형태 및 결속 형태를 정의할 수 있다. 예를 들어, 하우징(300)은 전면 플레이트(front plate), 전면 플레이트와 반대 방향을 향하는(facing away) 형태를 갖고, 전면 플레이트와 대향하는 후면부 및 전면 플레이트와 후면 플레이트 사이의 공간을 둘러싸는 측면부가 일체로 형성된 후면 플레이트(back plate)를 포함할 수 있다. 다른 예로, 하우징(300)은 제1 방향을 향하는 제1 플레이트, 제1 방향과 반대 방향인 제2 방향을 향하는 제2 플레이트, 및 제1 방향에 수직인 제3 방향을 향하고 제1 플레이트와 제2 플레이트 사이의 공간의 일부를 둘러싸는 제3 플레이트를 포함할 수 있다.
일 실시 예에서, 하우징(300)의 적어도 일부는 디스플레이(200)를 지지하기 위해 설정된 크기의 강성을 갖는 금속 재질 또는 비금속 재질로 형성될 수 있다. 하우징(300)은 전자 장치(101)의 음성 입출력 및 플래시, 및 카메라를 표면에 구비할 수 있다. 예를 들어, 전자 장치(101)의 일 측에는 음성 출력부(예: 스피커), 플래시, 및 카메라가 배치될 수 있고, 전자 장치(101)의 타 측에는 음성 입력부(예: 마이크)가 배치될 수 있다. 또한, 하우징(300)은 안테나를 포함할 수 있다. 예를 들어, 하우징(300)의 가장자리 영역의 적어도 일부 상에 안테나가 형성될 수 있다.
일 실시 예에서, 전자 장치(101)는 프로세서를 포함할 수 있다. 프로세서는 디스플레이(200)와 작동적으로 연결(operationally connected)될 수 있다. 프로세서는 디스플레이(200)를 제어할 수 있다. 예를 들어, 프로세서는 디스플레이(200)에 어플리케이션의 실행 화면을 표시하기 위한 영상 데이터 및 다양한 제어 신호들을 공급할 수 있다.
도 3은 일 실시 예에 따른 디스플레이(200)에서 메인 영역(210)이 포커스(focus)된 경우를 나타낸 도면이다.
일 실시 예에서, 포커스는 어플리케이션에 대한 입력에 기반하여 대응하는 표시 영역이 강조된(pointed) 상태를 의미할 수 있다. 포커스는 사용자의 입력 또는 어플리케이션을 동작시키는 입력에 기반하여 활성화되는 어플리케이션을 지정하고, 지정된 어플리케이션에 대응하는 표시 영역이 선택된 상태일 수 있다. 예를 들어, 사용자의 입력(예: 터치 입력 또는 음성 입력)에 기반하여 제1 어플리케이션을 실행하는 이벤트(event)가 트리거된 경우, 제1 어플리케이션을 표시하는 메인 영역(210)이 포커스될 수 있다. 다른 예로, 제1 어플리케이션이 지정된 조건(예: 알람 또는 스케줄러가 지정된 시각에 알림) 또는 정보의 수신(예: 메시지 또는 전송된 사진을 수신)에 따라 실행 또는 동작 이벤트가 트리거된 경우, 제1 어플리케이션을 표시하는 메인 영역(210)이 포커스될 수 있다.
일 실시 예에서, 디스플레이(200)는 메인 영역(210), 제1 서브 영역(220), 및 제2 서브 영역(230) 각각에서 서로 다른 어플리케이션에 대응하는 실행 화면을 표시할 수 있다. 예를 들어, 디스플레이(200)는 메인 영역(210)에서 사진 어플리케이션의 실행 화면을 표시하고, 제1 서브 영역(220)에서 메시지 어플리케이션의 실행 화면을 표시하고, 제2 서브 영역(230)에서 이메일 어플리케이션의 실행 화면을 표시할 수 있다.
일 실시 예에서, 프로세서(예: 도 1의 프로세서(120))는 복수의 어플리케이션들 중 어느 하나의 어플리케이션에 대응하는 실행 화면을 주된 실행 화면으로 설정할 수 있다. 프로세서는 주된 실행 화면을 메인 영역(210)에 표시하도록 설정할 수 있다. 예를 들어, 프로세서는 사진 어플리케이션의 실행 화면을 주된 실행 화면으로 설정하고 메인 영역(210)에 표시하도록 설정할 수 있다.
일 실시 예에서, 포커스된 영역은 메인 영역(210), 제1 서브 영역(220), 또는 제2 서브 영역(230) 중 사용자의 입력 또는 어플리케이션에 대한 정보의 입력에 기반하여 선택된 영역으로 정의할 수 있다. 도 3과 같이, 메인 영역(210)을 선택하는 경우 메인 영역(210)은 포커스될 수 있다. 예를 들어, 사용자가 메인 영역(210)에 터치 입력을 수행하거나 메인 영역(210)에 대응하는 사진 어플리케이션을 가리키는 음성 입력을 수행하는 경우, 프로세서는 사용자가 메인 영역(210)을 포커스하도록 명령한 것으로 판단하고 메인 영역(210)을 포커스할 수 있다. 다른 예로, 프로세서에서 사진을 편집, 전송, 또는 공유하는 명령을 수행하는 경우, 프로세서는 사진 어플리케이션에 대한 이벤트가 트리거된 것으로 판단하고 사진 어플리케이션에 대응하는 실행 화면을 표시하는 메인 영역(210)을 포커스할 수 있다.
일 실시 예에서, 복수의 서브 영역들(220, 230)은 메인 영역(210)의 모서리 중 제1 방향(예: Y축 방향)으로 형성된 제1 모서리(E1)에 인접하게 배치될 수 있다. 메인 영역(210)은 디스플레이(200) 상의 일 측 영역에 배치될 수 있다. 예를 들어, 도 3과 같이 메인 영역(210)은 제1 방향으로 상부 및 하부 모서리가 배치된 디스플레이(200)의 좌측 영역에 배치될 수 있다. 복수의 서브 영역들(220, 230)은 메인 영역(210)이 차지하는 영역의 나머지 영역에 배치될 수 있다. 예를 들어, 도 3과 같이 복수의 서브 영역들(220, 230)은 제1 방향으로 상부 및 하부 모서리가 배치된 디스플레이(200)의 우측 영역에 배치될 수 있다.
일 실시 예에서, 제1 서브 영역(220) 및 제2 서브 영역(230)은 제1 방향과 수직인 제2 방향(예: X축 방향)으로 형성된 제2 모서리(E2)에 의해 분할될 수 있다. 제1 서브 영역(220) 및 제2 서브 영역(230)은 복수의 서브 영역들(220, 230) 내부를 분할하여 형성할 수 있다. 예를 들어, 도 3과 같이 제1 서브 영역(220) 및 제2 서브 영역(230)은 제1 방향으로 상부 및 하부 모서리가 배치된 디스플레이(200)의 우측 영역에서 상부 및 하부로 분할되어 배치될 수 있다.
일 실시 예에서, 메인 영역(210)은 X축 방향으로 제1 길이(L1)를 가질 수 있다. 메인 영역(210)은 Y축 방향으로 제2 길이(L2)를 가질 수 있다.
일 실시 예에서, 제1 서브 영역(220)은 X축 방향으로 제3 길이(L3)를 가질 수 있다. 제3 길이(L3)는 제1 길이(L1)보다 짧을 수 있다. 제1 서브 영역(220)은 Y축 방향으로 제4 길이(L4)를 가질 수 있다. 제4 길이(L4)는 제2 길이(L2)보다 짧을 수 있다. 제1 서브 영역(220)의 크기는 메인 영역(210)의 크기보다 작을 수 있다.
일 실시 예에서, 제1 서브 영역(220)의 크기 및 제2 서브 영역(230)의 크기는 포커스에 따라 제어할 수 있다. 예를 들어, 도 3과 같이 제1 서브 영역(220) 및 제2 서브 영역(230)이 모두 포커스되지 않은 경우, 제1 서브 영역(220)의 크기 및 제2 서브 영역(230)의 크기를 동일하도록 설정할 수 있다.
도 4는 일 실시 예에 따른 디스플레이(200)에서 확장된 제1 서브 영역(240)을 표시하는 경우를 나타낸 도면이다.
일 실시 예에서, 확장된 제1 서브 영역(240)은 사용자에 의해 포커스된 어플리케이션이 실행되는 실행 화면을 표시하는 서브 영역일 수 있다. 예를 들어, 사용자가 메시지를 입력하는 경우, 프로세서(예: 도 1의 프로세서(120))는 사용자가 메시지 어플리케이션을 포커스하도록 명령한 것으로 판단하고, 메시지 어플리케이션을 표시하는 실행 화면을 확장된 제1 서브 영역(240)에 표시할 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(240)은 프로세서에 의해 포커스된 어플리케이션이 실행되는 실행 화면을 표시하는 서브 영역일 수 있다. 예를 들어, 메시지를 수신하는 경우, 프로세서는 메시지 어플리케이션을 포커스하도록 설정하고, 메시지 어플리케이션을 표시하는 실행 화면을 확장된 제1 서브 영역(240)에 표시할 수 있다.
일 실시 예에서, 프로세서는 제1 서브 영역(220)이 포커스된 경우, 제1 서브 영역(220)의 크기가 제2 서브 영역(230)의 크기보다 큰 크기를 갖도록 제1 서브 영역(220)의 크기를 증가시켜 확장된 제1 서브 영역(240)을 표시하도록 설정할 수 있다. 전자 장치(101)는 포커스된 제1 서브 영역(220)의 크기 및 제1 서브 영역 내부의 실행 화면을 구성하는 객체들의 크기를 증가시켜 디스플레이(200) 상에 확장된 제1 서브 영역(240)을 표시할 수 있다.
일 실시 예에서, 프로세서는 포커스된 제1 서브 영역(220)을 확장된 제1 서브 영역(240)으로 표시하도록 설정할 수 있다. 예를 들어, 사용자가 제1 서브 영역(220)에 터치 입력을 수행하거나 메시지 어플리케이션을 실행하는 음성 입력을 수행하는 경우, 프로세서는 제1 서브 영역(220)에서 표시하는 메시지 어플리케이션이 포커스된 것으로 판단하고 제1 서브 영역(220)의 크기를 증가시켜 확장된 제1 서브 영역(240)으로 표시할 수 있다. 다른 예로, 프로세서에서 메시지를 작성, 전송, 또는 수신하는 명령을 수행하는 경우, 프로세서는 메시지 어플리케이션에 대응하는 실행 화면을 표시하는 제1 서브 영역(220)이 가장 높은 우선 순위를 갖는 것으로 판단하고 제1 서브 영역(220)의 크기를 증가시켜 확장된 제1 서브 영역(240)으로 표시할 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(240)의 크기는 제2 서브 영역(230)의 크기보다 클 수 있다. 또한, 확장된 제1 서브 영역(240)의 크기는 메인 영역(210)의 크기보다 작을 수 있다. 예를 들어, 확장된 제1 서브 영역(240)의 X축 방향으로의 길이인 제5 길이(L5)는 제2 서브 영역(230)의 X축 방향으로의 길이인 제3 길이(L3)보다 길고 메인 영역(210)의 X축 방향으로의 길이인 제1 길이(L1)보다 짧을 수 있다. 다른 예로, 확장된 제1 서브 영역(240)의 Y축 방향으로의 길이인 제6 길이(L6)는 제2 서브 영역(230)의 Y축 방향으로의 길이인 제4 길이(L4)보다 길고 메인 영역(210)의 Y축 방향으로의 길이인 제2 길이(L2)보다 짧을 수 있다.
도 5는 다른 실시 예에 따른 디스플레이(400)에서 메인 영역(410)이 포커스된 경우를 나타낸 도면이다.
일 실시 예에서, 디스플레이(400)는 메인 영역(410), 제1 서브 영역(420), 및 제2 서브 영역(430) 각각에서 서로 다른 어플리케이션에 대응하는 실행 화면을 표시할 수 있다. 예를 들어, 디스플레이(400)는 메인 영역(410)에서 사진 어플리케이션에 대응하는 실행 화면을 표시하고, 제1 서브 영역(420)에서 메시지 어플리케이션에 대응하는 실행 화면을 표시하고, 제2 서브 영역(430)에서 이메일 어플리케이션에 대응하는 실행 화면을 표시할 수 있다.
일 실시 예에서, 프로세서(예: 도 1의 프로세서(120))는 복수의 어플리케이션들 중 어느 하나의 어플리케이션에 대응하는 실행 화면을 주된 실행 화면으로 설정할 수 있다. 프로세서는 주된 실행 화면을 메인 영역(410)에 표시하도록 설정할 수 있다. 예를 들어, 프로세서는 사진 어플리케이션을 주된 실행 화면으로 설정하고 메인 영역(410)에 표시하도록 설정할 수 있다.
일 실시 예에서, 메인 영역(410)은 포커스될 수 있다. 예를 들어, 사용자가 메인 영역(410)에 터치 입력을 수행하는 경우, 프로세서는 메인 영역(410)을 포커스할 수 있다. 다른 예로, 프로세서에서 사진을 편집, 전송, 또는 공유하는 명령을 수행하는 경우, 프로세서는 사진 어플리케이션에 대응하는 실행 화면을 표시하는 메인 영역(410)을 포커스할 수 있다.
일 실시 예에서, 복수의 서브 영역들(420, 430)은 메인 영역(410)의 모서리 중 제2 방향(예: X축 방향)으로 형성된 제3 모서리(E3)에 인접하게 배치될 수 있다. 메인 영역(410)은 디스플레이(400) 상의 일 측 영역에 배치될 수 있다. 예를 들어, 도 5와 같이 메인 영역(410)은 제1 방향으로 상부 및 하부 모서리가 배치된 디스플레이(400)의 상부 영역에 배치될 수 있다. 복수의 서브 영역들(420, 430)은 메인 영역(410)이 차지하는 영역의 나머지 영역에 배치될 수 있다. 예를 들어, 도 5와 같이 복수의 서브 영역들(420, 430)은 제1 방향으로 상부 및 하부 모서리가 배치된 디스플레이(400)의 하부 영역에 배치될 수 있다.
일 실시 예에서, 제1 서브 영역(420) 및 제2 서브 영역(430)은 제2 방향과 수직인 제1 방향(예: Y축 방향)으로 형성된 제4 모서리(E4)에 의해 분할될 수 있다. 제1 서브 영역(420) 및 제2 서브 영역(430)은 복수의 서브 영역들(420, 430) 내부를 분할하여 형성할 수 있다. 예를 들어, 도 5와 같이 제1 서브 영역(420) 및 제2 서브 영역(430)은 제1 방향으로 상부 및 하부 모서리가 배치된 디스플레이(400)의 하부 영역에서 좌우로 분할되어 배치될 수 있다.
일 실시 예에서, 메인 영역(410)은 Y축 방향으로 제7 길이(L7)를 가질 수 있다. 메인 영역(410)은 X축 방향으로 제8 길이(L8)를 가질 수 있다.
일 실시 예에서, 제1 서브 영역(420)은 Y축 방향으로 제9 길이(L9)를 가질 수 있다. 제9 길이(L9)는 제7 길이(L7)보다 짧을 수 있다. 제1 서브 영역(420)은 X축 방향으로 제10 길이(L10)를 가질 수 있다. 제10 길이(L10)는 제8 길이(L8)보다 짧을 수 있다. 제1 서브 영역(420)의 크기는 메인 영역(410)의 크기보다 작을 수 있다.
일 실시 예에서, 제1 서브 영역(420)의 크기 및 제2 서브 영역(430)의 크기는 포커스에 따라 제어할 수 있다. 예를 들어, 도 5와 같이 제1 서브 영역(420) 및 제2 서브 영역(430)이 모두 포커스되지 않은 경우, 제1 서브 영역(420)의 크기 및 제2 서브 영역(430)의 크기를 동일하도록 설정할 수 있다.
도 6은 일 실시 예에 따른 디스플레이(400)에서 확장된 제1 서브 영역(440)을 표시하는 경우를 나타낸 도면이다.
일 실시 예에서, 확장된 제1 서브 영역(440)은 프로세서(예: 도 1의 프로세서(120))에 의해 활성화된 어플리케이션이 실행되는 실행 화면을 표시하는 서브 영역일 수 있다. 예를 들어, 사용자가 메시지를 입력하는 경우, 프로세서는 확장된 제1 서브 영역(440)에서 표시하는 메시지 어플리케이션을 활성화하도록 설정하고, 사용자가 입력하는 메시지를 표시하도록 메시지 어플리케이션을 실행하는 실행 화면을 확장된 제1 서브 영역(440)에 표시할 수 있다.
일 실시 예에서, 제1 서브 영역(420)의 크기 및 제2 서브 영역(430)의 크기는 포커스에 따라 제어할 수 있다. 도 6과 같이, 제1 서브 영역(420)이 포커스된 경우, 제1 서브 영역(420)의 크기가 제2 서브 영역(430)의 크기보다 큰 크기를 갖도록 제1 서브 영역(420)의 크기를 증가시켜 확장된 제1 서브 영역(440)으로 표시할 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(440)은 제1 서브 영역(420)이 포커스된 경우 구현될 수 있다. 예를 들어, 사용자가 제1 서브 영역(420)에 터치 입력을 수행하거나 제1 서브 영역(420)에 표시된 메시지 어플리케이션을 실행하는 음성 입력을 수행하는 경우, 프로세서는 제1 서브 영역(420)이 포커스된 것으로 판단하고 제1 서브 영역(420)의 크기를 증가시켜 확장된 제1 서브 영역(440)으로 표시할 수 있다. 다른 예로, 프로세서에서 메시지를 작성, 전송, 또는 수신하는 명령을 수행하는 경우, 프로세서는 메시지 어플리케이션이 선택된 것으로 판단할 수 있다. 이에 따라, 프로세서는 메시지 어플리케이션에 대응하는 실행 화면을 표시하는 제1 서브 영역(420)을 포커스하여 제1 서브 영역(420)의 크기를 증가시켜 확장된 제1 서브 영역(440)으로 표시할 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(440)의 크기는 제2 서브 영역(430)의 크기보다 클 수 있다. 확장된 제1 서브 영역(440)의 크기는 메인 영역(410)의 크기보다 작을 수 있다. 예를 들어, 확장된 제1 서브 영역(440)의 Y축 방향으로의 길이인 제11 길이(L11)는 제2 서브 영역(430)의 Y축 방향으로의 길이인 제9 길이(L9)보다 길고 메인 영역(410)의 Y축 방향으로의 길이인 제7 길이(L7)보다 짧을 수 있다. 다른 예로, 확장된 제1 서브 영역(440)의 X축 방향으로의 길이인 제12 길이(L12)는 제2 서브 영역(430)의 X축 방향으로의 길이인 제10 길이(L10)보다 길고 메인 영역(410)의 X축 방향으로의 길이인 제8 길이(L8)보다 짧을 수 있다.
도 7은 다른 실시 예에 따른 전자 장치(101)가 펼쳐진(outstretched) 경우를 나타낸 도면이다. 도 8은 다른 실시 예에 따른 전자 장치(101)가 접힌(folded) 경우를 나타낸 도면이다.
일 실시 예에서, 전자 장치(101)는 폴더블(foldable)한 특성을 가질 수 있다. 폴더블한 특성을 갖는 전자 장치(101)는 도 7에 도시된 펼침 상태, 도 8에 나타난 접힘 상태, 및 펼침 상태와 접힘 상태 사이의 상태인 중간 상태(intermediate state)를 가질 수 있다.
일 실시 예에서, 전자 장치(101)는 하우징(500), 하우징(500)의 접힘 가능한 부분을 덮는 커버(530), 및 하우징(500)에 의해 형성된 공간 내에 배치된 디스플레이(600)를 포함할 수 있다.
일 실시 예에서, 하우징(500)은 제1 베젤(bezel)(510a) 및 제2 베젤(510b)을 포함하는 제1 구조물(510), 제3 베젤(520a), 제4 베젤(520b), 및 노치(notch)부(524)를 포함하는 제2 구조물(520), 제1 후면 커버(580), 및 제2 후면 커버(590)를 포함할 수 있다. 그러나 이에 한정되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수 있다. 예를 들어, 다른 실시 예에서는, 제1 구조물(510)과 제1 후면 커버(580)가 일체로 형성될 수 있고, 제2 구조물(520)과 제2 후면 커버(590)가 일체로 형성될 수 있다.
일 실시 예에서, 제1 구조물(510) 및 제2 구조물(520)은 제1 경계선(B1)을 중심으로 양측에 배치될 수 있다. 제1 구조물(510) 및 제2 구조물(520)은 제1 경계선(B1)을 기준으로 접힐 수 있다. 제1 경계선(B1)은 제1 구조물(510) 및 제2 구조물(520)이 대칭적으로 접히는 구조를 갖도록 설정될 수 있다. 예를 들어, 제1 경계선(B1)은 디스플레이(600)의 중앙을 지날 수 있다.
일 실시 예에서, 디스플레이(600)는 하우징(500)에 의해 형성된 공간 상에 배치될 수 있다. 예를 들어, 디스플레이(600)는 하우징(500)에 의해 형성되는 리세스(recess) 상에 안착되어 전자 장치(101)의 전면의 대부분을 구성할 수 있다. 디스플레이(600)는 메인 영역, 확장된 제1 서브 영역(620), 및 제2 서브 영역(630)을 포함할 수 있다.
일 실시 예에서, 메인 영역(610)은 디스플레이(600) 영역의 절반 이상을 차지할 수 있다. 이에 따라, 제1 경계선(B1)은 디스플레이(600)의 메인 영역(610)의 내부를 가로지를 수 있다. 디스플레이(600)는 메인 영역(610)의 내부를 가로지르는 제1 경계선(B1)을 따라 접힐 수 있다. 이에 따라, 디스플레이(600)는 메인 영역(610)을 적어도 일부 접을 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(620)은 메인 영역(610)과 제2 서브 영역(630)의 경계선인 제2 경계선(B2)을 넘어가도록 형성되어 메인 영역(610)을 향하여 확장될 수 있다. 확장된 제1 서브 영역(620)은 제1 경계선(B1)과 인접하도록 확장될 수 있다. 확장된 제1 서브 영역(620)은 메인 영역(610) 및 제2 서브 영역(630)의 적어도 일부와 중첩될 수 있다.
일 실시 예에서, 디스플레이(600)의 가장자리 영역은 베젤 영역에 의해 둘러싸일 수 있다. 베젤 영역은 제1 베젤 (510a), 제2 베젤(510b), 제3 베젤(520a), 제4 베젤(520b), 및 노치부(524)를 포함할 수 있다. 제1 내지 제4 베젤(510a, 510b, 520a, 520b)은 디스플레이(600)의 형태를 유지하도록 디스플레이(600)를 지지할 수 있다.
일 실시 예에서, 노치부(524)는 제2 구조물(520)의 일 코너에 인접하여 소정 영역을 가지도록 형성될 수 있다. 다만 노치부(524)의 배치, 형상, 및 크기는 도시된 예시에 한정되지 아니한다. 예를 들어, 다른 실시 예에서 노치부(524)는 제2 구조물(520)의 다른 코너 혹은 상단 코너와 하단 코너 사이의 임의의 영역에 제공될 수 있다. 노치부(524)는 확장된 제1 서브 영역(620)과 인접하도록 배치될 수 있다. 예를 들어, 노치부(524)는 확장된 제1 서브 영역(620)의 일 측 모서리와 인접하도록 배치될 수 있다.
일 실시 예에서, 전자 장치(101)에 내장된 다양한 기능을 수행하기 위한 부품들(components)이 노치부(524)를 통해, 또는 노치부(524)에 마련된 하나 이상의 개구(opening)를 통해 전자 장치(101)의 전면에 노출될 수 있다. 부품들은 다양한 종류의 센서들을 포함할 수 있다. 센서는 전면 카메라, 리시버 또는 근접 센서 중 적어도 하나를 포함할 수 있다.
일 실시 예에서, 제1 후면 커버(580)는 전자 장치(101)의 후면 중 적어도 일부 영역에 배치될 수 있다. 제1 후면 커버(580)는 실질적으로 직사각형인 가장자리(periphery)를 가질 수 있다. 제1 후면 커버(580)의 가장자리는 제1 구조물(510)에 의해 감싸질 수 있다.
일 실시 예에서, 제2 후면 커버(590)는 전자 장치(101)의 후면 중 제1 경계선(B1)을 기준으로 제1 후면 커버(580)의 반대 편에 배치될 수 있다. 제2 후면 커버(590)의 가장자리는 제2 구조물(520)에 의해 감싸질 수 있다.
일 실시 예에서, 제1 후면 커버(580) 및 제2 후면 커버(590)는 제1 경계선(B1)을 중심으로 실질적으로 대칭적인 형상을 가질 수 있다. 다만, 제1 후면 커버(580) 및 제2 후면 커버(590)가 반드시 상호 대칭적인 형상을 가지는 것은 아니며, 전자 장치(101)는 다양한 형상의 제1 후면 커버(580) 및 제2 후면 커버(590)를 포함할 수 있다.
일 실시 예에서, 제1 구조물(510), 제2 구조물(520), 제1 후면 커버(580), 및 제2 후면 커버(590)는 전자 장치(101)의 다양한 부품들(예: PCB(printed circuit board) 또는 배터리)이 배치될 수 있는 공간을 형성할 수 있다.
일 실시 예에서, 커버(530)는 제1 구조물(510) 및 제2 구조물(520) 사이에 배치될 수 있다. 커버(530)는 하우징(500)의 접힘 구조(예: 힌지 구조)를 가릴 수 있도록 구성될 수 있다. 커버(530)는 전자 장치(101)의 상태(펼침 상태 또는 접힘 상태)에 따라 제1 구조물(510) 및 제2 구조물(520)의 일부에 의해 가려지거나 외부로 노출될 수 있다. 예를 들어, 도 7과 같이 전자 장치(101)가 펼침 상태인 경우, 커버(530)는 제1 구조물(510) 및 제2 구조물(520)에 의해 가려져 노출되지 않을 수 있다. 다른 예로, 도 8과 같이 전자 장치(101)가 접힘 상태인 경우, 커버(530)는 제1 구조물(510) 및 제2 구조물(520) 사이에서 외부로 노출될 수 있다.
도 9는 또 다른 실시 예에 따른 디스플레이(700)에서 확장된 제1 서브 영역(720)이 있는 상태에서 키보드(810)를 호출하는 경우를 나타낸 도면이다.
일 실시 예에서, 디스플레이(700)는 메인 영역(710), 확장된 제1 서브 영역(720), 및 제2 서브 영역(730)을 포함할 수 있다. 확장된 제1 서브 영역(720)은 포커스된 영역일 수 있다. 확장된 제1 서브 영역(720)은 디스플레이(700)의 하부에 배치될 수 있다.
일 실시 예에서, 디스플레이(800)는 입력 수단을 표시할 수 있다. 도 9와 같이, 입력 수단은 사용자가 디스플레이(800)의 표면 상에 터치를 수행함으로써 문자, 숫자, 또는 기호를 입력할 수 있는 키보드(810)일 수 있다. 그러나 이에 한정되지 않으며, 입력 수단은 사용자가 디스플레이(800) 상에 드래그하여 그릴 수 있는 도형 또는 그림을 입력할 수 있는 영역일 수 있다.
일 실시 예에서, 전자 장치(101)는 설정된 입력에 대응하여 디스플레이(800) 상에 키보드(810)를 호출할 수 있다. 예를 들어, 전자 장치(101)는 사용자의 터치를 감지하는 경우 디스플레이(800) 상에 키보드(810)를 호출할 수 있다. 다른 예를 들어, 전자 장치(101)의 일 측에 배치된 버튼을 눌러 디스플레이(800) 상에 키보드(810)를 호출할 수도 있다. 또 다른 예로, 전자 장치(101)는 디스플레이(800) 내부의 포커스된 제1 서브 영역(720)에 표시하는 실행 화면(예: 제2 어플리케이션의 실행 화면)에서 텍스트 필드(text field) 입력이 필요한 경우, 키보드(810)를 호출할 수 있다. 키보드(810)는 디스플레이(800)의 적어도 일부 영역 상에 배치될 수 있다. 예를 들어, 키보드(810)는 디스플레이(800)의 하부 모서리로부터 호출되어, 하부 영역에 배치될 수 있다.
일 실시 예에서, 디스플레이(800) 상에 입력 수단이 표시된 경우, 전자 장치(101)는 디스플레이(800) 상에서 확장된 제1 서브 영역(820)이 입력 수단과 중첩되지 않도록 확장된 제1 서브 영역(820)을 이동시킬 수 있다. 예를 들어, 전자 장치(101)는 디스플레이(800)의 하부 영역에 키보드(810)가 표시된 경우, 디스플레이(800) 상에서 확장된 제1 서브 영역(820)을 키보드(810)가 배치되지 않은 상부 영역으로 이동시킬 수 있다. 확장된 제1 서브 영역(820)은 포커스되어 제2 서브 영역(830)보다 높은 우선 순위를 가질 수 있다. 전자 장치(101)는 확장된 제1 서브 영역(820)이 제2 서브 영역(830) 상으로 이동하면서 제2 서브 영역(830)을 적어도 일부 덮도록 설정할 수 있다.
도 10은 또 다른 실시 예에 따른 디스플레이(900)에서 제1 서브 영역(920)이 있는 상태에서 키보드(1010)를 호출하는 경우를 나타낸 도면이다.
일 실시 예에서, 일 실시 예에서, 디스플레이(900)는 메인 영역(910), 제1 서브 영역(920), 및 제2 서브 영역(930)을 포함할 수 있다. 제1 서브 영역(920)은 포커스된 영역일 수 있다. 제1 서브 영역(920)은 디스플레이(900)의 하부에 배치될 수 있다. 도 10에서는 포커스된 제1 서브 영역(920)이 제2 서브 영역(930)과 동일한 크기를 갖는 경우를 도시하였다. 이 경우, 포커스된 제1 서브 영역(920)은 제2 서브 영역(930)과 다른 색상을 가질 수 있다. 또는, 포커스된 제1 서브 영역(920) 상에는 강조 표시가 나타날 수 있다. 그러나 이에 한정되지 않으며, 도 3 내지 도 6을 결부하여 설명한 바와 같이 포커스된 제1 서브 영역(920)의 크기는 제2 서브 영역(930)의 크기보다 클 수 있다.
일 실시 예에서, 디스플레이(1000)는 입력 수단을 표시할 수 있다. 도 10과 같이, 입력 수단은 사용자가 디스플레이(1000)의 표면 상에 터치를 수행함으로써 문자, 숫자, 또는 기호를 입력할 수 있는 키보드(1010)일 수 있다. 그러나 이에 한정되지 않으며, 입력 수단은 사용자가 디스플레이(1000) 상에 드래그하여 그릴 수 있는 도형 또는 그림을 입력할 수 있는 영역일 수 있다.
일 실시 예에서, 전자 장치(101)는 설정된 입력에 대응하여 디스플레이(1000) 상에 키보드(1010)를 호출할 수 있다. 예를 들어, 전자 장치(101)는 사용자의 터치를 감지하는 경우 디스플레이(1000) 상에 키보드(1010)를 호출할 수 있다. 다른 예를 들어, 전자 장치(101)의 일 측에 배치된 버튼을 눌러 디스플레이(1000) 상에 키보드(1010)를 호출할 수도 있다. 또 다른 예로, 전자 장치(101)는 디스플레이(1000) 내부의 포커스된 제1 서브 영역(920)에 표시하는 실행 화면(예: 제2 어플리케이션의 실행 화면)에서 텍스트 필드(text field) 입력이 필요한 경우, 키보드(1010)를 호출할 수 있다. 키보드(1010)는 디스플레이(1000)의 적어도 일부 영역 상에 배치될 수 있다. 예를 들어, 키보드(1010)는 디스플레이(1000)의 하부 모서리로부터 호출되어, 하부 영역에 배치될 수 있다.
일 실시 예에서, 디스플레이(1000) 상에 입력 수단이 표시된 경우, 전자 장치(101)는 메인 영역(910), 제1 서브 영역(1020), 및 제2 서브 영역(1030)이 입력 수단과 중첩되지 않도록 메인 영역(910), 제1 서브 영역(1020), 및 제2 서브 영역(1030) 중 적어도 일부의 배치 관계를 조정(adjust)할 수 있다. 전자 장치(101)는 메인 영역(910), 제1 서브 영역(1020), 및 제2 서브 영역(1030) 중 적어도 일부의 크기를 변화시킬 수 있다. 전자 장치(101)는 메인 영역(910), 제1 서브 영역(1020), 및 제2 서브 영역(1030) 중 적어도 일부의 위치 관계를 변화시킬 수 있다.
일 실시 예에서, 디스플레이(1000) 상에 키보드(1010)가 표시된 경우, 전자 장치(101)는 메인 영역(910), 제1 서브 영역(1020), 및 제2 서브 영역(1030)이 키보드(1010)와 중첩되지 않도록 메인 영역(910), 제1 서브 영역(1020), 및 제2 서브 영역(1030)의 크기 및 위치를 변화시킬 수 있다. 예를 들어, 도 10의 경우, 디스플레이(1000) 상에서 메인 영역(910)은 키보드(1010)가 호출되기 전과 비교하여 축소된 크기를 가질 수 있다. 또한, 도 10의 경우, 메인 영역(910)은 포커스되지 않았으므로 제2 서브 영역(1030)에 의해 적어도 일부 가려질 수 있다. 제2 서브 영역(1030)은 메인 영역(910)과 중첩되도록 메인 영역(910) 상으로 이동할 수 있다. 그러나 이에 한정되지 않으며, 메인 영역(910) 및 제2 서브 영역(1030)은 중첩되지 않을 수 있다. 이 경우, 메인 영역(910) 및 제2 서브 영역(1030) 각각의 시인성이 확보되도록 디스플레이(1000) 상에서 재배치될 수 있다. 제1 서브 영역(1020)은 포커스된 영역일 수 있다. 제1 서브 영역(1020)은 키보드(1010), 메인 영역(910), 및 제2 서브 영역(1030)과 중첩되지 않도록 디스플레이(1000)의 상부로 이동할 수 있다.
도 11은 또 다른 실시 예에 따른 디스플레이(1100)에서 메인 영역(1110)이 포커스된 상태에서 제1 서브 영역(1120)이 포커스되어 확장된 제1 서브 영역(1210)으로 표시하는 과정을 나타낸 도면이다.
일 실시 예에서, 일 실시 예에서, 디스플레이(1100)는 메인 영역(1110), 제1 서브 영역(1120), 제2 서브 영역(1130), 및 객체(1140)을 포함할 수 있다. 메인 영역(1110)은 포커스된 영역일 수 있다.
일 실시 예에서, 메인 영역(1110) 내부에는 객체(1140)가 배치될 수 있다. 객체(1140)는 메인 영역(1110)에서 표시하는 실행 화면의 구성 요소일 수 있다. 객체(1140)는 메인 영역(1110)의 실행 화면을 표시하는 어플리케이션의 기능을 실행하는 아이콘 또는 어플리케이션의 동작 상태를 지시하는 명령 기호일 수 있다. 객체(1140)가 메인 영역(1110)의 내부에 있는 경우, 객체(1140)는 메인 영역(1110)을 포커스된 영역으로 설정할 수 있다.
일 실시 예에서, 객체(1140)는 디스플레이(1110)의 내부를 이동할 수 있다. 예를 들어, 객체(1140)는 디스플레이(1110) 상의 사용자의 터치 입력(드래그 앤 드랍 등)에 의해 제1 서브 영역(1120) 또는 제2 서브 영역(1130) 내부로 이동할 수 있다. 다른 예로, 전자 장치(101)는 프로세서(예: 도 1의 프로세서(120))를 이용하여 객체(1140)를 메인 영역(1110)의 내부로부터 제1 서브 영역(1120) 또는 제2 서브 영역(1130) 내부로 이동시킬 수 있다.
일 실시 예에서, 전자 장치(101)는 디스플레이(1100) 상에 배치된 객체(1140)를 제1 서브 영역(1120)으로 이동시킴으로써 확장된 제1 서브 영역(1210)을 설정할 수 있다. 전자 장치(101)의 프로세서는 객체(1140)가 배치된 제1 서브 영역(1120)이 포커스된 것으로 판단할 수 있다. 전자 장치(101)의 프로세서는 제1 서브 영역(1120)의 크기를 증가시켜 확장된 제1 서브 영역(1210)으로 표시할 수 있다.
도 12는 일 실시 예에 따른 전자 장치(101)의 구동 방법을 나타낸 흐름도(S100)이다.
일 실시 예에 따른 전자 장치(101)는 동작 S110에서, 복수의 어플리케이션들 중 제1 어플리케이션에 대응하는 실행 화면을 디스플레이(예: 도 2의 디스플레이(200))의 메인 영역(예: 도 2의 메인 영역(210))에 표시할 수 있다. 전자 장치(101)의 프로세서(예: 도 1의 프로세서(120))는 사용자의 입력 또는 프로세서에 미리 설정된 정보에 기반하여 제1 어플리케이션을 설정할 수 있다. 프로세서는 제1 어플리케이션에 발생하는 이벤트에 대응하는 실행 화면을 메인 영역에 표시할 수 있다.
일 실시 예에 따른 전자 장치(101)는 동작 S120에서, 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들(예: 도 2의 복수의 서브 영역들(220, 230)) 중 제2 어플리케이션에 대응하는 실행 화면을 디스플레이의 제1 서브 영역(예: 도 2의 제1 서브 영역(220))에 표시할 수 있다. 전자 장치(101)의 프로세서는 사용자의 입력 또는 프로세서에 미리 설정된 정보에 기반하여 제2 어플리케이션을 설정할 수 있다. 프로세서는 제2 어플리케이션에 발생하는 이벤트에 대응하는 실행 화면을 제1 서브 영역에 표시할 수 있다.
일 실시 예에 따른 전자 장치(101)는 동작 S130에서, 제2 어플리케이션에 대한 입력에 기반하여 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역(예: 도 4의 확장된 제1 서브 영역(240))으로 표시할 수 있다. 전자 장치(101)의 프로세서는 제2 어플리케이션에 대한 사용자의 입력 또는 제2 어플리케이션을 동작시키는 이벤트에 대응하여 제1 서브 영역을 포커스할 수 있다. 프로세서는 포커스된 제1 서브 영역의 크기 및 제1 서브 영역 내부의 실행 화면을 구성하는 객체들의 크기를 증가시켜 확장된 제1 서브 영역을 표시할 수 있다.
도 13은 또 다른 실시 예에 따른 디스플레이(1300)에서 포커스된 제1 서브 영역(1320)의 크기를 조정하는 과정을 나타낸 도면이다.
일 실시 예에서, 디스플레이(1300)는 메인 영역(1310), 포커스된 제1 서브 영역(1320), 및 제2 서브 영역(1330)을 포함할 수 있다. 제1 서브 영역(1320)은 사용자의 제1 서브 영역(1320)에 대한 입력 또는 제2 어플리케이션에 대한 이벤트를 트리거시키는 입력에 기반하여 포커스될 수 있다. 제1 서브 영역(1320)은 포커스되기 이전에 비해 지정된 영역만큼 확장되어 크기가 증가할 수 있다.
일 실시 예에서, 포커스된 제1 서브 영역(1320)은 드래그(drag)할 수 있는 제1 내지 제3 드래그부(1340, 1350, 1360)를 가질 수 있다. 제1 내지 제3 드래그부(1340, 1350, 1360)를 드래그하는 제스처(gesture)를 통해 포커스된 제1 서브 영역(1320)의 크기를 드래그하기 이전과 비교하여 보다 확대시킬 수 있다. 예를 들어, 사용자는 손가락 또는 터치 펜을 제1 내지 제3 드래그부(1340, 1350, 1360) 상에 위치시킨 후, 포커스된 제1 서브 영역(1320)의 바깥쪽으로 손가락 또는 터치 펜을 드래그하는 동작을 취하여 포커스된 제1 서브 영역(1320)의 크기를 확대시킬 수 있다.
일 실시 예에서, 제1 드래그부(1340)는 제1 서브 영역(1320)의 모서리 중 디스플레이(1300)의 내부에 배치되고 제1 방향(예: Y축 방향)과 평행한 변일 수 있다. 제2 드래그부(1350)는 제1 서브 영역(1320)의 모서리 중 디스플레이(1300)의 내부에 배치되고 제2 방향(예: X축 방향)과 평행한 변일 수 있다. 제3 드래그부(1360)는 제1 서브 영역(1320)의 꼭지점 중 디스플레이(1300)의 내부에 있는 꼭지점일 수 있다. 제3 드래그부(1360)는 제1 드래그부(1340) 및 제2 드래그부(1350)가 만나는 지점일 수 있다.
일 실시 예에서, 포커스된 제1 서브 영역(1320)은 제1 내지 제3 드래그부(1340, 1350, 1360) 중 적어도 일부에 대한 드래그 입력에 기반하여 확대될 수 있다. 제1 내지 제3 드래그부(1340, 1350, 1360) 중 일부에 대한 드래그 입력을 수행하는 경우에도, 포커스된 제1 서브 영역(1320)의 제1 방향으로의 길이에 대한 제2 방향으로의 길이의 비율(ratio)은 유지될 수 있다. 이에 따라, 디스플레이(1400)는 드래그 입력이 완료된 후 확장된 제1 서브 영역(1410)을 표시할 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(1410)은 미리 설정된 최대 크기를 가질 수 있다. 프로세서는 사용자가 드래그 입력을 최대 크기를 넘도록 수행하더라도, 확장된 제1 서브 영역(1410)이 최대 크기보다 커지지 않도록 제어할 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(1410)의 크기는 드래그부 중 적어도 일부에 대한 드래그 입력에 기반하여 축소될 수 있다. 확장된 제1 서브 영역(1410)의 드래그부를 드래그하는 경우, 제1 서브 영역(1320)의 크기와 동일한 크기로 복원시킬 수 있다. 예를 들어, 사용자는 손가락 또는 터치 펜을 확장된 제1 서브 영역(1410)의 내부 변 또는 모서리 상에 위치시킨 후, 확장된 제1 서브 영역(1410)의 안쪽으로 손가락 또는 터치 펜을 드래그하는 동작을 취하여 확장된 제1 서브 영역(1410)의 크기를 축소시킬 수 있다. 확장된 제1 서브 영역(1410)은 포커스된 제1 서브 영역(1320)의 크기와 동일한 크기로 복원될 수 있다.
일 실시 예에서, 포커스된 제1 서브 영역(1320)이 획득한 포커스를 잃는 경우, 포커스된 제1 서브 영역(1320)은 포커스를 획득하기 이전의 크기로 복귀할 수 있다. 포커스된 제1 서브 영역(1320)이 획득한 포커스를 잃는 경우, 포커스된 제1 서브 영역(1320)은 제2 서브 영역(1330)과 동일한 크기로 표시될 수 있다.
도 14는 또 다른 실시 예에 따른 디스플레이(1500)에서 포커스된 제1 서브 영역(1520)의 크기를 조정하는 과정을 나타낸 도면이다.
일 실시 예에서, 디스플레이(1500)는 메인 영역(1510), 포커스된 제1 서브 영역(1520), 및 제2 서브 영역(1530)을 포함할 수 있다. 제1 서브 영역(1520)은 사용자의 제1 서브 영역(1520)에 대한 입력 또는 제2 어플리케이션에 대한 이벤트를 트리거시키는 입력에 기반하여 포커스될 수 있다. 제1 서브 영역(1520)은 포커스되기 이전에 비해 지정된 영역만큼 확장되어 크기가 증가할 수 있다.
일 실시 예에서, 포커스된 제1 서브 영역(1520)의 일 측에는 버튼(1540)이 생성될 수 있다. 버튼(1540)은 포커스된 제1 서브 영역(1520)과 인접하도록 생성될 수 있다. 예를 들어, 버튼(1540)은 포커스된 제1 서브 영역(1520)의 대각선 방향 중 디스플레이(1500)의 내부 방향으로 생성될 수 있다. 버튼(1540)을 선택하는 제스처를 통해 포커스된 제1 서브 영역(1520)의 크기를 버튼(1540)을 선택하기 이전과 비교하여 보다 확대시킬 수 있다. 예를 들어, 사용자는 손가락 또는 터치 펜을 이용하여 버튼(1540)을 선택하여 포커스된 제1 서브 영역(1320)의 크기를 확대시킬 수 있다.
일 실시 예에서, 포커스된 제1 서브 영역(1520)은 버튼(1540)에 대한 선택 입력에 기반하여 확대될 수 있다. 버튼(1540)에 대한 선택 입력에 기반하여 확대되는 경우, 포커스된 제1 서브 영역(1520)의 제1 방향으로의 길이에 대한 제2 방향으로의 길이의 비율(ratio)은 유지될 수 있다. 이에 따라, 디스플레이(1600)는 선택 입력이 완료된 후 확장된 제1 서브 영역(1610)을 표시할 수 있다. 확장된 제1 서브 영역(1610)은 미리 설정된 최대 크기를 가질 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(1620)의 일 측에는 버튼(1620)이 생성될 수 있다. 버튼(1620)은 확장된 제1 서브 영역(1610)과 인접하도록 생성될 수 있다. 예를 들어, 버튼(1620)은 확장된 제1 서브 영역(1610)의 대각선 방향 중 디스플레이(1600)의 내부 방향으로 생성될 수 있다.
일 실시 예에서, 확장된 제1 서브 영역(1610)의 일 측에 생성된 버튼(1620)은 포커스된 제1 서브 영역(1610)의 일 측에 생성된 버튼(1540)이 토글(toggle)된 버튼일 수 있다. 확장된 제1 서브 영역(1610)의 일 측에 생성된 버튼(1620)을 선택하는 제스처를 통해 확장된 제1 서브 영역(1610)의 크기를 버튼(1620)을 선택하기 이전과 비교하여 보다 축소시킬 수 있다. 예를 들어, 사용자는 손가락 또는 터치 펜을 이용하여 버튼(1620)을 선택하여 확장된 제1 서브 영역(1610)의 크기를 축소시킬 수 있다.
일 실시 예에서, 포커스된 제1 서브 영역(1520)이 획득한 포커스를 잃는 경우, 포커스된 제1 서브 영역(1520)은 포커스를 획득하기 이전의 크기로 복귀할 수 있다. 포커스된 제1 서브 영역(1520)이 획득한 포커스를 잃는 경우, 포커스된 제1 서브 영역(1520)은 제2 서브 영역(1530)과 동일한 크기로 표시될 수 있다.
다양한 실시 예에 있어서, 전자 장치(101)는 디스플레이(예: 도 2의 디스플레이(200)) 및 상기 디스플레이와 작동적으로 연결되어(operationally connected) 상기 디스플레이를 제어하는 프로세서(예: 도 1의 프로세서(120))를 포함하고, 상기 프로세서는, 복수의 어플리케이션들(applications) 중 제1 어플리케이션에 대응하는 실행 화면을 메인 영역(예: 도 2의 메인 영역(210))에 표시하고, 상기 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들(예: 도 2의 복수의 서브 영역들(220, 230)) 중 제2 어플리케이션에 대응하는 실행 화면을 제1 서브 영역(예: 도 2의 제1 서브 영역(220))에 표시하고, 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역(예: 도 4의 확장된 제1 서브 영역(240))으로 표시하고, 상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 및/또는 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 적어도 일부와 중첩되고, 상기 확장된 제1 서브 영역은 상기 메인 영역 및 상기 제2 서브 영역보다 시각적으로 상위 층(upper layer)으로 표시될 수 있다.
일 실시 예에서, 상기 확장된 제1 서브 영역의 크기는 상기 제2 서브 영역의 크기보다 크고 상기 메인 영역의 크기보다 작을 수 있다.
일 실시 예에서, 상기 복수의 서브 영역들은 상기 메인 영역의 모서리 중 제1 방향으로 형성된 제1 모서리(예: 도 3의 제1 모서리(E1))에 인접하게 배치되고, 상기 제1 서브 영역 및 상기 제2 서브 영역은 상기 제1 방향과 수직인 제2 방향으로 형성된 제2 모서리(예: 도 3의 제2 모서리(E2))에 의해 분할될 수 있다.
일 실시 예에서, 상기 디스플레이는 상기 메인 영역의 내부를 가로지르는 제1 경계선(예: 도 7의 제1 경계선(B1))을 따라 접히고, 상기 확장된 제1 서브 영역은 상기 메인 영역과 상기 제2 서브 영역의 경계선인 제2 경계선(예: 도 7의 제2 경계선(B2))을 넘어가도록 형성되어 상기 메인 영역을 향하여 확장될 수 있다.
일 실시 예에서, 상기 디스플레이 상에 입력 수단(예: 도 9의 키보드(810))이 표시된 경우, 상기 확장된 제1 서브 영역이 상기 입력 수단과 중첩되지 않도록 상기 확장된 제1 서브 영역을 이동시킬 수 있다.
일 실시 예에서, 상기 디스플레이 상에 입력 수단이 표시된 경우, 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역이 상기 입력 수단과 중첩되지 않도록 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역 중 적어도 일부의 배치 관계를 조정(adjust)할 수 있다.
일 실시 예에서, 상기 디스플레이 상에 배치된 객체(예: 도 11의 객체(1140))를 상기 제1 서브 영역으로 이동시킴으로써 상기 확장된 제1 서브 영역을 설정할 수 있다.
일 실시 예에서, 상기 제1 서브 영역은 포커스된 후, 상기 디스플레이의 내부에 배치된 드래그부(예: 도 13의 제1 내지 제3 드래그부(1340, 1350, 1360))를 더 포함하고, 상기 드래그부 중 적어도 일부에 대한 드래그 입력에 기반하여 확대된 크기를 가질 수 있다.
다양한 실시 예에 있어서, 전자 장치는 복수의 어플리케이션들에 대응하는 복수의 실행 화면을 서로 다른 크기로 형성된 복수의 표시 영역들로 분할하여 출력하는 디스플레이 및 상기 디스플레이와 작동적으로 연결되어 상기 디스플레이를 제어하는 프로세서를 포함하고, 상기 프로세서는, 상기 복수의 어플리케이션들 중 제1 어플리케이션을 제외한 제2 어플리케이션에 대한 입력에 기반하여, 상기 제2 어플리케이션을 표시하는 서브 영역인 제1 서브 영역을 포커스(focus)하고, 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하고, 상기 포커스된 제1 서브 영역은 상기 제2 어플리케이션에 대한 입력에 기반하여 강조된(pointed) 상태의 영역일 수 있다.
일 실시 예에서, 상기 프로세서는 상기 제1 서브 영역의 크기를 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 크기보다 크게 증가시켜 확장된 제1 서브 영역으로 표시하도록 설정하고, 상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 또는 상기 제2 서브 영역의 적어도 일부와 중첩될 수 있다.
일 실시 예에서, 상기 디스플레이의 가장자리 영역인 베젤(bezel) 영역의 적어도 일부에는 노치(notch)부가 형성되고, 상기 노치부는 상기 제1 서브 영역의 일 측 모서리와 인접하게 배치될 수 있다.
일 실시 예에서, 상기 디스플레이 상에 문자 또는 기호를 입력할 수 있는 키보드가 표시되는 입력 모드에서, 상기 확장된 제1 서브 영역을 상기 키보드가 표시되지 않은 영역으로 이동시킬 수 있다.
일 실시 예에서, 상기 디스플레이 상에 문자 또는 기호를 입력할 수 있는 키보드가 표시되는 입력 모드에서, 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역이 상기 키보드와 중첩되지 않도록 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역 중 적어도 일부의 배치 관계를 조정할 수 있다.
다양한 실시 예에 있어서, 전자 장치의 구동 방법은, 복수의 어플리케이션들 중 제1 어플리케이션에 대응하는 실행 화면을 디스플레이의 메인 영역에 표시하는 동작, 상기 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들 중 제2 어플리케이션에 대응하는 실행 화면을 디스플레이의 제1 서브 영역에 표시하는 동작, 및 상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하는 동작을 포함하고, 상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 및/또는 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 적어도 일부와 중첩되고, 상기 확장된 제1 서브 영역은 상기 메인 영역 및 상기 제2 서브 영역보다 시각적으로 상위 층(upper layer)으로 표시될 수 있다.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시 예들로 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나",“A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시 예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer pro메모리 product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치(예: 스마트폰)들 간에 직접 또는 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시 예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이; 및
    상기 디스플레이와 작동적으로 연결되어(operationally connected) 상기 디스플레이를 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    복수의 어플리케이션들(applications) 중 제1 어플리케이션에 대응하는 제1 실행 화면을 메인 영역에 표시하고,
    상기 복수의 어플리케이션들 중 제2 어플리케이션에 대응하는 제2 실행 화면을, 상기 제1 어플리케이션을 제외한 복수의 어플리케이션들에 대응하는 실행 화면을 표시하는 복수의 서브 영역들 중 제1 서브 영역에 표시하고,
    상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하고,
    상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 및/또는 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 적어도 일부와 중첩되고,
    상기 확장된 제1 서브 영역은 상기 메인 영역 및 상기 제2 서브 영역보다 시각적으로 상위 층(upper layer)으로 표시되는, 전자 장치.
  2. 청구항 1에 있어서,
    상기 확장된 제1 서브 영역의 크기는 상기 제2 서브 영역의 크기보다 크고 상기 메인 영역의 크기보다 작은, 전자 장치.
  3. 청구항 1에 있어서,
    상기 복수의 서브 영역들은 상기 메인 영역의 모서리 중 제1 방향으로 형성된 제1 모서리에 인접하게 배치되고,
    상기 제1 서브 영역 및 상기 제2 서브 영역은 상기 제1 방향과 수직인 제2 방향으로 형성된 제2 모서리에 의해 분할된, 전자 장치.
  4. 청구항 1에 있어서,
    상기 디스플레이는 상기 메인 영역의 내부를 가로지르는 제1 경계선을 따라 접히고,
    상기 확장된 제1 서브 영역은 상기 메인 영역과 상기 제2 서브 영역의 경계선인 제2 경계선을 넘어가도록 형성되어 상기 메인 영역을 향하여 확장되는, 전자 장치.
  5. 청구항 1에 있어서,
    상기 디스플레이 상에 입력 수단이 표시된 경우, 상기 확장된 제1 서브 영역이 상기 입력 수단과 중첩되지 않도록 상기 확장된 제1 서브 영역을 이동시키는, 전자 장치.
  6. 청구항 1에 있어서,
    상기 디스플레이 상에 입력 수단이 표시된 경우, 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역이 상기 입력 수단과 중첩되지 않도록 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역 중 적어도 일부의 배치 관계를 조정(adjust)하는, 전자 장치.
  7. 청구항 1에 있어서,
    상기 디스플레이 상에 배치된 객체를 상기 제1 서브 영역으로 이동시킴으로써 상기 확장된 제1 서브 영역을 설정하는, 전자 장치.
  8. 청구항 1에 있어서,
    상기 제1 서브 영역은 포커스된 후, 상기 디스플레이의 내부에 배치된 드래그부를 더 포함하고,
    상기 드래그부 중 적어도 일부에 대한 드래그 입력에 기반하여 확대된 크기를 갖는, 전자 장치.
  9. 전자 장치에 있어서,
    복수의 어플리케이션들에 대응하는 복수의 실행 화면을 서로 다른 크기로 분할된 복수의 표시 영역에 출력하는 디스플레이; 및
    상기 디스플레이와 작동적으로 연결되어 상기 디스플레이를 제어하는 프로세서를 포함하고,
    상기 프로세서는,
    상기 복수의 어플리케이션들 중 제1 어플리케이션을 제외한 제2 어플리케이션에 대한 입력에 기반하여, 상기 제2 어플리케이션을 표시하는 서브 영역인 제1 서브 영역을 포커스(focus)하고,
    상기 제2 어플리케이션에 대한 입력에 기반하여 상기 제1 서브 영역의 크기를 증가시켜 확장된 제1 서브 영역으로 표시하고,
    상기 포커스된 제1 서브 영역은 상기 제2 어플리케이션에 대한 입력에 기반하여 강조된(pointed) 상태의 영역인, 전자 장치.
  10. 청구항 9에 있어서,
    상기 프로세서는 상기 제1 서브 영역의 크기를 상기 제1 서브 영역을 제외한 서브 영역인 제2 서브 영역의 크기보다 크게 증가시켜 확장된 제1 서브 영역으로 표시하도록 설정하고,
    상기 확장된 제1 서브 영역은 상기 메인 영역의 적어도 일부 또는 상기 제2 서브 영역의 적어도 일부와 중첩되는, 전자 장치.
  11. 청구항 9에 있어서,
    상기 제1 서브 영역 및 상기 제2 서브 영역은 상기 메인 영역의 모서리 중 제1 방향으로 형성된 제1 모서리에 인접하게 배치되고, 상기 제1 방향과 수직인 제2 방향으로 형성된 제2 모서리에 의해 분할된, 전자 장치.
  12. 청구항 9에 있어서,
    상기 디스플레이의 가장자리 영역인 베젤(bezel) 영역의 적어도 일부에는 노치(notch)부가 형성되고,
    상기 노치부는 상기 제1 서브 영역의 일 측 모서리와 인접하게 배치된, 전자 장치.
  13. 청구항 9에 있어서,
    상기 디스플레이는 상기 메인 영역의 내부를 가로지르는 제1 경계선을 따라 접히고,
    상기 확장된 제1 서브 영역은 상기 메인 영역과 상기 제2 서브 영역의 경계선인 제2 경계선을 넘어가도록 형성되어 상기 메인 영역을 향하여 확장되는, 전자 장치.
  14. 청구항 10에 있어서,
    상기 디스플레이 상에 문자 또는 기호를 입력할 수 있는 키보드가 표시되는 입력 모드에서, 상기 확장된 제1 서브 영역을 상기 키보드가 표시되지 않은 영역으로 이동시키는, 전자 장치.
  15. 청구항 9에 있어서,
    상기 디스플레이 상에 문자 또는 기호를 입력할 수 있는 키보드가 표시되는 입력 모드에서, 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역이 상기 키보드와 중첩되지 않도록 상기 메인 영역, 상기 제1 서브 영역, 및 상기 제2 서브 영역 중 적어도 일부의 배치 관계를 조정하는, 전자 장치.
PCT/KR2019/005127 2018-07-17 2019-04-29 디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법 WO2020017743A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/058,733 US11474692B2 (en) 2018-07-17 2019-04-29 Electronic device including display on which execution screen for multiple applications is displayed, and method for operation of electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0083187 2018-07-17
KR1020180083187A KR102570827B1 (ko) 2018-07-17 2018-07-17 디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법

Publications (1)

Publication Number Publication Date
WO2020017743A1 true WO2020017743A1 (ko) 2020-01-23

Family

ID=69163931

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/005127 WO2020017743A1 (ko) 2018-07-17 2019-04-29 디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법

Country Status (3)

Country Link
US (1) US11474692B2 (ko)
KR (1) KR102570827B1 (ko)
WO (1) WO2020017743A1 (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022136637A (ja) * 2021-03-08 2022-09-21 カシオ計算機株式会社 情報処理装置及びプログラム
EP4235379A4 (en) * 2020-11-17 2024-04-24 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD FOR MULTI-WINDOW CONTROL OF ELECTRONIC DEVICE

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD964400S1 (en) * 2018-11-06 2022-09-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
USD964401S1 (en) * 2018-11-06 2022-09-20 Samsung Electronics Co., Ltd. Display screen or portion thereof with graphical user interface
CN113748407B (zh) 2019-04-18 2024-07-09 三星电子株式会社 用于显示提供分屏的对象的电子装置和方法
KR102256292B1 (ko) * 2020-11-26 2021-05-26 삼성전자 주식회사 확장이 가능한 디스플레이를 이용하여 멀티 윈도우를 제공하는 전자 장치
WO2022119137A1 (ko) 2020-12-03 2022-06-09 삼성전자 주식회사 확장 가능한 디스플레이를 포함하는 전자 장치 및 전자 장치의 컨텐츠 제공 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030197739A1 (en) * 2002-04-23 2003-10-23 Bauer Jason M. Distribution of application windows in a computing device display
US20130117718A1 (en) * 2011-01-06 2013-05-09 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
US20130305184A1 (en) * 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Multiple window providing apparatus and method
US20140111954A1 (en) * 2012-10-19 2014-04-24 Samsung Display Co., Ltd. Foldable display device
US20140285449A1 (en) * 2013-03-20 2014-09-25 Lg Electronics Inc. Foldable display device providing adaptive touch sensitive area and method for controlling the same

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101569776B1 (ko) * 2009-01-09 2015-11-19 삼성전자주식회사 접히는 표시부를 가지는 휴대 단말기 및 이의 운용 방법
US20120184247A1 (en) * 2011-01-19 2012-07-19 Lg Electronics Inc. Electronic device and method of controlling the same
EP3734404A1 (en) * 2011-02-10 2020-11-04 Samsung Electronics Co., Ltd. Portable device comprising a touch-screen display, and method for controlling same
KR101888457B1 (ko) * 2011-11-16 2018-08-16 삼성전자주식회사 복수 개의 어플리케이션을 실행하는 터치스크린을 가지는 장치 및 그 제어 방법
US9349342B2 (en) * 2012-03-05 2016-05-24 Beijing Lenovo Software Ltd. Display method and electronic device
KR20140028352A (ko) * 2012-08-28 2014-03-10 삼성전자주식회사 복수 어플리케이션을 실행하는 장치 및 그 방법
KR20140087473A (ko) * 2012-12-31 2014-07-09 엘지전자 주식회사 두 개 이상의 화면을 처리하는 영상 처리 장치 및 방법
KR102090964B1 (ko) * 2013-02-22 2020-03-19 삼성전자주식회사 터치 스크린에 디스플레이되는 아이콘을 제어하는 휴대 단말 및 방법
KR20140133072A (ko) * 2013-05-09 2014-11-19 삼성디스플레이 주식회사 모바일 장치 및 이의 구동 방법
KR102284134B1 (ko) * 2014-05-28 2021-07-30 삼성전자주식회사 디스플레이 장치의 이의 디스플레이 방법
KR20160020738A (ko) * 2014-08-14 2016-02-24 삼성전자주식회사 전자 장치 및 전자 장치의 사용자 인터페이스 제공 방법
KR20160143115A (ko) * 2015-06-04 2016-12-14 삼성전자주식회사 사용자 단말 장치 및 이의 제어 방법
KR20170087350A (ko) * 2016-01-20 2017-07-28 삼성전자주식회사 전자 장치 및 전자 장치의 동작 방법
KR102574183B1 (ko) * 2016-08-19 2023-09-05 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법
KR20200022574A (ko) 2018-08-23 2020-03-04 삼성전자주식회사 분할된 화면을 제어하기 위한 전자 장치

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030197739A1 (en) * 2002-04-23 2003-10-23 Bauer Jason M. Distribution of application windows in a computing device display
US20130117718A1 (en) * 2011-01-06 2013-05-09 Research In Motion Limited Electronic device and method of displaying information in response to a gesture
US20130305184A1 (en) * 2012-05-11 2013-11-14 Samsung Electronics Co., Ltd. Multiple window providing apparatus and method
US20140111954A1 (en) * 2012-10-19 2014-04-24 Samsung Display Co., Ltd. Foldable display device
US20140285449A1 (en) * 2013-03-20 2014-09-25 Lg Electronics Inc. Foldable display device providing adaptive touch sensitive area and method for controlling the same

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4235379A4 (en) * 2020-11-17 2024-04-24 Samsung Electronics Co., Ltd. ELECTRONIC DEVICE AND METHOD FOR MULTI-WINDOW CONTROL OF ELECTRONIC DEVICE
JP2022136637A (ja) * 2021-03-08 2022-09-21 カシオ計算機株式会社 情報処理装置及びプログラム
JP7314964B2 (ja) 2021-03-08 2023-07-26 カシオ計算機株式会社 情報処理装置及びプログラム

Also Published As

Publication number Publication date
KR102570827B1 (ko) 2023-08-25
KR20200008922A (ko) 2020-01-29
US20210216204A1 (en) 2021-07-15
US11474692B2 (en) 2022-10-18

Similar Documents

Publication Publication Date Title
WO2020017743A1 (ko) 디스플레이 상에서 복수의 어플리케이션의 실행 화면을 표시하는 전자 장치 및 상기 전자 장치의 구동 방법
WO2020085789A1 (en) Foldable electronic device for controlling user interface and operating method thereof
WO2020116758A1 (en) Electronic device for performing operation based on status information thereof and operating method thereof
WO2020080639A1 (en) Electronic device for controlling application according to folding angle and method thereof
WO2020218742A1 (ko) 폴더블 전자 장치 및 그 동작 방법
WO2021118061A1 (ko) 전자 장치 및 이를 이용한 레이아웃 구성 방법
WO2020013528A1 (ko) 플렉서블 디스플레이 및 이를 포함하는 전자 장치
WO2020230982A1 (ko) 전자 장치 및 그의 알림 제공 방법
WO2020085704A1 (ko) 폴더블 전자 장치 및 그 콘텐츠의 다단 표시 방법
WO2020130424A1 (en) Method and electronic device for interacting between multiple areas of a display
WO2021060889A1 (ko) 폴더블 전자 장치 및 이를 이용한 멀티 윈도우 운용 방법
WO2022055255A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2020085628A1 (en) Method for displaying objects and electronic device using the same
WO2019160347A1 (ko) 터치 입력 처리 방법 및 이를 지원하는 전자 장치
WO2019039702A1 (en) COVER DEVICE, ELECTRONIC DEVICE, AND COVER DEVICE IDENTIFICATION METHOD
WO2020213834A1 (ko) 복수의 어플리케이션의 실행화면들을 표시하는 전자 장치 및 그의 동작 방법
WO2021107682A1 (en) Foldable device and controlling method thereof
WO2021118187A1 (ko) 회전이 가능한 카메라를 구비한 폴더블 전자 장치 및 이를 이용한 촬영 방법
WO2020222428A1 (ko) 전자 장치 및 그 영상을 출력하는 방법
WO2021066564A1 (ko) 복수의 카메라들을 포함하고 형태가 변하는 전자 장치 및 이미지 촬영 방법
WO2022119276A1 (ko) 플렉서블 디스플레이 전자 장치 및 그 동작 방법
WO2021221421A1 (ko) 디스플레이를 제어하는 방법 및 그 전자 장치
WO2021133123A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2021145748A1 (ko) 안테나 포함하는 전자 장치
WO2022114548A1 (ko) 플렉서블 디스플레이의 사용자 인터페이스 제어 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19837085

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19837085

Country of ref document: EP

Kind code of ref document: A1