WO2022050639A1 - 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법 - Google Patents

복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법 Download PDF

Info

Publication number
WO2022050639A1
WO2022050639A1 PCT/KR2021/011517 KR2021011517W WO2022050639A1 WO 2022050639 A1 WO2022050639 A1 WO 2022050639A1 KR 2021011517 W KR2021011517 W KR 2021011517W WO 2022050639 A1 WO2022050639 A1 WO 2022050639A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
display
applications
area
application
Prior art date
Application number
PCT/KR2021/011517
Other languages
English (en)
French (fr)
Inventor
정진영
이지훈
정재민
오영학
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2022050639A1 publication Critical patent/WO2022050639A1/ko
Priority to US18/116,654 priority Critical patent/US20230205555A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1652Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1675Miscellaneous details related to the relative movement between the different enclosures or enclosure parts
    • G06F1/1677Miscellaneous details related to the relative movement between the different enclosures or enclosure parts for detecting open or closed state or particular intermediate positions assumed by movable parts of the enclosure, e.g. detection of display lid position with respect to main body in a laptop, detection of opening of the cover of battery compartment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1686Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0214Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • H04M1/0216Foldable in one direction, i.e. using a one degree of freedom hinge
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04807Pen manipulated menu

Definitions

  • Embodiments disclosed in this document relate to a technique for displaying a plurality of application execution screens.
  • portable electronic devices such as smartphones or tablets
  • the user of the electronic device may receive various types of information through a web browser, interact with nearby acquaintances through a messenger application, or experience audiovisual content through a media application.
  • the user of the electronic device may experience extended functions by using an external device such as an earphone, a stylus pen, or a wearable device and an application corresponding to the external device.
  • the size of the display of the electronic device may be changed through folding, sliding, or rolling.
  • one application execution screen Prior to the expansion of the display, one application execution screen had to be displayed on the display due to the limited size. However, as the display is expanded, the necessity of simultaneously displaying a plurality of application execution screens has been raised. In addition, as the screen layout on which the application execution screen is output can be changed into various forms due to the folding angle or rotation angle of the display, the necessity of recommending an application suitable for the user according to the screen layout has increased.
  • An electronic device includes a display that can be folded at a specified angle, a processor operatively connected to the display, and a memory operatively connected to the processor, When the memory is executed, the processor detects a screen layout state of the display, determines a plurality of applications for execution based on the sensed screen layout state, and based on the sensed screen layout state, In the display, instructions for determining a plurality of areas in which the determined plurality of applications are to be displayed and displaying execution screens of the plurality of applications on the plurality of areas may be stored.
  • the method of the electronic device may include detecting a screen layout state of a display of the electronic device, and determining a plurality of applications for execution based on the detected screen layout state , determining a plurality of regions in the display in which the plurality of applications are to be displayed based on the sensed screen layout state, and displaying execution screens of the plurality of applications on the plurality of regions.
  • the electronic device may provide a suitable application group to the user according to the screen layout state.
  • the electronic device may provide a plurality of application execution screens to the user in an appropriate form according to a screen layout state.
  • the electronic device may recommend a suitable application group to the user based on the context information of the electronic device as well as the screen layout state.
  • the electronic device may simultaneously display a plurality of application execution screens on a plurality of display areas without a user's touch input.
  • FIG. 1 is a block diagram of an electronic device in a network environment, according to an embodiment.
  • FIG. 2 illustrates electronic devices whose shapes change according to an exemplary embodiment.
  • FIG. 3 illustrates electronic devices whose shapes change according to an exemplary embodiment.
  • FIG. 4A illustrates a screen layout state according to a folding angle and a rotation angle of a display according to an exemplary embodiment.
  • FIG. 4B illustrates a screen layout state according to a folding angle and a rotation angle of a display according to an exemplary embodiment.
  • 4C illustrates a screen layout state according to a holding state according to an exemplary embodiment.
  • FIG. 5 illustrates an operation scenario of an electronic device for displaying a plurality of application execution screens according to an embodiment.
  • 6A illustrates an operation of outputting a plurality of application execution screens according to a screen layout state according to an exemplary embodiment.
  • 6B illustrates an operation of outputting a plurality of application execution screens according to a screen layout state according to an exemplary embodiment.
  • 6C illustrates an operation of outputting a plurality of application execution screens according to a screen layout state according to an exemplary embodiment.
  • 6D illustrates an operation of outputting a plurality of application execution screens according to a screen layout state according to an exemplary embodiment.
  • FIG. 7A illustrates an operation of outputting a plurality of application execution screens according to a screen layout state and context information according to an exemplary embodiment.
  • FIG. 7B illustrates an operation of outputting a plurality of application execution screens according to a screen layout state and context information according to an exemplary embodiment.
  • FIG. 7C illustrates an operation of outputting a plurality of application execution screens according to a screen layout state and context information according to an exemplary embodiment.
  • 8A illustrates a database including an application group according to a screen layout state and context information according to an embodiment.
  • 8B illustrates a database including an application group according to a screen layout state and context information according to an embodiment.
  • 8C illustrates a database including an application group according to a screen layout state and context information according to an embodiment.
  • FIG. 9 is a flowchart illustrating an operation of an electronic device for displaying a plurality of application execution screens according to an exemplary embodiment.
  • FIG. 10 is a flowchart illustrating an operation of an electronic device for displaying a plurality of application execution screens, according to an embodiment.
  • GUI 11 illustrates a graphical user interface (GUI) representing a list of application groups according to an embodiment.
  • FIG. 12 illustrates an operation of editing a GUI according to an exemplary embodiment.
  • FIG 13 illustrates an operation of creating an application group according to an embodiment.
  • FIG. 14 illustrates an operation of editing an application group according to an exemplary embodiment.
  • FIG. 15 illustrates an operation of splitting a display area according to an exemplary embodiment.
  • FIG 16 illustrates an operation of setting an application execution event according to an embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to an embodiment.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is the main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
  • NPU neural processing unit
  • an image signal processor e.g., a sensor hub processor, or a communication processor.
  • the main processor 121 e.g, a central processing unit or an application processor
  • a secondary processor 123
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the co-processor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. there is.
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
  • Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers.
  • Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted Boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 , or an external electronic device (eg, a sound output module 155 ) connected directly or wirelessly with the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
  • a telecommunication network
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
  • eMBB enhanced mobile broadband
  • mMTC massive machine type communications
  • URLLC ultra-reliable and low-latency
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, bottom side) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • FIG. 2 illustrates electronic devices whose shapes change according to an exemplary embodiment.
  • the shape of the electronic device 101A, 101B, or 101C may be physically changed according to folding and/or unfolding.
  • the electronic device 101A, 101B, or 101C may include a flexible display in at least a portion thereof.
  • the electronic device may be folded (eg, closed) or unfolded (eg, open).
  • the folded part of the electronic device may be referred to as a hinge part.
  • the folded part refers to a portion (eg, a hinge) or a region in which the shape of the electronic device can be changed, and is not limited to a specific structure.
  • the electronic device 101A (eg, the electronic device 101 of FIG. 1 ) may be folded from side to side.
  • a left direction may be referred to as a -X axis direction and a right direction may be referred to as a +X axis direction.
  • the electronic device 101A may be folded around the at least one folded portion 191A.
  • the electronic device 101A may include a flexible first display 161A (eg, the display module 160 of FIG. 1 ).
  • the electronic device 101A may be folded or unfolded based on the folded portion 191A.
  • the electronic device 101A may include a second display 162A (eg, the display module 160 of FIG.
  • FIG. 2 illustrates that the second display 162A occupies a portion of one side of the housing 120A, the second display 162A according to another embodiment covers the entire surface of the housing 120A. can occupy
  • the electronic device 101A is illustrated as an in-fold electronic device that is folded with the first display 161A inward, but embodiments of the present document are not limited thereto.
  • the electronic device 101A may be an out-fold electronic device that is folded with the first display 161A facing outward, or an electronic device that supports both in-fold and out-fold.
  • the first display 161A is illustrated as one display, embodiments of the present document are not limited thereto.
  • the electronic device 101A may include a plurality of displays divided around the folded portion 191A.
  • the housing 120A may also include a plurality of housings (eg, the first housing 220 and the second housing 230 of FIG. 2 ) divided around the folded portion 191A.
  • the electronic device 101A may be a combination of a plurality of electronic devices coupled to be folded around the folded portion 191A.
  • the plurality of electronic devices may be coupled to each other by a separate structure (eg, a housing or a hinge).
  • the electronic device 101B may be folded around a plurality of axes.
  • the electronic device 101B may include a flexible display 160B (eg, the display module 160 of FIG. 1 ).
  • the electronic device 101B may be folded left and right around the second folded part 192B and the third folded part 193B.
  • the electronic device 101B is illustrated as an out-fold electronic device in which the display 160B is folded outward, but embodiments of the present document are not limited thereto.
  • the electronic device 101B may be in-folded in the second folded portion 192B and/or the third folded portion 193B.
  • the electronic device 101B may include a plurality of displays divided along at least one of the second folded part 192B and the third folded part 193B.
  • the housing 120B may also include a plurality of housings divided along at least one of the second folded portion 192B and the third folded portion 193B.
  • the electronic device 101B may be a combination of a plurality of electronic devices coupled to be folded around the second folded part 192B and the third folded part 193B. In this case, for example, a plurality of electronic devices may be coupled to each other by a separate structure (eg, a housing or a hinge).
  • the electronic device 101C (eg, the electronic device 101 of FIG. 1 ) may be folded up and down.
  • an upper direction may be referred to as a +Y axis direction and a lower direction may be referred to as a -Y axis direction.
  • the electronic device 101C may include a flexible display 160C (eg, the display module 160 of FIG. 1 ).
  • the electronic device 101C may be folded vertically around the fourth folded portion 194C.
  • the electronic device 101C is illustrated as an in-fold electronic device that is folded inward of the display 160C, but embodiments of the present document are not limited thereto.
  • the electronic device 101C may be out-folded or in-folded and out-folded at the fourth folded portion 194C.
  • the display 160C is illustrated as one display, embodiments of the present document are not limited thereto.
  • the electronic device 101C may include a plurality of displays divided along the fourth folded portion 194C.
  • the housing 120C may also include a plurality of housings divided along the fold 194C.
  • the electronic device 101C may be a combination of a plurality of electronic devices coupled to be folded around the fourth folded portion 194C. In this case, the plurality of electronic devices may be coupled to each other by a separate structure (eg, a housing or a hinge).
  • Changes in physical shape of the electronic devices (eg, 101A, 101B, and 101C) illustrated in FIG. 2 are exemplary, and embodiments of the present document are not limited thereto.
  • the electronic device may be folded or unfolded about any axis.
  • FIG. 3 illustrates electronic devices whose shapes change according to an exemplary embodiment.
  • the shape of the electronic device 101D, 101E, or 101F may be physically changed according to extending and/or retracting of a housing of the electronic device.
  • the electronic device may include a housing and/or a display (eg, the display module 160 of FIG. 1 ) from which at least a part of the electronic device may extend.
  • a portion of the electronic device may be slid or rolled to extend (eg, open) or contract (eg, close) the electronic device.
  • the extension refers to a portion or region corresponding to a difference between the first shape and the second shape when the shape of the electronic device is changed from the first shape to the second shape, and is not limited to a specific structure.
  • the electronic device 101D may include an extension part 181D that extends and/or contracts vertically.
  • the housing 120D of the electronic device 101D may include an extension portion 181D that may extend upward of the electronic device 101D.
  • the extension part 181D is a part of the housing 120D and may extend the housing 120D of the electronic device 101D by moving upward relative to the other part of the housing 120D.
  • the extension 181D may move independently of the display 160D (eg, the display module 160 of FIG. 1 ).
  • the extension portion 181D may be moved upward relative to the display 160D.
  • the extension portion 181D may be positioned relatively lower than the display 160D.
  • the extension 181D may include a camera module.
  • the camera module may be set to rotate according to the movement of the extension part 181D.
  • the electronic device 101E may include an extension portion 181E that extends and/or contracts from side to side.
  • at least a portion of the housing 120E of the electronic device 101E may include an extension portion 181E that may extend in a right direction of the electronic device 101E.
  • the extension 181E may move independently of the display 160E (eg, the display module 160 of FIG. 1 ). In this case, the extension portion 181E of a portion of the housing 120E may be moved to one side relative to the display 160E. As another example, the extension 181E may move together with the display 160E.
  • the display 160E may be expanded by moving the extended portion 181E to one side of the housing 120E together with the display 160E.
  • the extension 181E may include a camera module.
  • the camera module may be set to rotate according to the movement of the extension part 181E.
  • the electronic device 101F may include an extension portion 181F that extends and/or contracts from side to side.
  • the display 160F eg, the display module 160 of FIG. 1
  • the display 160F may be a rollable display.
  • at least a portion of the display 160F may be rolled and accommodated in the first housing 121F.
  • the display 160F may be extended between the first housing 121F and the second housing 122F by being unrolled.
  • the extension 181F may include a rolled portion of the display 160F.
  • Changes in the physical shape of the electronic devices (eg, 101D, 101E, and 101F) illustrated in FIG. 3 are exemplary, and embodiments of the present document are not limited thereto.
  • the electronic device may extend or contract in any direction.
  • 4A to 4C illustrate a screen layout state according to an exemplary embodiment.
  • 4A to 4B illustrate a screen layout state according to a folding angle and a rotation angle of a display.
  • 4C illustrates a screen layout state according to a holding state.
  • the electronic devices 401A, 401B, 401C, 401D, 401E, 401F, 401G, 401H, 401I, and 401J shown in FIGS. 4A to 4C may include the same or similar components as the electronic device 101 of FIG. 1 . can
  • the 'screen layout state' may be used to determine a plurality of applications and a plurality of display areas in which a plurality of application execution screens are displayed.
  • the screen layout state may be based on at least one of a folding angle, a rotation angle, a stationary state, and a gripping state of the display. Additionally, the screen layout state may be based on the expansion of the display according to sliding or rolling. Folding, sliding, and rolling of the display may be based on the examples described in FIGS. 2 to 3 .
  • the screen layout states shown in FIGS. 4A to 4C are only examples, and various types of screen layout states may be applied according to a similar principle.
  • FIG. 4A illustrates a screen layout state of an electronic device in which the display can be folded around one axis A1.
  • the electronic device may divide the display into a plurality of regions based on a folding angle of the display.
  • the folding angle may be detected based on a sensor (eg, at least one of a Hall sensor, a geomagnetic sensor, and a proximity sensor) included in the electronic device.
  • a sensor eg, at least one of a Hall sensor, a geomagnetic sensor, and a proximity sensor included in the electronic device.
  • the electronic device 401A rotates the display around the axis A1 (eg, the folded portion 191A in FIG. 2 ) to the first area 411A and the second area. It can be divided into two regions 412A.
  • the electronic device 401B in response to detecting that the display is fully folded (eg, in-folded or out-folded), the electronic device 401B orients the display about another axis A2 perpendicular to axis A1. It may be divided into a first area 411B and a second area 412B.
  • the electronic device 401C in response to detecting that the display is partially folded (eg, in-folded or out-folded), the electronic device 401C presents the display about an axis A2 different from the axis A1. It may be divided into a first area 411C, a second area 412C, and a third area 413C.
  • the electronic device may divide the display differently based on the rotation angle of the display.
  • the rotation angle may be detected based on at least one of an acceleration sensor and a gyro sensor included in the electronic device. For example, when the display is partially unfolded, the electronic device 401C moves the display to the first region 411C, the second region 412C, and The display is divided into a third area 413C, and the electronic device 401D may divide the display into a first area 411D and a second area 412D in response to detecting that the rotation angle of the display is changed horizontally. .
  • 4B illustrates a screen layout state of an electronic device in which a display may be folded around a plurality of axes (eg, B1 and B2).
  • the electronic device 401E first rotates the display around the axes B1 and B2 (eg, the folded portions 192B and 193B of FIG. 2 ) in response to detecting that the display is unfolded. It may be divided into an area 411E, a second area 412E, and a third area 413E. Although not shown in FIG. 4B , in another embodiment, the electronic device 401E may divide the display into two regions, similarly to the electronic device 401A of FIG. 4A .
  • the electronic device 401F may display the first axis B1 and the second axis B1 and the second axis ( The display may be divided into a first area 411F, a second area 412F, and a third area 413F based on B2).
  • the electronic device 401G may display the first axis B1 ) can be used to divide the display.
  • the electronic device 401G may determine the first area 411G as one area and the second area 412G and the third area 413G as one other area.
  • the electronic device 401H may display the first The display may be divided into a first area 411H, a second area 412H, and a third area 413H based on the axis B1 and the second axis B2 .
  • 4C illustrates a screen layout state according to a holding state.
  • the electronic device may detect a holding state of the electronic device.
  • the electronic device 401I detects that the electronic device 401I is gripped based on a sensor (eg, a proximity sensor or a grip sensor) mounted on a part (eg, 411H) of a side surface of the electronic device 401I. can do.
  • the electronic device 401I may detect that the device 401I is gripped based on a gyro sensor, an acceleration sensor, or another sensor capable of detecting a movement of the electronic device 401I.
  • the electronic device 401J may detect that the electronic device 401J is mounted without being held (or that the electronic device is placed on a table).
  • the electronic device may determine a plurality of different applications to be executed in the electronic device based on the detected screen layout state.
  • a plurality of applications determined based on the screen layout state may be referred to as an “application group”.
  • the electronic device may display execution screens of the plurality of applications determined on the plurality of divided areas.
  • the electronic device may provide a multitasking environment suitable for the user by simultaneously outputting an application group corresponding to the screen layout state on the divided display areas.
  • the electronic device 401D of FIG. 4A may execute a document application on the first region 411D and execute a virtual keyboard application on the second region 412D.
  • the electronic device 401G is displayed on the first area 411G.
  • the video application may be executed on the
  • the e-book application may be executed on the second area 412G and the third area 413G.
  • the electronic device 401H of FIG. 4B may execute a video application on the second region 412H and execute a drawing application on the third region 413H.
  • the electronic device 401H may reduce unnecessary power consumption by not executing an application on the first area 411H.
  • the electronic device 401J of FIG. 4C may respond to detecting that the electronic device 401J is partially folded in a state in which a holding state is not detected or a movement of the electronic device 401J is not detected. It can run a music application and a lighting application.
  • the application group may be further determined based on context information, an application usage history, or a user setting in addition to the screen layout state.
  • 5 illustrates an operation scenario of an electronic device for displaying a plurality of application execution screens according to an embodiment. 5 illustrates an overall operation scenario of the electronic device, and at least some of the illustrated operations may be omitted.
  • the electronic device may acquire context information of the electronic device.
  • the electronic device may acquire or monitor context information every specified period.
  • the context information may include a connection state between the electronic device and the external electronic device and a device type of the connected external electronic device.
  • an external electronic device is a wearable device (eg, wireless earphone, smart watch, head mounted device (HMD)) that can be connected to the electronic device via Wi-Fi or short-distance wireless communication (eg Bluetooth), AR glasses ( augmented-reality glass), or speakers) or vehicles.
  • the external electronic device may include a stylus pen detachable from the electronic device.
  • the external electronic device may include a home appliance (eg, a TV, a refrigerator, a fan, an air purifier, a robot cleaner, or an air conditioner) that can be connected to the electronic device through the Internet of Things (IoT).
  • IoT Internet of Things
  • the context information may include external environment information of the electronic device.
  • the external environment information may include, for example, at least one of weather, temperature, humidity, fine dust, and precipitation.
  • the electronic device may acquire external environment information using a sensor mounted in the electronic device, or may acquire external environment information from an external server through a wireless communication circuit (eg, the wireless communication module 192 of FIG. 1 ).
  • the context information may include location information or time information of the electronic device.
  • the context information may include health data corresponding to a user account of the electronic device.
  • the health data may be acquired through, for example, an external electronic device (eg, a smart watch) or an external server.
  • the context information may be based on the number of users recognized by the electronic device.
  • the electronic device may recognize a user's face by using a plurality of cameras facing the same direction as each of the plurality of display areas. Based on the user face recognition result, the electronic device may determine whether the number of users corresponding to the plurality of display areas is plural.
  • the electronic device may omit operation 505 and directly perform operation 510 .
  • the electronic device may detect a screen layout state of the display.
  • the screen layout state may be based on at least one of a folding angle, a rotation angle, a stationary state, and a holding state.
  • the electronic device may determine a plurality of areas in which an application group and an execution screen are to be displayed. In an embodiment, the electronic device may determine a plurality of areas in which an application group and an execution screen are to be displayed based on the detected screen layout state. When operation 505 is performed, the electronic device may determine a plurality of areas in which an application group and an execution screen are to be displayed further based on context information.
  • the electronic device when the display is divided into a plurality of regions (eg, the first region 411D and the second region 412D of FIG. 4A ) facing different directions due to the folding of the electronic device, the electronic device is displayed in different directions It is possible to determine the respective regions facing toward the regions to display each of the plurality of execution screens In another embodiment, the electronic device may determine activation and deactivation of the plurality of regions according to the mounting state even at the same folding angle. For example, when the electronic device 401C or 401D of FIG. 4 further includes a third region (eg, 162A of FIG. 2 ) disposed on a surface opposite to the first region 411C or 411D with respect to the housing, the electronic device 401C or 401D of FIG.
  • a third region eg, 162A of FIG. 2
  • the third area When the device is mounted in a vertical direction like the electronic device 401C, the third area is activated, whereas when the electronic device is mounted in a horizontal direction like the electronic device 401D, the third area is displayed to the user It does not need to be lost, so it can be disabled.
  • the electronic device may first determine a plurality of regions based on a screen layout state, and may determine an application group based on the determined number of regions. For example, if the display is divided into three areas, the electronic device may determine an application group including three applications. As another example, the number of applications included in the application group may be less than the number of divided regions.
  • the electronic device may determine a plurality of application groups. In this case, the electronic device may determine the priority of the application groups based on a user setting or a usage history.
  • the electronic device may provide a GUI (eg, 610A of FIG. 6A ) indicating the application group list to the user, and may receive a user input for executing an application through the GUI.
  • the GUI may represent at least one application group. Additionally, the GUI may indicate a screen layout state of the detected electronic device.
  • the electronic device may display the GUI on a partial area of the display. According to an embodiment, the electronic device may display the GUI in response to receiving a user input calling the GUI in operation 520 . In another embodiment, the electronic device may display the GUI without a user input.
  • the electronic device may receive a user input for selecting one application group from the application group list included in the GUI.
  • the electronic device may display a plurality of application execution screens on a plurality of areas.
  • the GUI may provide a function for creating or editing an application group.
  • the electronic device sets a favorite (PIN) group in the application group list (operation 530), edits a specific application group (operation 535), or creates a new application group based on the user input to the GUI can be created (operation 540).
  • the electronic device may detect a predetermined application execution event. For example, the electronic device may detect an application execution event corresponding to the screen layout state determined in operation 510 . As another example, the electronic device may detect a specified application execution event based on at least one of the context information acquired in operation 505 or a condition previously specified by the user as well as the screen layout state.
  • the electronic device may display a plurality of application execution screens on the plurality of areas based on the determined application group and the plurality of areas without a user input through the GUI.
  • the application execution event may be based on at least one of a detected screen layout state or context information.
  • the electronic device 401D of FIG. 4A may detect that the display is partially in-folded, oriented horizontally, and is not held by a user (or placed on a table).
  • the stylus pen not shown
  • the electronic device 401D displays the first area 411D without additional user input.
  • a video application or an image application may be executed, and a drawing application may be executed on the second area 412D.
  • an application execution event may be set based on a user input in operation 545 .
  • the application execution event may be determined based on the frequency of use of a plurality of applications executed in a specific screen layout state.
  • 6A to 6D illustrate an operation of outputting a plurality of application execution screens according to a screen layout state according to an exemplary embodiment.
  • the rotation angle of the display 660 of the electronic device 601 is in the vertical direction, and the display 660 is It may be in a fully folded state.
  • the electronic device 660 receives a user input 605A (eg, a swipe input) starting from a partial region (eg, a right or left edge region) of the display 660 (eg, the display module 160 of FIG. 1 ). can receive
  • the electronic device 601 may display the GUI 610A representing the application group list 612A on a partial area of the display 660 .
  • GUI 610A may appear on display 660 in the same direction as the swipe input.
  • the GUI 610A may include a GUI 611A indicating a screen layout state of the display 660 .
  • the electronic device 601 sets the first application group (eg, the video application (App1) and the chatting application (App2)) determined based on the screen layout state of the display 660 to the application group list 612A. can be displayed at the top of
  • the first application group may be further determined based on at least one of context information, a user setting, and a usage history as well as a screen layout state.
  • the electronic device 601 displays a video application ( It is possible to display the execution screen of App1) and the chatting application (App2).
  • the electronic device 601 may determine a location of an area in which execution screens of applications are disposed based on at least one of a type, a user setting, and a usage history of applications included in the first application group. For example, since the chatting application App2 requires a keyboard input in real time, the electronic device 601 displays the execution screen of the chatting application App2 on the second area 622A, which is the lower part of the display 660 .
  • the rotation angle of the display 660 of the electronic device 601 may be in the vertical direction, and the display 660 may be in a partially folded state.
  • the electronic device 601 displays the GUI 610B representing the application group list 612B on the partial region of the display 660 .
  • the electronic device 601 responds to detecting that the electronic device 601 has completed folding (eg, unfolding) at a specific angle without receiving the user input 605B, or the electronic device 601 ) may display the GUI 610B in response to receiving the user input 605B after the folding to a specific angle is completed. Additionally, the GUI 610B may include a GUI 611B indicating a screen layout state of the display 660 .
  • the electronic device 601 may display the second application group (eg, a web browser (App3) and a chatting application (App2)) determined based on the screen layout state of the display 660 at the top of the application group list 612B. there is.
  • the second application group eg, a web browser (App3) and a chatting application (App2)
  • the second application group may be further determined based on at least one of context information, a user setting, and a usage history as well as a screen layout state.
  • the electronic device 601 displays a web browser App3 and a chatting application (App3) on a plurality of regions 621B and 621B divided based on the screen layout state App2) execution screen can be displayed.
  • the electronic device 601 may determine a location of an area in which execution screens of applications are arranged based on at least one of a type, a user setting, and a usage history of applications included in the second application group. For example, the electronic device 601 may preferentially display the execution screen of the web browser App3 on the first area 621B on the left side of the display 660 .
  • the rotation angle of the display 660 of the electronic device 601 may be in a horizontal direction, and the display 660 may be in a partially folded state.
  • the electronic device 601 displays the GUI 610C representing the application group list 612C on the partial region of the display 660 .
  • the GUI 610C may include a GUI 611C indicating a screen layout state of the display 660 .
  • the electronic device 601 may display a third application group (eg, a video application (App3) and a drawing application (App4)) determined based on the screen layout state of the display 660 at the top of the application group list 612C. there is.
  • the third application group may be further determined based on at least one of context information, user settings, and usage history as well as a screen layout state.
  • the electronic device 601 displays a video application App3 and a drawing application (App3) on the plurality of regions 621C and 621C divided based on the screen layout state. App4) execution screen can be displayed.
  • the electronic device 601 may determine a location of an area in which execution screens of applications are arranged based on at least one of a type, a user setting, and a usage history of applications included in the third application group. For example, since the drawing application App4 requires a drawing input in real time, the electronic device 601 may display the execution screen of the drawing application App4 on the second area 622C, which is the lower portion of the display 660 . can
  • the rotation angle of the display 660 of the electronic device 601 may be in the vertical direction, and the display 660 may be in an unfolded state.
  • the electronic device 601 displays the GUI 610D representing the application group list 612D on the partial region of the display 660 .
  • the GUI 610D may include a GUI 611D indicating a screen layout state of the display 660 .
  • the electronic device 601 displays a fourth application group (eg, a web browser (App3), a video call application (App5), and a chatting application (App2)) determined based on the screen layout state of the display 660 as an application group list ( 612D) can be displayed at the top.
  • the fourth application group may be further determined based on at least one of context information, user settings, and usage history as well as a screen layout state.
  • the electronic device 601 displays the web browser App3 on the plurality of regions 621D, 622D, and 623D divided based on the screen layout state, Execution screens of the video call application (App5) and the chatting application (App2) may be displayed.
  • the electronic device 601 may determine a location of an area in which execution screens of applications are disposed based on at least one of a type, a user setting, and a usage history of applications included in the fourth application group. For example, the electronic device 601 preferentially displays the web browser App3 on the first area 621D, which is the left side of the display, and the chatting application App2 that requires keyboard input is the third area at the bottom of the right area. may be displayed on the area 623D.
  • 6A to 6D illustrate only an embodiment of receiving user inputs 605A, 605B, 605C, and 605D for calling a GUI while the home screen is displayed, according to other embodiments, the electronic device 601 displays a display ( The user inputs 605A, 605B, 605C, and 605D may be received when a lock screen is displayed on 660 or the display 660 is screen-off.
  • FIG. 7A to 7C illustrate an operation of outputting a plurality of application execution screens according to a screen layout state and context information according to an exemplary embodiment.
  • a display 760 (eg, the display module 160 of FIG. 1 ) of an electronic device 701 (eg, the electronic device 101 of FIG. 1 )).
  • the rotation angle of is in the vertical direction, and the display 760 may be in a partially folded state.
  • the electronic device 701 may change the application group displayed on the plurality of areas 711A and 712A based on at least one of location information and time information of the electronic device 701 .
  • the electronic device 701 when it is detected that the electronic device 701 is located in a location registered as an office or the current time is business hours (eg, 9:00 am to 6:00 pm), the electronic device 701 moves to the first area An execution screen of a web browser may be displayed on the 711A, and an execution screen of a work-related application (eg, an in-house messenger application or a mail application) may be displayed on the second area 712A.
  • a work-related application eg, an in-house messenger application or a mail application
  • the electronic device 701 displays the electronic device 701 on the second area 712A instead of the in-house messenger application. You can display the execution screen of another application (eg, a chat application).
  • the rotation angle of the display 760 may be in a horizontal direction, and the display 760 may be in a partially in-folded state.
  • the electronic device 701 displays a moving picture on the first area 711B.
  • the execution screen of the application may be displayed, and the execution screen of the drawing application may be displayed on the second area 712B.
  • the electronic device 701 does not receive a user input (eg, 605C in FIG. 6C ) of calling a GUI (eg, 610C in FIG. 6C ) and a user input (eg, 615C in FIG. 6C ) of selecting an application group. It is possible to directly output execution screens of a plurality of applications based on the detected screen layout state and context information without needing to do so.
  • the rotation angle of the display 760 of the electronic device 701 may be in a horizontal direction, and the display 760 may be in a partially out-folded state.
  • the electronic device 701 may determine an area of the display 760 for output based on whether a plurality of user faces are recognized in a direction in which the plurality of areas 711C and 712C are facing. For example, in the electronic device 701 , a first camera (not shown) disposed in the same direction as that of the first area 711C and a second camera (not shown) disposed in the same direction as the direction of the second area 712C are disposed. A user's face recognition may be attempted using a camera (not shown).
  • the electronic device 701 may display a plurality of application execution screens on the plurality of areas 711C and 712C.
  • a user's face is recognized only in one direction (eg, a direction corresponding to the first area 711C) among the directions toward which the plurality of areas 711C and 712C are directed, the electronic device 701 moves in the direction in which the user's face is recognized.
  • An application execution screen may be displayed on the corresponding area (eg, the first area 711C), and the area corresponding to the direction in which the user's face is not recognized (eg, the second area 712C) may not be activated. .
  • FIGS. 8A to 8C illustrate a database including an application group according to a screen layout state and context information according to an exemplary embodiment.
  • a processor eg, 120 in FIG. 1
  • an application executed by the processor eg, 146 in FIG. 1
  • stores the database described below in a memory eg, in FIG. 1 ) 130
  • a plurality of application groups may be determined based on the detected screen layout state and context information.
  • the database shown in FIGS. 8A to 8C is only an example.
  • FIG. 8A shows a database for an electronic device that can be folded around one axis as in FIG. 4A .
  • the electronic device may detect a first screen layout state 801 (eg, the electronic device 401D of FIG. 4A ).
  • the electronic device detects that the stylus pen is activated, the mirror monitor function is activated, and that the location of the electronic device is an office, in response to the presenter It can operate in a presenter mode.
  • the electronic device displays a slide show execution screen of a presentation application (eg, MS powerpoint TM ) on the first area 1 of the display (eg, the second display 162A of FIG.
  • a presentation application eg, MS powerpoint TM
  • the presenter mode execution screen of the presentation application may be displayed on the second area 2 of the display, and the execution screen of the memo application may be displayed on the third area 3 of the display.
  • the electronic device If the mirror monitor function is not activated under the same conditions as in the presenter mode, the electronic device operates in an interview mode, and the first area (1), the second area (2), and the third area (3) of the display An execution screen of a document viewer application, an execution screen of a movie record application, and an execution screen of a text dictation application may be displayed on the screen, respectively.
  • the electronic device operates in a messenger mode and may not activate the first area 1 of the display there is.
  • the electronic device may display an execution screen of a messenger application and an execution screen of a keyboard application on the second area 2 and the third area 3 of the display, respectively.
  • the electronic device in the second screen layout state 802 (eg, the electronic device 401C of FIG. 4A ), the location of the electronic device corresponds to home, the Bluetooth speaker is connected, and the surrounding environment is dark. environment), the electronic device may operate in a jukebox mode.
  • the electronic device displays the mood lighting screen of the mood lighting application on the first area 1 of the display (eg, the second display 162A of FIG. 2 ), and the second area of the display ( 2) a setting screen of the mood lighting application may be displayed on the screen, and an execution screen of the music application may be displayed on the third area 3 of the display.
  • the electronic device operates in karaoke mode in jukebox mode and conditions, and other applications (eg, karaoke application and audio recording) in specific areas (eg, 2, 3) of the display. application) can be displayed.
  • the priority of the jukebox mode and the karaoke mode may be determined based on a user setting or a usage history.
  • the electronic device may operate in a reading mode. In this case, the electronic device may display execution screens of the e-book application and the music application on the second area 2 and the third area 3 of the display, respectively, without activating the first area 1 of the display.
  • the location of the electronic device corresponds to the house, and the user's time to sleep is performed through the health data. is detected, and in response to detecting that do not disturb (DND) is activated, the electronic device may operate in an alarm clock mode.
  • the electronic device may display an execution screen of the alarm clock application on the first area 1 of the display and display ambient lighting on the second area 2 of the display.
  • the electronic device operates in a radio mode and executes a radio application and an alarm application on the first area 1 and the second area 2 of the display, respectively. screen can be displayed.
  • the electronic device operates in a wrap mode and displays a reminder list on the first area 1 of the display instead of the execution screen of the radio application. can do.
  • FIG. 8B illustrates a database for an electronic device that can be folded around a plurality of axes as in FIG. 4B .
  • the fourth screen layout state 804 (eg, the electronic device 401H of FIG. 4B ) may perform the same or similar function to the first screen layout state 801 , the first screen layout state When the same context information as 801 is obtained, the electronic device may operate in the same mode.
  • the electronic device Since the fifth screen layout state 805 has a larger area for receiving a user input than the first screen layout state 801 and the fourth screen layout state 804 , the electronic device displays the second area 2 of the display.
  • An execution screen of an application that requires a lot of user input such as a drawing application, a piano application, or a keyboard application, may be displayed on the screen.
  • the electronic device operates in the drawing mode when the stylus pen is activated, and operates in the instrument mode when a Bluetooth ear set is connected while the stylus pen is not activated, and the external electronic device is not detected. Otherwise, it can operate in messenger mode.
  • the electronic device may provide different content to a plurality of users using different display areas 1 and 2 ,
  • the device may operate in a duo mode.
  • the electronic device may provide different application groups to a plurality of users in the duo mode based on a currently running application or a recently used application.
  • 8C shows a database for an electronic device in which a display can be expanded according to sliding or rolling.
  • the electronic device determines a seventh screen layout state 807 or an eighth screen layout state 808 based on at least one of context information, a user setting, and a use history obtained in a state in which the display is expanded. can detect The electronic device divides the display into the first area 1 and the second area 2 in the seventh screen layout state 807 , and divides the display into the first area 1 and the second area 2 in the eighth screen layout state 808 . It can be divided into a second region (2) and a third region (3).
  • the electronic device operates in a duo browser mode when the mirror monitor function is activated, and operates in a study mode when the stylus pen is activated, and the position of the electronic device When it is detected that is an office, it may operate in a mail mode.
  • the electronic device may detect wake up in the morning.
  • the electronic device operates in a daily briefing mode, a planner mode, or an idea mode ( idea mode).
  • FIG. 9 is a flowchart illustrating an operation of an electronic device for displaying a plurality of application execution screens according to an embodiment.
  • the operations of the operation flowchart described below may be implemented by components included in the electronic device 101 of FIG. 1 .
  • the electronic device may detect a screen layout state.
  • the screen layout state may be determined based on at least one of a folding angle, a rotation angle, a gripping state, and whether the display is slid or rolled.
  • the electronic device may further acquire context information in addition to the screen layout state.
  • the electronic device may determine a plurality of applications for execution.
  • a plurality of applications simultaneously executed in the electronic device may be referred to as an 'application group'.
  • the electronic device may determine a plurality of applications based on the sensed screen layout state. Also, the electronic device may determine a plurality of applications further based on the context information.
  • the electronic device may determine a plurality of areas in which a plurality of applications are to be displayed.
  • the plurality of regions may be determined based on the sensed screen layout state.
  • the electronic device may perform operations 920 and 930 simultaneously, or may perform operation 930 before operation 920.
  • the electronic device may display execution screens of the plurality of determined applications on the plurality of determined areas.
  • the electronic device may determine a location in which execution screens of a plurality of applications are displayed among a plurality of areas based on at least one of a detected screen layout state, context information, a user setting, and a use history.
  • FIG. 10 is a flowchart illustrating an operation of an electronic device for displaying a plurality of application execution screens according to an exemplary embodiment.
  • operations 1010 and 1020 may correspond to operations 910 to 930 of FIG. 9 .
  • the electronic device may determine whether an application execution event is detected (eg, operation 560 of FIG. 5 ).
  • the application execution event may be based on at least one of a detected screen layout state, context information, or a user setting.
  • the electronic device may display execution screens of a plurality of applications on a plurality of areas.
  • the electronic device may determine whether a user input (eg, 605A of FIG. 6A ) invoking a GUI is received.
  • the GUI may present a list of application groups. Additionally, the GUI may indicate a screen layout state of the electronic device. Additionally, the GUI may provide the ability to edit or create application groups. If the user input is not received, in operation 1050, the electronic device may maintain the existing operation and repeat operations 1010 to 1030.
  • the electronic device displays a GUI, receives a user input for selecting an application group through the GUI (eg, 615A of FIG. 6A ), and then in operation 1070, an execution screen of a plurality of applications may be displayed on a plurality of regions.
  • FIG. 11 illustrates a GUI representing a list of application groups according to an embodiment.
  • the GUI representing the application group list may be displayed differently based on a screen layout state.
  • the electronic device may provide the GUI 1110A in the form of N ⁇ N (N is a natural number).
  • the electronic device may output a vertical GUI 1110B or a horizontal GUI 1110C in response to detecting that the rotation angle of the display is in the vertical direction 1101B or the horizontal direction 1101C. there is.
  • the GUI is a list of application groups (Group1, Group2, Group3), a function for creating or editing an application group, and an application Functions for setting execution events can be provided.
  • FIG. 12 illustrates an operation of editing a GUI according to an exemplary embodiment.
  • the electronic device may display the GUI 1201 on the display.
  • the GUI 1201 may include an application group (Group1) set as a favorite (PIN) on the left (or right) side of the GUI 1201 .
  • the electronic device eg, the electronic device 101 of FIG. 1
  • the electronic device includes application groups (Group2, Group3) determined based on at least one of a screen layout state, context information, or usage history in addition to the application group (Group1) set as a favorite. may be recommended to the user through the GUI 1201 .
  • the electronic device may provide an editing screen of the GUI 1021 in operation 1220 .
  • a user input 1215 for selecting one of the recommended application groups eg, Group3
  • the electronic device may display the selected application group (Group3).
  • the electronic device may set the selected application group Group3 as a favorite in operation 1240 .
  • FIG. 13 illustrates an operation of creating an application group according to an embodiment. The operation of FIG. 13 may be performed based on a user input for creating an application group in the GUI 1201 of FIG. 12 .
  • the electronic device eg, the electronic device 101 of FIG. 1
  • displays applications eg, 1301
  • the second area 1312 may be inactivated.
  • Activation may mean, for example, turning on the screen of the display.
  • Deactivation may mean, for example, turning off the screen of the display or applying a dimming effect.
  • the electronic device deactivates the first area 1311 and the second area 1312 ) to display a list of applications (eg, 1302) to be displayed.
  • the electronic device selects the applications App1 from each of the areas 1311 and 1312. , App2) may be displayed on the areas 1311 and 1312 of the display.
  • FIG. 14 illustrates an operation of editing an application group according to an exemplary embodiment.
  • the operation of FIG. 14 may be performed based on a user input requesting editing of the application group in the GUI 1201 of FIG. 12 (eg, an input of selecting the application group Group1 in operation 1220 ).
  • the electronic device deactivates the first area 1411 and the second area 1412 of the display, and displays the display in the first area 1411 .
  • the editing window 1401 of the corresponding application App1 may be displayed on the first area 1411 .
  • the electronic device displays applications ( Example: 1406) can be displayed.
  • the electronic device deactivates the first area 1411 and the second area 1412 , and the second area
  • the editing window 1402 of the application App2 corresponding to 1412 may be displayed on the first area 1412 .
  • the electronic device displays execution screens of the edited applications App1 and App2 on display areas 1411, 1412) can be displayed.
  • FIG. 15 illustrates an operation of dividing a display area according to an exemplary embodiment.
  • operations 1510 to 1520 may be performed in the operation of creating an application group as shown in FIG. 13 .
  • the electronic device receives a user input 1505 requesting splitting of the first area 1511 . can do.
  • the electronic device divides the first area 1511 into a plurality of sub areas 1511A and 1511B.
  • the electronic device may activate the first sub-area 1511A and not activate the second sub-area 1512A in order to select an application to be displayed in the first sub-area 1511A.
  • the electronic device may display the screen of operation 1510 again.
  • Operations 1530 to 1540 may be performed in the operation of editing the application group as shown in FIG. 14 .
  • the electronic device receives a user input 1525 requesting division of the first area 1511 .
  • the first region 1511 may be divided into a plurality of sub-regions 1511A and 1511B.
  • the electronic device may display the screen of operation 1530 again.
  • FIG 16 illustrates an operation of setting an application execution event according to an embodiment.
  • GUI 1602 may be displayed.
  • the GUI 1602 may indicate, for example, an application execution event (eg, Trigger 2, Not assigned) of application groups (Group1, Group3) set as favorites.
  • an application execution event eg, Trigger 2, Not assigned
  • the electronic device may display a GUI 1603 or 1604 for setting an application execution event of the selected application group.
  • the electronic device may or may not set the application execution event of the application group to a specified condition (eg, Trigger 2) according to a user input (None).
  • the electronic device disclosed in this document operates with a display (eg, the display module 160 of FIG. 1 ) that can be folded at a specified angle, and the display a processor (eg, 120 in FIG. 1 ) connected to the processor (eg, 120 in FIG. 1 ), and a memory (eg, 130 in FIG.
  • the instructions may be stored to determine which ones are used, and to display execution screens of the plurality of applications on the plurality of areas.
  • the instructions may cause the processor to detect the screen layout state based on at least one of a folding angle, a rotation angle, a holding state, and a holding state of the display.
  • the instructions cause the processor to obtain the context information of the electronic device and determine the plurality of applications for execution based on the sensed screen layout state and the obtained context information.
  • the context information may include a connection state between the electronic device and an external electronic device, a device type of the external electronic device, external environment information of the electronic device, an application running in the electronic device, and information of the electronic device. It may include at least one of location information, time information, and health data corresponding to a user account of the electronic device.
  • the display device further includes a first camera disposed to face the same direction as the first area of the display and a second camera disposed to face the same direction as the second area of the display, wherein the instructions include
  • the processor may be configured to recognize a plurality of different user faces through the first camera and the second camera, and determine a plurality of applications for execution further based on the recognition of the plurality of user faces.
  • the instructions determine whether an event related to display of execution screens of the plurality of applications is detected by the processor based on the detected screen layout state, and when the event is detected, the plurality of Execution screens of applications may be displayed on the plurality of areas, and if the event is not detected, an existing screen may be maintained.
  • the instructions are configured to cause the processor to display the GUI in response to receiving a first user input for invoking a graphical user interface (GUI) representing a list of application groups without detecting the event. and, in response to receiving a second user input for selecting one application group from the application group list, display execution screens of a plurality of applications corresponding to the selected application group on the plurality of areas can make it
  • the instructions display, in response to the processor receiving a third user input for creating a new application group, a screen of a first area among the plurality of areas, and In response to receiving a fourth user input for selecting one of a plurality of applications included in the first area by applying dimming to a second area other than the first area, the second area In response to receiving a fifth user input for displaying a screen of , applying dimming to the first area, and selecting one of a plurality of applications included in the second area, the fourth user input is The execution screen of the application selected by the user may be displayed on the first area, and the execution screen of the application selected by the fifth user input may be displayed on the second area.
  • the instructions may cause the processor to create the application selected by the fourth user input and the application selected by the fifth user input as a new application group corresponding to the detected screen layout state. there is.
  • the instructions receive a sixth user input for dividing the screen of the first area by the processor while the screen of the first area is displayed and dimming is applied to the screen of the second area
  • the first region may be divided into a first sub-region and a second sub-region.
  • the method of the electronic device disclosed in this document includes an operation of detecting a screen layout state of a display of the electronic device, and an operation of determining a plurality of applications for execution based on the detected screen layout state , determining a plurality of regions in the display in which the plurality of applications are to be displayed based on the sensed screen layout state, and displaying execution screens of the plurality of applications on the plurality of regions.
  • the detecting of the screen layout state may include detecting a folding angle of the display, detecting a rotation angle of the display, or detecting a holding state or holding state of the electronic device. may include at least one of
  • the method further includes obtaining context information of the electronic device, and the determining of the plurality of applications for execution includes the execution based on the screen layout state and the context information. It may include the operation of determining a plurality of applications for.
  • the context information may include a connection state between the electronic device and an external electronic device, a device type of the external electronic device, external environment information of the electronic device, an application running in the electronic device, and information of the electronic device. It may include at least one of location information, time information, and health data corresponding to a user account of the electronic device.
  • the method further includes recognizing a plurality of different user faces using a plurality of cameras of the electronic device, and the determining of a plurality of applications for execution includes the screen layout and determining a plurality of applications for execution based on a state and recognition of the plurality of user faces.
  • the method further includes checking whether an event related to display of execution screens of the plurality of applications is detected based on the sensed screen layout state, wherein the execution screens of the plurality of applications are detected.
  • the displaying on the plurality of areas may include, when the event is detected, displaying execution screens of the plurality of applications on the plurality of areas.
  • the method includes displaying the GUI through the display in response to receiving a first user input for invoking a graphical user interface (GUI) representing a list of application groups without detecting the event.
  • GUI graphical user interface
  • the method further includes an operation of displaying the execution screens of the plurality of applications on the plurality of areas in response to receiving a second user input for selecting one application group from the application group list.
  • the method may include displaying execution screens of a plurality of applications corresponding to the selected application group on the plurality of areas.
  • the method in response to receiving a third user input for creating a new application group, displays a screen of a first area of the plurality of areas, and the first of the plurality of areas
  • the screen of the second region is displayed display, applying dimming to the first area
  • a fifth user input for selecting one of a plurality of applications included in the second area selected by the fourth user input
  • the method may further include displaying an execution screen of an application on the first area and displaying an execution screen of the application selected by the fifth user input on the second area.
  • the method may further include generating the application selected by the fourth user input and the application selected by the fifth user input as a new application group corresponding to the detected screen layout state. there is.
  • the method may include in response to receiving a sixth user input for dividing the screen of the first area while the screen of the first area is displayed and dimming is applied to the screen of the second area , dividing the first region into a first sub-region and a second sub-region.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided as included in a computer program product.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly between smartphones (eg: smartphones) and online.
  • a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. there is.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

전자 장치는 지정된 각도로 폴딩(folding)될 수 있는 디스플레이, 상기 디스플레이와 작동적으로 연결된 프로세서, 및 상기 프로세서와 작동적으로 연결되는 메모리를 포함하고, 상기 메모리는, 실행 시, 상기 프로세서가, 상기 디스플레이의 화면 레이아웃 상태를 감지하고, 상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하고, 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하고, 및 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하도록 하는, 인스트럭션들을 저장할 수 있다.

Description

복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법
본 문서에 개시되는 실시예들은 복수의 애플리케이션 실행 화면을 표시하기 위한 기술과 관련된다.
소프트웨어 기술의 발달로 스마트폰 또는 태블릿과 같은 휴대용 전자 장치는 애플리케이션을 통해 다양한 기능을 사용자에게 제공하고 있다. 예를 들어, 전자 장치의 사용자는 웹 브라우저를 통해 각종 정보를 제공 받거나, 메신저 애플리케이션을 통해 주변 지인들과 상호작용하거나, 또는 미디어 애플리케이션을 통해 시청각 콘텐츠를 경험할 수 있다. 또한, 전자 장치의 사용자는 이어폰, 스타일러스 펜, 또는 웨어러블 장치와 같은 외부 기기와 해당 외부 기기에 대응하는 애플리케이션을 이용하여 확장된 기능을 경험할 수 있다.
디스플레이 기술의 발달로 인하여 디스플레이 화면이 가변적인 휴대용 전자 장치가 소개되고 있다. 예를 들어, 폴딩(folding), 슬라이딩(sliding), 또는 롤링(rolling)을 통해 전자 장치의 디스플레이의 크기가 변경될 수 있다.
디스플레이가 확장되기 이전에는 제한된 크기로 인하여 디스플레이에 하나의 애플리케이션 실행 화면이 표시되어야 했지만, 디스플레이가 확장됨으로써 복수의 애플리케이션 실행 화면이 동시에 표시될 필요성이 제기되었다. 또한, 디스플레이의 폴딩 각도나 회전 각도로 인하여 애플리케이션 실행 화면이 출력되는 화면 레이아웃이 다양한 형태로 변경될 수 있게 되면서, 화면 레이아웃에 따라 사용자에게 적합한 애플리케이션이 추천될 필요성이 증가하였다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 지정된 각도로 폴딩(folding)될 수 있는 디스플레이, 상기 디스플레이와 작동적으로 연결된 프로세서, 및 상기 프로세서와 작동적으로 연결되는 메모리를 포함하고, 상기 메모리는, 실행 시, 상기 프로세서가, 상기 디스플레이의 화면 레이아웃 상태를 감지하고, 상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하고, 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하고, 및 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하도록 하는, 인스트럭션들을 저장할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 화면 레이아웃 상태를 감지하는 동작, 상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하는 동작, 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하는 동작, 및 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작을 포함할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 화면 레이아웃 상태에 따라 적합한 애플리케이션 그룹을 사용자에게 제공할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 복수의 애플리케이션 실행 화면을 화면 레이아웃 상태에 따라 적합한 형태로 사용자에게 제공할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 화면 레이아웃 상태뿐만 아니라 전자 장치의 컨텍스트 정보에 더 기반하여 적합한 애플리케이션 그룹을 사용자에게 추천할 수 있다.
본 문서에 개시되는 실시 예들에 따르면, 전자 장치는 사용자의 터치 입력 없이도 복수의 애플리케이션 실행 화면을 복수의 디스플레이 영역들 상에 동시에 표시할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은, 일 실시예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 일 실시예에 따라 형태가 변화하는 전자 장치들을 도시한다.
도 3은 일 실시예에 따라 형태가 변화하는 전자 장치들을 도시한다.
도 4a는 일 실시예에 따라 디스플레이의 폴딩 각도 및 회전 각도에 따른 화면 레이아웃 상태를 설명한다.
도 4b는 일 실시예에 따라 디스플레이의 폴딩 각도 및 회전 각도에 따른 화면 레이아웃 상태를 설명한다.
도 4c는 일 실시예에 따라 파지 상태에 따른 화면 레이아웃 상태를 설명한다.
도 5는 일 실시예에 따라 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치의 동작 시나리오를 도시한다.
도 6a는 일 실시예에 따른 화면 레이아웃 상태에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 6b는 일 실시예에 따른 화면 레이아웃 상태에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 6c는 일 실시예에 따른 화면 레이아웃 상태에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 6d는 일 실시예에 따른 화면 레이아웃 상태에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 7a는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 7b는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 7c는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 8a는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따른 애플리케이션 그룹을 포함하는 데이터 베이스를 도시한다.
도 8b는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따른 애플리케이션 그룹을 포함하는 데이터 베이스를 도시한다.
도 8c는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따른 애플리케이션 그룹을 포함하는 데이터 베이스를 도시한다.
도 9는 일 실시예에 따라 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치의 동작 흐름도를 도시한다.
도 10은 일 실시예에 따라 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치의 동작 흐름도를 도시한다.
도 11은 일 실시예에 따른 애플리케이션 그룹 리스트를 나타내는 GUI(graphic user interface)를 도시한다.
도 12는 일 실시예에 따른 GUI를 편집하는 동작을 설명한다.
도 13은 일 실시예에 따라 애플리케이션 그룹을 생성하는 동작을 설명한다.
도 14는 일 실시예에 따라 애플리케이션 그룹을 편집하는 동작을 설명한다.
도 15는 일 실시예에 따라 디스플레이의 영역을 분할(split) 하는 동작을 설명한다.
도 16은 일 실시예에 따라 애플리케이션 실행 이벤트를 설정하는 동작을 설명한다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
이하, 본 발명의 다양한 실시 예가 첨부된 도면을 참조하여 기재된다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 실시 예의 다양한 변경(modification), 균등물(equivalent), 및/또는 대체물(alternative)을 포함하는 것으로 이해되어야 한다.
도 1은, 일 실시예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted Boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는 일 실시예에 따라 형태가 변화하는 전자 장치들을 도시한다.
일 실시예에 따르면, 전자 장치(101A, 101B, 또는 101C)(예: 도 1의 전자 장치(101))의 형태는 폴딩(folding) 및/또는 언폴딩(unfolding)에 따라서 물리적으로 변경될 수 있다. 예를 들어, 전자 장치(101A, 101B, 또는 101C)는 적어도 일부 부분에 플렉서블(flexibile)한 디스플레이를 포함할 수 있다. 전자 장치의 접힘부를 중심으로, 전자 장치는 접히거나(folded)(예: 닫힘(close)), 펴질(unfolded)(예: 열림(open)) 수 있다. 예를 들어, 전자 장치의 접힘부는 힌지부로 참조될 수 있다. 접힘부는 전자 장치의 형태가 변경될 수 있는 부분(예: 힌지(hinge)) 또는 영역을 지칭하는 것으로서, 특정한 구조에 한정되는 것은 아니다.
일 실시예에 따르면, 전자 장치(101A)(예: 도 1의 전자 장치(101))는 좌우로 접힐 수 있다. 도 2에서 좌측 방향은 -X 축 방향으로 우측 방향은 +X 축 방향으로 참조될 수 있다. 예를 들어, 전자 장치(101A)는 적어도 하나의 접힘부(191A)를 중심으로 접힐 수 있다. 예를 들어, 전자 장치(101A)는 플렉서블한 제1 디스플레이(161A)(예: 도 1의 디스플레이 모듈(160))를 포함할 수 있다. 전자 장치(101A)는 접힘부(191A)를 중심으로 폴딩 또는 언폴딩될 수 있다. 전자 장치(101A)는 제1 디스플레이(161A)가 배치된 일면과 반대 방향으로 향하는 다른 면에 배치되는 제2 디스플레이(162A)(예: 도 1의 디스플레이 모듈(160))를 포함할 수 있다. 도 2는 제2 디스플레이(162A)가 하우징(120A)의 일 면(one side) 중 일부를 차지하는 것으로 도시하지만, 다른 실시예에 따른 제2 디스플레이(162A)는 하우징(120A)의 일 면 전체를 차지할 수 있다.
도 2에서, 전자 장치(101A)는 제1 디스플레이(161A)를 안쪽으로 하여 접히는 인-폴드(in-fold) 전자 장치인 것으로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101A)는 제1 디스플레이(161A)를 바깥 쪽으로 하여 접히는 아웃-폴드(out-fold) 전자 장치이거나, 인-폴드 및 아웃-폴드를 모두 지원하는 전자 장치일 수 있다. 다른 예를 들어, 제1 디스플레이(161A)는 하나의 디스플레이로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 전자 장치(101A)는 접힘부(191A)를 중심으로 구분된 복수의 디스플레이들을 포함할 수 있다. 하우징(120A) 또한 접힘부(191A)를 중심으로 구분된 복수의 하우징들(예: 도 2의 제1 하우징(220) 및 제2 하우징(230))을 포함할 수 있다. 또 다른 예를 들어, 전자 장치(101A)는 접힘부(191A)를 중심으로 접히도록 결합된 복수의 전자 장치들의 조합일 수 있다. 이 경우, 복수의 전자 장치들은 별도의 구조체(예: 하우징, 힌지)에 의하여 서로 결합될 수 있다.
일 실시예에 따르면, 전자 장치(101B)(예: 도 1의 전자 장치(101))는 복수의 축들을 중심으로 접힐 수 있다. 예를 들어, 전자 장치(101B)는 플렉서블한 디스플레이(160B)(예: 도 1의 디스플레이 모듈(160))를 포함할 수 있다. 예를 들어, 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B)를 중심으로 좌우로 접힐 수 있다. 도 3에서, 전자 장치(101B)는 디스플레이(160B)가 바깥쪽으로 접히는 아웃-폴드(out-fold) 전자 장치인 것으로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101B)는 제2 접힘부(192B) 및/또는 제3 접힘부(193B)에서 인-폴딩될 수 있다. 다른 예를 들어, 디스플레이(160B)는 하나의 디스플레이로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B) 중 적어도 하나를 따라서 구분된 복수의 디스플레이들을 포함할 수 있다. 하우징(120B) 또한 제2 접힘부(192B) 및 제3 접힘부(193B) 중 적어도 하나를 따라서 구분된 복수의 하우징들을 포함할 수 있다. 또 다른 예를 들어, 전자 장치(101B)는 제2 접힘부(192B) 및 제3 접힘부(193B)를 중심으로 접히도록 결합된 복수의 전자 장치들의 조합일 수 있다. 이 경우, 예를 들어, 복수의 전자 장치들은 별도의 구조체(예: 하우징, 힌지)에 의하여 서로 결합될 수 있다.
일 실시예에 따르면, 전자 장치(101C)(예: 도 1의 전자 장치(101))는 상하로 접힐 수 있다. 도 2에서 상측 방향은 +Y 축 방향으로 하측 방향은 -Y 축 방향으로 참조될 수 있다. 예를 들어, 전자 장치(101C)는 플렉서블한 디스플레이(160C)(예: 도 1의 디스플레이 모듈(160))를 포함할 수 있다. 전자 장치(101C)는 제4 접힘부(194C)를 중심으로 상하로 접힐 수 있다. 도 2에서, 전자 장치(101C)는 디스플레이(160C)의 안쪽으로 접히는 인-폴드 전자 장치인 것으로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치(101C)는 제4 접힘부(194C)에서 아웃-폴드 되거나, 인-폴딩 및 아웃-폴딩될 수 있다. 다른 예를 들어, 디스플레이(160C)는 하나의 디스플레이로 도시되어 있으나, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 전자 장치(101C)는 제4 접힘부(194C)를 따라서 구분된 복수의 디스플레이들을 포함할 수 있다. 하우징(120C) 또한 접힘부(194C)를 따라서 구분된 복수의 하우징들을 포함할 수 있다. 또 다른 예를 들어, 전자 장치(101C)는 제4 접힘부(194C)를 중심으로 접히도록 결합된 복수의 전자 장치들의 조합일 수 있다. 이 경우, 복수의 전자 장치들은 별도의 구조체(예: 하우징, 힌지)에 의하여 서로 결합될 수 있다.
도 2에 도시된 전자 장치(예: 101A, 101B, 및 101C)의 물리적 형태 변화는 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치는 임의의(any) 축을 중심으로 접히거나 펼쳐질 수 있다.
도 3은 일 실시예에 따라 형태가 변화하는 전자 장치들을 도시한다.
일 실시예에 따르면, 전자 장치(101D, 101E, 또는 101F)(예: 도 1의 전자 장치(101))의 형태는 전자 장치의 하우징의 연장(extending) 및/또는 수축(retracting)에 따라서 물리적으로 변경될 수 있다. 예를 들어, 전자 장치는 적어도 일부 부분이 연장될 수 있는 하우징 및/또는 디스플레이(예: 도 1의 디스플레이 모듈(160))를 포함할 수 있다. 예를 들어, 전자 장치의 일부가 슬라이딩 또는 롤링(rolling)되어 전자 장치가 연장되거나(예: 열림(open)) 수축(예: 닫힘(close))될 수 있다. 연장부는 전자 장치의 형태가 제1 형태로부터 제2 형태로 변경될 시, 제1 형태와 제2 형태 사이의 차이에 대응하는 부분 또는 영역을 지칭하는 것으로서, 특정한 구조에 한정되는 것은 아니다.
일 실시예에 따르면, 전자 장치(101D)(예: 도 1의 전자 장치(101))는 상하로 연장 및/또는 수축되는 연장부(181D)를 포함할 수 있다. 예를 들어, 전자 장치(101D)의 하우징(120D)의 적어도 일부는 전자 장치(101D)의 위쪽으로 연장될 수 있는 연장부(181D)를 포함할 수 있다. 예를 들어, 연장부(181D)는 하우징(120D)의 일부로서, 하우징(120D)의 다른 부분에 대하여 상대적으로 위쪽으로 이동함으로써 전자 장치(101D)의 하우징(120D)을 연장시킬 수 있다. 연장부(181D)는 디스플레이(160D)(예: 도 1의 디스플레이 모듈(160))와는 독립적으로 움직일 수 있다. 예를 들어, 연장부(181D)는 디스플레이(160D)에 비하여 상대적으로 위쪽으로 이동될 수 있다. 다른 예를 들어, 연장부(181D)는 디스플레이(160D)에 비하여 상대적으로 아래쪽에 위치될 수 있다. 일 실시예에 따르면, 연장부(181D)는 카메라 모듈을 포함할 수 있다. 예를 들어, 카메라 모듈은 연장부(181D)의 이동에 따라서 회전하도록 설정될 수 있다.
일 실시예에 따르면, 전자 장치(101E)(예: 도 1의 전자 장치(101))는 좌우로 연장 및/또는 수축되는 연장부(181E)를 포함할 수 있다. 예를 들어, 전자 장치(101E)의 하우징(120E)의 적어도 일부는 전자 장치(101E)의 오른쪽 방향으로 연장될 수 있는 연장부(181E)를 포함할 수 있다. 예를 들어, 연장부(181E)는 디스플레이(160E)(예: 도 1의 디스플레이 모듈(160))와 독립적으로 움직일 수 있다. 이 경우, 하우징(120E)의 일부가 디스플레이(160E)에 비하여 상대적으로 연장부(181E)가 일 측면으로 이동될 수 있다. 다른 예를 들어, 연장부(181E)는 디스플레이(160E)와 함께 움직일 수 있다. 이 경우, 연장부(181E)가 디스플레이(160E)와 함께 하우징(120E)의 일 측면으로 이동됨으로써 디스플레이(160E)가 확장될 수 있다. 일 실시예에 따르면, 연장부(181E)는 카메라 모듈을 포함할 수 있다. 예를 들어, 카메라 모듈은 연장부(181E)의 이동에 따라서 회전하도록 설정될 수 있다.
일 실시예에 따르면, 전자 장치(101F)(예: 도 1의 전자 장치(101))는 좌우로 연장 및/또는 수축되는 연장부(181F)를 포함할 수 있다. 예를 들어, 전자 장치(101F)의 디스플레이(160F)(예: 도 1의 디스플레이 모듈(160))는 롤러블(rollable) 디스플레이일 수 있다. 예를 들어, 디스플레이(160F)의 적어도 일부는 롤링되어(rolled) 제1 하우징(121F) 내에 수납될 수 있다. 예를 들어, 디스플레이(160F)는 언롤(unroll)됨으로써 제1 하우징(121F)과 제2 하우징(122F) 사이에서 연장될 수 있다. 연장부(181F)는 디스플레이(160F)의 롤링되는 부분을 포함할 수 있다.
도 3에 도시된 전자 장치(예: 101D, 101E, 및 101F)의 물리적 형태 변화는 예시적인 것으로서, 본 문서의 실시예들이 이에 제한되는 것은 아니다. 예를 들어, 전자 장치는 임의의(any) 방향으로 연장되거나 수축될 수 있다.
도 4a 내지 도 4c는 일 실시예에 따른 화면 레이아웃 상태를 설명한다. 도 4a 내지 도 4b는 디스플레이의 폴딩 각도 및 회전 각도에 따른 화면 레이아웃 상태를 설명한다. 도 4c는 파지 상태에 따른 화면 레이아웃 상태를 설명한다. 도 4a 내지 도 4c에 도시된 전자 장치(401A, 401B, 401C, 401D, 401E, 401F, 401G, 401H, 401I, 및 401J)는 도 1의 전자 장치(101)와 동일하거나 유사한 구성요소를 포함할 수 있다.
본 문서에서, '화면 레이아웃 상태'는 복수의 애플리케이션들 및 복수의 애플리케이션 실행 화면이 표시될 복수의 디스플레이 영역들을 결정하기 위하여 이용될 수 있다. 화면 레이아웃 상태는 디스플레이의 폴딩 각도, 회전 각도, 거치 상태, 또는 파지 상태 중 적어도 하나에 기반할 수 있다. 추가적으로, 화면 레이아웃 상태는 슬라이딩 또는 롤링에 따른 디스플레이의 확장에 기반할 수 있다. 디스플레이의 폴딩, 슬라이딩, 및 롤링은 도 2 내지 도 3에서 설명된 예시에 기반할 수 있다. 도 4a 내지 도 4c에 도시된 화면 레이아웃 상태는 예시에 지나지 않으며, 다양한 형태의 화면 레이아웃 상태가 유사한 원리에 의하여 적용될 수 있다.
도 4a는 디스플레이가 하나의 축(A1)을 중심으로 폴딩될 수 있는 전자 장치의 화면 레이아웃 상태를 예시한다.
도 4a를 참조하면, 전자 장치는 디스플레이의 폴딩 각도에 기반하여 디스플레이를 복수의 영역들로 분할(split, divide)할 수 있다. 폴딩 각도는 전자 장치에 포함된 센서(예: 홀 센서, 지자기 센서, 또는 근접 센서 중 적어도 하나)에 기반하여 감지될 수 있다. 예를 들어, 전자 장치(401A)는 디스플레이가 언폴딩 된 것을 감지한 것에 응답하여 축(A1)(예: 도 2의 접힘부(191A))을 중심으로 디스플레이를 제1 영역(411A) 및 제2 영역(412A)으로 분할할 수 있다. 다른 예를 들어, 전자 장치(401B)는 디스플레이가 완전히 폴딩(예: 인-폴딩 또는 아웃-폴딩)된 것을 감지한 것에 응답하여 축(A1)과 수직한 다른 축(A2)을 중심으로 디스플레이를 제1 영역(411B) 및 제2 영역(412B)으로 분할할 수 있다. 다른 예를 들어, 전자 장치(401C)는 디스플레이가 부분적으로 폴딩(예: 인-폴딩 또는 아웃-폴딩)된 것을 감지한 것에 응답하여 축(A1)과 다른 축(A2)을 중심으로 디스플레이를 제1 영역(411C), 제2 영역(412C), 및 제3 영역(413C)으로 분할할 수 있다.
다른 실시예에서, 전자 장치는 디스플레이의 회전 각도에 기반하여 디스플레이를 다르게 분할할 수 있다. 회전 각도는 전자 장치에 포함된 가속 센서 또는 자이로 센서 중 적어도 하나에 기반하여 감지될 수 있다. 예를 들어, 디스플레이가 부분적으로 언폴딩된 때에, 전자 장치(401C)는 디스플레이의 회전 각도가 세로로 변경된 것을 감지한 것에 응답하여 디스플레이를 제1 영역(411C), 제2 영역(412C), 및 제3 영역(413C)으로 분할하고, 전자 장치(401D)는 디스플레이의 회전 각도가 가로로 변경된 것을 감지한 것에 응답하여 디스플레이를 제1 영역(411D) 및 제2 영역(412D)으로 분할할 수 있다.
도 4b는 디스플레이가 복수의 축들(예: B1, B2)을 중심으로 폴딩될 수 있는 전자 장치의 화면 레이아웃 상태를 예시한다.
도 4b를 참조하면, 전자 장치(401E)는 디스플레이가 언폴딩 된 것을 감지한 것에 응답하여 축들(B1, B2)(예: 도 2의 접힘부(192B, 193B))을 중심으로 디스플레이를 제1 영역(411E), 제2 영역(412E), 및 제3 영역(413E)으로 분할할 수 있다. 도 4b에는 도시되지 않았지만 다른 실시예에서 전자 장치(401E)는 도 4a의 전자 장치(401A)와 동일하게 디스플레이를 두 영역으로 분할할 수 있다. 다른 예를 들어, 전자 장치(401F)는 디스플레이가 축들(B1, B2)을 중심으로 부분적으로 폴딩(예: 인-폴딩)된 것을 감지한 것에 응답하여 제1 축(B1)과 제2 축(B2)을 중심으로 디스플레이를 제1 영역(411F), 제2 영역(412F), 및 제3 영역(413F)으로 분할할 수 있다. 다른 예를 들어, 전자 장치(401G)는 디스플레이가 제1 축(B1)을 중심으로 부분적으로 아웃-폴딩되고 제2 축(B2)으로는 언폴딩된 것을 감지한 것에 응답하여 제1 축(B1)을 중심으로 디스플레이를 분할할 수 있다. 이 경우, 전자 장치(401G)는 제1 영역(411G)을 하나의 영역으로, 제2 영역(412G) 및 제3 영역(413G)을 하나의 다른 영역으로 결정할 수 있다. 다른 예를 들어, 전자 장치(401H)는 디스플레이가 제1 축(B1)을 중심으로 부분적으로 아웃-폴딩되고 제2 축(B2)을 중심으로 부분적으로 인폴딩된 것을 감지한 것에 응답하여 제1 축(B1)과 제2 축(B2)을 중심으로 디스플레이를 제1 영역(411H), 제2 영역(412H), 및 제3 영역(413H)으로 분할할 수 있다.
도 4c는 파지 상태에 따른 화면 레이아웃 상태를 설명한다.
도 4c를 참조하면, 전자 장치는 전자 장치의 파지 상태를 감지할 수 있다. 예를 들어, 전자 장치(401I)는 전자 장치(401I)의 측면의 일부(예: 411H)에 실장된 센서(예: 근접 센서 또는 그립 센서)에 기반하여 전자 장치(401I)가 파지된 것으로 감지할 수 있다. 다른 실시예에서, 전자 장치(401I)는 자이로 센서, 가속도 센서, 또는 전자 장치(401I)의 움직임을 감지할 수 있는 다른 센서에 기반하여 장치(401I)가 파지된 것으로 감지할 수 있다. 다른 예를 들어, 전자 장치(401J)는 전자 장치(401J)가 파지 되지 않고 거치된 것(또는, 전자 장치가 테이블 위에 놓인 것)을 감지할 수 있다.
일 실시예에 따르면, 전자 장치는 감지된 화면 레이아웃 상태에 기반하여 전자 장치에서 실행될 서로 다른 복수의 애플리케이션을 결정할 수 있다. 화면 레이아웃 상태에 기반하여 결정되는 복수의 애플리케이션은 "애플리케이션 그룹"으로 참조될 수 있다. 전자 장치는 분할된 복수의 영역들 상에 결정된 복수의 애플리케이션의 실행 화면을 표시할 수 있다. 전자 장치는 화면 레이아웃 상태에 대응하는 애플리케이션 그룹을 분할된 디스플레이 영역들 상에 동시에 출력함으로써 사용자에게 적합한 멀티 태스킹 환경을 제공할 수 있다. 예를 들어, 도 4a의 전자 장치(401D)는 제1 영역(411D) 상에 문서 애플리케이션을 실행하고, 제2 영역(412D) 상에 가상 키보드 애플리케이션을 실행할 수 있다. 다른 예를 들어, 도 4b의 전자 장치(401G)와 같이 복수의 사용자가 서로 다른 디스플레이의 영역들(411G와, 412G 및 413G)을 이용하는 경우, 전자 장치(401G)는 제1 영역(411G) 상에 동영상 애플리케이션을 실행하고, 제2 영역(412G) 및 제3 영역(413G) 상에 e-북 애플리케이션을 실행할 수 있다. 다른 예를 들어, 도 4b의 전자 장치(401H)는 제2 영역(412H) 상에 동영상 애플리케이션을 실행하고, 제3 영역(413H) 상에 드로잉(drawing) 애플리케이션을 실행할 수 있다. 전자 장치(401H)는 제1 영역(411H) 상에서 애플리케이션을 실행하지 않음으로써 불필요한 전력 소모를 줄일 수 있다. 다른 예를 들어, 도 4c의 전자 장치(401J)는 파지 상태가 감지되지 않거나 또는 전자 장치(401J)의 움직임이 감지되지 않은 상태에서 전자 장치(401J)가 부분적으로 폴딩된 것을 감지한 것에 응답하여 음악 애플리케이션 및 조명 애플리케이션을 실행할 수 있다.
일 실시예에서, 애플리케이션 그룹은 화면 레이아웃 상태 이외에도 컨텍스트 정보, 애플리케이션의 사용 이력, 또는 사용자 설정에 더 기반하여 결정될 수 있다.
도 5는 일 실시예에 따라 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치의 동작 시나리오를 도시한다. 도 5는 전자 장치의 전반적인 동작 시나리오를 도시하는 것이며, 도시된 동작들 중 적어도 일부가 생략될 수 있다.
도 5를 참조하면, 동작 505에서 전자 장치(예: 도 1의 전자 장치(101))는 전자 장치의 컨텍스트 정보를 획득할 수 있다. 전자 장치는 지정된 주기 마다 컨텍스트 정보를 획득하거나 모니터링할 수 있다.
일 실시예에서, 컨텍스트 정보는 전자 장치와 외부 전자 장치 간 연결 상태 및 연결된 외부 전자 장치의 장치 타입을 포함할 수 있다. 예를 들어, 외부 전자 장치는 Wi-Fi나 근거리 무선 통신(예: 블루투스)를 통해 전자 장치와 연결될 수 있는 웨어러블 장치(예: 무선 이어폰, 스마트 워치, HMD(head mounted device)), AR 글라스(augmented-reality glass), 또는 스피커)나 차량(vehicle)을 포함할 수 있다. 다른 예를 들어, 외부 전자 장치는 전자 장치로부터 탈착 가능한 스타일러스 펜을 포함할 수 있다. 다른 예를 들어, 외부 전자 장치는 IoT(internet of things)를 통해 전자 장치와 연결 가능한 가전 장치(예: TV, 냉장고, 선풍기, 공기 청정기, 로봇 청소기, 또는 에어컨)를 포함할 수 있다.
일 실시예에서, 컨텍스트 정보는 전자 장치의 외부 환경 정보를 포함할 수 있다. 외부 환경 정보는 예를 들어, 날씨, 기온, 습도, 미세먼지, 또는 강수량 중 적어도 하나를 포함할 수 있다. 전자 장치는 전자 장치에 실장된 센서를 이용하여 외부 환경 정보를 획득하거나, 무선 통신 회로(예: 도 1의 무선 통신 모듈(192))를 통해 외부 서버로부터 외부 환경 정보를 획득할 수 있다.
일 실시예에서, 컨텍스트 정보는 전자 장치의 위치 정보 또는 시간 정보를 포함할 수 있다.
일 실시예에서, 컨텍스트 정보는 전자 장치의 사용자 계정에 대응하는 헬스 데이터를 포함할 수 있다. 헬스 데이터는 예를 들어, 외부 전자 장치(예: 스마트 워치)나 외부 서버를 통해 획득될 수 있다.
일 실시예에서, 컨텍스트 정보는 전자 장치에 의하여 인식된 사용자의 수에 기반할 수 있다. 예를 들어, 전자 장치는 복수의 디스플레이의 영역들 각각과 동일한 방향을 향하는 복수의 카메라를 이용하여 사용자 얼굴을 인식할 수 있다. 사용자 얼굴 인식 결과에 기반하여, 전자 장치는 복수의 디스플레이의 영역들에 대응하는 사용자의 수가 복수인지 여부를 결정할 수 있다.
일 실시예에서, 전자 장치는 동작 505를 생략하고 곧바로 동작 510을 수행할 수 있다.
동작 510에서, 전자 장치는 디스플레이의 화면 레이아웃 상태를 감지할 수 있다. 화면 레이아웃 상태는 폴딩 각도, 회전 각도, 거치 상태 또는 파지 상태 중 적어도 하나에 기반할 수 있다.
동작 515에서, 전자 장치는 애플리케이션 그룹 및 실행 화면이 표시될 복수의 영역들을 결정할 수 있다. 일 실시예에서, 전자 장치는 감지된 화면 레이아웃 상태에 기반하여 애플리케이션 그룹 및 실행 화면이 표시될 복수의 영역들을 결정할 수 있다. 동작 505가 수행되는 경우, 전자 장치는 컨텍스트 정보에 더 기반하여 애플리케이션 그룹 및 실행 화면이 표시될 복수의 영역들을 결정할 수 있다.
일 실시예에서, 전자 장치가 폴딩 됨으로 인하여 디스플레이가 다른 방향을 향하는 복수의 영역들(예: 도 4a의 제1 영역(411D) 및 제2 영역(412D)로 분할되는 경우, 전자 장치는 다른 방향을 향하는 각각의 영역들을 복수의 실행 화면 각각을 표시할 영역들로 결정할 수 있다. 다른 실시예에서, 전자 장치는 동일한 폴딩 각도에서도 거치 상태에 따라서 복수의 영역들의 활성화 및 비활성화를 결정할 수 있다. 예를 들어, 도 4의 전자 장치(401C 또는 401D)가 하우징을 기준으로 제1 영역(411C 또는 411D)의 반대 면에 배치되는 제3 영역(예: 도 2의 162A)을 더 포함하는 경우, 전자 장치가 전자 장치(401C)와 같이 세로 방향을 향하는 상태에서 거치 되면 제3 영역이 활성화되는 반면에 전자 장치가 전자 장치(401D)와 같이 가로 방향을 향하는 상태에서 거치되면 제3 영역은 사용자에게 보여질 필요가 없으므로 비활성화 될 수 있다.
일 실시예에서, 전자 장치는 화면 레이아웃 상태에 기반하여 복수의 영역들을 먼저 결정하고, 결정된 영역들의 수에 기반하여 애플리케이션 그룹을 결정할 수 있다. 예를 들어, 디스플레이가 세 개의 영역들로 분할되면, 전자 장치는 세 개의 애플리케이션들로 구성된 애플리케이션 그룹을 결정할 수 있다. 다른 예를 들어, 애플리케이션 그룹에 포함된 애플리케이션들의 수는 분할된 영역들의 수보다 적을 수 있다.
일 실시예에서, 전자 장치는 애플리케이션 그룹을 복수 개 결정할 수 있다. 이 경우, 전자 장치는 사용자 설정 또는 사용 이력에 기반하여 애플리케이션 그룹들의 우선 순위를 결정할 수 있다.
동작 520 내지 동작 550에서, 전자 장치는 애플리케이션 그룹 리스트를 나타내는 GUI(예: 도 6a의 610A)를 사용자에게 제공하고, GUI를 통해 애플리케이션을 실행하는 사용자 입력을 수신할 수 있다. GUI는 적어도 하나의 애플리케이션 그룹을 나타낼 수 있다. 추가적으로, GUI는 감지된 전자 장치의 화면 레이아웃 상태를 나타낼 수 있다.
동작 525에서, 전자 장치는 GUI를 디스플레이의 일부 영역 상에 표시할 수 있다. 일 실시예에 따르면, 전자 장치는 동작 520에서 GUI를 호출하는 사용자 입력을 수신한 것에 응답하여 GUI를 표시할 수 있다. 다른 실시예에서, 전자 장치는 사용자 입력 없이 GUI를 표시할 수 있다.
동작 550에서, 전자 장치는 GUI에 포함된 애플리케이션 그룹 리스트에서 하나의 애플리케이션 그룹을 선택하는 사용자 입력을 수신할 수 있다. 사용자 입력에 응답하여, 동작 570에서, 전자 장치는 복수의 애플리케이션 실행 화면을 복수의 영역 상에 표시할 수 있다.
일 실시예에 따르면, GUI는 애플리케이션 그룹을 생성 또는 편집할 수 있는 기능을 제공할 수 있다. 예를 들어, 전자 장치는 GUI에 대한 사용자 입력에 기반하여 애플리케이션 그룹 리스트 내에서 즐겨찾기(PIN) 그룹을 설정하거나(동작 530), 특정 애플리케이션 그룹을 편집하거나(동작 535), 또는 새로운 애플리케이션 그룹을 생성할 수 있다(동작540).
동작 560에서, 전자 장치는 기 지정된 애플리케이션 실행 이벤트를 감지할 수 있다. 예를 들어, 전자 장치는 동작 510에서 결정된 화면 레이아웃 상태에 대응하는 애플리케이션 실행 이벤트를 감지할 수 있다. 다른 예를 들어, 전자 장치는 화면 레이아웃 상태뿐만 아니라, 동작 505에서 획득된 컨텍스트 정보 또는 사용자에 의하여 미리 지정된 조건 중 적어도 하나에 더 기반하여 지정된 애플리케이션 실행 이벤트를 감지할 수 있다.
애플리케이션 실행 이벤트가 감지되면, 동작 570에서, 전자 장치는 GUI를 통한 사용자 입력 없이도 결정된 애플리케이션 그룹 및 복수의 영역들에 기반하여 복수의 애플리케이션 실행 화면을 복수의 영역들 상에 표시할 수 있다. 애플리케이션 실행 이벤트는 감지된 화면 레이아웃 상태 또는 컨텍스트 정보 중 적어도 하나에 기반할 수 있다. 예를 들어, 도 4a의 전자 장치(401D)는 디스플레이가 부분적으로 인-폴딩 되고, 가로 방향으로 향하며, 사용자에 의하여 파지 되지 않은 상태(또는 테이블 위에 놓인 상태)임을 감지할 수 있다. 감지된 화면 레이아웃 상태에서 스타일러스 펜(미도시)이 전자 장치(401D)로부터 탈착되거나 또는 전자 장치(401D)와 전기적으로 연결됨이 감지되면, 전자 장치(401D)는 추가적인 사용자 입력 없이도 제1 영역(411D) 상에 동영상 애플리케이션 또는 이미지 애플리케이션을 실행하고, 제2 영역(412D) 상에 드로잉 애플리케이션을 실행할 수 있다.
일 실시예에 따르면, 애플리케이션 실행 이벤트는 동작 545에서 사용자 입력에 기반하여 설정될 수 있다. 다른 실시예에서, 애플리케이션 실행 이벤트는 특정 화면 레이아웃 상태에서 실행된 복수의 애플리케이션의 사용 빈도에 기반하여 결정될 수 있다.
도 6a 내지 도 6d는 일 실시예에 따른 화면 레이아웃 상태에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 6a를 참조하면, 도 4a의 전자 장치(401B)와 같이 전자 장치(601)(예: 도 1의 전자 장치(101))의 디스플레이(660)의 회전 각도는 세로 방향이고 디스플레이(660)는 완전히 폴딩된 상태일 수 있다. 전자 장치(660)는 디스플레이(660)(예: 도 1의 디스플레이 모듈(160))의 일부 영역(예: 우측 또는 좌측 엣지 영역)으로부터 시작하는 사용자 입력(605A)(예: 스와이프 입력)을 수신할 수 있다.
사용자 입력(605A)에 응답하여, 전자 장치(601)는 애플리케이션 그룹 리스트(612A)를 나타내는 GUI(610A)를 디스플레이(660)의 일부 영역 상에 표시할 수 있다. 예를 들어, GUI(610A)는 스와이프 입력과 동일한 방향으로 디스플레이(660) 상에 나타날 수 있다. 추가적으로, GUI(610A)는 디스플레이(660)의 화면 레이아웃 상태를 나타내는 GUI(611A)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(601)는 디스플레이(660)의 화면 레이아웃 상태에 기반하여 결정된 제1 애플리케이션 그룹(예: 동영상 애플리케이션(App1) 및 채팅 애플리케이션(App2))을 애플리케이션 그룹 리스트(612A)의 최상단에 표시할 수 있다. 제1 애플리케이션 그룹은 화면 레이아웃 상태뿐만 아니라 컨텍스트 정보, 사용자 설정, 또는 사용 이력 중 적어도 하나에 더 기반하여 결정될 수 있다.
제1 애플리케이션 그룹을 선택하는 사용자 입력(615A)(예: 터치 입력)이 감지되면, 전자 장치(601)는 화면 레이아웃 상태에 기반하여 분할된 복수의 영역들(621A 및 622A) 상에 동영상 애플리케이션(App1) 및 채팅 애플리케이션(App2)의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(601)는 제1 애플리케이션 그룹에 포함된 애플리케이션들의 타입, 사용자 설정, 또는 사용 이력 중 적어도 하나에 기반하여 애플리케이션들의 실행 화면이 배치되는 영역의 위치를 결정할 수 있다. 예를 들어, 채팅 애플리케이션(App2)은 실시간으로 키보드 입력이 필요하므로, 전자 장치(601)는 채팅 애플리케이션(App2)의 실행 화면을 디스플레이(660)의 하단인 제2 영역(622A) 상에 표시할 수 있다.
도 6b를 참조하면, 도 4a의 전자 장치(401C)와 같이 전자 장치(601)의 디스플레이(660)의 회전 각도는 세로 방향이고 디스플레이(660)는 부분적으로 폴딩된 상태일 수 있다. 디스플레이(660)의 일부 영역으로부터 시작하는 사용자 입력(605B)을 수신한 것에 응답하여, 전자 장치(601)는 애플리케이션 그룹 리스트(612B)를 나타내는 GUI(610B)를 디스플레이(660)의 일부 영역 상에 표시할 수 있다. 다른 실시예에서, 전자 장치(601)는 사용자 입력(605B)을 수신하지 않고도 전자 장치(601)가 특정 각도로 폴딩(예: 언폴딩)이 완료된 것을 감지한 것에 응답하거나, 또는 전자 장치(601)가 특정 각도로 폴딩이 완료된 후 사용자 입력(605B)을 수신한 것에 응답하여 GUI(610B)를 표시할 수 있다. 추가적으로, GUI(610B)는 디스플레이(660)의 화면 레이아웃 상태를 나타내는 GUI(611B)를 포함할 수 있다. 전자 장치(601)는 디스플레이(660)의 화면 레이아웃 상태에 기반하여 결정된 제2 애플리케이션 그룹(예: 웹 브라우저(App3) 및 채팅 애플리케이션(App2))을 애플리케이션 그룹 리스트(612B)의 최상단에 표시할 수 있다. 제2 애플리케이션 그룹은 화면 레이아웃 상태뿐만 아니라 컨텍스트 정보, 사용자 설정, 또는 사용 이력 중 적어도 하나에 더 기반하여 결정될 수 있다. 제2 애플리케이션 그룹을 선택하는 사용자 입력(615B)이 감지되면, 전자 장치(601)는 화면 레이아웃 상태에 기반하여 분할된 복수의 영역들(621B 및 621B) 상에 웹 브라우저(App3) 및 채팅 애플리케이션(App2)의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(601)는 제2 애플리케이션 그룹에 포함된 애플리케이션들의 타입, 사용자 설정, 또는 사용 이력 중 적어도 하나에 기반하여 애플리케이션들의 실행 화면이 배치되는 영역의 위치를 결정할 수 있다. 예를 들어, 전자 장치(601)는 웹 브라우저(App3)의 실행 화면을 우선적으로 디스플레이(660)의 좌측인 제1 영역(621B) 상에 표시할 수 있다.
도 6c를 참조하면, 도 4a의 전자 장치(401D)와 같이 전자 장치(601)의 디스플레이(660)의 회전 각도는 가로 방향이고 디스플레이(660)는 부분적으로 폴딩된 상태일 수 있다. 디스플레이(660)의 일부 영역으로부터 시작하는 사용자 입력(605C)을 수신한 것에 응답하여, 전자 장치(601)는 애플리케이션 그룹 리스트(612C)를 나타내는 GUI(610C)를 디스플레이(660)의 일부 영역 상에 표시할 수 있다. 추가적으로, GUI(610C)는 디스플레이(660)의 화면 레이아웃 상태를 나타내는 GUI(611C)를 포함할 수 있다. 전자 장치(601)는 디스플레이(660)의 화면 레이아웃 상태에 기반하여 결정된 제3 애플리케이션 그룹(예: 동영상 애플리케이션(App3) 및 드로잉 애플리케이션(App4))을 애플리케이션 그룹 리스트(612C)의 최상단에 표시할 수 있다. 제3 애플리케이션 그룹은 화면 레이아웃 상태뿐만 아니라 컨텍스트 정보, 사용자 설정, 또는 사용 이력 중 적어도 하나에 더 기반하여 결정될 수 있다. 제3 애플리케이션 그룹을 선택하는 사용자 입력(615C)이 감지되면, 전자 장치(601)는 화면 레이아웃 상태에 기반하여 분할된 복수의 영역들(621C 및 621C) 상에 동영상 애플리케이션(App3) 및 드로잉 애플리케이션(App4)의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(601)는 제3 애플리케이션 그룹에 포함된 애플리케이션들의 타입, 사용자 설정, 또는 사용 이력 중 적어도 하나에 기반하여 애플리케이션들의 실행 화면이 배치되는 영역의 위치를 결정할 수 있다. 예를 들어, 드로잉 애플리케이션(App4)은 실시간으로 드로잉 입력이 필요하므로, 전자 장치(601)는 드로잉 애플리케이션(App4)의 실행 화면을 디스플레이(660)의 하단인 제2 영역(622C) 상에 표시할 수 있다.
도 6d를 참조하면, 도 4a의 전자 장치(401A)와 같이 전자 장치(601)의 디스플레이(660)의 회전 각도는 세로 방향이고 디스플레이(660)는 언폴딩된 상태일 수 있다. 디스플레이(660)의 일부 영역으로부터 시작하는 사용자 입력(605D)을 수신한 것에 응답하여, 전자 장치(601)는 애플리케이션 그룹 리스트(612D)를 나타내는 GUI(610D)를 디스플레이(660)의 일부 영역 상에 표시할 수 있다. 추가적으로, GUI(610D)는 디스플레이(660)의 화면 레이아웃 상태를 나타내는 GUI(611D)를 포함할 수 있다. 전자 장치(601)는 디스플레이(660)의 화면 레이아웃 상태에 기반하여 결정된 제4 애플리케이션 그룹(예: 웹 브라우저(App3), 화상 통화 애플리케이션(App5), 및 채팅 애플리케이션(App2))을 애플리케이션 그룹 리스트(612D)의 최상단에 표시할 수 있다. 제4 애플리케이션 그룹은 화면 레이아웃 상태뿐만 아니라 컨텍스트 정보, 사용자 설정, 또는 사용 이력 중 적어도 하나에 더 기반하여 결정될 수 있다. 제4 애플리케이션 그룹을 선택하는 사용자 입력(615D)이 감지되면, 전자 장치(601)는 화면 레이아웃 상태에 기반하여 분할된 복수의 영역들(621D, 622D, 및 623D) 상에 웹 브라우저(App3), 화상 통화 애플리케이션(App5), 및 채팅 애플리케이션(App2)의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(601)는 제4 애플리케이션 그룹에 포함된 애플리케이션들의 타입, 사용자 설정, 또는 사용 이력 중 적어도 하나에 기반하여 애플리케이션들의 실행 화면이 배치되는 영역의 위치를 결정할 수 있다. 예를 들어, 전자 장치(601)는 웹 브라우저(App3)를 우선적으로 디스플레이의 좌측인 제1 영역(621D) 상에 표시하고, 키보드 입력이 필요한 채팅 애플리케이션(App2)은 우측 영역의 하단인 제3 영역(623D) 상에 표시할 수 있다.
도 6a 내지 도 6d는 홈 화면이 표시된 상태에서 GUI를 호출하는 사용자 입력(605A, 605B, 605C, 605D)을 수신하는 실시예만을 도시하지만, 다른 실시예들에 따르면 전자 장치(601)는 디스플레이(660) 상에 잠금 화면이 표시되거나 또는 디스플레이(660)가 스크린 오프일 때 사용자 입력(605A, 605B, 605C, 605D)을 수신할 수 있다.
도 7a 내지 도 7c는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따라 복수의 애플리케이션 실행 화면을 출력하는 동작을 설명한다.
도 7a를 참조하면, 도 4a의 전자 장치(401C)와 같이 전자 장치(701)(예: 도 1의 전자 장치(101))의 디스플레이(760)(예: 도 1의 디스플레이 모듈(160))의 회전 각도는 세로 방향이고 디스플레이(760)는 부분적으로 폴딩된 상태일 수 있다. 전자 장치(701)는 전자 장치(701)의 위치 정보 또는 시간 정보 중 적어도 하나에 기반하여 복수의 영역들(711A 및 712A) 상에 표시되는 애플리케이션 그룹을 변경할 수 있다. 예를 들어, 전자 장치(701)가 사무실로 등록된 위치에 위치함이 감지되거나 또는 현재 시간이 업무 시간(예: 오전 9시 ~ 오후 6시)인 경우, 전자 장치(701)는 제1 영역(711A) 상에 웹 브라우저의 실행 화면을 표시하고, 제2 영역(712A) 상에 업무와 관련된 애플리케이션(예: 사내 메신저 애플리케이션 또는 메일 애플리케이션)의 실행 화면을 표시할 수 있다. 다른 예를 들어, 전자 장치(701)가 사무실 등록된 위치를 벗어남이 감지되거나 또는 현재 시간이 업무 시간 이외의 시간인 경우, 전자 장치(701)는 제2 영역(712A) 상에 사내 메신저 애플리케이션 대신 다른 애플리케이션(예: 채팅 애플리케이션)의 실행 화면을 표시할 수 있다.
도 7b를 참조하면, 도 4a의 전자 장치(401D)와 같이 디스플레이(760)의 회전 각도는 가로 방향이고 디스플레이(760)는 부분적으로 인-폴딩된 상태일 수 있다. 스타일러스 펜(750)이 전자 장치(701)로부터 탈착됨이 감지되거나 또는 스타일러스 펜(750)과 전자 장치(701) 간 연결이 감지되면, 전자 장치(701)는 제1 영역(711B) 상에 동영상 애플리케이션의 실행 화면을 표시하고, 제2 영역(712B) 상에 드로잉 애플리케이션의 실행 화면을 표시할 수 있다. 이 경우, 전자 장치(701)는 GUI(예: 도 6c의 610C)를 호출하는 사용자 입력(예: 도 6c의 605C) 및 애플리케이션 그룹을 선택하는 사용자 입력(예: 도 6c의 615C)을 수신하지 않아도 감지된 화면 레이아웃 상태 및 컨텍스트 정보에 기반하여 복수의 애플리케이션들의 실행 화면을 곧바로 출력할 수 있다.
도 7c를 참조하면, 전자 장치(701)의 디스플레이(760)의 회전 각도는 가로 방향이고 디스플레이(760)는 부분적으로 아웃-폴딩된 상태일 수 있다. 전자 장치(701)는 복수의 영역들(711C 및 712C)이 향하는 방향에서 복수의 사용자 얼굴이 인식되는지 여부에 기반하여 출력을 위한 디스플레이(760)의 영역을 결정할 수 있다. 예를 들어, 전자 장치(701)는 제1 영역(711C)이 향하는 방향과 동일한 방향에 배치된 제1 카메라(미도시)와 제2 영역(712C)이 향하는 방향과 동일한 방향에 배치된 제2 카메라(미도시)를 이용하여 사용자 얼굴 인식을 시도할 수 있다. 복수의 영역들(711C 및 712C)이 향하는 방향에서 각각 사용자 얼굴이 인식되면, 전자 장치(701)는 복수의 영역들(711C 및 712C) 상에 복수의 애플리케이션 실행 화면을 표시할 수 있다. 복수의 영역들(711C 및 712C)이 향하는 방향 중 하나의 방향(예: 제1 영역(711C)에 대응하는 방향)에서만 사용자 얼굴이 인식되면, 전자 장치(701)는 사용자 얼굴이 인식된 방향에 대응하는 영역(예: 제1 영역(711C)) 상에 애플리케이션의 실행 화면을 표시하고, 사용자 얼굴이 인식되지 않은 방향에 대응하는 영역(예: 제2 영역(712C))은 활성화하지 않을 수 있다.
도 8a 내지 도 8c는 일 실시예에 따른 화면 레이아웃 상태 및 컨텍스트 정보에 따른 애플리케이션 그룹을 포함하는 데이터 베이스를 도시한다. 전자 장치(예: 도 1의 101))의 프로세서(예: 도 1의 120) 또는 프로세서에 의하여 실행되는 애플리케이션(예: 도 1의 146)은 이하 설명되는 데이터 베이스를 메모리(예: 도 1의 130)에 저장하고, 감지된 화면 레이아웃 상태 및 컨텍스트 정보에 기반하여 복수의 애플리케이션 그룹을 결정할 수 있다. 도 8a 내지 도 8c에 도시된 데이터 베이스는 예시에 지나지 않는다.
도 8a는 도 4a와 같이 하나의 축을 중심으로 폴딩될 수 있는 전자 장치에 대한 데이터 베이스를 도시한다.
도 8a를 참조하면, 전자 장치는 제1 화면 레이아웃 상태(801)(예: 도 4a의 전자 장치(401D))를 감지할 수 있다. 전자 장치는 제1 화면 레이아웃 상태(801)에서 스타일러스 펜이 활성화(S Pen activated)되고, 미러 모니터(mirrored monitor) 기능이 활성화 되며, 전자 장치의 위치가 사무실(Office)임을 감지한 것에 응답하여 발표자 모드(presenter mode)로 동작할 수 있다. 이 경우, 전자 장치는 디스플레이의 제1 영역(1)(예: 도 2의 제2 디스플레이(162A)) 상에 발표 애플리케이션(예: MS powerpointTM)의 슬라이드 쇼(slide show) 실행 화면을 표시하고, 디스플레이의 제2 영역(2) 상에 발표 애플리케이션의 발표자 모드 실행 화면을 표시하며, 디스플레이의 제3 영역(3) 상에 메모 애플리케이션의 실행 화면을 표시할 수 있다. 발표자 모드와 동일한 조건에서 미러 모니터 기능이 활성화되지 않으면, 전자 장치는 인터뷰 모드(interview mode)로 동작하고, 디스플레이의 제1 영역(1), 제2 영역(2), 및 제3 영역(3) 상에 각각 문서 뷰어(viewer) 애플리케이션의 실행 화면, 영상 기록(movie record) 애플리케이션의 실행 화면, 및 받아쓰기(Text dictation) 애플리케이션의 실행 화면을 표시할 수 있다. 제1 화면 레이아웃 상태(801)에서 전자 장치가 사무실에 위치함을 나타내는 컨텍스트 정보만 획득되면, 전자 장치는 메신저 모드(messenger mode)로 동작하고, 디스플레이의 제1 영역(1)을 활성화하지 않을 수 있다. 전자 장치는 디스플레이의 제2 영역(2) 및 제3 영역(3) 상에 각각 메신저 애플리케이션의 실행 화면과 키보드(keyboard) 애플리케이션의 실행 화면을 표시할 수 있다.
다른 실시예에 따르면, 제2 화면 레이아웃 상태(802)(예: 도 4a의 전자 장치(401C))에서 전자 장치의 위치가 집에 해당하고, 블루투스 스피커가 연결되며, 주변 환경이 어두운 환경(dark environment)임을 감지한 것에 응답하여, 전자 장치는 주크박스 모드(juke box mode)로 동작할 수 있다. 이 경우, 전자 장치는 디스플레이의 제1 영역(1)(예: 도 2의 제2 디스플레이(162A)) 상에 무드 조명(mood lighting) 애플리케이션의 무드 조명 화면을 표시하고, 디스플레이의 제2 영역(2) 상에 무드 조명 애플리케이션의 설정(setting) 화면을 표시하며, 디스플레이의 제3 영역(3) 상에 음악 애플리케이션의 실행 화면을 표시할 수 있다. 다른 예를 들어 전자 장치는 주크박스 모드와 조건에서 가라오케 모드(karaoke mode)로 동작하고, 디스플레이의 특정 영역들(예: 2, 3)에 다른 애플리케이션(예: 가라오케 애플리케이션 및 오디오 녹음(audio recording) 애플리케이션)의 실행 화면을 표시할 수 있다. 주크 박스 모드와 가라오케 모드의 우선 순위는 사용자 설정 또는 사용 이력에 기반하여 결정될 수 있다. 주크박스 모드와 동일한 조건에서 주변 환경이 어두운 환경이 아니라면, 전자 장치는 독서 모드(reading mode)로 동작할 수 있다. 이 경우, 전자 장치는 디스플레이의 제1 영역(1)을 활성화하지 않고, 디스플레이의 제2 영역(2) 및 제3 영역(3) 상에 각각 e-북 애플리케이션 및 음악 애플리케이션의 실행 화면을 표시할 수 있다.
다른 실시예에 따르면, 제3 화면 레이아웃 상태(803)(예: 도 4a의 전자 장치(401D))에서 전자 장치의 위치가 집에 해당하고, 헬스 데이터를 통해 사용자의 취침 시간(time to sleep)이 감지되며, 방해 금지 모드(do not disturb, DND)가 활성화 됨을 감지한 것에 응답하여, 전자 장치는 알람 시계 모드(alarm clock mode)로 동작할 수 있다. 이 경우, 전자 장치는 디스플레이의 제1 영역(1) 상에 알람 시계 애플리케이션의 실행 화면을 표시하고, 디스플레이의 제2 영역(2) 상에 앰비언트 조명(ambient lighting)을 표시할 수 있다. 알람 시계 모드에서 취침 시간이 종료함이 감지되면, 전자 장치는 라디오 모드(radio mode)로 동작하고 디스플레이의 제1 영역(1) 및 제2 영역(2) 상에 각각 라디오 애플리케이션과 알람 애플리케이션의 실행 화면을 표시할 수 있다. 다른 예를 들어, 리마인더(reminder) 애플리케이션이 최근 사용된 이력이 있다면, 전자 장치는 랩업 모드(wrap mode)로 동작하고 디스플레이의 제1 영역(1) 상에 라디오 애플리케이션의 실행 화면 대신 리마인더 리스트를 표시할 수 있다.
도 8b는 도 4b와 같이 복수의 축들을 중심으로 폴딩될 수 있는 전자 장치에 대한 데이터 베이스를 도시한다.
도 8b를 참조하면, 제4 화면 레이아웃 상태(804)(예: 도 4b의 전자 장치(401H)는 제1 화면 레이아웃 상태(801)와 동일하거나 유사한 기능을 수행할 수 있으므로, 제1 화면 레이아웃 상태(801)와 동일한 컨텍스트 정보가 획득되면 전자 장치는 동일한 모드로 동작할 수 있다.
제5 화면 레이아웃 상태(805)는 제1 화면 레이아웃 상태(801) 및 제4 화면 레이아웃 상태(804) 보다 사용자 입력을 수신할 수 있는 영역이 넓기 때문에, 전자 장치는 디스플레이의 제2 영역(2) 상에 드로잉 애플리케이션, 피아노 애플리케이션, 또는 키보드 애플리케이션과 같이 많은 사용자 입력을 요구하는 애플리케이션의 실행 화면을 표시할 수 있다. 예를 들어 전자 장치는, 스타일러스 펜이 활성화되면 드로잉 모드로 동작하고, 스타일러스 펜이 활성화되지 않으면서 블루투스 이어 셋(ear set)이 연결되면 악기 모드(instrument)로 동작하며, 외부 전자 장치가 감지되지 않으면 메신저 모드로 동작할 수 있다.
제6 화면 레이아웃 상태(806)(예: 도 4b의 전자 장치(401G))에서 전자 장치는 서로 다른 디스플레이 영역들(1, 2)을 이용하여 복수의 사용자에게 서로 다른 콘텐츠를 제공할 수 있으므로 전자 장치는 듀오 모드로 동작할 수 있다. 전자 장치는 현재 실행중인(ongoing) 애플리케이션 또는 최근 이용된 애플리케이션에 기반하여 듀오 모드에서 서로 다른 애플리케이션 그룹을 복수의 사용자에게 제공할 수 있다.
도 8c는 슬라이딩 또는 롤링에 따라서 디스플레이가 확장될 수 있는 전자 장치에 대한 데이터 베이스를 도시한다.
도 8c를 참조하면, 전자 장치는 디스플레이가 확장된 상태에서 획득된 컨텍스트 정보, 사용자 설정, 또는 사용 이력 중 적어도 하나에 기반하여 제7 화면 레이아웃 상태(807) 또는 제8 화면 레이아웃 상태(808)를 감지할 수 있다. 전자 장치는 제7 화면 레이아웃 상태(807)에서 디스플레이를 제1 영역(1)과 제2 영역(2)으로 분할하고, 제8 화면 레이아웃 상태(808)에서 디스플레이를 제1 영역(1), 제2 영역(2), 및 제3 영역(3)으로 분할할 수 있다.
제7 화면 레이아웃 상태(807)에서 전자 장치는, 미러 모니터 기능이 활성화되면 듀오 브라우저 모드(duo browser mode)로 동작하고, 스타일러스 펜이 활성화되면 스터디 모드(study mode)로 동작하며, 전자 장치의 위치가 사무실임이 감지되면 메일 모드(mail mode)로 동작할 수 있다.
제8 화면 레이아웃 상태(808)에서 전자 장치는 기상 시간(woke up in the morning)을 감지할 수 있다. 전자 장치는 스타일러스 펜의 활성화 여부, 스케줄링된 작업(scheduled task)의 존재 여부, 및 블루투스 스피커의 연결 여부에 기반하여 일일 브리핑 모드(daily briefing mode), 플래너 모드(planner mode), 또는 아이디에이션 모드(ideation mode)로 동작할 수 있다.
도 9는 일 실시예에 따라 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치의 동작 흐름도(900)를 도시한다. 이하 서술되는 동작 흐름도의 동작들은 도 1의 전자 장치(101)에 포함된 구성 요소에 의하여 구현될 수 있다.
도 9를 참조하면, 동작 910에서, 전자 장치는 화면 레이아웃 상태를 감지할 수 있다. 화면 레이아웃 상태는 디스플레이의 폴딩 각도, 회전 각도, 파지 상태, 슬라이딩 또는 롤링 여부 중 적어도 하나에 기반하여 결정될 수 있다. 도 9에는 도시되지 않았으나, 전자 장치는 화면 레이아웃 상태에 더하여 컨텍스트 정보를 더 획득할 수 있다.
동작 920에서, 전자 장치는 실행을 위한 복수의 애플리케이션들을 결정할 수 있다. 전자 장치에서 동시에 실행되는 복수의 애플리케이션들은 '애플리케이션 그룹'으로 참조될 수 있다. 일 실시예에서, 전자 장치는 감지된 화면 레이아웃 상태에 기반하여 복수의 애플리케이션들을 결정할 수 있다. 또한, 전자 장치는 컨텍스트 정보에 더 기반하여 복수의 애플리케이션들을 결정할 수 있다.
동작 930에서, 전자 장치는 복수의 애플리케이션들이 표시될 복수의 영역들을 결정할 수 있다. 복수의 영역들은 감지된 화면 레이아웃 상태에 기반하여 결정될 수 있다. 일 실시예에 따르면, 전자 장치는 동작 920 및 동작 930을 동시에 수행할 수도 있고, 동작 930을 동작 920보다 먼저 수행할 수도 있다.
동작 940에서, 전자 장치는 결정된 복수의 애플리케이션들의 실행 화면을 결정된 복수의 영역들 상에 표시할 수 있다. 일 실시예에서, 전자 장치는 감지된 화면 레이아웃 상태, 컨텍스트 정보, 사용자 설정, 또는 사용 이력 중 적어도 하나에 기반하여, 복수의 영역들 중 복수의 애플리케이션들의 실행 화면이 표시될 위치를 결정할 수 있다.
도 10은 일 실시예에 따라 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치의 동작 흐름도(1000)를 도시한다.
도 10을 참조하면, 동작 1010 및 동작 1020은 도 9의 동작 910 내지 동작 930에 대응할 수 있다.
동작 1030에서, 전자 장치는 애플리케이션 실행 이벤트가 감지되는지를 확인할 수 있다(예: 도 5의 동작 560). 애플리케이션 실행 이벤트는 감지된 화면 레이아웃 상태, 컨텍스트 정보, 또는 사용자 설정 중 적어도 하나에 기반할 수 있다. 애플리케이션 실행 이벤트가 감지되면, 동작 1070에서, 전자 장치는 복수의 애플리케이션의 실행 화면을 복수의 영역들 상에 표시할 수 있다.
애플리케이션 실행 이벤트가 감지되지 않으면, 동작 1040에서, 전자 장치는 GUI를 호출하는 사용자 입력(예: 도 6a의 605A)이 수신되는지를 확인할 수 있다. GUI는 애플리케이션 그룹 리스트를 나타낼 수 있다. 추가적으로, GUI는 전자 장치의 화면 레이아웃 상태를 나타낼 수 있다. 추가적으로, GUI는 애플리케이션 그룹을 편집 또는 생성하는 기능을 제공할 수 있다. 사용자 입력이 수신되지 않으면, 동작 1050에서 전자 장치는 기존의 동작을 유지하고, 동작 1010 내지 동작 1030을 반복할 수 있다.
사용자 입력이 수신되면, 동작 1060에서, 전자 장치는 GUI를 표시하고, GUI를 통해 애플리케이션 그룹을 선택하는 사용자 입력(예: 도 6a의 615A)을 수신한 후, 동작 1070에서 복수의 애플리케이션의 실행 화면을 복수의 영역들 상에 표시할 수 있다.
도 11은 일 실시예에 따른 애플리케이션 그룹 리스트를 나타내는 GUI를 도시한다.
도 11을 참조하면, 애플리케이션 그룹 리스트를 나타내는 GUI는 화면 레이아웃 상태에 기반하여 다르게 표시될 수 있다. 예를 들어, 전자 장치의 디스플레이(1101A)가 실질적으로 정사각형이면, 전자 장치는 N X N(N은 자연수) 형태의 GUI(1110A)를 제공할 수 있다. 다른 예를 들어, 전자 장치는 디스플레이의 회전 각도가 세로 방향(1101B)이거나 또는 가로 방향(1101C)임을 감지한 것에 응답하여 세로 방향의 GUI(1110B) 또는 가로 방향의 GUI(1110C)를 출력할 수 있다.
일 실시예에 따르면, GUI(예: 1110A, 1110B, 또는 1110C)는 애플리케이션 그룹들(Group1, Group2, Group3)에 대한 리스트, 애플리케이션 그룹을 생성(create) 또는 편집(edit)하기 위한 기능, 및 애플리케이션 실행 이벤트를 설정하기 위한 기능을 제공할 수 있다.
도 12는 일 실시예에 따른 GUI를 편집하는 동작을 설명한다.
도 12를 참조하면, GUI(1201)를 호출하는 사용자 입력(예: 도 6a의 605A)를 수신한 것에 응답하여, 동작 1210에서 전자 장치는 GUI(1201)를 디스플레이 상에 표시할 수 있다. GUI(1201)는 즐겨찾기(PIN)로 설정된 애플리케이션 그룹(Group1)을 GUI(1201)의 좌측(또는 우측)에 포함할 수 있다. 전자 장치(예: 도 1의 전자 장치(101))는 즐겨찾기로 설정된 애플리케이션 그룹(Group1) 외에도 화면 레이아웃 상태, 컨텍스트 정보, 또는 사용 이력 중 적어도 하나에 기반하여 결정된 애플리케이션 그룹들(Group2, Group3)을 GUI(1201)을 통해 사용자에게 추천할 수 있다. GUI(1201)를 편집하는 사용자 입력(1205)이 수신되면, 동작 1220에서 전자 장치는 GUI(1021)의 편집 화면을 제공할 수 있다. GUI(1021)의 편집 화면에서 추천된 애플리케이션 그룹들 중 하나(예: Group3)를 선택하는 사용자 입력(1215)이 수신되면, 동작 1230에서 전자 장치는 선택된 애플리케이션 그룹(Group3)을 표시할 수 있다. GUI(1201)의 편집을 종료(done)하는 사용자 입력(1225)이 수신되면, 동작 1240에서 전자 장치는 선택된 애플리케이션 그룹(Group3)을 즐겨찾기로 설정할 수 있다.
도 13은 일 실시예에 따라 애플리케이션 그룹을 생성하는 동작을 설명한다. 도 13의 동작은 도 12의 GUI(1201)에서 애플리케이션 그룹을 생성(create)하는 사용자 입력에 기반하여 수행될 수 있다.
도 13을 참조하면, 동작 1310에서 전자 장치(예: 도 1의 전자 장치(101))는 디스플레이의 영역들(1311, 1312) 중 제1 영역(1311)에서 표시될 애플리케이션들(예: 1301)의 리스트를 표시하는 동안에 제2 영역(1312)을 비활성화할 수 있다. 활성화는 예를 들어, 디스플레이의 화면을 온(on)한 것을 의미할 수 있다. 비활성화는 예를 들어, 디스플레이의 화면을 오프(off)하거나, 또는 디밍(dimming) 효과를 적용한 것을 의미할 수 있다.
제1 영역(1311)에 표시될 애플리케이션 리스트에서 하나의 애플리케이션(App1)을 선택하는 사용자 입력(1305)이 감지되면, 동작 1320에서 전자 장치는 제1 영역(1311)을 비활성화하고 제2 영역(1312)에서 표시될 애플리케이션들(예: 1302)의 리스트를 표시할 수 있다.
제2 영역(1312)에 표시될 애플리케이션 리스트에서 하나의 애플리케이션을 선택(App2)하는 사용자 입력(1315)이 감지되면, 동작 1330에서 전자 장치는 각 영역들(1311, 1312)에서 선택된 애플리케이션들(App1, App2)의 실행 화면을 디스플레이의 영역들(1311, 1312) 상에 표시할 수 있다.
도 14는 일 실시예에 따라 애플리케이션 그룹을 편집하는 동작을 설명한다. 도 14의 동작은 도 12의 GUI(1201)에서 애플리케이션 그룹의 편집을 요청하는 사용자 입력(예: 동작 1220에서 애플리케이션 그룹(Group1)을 선택하는 입력)에 기반하여 수행될 수 있다.
도 14를 참조하면, 동작 1410에서 전자 장치(예: 도 1의 전자 장치(101))는 디스플레이의 제1 영역(1411) 및 제2 영역(1412)을 비활성화하고, 제1 영역(1411)에 대응하는 애플리케이션(App1)의 편집 창(1401)을 제1 영역(1411) 상에 표시할 수 있다.
편집 창(1401)에서 애플리케이션의 교체(replace)를 선택하는 사용자 입력(1405)이 감지되면, 동작 1420에서 전자 장치는 도 13의 동작 1310과 동일하게 제1 영역(1411)에 표시될 애플리케이션들(예: 1406)의 리스트를 표시할 수 있다.
제1 영역(1411)에서 표시될 하나의 애플리케이션을 선택하는 사용자 입력(1415)이 감지되면, 동작 1430에서 전자 장치는 제1 영역(1411) 및 제2 영역(1412)을 비활성화하고, 제2 영역(1412)에 대응하는 애플리케이션(App2)의 편집 창(1402)을 제1 영역(1412) 상에 표시할 수 있다.
편집 창(1402)에서 애플리케이션의 유지(keep)를 선택하는 사용자 입력(1425)이 감지되면, 동작 1440에서 전자 장치는 편집된 애플리케이션들(App1, App2)의 실행 화면을 디스플레이의 영역들(1411, 1412) 상에 표시할 수 있다.
도 15는 일 실시예에 따라 디스플레이의 영역을 분할하는 동작을 설명한다.
도 15를 참조하면, 동작 1510 내지 1520은 도 13과 같이 애플리케이션 그룹을 생성하는 동작에서 수행될 수 있다. 제1 영역(1511)에 표시될 애플리케이션을 선택하기 위한 화면(예: 도 13의 동작 1310)에서, 전자 장치는 제1 영역(1511)의 분할(split)을 요청하는 사용자 입력(1505)을 수신할 수 있다. 사용자 입력(1505)에 응답하여, 동작 1520에서 전자 장치는 제1 영역(1511)을 복수의 서브 영역들(1511A, 1511B)로 분할할 수 있다. 이 경우, 전자 장치는 제1 서브 영역(1511A)에서 표시될 애플리케이션을 선택하기 위하여 제1 서브 영역(1511A)은 활성화하고 제2 서브 영역(1512A)은 활성화하지 않을 수 있다. 제1 영역(1511)의 분할을 취소(cancel)을 요청하는 사용자 입력(1515)이 수신되면, 전자 장치는 다시 동작 1510의 화면을 표시할 수 있다.
동작 1530 내지 1540은 도 14와 같이 애플리케이션 그룹을 편집하는 동작에서 수행될 수 있다. 제1 영역(1511)에 대응하는 애플리케이션(App1)을 편집하기 위한 화면(예: 도 14의 동작 1410)에서, 전자 장치는 제1 영역(1511)의 분할을 요청하는 사용자 입력(1525)을 수신하고, 동작 1540에서 제1 영역(1511)을 복수의 서브 영역들(1511A, 1511B)로 분할할 수 있다. 제1 영역(1511)의 분할을 취소을 요청하는 사용자 입력(1535)이 수신되면, 전자 장치는 다시 동작 1530의 화면을 표시할 수 있다.
도 16은 일 실시예에 따라 애플리케이션 실행 이벤트를 설정하는 동작을 설명한다.
도 16을 참조하면, GUI(1601)에서 애플리케이션 실행 이벤트의 설정을 요청하는 사용자 입력(1605)에 응답하여, 전자 장치(예: 도 1의 전자 장치(101))는 애플리케이션 실행 이벤트의 설정을 위한 GUI(1602)를 표시할 수 있다. GUI(1602)는 예를 들어, 즐겨찾기로 설정된 애플리케이션 그룹들(Group1, Group3)의 애플리케이션 실행 이벤트(예: Trigger 2, Not assigned)를 나타낼 수 있다. 애플리케이션 그룹들(Group1, Group3)의 실행 이벤트 설정을 요청하는 사용자 입력(1615 또는 1625)에 응답하여, 전자 장치는 선택된 애플리케이션 그룹의 애플리케이션 실행 이벤트 설정을 위한 GUI(1603 또는 1604)를 표시할 수 있다. 전자 장치는 사용자 입력에 따라서 애플리케이션 그룹의 애플리케이션 실행 이벤트를 지정된 조건(예: Trigger 2)으로 설정하거나, 또는 설정하지 않을 수 있다(None).
상술한 바와 같이, 본 문서에 개시되는 전자 장치(예: 도 1의 101)는, 지정된 각도로 폴딩(folding)될 수 있는 디스플레이(예: 도 1의 디스플레이 모듈(160)), 상기 디스플레이와 작동적으로 연결된 프로세서(예: 도 1의 120), 및 상기 프로세서와 작동적으로 연결되는 메모리(예: 도 1의 130)를 포함하고, 상기 메모리는, 실행 시, 상기 프로세서가, 상기 디스플레이의 화면 레이아웃 상태를 감지하고, 상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하고, 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하고, 및 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하도록 하는, 인스트럭션들을 저장할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 상기 디스플레이의 폴딩 각도, 회전 각도, 거치 상태, 또는 파지 상태 중 적어도 하나에 기반하여 상기 화면 레이아웃 상태를 감지하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 상기 전자 장치의 컨텍스트 정보를 획득하고, 상기 감지된 화면 레이아웃 상태 및 상기 획득된 컨텍스트 정보에 기반하여, 실행을 위한 상기 복수의 애플리케이션들을 결정하도록 할 수 있다.
일 실시예에 따르면, 상기 컨텍스트 정보는, 상기 전자 장치와 외부 전자 장치 간 연결 상태, 상기 외부 전자 장치의 장치 타입, 상기 전자 장치의 외부 환경 정보, 상기 전자 장치에서 실행 중인 애플리케이션, 상기 전자 장치의 위치 정보, 시간 정보, 또는 상기 전자 장치의 사용자 계정에 대응하는 헬스 데이터 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 상기 디스플레이의 제1 영역과 동일한 방향을 향하도록 배치되는 제1 카메라 및 상기 디스플레이의 제2 영역과 동일한 방향을 향하도록 배치되는 제2 카메라를 더 포함하고, 상기 인스트럭션들은 상기 프로세서가, 상기 제1 카메라 및 상기 제2 카메라를 통해 서로 다른 복수의 사용자 얼굴을 인식하고, 상기 복수의 사용자 얼굴이 인식된 것에 더 기반하여, 상기 실행을 위한 복수의 애플리케이션들을 결정하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 복수의 애플리케이션들의 실행 화면 표시와 관련된 이벤트가 감지되는지를 확인하고, 상기 이벤트가 감지되면, 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하고, 및 상기 이벤트가 감지되지 않으면, 기존의 화면을 유지하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 상기 이벤트가 감지되지 않고, 애플리케이션 그룹 리스트를 나타내는 GUI(graphic user interface)를 호출하는 제1 사용자 입력을 수신한 것에 응답하여, 상기 GUI를 상기 디스플레이를 통해 표시하고, 상기 애플리케이션 그룹 리스트에서 하나의 애플리케이션 그룹을 선택하는 제2 사용자 입력을 수신한 것에 응답하여, 상기 선택된 애플리케이션 그룹에 대응하는 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 새로운 애플리케이션 그룹을 생성하는 제3 사용자 입력을 수신한 것에 응답하여, 상기 복수의 영역들 중 제1 영역의 화면을 표시하고, 상기 복수의 영역들 중 상기 제1 영역을 제외한 제2 영역에 디밍(dimming)을 적용하고, 상기 제1 영역에 포함된 복수의 애플리케이션들 중 하나를 선택하는 제4 사용자 입력을 수신한 것에 응답하여, 상기 제2 영역의 화면을 표시하고, 상기 제1 영역에 디밍을 적용하고, 및 상기 제2 영역에 포함된 복수의 애플리케이션들 중 하나를 선택하는 제5 사용자 입력을 수신한 것에 응답하여, 상기 제4 사용자 입력에 의해 선택된 애플리케이션의 실행 화면을 상기 제1 영역 상에 표시하고, 상기 제5 사용자 입력에 의해 선택된 애플리케이션의 실행 화면을 상기 제2 영역 상에 표시하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 상기 제4 사용자 입력에 의해 선택된 애플리케이션과 상기 제5 사용자 입력에 의해 선택된 애플리케이션을 상기 감지된 화면 레이아웃 상태에 대응하는 새로운 애플리케이션 그룹으로 생성하도록 할 수 있다.
일 실시예에 따르면, 상기 인스트럭션들은 상기 프로세서가, 상기 제1 영역의 화면이 표시되고, 상기 제2 영역의 화면에 디밍이 적용되는 동안에 상기 제1 영역의 화면을 분할하는 제6 사용자 입력을 수신한 것에 응답하여, 상기 제1 영역을 제1 서브 영역 및 제2 서브 영역으로 분할하도록 할 수 있다.
상술한 바와 같이, 본 문서에 개시되는 전자 장치의 방법은, 상기 전자 장치의 디스플레이의 화면 레이아웃 상태를 감지하는 동작, 상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하는 동작, 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하는 동작, 및 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 화면 레이아웃 상태를 감지하는 동작은, 상기 디스플레이의 폴딩 각도를 감지하는 동작, 상기 디스플레이의 회전 각도를 감지하는 동작, 또는 상기 전자 장치의 거치 상태나 파지 상태를 감지하는 동작 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 전자 장치의 컨텍스트 정보를 획득하는 동작을 더 포함하고, 상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작은, 상기 화면 레이아웃 상태 및 상기 컨텍스트 정보에 기반하여 상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 컨텍스트 정보는, 상기 전자 장치와 외부 전자 장치 간 연결 상태, 상기 외부 전자 장치의 장치 타입, 상기 전자 장치의 외부 환경 정보, 상기 전자 장치에서 실행 중인 애플리케이션, 상기 전자 장치의 위치 정보, 시간 정보, 또는 상기 전자 장치의 사용자 계정에 대응하는 헬스 데이터 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 전자 장치의 복수의 카메라를 이용하여 서로 다른 복수의 사용자 얼굴은 인식하는 동작을 더 포함하고, 상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작은, 상기 화면 레이아웃 상태 및 상기 복수의 사용자 얼굴이 인식된 것에 기반하여 상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 감지된 화면 레이아웃 상태에 기반하여, 상기 복수의 애플리케이션들의 실행 화면 표시와 관련된 이벤트가 감지되는지를 확인하는 동작을 더 포함하고, 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작은, 상기 이벤트가 감지되면, 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 이벤트가 감지되지 않고, 애플리케이션 그룹 리스트를 나타내는 GUI(graphic user interface)를 호출하는 제1 사용자 입력을 수신한 것에 응답하여, 상기 GUI를 상기 디스플레이를 통해 표시하는 동작을 더 포함하고, 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작은, 상기 애플리케이션 그룹 리스트에서 하나의 애플리케이션 그룹을 선택하는 제2 사용자 입력을 수신한 것에 응답하여, 상기 선택된 애플리케이션 그룹에 대응하는 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 새로운 애플리케이션 그룹을 생성하는 제3 사용자 입력을 수신한 것에 응답하여, 상기 복수의 영역들 중 제1 영역의 화면을 표시하고, 상기 복수의 영역들 중 상기 제1 영역을 제외한 제2 영역에 디밍(dimming)을 적용하는 동작, 상기 제1 영역에 포함된 복수의 애플리케이션들 중 하나를 선택하는 제4 사용자 입력을 수신한 것에 응답하여, 상기 제2 영역의 화면을 표시하고, 상기 제1 영역에 디밍을 적용하는 동작, 및 상기 제2 영역에 포함된 복수의 애플리케이션들 중 하나를 선택하는 제5 사용자 입력을 수신한 것에 응답하여, 상기 제4 사용자 입력에 의해 선택된 애플리케이션의 실행 화면을 상기 제1 영역 상에 표시하고, 상기 제5 사용자 입력에 의해 선택된 애플리케이션의 실행 화면을 상기 제2 영역 상에 표시하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 제4 사용자 입력에 의해 선택된 애플리케이션과 상기 제5 사용자 입력에 의해 선택된 애플리케이션을 상기 감지된 화면 레이아웃 상태에 대응하는 새로운 애플리케이션 그룹으로 생성하는 동작을 더 포함할 수 있다.
일 실시예에 따르면, 상기 방법은 상기 제1 영역의 화면이 표시되고, 상기 제2 영역의 화면에 디밍이 적용되는 동안에 상기 제1 영역의 화면을 분할하는 제6 사용자 입력을 수신한 것에 응답하여, 상기 제1 영역을 제1 서브 영역 및 제2 서브 영역으로 분할하는 동작을 더 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    지정된 각도로 폴딩(folding)될 수 있는 디스플레이;
    상기 디스플레이와 작동적으로 연결된 프로세서; 및
    상기 프로세서와 작동적으로 연결되는 메모리를 포함하고, 상기 메모리는, 실행 시, 상기 프로세서가,
    상기 디스플레이의 화면 레이아웃 상태를 감지하고,
    상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하고,
    상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하고, 및
    상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하도록 하는, 인스트럭션들을 저장하는, 전자 장치.
  2. 청구항 1에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 디스플레이의 폴딩 각도, 회전 각도, 거치 상태, 또는 파지 상태 중 적어도 하나에 기반하여 상기 화면 레이아웃 상태를 감지하도록 하는, 전자 장치.
  3. 청구항 1에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 전자 장치의 컨텍스트 정보를 획득하고,
    상기 감지된 화면 레이아웃 상태 및 상기 획득된 컨텍스트 정보에 기반하여, 실행을 위한 상기 복수의 애플리케이션들을 결정하도록 하는, 전자 장치.
  4. 청구항 3에 있어서, 상기 컨텍스트 정보는,
    상기 전자 장치와 외부 전자 장치 간 연결 상태, 상기 외부 전자 장치의 장치 타입, 상기 전자 장치의 외부 환경 정보, 상기 전자 장치에서 실행 중인 애플리케이션, 상기 전자 장치의 위치 정보, 시간 정보, 또는 상기 전자 장치의 사용자 계정에 대응하는 헬스 데이터 중 적어도 하나를 포함하는, 전자 장치.
  5. 청구항 1에 있어서, 상기 디스플레이의 제1 영역과 동일한 방향을 향하도록 배치되는 제1 카메라 및 상기 디스플레이의 제2 영역과 동일한 방향을 향하도록 배치되는 제2 카메라를 더 포함하고,
    상기 인스트럭션들은 상기 프로세서가,
    상기 제1 카메라 및 상기 제2 카메라를 통해 서로 다른 복수의 사용자 얼굴을 인식하고,
    상기 복수의 사용자 얼굴이 인식된 것에 더 기반하여, 상기 실행을 위한 복수의 애플리케이션들을 결정하도록 하는, 전자 장치.
  6. 청구항 1에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 감지된 화면 레이아웃 상태에 기반하여, 상기 복수의 애플리케이션들의 실행 화면 표시와 관련된 이벤트가 감지되는지를 확인하고,
    상기 이벤트가 감지되면, 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하고, 및
    상기 이벤트가 감지되지 않으면, 기존의 화면을 유지하도록 하는, 전자 장치.
  7. 청구항 6에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 이벤트가 감지되지 않고, 애플리케이션 그룹 리스트를 나타내는 GUI(graphic user interface)를 호출하는 제1 사용자 입력을 수신한 것에 응답하여, 상기 GUI를 상기 디스플레이를 통해 표시하고,
    상기 애플리케이션 그룹 리스트에서 하나의 애플리케이션 그룹을 선택하는 제2 사용자 입력을 수신한 것에 응답하여, 상기 선택된 애플리케이션 그룹에 대응하는 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하도록 하는, 전자 장치.
  8. 청구항 7에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    새로운 애플리케이션 그룹을 생성하는 제3 사용자 입력을 수신한 것에 응답하여, 상기 복수의 영역들 중 제1 영역의 화면을 표시하고, 상기 복수의 영역들 중 상기 제1 영역을 제외한 제2 영역에 디밍(dimming)을 적용하고,
    상기 제1 영역에 포함된 복수의 애플리케이션들 중 하나를 선택하는 제4 사용자 입력을 수신한 것에 응답하여, 상기 제2 영역의 화면을 표시하고, 상기 제1 영역에 디밍을 적용하고, 및
    상기 제2 영역에 포함된 복수의 애플리케이션들 중 하나를 선택하는 제5 사용자 입력을 수신한 것에 응답하여, 상기 제4 사용자 입력에 의해 선택된 애플리케이션의 실행 화면을 상기 제1 영역 상에 표시하고, 상기 제5 사용자 입력에 의해 선택된 애플리케이션의 실행 화면을 상기 제2 영역 상에 표시하도록 하는, 전자 장치.
  9. 청구항 8에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 제4 사용자 입력에 의해 선택된 애플리케이션과 상기 제5 사용자 입력에 의해 선택된 애플리케이션을 상기 감지된 화면 레이아웃 상태에 대응하는 새로운 애플리케이션 그룹으로 생성하도록 하는, 전자 장치.
  10. 청구항 8에 있어서, 상기 인스트럭션들은 상기 프로세서가,
    상기 제1 영역의 화면이 표시되고, 상기 제2 영역의 화면에 디밍이 적용되는 동안에 상기 제1 영역의 화면을 분할하는 제6 사용자 입력을 수신한 것에 응답하여, 상기 제1 영역을 제1 서브 영역 및 제2 서브 영역으로 분할하도록 하는, 전자 장치.
  11. 전자 장치의 방법에 있어서,
    상기 전자 장치의 디스플레이의 화면 레이아웃 상태를 감지하는 동작;
    상기 감지된 화면 레이아웃 상태에 기반하여, 실행을 위한 복수의 애플리케이션들을 결정하는 동작;
    상기 감지된 화면 레이아웃 상태에 기반하여, 상기 디스플레이 중에서 상기 결정된 복수의 애플리케이션들이 표시될 복수의 영역들을 결정하는 동작; 및
    상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작을 포함하는, 방법.
  12. 청구항 11에 있어서, 상기 화면 레이아웃 상태를 감지하는 동작은,
    상기 디스플레이의 폴딩 각도를 감지하는 동작;
    상기 디스플레이의 회전 각도를 감지하는 동작; 또는
    상기 전자 장치의 거치 상태나 파지 상태를 감지하는 동작 중 적어도 하나를 포함하는, 방법.
  13. 청구항 11에 있어서,
    상기 전자 장치의 컨텍스트 정보를 획득하는 동작을 더 포함하고,
    상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작은,
    상기 화면 레이아웃 상태 및 상기 컨텍스트 정보에 기반하여 상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작을 포함하는, 방법.
  14. 청구항 11에 있어서,
    상기 전자 장치의 복수의 카메라를 이용하여 서로 다른 복수의 사용자 얼굴은 인식하는 동작을 더 포함하고,
    상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작은,
    상기 화면 레이아웃 상태 및 상기 복수의 사용자 얼굴이 인식된 것에 기반하여 상기 실행을 위한 복수의 애플리케이션들을 결정하는 동작을 포함하는, 방법.
  15. 청구항 11에 있어서,
    상기 감지된 화면 레이아웃 상태에 기반하여, 상기 복수의 애플리케이션들의 실행 화면 표시와 관련된 이벤트가 감지되는지를 확인하는 동작을 더 포함하고,
    상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작은, 상기 이벤트가 감지되면, 상기 복수의 애플리케이션들의 실행 화면을 상기 복수의 영역들 상에 표시하는 동작을 포함하는, 방법.
PCT/KR2021/011517 2020-09-02 2021-08-27 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법 WO2022050639A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/116,654 US20230205555A1 (en) 2020-09-02 2023-03-02 Electronic device for displaying plurality of application execution screens, and method related thereto

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020200111439A KR20220029904A (ko) 2020-09-02 2020-09-02 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법
KR10-2020-0111439 2020-09-02

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/116,654 Continuation US20230205555A1 (en) 2020-09-02 2023-03-02 Electronic device for displaying plurality of application execution screens, and method related thereto

Publications (1)

Publication Number Publication Date
WO2022050639A1 true WO2022050639A1 (ko) 2022-03-10

Family

ID=80491186

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/011517 WO2022050639A1 (ko) 2020-09-02 2021-08-27 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법

Country Status (3)

Country Link
US (1) US20230205555A1 (ko)
KR (1) KR20220029904A (ko)
WO (1) WO2022050639A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218824A1 (en) * 2022-05-10 2023-11-16 Sony Group Corporation Information processing apparatus, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140124274A (ko) * 2013-04-16 2014-10-24 엘지전자 주식회사 단말기 및 그것의 제어방법
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
KR20190102479A (ko) * 2018-02-26 2019-09-04 엘지전자 주식회사 이동단말기 및 그 제어 방법
KR20190124189A (ko) * 2014-02-10 2019-11-04 삼성전자주식회사 사용자 단말 장치 및 이의 디스플레이 방법
KR20200014878A (ko) * 2014-05-23 2020-02-11 삼성전자주식회사 폴더블 디바이스 및 그 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140124274A (ko) * 2013-04-16 2014-10-24 엘지전자 주식회사 단말기 및 그것의 제어방법
KR20190124189A (ko) * 2014-02-10 2019-11-04 삼성전자주식회사 사용자 단말 장치 및 이의 디스플레이 방법
KR20200014878A (ko) * 2014-05-23 2020-02-11 삼성전자주식회사 폴더블 디바이스 및 그 제어 방법
KR20160108705A (ko) * 2015-03-05 2016-09-20 삼성디스플레이 주식회사 표시 장치
KR20190102479A (ko) * 2018-02-26 2019-09-04 엘지전자 주식회사 이동단말기 및 그 제어 방법

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023218824A1 (en) * 2022-05-10 2023-11-16 Sony Group Corporation Information processing apparatus, information processing method, and program

Also Published As

Publication number Publication date
US20230205555A1 (en) 2023-06-29
KR20220029904A (ko) 2022-03-10

Similar Documents

Publication Publication Date Title
WO2021075907A1 (en) Foldable electronic device having dustproof structure
WO2022097980A1 (ko) 플렉서블 디스플레이를 제어하는 방법 및 전자 장치
WO2022060041A1 (ko) 콘텐트를 생성하기 위한 폴더블 전자 장치 및 그의 동작 방법
WO2022014988A1 (ko) 전자 장치 및 전력 제어 방법
WO2022055322A1 (ko) 폴더블 전자 장치의 디스플레이 화면 제어 방법 및 그 폴더블 전자 장치
WO2022050639A1 (ko) 복수의 애플리케이션 실행 화면을 표시하기 위한 전자 장치 및 그에 관한 방법
WO2022196924A1 (ko) 복수의 주사율들에 기반하여 컨텐트를 표시하는 전자 장치 및 그 동작 방법
WO2022211307A1 (ko) 올웨이즈 온 디스플레이 컨텐트를 표시를 지원하는 전자 장치 및 이의 제어 방법
WO2022098169A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2022114509A1 (ko) 플렉서블 디스플레이의 확장에 따라 변경된 가시도를 가지는 화면을 제공하는 전자 장치 및 그 제어 방법
WO2022080990A1 (ko) 전자 장치 및 그의 형태에 기초한 기능 제어 방법
WO2024049270A1 (ko) 슬라이더블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2022139504A1 (ko) 롤러블 전자 장치
WO2024063564A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 동작 방법
WO2022103040A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치와 이의 동작 방법
WO2022119118A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 화면 제어 방법
WO2022119320A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법
WO2024034774A1 (ko) 복수의 디스플레이들을 포함하는 전자 장치 및 복수의 디스플레이들의 화질 편차를 줄이는 방법
WO2023096170A1 (ko) 전자 장치 및 전자 장치에서 컨텍스트 정보에 기반한 디스플레이 모드 정보 표시 방법
WO2022098127A1 (ko) 플렉서블 디스플레이 제어 방법 및 이를 지원하는 전자 장치
WO2024135877A1 (ko) 복수의 시각적 객체들 중 시각적 객체를 식별하기 위한 전자 장치 및 방법
WO2022092772A1 (ko) 알림 뷰를 제공하는 전자 장치 및 이의 제어 방법
WO2024080553A1 (ko) 전자 장치 및 그 동작 방법
WO2022119115A1 (ko) 마이크를 포함하는 전자 장치 및 그 제어 방법
WO2022119215A1 (ko) 플렉서블 디스플레이의 확장 및/또는 축소에 따라서 화면의 표시를 제어하는 전자 장치 및 그 제어 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21864599

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21864599

Country of ref document: EP

Kind code of ref document: A1