WO2022031051A1 - 캡쳐 기능 제공 방법 및 그 전자 장치 - Google Patents

캡쳐 기능 제공 방법 및 그 전자 장치 Download PDF

Info

Publication number
WO2022031051A1
WO2022031051A1 PCT/KR2021/010289 KR2021010289W WO2022031051A1 WO 2022031051 A1 WO2022031051 A1 WO 2022031051A1 KR 2021010289 W KR2021010289 W KR 2021010289W WO 2022031051 A1 WO2022031051 A1 WO 2022031051A1
Authority
WO
WIPO (PCT)
Prior art keywords
window
electronic device
capture
interaction
screen
Prior art date
Application number
PCT/KR2021/010289
Other languages
English (en)
French (fr)
Inventor
정인형
권방현
권현웅
김상헌
임연욱
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Priority to CN202180057287.XA priority Critical patent/CN116075853A/zh
Priority to EP21853639.9A priority patent/EP4177832A4/en
Publication of WO2022031051A1 publication Critical patent/WO2022031051A1/ko
Priority to US18/162,266 priority patent/US20230185442A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1624Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1662Details related to the integrated keyboard
    • G06F1/1671Special purpose buttons or auxiliary keyboards, e.g. retractable mini keypads, keypads or buttons that remain accessible at closed laptop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • Various embodiments of the present disclosure disclose an electronic device having a screen capture function and a method of operating a screen capture function in the electronic device.
  • the electronic device provides a screen capture (or screenshot) function capable of capturing an execution screen being displayed through a display.
  • the screen capture (or screenshot) function may represent a digital image that captures and stores an execution screen being displayed through a display as it is seen.
  • the screen capture function may output and save the entire screen as a file in a general bitmap image format (eg, BMP, PNG or JPEG), or output and save the screen as a file in a video format for a certain period of time, for example.
  • a general bitmap image format eg, BMP, PNG or JPEG
  • an electronic device provides a multi-window in one display or includes at least two displays and provides at least two displays to be used as one window or a multi-window.
  • the screen capture function only the capture of the entire screen displayed on the display is provided without dividing the multi-window (or area).
  • a screen corresponding to each multi-window is captured based on a screen capture interaction in a multi-window environment, and a cue for a result (eg, captured data) captured in response to each of the multi-windows is provided.
  • a cue for a result eg, captured data
  • An electronic device includes a display module and a processor operatively connected to the display module, wherein the processor includes an execution screen corresponding to a plurality of applications based on a multi window. , and while displaying each execution screen through the multi-window, an interaction related to a screen capture is detected, and based on the interaction, a screen capture is performed for each window based on an area of interest for each window of the multi-window. and, based on the screen capture, providing a cue including at least a portion of the region of interest for each window, and processing an event using capture data corresponding to the cue based on a user input using the cue can make it
  • An operating method of an electronic device includes an operation of displaying execution screens respectively corresponding to a plurality of applications based on a multi-window, and an operation of displaying each execution screen through the multi-window. , an operation of detecting an interaction related to a screen capture, an operation of performing a screen capture for each window based on a region of interest for each window of the multi-window based on the interaction, an operation of performing a screen capture for each window based on the screen capture, at least of the region of interest for each window based on the screen capture It may include an operation of providing a cue including a part, and an operation of processing an event using capture data corresponding to the cue based on a user input using the cue.
  • a computer-readable recording medium recording a program for executing the method in a processor may be included.
  • a screen capture for each window of the multi-window is provided to provide a screen capture function. It can improve the user experience. According to various embodiments, it is possible to improve usability by providing various interactions for operating a screen capture in a multi-window environment of the electronic device. According to various embodiments, usability may be improved by providing a quick screen capture and sharing (eg, quick capture & share) function for each window in a multi-window environment of the electronic device.
  • a quick screen capture and sharing eg, quick capture & share
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure
  • FIG. 2 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure
  • FIG. 3 is a diagram schematically illustrating a configuration of an electronic device according to various embodiments of the present disclosure
  • FIG. 4 is a diagram illustrating a structural example of a platform architecture of an electronic device according to various embodiments of the present disclosure
  • FIG. 5 is a flowchart illustrating an operation of an electronic device according to various embodiments of the present disclosure
  • 6A, 6B, 6C, and 6D are diagrams for explaining an example of operating a screen in an electronic device according to various embodiments.
  • FIGS. 7A, 7B, and 7C are diagrams for explaining an interaction related to a screen capture in an electronic device according to various embodiments of the present disclosure
  • FIGS. 8A and 8B are diagrams for explaining an example of setting a region of interest in an electronic device according to various embodiments of the present disclosure
  • 9A and 9B are diagrams for explaining an example of providing feedback on a region of interest in an electronic device according to various embodiments of the present disclosure
  • FIGS. 10A, 10B, and 10C are diagrams for explaining an example of providing a screen capture related cue object in an electronic device according to various embodiments of the present disclosure
  • FIG. 11 is a flowchart illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • FIG. 12 is a view for explaining an example of operating a screen capture function in a multi-window environment in an electronic device according to various embodiments of the present disclosure
  • FIG. 13 is a view for explaining an example of operating a screen capture function in a multi-window environment in an electronic device according to various embodiments of the present disclosure
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments of the present disclosure.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 may be included.
  • at least one of these components eg, the connection terminal 178
  • may be omitted or one or more other components may be added to the electronic device 101 .
  • some of these components are integrated into one component (eg, display module 160 ). can be
  • the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • software eg, a program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be stored in the volatile memory 132 , and may process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
  • the processor 120 is a main processor 121 (eg, a central processing unit (CPU) or an application processor (AP)) or an auxiliary processor capable of operating independently or together with it ( 123) (eg, graphic processing unit (GPU), neural network processing unit (NPU), image signal processor (ISP), sensor hub processor, or communication processor (CP, communication processor)) may be included.
  • main processor 121 eg, a central processing unit (CPU) or an application processor (AP)
  • auxiliary processor capable of operating independently or together with it eg, graphic processing unit (GPU), neural network processing unit (NPU), image signal processor (ISP), sensor hub processor, or communication processor (CP, communication processor)
  • the main processor 121 may use less power than the main processor 121 or may be set to be specialized for a specified function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the auxiliary processor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is At least one of the components of the electronic device 101 (eg, the display module 160 , the sensor module 176 , or At least some of functions or states related to the communication module 190 may be controlled.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model. Artificial intelligence models can be created through machine learning.
  • Such learning may be performed, for example, in the electronic device 101 itself on which artificial intelligence is performed, or may be performed through a separate server (eg, the server 108).
  • the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
  • the artificial intelligence model may include a plurality of artificial neural network layers. Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
  • the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
  • the memory 130 may store various data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ).
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system (OS) 142 , middleware 144 , or an application 146 . have.
  • OS operating system
  • middleware middleware
  • application application
  • the input module 150 may receive a command or data to be used in a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
  • the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output module 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback.
  • the receiver may be used to receive an incoming call. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
  • the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 . A sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • an external electronic device eg, a sound output module 155
  • a sound may be output through the electronic device 102 (eg, a speaker or headphones).
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, a secure digital (SD) card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD secure digital
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a LAN (local area network) communication module, or a power line communication module).
  • GNSS global navigation satellite system
  • a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a wide area network (WAN)).
  • a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
  • a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a wide area network (WAN)).
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified or authenticated.
  • the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
  • NR access technology is a high-speed transmission of high-capacity data (eMBB, enhanced mobile broadband), minimization of terminal power and access to multiple terminals (mMTC, massive machine type communications), or high reliability and low latency (URLLC, ultra-reliable and low-latency). communications) can be supported.
  • the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
  • a high frequency band eg, mmWave band
  • the wireless communication module 192 includes various technologies for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as input/output (FD-MIMO, full dimensional MIMO), an array antenna, analog beam-forming, or a large scale antenna.
  • the wireless communication module 192 may support various requirements specified in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
  • the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less).
  • a peak data rate eg, 20 Gbps or more
  • loss coverage eg, 164 dB or less
  • U-plane latency for realizing URLLC
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, a radio frequency integrated circuit (RFIC)
  • RFIC radio frequency integrated circuit
  • the antenna module 197 may form a mmWave antenna module.
  • the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, underside) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
  • the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
  • the external electronic device 104 may include an Internet of things (IoT) device.
  • Server 108 may be an intelligent server using machine learning and/or neural networks.
  • the external electronic device 104 or the server 108 may be included in the second network 199 .
  • the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • first, second, or first or second may be used simply to distinguish the element from other elements in question, and may refer to elements in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • one or more instructions stored in a storage medium may be implemented as software (eg, the program 140) including
  • a processor eg, processor 120
  • a device eg, electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not include a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be included in a computer program product (computer program product) and provided.
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed online (eg download or upload), directly between smartphones (eg smartphones).
  • a part of the computer program product may be temporarily stored or temporarily generated in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component (eg, module or program) of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repetitively, or heuristically, or one or more of the operations are executed in a different order. , may be omitted, or one or more other operations may be added.
  • FIG. 2 is a diagram illustrating an example of an electronic device according to various embodiments of the present disclosure
  • FIG. 2 may show examples of various form factors of the electronic device 101 according to display types according to various embodiments.
  • the electronic device 101 may include a bar type or a plate type 210 , a foldable 220 , 230 or 240 , a rollable 250 , and/or various form factors such as slideable 260 .
  • the electronic device 101 may be implemented in various forms, and a display (eg, the display module 160 of FIG. 1 ) may be implemented according to the implementation form of the electronic device 101 . ) can be provided in a variety of ways.
  • the electronic device 101 has a bar-shaped or flat-panel appearance, but is not limited thereto.
  • the illustrated electronic device 101 may be a part of the foldable electronic device 220 , 230 or 240 , the rollable electronic device 250 , or the slideable electronic device 260 .
  • the foldable electronic device 220 , 230 , or 240 may substantially face two different areas of a display (eg, the display module 160 of FIG. 1 ) or face each other in opposite directions. ) may mean an electronic device that can be folded in a direction.
  • a display eg, the display module 160 of FIG. 1
  • the display in general, in a portable state, in the foldable electronic device 220 , 230 , or 240 , the display is folded with two different regions facing each other or in opposite directions.
  • the display module 160 may be unfolded so that the two different regions form a substantially flat plate shape.
  • the foldable electronic device 220 , 230 , or 240 has a form factor (eg, a first display surface and a second display surface) including two display surfaces (eg, a first display surface and a second display surface) based on one folding axis. 220 or 230) and/or a form factor (e.g. 240) comprising at least three display faces (e.g., a first display face, a second display face and a third display face) based on at least two folding axes. can do.
  • a form factor eg, a first display surface and a second display surface
  • a form factor e.g. 240
  • the number of folding axes that the electronic device 101 may have is not limited thereto.
  • the foldable electronic device 220 , 230 , or 240 may display a display (eg, the display module 160 of FIG. 1 ) in various ways (eg, in-folding, out-folding, or In/out folding) can be folded or unfolded.
  • the foldable electronic device 220 , 230 , or 240 may include various foldable methods such as vertical foldable, horizontal foldable, G foldable, or Z foldable.
  • the slidable electronic device 260 or the rollable electronic device 250 may bend and deform a display (eg, the display module 160 of FIG. 1 ), so that at least a part thereof is wound or rolled), and may mean an electronic device that can be accommodated inside a housing (not shown).
  • the slideable electronic device 260 or the rollable electronic device 250 may display a screen by unfolding a display (eg, the display module 160 of FIG. 1 ) or exposing a larger area of the display to the outside. It can be used by expanding the display area.
  • the rollable electronic device 250 may include a form factor including a roll-up type display (eg, a rollable display).
  • the slidable electronic device 260 or the rollable electronic device 250 may display a display that is exposed to the outside according to the extent to which the user unfolds the display (eg, the display module 160 of FIG. 1 ). The area may vary.
  • the electronic device 101 may include a storage space (or internal space) for accommodating an electronic pen (not shown), and may include a storage space for accommodating the electronic pen in the storage space.
  • the electronic device 101 may communicate with the electronic pen based on a specified communication method.
  • the electronic device 101 and the electronic pen may communicate with each other through out of band (OOB) (eg, NFC, BLE, and/or Wi-Fi 2.4GHz) communication using a communication circuit.
  • OOB out of band
  • FIG. 3 is a diagram schematically illustrating a configuration of an electronic device according to various embodiments of the present disclosure
  • FIG. 3 may show an example of a configuration related to supporting a screen capture (or screenshot) function in the electronic device 101 according to various embodiments of the present disclosure.
  • the electronic device 101 illustrated in FIG. 3 may include all or at least some of the components of the electronic device 101 as described in the description with reference to FIG. 1 .
  • the electronic device 101 may include a processor 120 , a display module 160 , a wireless communication module 360 , and a memory 130 .
  • components included in the electronic device 101 may be understood as, for example, hardware modules (eg, circuitry).
  • the components included in the electronic device 101 include the components shown in FIG. 2 (eg, the processor 120 , the display module 160 , the wireless communication module 360 , and/or the memory). (130)) may not be limited.
  • components of the electronic device 101 illustrated in FIG. 2 may be replaced with other components, or additional components may be added to the electronic device 101 .
  • the electronic device 101 may include a sensor module (eg, the sensor module 176 of FIG. 1 ), a camera module (eg, the camera module 180 of FIG. 1 ), and/or a communication module (eg, FIG. 1 ). It may include other components such as the communication module 190 of the
  • the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display module 160 may include a touch circuit (or a touch sensor) (not shown) or a pressure sensor, based on the touch circuit or pressure sensor, the display module 160 for a specific position.
  • a touch input and/or a hovering input (or a proximity input) can be sensed by measuring a change in a signal (eg, voltage, amount of light, resistance, and/or amount of charge).
  • the display module 160 may be disposed adjacent to or coupled to a digitizer circuit for detecting an electronic pen (not shown).
  • the display module 160 may be configured as a liquid crystal display (LCD), an organic light emitted diode (OLED), an active matrix organic light emitted diode (AMOLED), or a flexible display.
  • LCD liquid crystal display
  • OLED organic light emitted diode
  • AMOLED active matrix organic light emitted diode
  • the display module 160 provides various information related to a screen capture by a user under the control of the processor 120 (eg, a capture layout, a region of interest (ROI)).
  • An object and/or a cue object eg, a thumbnail object
  • the display module 160 corresponds to a screen capture on an execution screen (eg, including a home screen) of the application 340 , content 350 stored in the memory 130 , or an execution screen of the application 340 . related information can be displayed.
  • the wireless communication module 360 may include a legacy network (eg, a 3G network and/or a 4G network), a 5G network, an out of band (OOB) and / or a next-generation communication technology (eg, new radio (NR) technology) may be supported.
  • the wireless communication module 360 includes a first communication circuit configured to support wireless communication of the electronic device 101 through a first network (eg, a cellular network), and an out of band (OOB) (eg: It may include a second communication circuit configured to support wireless communication of the electronic device 101 based on NFC, BLE, and/or wireless fidelity (Wi-Fi, 2.4 GHz).
  • the electronic device 101 may communicate with the external device and/or the server 301 through a designated network using the first communication circuit.
  • the electronic device 101 uses a second communication circuit to communicate with a second network different from the first network (eg, Bluetooth, BLE, Wi-Fi direct, or short-range communication such as infrared data association (IrDA)). It is possible to communicate with an electronic pen (not shown) through a network).
  • a second network different from the first network
  • IrDA infrared data association
  • the electronic device 101 receives information related to an air action (or air gesture) from the electronic pen while communicating with the electronic pen through the wireless communication module 360 (eg, an air gesture).
  • Air command can be received.
  • the air action may indicate a function capable of remotely controlling the electronic device 101 using an electronic pen.
  • the air action includes an action of executing a specified action (or gesture) on air while a user presses a button included in the electronic pen, and the electronic pen provides information related to the user's air action (eg, air command) may be transmitted to the electronic device 101 through OOB communication.
  • the electronic device 101 executes a function (eg, a screen capture function) corresponding to an input signal (eg, an air action) of the electronic pen, and displays a user interface (UI) corresponding thereto. It can be displayed through the module 160 .
  • a function eg, a screen capture function
  • UI user interface
  • the memory 130 may store various data used by at least one component (eg, the processor 120 ) of the electronic device 101 .
  • the data may include, for example, the application 340 (eg, the application 146 of FIG. 1 ) and/or the content 350 .
  • the application 340 may include various applications executable in the electronic device 101 .
  • the application 340 is home, dialer (dialer), SMS (short message service) / MMS (multimedia messaging service), IM (instant message), browser (browser), camera (camera), alarm (alarm), contact, voice recognition, email, calendar, media player, album, watch, health (e.g.: Measuring biometric information such as exercise amount or blood sugar), or environmental information (eg measuring air pressure, humidity, or temperature information) applications, , the type may not be limited.
  • the application 340 may further include an information exchange application capable of supporting information exchange between the electronic device 101 and an external electronic device.
  • the information exchange application may include, for example, a notification relay application configured to transmit specified information (eg, call, message, or alarm) to an external electronic device, or a device management application configured to manage the external electronic device. have.
  • the content 350 may include user content (eg, an image or video captured by the user) generated by using the application 340 .
  • the content 350 may include input data and/or output data for a command related to the application 340 .
  • the application 340 and/or the content 350 may be stored as software (eg, the program 140 of FIG. 1 ) on the memory 130 and may be executed by the processor 120 . can
  • the memory 130 includes an interaction detection module 310 (or an interaction detection means) related to a function (eg, a screen capture function) that can be performed by the processor 120 , a region of interest setting module 320 . ) (or means for setting a region of interest) and/or a capture module 330 (or means for capturing).
  • a function eg, a screen capture function
  • a capture module 330 or means for capturing
  • the functions of the interaction detection module 310 , the region of interest setting module 320 , and/or the capture module 330 that may be performed by the processor 120 are stored in the memory 130 as instructions. (or command) may be implemented and stored.
  • the interaction detection module 310 , the region of interest setting module 320 , and/or the capture module 330 may be understood as, for example, a hardware module (eg, circuitry), but in various embodiments Examples are not limited thereto.
  • the interaction detection module 310 , the region of interest setting module 320 , and/or the capture module 330 may include a software structure in addition to or alternatively to a hardware structure.
  • the interaction detection module 310 , the region of interest setting module 320 , and/or the capture module 330 may include a storage medium (eg, the memory 130 ) readable by the processor 120 . )) may be implemented as software (eg, the program 140 of FIG. 1 ) including one or more instructions stored in it.
  • the operations performed by the interaction detection module 310 , the region of interest setting module 320 , and/or the capture module 330 are stored in the memory 130 , and when executed, the processor 120 . can be executed by instructions that make it work.
  • the interaction detection module 310 may detect an interaction related to screen capture. According to an embodiment, the interaction detection module 310 may receive an interaction in a manner designated to execute a screen capture from the user while displaying a plurality of execution screens corresponding to the applications through the multi-window. According to an embodiment, the specified type of interaction includes a capture interaction using a hardware button of the electronic device 101, a capture interaction using a user's gesture (eg, a hand gesture), a capture interaction using a voice (eg, Bixby), It may include a capture interaction using an electronic pen, and/or a capture interaction using a software button on an edge panel.
  • the ROI setting module 320 may provide (eg, display) a cue including the ROI of the application.
  • the region of interest setting module 320 may set the region of interest of the corresponding application for each window when a screen capture is performed while a multi-window is operating. For example, assuming a multi-window of two divisions, the region of interest setting module 320 sets a first region of interest based on the execution screen of the first application in the first window among the multi-windows of two divisions, and the second region of interest The second region of interest may be set based on the execution screen of the second application in the window.
  • the capture module 330 may process a screen capture based on the interaction. According to an embodiment, the capture module 330 may generate first capture data corresponding to the first ROI of the first window and second capture data corresponding to the second ROI of the second window. According to an embodiment, the capture module 330 may generate and provide a first queue object corresponding to the first capture data and a second queue object corresponding to the second capture data.
  • the capture module 320 generates (eg, captures) an image (or capture data) corresponding to all or part of the region of interest, and adjusts (eg, reduces) the size of the generated image to have a specified shape ( For example: You can create a queue object (eg, a floating icon) that has a circle, a rectangle, or an oval.
  • a queue object eg, a floating icon
  • the processor 120 may execute the application 340 in the electronic device 101 and store the content 350 generated by the application 340 in the memory 130 .
  • the processor 120 displays the execution screen of the application 340 through the display module 160, based on the interaction related to the screen capture, the execution screen of the application 340 is displayed.
  • the display module 160 may be controlled to capture all or a part and display an information object (eg, a cue object) related to the capture on the execution screen.
  • the processor 120 may generate one or more capture data based on the screen division (or multi-window) state of the display module 160 , and temporarily store it in the memory 130 .
  • the processor 120 may generate and display one or more capture-related information objects based on the temporarily stored temporary capture data.
  • the processor 120 stores the captured data (eg, content 350) in the memory 130 based on the information object selected by the user based on the information object, and other (or unselected) The remaining) temporary captured data related to the information object may be removed from the memory 130 .
  • the processor 120 is a component corresponding to the interaction detection module 310 , the region of interest setting module 320 and/or the capture module 330 implemented and stored in the form of instructions in the memory 130 .
  • FIG. 4 is a diagram illustrating a structural example of a platform architecture of an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may process and manage a screen capture function based on the structure of the platform architecture as illustrated in FIG. 4 .
  • the platform architecture of the electronic device 101 shown in FIG. 4 may be implemented in software by being executed by the processor 120 and loaded into the memory 130 .
  • the configuration of the electronic device 101 implemented in software may include an application layer 410 (eg, the application 146 of FIG. 1 ) and a framework layer 420 (eg, FIG. 1 ). It may be divided into 1 middleware (middleware) 144), a hardware abstraction layer 430 (HAL, hardware abstraction layer), a kernel (Kernel) layer 440, and a hardware (HW) layer 450 .
  • middleware middleware
  • HAL hardware abstraction layer
  • kernel kernel
  • HW hardware
  • At least some of the configurations shown in FIG. 4 may be changed according to a platform included in the electronic device 101 .
  • a platform included in the electronic device 101 For example, at least a portion of the platform architecture may be pre-loaded into the electronic device 101 at the time of manufacture, or an external electronic device (eg, the electronic device 102 or 104 of FIG. 1 ) when used by a user. ) or the server 108) may be downloaded or updated.
  • the application layer 410 may include an application (eg, the application 146 of FIG. 1 ) and a system user interface (system UI).
  • the application 146 may include an application stored in the memory 130 of the electronic device 101 or executable or installed by the processor 120 , for example, App 1 , App 2 , and App 3 , and thus do not limit
  • App 1 is an air actions application, and may be an application that provides interaction with a user to set an air action using an electronic pen.
  • the system user interface 415 may be an application that controls the display of a system of the electronic device 101 , for example, a fixed region/part of a screen or a common function.
  • the system user interface 415 may manage a screen related to a notification bar and quick view.
  • the framework layer 420 (eg, the middleware 144 of FIG. 1 ) provides functions or information provided from one or more resources of the electronic device 101 by the application 146 .
  • Various functions may be provided to the application 146 to be used.
  • the framework layer 420 is, for example, a window manager 421 , a screen capture manager 423 , a view system 425 , and an activity manager. 427 , and a sensor manager 429 , but is not limited thereto.
  • the framework layer 420 includes, not shown, an application manager, a multimedia manager, a resource manager, a power manager, and a database manager. , package manager, connectivity manager, notification manager, location manager, graphic manager, security manager, telephony manager ), and/or various managers such as a voice recognition manager.
  • the window manager 421 may manage, for example, one or more graphical user interface (GUI) resources used in a screen.
  • GUI graphical user interface
  • the window manager 421 may transmit information on the display area of the electronic device 101 to the application 146 .
  • the window manager 421 responds to the changed state of the electronic device 101 .
  • information on the display area to be used may be transmitted to the application 146 .
  • the window manager 421 provides information on the display area corresponding to the changed state of the electronic device 101 to an application for which continuity is set among the running applications 146 . can transmit
  • the screen capture manager 423 may manage resources used for screen capture. According to an embodiment, the screen capture manager 423 may control the screen capture in response to the interaction. According to an embodiment, the screen capture manager 423 may control screen capture for each window (or area) based on information on the display area provided from the window manager 421 . According to an embodiment, the screen capture manager 423 may transmit information corresponding to the screen capture to the view system 425 .
  • the view system 425 may include a set of extensible views used to create an application user interface. According to an embodiment, the view system 425 may be a program for drawing at least one layer based on the resolution of the display area of the display module 160 . According to an embodiment, the application 146 may use a view (eg, a drawing library) to draw at least one layer based on the resolution of the display area of the display module 160 .
  • a view eg, a drawing library
  • the activity manager 427 may manage a life cycle of an activity. According to an embodiment, the activity manager 427 may manage execution and termination of the application 146 .
  • the sensor manager 429 may collect and control sensor information based on the usability of the sensor module 176 .
  • the hardware abstraction layer 430 includes a plurality of hardware modules included in the hardware layer 450 (eg, the display module 160 of FIG. 1 , the sensor module 176 , the camera module 180 , and / or an abstracted layer between the communication module 190) and software of the electronic device 101 , and may include an event hub 431 and a surface flinger 433 .
  • the event hub 431 may be an interface that standardizes events occurring in a touch circuit (eg, the display module 160 ) and a sensor circuit (eg, the sensor module 176 ).
  • the surface flinger 433 may synthesize a plurality of layers, and may provide data representing the plurality of synthesized layers to the display controller.
  • the display controller may refer to a graphic display controller.
  • the kernel layer 440 includes various hardware modules included in the electronic device 101 (eg, the display module 160 of FIG. 1 , the sensor module 176 , the camera module 180 , and/or Various drivers for controlling the communication module 190 may be included.
  • the kernel layer 440 includes a sensor driver 441 including an interface module for controlling a sensor controller 451 connected to the sensor module 176 and a display module 160 . and a display controller (DDI, display driver IC) 453 that controls a display panel 453 connected to the display panel.
  • a sensor driver 441 including an interface module for controlling a sensor controller 451 connected to the sensor module 176 and a display module 160 .
  • a display controller (DDI, display driver IC) 453 that controls a display panel 453 connected to the display panel.
  • the hardware layer 450 may include a hardware module or configuration (eg, the sensor controller 451 and the display panel 453 ) included in the electronic device 101 , but is not limited thereto. , may include the configurations shown in FIG. 1 .
  • the electronic device 101 includes a display module 160 and a processor 120 operatively connected to the display module 160, and the processor 120 includes: Displaying an execution screen corresponding to a plurality of applications, respectively, based on a window, and detecting an interaction related to a screen capture while displaying each execution screen through the multi-window, and based on the interaction, Screen capture is performed for each window based on the region of interest for each window of the multi-window, and a cue including at least a portion of the region of interest for each window is provided based on the screen capture, and a user using the queue Based on the input, it is possible to process an event using the capture data corresponding to the queue.
  • the processor 120 displays a plurality of execution screens corresponding to applications through the multi-window, it is possible to receive an interaction in a manner designated to execute a screen capture from the user.
  • the specified interaction includes a capture interaction using a hardware button of the electronic device, a capture interaction using a user's gesture, a capture interaction using a voice, a capture interaction using an electronic pen, and/ Alternatively, at least one of a capture interaction using a software button on the edge panel may be included.
  • the processor 120 may determine characteristic information of an application for each window of the multi-window based on the detection of the interaction, and identify a region of interest based on the characteristic information. have.
  • the characteristic information of the application may include region information about a region in which a representative image and/or a subject is concentrated within an execution screen displayed through a window.
  • the processor 120 captures all or a part of the region of interest to generate capture data for each window of the multi-window, and a queue object for each window based on the capture data. can be created and displayed.
  • the processor 120 may generate the queue object having a specified shape by adjusting the size of the capture data.
  • the processor 120 may overlap and display the queue object on at least one execution screen in a region designated by the display module.
  • the processor 120 may temporarily store the capture data in the memory 130 .
  • the processor 120 identifies target capture data related to the selected queue when any one of the provided queues is selected, and stores the target capture data in the memory ( 130 ) and temporarily stored capture data related to a queue that is not selected from among the provided queues may be removed from the memory 130 .
  • the processor 120 is, based on a user input for moving the selected queue, a graphic in which a thumbnail image based on capture data related to the selected queue is moved according to the movement of the user input effect can be displayed.
  • the processor 120 may provide a cancellation object for canceling the movement of the selected queue.
  • the processor 120 removes the display of other unselected queues according to the movement of the selected queue and the corresponding temporary capture data, or when the selected queue is moved.
  • the display of the selected cue and other unselected cues may be maintained, and temporary capture data corresponding to the cues may be maintained.
  • the processor 120 may provide a toolbar for supporting editing related to the captured data and/or sharing of the captured data.
  • the processor 120 detects an event in which the queue is selected by the user and the selected queue is moved to an area of a specific window among multiple windows, and based on the detection of the event It is possible to process the operation of sharing the capture data corresponding to the selected queue with an application in another window.
  • operations performed by the electronic device 101 to be described below may be executed by the processor 120 including at least one processing circuitry of the electronic device 101 .
  • the operations performed by the electronic device 101 may be stored in the memory 130 and, when executed, may be executed by instructions that cause the processor 120 to operate.
  • FIG. 5 is a flowchart illustrating an operation of an electronic device according to various embodiments of the present disclosure
  • the processor 120 of the electronic device 101 may display an execution screen of an application based on a multi window.
  • the processor 120 may execute (eg, multitask) at least two applications based on a user input.
  • the processor 120 divides the screen of the display module 160 based on the execution of the at least two applications and displays at least two windows (eg, a first window, A multi-window including a second window and a third window) may be provided.
  • the processor 120 may control the display module 160 to respectively display execution screens of applications in each window of the multi-window.
  • the processor 120 may detect an interaction related to screen capture.
  • the processor 120 may receive an interaction in a manner designated to execute a screen capture from the user while displaying execution screens corresponding to the applications through the multi-window.
  • the specified interaction includes a capture interaction using a hardware button of the electronic device 101, a capture interaction using a user's gesture, a capture interaction using a voice (eg, Bixby), and a capture interaction using an electronic pen. , and/or capture interaction using a software button on the edge panel. It will be described with reference to the drawings to be described later in relation to an interaction in a manner designated to execute a screen capture, according to an embodiment.
  • the processor 120 may provide (eg, display) a cue including the ROI of the application.
  • the processor 120 may determine an ROI of the corresponding application for each window. For example, assuming a multi-window of two divisions, the processor 120 identifies the first region of interest based on the execution screen of the first application in the first window among the multi-windows of the two division, and in the second window 2 The second region of interest may be identified based on the execution screen of the application.
  • the processor 120 may generate and provide a first queue object corresponding to the first region of interest and a second queue object corresponding to the second region of interest.
  • the processor 120 generates (eg, captures) an image (or capture data) corresponding to all or a part of the region of interest, and adjusts (eg, reduces) the size of the generated image to a designated shape (eg, : You can create an object (eg, a floating icon) having a circle, a rectangle, or an oval.
  • the processor 120 may display the created object (eg, a queue object) by overlapping (or floating) it on at least one execution screen in an area designated by the display module 160 . have. It will be described with reference to the drawings to be described later in relation to providing a queue object, according to an embodiment.
  • the processor 120 may perform an operation related to screen capture based on the selection of the queue object.
  • the processor 120 may determine the execution screen (or application) of the capture target based on the selected queue object among the execution screens of the multi-window. For example, the user may select one of a plurality of displayed queue objects based on a specified user input. For example, the user may select the corresponding cue object based on a touch input, a specified voice command, and/or an air action using an electronic pen.
  • the processor 120 may identify a selected cue object based on a user input, and perform a screen capture based on an ROI of an execution screen corresponding to the cue object.
  • the screen capture is performed based on the region of interest of the execution screen corresponding to the queue object (eg, screen capture for only a specified window), or prior to creating a queue object. It may include an operation of calling an image (or capture data) generated in (or in advance) and temporarily stored in the memory 130 .
  • the processor 120 may store a screen capture result (eg, capture data).
  • the processor 120 stores the capture data (or a temporarily stored image) of the selected queue object as a file in the memory 130, and a temporarily stored image (eg, capture data) of another queue object that is not selected. can be removed.
  • the processor 120 may further include an operation of sharing the captured data with an application of another window. An operation of sharing captured data with another application according to an embodiment will be described with reference to the drawings to be described later.
  • 6A, 6B, 6C, and 6D are diagrams for explaining an example of operating a screen in an electronic device according to various embodiments.
  • 6A, 6B, 6C, and 6D may represent various examples of operating an execution screen of an application based on at least one window of the display module 160 in the electronic device 101 have.
  • 6A and 6B illustrate an example in which the electronic device 101 has a bar-shaped form factor
  • FIGS. 6C and 6D show an example in which the electronic device 101 has a foldable form factor.
  • the electronic device 101 may have a different maximum number of split screens based on the screen size of the display module 160 .
  • the electronic device 101 may display one execution screen corresponding to one application based on one window 610 (or a single window).
  • the electronic device 101 provides two different windows corresponding to two applications based on a multi-window (eg, a first window 621 and a second window 623 ) divided into two.
  • the execution screen can be displayed.
  • the electronic device 101 displays a first execution screen of the first application through the first window 621 and executes the second application different from the first application through the second window 623 . screen can be displayed.
  • the electronic device 101 provides two different windows corresponding to two applications based on a multi-window (eg, a first window 631 and a second window 633 ) divided into two.
  • the execution screen can be displayed.
  • the electronic device 101 provides access to three applications based on a multi-window of three divisions (eg, the first window 641 , the second window 643 , and the third window 645 ).
  • Three different execution screens each corresponding to can be displayed.
  • the electronic device 101 displays a first execution screen of the first application through the first window 641 and displays a second execution screen of the second application through the second window 643 , A third execution screen of the third application may be simultaneously displayed through the third window 645 .
  • the electronic device 101 is configured to single, split into two, split into three, and/or split into N based on the form factor of the electronic device 101 and/or the screen size of the display module 160 . It is possible to provide a split screen (or multi-window) by According to an embodiment, the electronic device 101 may provide execution screens of a plurality of different applications based on the multi-window, and when the screen is captured while the multi-window is operating, the entire screen of the display module 160 is displayed. Instead, a screen capture related to the execution screen for each window may be provided.
  • FIGS. 7A, 7B, and 7C are diagrams for explaining an interaction related to a screen capture in an electronic device according to various embodiments of the present disclosure
  • FIGS. 7A, 7B, and 7C may illustrate various examples of an interaction for performing a screen capture in the electronic device 101 .
  • a user may perform a capture using the electronic device 101 itself, perform a capture using an external device such as an electronic pen, or perform a capture using a voice command.
  • FIG. 7A may show an example of supporting screen capture using an electronic pen 201 capable of communicating with the electronic device 101 .
  • a function eg, a screen capture function
  • an air action or air gesture
  • FIG. 7A shows an air action (or air gesture) of the electronic pen 201 when the electronic pen 201 is held in the user's hand using a sensor (not shown) included in the electronic pen 201 .
  • An event that transmits a gesture interaction occurring in a state to the electronic device 101 through OOB (eg, BLE) communication and executes a specific operation (eg, screen capture operation) in an application of the electronic device 101 It can represent a series of actions using
  • OOB eg, BLE
  • the electronic device 101 and the electronic pen 201 may be in a communication-connected state through OOB (eg, BLE) communication.
  • the user may execute a screen capture based on a designated air action using the electronic pen 201 .
  • the user presses the button 700 (eg, an action trigger button) of the electronic pen 201 as illustrated in FIG. 7A , an air action mapped to execute a screen capture (eg, an action trigger button)
  • information for executing a screen capture may be transmitted to the electronic device 101 using a zigzag action 751).
  • the electronic device 101 may include an operation of mapping an air action (eg, a zigzag action 751 ) and a function of the electronic device 101 based on reception of information on the location of the electronic pen 201 .
  • the electronic device 101 responds to at least one interaction (or gesture) operation of the electronic pen 201 in a state in which the electronic pen 201 and the electronic pen 201 are communicatively connected. or function) can be mapped.
  • the electronic device 101 provides a user interface for mapping a function according to an air action of the electronic pen 201 with the electronic pen 201 communicatively connected.
  • the user performs a zigzag action 751 using the electronic pen 201 while pressing the button 700 of the electronic pen 201 as illustrated in FIG. 750 of FIG. 7A .
  • the electronic pen 201 may transmit information about an interaction (eg, a zigzag interaction) corresponding to the user's zigzag action 751 to the electronic device 101 through OOB communication.
  • the electronic device 101 may map a first action (eg, a screen capture function) in response to information (eg, a zigzag interaction) received from the electronic pen 201 .
  • a first action eg, a screen capture function
  • information eg, a zigzag interaction
  • the user may use the electronic device 101 and the electronic pen 201 to map the screen capture function to the zigzag action 751 as described above.
  • the user may remotely execute a screen capture of the electronic device 101 by using the zigzag action 751 using the electronic pen 201 through the mapping operation as described above.
  • the user zigzags by using the electronic pen 201 on the air while pressing the button 700 of the electronic pen 201 to perform a screen capture, as illustrated in FIG. 7A , as illustrated in FIG. 750 .
  • Action 751 may be performed.
  • the electronic pen 201 may detect the zigzag action 751 and transmit information (eg, zigzag interaction) on the zigzag action 751 to the electronic device 101 through OOB communication.
  • the electronic device 101 when the electronic device 101 receives information about the zigzag interaction from the electronic pen 201 while displaying the execution screen of the application, the electronic device 101 identifies an action mapped to the zigzag interaction (eg, a screen capture function) and screen capture.
  • an action mapped to the zigzag interaction eg, a screen capture function
  • various other functions may be mapped and executed.
  • the user may perform a first direction clenching action by using the electronic pen 201 , and the electronic pen 201 may perform an interaction corresponding to the user's first directional clenching action (eg, first 1 angle interaction) may be transmitted to the electronic device 101 through OOB communication.
  • first directional clenching action eg, first 1 angle interaction
  • the electronic device 101 maps a second action (eg, a smart select function) in response to information (eg, a cross angle interaction in the first direction) received from the electronic pen 201 .
  • a second action eg, a smart select function
  • the user may perform a folding action in the second direction by using the electronic pen 201 , and the electronic pen 201 may perform an interaction corresponding to the user's folding action in the second direction (eg, first 2) may be transmitted to the electronic device 101 through OOB communication.
  • the electronic device 101 may map a third action (eg, a home movement function) in response to information (eg, a cross angle interaction in the second direction) received from the electronic pen 201 .
  • a third action eg, a home movement function
  • the user may perform a clenching action in the third direction by using the electronic pen 201 , and the electronic pen 201 may perform an interaction corresponding to the user's clenching action in the third direction (eg, first 3) may be transmitted to the electronic device 101 through OOB communication.
  • the electronic device 101 may map a fourth action (eg, a back function) in response to information received from the electronic pen 201 (eg, a cross angle interaction in the third direction).
  • the user may perform a folding action in the fourth direction by using the electronic pen 201 , and the electronic pen 201 may perform an interaction corresponding to the user's fourth direction folding action (eg, first 4) may be transmitted to the electronic device 101 through OOB communication.
  • the electronic device 101 may map information received from the electronic pen 201 (eg, a fifth action (eg, a recent app execution function)).
  • the action mapping for each interaction may be variously specified (or set) by the user, and is not limited to the above interaction type.
  • FIG. 7B may show an example of supporting screen capture by using a hardware button of the electronic device 101 .
  • FIG. 7B may provide an interaction for screen capture based on a simultaneous input of a button combination or a designated button input among the hardware buttons of the electronic device 101 .
  • FIG. 7C may represent an example in which the electronic device 101 recognizes a user's gesture to support screen capture.
  • FIG. 7C may provide an interaction for screen capture based on a user's hand (eg, hand blade) gesture (eg, a gesture of putting the hand blade on the screen and pushing it to the opposite side) in the electronic device 101 .
  • a user's hand eg, hand blade
  • FIGS. 7A, 7B, and 7C Various embodiments are not limited to the interaction shown in FIGS. 7A, 7B, and 7C, and this is an example, and is an interaction for screen capture using various other methods that the electronic device 101 may provide.
  • the electronic device 101 may provide a software button for screen capture by using an edge panel and use selection by the software button as an interaction.
  • the electronic device 101 may use a voice command designated based on the user's voice as an interaction.
  • FIGS. 8A and 8B are diagrams for explaining an example of setting a region of interest in an electronic device according to various embodiments of the present disclosure
  • the characteristic information of the application may indicate a representative characteristic in an execution screen displayed through a window.
  • the feature information may include area information (eg, location or coordinate information) regarding an area (or feature) in which an image and/or a subject (eg, text) is focused, as illustrated in FIG. 8A .
  • the electronic device 101 may set the ROI 810 based on the feature information.
  • the feature information may include information about each region of a plurality of regions 821 , 823 , 825 , and 827 in which a plurality of images and/or subjects are concentrated.
  • the electronic device 101 has a region (eg, the largest image region) having the largest specific gravity (or area) among the plurality of regions 821 , 823 , 825 , and 827 based on the feature information. may be identified, and the region of interest 820 may be set based on the corresponding characteristic information.
  • a region eg, the largest image region having the largest specific gravity (or area) among the plurality of regions 821 , 823 , 825 , and 827 based on the feature information.
  • the region of interest 820 may be set based on the corresponding characteristic information.
  • characteristic information of a screen eg, an execution screen of an application displayed on at least one window (or display) It is possible to identify a region of interest based on the For example, the electronic device 101 may display an execution screen of one or more applications based on one window (or single window), two split windows, three split windows, or N split windows.
  • the electronic device 101 may identify characteristic information in one execution screen and set one ROI based on one characteristic information. According to an embodiment, in the multi-window operation, the electronic device 101 may identify each characteristic information on an execution screen for each window and set a plurality of ROIs based on each characteristic information.
  • 9A and 9B are diagrams for explaining an example of providing feedback on a region of interest in an electronic device according to various embodiments of the present disclosure
  • FIGS. 9A and 9B may show various examples of setting a region of interest in an execution screen of an application based on at least one window of the display module 160 in the electronic device 101 .
  • the electronic device 101 may display one execution screen 910 corresponding to one application based on one window (or single window). According to an embodiment, the electronic device 101 may provide feedback on the feature information-based region of interest 915 on the displayed execution screen 910 . According to an embodiment, the electronic device 101 may highlight and display a region including the region of interest 915 based on the characteristic information on the execution screen 910 in a specified manner. For example, the electronic device 101 uses an object (eg, a rectangular box and/or an icon) indicating the region of interest 915 , and the execution screen 910 of the application displayed on the display module 160 . ), a region including the region of interest 915 may be guided to the user.
  • an object eg, a rectangular box and/or an icon
  • N execution screens eg, the first execution screen 920 and the second execution screen 930
  • the electronic device 101 displays a feature information-based region of interest (eg, a first region of interest 925 and a second region of interest corresponding to the first execution screen 920 ) in each of the displayed execution screens 920 and 930 .
  • Feedback on the second ROI 935 corresponding to the execution screen 930 may be provided.
  • the electronic device 101 highlights the region including the region of interest 925 and 935 based on the characteristic information on each of the execution screens 920 and 930 in a specified manner to the user, 935) can provide feedback.
  • an object eg, a square box and/or an icon
  • a region of interest eg, 915, 925, 935
  • the regions of interest may have sizes corresponding to region information based on the feature information, for example, may have different sizes for each execution screen according to the execution information. have.
  • the regions of interest eg, 915 , 925 , and 935
  • the regions of interest may be provided with a predetermined size, and their sizes may be adaptively adjusted according to characteristic information.
  • the region of interest eg, 915 , 925 , and 935
  • the region of interest may be set to have a size of about 12% or more and about 90% or less of a window (eg, the entire screen capture region within the window).
  • the region of interest (eg, 915 , 925 , 935 ) is generated by including a part shown as an execution screen in a corresponding window, or including a part not shown as an execution screen according to characteristic information.
  • the region of interest (eg, 915 , 925 , and 935 ) may include the largest image region on the execution screen of the application.
  • the electronic device 101 may perform region analysis within the execution screen at the time of screen capture based on the interaction.
  • the electronic device 101 may perform a screen capture in response to the interaction while guiding the region of interest (eg, 915 , 925 , and 935 ) based on the interaction.
  • the electronic device 101 may generate and provide a queue object (eg, an information object for temporary capture data) based on an ROI (eg, 915 , 925 , 935 ) in a screen capture operation.
  • a queue object eg, an information object for temporary capture data
  • ROI eg, 915 , 925 , 935
  • FIGS. 10A, 10B, and 10C are diagrams for explaining an example of providing a screen capture related cue object in an electronic device according to various embodiments of the present disclosure
  • the electronic device 101 may provide queue objects 1115, 1125, 1135, 1145, and 1155 corresponding to each window of the multi-window.
  • the electronic device 101 may include cue objects 1115 , 1125 , 1135 , 1145 , and 1155 corresponding to the number of screen divisions.
  • the electronic device 101 includes a cue object 1115, 1125, 1135, 1145, 1155 (or window cue) corresponding to each window of the multi-window and a single (or all) window ( For example, a cue object 1165 (or a full screen cue) corresponding to the full screen may be further included and provided.
  • FIG. 10A may show an example in which the electronic device 101 performs screen capture based on an interaction in a two-part multi-window environment.
  • the electronic device 101 may provide a cue (eg, a window queue) related to each of the windows 1110 and 1120 to the user.
  • a cue eg, a window queue
  • the electronic device 101 is divided into a first window 1110 and a second window 1120 according to division into two, and displays a first execution screen of the first application through the first window 1110, , a second execution screen of the second application may be displayed through the second window 1120 .
  • the electronic device 101 when detecting an interaction in a manner designated to execute screen capture in the multi-window environment, selects each region of interest based on the execution screen of each window 1110 and 1120 . can be identified. According to an embodiment, the electronic device 101 may generate and provide queue objects 1115 and 1125 (eg, information objects for temporary capture data) corresponding to the ROI, respectively, based on the ROI.
  • queue objects 1115 and 1125 eg, information objects for temporary capture data
  • the electronic device 101 sets the first queue object 1115 related to the first window 1110 and the second queue object 1125 related to the second window 1120, each window 1110, 1120) from the region of interest. For example, the electronic device 101 generates (eg, captures) an image (or capture data) corresponding to all or part of an ROI, and adjusts (eg, reduces) the size of the generated image to have a specified shape ( For example, a queue object 1115 or 1125 (eg, a floating icon) having a circle, a rectangle, or an oval) may be created.
  • a queue object 1115 or 1125 eg, a floating icon having a circle, a rectangle, or an oval
  • the processor 120 superimposes the generated queue objects 1115 and 1125 on at least one execution screen (or window) in an area designated by the display module 160 (eg, a screen lower area). can be displayed.
  • the queue objects 1135 , 1145 , and 1155 may be provided by floating at an arbitrary position on at least one execution screen (or window).
  • FIG. 10B may show an example of performing a screen capture based on an interaction in a three-part multi-window environment.
  • the electronic device 101 may provide a queue (or window queue) related to each of the windows 1130 , 1140 , and 1150 to the user.
  • the electronic device 101 is divided into a first window 1130 , a second window 1140 , and a third window 1150 according to three divisions, and the first application is displayed through the first window 1130 .
  • the first execution screen may be displayed, the second execution screen of the second application may be displayed through the second window 1140 , and the third execution screen of the third application may be displayed through the third window 1150 .
  • each interest based on the execution screen of each window 1130 , 1140 , 1150 . area can be identified.
  • the electronic device 101 may generate and provide cue objects 1135 , 1145 , and 1155 respectively corresponding to the ROI based on the ROI.
  • the electronic device 101 has a first queue object 1135 related to the first window 1110 , a second queue object 1145 related to the second window 1140 , and a third window 1150 .
  • a third queue object 1155 related to can be generated from the ROI of each window 1130 , 1140 , and 1150 .
  • the electronic device 101 generates (eg, captures) an image (or capture data) corresponding to all or part of an ROI, and adjusts (eg, reduces) the size of the generated image to have a specified shape (
  • a queue object 1135, 1145, 1155 eg, a floating icon having a circle, a rectangle, or an oval
  • a queue object 1135, 1145, 1155 eg, a floating icon having a circle, a rectangle, or an oval
  • the processor 120 displays the generated queue objects 1135 , 1145 , and 1155 on at least one execution screen (or window) in an area designated by the display module 160 (eg, a screen lower area). It can be displayed overlaid on .
  • the queue objects 1135 , 1145 , 1155 may be provided by floating at an arbitrary location on at least one execution screen (or window).
  • FIG. 10C may show an example of performing a screen capture based on an interaction in a single window environment.
  • the electronic device 101 may provide a queue (or a full screen queue) related to the single window 1160 to the user.
  • the electronic device 101 may display an execution screen of an application through a single window (eg, a full screen).
  • the electronic device 101 may identify a region of interest based on the execution screen of the single window 1160 . According to an embodiment, the electronic device 101 may generate and provide a queue object 1165 corresponding to the ROI based on the ROI.
  • the electronic device 101 may generate the queue object 1165 related to the single window 1160 from the ROI of the window 1160 .
  • the electronic device 101 generates (eg, captures) an image (or capture data) corresponding to all or part of an ROI, and adjusts (eg, reduces) the size of the generated image to have a specified shape ( For example, a queue object 1165 (eg, a floating icon) having a circle, a square, or an oval) may be created.
  • a queue object 1165 eg, a floating icon having a circle, a square, or an oval
  • the processor 120 overlaps and displays the generated queue object 1165 on at least one execution screen (or window) in an area designated by the display module 160 (eg, a screen lower area). can do.
  • the queue object 1165 may be provided by floating at an arbitrary location on at least one execution screen (or window).
  • the electronic device 101 may not provide the queue object in a single window based on the setting of the electronic device 101 .
  • the electronic device 101 sets an interval between the queue objects. They can be placed (or aligned) at specified intervals. According to an embodiment, the arrangement order of the queue objects 1115 , 1125 , 1135 , 1145 , 1155 , 1165 may follow, for example, the window order of the multi-window.
  • the window order is set in the order of left to right in a ' ⁇ ' shape in the case of two divisions, and is set in the order of left to right and upper right to bottom right in a 'L' shape in the case of 3 divisions, 4
  • it can be set in the same order from left to bottom, from left to bottom, from top to bottom, in the shape of an 'inverted N ( ⁇ )' shape, but is not limited thereto.
  • the queue objects may be arranged from left to right (eg, horizontal arrangement) or from top to bottom (eg, vertical arrangement) according to the priority according to the window order.
  • the electronic device 101 when the cue objects 1115 , 1125 , 1135 , 1145 , 1155 , and 1165 are provided, the electronic device 101 provides a toolbar for editing related to capture data (eg, FIG. 12 and/or FIG. 12 ). Alternatively, the toolbars 1230 and 1340 of FIG. 13 may be provided together. According to some embodiments, the electronic device 101 displays the queue objects 1115, 1125, 1135, 1145, 1155, 1165 and/or the toolbars 1230 and 1340 for a specified period of time (eg, M seconds, M is a natural number). After displaying for a while, it can be disabled.
  • a specified period of time eg, M seconds, M is a natural number
  • the capture data of the execution screen corresponding to the windows 1110, 1120, 1130, 1140, 1150 for the queue objects 1115, 1125, 1135, 1145, 1155, 1165, respectively, in the screen capture operation You can save temporarily without saving.
  • the electronic device 101 may have a temporary storage or temporary memory (or buffer) secured on the memory 130 to hold an intermediate result (eg, temporary capture data) during a screen capture operation. )) to temporarily store captured data.
  • the electronic device 101 generates the queue objects 1115 , 1125 , 1135 , 1145 , 1155 , 1165 (eg, a floating icon) based on the temporarily stored capture data in the background. can be processed
  • the electronic device 101 when any one of the queue objects 1115 , 1125 , 1135 , 1145 , 1155 , and 1165 is selected, the electronic device 101 stores capture data related to the selected queue object in the memory 130 . Temporary capture data related to other (or remaining) queue objects that are not selected and stored in the memory 130 may be removed from the memory 130 .
  • the electronic device 101 displays a window corresponding to the selected queue object.
  • a window corresponding to the selected queue object can be displayed by calling the edit screen with auto-selected.
  • the user may support to directly edit the ROI for the captured data in the corresponding window on the editing screen.
  • the electronic device 101 may call and display the toolbars 1230 and 1340 in a state in which a window corresponding to the selected queue object is automatically selected.
  • the user may use the toolbars 1230 and 1240 to execute a task related to editing, storing, and/or sharing the ROI for the captured data in the corresponding window.
  • the electronic device 101 may It can be determined by inserting the capture data corresponding to the queue object into the execution screen of the application of the window to be designated (or dragged). For example, the electronic device 101 may insert capture data corresponding to the queue object into the application based on a user input (eg, drag & drop) according to the user's selection of the queue object. An operation thereof will be described with reference to drawings (eg, FIGS. 12 and/or 13 ) to be described later.
  • FIG. 11 is a flowchart illustrating an operation of an electronic device according to various embodiments of the present disclosure.
  • the processor 120 of the electronic device 101 may display an execution screen of an application based on a multi-window.
  • the processor 120 may execute (eg, multitask) at least two applications based on a user input.
  • the processor 120 divides the screen of the display module 160 based on the execution of the at least two applications and displays at least two windows (eg, a first window, A multi-window including a second window and a third window) may be provided.
  • the processor 120 may control the display module 160 to respectively display execution screens of applications in each window of the multi-window.
  • the processor 120 may detect an interaction related to screen capture.
  • the processor 120 may receive an interaction in a manner designated to execute a screen capture from the user while displaying execution screens corresponding to the applications through the multi-window.
  • the specified interaction includes a capture interaction using a hardware button of the electronic device 101, a capture interaction using a user's gesture, a capture interaction using a voice (eg, Bixby), and a capture interaction using an electronic pen. , and/or capture interaction using a software button on the edge panel.
  • the processor 120 may determine characteristic information of the application for each window based on the detection of the interaction. According to an embodiment, the processor 120 may determine characteristic information for each window based on an execution screen corresponding to each of the applications being executed through the multi-window. According to an embodiment, the characteristic information of the application may indicate a representative characteristic in an execution screen displayed through a window.
  • the feature information may include region information (eg, location or coordinate information) regarding a region (or feature) in which an image and/or a subject (eg, text) is focused.
  • the processor 120 may identify (or set) an ROI based on the feature information. According to an embodiment, the processor 120 may identify the ROI based on the feature information in each of the displayed execution screens based on the multi-window. According to an embodiment, the region of interest may be generated including a portion displayed as an execution screen in a corresponding window or may be generated including a portion not displayed as an execution screen according to characteristic information. According to an embodiment, the processor 120 may perform region analysis within the execution screen at the time of screen capture based on the interaction. According to an embodiment, the processor 120 may provide feedback on the region of interest to the user by highlighting the region including the region of interest based on the characteristic information on each execution screen for each window in a specified manner.
  • the processor 120 may perform a screen capture for each window. According to an embodiment, the processor 120 may perform a screen capture for each window of the multi-window based on the detection of the interaction. According to an embodiment, the processor 120 may perform a screen capture based on each ROI identified based on the first execution screen of the first window and the second execution screen of the second window.
  • the processor 120 may generate capture data.
  • the processor 120 may capture all or a part of the ROI to generate capture data for each window.
  • the processor 120 stores the generated capture data in a temporary storage device (or buffer) secured in the memory 130 to preserve an intermediate result (eg, temporary capture data) during a screen capture operation. It can be stored temporarily.
  • the processor 120 may generate and display a queue object for each window based on the capture data.
  • the processor 120 may process an operation of generating a queue object (eg, a floating icon) based on the temporarily stored capture data in the background.
  • the processor 120 selects the first queue object related to the first window based on the captured data generated based on the region of interest of the first execution screen of the first window. and may provide a second queue object related to the second window based on the captured data generated based on the region of interest of the second execution screen of the second window.
  • the processor 120 adjusts (eg, reduces) the size of the captured data (eg, an image) to display an object (eg, a floating icon) having a specified shape (eg, a circle, a square, or an oval). It can be provided as a queue object.
  • an object eg, a floating icon
  • a specified shape eg, a circle, a square, or an oval
  • the processor 120 may detect an event based on the queue object.
  • the processor 120 may detect an event (eg, drag & drop) in which a queue object is selected by a user and the selected queue object is moved to a location (or area) of a specific window among multiple windows.
  • the processor 120 transmits capture data (eg, capture data of the first application) corresponding to the selected queue object based on the event detection to a specific application execution screen (eg, execution screen of the second application). Events for insertion (eg drag & drop) can be handled.
  • the processor 120 may process an event using capture data of a queue object corresponding to the event. According to an embodiment, the processor 120 may transmit capture data (eg, capture data of the first application) corresponding to the selected queue object to the second application. According to an embodiment, the processor 120 may process an operation of sharing the captured data with an application in another window.
  • capture data eg, capture data of the first application
  • the processor 120 may process an operation of sharing the captured data with an application in another window.
  • the processor 120 may display an event processing result through a window.
  • the processor 120 performs an event processing result (eg, capture data on the execution screen inserted screen) can be displayed.
  • FIG. 12 is a view for explaining an example of operating a screen capture function in a multi-window environment in an electronic device according to various embodiments of the present disclosure
  • FIG. 12 may show an example of an operation of capturing and sharing a screen in a multi-window environment.
  • FIG. 12 may show an example of an operation of capturing and sharing a screen in a multi-window environment.
  • the present invention is not limited thereto, and the apparatus may operate in an N-segment multi-window environment.
  • the electronic device 101 may provide an execution screen of an application based on a multi-window including a first window 1210 and a second window 1220 .
  • the electronic device 101 displays a first execution screen of a first application (eg, an Internet application) through the first window 1210 and a second application (eg, an Internet application) through the second window 1220 .
  • a second execution screen of the message application may be displayed.
  • the electronic device 101 may receive an interaction in a manner designated to perform screen capture in a multi-window environment.
  • the electronic device 101 may perform a screen capture. For example, the electronic device 101 may perform a screen capture for each window 1210 and 1220 of the multi-window. According to an embodiment, the electronic device 101 identifies each ROI based on the first execution screen of the first window 1210 and the second execution screen of the second window 1220 , and based on the ROI Thus, screen capture may be performed, and cue objects 1215 and 1225 may be generated and displayed based on the captured data corresponding to the ROI. For example, the electronic device 101 configures the first cue object 1215 based on the region of interest of the first execution screen of the first window 1210 and the region-of-interest-based second object of the second execution screen of the second window 1220 . 2 A queue object 1225 may be provided. According to an embodiment, the electronic device 101 may temporarily store a result (eg, capture data for each window) according to the screen capture.
  • a result eg, capture data for each window
  • a toolbar for supporting editing and/or sharing of capture data related to capture data may be provided together.
  • the user selects (or designates) any one of the queue objects 1215 and 1225 , and uses the queue object in the toolbar 1230 to perform a function (eg, edit, tag). ), by selecting an object (or icon) related to share) to execute a corresponding function.
  • a function eg, edit, tag
  • the user may select 1240 (eg, tap & hold) the first queue object 1215 from among the queue objects 1215 and 1225 .
  • the cue object selection may be selected using, for example, a direct selection (eg, a touch) using a user's hand or an electronic pen, or a communication between the electronic device 101 and the electronic pen.
  • the electronic device 101 receives target capture data related to the selected queue object (eg, the first queue object 1215). It is identified, the target capture data is stored in the memory 130 , and temporary capture data related to a queue object that is not selected (eg, the second queue object 1225 ) may be removed from the memory 130 .
  • the user may move 1250 (eg, drag & drop) the selected first queue object 1215 to a specific window (eg, the second window 1220).
  • the electronic device 101 removes the display of the toolbar 1230 and/or the unselected object (eg, the second object 1225) based on a user input for moving the selected queue object, A graphic effect in which the selected first cue object 1215 (or a thumbnail image based on capture data related to the first cue object 1215) is moved according to the movement of the user input may be provided.
  • the electronic device 101 displays a cancellation object 1260 capable of canceling movement (eg, drag & drop) of a queue object based on a user input of moving the selected queue object to one area ( Example: It can be provided by overlaying (or floating) it on the top of the screen.
  • a cancellation object 1260 capable of canceling movement (eg, drag & drop) of a queue object based on a user input of moving the selected queue object to one area ( Example: It can be provided by overlaying (or floating) it on the top of the screen.
  • the electronic device 101 cancels (or stops) the insertion operation of the capture data, for example, as in operation ⁇ 1203>, a related screen may be displayed so that the operation is performed again after screen capture.
  • FIG. 13 is a view for explaining an example of operating a screen capture function in a multi-window environment in an electronic device according to various embodiments of the present disclosure
  • FIG. 13 may show an example of an operation of capturing and sharing a screen in a multi-window environment.
  • FIG. 12 although an example of operation in a three-part multi-window environment is described in FIG. 12 , the present invention is not limited thereto, and it may operate in an N-divided multi-window environment.
  • the electronic device 101 executes an application execution screen based on a multi-window including a first window 1310 , a second window 1320 , and a third window 1330 .
  • the electronic device 101 displays a first execution screen of the first application through the first window 1310, displays a second execution screen of the second application through the second window 1320, A third execution screen of the third application may be displayed through the third window 1330 .
  • the electronic device 101 may receive an interaction in a manner designated to perform screen capture in a multi-window environment.
  • the electronic device 101 may perform a screen capture. For example, the electronic device 101 may perform a screen capture for each window 1310 , 1320 , and 1330 of the multi-window. According to an embodiment, the electronic device 101 is configured based on the first execution screen of the first window 1310 , the second execution screen of the second window 1320 , and the third execution screen of the third window 1330 . Each ROI may be identified, a screen capture may be performed based on the ROI, and cue objects 1315 , 1325 , and 1335 may be generated and displayed based on the captured data respectively corresponding to the ROI.
  • the electronic device 101 may display a first region-of-interest-based cue object 1315 of the first execution screen of the first window 1310 and a second region-of-interest-based second of the second execution screen of the second window 1320 .
  • the cue object 1325 and the third cue object 1335 based on the region of interest of the third execution screen of the third window 1330 may be provided.
  • the electronic device 101 may temporarily store a result (eg, capture data for each window) according to the screen capture.
  • the electronic device 101 when providing the cue objects 1315 , 1325 , and 1335 , the electronic device 101 supports editing and/or sharing of capture data related to capture data (or a region of interest for capture data).
  • a toolbar 1340 for this may be provided together.
  • the user selects the third queue object 1335 among the queue objects 1315, 1325, and 1335 and moves it (eg, drag & drop) to a specific window (eg, the first window 1310).
  • a specific window eg, the first window 1310.
  • FIG. 13 an example of maintaining the display state of the queue objects 1315 , 1325 , and 1335 until, for example, an end of a screen capture operation or an input according to a user intention may be shown.
  • FIG. 12 may show an example in which display of other unselected queue objects and corresponding temporary capture data are removed according to the movement of the selected queue object.
  • FIG. 13 may show an example in which display of the selected queue object and other unselected queue objects is maintained when the selected queue object is moved, and temporary capture data corresponding to the queue objects is maintained.
  • the user may use captured data for each window without repeatedly performing screen capture. For example, the user may display the capture data of the first queue object 1315, the capture data of the second queue object 1325, and the capture data of the third queue object 1335 on the first execution screen of the first window 1310. can be inserted sequentially.
  • the electronic device 101 when the queue object is selected, the electronic device 101 identifies target capture data related to the selected queue object (eg, the third queue object 1335 ), and stores the target capture data in the memory 130 . can be stored in
  • the electronic device 101 selects a third cue object 1335 (or a thumbnail image 1350 based on capture data related to the third cue object 1335) selected based on a user input for moving the selected cue object. ) may provide a graphic effect that is moved according to the movement of the user input.
  • the electronic device 101 may display a corresponding specific window (eg, capture data (eg, an image) related to the third cue object 1335 may be inserted and displayed in an execution screen (eg, the first execution screen) of the first window 1310).
  • capture data eg, an image
  • an execution screen eg, the first execution screen
  • the processor 120 of the electronic device 101 may display a plurality of execution screens respectively corresponding to a plurality of applications based on a multi-window.
  • the processor 120 divides the screen of the display module 160 based on the execution of the at least two applications and displays at least two windows (eg, a first window, A multi-window including a second window and a third window) may be provided.
  • the processor 120 may display execution screens of applications in each window of the multi-window, respectively.
  • the processor 120 may detect an interaction related to screen capture while displaying each execution screen through the multi-window. According to an embodiment, the processor 120 may receive an interaction in a manner designated to execute a screen capture from the user while displaying execution screens corresponding to the applications through the multi-window.
  • the processor 120 may perform screen capture for each window based on the ROI for each window of the multi-window based on the interaction.
  • the processor 120 may determine the characteristic information of the application for each window of the multi-window based on the detection of the interaction, and identify (or set) the ROI based on the characteristic information.
  • the processor 120 may perform a screen capture based on each ROI identified based on the first execution screen of the first window and the second execution screen of the second window.
  • the processor 120 may provide a cue including at least a portion of the ROI for each window based on the screen capture. According to an embodiment, the processor 120 may capture all or a part of the ROI to generate multi-window capture data for each window. According to an embodiment, the processor 120 may generate and display a queue object for each window based on the capture data. According to an embodiment, the processor 120 may process an operation of generating a queue object (eg, a floating icon) based on the temporarily stored capture data in the background.
  • a queue object eg, a floating icon
  • the processor 120 may process an event using capture data corresponding to the queue, based on a user input using the queue.
  • the processor 120 may detect an event (eg, drag & drop) in which a cue is selected by a user and the selected cue is moved to a location (or area) of a specific window among multiple windows.
  • the processor 120 is configured to insert capture data (eg, capture data of a first application) corresponding to a queue selected based on event detection into an execution screen of another application (eg, a second application). Events (eg drag & drop) can be handled.
  • the processor 120 transmits capture data (eg, capture data of the first application) corresponding to the selected queue to the second application, and processes the operation of sharing the capture data with an application in another window.
  • capture data eg, capture data of the first application
  • the operation method performed by the electronic device 101 includes an operation of displaying execution screens respectively corresponding to a plurality of applications based on a multi-window, each through the multi-window. Detecting an interaction related to screen capture while displaying an execution screen of It may include an operation of providing a cue including at least a portion of the region of interest for each window, and an operation of processing an event using capture data corresponding to the cue based on a user input using the cue. .
  • the detecting of the interaction may include, while displaying a plurality of execution screens corresponding to applications through the multi-window, receiving an interaction in a manner designated to execute a screen capture from the user. It may include an action to
  • the specified interaction includes a capture interaction using a hardware button of the electronic device, a capture interaction using a user's gesture, a capture interaction using a voice, a capture interaction using an electronic pen, and/ Alternatively, at least one of a capture interaction using a software button on the edge panel may be included.
  • the performing of the screen capture may include determining characteristic information of an application for each window of the multi-window based on the detection of the interaction, and selecting a region of interest based on the characteristic information.
  • the method may include identifying, capturing all or part of the region of interest to generate capture data for each window of the multi-window, and temporarily storing the captured data in a memory of the electronic device.
  • the operation of providing the queue may include generating a queue object having a specified shape by adjusting the size of the capture data, and displaying the queue object in a specified area in a display module of the electronic device. , overlapping and displaying on at least one execution screen.
  • the operation of processing the event is an operation of detecting an event in which the queue is selected by a user and the selected queue is moved to an area of a specific window among multiple windows, based on the detection of the event to share the capture data corresponding to the selected queue with an application in another window.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 다양한 실시예들은 화면 캡쳐 기능을 가지는 전자 장치 및 전자 장치에서 화면 캡쳐 기능을 운영하는 방법에 관하여 개시한다. 다양한 실시예들에 따른 전자 장치는, 디스플레이 모듈 및 프로세서를 포함하고, 상기 프로세서는, 멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하고, 상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하고, 상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하고, 상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하고, 및 상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리할 수 있다. 다양한 실시예들이 가능하다.

Description

캡쳐 기능 제공 방법 및 그 전자 장치
본 개시의 다양한 실시예들은 화면 캡쳐(screen capture) 기능을 가지는 전자 장치 및 전자 장치에서 화면 캡쳐(screen capture) 기능을 운영하는 방법에 관하여 개시한다.
디지털 기술의 발달과 함께 이동통신 단말기, PDA(personal digital assistant), 전자수첩, 스마트 폰, 태블릿 PC(personal computer), 웨어러블 디바이스(wearable device)와 같은 다양한 유형의 전자 장치가 널리 사용되고 있다. 이러한, 전자 장치는 기능 지지 및 증대를 위해, 전자 장치의 하드웨어적인 부분 및/또는 소프트웨어적인 부분이 지속적으로 개량되고 있다.
일 예로, 전자 장치는 디스플레이를 통해 표시 중인 실행 화면을 캡쳐(capture)할 수 있는 화면 캡쳐(또는 스크린샷(screenshot)) 기능을 제공하고 있다. 예를 들면, 화면 캡쳐(또는 스크린샷) 기능은, 디스플레이를 통해 표시 중인 실행 화면을 보이는 그대로 포착하여 저장하는 디지털 이미지를 나타낼 수 있다. 화면 캡쳐 기능은, 예를 들면, 전체 화면을 일반 비트맵 이미지 형식(예: BMP, PNG 또는 JPEG)의 파일로 출력 및 저장하거나, 일정 기간 동안 화면을 비디오 형식의 파일로 출력 및 저장할 수 있다.
최근 전자 장치는 하나의 디스플레이에서 멀티 윈도우(multi window)를 제공하거나, 적어도 2개의 디스플레이를 포함하고 적어도 2개의 디스플레이를 하나의 윈도우 또는 멀티 윈도우로 사용하도록 제공하고 있다. 하지만, 화면 캡쳐 기능의 경우, 멀티 윈도우(또는 영역)를 구분하지 않고, 디스플레이에 표시되는 전체 화면의 캡쳐만을 제공하고 있다.
다양한 실시예들에서는, 전자 장치의 멀티 윈도우 환경에서 윈도우 별 화면 캡쳐를 지원하기 위한 방법 및 장치에 관하여 개시한다.
다양한 실시예들에서는, 멀티 윈도우 환경에서 화면 캡쳐 인터랙션에 기반하여 멀티 윈도우에 각각 대응하는 화면을 캡쳐하고, 멀티 윈도우에 각각 대응하여 캡쳐된 결과(예: 캡쳐 데이터)에 대한 큐(cue)를 제공할 수 있는 방법 및 장치에 관하여 개시한다.
본 개시의 실시예에 따른 전자 장치는, 디스플레이 모듈, 및 상기 디스플레이 모듈과 작동적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하고, 상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하고, 상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하고, 상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하고, 및 상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리하도록 할 수 있다.
본 개시의 실시예에 따른 전자 장치의 동작 방법은, 멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하는 동작, 상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하는 동작, 상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하는 동작, 상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하는 동작, 및 상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리하는 동작을 포함할 수 있다.
상기와 같은 과제를 해결하기 위하여 본 개시의 다양한 실시예들에서는, 상기 방법을 프로세서에서 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독 가능한 기록 매체를 포함할 수 있다.
본 개시의 적용 가능성의 추가적인 범위는 이하의 상세한 설명으로부터 명백해질 것이다. 그러나 본 개시의 사상 및 범위 내에서 다양한 변경 및 수정은 당업자에게 명확하게 이해될 수 있으므로, 상세한 설명 및 본 개시의 바람직한 실시예와 같은 특정 실시예는 단지 예시로 주어진 것으로 이해되어야 한다.
다양한 실시예들에 따른 전자 장치 및 그의 동작 방법에 따르면, 멀티 윈도우 환경에서 전체 화면의 화면 캡쳐(또는 스크린샷) 외에, 멀티 윈도우의 각 윈도우 별로 구별되는 화면 캡쳐를 제공하여, 화면 캡쳐 기능에 대한 사용자 경험을 향상시킬 수 있다. 다양한 실시예들에 따르면, 전자 장치의 멀티 윈도우 환경에서 화면 캡쳐를 운영하기 위한 다양한 인터랙션을 제공하여 사용성을 향상시킬 수 있다. 다양한 실시예들에 따르면, 전자 장치의 멀티 윈도우 환경에서 각 윈도우에 대해 빠른 화면 캡쳐 및 공유(예: quick capture & share) 기능을 제공하여 사용성을 향상시킬 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도면 설명과 관련하여, 동일 또는 유사한 구성 요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는 다양한 실시예들에 따른 전자 장치의 예를 설명하기 위해 도시하는 도면이다.
도 3은 다양한 실시예들에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.
도 4는 다양한 실시예들에 따른 전자 장치의 플랫폼 아키텍쳐의 구조 예를 도시하는 도면이다.
도 5는 다양한 실시예들에 따른 전자 장치의 동작을 도시하는 흐름도이다.
도 6a, 도 6b, 도 6c, 및 도 6d는 다양한 실시예들에 따른 전자 장치에서 화면 운영 예를 설명하기 위한 도면들이다.
도 7a, 도 7b 및 도 7c는 다양한 실시예들에 따른 전자 장치에서 화면 캡쳐에 관련된 인터랙션을 설명하기 위한 도면들이다.
도 8a 및 도 8b는 다양한 실시예들에 따른 전자 장치에서 관심 영역을 설정하는 예를 설명하기 위한 도면들이다.
도 9a 및 도 9b는 다양한 실시예들에 따른 전자 장치에서 관심 영역에 대한 피드백을 제공하는 예를 설명하기 위한 도면들이다.
도 10a, 도 10b 및 도 10c는 다양한 실시예들에 따른 전자 장치에서 화면 캡쳐에 관련된 큐 객체를 제공하는 예를 설명하기 위한 도면들이다.
도 11은 다양한 실시예들에 따른 전자 장치의 동작을 도시하는 흐름도이다.
도 12는 다양한 실시예들에 따른 전자 장치에서 멀티 윈도우 환경에서 화면 캡쳐 기능을 운영하는 예를 설명하기 위한 도면이다.
도 13은 다양한 실시예들에 따른 전자 장치에서 멀티 윈도우 환경에서 화면 캡쳐 기능을 운영하는 예를 설명하기 위한 도면이다.
도 14는 다양한 실시예들에 따른 전자 장치의 동작을 도시하는 흐름도이다.
도 1은 다양한 실시예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치(CPU, central processing unit) 또는 어플리케이션 프로세서(AP, application processor)) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치(GPU, graphic processing unit), 신경망 처리 장치(NPU, neural processing unit), 이미지 시그널 프로세서(ISP, image signal processor), 센서 허브 프로세서(sensor hub processor), 또는 커뮤니케이션 프로세서(CP, communication processor))를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(inactive)(예: 슬립(sleep)) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(OS, operating system)(142), 미들 웨어(middleware)(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD(secure digital) 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN(wide area network))와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB, enhanced mobile broadband), 단말 전력 최소화와 다수 단말의 접속(mMTC, massive machine type communications), 또는 고신뢰도와 저지연(URLLC, ultra-reliable and low-latency communications)을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO, full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC, mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱(heuristic)하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
도 2는 다양한 실시예들에 따른 전자 장치의 예를 설명하기 위해 도시하는 도면이다.
일 실시예에 따라, 도 2는 다양한 실시예들에 따른 디스플레이 형태에 따른 전자 장치(101)의 다양한 폼 팩터(form factor)의 예를 나타낼 수 있다. 일 실시예에 따르면, 전자 장치(101)는 바형(bar type) 또는 평판형(plate type)(210), 폴더블(foldable)(220, 230 또는 240), 롤러블(rollable)(250), 및/또는 슬라이드블(slidable)(260)과 같은 다양한 폼 팩터를 포함할 수 있다. 일 실시예에 따라, 도 2에 예시된 바와 같이, 전자 장치(101)는 다양한 형태로 구현될 수 있고, 전자 장치(101)의 구현 형태에 따라 디스플레이(예: 도 1의 디스플레이 모듈(160))가 다양한 방식으로 제공될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치(101)는 바형 또는 평판형의 외관을 가지고 있지만, 이에 한정되지 않는다. 예를 들어, 도시된 전자 장치(101)는 폴더블 전자 장치(220, 230 또는 240), 롤러블 전자 장치(250) 또는 슬라이드블 전자 장치(260)의 일부일 수 있다.
일 실시예에 따라, 폴더블 전자 장치(220, 230 또는 240)는 디스플레이(예: 도 1의 디스플레이 모듈(160))의 서로 다른 두 영역을 실질적으로 마주보게 또는 서로 반대 방향을 향하는(opposite to) 방향으로 접힘이 가능한 전자 장치를 의미할 수 있다. 일반적으로, 휴대 상태에서 폴더블 전자 장치(220, 230 또는 240)에서 디스플레이는 서로 다른 두 영역이 마주보는 상태로 또는 대향하는 방향으로 접철되고, 실제 사용 상태에서 사용자는 디스플레이(예: 도 1의 디스플레이 모듈(160))를 펼쳐 서로 다른 두 영역이 실질적으로 평판 형태를 이루게 할 수 있다.
일 실시예에 따라, 폴더블 전자 장치(220, 230 또는 240)는 하나의 폴딩 축에 기반하여 2개의 디스플레이 면(예: 제1 디스플레이 면 및 제2 디스플레이 면)을 포함하는 폼 팩터(예: 220 또는 230) 및/또는 적어도 2개의 폴딩 축에 기반하여 적어도 3개의 디스플레이 면(예: 제1 디스플레이 면, 제2 디스플레이 면 및 제3 디스플레이 면)을 포함하는 폼 팩터(예: 240)를 포함할 수 있다. 다양한 실시예들이 이에 한정되는 것은 아니며, 이는 예시적인 것으로, 전자 장치(101)가 가질 수 있는 폴딩 축들의 수는 제한하지 않는다.
일 실시예에 따르면, 폴더블 전자 장치(220, 230 또는 240)는 구현 형태에 따라 디스플레이(예: 도 1의 디스플레이 모듈(160))가 다양한 방식(예: 인-폴딩, 아웃-폴딩, 또는 인/아웃 폴딩)으로 폴딩 또는 언폴딩 될 수 있다. 일 실시예에 따르면, 폴더블 전자 장치(220, 230 또는 240)는 세로 폴더블, 가로 폴더블, G 폴더블, 또는 Z 폴더블과 같이 다양한 폴더블 방식을 포함할 수 있다.
일 실시예에 따라, 슬라이드블 전자 장치(260) 또는 롤러블 전자 장치(250)는, 디스플레이(예: 도 1의 디스플레이 모듈(160))의 굽힘 변형이 가능해, 적어도 일부분이 말아지거나(wound or rolled), 하우징(미도시)의 내부로 수납될 수 있는 전자 장치를 의미할 수 있다. 사용자의 필요에 따라, 슬라이드블 전자 장치(260) 또는 롤러블 전자 장치(250)는 디스플레이(예: 도 1의 디스플레이 모듈(160))를 펼침으로써 또는 디스플레이의 더 넓은 면적을 외부로 노출시킴으로써 화면 표시 영역을 확장하여 사용할 수 있다.
일 실시예에 따르면, 롤러블 전자 장치(250)는 롤-업(roll-up) 방식의 디스플레이(예: 롤러블 디스플레이(rollable display)))를 포함하는 폼 팩터를 포함할 수 있다. 일 실시예에 따라, 슬라이드블 전자 장치(260) 또는 롤러블 전자 장치(250)는, 사용자가 디스플레이(예: 도 1의 디스플레이 모듈(160))를 펼치는 정도에 따라, 디스플레이가 외부로 노출되는 면적이 달라질 수 있다.
도 2에서는 도시하지 않았으나, 어떤 실시 예에 따르면, 전자 장치(101)는 전자 펜(미도시)을 수납하기 위한 수납 공간(또는 내부 공간)을 포함할 수 있고, 전자 펜을 수납 공간에 수용할 수 있다. 일 실시예에 따라, 전자 장치(101)는 전자 펜과 지정된 통신 방식에 기반하여 통신할 수 있다. 예를 들면, 전자 장치(101)와 전자 펜은 통신 회로를 이용하여, OOB(out of band)(예: NFC, BLE, 및/또는 Wi-Fi 2.4GHz) 통신을 통해 서로 통신할 수 있다.
도 3은 다양한 실시예들에 따른 전자 장치의 구성을 개략적으로 도시하는 도면이다.
일 실시예에 따라, 도 3은 다양한 실시예들에 따른 전자 장치(101)에서 화면 캡쳐(또는 스크린샷) 기능을 지원하는 것과 관련된 구성의 예를 나타낼 수 있다. 일 실시예에 따라, 도 3에 예시된 전자 장치(101)는 도 1을 참조한 설명 부분에서 설명한 바와 같은 전자 장치(101)의 구성 요소의 전부 또는 적어도 일부를 포함할 수 있다.
도 3을 참조하면, 전자 장치(101)는 프로세서(120), 디스플레이 모듈(160), 무선 통신 모듈(360), 및 메모리(130)를 포함할 수 있다. 일 실시예에 따라, 전자 장치(101)에 포함되는 구성 요소들은, 예를 들면, 하드웨어 모듈(예: 회로(circuitry))로 이해될 수 있다. 일 실시예에 따르면, 전자 장치(101)에 포함되는 구성 요소들은, 도 2에 도시된 구성 요소들(예: 프로세서(120), 디스플레이 모듈(160), 무선 통신 모듈(360) 및/또는 메모리(130))에 제한되지 않을 수 있다. 예를 들면, 도 2에 도시된 전자 장치(101)의 구성 요소들은, 다른 구성 요소들로 대체되거나, 또는 추가적인 구성 요소들이 전자 장치(101)에 추가될 수 있다. 예를 들면, 전자 장치(101)는 센서 모듈(예: 도 1의 센서 모듈(176)), 카메라 모듈(예: 도 1의 카메라 모듈(180)), 및/또는 통신 모듈(예: 도 1의 통신 모듈(190))과 같은 다른 구성 요소들을 포함할 수 있다.
일 실시예에 따라, 디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 일 실시예에 따라, 디스플레이 모듈(160)은 터치 회로(또는 터치 센서)(미도시) 또는 압력 센서를 포함할 수 있고, 터치 회로 또는 압력 센서에 기반하여 디스플레이 모듈(160)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 및/또는 전하량)의 변화를 측정함으로써 터치 입력 및/또는 호버링 입력(또는 근접 입력)을 감지할 수 있다. 어떤 실시예에 따르면, 디스플레이 모듈(160)은 전자 펜(미도시)을 검출하는 디지타이저 회로와 결합되거나 인접하여 배치될 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 액정 표시 장치(LCD, liquid crystal display), OLED(organic light emitted diode), AMOLED(active matrix organic light emitted diode) 또는 플렉서블 디스플레이(flexible display)로 구성될 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 프로세서(120)의 제어 하에, 사용자가 화면 캡쳐를 수행하는 것과 관련된 다양한 정보(예: 캡쳐 레이아웃(capture layout), 관심 영역(ROI, region of interest) 객체 및/또는 큐(cue) 객체(예: 썸네일(thumbnail) 객체))를 시각적으로 제공할 수 있다. 예를 들면, 디스플레이 모듈(160)은 어플리케이션(340)의 실행 화면(예: 홈 화면 포함), 메모리(130)에 저장된 컨텐츠(350), 또는 어플리케이션(340)의 실행 화면 상에 화면 캡쳐에 대응하는 관련 정보를 표시할 수 있다.
일 실시예에 따라, 무선 통신 모듈(360)(예: 도 1의 무선 통신 모듈(192))은 레거시 네트워크(예: 3G 네트워크 및/또는 4G 네트워크), 5G 네트워크, OOB(out of band) 및/또는 차세대 통신 기술(예: NR(new radio) 기술)을 지원할 수 있다. 일 실시예에 따른 무선 통신 모듈(360)은 제1 네트워크(예: cellular network)를 통해 전자 장치(101)의 무선 통신을 지원하도록 설정된 제1 통신 회로, 및 OOB(out of band)(예: NFC, BLE, 및/또는 Wi-Fi(wireless fidelity) 2.4GHz)에 기반하여 전자 장치(101)의 무선 통신을 지원하도록 설정된 제2 통신 회로를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1 통신 회로를 이용하여 지정된 네트워크를 통해 외부 장치 및/또는 서버(301)와 통신을 수행할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제2 통신 회로를 이용하여 제1 네트워크와는 다른 제2 네트워크(예: 블루투스, BLE, Wi-Fi direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크)를 통해 전자 펜(미도시)과 통신을 수행할 수 있다.
일 실시예에 따라, 전자 장치(101)는 무선 통신 모듈(360)을 통해 전자 펜과 통신 연결된 상태에서 전자 펜으로부터 에어 액션(air action)(또는 에어 제스처(air gesture))에 관련된 정보(예: 에어 커맨드(command))를 수신할 수 있다. 일 실시예에 따라, 에어 액션은, 전자 펜을 이용하여 전자 장치(101)를 원격 제어 가능한 기능을 나타낼 수 있다. 예를 들면, 에어 액션은, 사용자가 전자 펜에 포함된 버튼을 누른 상태로 에어(air) 상에서 지정된 액션(또는 제스처)을 실행하는 동작을 포함하며, 전자 펜은, 사용자의 에어 액션에 관련된 정보(예: 에어 커맨드)를 OOB 통신을 통해 전자 장치(101)로 전송할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 전자 펜의 입력 신호(예: 에어 액션)에 대응하는 기능(예: 화면 캡쳐 기능)을 실행하고, 이에 대한 사용자 인터페이스(UI, user interface)를 디스플레이 모듈(160)을 통해 표시할 수 있다. 일 실시예에 따른 전자 펜의 에어 액션과 관련하여 기능을 매핑하는 것과 관련하여 후술하는 도면을 참조하여 설명된다.
일 실시예에 따라, 메모리(130)는 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 어플리케이션(340)(예: 도 1의 어플리케이션(146)) 및/또는 컨텐츠(350)를 포함할 수 있다.
일 실시예에서, 어플리케이션(340)은 전자 장치(101)에서 실행 가능한 다양한 어플리케이션을 포함할 수 있다. 예를 들면, 어플리케이션(340)은 홈(home), 다이얼러(dialer), SMS(short message service)/MMS(multimedia messaging service), IM(instant message), 브라우저(browser), 카메라(camera), 알람(alarm), 컨택트(contact), 음성 인식(voice recognition), 이메일(email), 달력(calendar), 미디어 플레이어(media player), 앨범(album), 와치(watch), 헬스(health)(예: 운동량 또는 혈당과 같은 생체 정보(biometric information)를 측정), 또는 환경 정보(environmental information)(예: 기압(air pressure), 습도(humidity), 또는 온도(temperature) 정보 측정) 어플리케이션을 포함할 수 있으며, 그 종류가 제한되지 않을 수 있다. 일 실시예에 따르면, 어플리케이션(340)은 전자 장치(101)와 외부 전자 장치 사이의 정보 교환을 지원할 수 있는 정보 교환 어플리케이션을 더 포함할 수 있다. 정보 교환 어플리케이션은, 예를 들면, 외부 전자 장치로 지정된 정보(예: 통화, 메시지, 또는 알람)를 전달하도록 설정된 노티피케이션 릴레이 어플리케이션, 또는 외부 전자 장치를 관리하도록 설정된 장치 관리 어플리케이션을 포함할 수 있다.
일 실시예에서, 컨텐츠(350)는 어플리케이션(340)을 이용하여 생성된 사용자의 컨텐츠(예: 사용자에 의해 캡쳐된 이미지 또는 비디오)를 포함할 수 있다. 예를 들면, 컨텐츠(350)는 어플리케이션(340)에 관련된 명령에 대한 입력 데이터 및/또는 출력 데이터를 포함할 수 있다. 일 실시예에 따라, 어플리케이션(340) 및/또는 컨텐츠(350)는 메모리(130) 상에 소프트웨어(예: 도 1의 프로그램(140))로서 저장될 수 있고, 프로세서(120)에 의해 실행 가능할 수 있다.
일 실시예에 따르면, 메모리(130)는 프로세서(120)에 의하여 수행될 수 있는 기능(예: 화면 캡쳐 기능)과 관련된 인터랙션 감지 모듈(310)(또는 인터랙션 감지 수단), 관심 영역 설정 모듈(320)(또는 관심 영역 설정 수단) 및/또는 캡쳐 모듈(330)(또는 캡쳐 수단)을 포함할 수 있다. 일 실시예에 따르면, 프로세서(120)에 의하여 수행될 수 있는 인터랙션 감지 모듈(310), 관심 영역 설정 모듈(320) 및/또는 캡쳐 모듈(330)의 기능은 메모리(130)에 인스트럭션(instructions)(또는 명령어) 형태로 구현되어 저장될 수 있다. 예를 들면, 인터랙션 감지 모듈(310), 관심 영역 설정 모듈(320) 및/또는 캡쳐 모듈(330)은, 예를 들면, 하드웨어 모듈(예: 회로(circuitry))로 이해될 수 있지만, 다양한 실시예들이 이에 한정되지 않는다. 예를 들어, 인터랙션 감지 모듈(310), 관심 영역 설정 모듈(320) 및/또는 캡쳐 모듈(330)은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. 일 실시예에 따르면, 인터랙션 감지 모듈(310), 관심 영역 설정 모듈(320) 및/또는 캡쳐 모듈(330)은 프로세서(120)에 의해 읽을 수 있는 저장 매체(storage medium)(예: 메모리(130))에 저장된 하나 이상의 인스트럭션들을 포함하는 소프트웨어(예: 도 1의 프로그램(140))로서 구현될 수 있다. 일 실시예에 따르면, 인터랙션 감지 모듈(310), 관심 영역 설정 모듈(320) 및/또는 캡쳐 모듈(330)에서 수행하는 동작들은, 메모리(130)에 저장되고, 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들에 의해 실행될 수 있다.
일 실시예에 따라, 인터랙션 감지 모듈(310)은 화면 캡쳐에 관련된 인터랙션을 감지할 수 있다. 일 실시예에 따르면, 인터랙션 감지 모듈(310)은 멀티 윈도우를 통해 어플리케이션들에 대응하는 복수의 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다. 일 실시예에 따라, 지정된 방식의 인터랙션은 전자 장치(101)의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처(예: 손 제스처)를 이용한 캡쳐 인터랙션, 음성(예: 빅스비)을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션을 포함할 수 있다. 일 실시예에 따른 인터랙션 감지 동작과 관련하여 후술하는 도면을 참조하여 상세히 설명된다.
일 실시예에 따라, 관심 영역 설정 모듈(320)은 어플리케이션의 관심 영역이 포함된 큐(cue)를 제공(예: 표시)할 수 있다. 일 실시예에 따르면, 관심 영역 설정 모듈(320)은 멀티 윈도우가 동작하는 동안 화면 캡쳐가 수행되는 경우 각각의 윈도우 별로 해당 어플리케이션의 관심 영역을 설정할 수 있다. 예를 들면, 2 분할의 멀티 윈도우를 가정하면, 관심 영역 설정 모듈(320)은 2 분할의 멀티 윈도우 중 제1 윈도우에서 제1 어플리케이션의 실행 화면에 기반하여 제1 관심 영역을 설정하고, 제2 윈도우에서 제2 어플리케이션의 실행 화면에 기반하여 제2 관심 영역을 설정할 수 있다. 일 실시예에 따른 관심 영역 설정 동작과 관련하여 후술하는 도면을 참조하여 상세히 설명된다.
일 실시예에 따라, 캡쳐 모듈(330)은 인터랙션에 기반하여 화면 캡쳐를 처리할 수 있다. 일 실시예에 따르면, 캡쳐 모듈(330)은 제1 윈도우의 제1 관심 영역에 대응하는 제1 캡쳐 데이터와 제2 윈도우의 제2 관심 영역에 대응하는 제2 캡쳐 데이터를 생성할 수 있다. 일 실시예에 따르면, 캡쳐 모듈(330)은 제1 캡쳐 데이터에 대응한 제1 큐 객체와 제2 캡쳐 데이터에 대응하는 제2 큐 객체를 생성하여 제공할 수 있다. 예를 들면, 캡쳐 모듈(320)은 관심 영역의 전체 또는 일부에 대응하는 이미지(또는 캡쳐 데이터)를 생성(예: 캡쳐)하고, 생성된 이미지의 크기를 조정(예: 축소)하여 지정된 모양(예: 원형, 사각형, 또는 타원형)을 가지는 큐 객체(예: 플로팅 아이콘(floating icon))를 생성할 수 있다. 일 실시예에 따른 캡쳐 동작과 관련하여 후술하는 도면을 참조하여 상세히 설명된다.
일 실시예에 따라, 프로세서(120)는 전자 장치(101)에서 어플리케이션(340)을 실행하고, 어플리케이션(340)에 의해 생성되는 컨텐츠(350)를 메모리(130)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 어플리케이션(340)의 실행 화면을 디스플레이 모듈(160)을 통해 표시하는 동안, 화면 캡쳐에 관련된 인터랙션(interaction)에 기반하여, 어플리케이션(340)의 실행 화면의 전부 또는 일부를 캡쳐하고, 캡쳐에 관련된 정보 객체(예: 큐(cue) 객체)를 실행 화면 상에 표시하도록 디스플레이 모듈(160)을 제어할 수 있다. 일 실시예에 따른 화면 캡쳐에 관련된 인터랙션과 관련하여 후술하는 도면을 참조하여 설명된다.
일 실시예에 따르면, 프로세서(120)는 디스플레이 모듈(160)의 화면 분할(또는 멀티 윈도우) 상태에 기반하여 하나 또는 그 이상의 캡쳐 데이터를 생성하고, 이를 메모리(130)에 임시 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 임시 저장된 임시 캡쳐 데이터에 기반하여 하나 또는 그 이상의 캡쳐에 관련된 정보 객체를 생성하여 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 정보 객체에 기반하여 사용자로부터 선택되는 정보 객체에 기반하여 캡쳐 데이터(예: 컨텐츠(350))를 메모리(130)에 저장하고, 선택되지 않은 다른(또는 나머지) 정보 객체에 관련된 임시 캡쳐 데이터는 메모리(130)에서 제거할 수 있다.
일 실시예에 따르면, 프로세서(120)는 메모리(130)에 인스트럭션 형태로 구현되어 저장되는 인터랙션 감지 모듈(310), 관심 영역 설정 모듈(320) 및/또는 캡쳐 모듈(330)에 대응하는 구성 요소들을 포함할 수 있다.
도 4는 다양한 실시예들에 따른 전자 장치의 플랫폼 아키텍쳐의 구조 예를 도시하는 도면이다.
도 4를 참조하면, 다양한 실시예들에 따른 전자 장치(101)는 도 4에 예시한 바와 같은 플랫폼 아키텍쳐의 구조를 기반으로 화면 캡쳐 기능을 처리 및 관리할 수 있다. 일 실시예에 따라, 도 4에 도시된 전자 장치(101)의 플랫폼 아키텍쳐는 프로세서(120)에 의해 실행되어, 메모리(130)에 로드(load)됨으로써 소프트웨어적으로 구현될 수 있다. 예를 들어, 소프트웨어적으로 구현된 전자 장치(101)의 구성은 어플리케이션(application) 계층(410)(예: 도 1의 어플리케이션(146)), 프레임워크(framework) 계층(420)(예: 도 1의 미들웨어(middleware)(144)), 하드웨어 추상화 계층(430)(HAL, hardware abstraction layer), 커널(Kernel) 계층(440) 및 하드웨어(HW) 계층(450)으로 구분될 있다. 일 실시예에 따르면, 전자 장치(101)가 포함하는 플랫폼에 따라 도 4에 도시된 구성 중 적어도 일부는 변경될 수 있다. 예를 들면, 플랫폼 아키텍쳐 중 적어도 일부는, 제조 시에 전자 장치(101)에 프리로드(pre-load)되거나, 또는 사용자에 의해 사용 시 외부 전자 장치(예: 도 1의 전자 장치(102 또는 104) 또는 서버(108))로부터 다운로드(download)되거나 업데이트(update) 될 수 있다.
일 실시예에 따라, 어플리케이션 계층(410)은 어플리케이션(예: 도 1의 어플리케이션(146)) 및 시스템 사용자 인터페이스(system UI)를 포함할 수 있다. 어플리케이션(146)은 전자 장치(101)의 메모리(130) 상에 저장 또는 프로세서(120)에 의해 실행 가능한 또는 설치된 어플리케이션, 예를 들어, App 1, App 2, App 3을 포함할 수 있으며, 이에 한정하지 않는다. 예를 들어, App 1은 에어 액션(air actions) 어플리케이션으로써, 전자 펜을 이용한 에어 액션 설정을 위해 사용자와의 인터랙션을 제공하는 어플리케이션일 수 있다. 시스템 사용자 인터페이스(415)는 전자 장치(101)의 시스템, 예를 들어, 화면의 공통 영역(fixed region/part) 또는 공통 기능의 표시를 제어하는 어플리케이션일 수 있다. 예를 들어, 시스템 사용자 인터페이스(415)는 notification bar, quick view와 관련된 화면을 관리할 수 있다.
일 실시예에 따라, 프레임워크 계층(420)(예: 도 1의 미들웨어(144))은 전자 장치(101)의 하나 이상의 리소스들(resources)로부터 제공되는 기능 또는 정보가 어플리케이션(146)에 의해 사용될 수 있도록 다양한 기능들을 어플리케이션(146)으로 제공할 수 있다. 프레임워크 계층(420)은, 예를 들면, 윈도우 매니저(window manager)(421), 화면 캡쳐 매니저(screen capture manager)(423), 뷰 시스템(view system)(425), 액티비티 매니저(activity manager)(427), 및 센서 매니저(sensor manager)(429)를 포함할 수 있으며, 이에 제한하지 않는다. 예를 들어, 프레임워크 계층(420)은, 도시되지 않은, 어플리케이션 매니저(application manager), 멀티미디어 매니저(multimedia manager), 리소스 매니저(resource manager), 파워 매니저(power manager), 데이터베이스 매니저(database manager), 패키지 매니저(package manager), 커넥티비티 매니저(connectivity manager), 노티피케이션 매니저(notification manager), 로케이션 매니저(location manager), 그래픽 매니저(graphic manager), 시큐리티 매니저(security manager), 통화 매니저(telephony manager), 및/또는 음성 인식 매니저(voice recognition manager)과 같은 다양한 매니저를 더 포함할 수 있다.
윈도우 매니저(421)는, 예를 들면, 화면에서 사용되는 하나 이상의 GUI(graphical user interface) 리소스들을 관리할 수 있다. 예를 들어, 윈도우 매니저(421)는 전자 장치(101)의 표시 영역의 정보를 어플리케이션(146)에게 전달할 수 있다. 어떤 실시예에 따르면, 윈도우 매니저(421)는 센서 모듈(예: 도 1의 센서 모듈(176))을 통해 전자 장치(101)의 상태 변경이 식별되면, 전자 장치(101)의 변경된 상태에 대응하는 표시 영역의 정보를 어플리케이션(146)에 전달할 수 있다. 일 예로, 윈도우 매니저(421)는 전자 장치(101)의 상태 변경이 식별되면, 실행 중인 어플리케이션(146)들 중 연속성이 설정된 어플리케이션에게 전자 장치(101)의 변경된 상태에 대응하는 표시 영역의 정보를 전달할 수 있다.
화면 캡쳐 매니저(423)는 화면 캡쳐에 사용되는 리소스들을 관리할 수 있다. 일 실시예에 따르면, 화면 캡쳐 매니저(423)는 인터랙션에 대응하여 화면 캡쳐를 제어할 수 있다. 일 실시예에 따라, 화면 캡쳐 매니저(423)는 윈도우 매니저(421)에서 제공되는 표시 영역의 정보에 기반하여 윈도우(또는 영역) 별 화면 캡쳐를 제어할 수 있다. 일 실시예에 따라, 화면 캡쳐 매니저(423)는 화면 캡쳐에 대응하는 정보를 뷰 시스템(425)에 전달할 수 있다.
뷰 시스템(425)은 어플리케이션 사용자 인터페이스 생성에 사용되는 확장 가능한 뷰들의 집합을 포함할 수 있다. 일 실시예에 따라, 뷰 시스템(425)은 디스플레이 모듈(160)의 표시 영역의 해상도에 기반하여 적어도 하나의 레이어를 드로잉하기 위한 프로그램일 수 있다. 일 실시예에 따르면, 어플리케이션(146)은, 뷰(예: 드로잉 라이브러리)를 이용하여, 디스플레이 모듈(160)의 표시 영역의 해상도에 기반한 적어도 하나의 레이어를 드로잉 할 수 있다.
액티비티 매니저(427)는 액티비티(activity)의 라이프 사이클(life cycle)를 관리할 수 있다. 일 실시예에 따라, 액티비티 매니저(427)는 어플리케이션(146)의 실행과 종료를 관리할 수 있다.
센서 매니저(429)는 센서 모듈(176)의 사용성에 기반하여 센서 정보를 수집 및 제어할 수 있다.
일 실시예에 따라, 하드웨어 추상화 계층(430)은 하드웨어 계층(450)에 포함된 복수의 하드웨어 모듈(예: 도 1의 디스플레이 모듈(160), 센서 모듈(176), 카메라 모듈(180), 및/또는 통신 모듈(190))과 전자 장치(101)의 소프트웨어 사이의 추상화된 계층으로서, 이벤트 허브(event hub)(431)와 서피스 플링거(surface flinger)(433)를 포함할 수 있다. 이벤트 허브(431)는 터치 회로(예: 디스플레이 모듈(160)) 및 센서 회로(예: 센서 모듈(176))에서 발생하는 이벤트를 표준화한 인터페이스일 수 있다. 서피스 플링거(433)는 복수의 레이어들을 합성할 수 있으며, 합성된 복수의 레이어들을 나타내는 데이터를 디스플레이 컨트롤러에게 제공할 수 있다. 디스플레이 컨트롤러는 그래픽 디스플레이 컨트롤러(graphic display controller)를 의미할 수 있다.
일 실시예에 따라, 커널 계층(440)은 전자 장치(101)에 포함된 다양한 하드웨어 모듈(예: 도 1의 디스플레이 모듈(160), 센서 모듈(176), 카메라 모듈(180), 및/또는 통신 모듈(190))을 제어하기 위한 다양한 드라이버(driver)를 포함할 수 있다. 예를 들어, 커널 계층(440)은 센서 모듈(176)과 연결된 센서 컨트롤러(sensor controller)(451)를 제어하는 인터페이스 모듈을 포함하는 센서 드라이버(sensor driver)(441)와, 디스플레이 모듈(160)과 연결된 디스플레이 패널(display panel)(453)을 제어하는 디스플레이 컨트롤러(DDI, display driver IC)(453)를 포함할 수 있다.
일 실시예에 따라, 하드웨어 계층(450)은 전자 장치(101)에 포함된 하드웨어 모듈 또는 구성(예: 센서 컨트롤러(451), 디스플레이 패널(453))을 포함할 수 있으며, 이에 한정하는 것은 아니며, 도 1에 도시된 구성들을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치(101)는, 디스플레이 모듈(160), 및 상기 디스플레이 모듈(160)과 작동적으로 연결된 프로세서(120)를 포함하고, 상기 프로세서(120)는, 멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하고, 상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하고, 상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하고, 상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하고, 및 상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 멀티 윈도우를 통해 어플리케이션들에 대응하는 복수의 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 지정된 방식의 인터랙션은 상기 전자 장치의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처를 이용한 캡쳐 인터랙션, 음성을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션 중 적어도 하나는 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 인터랙션 감지에 기반하여, 상기 멀티 윈도우의 윈도우 별로 어플리케이션의 특징 정보를 판단하고, 상기 특징 정보에 기반하여 관심 영역을 식별할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 어플리케이션의 특징 정보는 윈도우를 통해 표시된 실행 화면 내에서 대표적인 이미지 및/또는 주제가 집중되는 영역에 관한 영역 정보를 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 관심 영역의 전체 또는 일부를 캡쳐하여, 상기 멀티 윈도우의 윈도우 별 캡쳐 데이터를 생성하고, 상기 캡쳐 데이터에 기반하여 윈도우 별 큐 객체를 생성하여 표시할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 캡쳐 데이터의 크기를 조정하여 지정된 모양을 가지는 상기 큐 객체를 생성할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 큐 객체를 상기 디스플레이 모듈에서 지정된 영역에서, 적어도 하나의 실행 화면 상에 중첩하여 표시할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 캡쳐 데이터를 메모리(130)에 임시 저장할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 제공된 큐 중에서, 어느 하나의 큐가 선택되는 경우, 선택된 큐에 관련된 대상 캡쳐 데이터를 식별하고, 상기 대상 캡쳐 데이터를 상기 메모리(130)에 저장하고, 상기 제공된 큐 중에서 선택되지 않은 큐에 관련된 임시 저장된 캡쳐 데이터는 상기 메모리(130)에서 제거할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 선택된 큐를 이동하는 사용자 입력에 기반하여, 상기 선택된 큐에 관련된 캡쳐 데이터 기반 썸네일 이미지가 상기 사용자 입력의 이동에 따라 이동되는 그래픽 효과를 표시할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 선택된 큐의 이동을 취소하기 위한 취소 객체를 제공할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 선택된 큐의 이동에 따라 선택되지 않은 다른 큐의 표시 제거 및 대응하는 임시 캡쳐 데이터를 제거하거나, 또는 상기 선택된 큐의 이동 시에 상기 선택된 큐 및 선택되지 않은 다른 큐의 표시를 유지하고, 큐들에 대응하는 임시 캡쳐 데이터를 유지할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 상기 캡쳐 데이터에 관련된 편집 및/또는 캡쳐 데이터의 공유를 지원하기 위한 툴바를 제공할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 프로세서(120)는, 사용자에 의해 상기 큐가 선택되고 선택된 큐가 멀티 윈도우 중 특정 윈도우의 영역으로 이동되는 이벤트를 감지하고, 상기 이벤트 감지에 기반하여 상기 선택된 큐에 대응하는 캡쳐 데이터를 다른 윈도우의 어플리케이션과 공유하는 동작을 처리할 수 있다.
이하에서는 다양한 실시예들의 전자 장치(101)의 동작 방법에 대해서 상세하게 설명한다. 다양한 실시예들에 따라, 이하에서 설명하는 전자 장치(101)에서 수행하는 동작들은, 전자 장치(101)의 적어도 하나의 프로세싱 회로(processing circuitry)를 포함하는 프로세서(120)에 의해 실행될 수 있다. 일 실시예에 따라, 전자 장치(101)에서 수행하는 동작들은, 메모리(130)에 저장되고, 실행 시에, 프로세서(120)가 동작하도록 하는 인스트럭션들(instructions)에 의해 실행될 수 있다.
도 5는 다양한 실시예들에 따른 전자 장치의 동작을 도시하는 흐름도이다.
도 5를 참조하면, 동작 501에서, 전자 장치(101)의 프로세서(120)는 멀티 윈도우(multi window)에 기반하여 어플리케이션의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자 입력에 기반하여 적어도 2개의 어플리케이션들을 실행(예: 멀티 태스킹(multitasking))할 수 있다. 일 실시예에 따르면, 프로세서(120)는 적어도 2개의 어플리케이션들의 실행에 기반하여, 디스플레이 모듈(160)의 화면을 분할하고 실행하는 어플리케이션들에 대응하는 적어도 2개의 윈도우들(예: 제1 윈도우, 제2 윈도우, 제3 윈도우)을 포함하는 멀티 윈도우를 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우의 각 윈도우에, 어플리케이션들의 실행 화면을 각각 표시하도록 디스플레이 모듈(160)을 제어할 수 있다.
동작 503에서, 프로세서(120)는 화면 캡쳐에 관련된 인터랙션을 감지할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우를 통해 어플리케이션들에 대응하는 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다. 일 실시예에 따라, 지정된 방식의 인터랙션은 전자 장치(101)의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처를 이용한 캡쳐 인터랙션, 음성(예: 빅스비)을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션을 포함할 수 있다. 일 실시예에 따른, 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션과 관련하여 후술하는 도면을 참조하여 설명된다.
동작 505에서, 프로세서(120)는 어플리케이션의 관심 영역이 포함된 큐(cue)를 제공(예: 표시)할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우가 동작하는 동안 화면 캡쳐가 수행되는 경우 각각의 윈도우 별로 해당 어플리케이션의 관심 영역을 판단할 수 있다. 예를 들면, 2 분할의 멀티 윈도우를 가정하면, 프로세서(120)는 2 분할의 멀티 윈도우 중 제1 윈도우에서 제1 어플리케이션의 실행 화면에 기반하여 제1 관심 영역을 식별하고, 제2 윈도우에서 제2 어플리케이션의 실행 화면에 기반하여 제2 관심 영역을 식별할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 관심 영역에 대응하는 제1 큐 객체와 제2 관심 영역에 대응하는 제2 큐 객체를 생성하여 제공할 수 있다. 예를 들면, 프로세서(120)는 관심 영역의 전체 또는 일부에 대응하는 이미지(또는 캡쳐 데이터)를 생성(예: 캡쳐)하고, 생성된 이미지의 크기를 조정(예: 축소)하여 지정된 모양(예: 원형, 사각형, 또는 타원형)을 가지는 객체(예: 플로팅 아이콘(floating icon))를 생성할 수 있다. 일 실시예에 따르면, 프로세서(120)는 생성된 객체(예: 큐 객체)를 디스플레이 모듈(160)에서 지정된 영역에서, 적어도 하나의 실행 화면 상에 중첩(또는 플로팅(floating))하여 표시할 수 있다. 일 실시예에 따른, 큐 객체를 제공하는 것과 관련하여 후술하는 도면을 참조하여 설명된다.
동작 507에서, 프로세서(120)는 큐 객체의 선택에 기반하여 화면 캡쳐에 관련된 동작을 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우의 실행 화면 중 선택된 큐 객체에 기반하여 캡쳐 대상의 실행 화면(또는 어플리케이션)을 결정할 수 있다. 예를 들면, 사용자는 표시된 복수의 큐 객체 중 어느 하나의 큐 객체를 지정된 사용자 입력에 기반하여 선택할 수 있다. 예를 들면, 사용자는 해당 큐 객체를, 터치 입력, 지정된 음성 커맨드, 및/또는 전자 펜을 이용한 에어 액션에 기반하여 선택할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자 입력에 기반하여 선택된 큐 객체를 식별하고, 큐 객체에 대응하는 실행 화면의 관심 영역에 기반하여 화면 캡쳐를 수행할 수 있다. 일 실시예에 따르면, 화면 캡쳐 수행은, 큐 객체에 대응하는 실행 화면의 관심 영역을 기반으로 화면 캡쳐를 실행(예: 지정된 윈도우만을 대상으로 하는 화면 캡쳐)하는 동작, 또는 큐 객체 생성을 위해 이전에(또는 미리) 생성되어 메모리(130)에 임시 저장된 이미지(또는 캡쳐 데이터)를 호출하는 동작을 포함할 수 있다.
동작 509에서, 프로세서(120)는 화면 캡쳐의 결과(예: 캡쳐 데이터)를 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 선택된 큐 객체의 캡쳐 데이터(또는 임시 저장된 이미지)를 메모리(130)에 파일로 저장하고, 선택되지 않은 다른 큐 객체의 임시 저장된 이미지(예: 캡쳐 데이터)는 제거할 수 있다. 어떤 실시예에 따르면, 프로세서(120)는 캡쳐 데이터를 다른 윈도우의 어플리케이션과 공유하는 동작을 더 포함할 수 있다. 일 실시예에 따른, 캡쳐 데이터를 다른 어플리케이션 공유하는 동작과 관련하여 후술하는 도면을 참조하여 설명된다.
도 6a, 도 6b, 도 6c 및 도 6d는 다양한 실시예들에 따른 전자 장치에서 화면 운영 예를 설명하기 위한 도면들이다.
일 실시예에 따라, 도 6a, 도 6b, 도 6c, 및 도 6d는 전자 장치(101)에서 디스플레이 모듈(160)의 적어도 하나의 윈도우에 기반하여 어플리케이션의 실행 화면을 운영하는 다양한 예를 나타낼 수 있다. 일 실시예에 따라, 도 6a 및 도 6b는 전자 장치(101)가 바형 폼 팩터인 예를 나타내고, 도 6c 및 도 6d는 전자 장치(101)가 폴더블 폼 팩터인 예를 나타낼 수 있다. 일 실시예에 따르면, 전자 장치(101)는 디스플레이 모듈(160)의 화면 크기에 기반하여 분할 화면의 최대 개수가 다를 수 있다.
도 6a에 예시한 바와 같이, 전자 장치(101)는 하나의 윈도우(610)(또는 싱글 윈도우)에 기반하여 하나의 어플리케이션에 대응하는 하나의 실행 화면을 표시할 수 있다.
도 6b에 예시한 바와 같이, 전자 장치(101)는 2 분할의 멀티 윈도우(예: 제1 윈도우(621), 제2 윈도우(623))에 기반하여 2개의 어플리케이션에 각각 대응하는 서로 다른 2개의 실행 화면을 표시할 수 있다. 예를 들면, 전자 장치(101)는 제1 윈도우(621)를 통해 제1 어플리케이션의 제1 실행 화면을 표시하면서, 제2 윈도우(623)를 통해 제1 어플리케이션과 다른 제2 어플리케이션의 제2 실행 화면을 표시할 수 있다.
도 6c에 예시한 바와 같이, 전자 장치(101)는 2 분할의 멀티 윈도우(예: 제1 윈도우(631), 제2 윈도우(633))에 기반하여 2개의 어플리케이션에 각각 대응하는 서로 다른 2개의 실행 화면을 표시할 수 있다.
도 6d에 예시한 바와 같이, 전자 장치(101)는 3 분할의 멀티 윈도우(예: 제1 윈도우(641), 제2 윈도우(643), 제3 윈도우(645))에 기반하여 3개의 어플리케이션에 각각 대응하는 서로 다른 3개의 실행 화면을 표시할 수 있다. 예를 들면, 전자 장치(101)는 제1 윈도우(641)를 통해 제1 어플리케이션의 제1 실행 화면을 표시하고, 제2 윈도우(643)를 통해 제2 어플리케이션의 제2 실행 화면을 표시하고, 제3 윈도우(645)를 통해 제3 어플리케이션의 제3 실행 화면을 동시에 표시할 수 있다.
다양한 실시예들에 따르면, 전자 장치(101)는 전자 장치(101)의 폼 팩터 및/또는 디스플레이 모듈(160)의 화면 크기에 기반하여, 싱글, 2 분할, 3 분할, 및/또는 N 분할에 의한 분할 화면(또는 멀티 윈도우)을 제공할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 멀티 윈도우에 기반하여 서로 다른 복수의 어플리케이션의 실행 화면을 제공할 수 있고, 멀티 윈도우가 동작하는 동안 화면 캡쳐 시, 디스플레이 모듈(160)의 전체 화면이 아닌, 각 윈도우 별 실행 화면에 관련된 화면 캡쳐를 제공할 수 있다.
도 7a, 도 7b 및 도 7c는 다양한 실시예들에 따른 전자 장치에서 화면 캡쳐에 관련된 인터랙션을 설명하기 위한 도면들이다.
일 실시예에 따라, 도 7a, 도 7b 및 도 7c는 전자 장치(101)에서 화면 캡쳐를 실행할 수 있는 인터랙션의 다양한 예를 나타낼 수 있다. 예를 들면, 사용자는 전자 장치(101) 자체를 이용하여 캡쳐를 수행하거나, 전자 펜과 같은 외부 장치를 이용하여 캡쳐를 수행하거나, 또는 음성 커맨드를 이용하여 캡쳐를 수행할 수 있다.
도 7a에 예시한 바와 같이, 도 7a는 전자 장치(101)와 통신 가능한 전자 펜(201)을 이용하여 화면 캡쳐를 지원하도록 하는 예를 나타낼 수 있다. 예를 들면, 도 7a는 전자 펜(201)을 이용하여 화면 캡쳐를 지원하도록 전자 펜(201)의 에어 액션(air action)(또는 에어 제스처(air gesture))에 따른 기능(예: 화면 캡쳐 기능)을 매핑할 수 있는 사용자 인터페이스의 예를 나타낼 수 있다. 예를 들면, 도 7a는 전자 펜(201)의 에어 액션(또는 에어 제스처)은 전자 펜(201)에 포함되는 센서(미도시)를 이용하여, 전자 펜(201)이 사용자의 손에 파지된 상태에서 발생하는 제스처 인터랙션(gesture interaction)을 OOB(예: BLE) 통신을 통해 전자 장치(101)에 전달하고, 전자 장치(101)의 어플리케이션에서 특정 동작(예: 화면 캡쳐 동작)을 실행하는 이벤트로 이용하는 일련의 동작을 나타낼 수 있다.
일 실시예에 따르면, 전자 장치(101)와 전자 펜(201)은 OOB(예: BLE) 통신을 통해 통신 연결된 상태일 수 있다. 일 실시예에 따라, 사용자는 전자 펜(201)을 이용한 지정된 에어 액션에 기반하여 화면 캡쳐를 실행할 수 있다. 예를 들면, 사용자는, 도 7a의 예시도 750에 예시한 바와 같이, 전자 펜(201)의 버튼(700)(예: 동작 트리거 버튼)을 누른 상태에서 화면 캡쳐를 실행하도록 매핑된 에어 액션(예: 지그재그(zigzag) 액션(751))을 이용하여 전자 장치(101)에 화면 캡쳐를 실행하도록 하는 정보를 전달할 수 있다. 이를 위하여, 전자 장치(101)는 전자 펜(201)의 위치에 대한 정보 수신에 기반하여 에어 액션(예: 지그재그 액션(751))과 전자 장치(101)의 기능을 매핑하는 동작을 포함할 수 있다. 예를 들면, 전자 장치(101)는 전자 펜(201)과 통신 연결된 상태에서 전자 펜(201)의 적어도 하나의 인터랙션(또는 제스처) 동작에 대응하여, 전자 펜(201)에 의한 인터랙션 별 액션(또는 기능)을 매핑할 수 있다.
일 실시예에 따라, 도 7a에 예시한 바와 같이, 전자 장치(101)는 전자 펜(201)이 통신 연결되고, 전자 펜(201)의 에어 액션에 따른 기능을 매핑하기 위한 사용자 인터페이스를 제공할 수 있다. 일 실시예에 따라, 사용자는 도 7a의 예시도 750에 예시한 바와 같이, 전자 펜(201)의 버튼(700)을 누른 상태에서 전자 펜(201)을 이용하여 지그재그 액션(751)을 수행할 수 있고, 전자 펜(201)은 사용자의 지그재그 액션(751)에 대응하는 인터랙션(예: 지그재그 인터랙션)에 관한 정보를 OOB 통신을 통해 전자 장치(101)로 전달할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 펜(201)으로부터 수신된 정보(예: 지그재그 인터랙션)에 대응하여 제1 액션(예: 화면 캡쳐 기능)을 매핑할 수 있다. 예를 들면, 사용자는, 전자 장치(101)와 전자 펜(201)을 이용하여 상기와 같이 지그재그 액션(751)에 화면 캡쳐 기능을 매핑할 수 있다.
일 실시예에 따르면, 사용자는, 상기와 같은 매핑 동작을 통해 전자 펜(201)을 이용한 지그재그 액션(751)을 이용하여 원격에서 전자 장치(101)의 화면 캡쳐를 실행할 수 있다. 일 실시예에 따르면, 사용자는 도 7a의 예시도 750에 예시한 바와 같이, 화면 캡쳐 실행을 위하여 전자 펜(201)의 버튼(700)을 누른 상태에서 에어 상에서 전자 펜(201)을 이용하여 지그재그 액션(751)을 수행할 수 있다. 일 실시예에 따라, 전자 펜(201)은 지그재그 액션(751)을 감지하고, 지그재그 액션(751)에 관한 정보(예: 지그재그 인터랙션)을 OOB 통신을 통해 전자 장치(101)로 전달할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 어플리케이션의 실행 화면을 표시하는 동안 전자 펜(201)으로부터 지그재그 인터랙션에 관한 정보를 수신하면, 지그재그 인터랙션에 매핑된 액션(예: 화면 캡쳐 기능)을 식별하고, 화면 캡쳐를 수행할 수 있다.
다양한 실시예들에 따르면, 도 7a에 예시한 바와 같이, 전자 펜(201)을 이용한 에어 액션에 따른 화면 캡쳐 기능 외에 다양한 다른 기능을 매핑하여 실행할 수도 있다. 일 실시예에 따라, 사용자는 전자 펜(201)을 이용하여 제1 방향의 꺽쇠 액션을 수행할 수 있고, 전자 펜(201)은 사용자의 제1 방향의 꺽쇠 액션에 대응하는 인터랙션(예: 제1 꺽쇠 인터랙션)에 관한 정보를 OOB 통신을 통해 전자 장치(101)로 전달할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 전자 펜(201)으로부터 수신된 정보(예: 제1 방향의 꺽쇠 인터랙션)에 대응하여 제2 액션(예: 스마트 셀렉트(smart select) 기능)을 매핑할 수 있다. 다른 실시예에 따라, 사용자는 전자 펜(201)을 이용하여 제2 방향의 꺽쇠 액션을 수행할 수 있고, 전자 펜(201)은 사용자의 제2 방향의 꺽쇠 액션에 대응하는 인터랙션(예: 제2 꺽쇠 인터랙션)에 관한 정보를 OOB 통신을 통해 전자 장치(101)로 전달할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 펜(201)으로부터 수신된 정보(예: 제2 방향의 꺽쇠 인터랙션)에 대응하여 제3 액션(예: 홈(home) 이동 기능)을 매핑할 수 있다.
다른 실시예에 따라, 사용자는 전자 펜(201)을 이용하여 제3 방향의 꺽쇠 액션을 수행할 수 있고, 전자 펜(201)은 사용자의 제3 방향의 꺽쇠 액션에 대응하는 인터랙션(예: 제3 꺽쇠 인터랙션)에 관한 정보를 OOB 통신을 통해 전자 장치(101)로 전달할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 펜(201)으로부터 수신된 정보(예: 제3 방향의 꺽쇠 인터랙션)에 대응하여 제4 액션(예: 뒤로 가기(back) 기능)을 매핑할 수 있다.
다른 실시예에 따라, 사용자는 전자 펜(201)을 이용하여 제4 방향의 꺽쇠 액션을 수행할 수 있고, 전자 펜(201)은 사용자의 제4 방향의 꺽쇠 액션에 대응하는 인터랙션(예: 제4 꺽쇠 인터랙션)에 관한 정보를 OOB 통신을 통해 전자 장치(101)로 전달할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 전자 펜(201)으로부터 수신된 정보(예: 제5 액션(예: 최근 앱(recent app) 실행 기능)을 매핑할 수 있다.
일 실시예에 따른, 인터랙션 별 액션 매핑은 사용자에 의해 다양하게 지정(또는 설정)될 수 있으며, 상기의 인터랙션 종류에 제한하지 않는다.
도 7b에 예시한 바와 같이, 도 7b는 전자 장치(101)의 하드웨어 버튼을 이용하여 화면 캡쳐를 지원하도록 하는 예를 나타낼 수 있다. 예를 들면, 도 7b는 전자 장치(101)의 하드웨어 버튼 중 지정된 버튼 입력 또는 버튼의 조합의 동시 입력에 기반하여 화면 캡쳐를 위한 인터랙션으로 제공할 수 있다.
도 7c에 예시한 바와 같이, 도 7c는 전자 장치(101)에서 사용자의 제스처를 인식하여 화면 캡쳐를 지원하도록 하는 예를 나타낼 수 있다. 예를 들면, 도 7c는 전자 장치(101)에서 사용자의 손(예: 손날) 제스처(예: 화면 위에서 손날을 대고 반대쪽으로 미는 제스처)에 기반하여 화면 캡쳐를 위한 인터랙션으로 제공할 수 있다.
다양한 실시예들이, 도 7a, 도 7b 및 도 7c에 도시된 인터랙션에 한정하는 것은 아니며, 이는 예시적인 것으로, 전자 장치(101)가 제공할 수 있는 다양한 다른 방식을 이용하여 화면 캡쳐를 위한 인터랙션으로 이용할 수 있다. 예를 들면, 전자 장치(101)는 엣지 패널을 이용하여 화면 캡쳐를 위한 소프트웨어 버튼을 제공하고 소프트웨어 버튼에 의한 선택을 인터랙션으로 이용할 수 있다. 다른 예를 들면, 전자 장치(101)는 사용자의 음성을 기반하여 지정된 음성 커맨드를 인터랙션으로 이용할 수도 있다.
도 8a 및 도 8b는 다양한 실시예들에 따른 전자 장치에서 관심 영역을 설정하는 예를 설명하기 위한 도면들이다.
일 실시예에 따라, 어플리케이션의 특징 정보는 윈도우를 통해 표시된 실행 화면 내에서 대표적인 특징을 나타낼 수 있다. 예를 들면, 특징 정보는 도 8a에 예시한 바와 같이, 이미지 및/또는 주제(예: 텍스트)가 집중되는 영역(또는 특징)에 관한 영역 정보(예: 위치 또는 좌표 정보)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 특징 정보에 기반하여 관심 영역(810)을 설정할 수 있다. 다른 예를 들면, 특징 정보는 도 8b에 예시한 바와 같이, 복수의 이미지 및/또는 주제가 집중되는 복수의 영역(821, 823, 825, 827)에 관한 각각의 영역 정보를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 특징 정보에 기반하여, 복수의 영역(821, 823, 825, 827) 중 비중(또는 면적)이 상대적으로 가장 큰 영역(예: 가장 큰 이미지 영역)을 식별하고, 해당 특징 정보에 기반하여 관심 영역(820)을 설정할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 감지하는 경우, 적어도 하나의 윈도우(또는 디스플레이)에 표시된 화면(예: 어플리케이션의 실행 화면)의 특징 정보 기반의 관심 영역을 식별할 수 있다. 예를 들면, 전자 장치(101)는 하나의 윈도우(또는 싱글 윈도우), 2 분할 윈도우, 3 분할 윈도우, 또는 N 분할 윈도우에 기반하여 하나 또는 그 이상의 어플리케이션의 실행 화면을 표시할 수 있다.
일 실시예에 따라, 전자 장치(101)는 싱글 윈도우 동작에서는 하나의 실행 화면에서 특징 정보를 식별하고, 하나의 특징 정보에 기반한 하나의 관심 영역을 설정할 수 있다. 일 실시예에 따라, 전자 장치(101)는 멀티 윈도우 동작에서는 각 윈도우 별 실행 화면에서 각각의 특징 정보를 식별하고, 각각의 특징 정보에 기반한 복수의 관심 영역을 설정할 수 있다.
도 9a 및 도 9b는 다양한 실시예들에 따른 전자 장치에서 관심 영역에 대한 피드백을 제공하는 예를 설명하기 위한 도면들이다.
일 실시예에 따라, 도 9a 및 도 9b는 전자 장치(101)에서 디스플레이 모듈(160)의 적어도 하나의 윈도우에 기반하여 어플리케이션의 실행 화면에서 관심 영역을 설정하는 다양한 예를 나타낼 수 있다.
도 9a에 예시한 바와 같이, 전자 장치(101)는 하나의 윈도우(또는 싱글 윈도우)에 기반하여 하나의 어플리케이션에 대응하는 하나의 실행 화면(910)을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 표시된 실행 화면(910)에서 특징 정보 기반 관심 영역(915)에 대한 피드백을 제공할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 실행 화면(910)에서 특징 정보 기반, 관심 영역(915)이 포함된 영역을 지정된 방식으로 강조하여 표시할 수 있다. 예를 들면, 전자 장치(101)는 관심 영역(915)을 지시하는 객체(예: 사각 박스(box) 및/또는 아이콘)를 이용하여, 디스플레이 모듈(160)에 표시되는 어플리케이션의 실행 화면(910)에서, 관심 영역(915)이 포함된 영역을 사용자에게 가이드 할 수 있다.
도 9b에 예시한 바와 같이, 전자 장치(101)는 N(예: N = 2) 분할의 멀티 윈도우(예: 제1 윈도우(A), 제2 윈도우(B))에 기반하여 N개의 어플리케이션에 각각 대응하는 N개의 실행 화면(예: 제1 실행 화면(920), 제2 실행 화면(930))을 표시할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 표시된 실행 화면(920, 930) 각각에서 특징 정보 기반 관심 영역(예: 제1 실행 화면(920)에 대응하는 제1 관심 영역(925), 제2 실행 화면(930)에 대응하는 제2 관심 영역(935))에 대한 피드백을 제공할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 실행 화면(920, 930) 각각에서 특징 정보 기반, 관심 영역(925, 935)이 포함된 영역을 지정된 방식으로 강조 표시하여 사용자에게 관심 영역(925, 935)에 대한 피드백을 제공할 수 있다.
일 실시예에 따르면, 관심 영역(예: 915, 925, 935)을 지시하는 객체(예: 사각 박스 및/또는 아이콘)는 지정된 색상을 가질 수 있으며, 지정된 일정 시간(예: M 초, M은 자연수) 동안 표시된 후 사라질 수 있다. 일 실시예에 따르면, 관심 영역(예: 915, 925, 935)은 특징 정보에 기반하는 영역 정보에 대응하는 크기를 가질 수 있으며, 예를 들면, 실행 정보에 따라 실행 화면 별로 상이한 크기를 가질 수 있다. 어떤 실시예에 따르면, 관심 영역(예: 915, 925, 935)은 미리 지정된 크기로 제공될 수 있으며, 특징 정보에 따라 크기가 적응적으로 조절되어 제공될 수 있다. 예를 들면, 관심 영역(예: 915, 925, 935)은 윈도우(예: 윈도우 내에서 전체 화면 캡쳐 영역)의 약 12% 이상 및 약 90% 이하의 크기를 가지도록 설정될 수 있다.
일 실시예에 따르면, 관심 영역(예: 915, 925, 935)은 대응하는 윈도우 내에서 실행 화면으로 보여지는 부분을 포함하여 생성하거나, 또는 특징 정보에 따라 실행 화면으로 보여지지 않는 부분을 포함하여 생성할 수 있다. 예를 들면, 관심 영역(예: 915, 925, 935)은 어플리케이션의 실행 화면에서 가장 큰 이미지 영역을 포함할 수 있다. 일 실시예에 따라, 전자 장치(101)는 인터랙션에 기반한 화면 캡쳐 시점에 실행 화면 내에서 영역 분석을 수행할 수 있다.
다양한 실시예들에 따르면, 전자 장치(101)는 인터랙션에 기반하여 관심 영역(예: 915, 925, 935)을 가이드 하면서, 인터랙션에 대응하여 화면 캡쳐를 수행할 수 있다. 일 실시예에 따라, 전자 장치(101)는 화면 캡쳐 동작에서 관심 영역(예: 915, 925, 935)에 기반하여 큐 객체(예: 임시 캡쳐 데이터에 대한 정보 객체)를 생성 및 제공할 수 있다. 이하, 도 10a 및 도 10b를 참조하여 큐 객체를 제공하는 예를 설명한다.
도 10a, 도 10b 및 도 10c는 다양한 실시예들에 따른 전자 장치에서 화면 캡쳐에 관련된 큐 객체를 제공하는 예를 설명하기 위한 도면들이다.
도 10a, 도 10b 및 도 10c에 도시한 바와 같이, 전자 장치(101)는 멀티 윈도우의 각 윈도우에 대응하는 큐 객체(1115, 1125, 1135, 1145, 1155)를 제공할 수 있다. 예를 들면, 전자 장치(101)는 화면 분할 개수에 대응하는 큐 객체(1115, 1125, 1135, 1145, 1155)를 포함할 수 있다. 어떤 실시예에 따르면, 전자 장치(101)는 멀티 윈도우의 각 윈도우에 대응하는 큐 객체(1115, 1125, 1135, 1145, 1155)(또는 윈도우 큐(window cue))와 싱글(또는 전체) 윈도우(예: 전체 화면)에 대응하는 큐 객체(1165)(또는 풀 스크린 큐(full screen cue))를 더 포함하여 제공할 수도 있다.
일 실시예에 따라, 도 10a를 참조하면, 도 10a는 전자 장치(101)는 2 분할의 멀티 윈도우 환경에서, 인터랙션에 기반하여 화면 캡쳐를 수행하는 경우의 예를 나타낼 수 있다. 일 실시예에 따르면, 전자 장치(101)는 각각의 윈도우(1110, 1120)에 관련된 큐(cue)(예: 윈도우 큐)를 사용자에게 제공할 수 있다. 예를 들면, 전자 장치(101)는 2 분할에 따른 제1 윈도우(1110)와 제2 윈도우(1120)로 구분되고, 제1 윈도우(1110)를 통해 제1 어플리케이션의 제1 실행 화면을 표시하고, 제2 윈도우(1120)를 통해 제2 어플리케이션의 제2 실행 화면을 표시할 수 있다.
일 실시예에 따라, 전자 장치(101)는 상기의 멀티 윈도우 환경에서 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 감지하는 경우, 각 윈도우(1110, 1120)의 실행 화면에 기반하여 각각의 관심 영역을 식별할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 관심 영역에 기반하여 관심 영역에 각각 대응하는 큐 객체(1115, 1125)(예: 임시 캡쳐 데이터에 대한 정보 객체)를 생성하여 제공할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제1 윈도우(1110)에 관련된 제1 큐 객체(1115)와 제2 윈도우(1120)에 관련된 제2 큐 객체(1125)를, 각 윈도우(1110, 1120)의 관심 영역으로부터 생성할 수 있다. 예를 들면, 전자 장치(101)는 관심 영역의 전체 또는 일부에 대응하는 이미지(또는 캡쳐 데이터)를 생성(예: 캡쳐)하고, 생성된 이미지의 크기를 조정(예: 축소)하여 지정된 모양(예: 원형, 사각형, 또는 타원형)을 가지는 큐 객체(1115, 1125)(예: 플로팅 아이콘(floating icon))를 생성할 수 있다. 일 실시예에 따르면, 프로세서(120)는 생성된 큐 객체(1115, 1125)를 디스플레이 모듈(160)에서 지정된 영역(예: 화면 하단 영역)에서, 적어도 하나의 실행 화면(또는 윈도우) 상에 중첩하여 표시할 수 있다. 어떤 실시예에 따르면, 큐 객체(1135, 1145, 1155)는 적어도 하나의 실행 화면(또는 윈도우) 상에 임의 위치에 플로팅(floating) 하여 제공할 수도 있다.
일 실시예에 따라, 도 10b를 참조하면, 도 10b는 3 분할의 멀티 윈도우 환경에서, 인터랙션에 기반하여 화면 캡쳐를 수행하는 경우의 예를 나타낼 수 있다. 일 실시예에 따르면, 전자 장치(101)는 각각의 윈도우(1130, 1140, 1150)에 관련된 큐(또는 윈도우 큐)를 사용자에게 제공할 수 있다. 예를 들면, 전자 장치(101)는 3 분할에 따른 제1 윈도우(1130), 제2 윈도우(1140) 및 제3 윈도우(1150)로 구분되고, 제1 윈도우(1130)를 통해 제1 어플리케이션의 제1 실행 화면을 표시하고, 제2 윈도우(1140)를 통해 제2 어플리케이션의 제2 실행 화면을 표시하고, 제3 윈도우(1150)를 통해 제3 어플리케이션의 제3 실행 화면을 표시할 수 있다.
일 실시예에 따라, 전자 장치(101)는 상기의 멀티 윈도우 환경에서 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 감지하는 경우, 각 윈도우(1130, 1140, 1150)의 실행 화면에 기반하여 각각의 관심 영역을 식별할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 관심 영역에 기반하여 관심 영역에 각각 대응하는 큐 객체(1135, 1145, 1155)를 생성하여 제공할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 제1 윈도우(1110)에 관련된 제1 큐 객체(1135), 제2 윈도우(1140)에 관련된 제2 큐 객체(1145) 및 제3 윈도우(1150)에 관련된 제3 큐 객체(1155)를, 각 윈도우(1130, 1140, 1150)의 관심 영역으로부터 생성할 수 있다. 예를 들면, 전자 장치(101)는 관심 영역의 전체 또는 일부에 대응하는 이미지(또는 캡쳐 데이터)를 생성(예: 캡쳐)하고, 생성된 이미지의 크기를 조정(예: 축소)하여 지정된 모양(예: 원형, 사각형, 또는 타원형)을 가지는 큐 객체(1135, 1145, 1155)(예: 플로팅 아이콘)를 생성할 수 있다.
일 실시예에 따르면, 프로세서(120)는 생성된 큐 객체(1135, 1145, 1155)를 디스플레이 모듈(160)에서 지정된 영역(예: 화면 하단 영역)에서, 적어도 하나의 실행 화면(또는 윈도우) 상에 중첩하여 표시할 수 있다. 어떤 실시예에 따르면, 큐 객체(1135, 1145, 1155)는 적어도 하나의 실행 화면(또는 윈도우) 상에 임의 위치에 플로팅 하여 제공할 수도 있다.
일 실시예에 따라, 도 10c를 참조하면, 도 10c는 싱글 윈도우 환경에서, 인터랙션에 기반하여 화면 캡쳐를 수행하는 경우의 예를 나타낼 수 있다. 일 실시예에 따르면, 전자 장치(101)는 싱글 윈도우(1160)에 관련된 큐(또는 풀 스크린 큐)를 사용자에게 제공할 수 있다. 예를 들면, 전자 장치(101)는 싱글 윈도우(예: 전체 화면)를 통해 어플리케이션의 실행 화면을 표시할 수 있다.
일 실시예에 따라, 전자 장치(101)는 싱글 윈도우 환경에서 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 감지하는 경우, 싱글 윈도우(1160)의 실행 화면에 기반하여 관심 영역을 식별할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 관심 영역에 기반하여 관심 영역에 대응하는 큐 객체(1165)를 생성하여 제공할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 싱글 윈도우(1160)에 관련된 큐 객체(1165)를, 윈도우(1160)의 관심 영역으로부터 생성할 수 있다. 예를 들면, 전자 장치(101)는 관심 영역의 전체 또는 일부에 대응하는 이미지(또는 캡쳐 데이터)를 생성(예: 캡쳐)하고, 생성된 이미지의 크기를 조정(예: 축소)하여 지정된 모양(예: 원형, 사각형, 또는 타원형)을 가지는 큐 객체(1165)(예: 플로팅 아이콘)를 생성할 수 있다.
일 실시예에 따르면, 프로세서(120)는 생성된 큐 객체(1165)를 디스플레이 모듈(160)에서 지정된 영역(예: 화면 하단 영역)에서, 적어도 하나의 실행 화면(또는 윈도우) 상에 중첩하여 표시할 수 있다. 어떤 실시예에 따르면, 큐 객체(1165)는 적어도 하나의 실행 화면(또는 윈도우) 상에 임의 위치에 플로팅 하여 제공할 수도 있다. 어떤 실시예에 따르면, 전자 장치(101)는 전자 장치(101)의 설정에 기반하여, 싱글 윈도우에서는 큐 객체를 제공하지 않을 수도 있다.
일 실시예에 따르면, 전자 장치(101)는 도 10a, 도 10b 및 도 10c에 예시한 바와 같은 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)의 제공 시에, 큐 객체 간에 간격을 지정된 간격으로 배치(또는 정렬) 할 수 있다. 일 실시예에 따르면, 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)의 배치 순서는, 예를 들면, 멀티 윈도우의 윈도우 순번에 따를 수 있다.
예를 들면, 윈도우 순서는, 2 분할의 경우 ‘ㅡ’자 모양으로 좌에서 우의 순서로 설정되고, 3 분할의 경우 ‘ㄱ’자 모양으로 좌에서 우상, 우상에서 우하의 순서로 설정되고, 4 분할의 경우 ‘역 N(И)’자 모양으로 좌상에서 좌하, 좌하에서 우상, 우상에서 우하와 같은 순서로 설정될 수 있으며, 이에 제한하지 않는다. 일 실시예에 따르면, 큐 객체는 윈도우 순서에 따른 우선 순위에 따라 좌측에서 우측(예: 가로 배열) 또는 상측에서 하측(예: 세로 배열)으로 배치될 수 있다.
일 실시예에 따르면, 전자 장치(101)는 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)의 제공 시에, 캡쳐 데이터에 관련된 편집을 위한 툴바(toolbar)(예: 도 12 및/또는 도 13의 툴바(1230, 1340))를 함께 제공할 수도 있다. 어떤 실시예에 따르면, 전자 장치(101)는 큐 객체(1115, 1125, 1135, 1145, 1155, 1165) 및/또는 툴바(1230, 1340)를 지정된 일정 시간(예: M 초, M은 자연수) 동안 표시한 후 디스에이블(disable) 할 수 있다.
일 실시예에 따르면, 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)를 위한 윈도우(1110, 1120, 1130, 1140, 1150)에 각각 대응하는 실행 화면의 캡쳐 데이터는, 화면 캡쳐 동작에서 저장하지 않고 임시 저장할 수 있다. 예를 들면, 전자 장치(101)는 화면 캡쳐 동작 중에 중간 결과(예: 임시 캡쳐 데이터)를 보존하기 위해 메모리(130) 상에 확보된 임시 저장 장치(temporary storage 또는 temporary memory)(또는 버퍼(buffer))에 캡쳐 데이터를 임시적으로 저장할 수 있다. 일 실시예에 따라, 전자 장치(101)는 임시 저장된 캡쳐 데이터에 기반하여 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)(예: 플로팅 아이콘)를 생성하는 동작을 백그라운드(background)에서 처리할 수 있다.
어떤 실시예에 따르면, 전자 장치(101)는 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)에서 어느 하나의 큐 객체가 선택되는 경우, 선택된 큐 객체에 관련된 캡쳐 데이터를 메모리(130)에 저장하고, 선택되지 않은 다른(또는 나머지) 큐 객체에 관련된 임시 캡쳐 데이터는 메모리(130)에서 제거할 수 있다.
어떤 실시예에 따르면, 전자 장치(101)는 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)에서 어느 하나의 큐 객체가 선택(예: tap)되는 경우, 선택된 큐 객체에 대응하는 윈도우를 자동 선택(auto select)한 상태로 편집(edit) 화면을 호출하여 표시할 수 있다. 일 실시예에 따르면, 사용자는 편집 화면에서 해당 윈도우에서의 캡쳐 데이터를 위한 관심 영역을 바로 편집하도록 지원할 수 있다. 어떤 실시예에 따르면, 전자 장치(101)는 큐 객체가 선택되는 경우, 선택된 큐 객체에 대응하는 윈도우를 자동 선택한 상태로 툴바(1230, 1340)를 호출하여 표시할 수 있다.
일 실시예에 따르면, 사용자는 툴바(1230, 1240)를 이용하여 해당 윈도우에서의 캡쳐 데이터를 위한 관심 영역 편집, 저장 및/또는 공유에 관련된 태스크(task)를 실행하도록 할 수 있다. 어떤 실시예에 따르면, 전자 장치(101)는 큐 객체(1115, 1125, 1135, 1145, 1155, 1165)에서 어느 하나의 큐 객체가 선택 및 홀드(예: tap & hold 또는 long press)되는 경우, 큐 객체에 대응하는 캡쳐 데이터를 지정되는(또는 드래그 되는) 윈도우의 어플리케이션의 실행 화면에 삽입(insert)하는 것으로 결정할 수 있다. 예를 들면, 전자 장치(101)는 사용자의 큐 객체 선택에 따른 사용자 입력(예: drag & drop)에 기반하여 큐 객체에 대응하는 캡쳐 데이터를 어플리케이션에 삽입할 수 있다. 이의 동작과 관련하여 후술하는 도면(예: 도 12 및/또는 도 13)을 참조하여 설명된다.
도 11은 다양한 실시예들에 따른 전자 장치의 동작을 도시하는 흐름도이다.
도 11을 참조하면, 동작 1101에서, 전자 장치(101)의 프로세서(120)는 멀티 윈도우에 기반하여 어플리케이션의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자 입력에 기반하여 적어도 2개의 어플리케이션들을 실행(예: 멀티 태스킹)할 수 있다. 일 실시예에 따르면, 프로세서(120)는 적어도 2개의 어플리케이션들의 실행에 기반하여, 디스플레이 모듈(160)의 화면을 분할하고 실행하는 어플리케이션들에 대응하는 적어도 2개의 윈도우들(예: 제1 윈도우, 제2 윈도우, 제3 윈도우)을 포함하는 멀티 윈도우를 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우의 각 윈도우에, 어플리케이션들의 실행 화면을 각각 표시하도록 디스플레이 모듈(160)을 제어할 수 있다.
동작 1103에서, 프로세서(120)는 화면 캡쳐에 관련된 인터랙션을 감지할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우를 통해 어플리케이션들에 대응하는 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다. 일 실시예에 따라, 지정된 방식의 인터랙션은 전자 장치(101)의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처를 이용한 캡쳐 인터랙션, 음성(예: 빅스비)을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션을 포함할 수 있다.
동작 1105에서, 프로세서(120)는 인터랙션 감지에 기반하여, 윈도우 별로 어플리케이션의 특징 정보를 판단할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우를 통해 실행 중인 어플리케이션의 각각에 대응하는 실행 화면에 기반하여, 윈도우 별로 특징 정보를 판단할 수 있다. 일 실시예에 따라, 어플리케이션의 특징 정보는 윈도우를 통해 표시된 실행 화면 내에서 대표적인 특징을 나타낼 수 있다. 예를 들면, 특징 정보는 이미지 및/또는 주제(예: 텍스트)가 집중되는 영역(또는 특징)에 관한 영역 정보(예: 위치 또는 좌표 정보)를 포함할 수 있다.
동작 1107에서, 프로세서(120)는 특징 정보에 기반하여 관심 영역을 식별(또는 설정)할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우에 기반하여 표시된 실행 화면 각각에서 특징 정보 기반 관심 영역을 식별할 수 있다. 일 실시예에 따르면, 관심 영역은 대응하는 윈도우 내에서 실행 화면으로 보여지는 부분을 포함하여 생성하거나, 또는 특징 정보에 따라 실행 화면으로 보여지지 않는 부분을 포함하여 생성할 수 있다. 일 실시예에 따라, 프로세서(120)는 인터랙션에 기반한 화면 캡쳐 시점에 실행 화면 내에서 영역 분석을 수행할 수 있다. 어떤 실시예에 따르면, 프로세서(120)는 윈도우 별 실행 화면 각각에서 특징 정보 기반, 관심 영역이 포함된 영역을 지정된 방식으로 강조 표시하여 사용자에게 관심 영역에 대한 피드백을 제공할 수 있다.
동작 1109에서, 프로세서(120)는 윈도우 별로 화면 캡쳐를 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 인터랙션 감지에 기반하여, 멀티 윈도우의 각 윈도우 별로 화면 캡쳐를 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 윈도우의 제1 실행 화면과 제2 윈도우의 제2 실행 화면에 기반하여 식별된 각각의 관심 영역에 기반하여 화면 캡쳐를 수행할 수 있다.
동작 1111에서, 프로세서(120)는 캡쳐 데이터를 생성할 수 있다. 일 실시예에 따르면, 프로세서(120)는 관심 영역의 전체 또는 일부를 캡쳐하여, 윈도우 별 캡쳐 데이터를 생성할 수 있다. 일 실시예에 따라, 프로세서(120)는 생성된 캡쳐 데이터는, 화면 캡쳐 동작 중에 중간 결과(예: 임시 캡쳐 데이터)를 보존하기 위해 메모리(130) 상에 확보된 임시 저장 장치(또는 버퍼)에 임시적으로 저장할 수 있다.
동작 1113에서, 프로세서(120)는 캡쳐 데이터에 기반하여 윈도우 별 큐 객체를 생성하여 표시할 수 있다. 일 실시예에 따라, 프로세서(120)는 임시 저장된 캡쳐 데이터에 기반하여 큐 객체(예: 플로팅 아이콘)를 생성하는 동작을 백그라운드에서 처리할 수 있다. 일 실시예에 따라, 2 분할의 멀티 윈도우를 가정하면, 프로세서(120)는 제1 윈도우의 제1 실행 화면의 관심 영역 기반으로 생성된 캡쳐 데이터에 기반하여 제1 윈도우에 관련된 제1 큐 객체를 제공하고, 제2 윈도우의 제2 실행 화면의 관심 영역 기반으로 생성된 캡쳐 데이터에 기반하여 제2 윈도우에 관련된 제2 큐 객체를 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 캡쳐 데이터(예: 이미지)의 크기를 조정(예: 축소)하여 지정된 모양(예: 원형, 사각형, 또는 타원형)을 가지는 객체(예: 플로팅 아이콘)를 큐 객체로 제공할 수 있다.
동작 1115에서, 프로세서(120)는 큐 객체에 기반한 이벤트를 감지할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자에 의해 큐 객체가 선택되고 선택된 큐 객체가 멀티 윈도우 중 특정 윈도우의 위치(또는 영역)로 이동되는 이벤트(예: drag & drop)를 감지할 수 있다. 일 실시예에 따르면, 프로세서(120)는 이벤트 감지에 기반하여 선택된 큐 객체에 대응하는 캡쳐 데이터(예: 제1 어플리케이션의 캡쳐 데이터)를 특정 어플리케이션 실행 화면(예: 제2 어플리케이션의 실행 화면)에 삽입하기 위한 이벤트(예: drag & drop) 동작을 처리할 수 있다.
동작 1117에서, 프로세서(120)는 이벤트에 대응하는 큐 객체의 캡쳐 데이터를 이용하여 이벤트를 처리할 수 있다. 일 실시예에 따르면, 프로세서(120)는 선택된 큐 객체에 대응하는 캡쳐 데이터(예: 제1 어플리케이션의 캡쳐 데이터)를 제2 어플리케이션으로 전송할 수 있다. 일 실시예에 따르면, 프로세서(120)는 캡쳐 데이터를 다른 윈도우의 어플리케이션과 공유하는 동작을 처리할 수 있다.
동작 1119에서, 프로세서(120)는 윈도우를 통해 이벤트 처리 결과를 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 큐 객체가 이벤트에 따라 이동된 윈도우(예: 제2 어플리케이션의 실행 화면이 표시 중인 윈도우)에 기반하여 이벤트 처리 결과(예: 실행 화면 상에 캡쳐 데이터가 삽입된 화면)을 표시할 수 있다.
도 12는 다양한 실시예들에 따른 전자 장치에서 멀티 윈도우 환경에서 화면 캡쳐 기능을 운영하는 예를 설명하기 위한 도면이다.
일 실시예에 따라, 도 12는 멀티 윈도우 환경에서 화면 캡쳐 및 공유하는 동작 예를 나타낼 수 있다. 일 실시예에 따라, 도 12에서는 2 분할의 멀티 윈도우 환경에서 동작하는 예를 설명하지만, 이에 제한하는 것은 아니며, N 분할의 멀티 윈도우 환경에서도 동작할 수 있다.
도 12를 참조하면, 동작 <1201>에서, 전자 장치(101)는 제1 윈도우(1210)와 제2 윈도우(1220)를 포함하는 멀티 윈도우에 기반하여 어플리케이션의 실행 화면을 제공할 수 있다. 예를 들면, 전자 장치(101)는 제1 윈도우(1210)를 통해 제1 어플리케이션(예: 인터넷 어플리케이션)의 제1 실행 화면을 표시하고, 제2 윈도우(1220)를 통해 제2 어플리케이션(예: 메시지 어플리케이션)의 제2 실행 화면을 표시할 수 있다. 일 실시예에 따라, 전자 장치(101)는 멀티 윈도우 환경에서 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다.
동작 <1203>에서, 전자 장치(101)는 인터랙션이 수신되는 경우, 화면 캡쳐를 수행할 수 있다. 예를 들면, 전자 장치(101)는 멀티 윈도우의 각 윈도우(1210, 1220) 별로 화면 캡쳐를 수행할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1 윈도우(1210)의 제1 실행 화면과 제2 윈도우(1220)의 제2 실행 화면에 기반하여 각각의 관심 영역을 식별하고, 관심 영역에 기반하여 화면 캡쳐를 수행하고, 관심 영역에 각각 대응하는 캡쳐 데이터에 기반하여 큐 객체(1215, 1225)를 생성하여 표시할 수 있다. 예를 들면, 전자 장치(101)는 제1 윈도우(1210)의 제1 실행 화면의 관심 영역 기반 제1 큐 객체(1215)와, 제2 윈도우(1220)의 제2 실행 화면의 관심 영역 기반 제2 큐 객체(1225)를 제공할 수 있다. 일 실시예에 따라, 전자 장치(101)는 화면 캡쳐 수행에 따른 결과(예: 윈도우 별 캡쳐 데이터)는 임시 저장할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 큐 객체(1215, 1225)를 제공 시에, 캡쳐 데이터(또는 캡쳐 데이터를 위한 관심 영역)에 관련된 편집 및/또는 캡쳐 데이터의 공유를 지원하기 위한 툴바(1230)를 함께 제공할 수 있다. 일 실시예에 따르면, 사용자는 큐 객체(1215, 1225) 중 어느 하나의 큐 객체를 선택(또는 지정)하고, 툴바(1230)에서 큐 객체를 이용한 기능(예: 편집(edit), 태그(tag), 공유(share))에 관련된 객체(또는 아이콘)를 선택하여, 대응하는 기능을 실행할 수 있다.
동작 <1205>에서, 사용자는 큐 객체(1215, 1225) 중 제1 큐 객체(1215)를 선택(1240)(예: tap & hold)할 수 있다. 일 실시예에 따라, 큐 객체 선택은, 예를 들면, 사용자의 손 또는 전자 펜을 이용한 직접 선택(예: 터치) 또는 전자 장치(101)와 전자 펜과의 통신을 이용하여 선택될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 큐 객체(예: 제1 큐 객체(1215))가 선택되는 경우, 선택된 큐 객체(예: 제1 큐 객체(1215))에 관련된 대상 캡쳐 데이터를 식별하고, 대상 캡쳐 데이터를 메모리(130)에 저장 및 선택되지 않은 큐 객체(예: 제2 큐 객체(1225))에 관련된 임시 캡쳐 데이터는 메모리(130)에서 제거할 수 있다.
동작 <1207>에서, 사용자는 선택된 제1 큐 객체(1215)를 특정 윈도우(예: 제2 윈도우(1220))로 이동(1250)(예: drag & drop)할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 선택된 큐 객체를 이동하는 사용자 입력에 기반하여 툴바(1230) 및/또는 선택되지 않은 객체(예: 제2 객체(1225))의 표시를 제거하고, 선택된 제1 큐 객체(1215)(또는 제1 큐 객체(1215)에 관련된 캡쳐 데이터 기반 썸네일 이미지)가 사용자 입력의 이동에 따라 이동되는 그래픽 효과를 제공할 수 있다. 어떤 실시예에 따르면, 전자 장치(101)는 선택된 큐 객체를 이동하는 사용자 입력에 기반하여 큐 객체의 이동(예: drag & drop)을 취소할 수 있는 취소 객체(1260)를 화면의 일 영역(예: 화면 상단)에 중첩(또는 플로팅)하여 제공할 수 있다.
일 실시예에 따라, 사용자가 선택된 큐 객체를 취소 객체(1260)로 이동(예: drag & drop)하는 경우, 전자 장치(101)는 캡쳐 데이터의 삽입 동작을 취소(또는 중단)하고, 예를 들면, 동작 <1203>과 같이 화면 캡쳐 이후 동작부터 다시 수행하도록 관련된 화면을 표시할 수 있다.
동작 <1209>에서, 전자 장치(101)는 선택된 제1 큐 객체(1215)가 특정 윈도우(예: 제2 윈도우(1220))로 이동(예: drag & drop)되는 경우, 대응하는 특정 윈도우(예: 제2 윈도우(1220))의 실행 화면(예: 제2 실행 화면)에 제1 큐 객체(1215)에 관련된 캡쳐 데이터(1270)(예: 이미지)를 삽입하여 표시할 수 있다.
도 13은 다양한 실시예들에 따른 전자 장치에서 멀티 윈도우 환경에서 화면 캡쳐 기능을 운영하는 예를 설명하기 위한 도면이다.
일 실시예에 따라, 도 13은 멀티 윈도우 환경에서 화면 캡쳐 및 공유하는 동작 예를 나타낼 수 있다. 일 실시예에 따라, 도 12에서는 3 분할의 멀티 윈도우 환경에서 동작하는 예를 설명하지만, 이에 제한하는 것은 아니며, N 분할의 멀티 윈도우 환경에서도 동작할 수 있다.
도 13을 참조하면, 동작 <1301>에서, 전자 장치(101)는 제1 윈도우(1310), 제2 윈도우(1320) 및 제3 윈도우(1330)를 포함하는 멀티 윈도우에 기반하여 어플리케이션의 실행 화면을 제공할 수 있다. 예를 들면, 전자 장치(101)는 제1 윈도우(1310)를 통해 제1 어플리케이션의 제1 실행 화면을 표시하고, 제2 윈도우(1320)를 통해 제2 어플리케이션의 제2 실행 화면을 표시하고, 제3 윈도우(1330)을 통해 제3 어플리케이션의 제3 실행 화면을 표시할 수 있다. 일 실시예에 따라, 전자 장치(101)는 멀티 윈도우 환경에서 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다.
동작 <1303>에서, 전자 장치(101)는 인터랙션이 수신되는 경우, 화면 캡쳐를 수행할 수 있다. 예를 들면, 전자 장치(101)는 멀티 윈도우의 각 윈도우(1310, 1320, 1330) 별로 화면 캡쳐를 수행할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 제1 윈도우(1310)의 제1 실행 화면, 제2 윈도우(1320)의 제2 실행 화면 및 제3 윈도우(1330)의 제3 실행 화면에 기반하여 각각의 관심 영역을 식별하고, 관심 영역에 기반하여 화면 캡쳐를 수행하고, 관심 영역에 각각 대응하는 캡쳐 데이터에 기반하여 큐 객체(1315, 1325, 1335)를 생성하여 표시할 수 있다.
예를 들면, 전자 장치(101)는 제1 윈도우(1310)의 제1 실행 화면의 관심 영역 기반 제1 큐 객체(1315), 제2 윈도우(1320)의 제2 실행 화면의 관심 영역 기반 제2 큐 객체(1325) 및 제3 윈도우(1330)의 제3 실행 화면의 관심 영역 기반 제3 큐 객체(1335)를 제공할 수 있다. 일 실시예에 따라, 전자 장치(101)는 화면 캡쳐 수행에 따른 결과(예: 윈도우 별 캡쳐 데이터)는 임시 저장할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 큐 객체(1315, 1325, 1335)를 제공 시에, 캡쳐 데이터(또는 캡쳐 데이터를 위한 관심 영역)에 관련된 편집 및/또는 캡쳐 데이터의 공유를 지원하기 위한 툴바(1340)를 함께 제공할 수 있다.
동작 <1305>에서, 사용자는 큐 객체(1315, 1325, 1335) 중 제3 큐 객체(1335)를 선택하여 특정 윈도우(예: 제1 윈도우(1310))로 이동(예: drag & drop)할 수 있다. 일 실시예에 따라, 도 13에서는, 예를 들면, 화면 캡쳐 동작의 종료 또는 사용자 의도에 따른 입력 이전까지 큐 객체(1315, 1325, 1335)를 표시하는 상태를 유지하는 예를 나타낼 수 있다.
예를 들면, 도 12에서는, 선택된 큐 객체의 이동에 따라 선택되지 않은 다른 큐 객체의 표시 제거 및 대응하는 임시 캡쳐 데이터가 제거되는 예를 나타낼 수 있다. 다른 예를 들면, 도 13에서는, 선택된 큐 객체의 이동 시에 선택된 큐 객체 및 선택되지 않은 다른 큐 객체의 표시를 유지하고, 큐 객체들에 대응하는 임시 캡쳐 데이터가 유지되는 예를 나타낼 수 있다.
일 실시예에 따라, 도 13에 따르면, 큐 객체(1315, 1325, 1335)의 유지에 따라, 사용자는 화면 캡쳐의 반복적인 수행 없이, 윈도우 별 캡쳐 데이터를 이용할 수 있다. 예를 들면, 사용자는 제1 윈도우(1310)의 제1 실행 화면에 제1 큐 객체(1315)의 캡쳐 데이터, 제2 큐 객체(1325)의 캡쳐 데이터 및 제3 큐 객체(1335)의 캡쳐 데이터를 순차적으로 모두 삽입할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 큐 객체가 선택되는 경우, 선택된 큐 객체(예: 제3 큐 객체(1335))에 관련된 대상 캡쳐 데이터를 식별하고, 대상 캡쳐 데이터를 메모리(130)에 저장할 수 있다.
일 실시예에 따르면, 전자 장치(101)는 선택된 큐 객체를 이동하는 사용자 입력에 기반하여 선택된 제3 큐 객체(1335)(또는 제3 큐 객체(1335)에 관련된 캡쳐 데이터 기반 썸네일 이미지(1350))가 사용자 입력의 이동에 따라 이동되는 그래픽 효과를 제공할 수 있다.
일 실시예에 따라, 전자 장치(101)는 선택된 제1 큐 객체(1215)가 특정 윈도우(예: 제1 윈도우(1310))로 이동(예: drag & drop)되는 경우, 대응하는 특정 윈도우(예: 제1 윈도우(1310))의 실행 화면(예: 제1 실행 화면)에 제3 큐 객체(1335)에 관련된 캡쳐 데이터(예: 이미지)를 삽입하여 표시할 수 있다.
도 14는 다양한 실시예들에 따른 전자 장치의 동작을 도시하는 흐름도이다.
도 14를 참조하면, 동작 1401에서, 전자 장치(101)의 프로세서(120)는 멀티 윈도우에 기반하여 복수의 어플리케이션에 각각 대응하는 복수의 실행 화면을 표시할 수 있다. 일 실시예에 따르면, 프로세서(120)는 적어도 2개의 어플리케이션들의 실행에 기반하여, 디스플레이 모듈(160)의 화면을 분할하고 실행하는 어플리케이션들에 대응하는 적어도 2개의 윈도우들(예: 제1 윈도우, 제2 윈도우, 제3 윈도우)을 포함하는 멀티 윈도우를 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우의 각 윈도우에, 어플리케이션들의 실행 화면을 각각 표시할 수 있다.
동작 1403에서, 프로세서(120)는 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지할 수 있다. 일 실시예에 따르면, 프로세서(120)는 멀티 윈도우를 통해 어플리케이션들에 대응하는 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신할 수 있다.
동작 1405에서, 프로세서(120)는 인터랙션에 기반하여, 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행할 수 있다. 일 실시예에 따르면, 프로세서(120)는 인터랙션 감지에 기반하여, 멀티 윈도우의 윈도우 별로 어플리케이션의 특징 정보를 판단하고, 특징 정보에 기반하여 관심 영역을 식별(또는 설정)할 수 있다. 일 실시예에 따르면, 프로세서(120)는 제1 윈도우의 제1 실행 화면과 제2 윈도우의 제2 실행 화면에 기반하여 식별된 각각의 관심 영역에 기반하여 화면 캡쳐를 수행할 수 있다.
동작 1407에서, 프로세서(120)는 화면 캡쳐에 기반하여 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공할 수 있다. 일 실시예에 따르면, 프로세서(120)는 관심 영역의 전체 또는 일부를 캡쳐하여, 멀티 윈도우의 윈도우 별 캡쳐 데이터를 생성할 수 있다. 일 실시예에 따르면, 프로세서(120)는 캡쳐 데이터에 기반하여 윈도우 별 큐 객체를 생성하여 표시할 수 있다. 일 실시예에 따라, 프로세서(120)는 임시 저장된 캡쳐 데이터에 기반하여 큐 객체(예: 플로팅 아이콘)를 생성하는 동작을 백그라운드에서 처리할 수 있다.
동작 1409에서, 프로세서(120)는 큐를 이용한 사용자 입력에 기반하여, 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리할 수 있다. 일 실시예에 따르면, 프로세서(120)는 사용자에 의해 큐가 선택되고 선택된 큐가 멀티 윈도우 중 특정 윈도우의 위치(또는 영역)로 이동되는 이벤트(예: drag & drop)를 감지할 수 있다. 일 실시예에 따르면, 프로세서(120)는 이벤트 감지에 기반하여 선택된 큐에 대응하는 캡쳐 데이터(예: 제1 어플리케이션의 캡쳐 데이터)를 다른 어플리케이션(예: 제2 어플리케이션)의 실행 화면에 삽입하기 위한 이벤트(예: drag & drop) 동작을 처리할 수 있다.
일 실시예에 따르면, 프로세서(120)는 선택된 큐에 대응하는 캡쳐 데이터(예: 제1 어플리케이션의 캡쳐 데이터)를 제2 어플리케이션으로 전송하고, 캡쳐 데이터를 다른 윈도우의 어플리케이션과 공유하는 동작을 처리할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치(101)에서 수행하는 동작 방법은, 멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하는 동작, 상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하는 동작, 상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하는 동작, 상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하는 동작, 및 상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 인터랙션을 감지하는 동작은, 상기 멀티 윈도우를 통해 어플리케이션들에 대응하는 복수의 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 지정된 방식의 인터랙션은 상기 전자 장치의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처를 이용한 캡쳐 인터랙션, 음성을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션 중 적어도 하나는 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 화면 캡쳐를 수행하는 동작은, 상기 인터랙션 감지에 기반하여, 상기 멀티 윈도우의 윈도우 별로 어플리케이션의 특징 정보를 판단하는 동작, 상기 특징 정보에 기반하여 관심 영역을 식별하는 동작, 상기 관심 영역의 전체 또는 일부를 캡쳐하여, 상기 멀티 윈도우의 윈도우 별 캡쳐 데이터를 생성하는 동작, 상기 캡쳐 데이터를 전자 장치의 메모리에 임시 저장하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 큐를 제공하는 동작은, 상기 캡쳐 데이터의 크기를 조정하여 지정된 모양을 가지는 큐 객체를 생성하는 동작, 상기 큐 객체를 전자 장치의 디스플레이 모듈에서 지정된 영역에서, 적어도 하나의 실행 화면 상에 중첩하여 표시하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 상기 이벤트를 처리하는 동작은, 사용자에 의해 상기 큐가 선택되고 선택된 큐가 멀티 윈도우 중 특정 윈도우의 영역으로 이동되는 이벤트를 감지하는 동작, 상기 이벤트 감지에 기반하여 상기 선택된 큐에 대응하는 캡쳐 데이터를 다른 윈도우의 어플리케이션과 공유하는 동작을 포함할 수 있다.
본 명세서와 도면에 개시된 본 개시의 다양한 실시예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.

Claims (15)

  1. 전자 장치에 있어서,
    디스플레이 모듈; 및
    상기 디스플레이 모듈과 작동적으로 연결된 프로세서를 포함하고, 상기 프로세서는,
    멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하고,
    상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하고,
    상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하고,
    상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하고, 및
    상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리하도록 설정된 전자 장치.
  2. 제1항에 있어서, 상기 프로세서는,
    상기 멀티 윈도우를 통해 어플리케이션들에 대응하는 복수의 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신하도록 설정되고,
    상기 지정된 방식의 인터랙션은 상기 전자 장치의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처를 이용한 캡쳐 인터랙션, 음성을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션 중 적어도 하나는 포함하는 전자 장치.
  3. 제1항에 있어서, 상기 프로세서는,
    상기 인터랙션 감지에 기반하여, 상기 멀티 윈도우의 윈도우 별로 어플리케이션의 특징 정보를 판단하고,
    상기 특징 정보에 기반하여 관심 영역을 식별하고,
    상기 관심 영역의 전체 또는 일부를 캡쳐하여, 상기 멀티 윈도우의 윈도우 별 캡쳐 데이터를 생성하고,
    상기 캡쳐 데이터에 기반하여 윈도우 별 큐 객체를 생성하여 표시하도록 설정되고,
    상기 어플리케이션의 특징 정보는 윈도우를 통해 표시된 실행 화면 내에서 대표적인 이미지 및/또는 주제가 집중되는 영역에 관한 영역 정보를 포함하는 전자 장치.
  4. 제3항에 있어서, 상기 프로세서는,
    상기 캡쳐 데이터의 크기를 조정하여 지정된 모양을 가지는 상기 큐 객체를 생성하고,
    상기 큐 객체를 상기 디스플레이 모듈에서 지정된 영역에서, 적어도 하나의 실행 화면 상에 중첩하여 표시하도록 설정된 전자 장치.
  5. 제1항에 있어서, 상기 프로세서는,
    상기 캡쳐 데이터를 메모리에 임시 저장하도록 설정된 전자 장치.
  6. 제5항에 있어서, 상기 프로세서는,
    상기 제공된 큐 중에서, 어느 하나의 큐가 선택되는 경우, 선택된 큐에 관련된 대상 캡쳐 데이터를 식별하고,
    상기 대상 캡쳐 데이터를 상기 메모리에 저장하고,
    상기 제공된 큐 중에서 선택되지 않은 큐에 관련된 임시 저장된 캡쳐 데이터는 상기 메모리에서 제거하도록 설정된 전자 장치.
  7. 제6항에 있어서, 상기 프로세서는,
    상기 선택된 큐를 이동하는 사용자 입력에 기반하여, 상기 선택된 큐에 관련된 캡쳐 데이터 기반 썸네일 이미지가 상기 사용자 입력의 이동에 따라 이동되는 그래픽 효과를 표시하도록 설정된 전자 장치.
  8. 제7항에 있어서, 상기 프로세서는,
    상기 선택된 큐의 이동을 취소하기 위한 취소 객체를 제공하도록 설정된 전자 장치.
  9. 제6항에 있어서, 상기 프로세서는,
    상기 선택된 큐의 이동에 따라 선택되지 않은 다른 큐의 표시 제거 및 대응하는 임시 캡쳐 데이터를 제거하거나, 또는
    상기 선택된 큐의 이동 시에 상기 선택된 큐 및 선택되지 않은 다른 큐의 표시를 유지하고, 큐들에 대응하는 임시 캡쳐 데이터를 유지하도록 설정된 전자 장치.
  10. 제1항에 있어서, 상기 프로세서는,
    상기 캡쳐 데이터에 관련된 편집 및/또는 캡쳐 데이터의 공유를 지원하기 위한 툴바를 제공하도록 설정된 전자 장치.
  11. 제1항에 있어서, 상기 프로세서는,
    사용자에 의해 상기 큐가 선택되고 선택된 큐가 멀티 윈도우 중 특정 윈도우의 영역으로 이동되는 이벤트를 감지하고,
    상기 이벤트 감지에 기반하여 상기 선택된 큐에 대응하는 캡쳐 데이터를 다른 윈도우의 어플리케이션과 공유하는 동작을 처리하도록 설정된 전자 장치.
  12. 전자 장치의 동작 방법에 있어서,
    멀티 윈도우(multi window)에 기반하여 복수의 어플리케이션에 각각 대응하는 실행 화면을 표시하는 동작;
    상기 멀티 윈도우를 통해 각각의 실행 화면을 표시하는 동안, 화면 캡쳐에 관련된 인터랙션을 감지하는 동작;
    상기 인터랙션에 기반하여, 상기 멀티 윈도우의 윈도우 별 관심 영역에 기반하여 윈도우 별로 화면 캡쳐를 수행하는 동작;
    상기 화면 캡쳐에 기반하여 상기 윈도우 별 관심 영역의 적어도 일부를 포함하는 큐(cue)를 제공하는 동작; 및
    상기 큐를 이용한 사용자 입력에 기반하여, 상기 큐에 대응하는 캡쳐 데이터를 이용한 이벤트를 처리하는 동작을 포함하는 방법.
  13. 제12항에 있어서, 상기 인터랙션을 감지하는 동작은,
    상기 멀티 윈도우를 통해 어플리케이션들에 대응하는 복수의 실행 화면을 표시하는 동안, 사용자로부터 화면 캡쳐를 실행하도록 지정된 방식의 인터랙션을 수신하는 동작을 포함하고,
    상기 지정된 방식의 인터랙션은 상기 전자 장치의 하드웨어 버튼을 이용한 캡쳐 인터랙션, 사용자의 제스처를 이용한 캡쳐 인터랙션, 음성을 이용한 캡쳐 인터랙션, 전자 펜을 이용한 캡쳐 인터랙션, 및/또는 엣지 패널의 소프트웨어 버튼을 이용한 캡쳐 인터랙션 중 적어도 하나는 포함하는 방법.
  14. 제12항에 있어서, 상기 화면 캡쳐를 수행하는 동작은,
    상기 인터랙션 감지에 기반하여, 상기 멀티 윈도우의 윈도우 별로 어플리케이션의 특징 정보를 판단하는 동작,
    상기 특징 정보에 기반하여 관심 영역을 식별하는 동작,
    상기 관심 영역의 전체 또는 일부를 캡쳐하여, 상기 멀티 윈도우의 윈도우 별 캡쳐 데이터를 생성하는 동작,
    상기 캡쳐 데이터를 전자 장치의 메모리에 임시 저장하는 동작을 포함하는 방법.
  15. 제12항에 있어서, 상기 큐를 제공하는 동작은,
    상기 캡쳐 데이터의 크기를 조정하여 지정된 모양을 가지는 큐 객체를 생성하는 동작,
    상기 큐 객체를 전자 장치의 디스플레이 모듈에서 지정된 영역에서, 적어도 하나의 실행 화면 상에 중첩하여 표시하는 동작을 포함하는 방법.
PCT/KR2021/010289 2020-08-04 2021-08-04 캡쳐 기능 제공 방법 및 그 전자 장치 WO2022031051A1 (ko)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202180057287.XA CN116075853A (zh) 2020-08-04 2021-08-04 提供捕获功能的方法及其电子装置
EP21853639.9A EP4177832A4 (en) 2020-08-04 2021-08-04 METHOD FOR PROVIDING A CAPTURE FUNCTION AND ASSOCIATED ELECTRONIC DEVICE
US18/162,266 US20230185442A1 (en) 2020-08-04 2023-01-31 Method for providing capture function and electronic device therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0097118 2020-08-04
KR1020200097118A KR20220017065A (ko) 2020-08-04 2020-08-04 캡쳐 기능 제공 방법 및 그 전자 장치

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/162,266 Continuation US20230185442A1 (en) 2020-08-04 2023-01-31 Method for providing capture function and electronic device therefor

Publications (1)

Publication Number Publication Date
WO2022031051A1 true WO2022031051A1 (ko) 2022-02-10

Family

ID=80118286

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/010289 WO2022031051A1 (ko) 2020-08-04 2021-08-04 캡쳐 기능 제공 방법 및 그 전자 장치

Country Status (5)

Country Link
US (1) US20230185442A1 (ko)
EP (1) EP4177832A4 (ko)
KR (1) KR20220017065A (ko)
CN (1) CN116075853A (ko)
WO (1) WO2022031051A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114610435A (zh) * 2022-03-29 2022-06-10 联想(北京)有限公司 一种处理方法和电子设备

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220016727A (ko) * 2020-08-03 2022-02-10 삼성전자주식회사 다중 윈도우 이미지 캡쳐 방법 및 이를 위한 전자 장치
CN114911397A (zh) * 2022-05-18 2022-08-16 北京五八信息技术有限公司 一种数据处理方法、装置、电子设备及存储介质
KR102640326B1 (ko) * 2023-08-24 2024-02-23 주식회사 하이페이스 어플리케이션 gui 레퍼런스 장치 및 그 장치의 구동방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070234212A1 (en) * 2006-03-31 2007-10-04 Microsoft Corporation Selective window exclusion for captured content
JP4350137B2 (ja) * 2007-04-04 2009-10-21 Sky株式会社 端末監視方法、端末監視装置、及び端末監視プログラム
KR20160059355A (ko) * 2014-11-18 2016-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101984673B1 (ko) * 2012-07-27 2019-05-31 삼성전자주식회사 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
KR20190126267A (ko) * 2012-02-24 2019-11-11 삼성전자주식회사 디스플레이 창에 대한 캡쳐 이미지 생성 방법 및 장치

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110231905B (zh) * 2019-05-07 2021-02-09 华为技术有限公司 一种截屏方法及电子设备
CN110737386A (zh) * 2019-09-06 2020-01-31 华为技术有限公司 一种屏幕截取方法及相关设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070234212A1 (en) * 2006-03-31 2007-10-04 Microsoft Corporation Selective window exclusion for captured content
JP4350137B2 (ja) * 2007-04-04 2009-10-21 Sky株式会社 端末監視方法、端末監視装置、及び端末監視プログラム
KR20190126267A (ko) * 2012-02-24 2019-11-11 삼성전자주식회사 디스플레이 창에 대한 캡쳐 이미지 생성 방법 및 장치
KR101984673B1 (ko) * 2012-07-27 2019-05-31 삼성전자주식회사 복수 어플리케이션을 실행하는 디스플레이 장치 및 그 제어 방법
KR20160059355A (ko) * 2014-11-18 2016-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4177832A4 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114610435A (zh) * 2022-03-29 2022-06-10 联想(北京)有限公司 一种处理方法和电子设备

Also Published As

Publication number Publication date
EP4177832A4 (en) 2024-01-10
US20230185442A1 (en) 2023-06-15
KR20220017065A (ko) 2022-02-11
CN116075853A (zh) 2023-05-05
EP4177832A1 (en) 2023-05-10

Similar Documents

Publication Publication Date Title
WO2022031051A1 (ko) 캡쳐 기능 제공 방법 및 그 전자 장치
WO2022010116A1 (ko) 디스플레이 화면 재생률 제어 방법 및 장치
WO2021066468A1 (en) Electronic device and control method thereof
WO2022055255A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2022119276A1 (ko) 플렉서블 디스플레이 전자 장치 및 그 동작 방법
WO2022108192A1 (ko) 전자 장치 및 전자 장치의 멀티윈도우 제어방법
WO2021261949A1 (ko) 디스플레이의 폴딩 상태에 따른 이용 방법 및 이를 이용한 전자 장치
WO2022149954A1 (ko) 플렉서블 디스플레이를 갖는 전자 장치 및 그의 모드 변경에 따른 제어 패널 제공 방법
WO2022154423A1 (ko) 전자 장치 및 전자 장치에서 스타일러스 펜의 입력을 처리하는 방법
WO2022030890A1 (ko) 다중 윈도우 이미지 캡쳐 방법 및 이를 위한 전자 장치
WO2022086272A1 (ko) 사용자 인터페이스를 제공하는 전자 장치 및 그 방법
WO2022108379A1 (ko) 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법
WO2022031048A1 (ko) 전자 장치 및 이의 전자 펜 포인터를 표시하는 방법
WO2022080939A1 (ko) 전자 장치 및 전자 장치의 키패드 운영 방법
WO2022097922A1 (ko) 플렉서블 디스플레이를 포함하는 전자 장치 및 그의 제어 방법
WO2022240000A1 (ko) 슬라이딩 가능한 전자 장치 및 그 동작 방법
WO2024034774A1 (ko) 복수의 디스플레이들을 포함하는 전자 장치 및 복수의 디스플레이들의 화질 편차를 줄이는 방법
WO2022080698A1 (ko) 플렉서블 디스플레이를 이용하여 화면을 제공하는 방법 및 이를 지원하는 전자 장치
WO2024034852A1 (ko) 전자 장치의 멀티 윈도우 제어 방법 및 그 전자 장치
WO2024054038A1 (ko) 폴더블 전자 장치 및 폴더블 전자 장치의 활용 방법
WO2022103035A1 (ko) 플렉서블 디스플레이를 갖는 웨어러블 장치 및 그의 상태 변경에 따른 운영 방법
WO2022086219A1 (ko) 어플리케이션의 실행 화면을 제공하는 전자 장치, 그 동작 방법 및 저장 매체
WO2022119117A1 (ko) 플렉서블 디스플레이를 구비한 전자 장치 및 그의 동작 방법
WO2022030955A1 (ko) 홈 화면을 복원하는 방법 및 이를 적용한 전자 장치
WO2022030824A1 (ko) 오디오 재생 및 화면 표시 방법 및 그 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21853639

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021853639

Country of ref document: EP

Effective date: 20230203

NENP Non-entry into the national phase

Ref country code: DE