WO2022154536A1 - 전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능 제어 방법 - Google Patents
전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능 제어 방법 Download PDFInfo
- Publication number
- WO2022154536A1 WO2022154536A1 PCT/KR2022/000672 KR2022000672W WO2022154536A1 WO 2022154536 A1 WO2022154536 A1 WO 2022154536A1 KR 2022000672 W KR2022000672 W KR 2022000672W WO 2022154536 A1 WO2022154536 A1 WO 2022154536A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- application
- function
- screen
- interaction
- touch interaction
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 545
- 238000000034 method Methods 0.000 title claims description 56
- 230000006870 function Effects 0.000 claims abstract description 435
- 230000005236 sound signal Effects 0.000 claims description 133
- 238000004891 communication Methods 0.000 description 74
- 238000010586 diagram Methods 0.000 description 33
- 238000012545 processing Methods 0.000 description 13
- 230000003213 activating effect Effects 0.000 description 11
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000004590 computer program Methods 0.000 description 5
- 238000001514 detection method Methods 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/002—Specific input/output arrangements not covered by G06F3/01 - G06F3/16
- G06F3/005—Input arrangements through a video camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0414—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0485—Scrolling or panning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/165—Management of the audio stream, e.g. setting of volume, audio stream path
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04803—Split screen, i.e. subdividing the display area or the window area into separate subareas
Definitions
- Various embodiments of the present disclosure relate to an electronic device and a method for controlling an application function based on a touch interaction detected in a key input circuit using the same.
- the electronic device may include a touch screen display so that a user can easily access various functions, and may provide screens of various applications through the touch screen display.
- the electronic device may provide a multi-window function capable of simultaneously displaying screens of a plurality of applications through divided areas of the touch screen display. After selecting one screen among screens of a plurality of applications displayed on the touch screen display, the electronic device may perform a function of an application corresponding to the selected screen through an input on the selected screen.
- the electronic device may include a physical key input circuit disposed on a side surface of the housing.
- the electronic device may perform a function corresponding to a key input received by pressing a physical key input circuit.
- a function that can be performed through a physical key input circuit disposed on the side of the housing may be designated in advance, and accordingly, the electronic device may perform only limited functions using the physical key input circuit.
- An electronic device may include a key input circuit including a touch sensor and/or a pressure sensor.
- the electronic device may control various functions of the specific application based on the type of the touch interaction and context information of the specific application among the plurality of applications.
- An electronic device includes a key input circuit, a display, a memory, and a processor operatively connected to the key input circuit, the display, and the memory, wherein the processor includes a plurality of applications control the display to display the screens of the screens in a multi-window form, and check the type of the touch interaction and context information of a focused application among the plurality of applications based on detecting the touch interaction in the key input circuit, , if the touch interaction is the first type, execute a first function of the focused application corresponding to the first type of touch interaction based on context information of the focused application, and the touch interaction is a second type type, it may be set to execute a second function of the focused application corresponding to the second type of touch interaction based on context information of the focused application.
- screens of a plurality of applications are displayed on the display of the electronic device in a multi-window form operation, checking the type of the touch interaction and context information of a focused application among the plurality of applications based on detecting the touch interaction in the key input circuit; if the touch interaction is the first type, the focus an operation of executing a first function of the focused application corresponding to the first type of touch interaction based on the context information of the applied application, and when the touch interaction is the second type, the context information of the focused application based on the second type of touch interaction, executing a second function of the focused application corresponding to the second type of touch interaction.
- An electronic device may provide a specific application based on a type of a touch interaction detected by a key input circuit including a touch sensor and/or a pressure sensor and context information of a specific application among a plurality of applications. By executing various functions of , it is possible to provide a user experience for key input. Also, the electronic device may provide to perform various control functions of a specific application based on detecting a touch interaction in which the user's intention is reflected in the key input circuit.
- FIG. 1 is a block diagram of an electronic device in a network environment, according to various embodiments of the present disclosure
- FIG. 2 is a block diagram of a display module according to various embodiments of the present disclosure.
- FIG. 3 is a diagram for describing various form factors of an electronic device according to various embodiments of the present disclosure.
- FIG. 4 is a block diagram illustrating an electronic device according to various embodiments of the present disclosure.
- FIG. 5 is a diagram for describing a type of a touch interaction that may be detected by a key input circuit of an electronic device, according to various embodiments of the present disclosure
- FIG. 6 is a flowchart illustrating a method of controlling a function of a focused application based on a touch interaction detected by a key input circuit while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure
- FIG. 7 is a diagram for explaining context information of an application according to various embodiments of the present disclosure.
- FIGS. 8A and 8B are flowcharts for explaining a method of controlling a function of a focused application based on a touch interaction detected by a key input circuit while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure
- 9A, 9B, 9C, and 9D are a method of controlling a function of a focused application based on a touch interaction detected by a key input circuit while screens of a plurality of applications are displayed, according to various embodiments; It is a drawing for explaining.
- FIG. 10 is a diagram for describing a method of controlling a function of a focused application based on a touch interaction detected by a key input circuit while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure
- FIG. 11 is a diagram for describing a method of controlling a function of a focused application based on a touch interaction detected by a key input circuit while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure
- FIG. 12 is a flowchart illustrating a method of controlling a function of a displayed application based on a touch interaction detected by a key input circuit while a screen of one application is displayed, according to various embodiments of the present disclosure
- FIGS. 13A and 13B are flowcharts for explaining a method of controlling a function of a displayed application based on a touch interaction detected by a key input circuit while a screen of one application is displayed, according to various embodiments of the present disclosure
- FIG. 14 is a diagram for describing a method of controlling a function of a phone application based on a touch interaction detected by a key input circuit while a screen of the phone application is displayed, according to various embodiments of the present disclosure
- 15 is a diagram for describing a method of controlling a function of a notification application based on a touch interaction detected by a key input circuit while a screen of the notification application is displayed, according to various embodiments of the present disclosure
- 16A and 16B are diagrams for explaining a method of controlling a function of a music application based on a touch interaction detected by a key input circuit while a screen of the music application is displayed, according to various embodiments of the present disclosure
- 17A and 17B are diagrams for explaining a method of controlling a function of a video application based on a touch interaction detected by a key input circuit while a screen of the video application is displayed, according to various embodiments.
- FIG. 18 is a diagram for describing a method of controlling a function of a search application based on a touch interaction detected by a key input circuit while a screen of the search application is displayed, according to various embodiments of the present disclosure
- 19A and 19B are diagrams for explaining a method of controlling a function of a photo application based on a touch interaction detected by a key input circuit while a screen of the photo application is displayed, according to various embodiments of the present disclosure
- FIG. 20 is a diagram for describing a method of controlling a function of a social network application based on a touch interaction detected by a key input circuit while a screen of the social network application is displayed, according to various embodiments of the present disclosure
- FIG. 1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments.
- an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with at least one of the electronic device 104 and the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
- a first network 198 eg, a short-range wireless communication network
- a second network 199 e.g., a second network 199
- the electronic device 101 may communicate with the electronic device 104 through the server 108 .
- the electronic device 101 includes a processor 120 , a memory 130 , an input module 150 , a sound output module 155 , a display module 160 , an audio module 170 , and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or an antenna module 197 .
- at least one of these components eg, the connection terminal 178
- some of these components are integrated into one component (eg, display module 160 ). can be
- the processor 120 for example, executes software (eg, a program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be stored in , process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
- software eg, a program 140
- the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
- the volatile memory 132 may be stored in , process commands or data stored in the volatile memory 132 , and store the result data in the non-volatile memory 134 .
- the processor 120 is a main processor 121 (eg, a central processing unit or an application processor) or a secondary processor 123 (eg, a graphic processing unit, a neural network processing unit) a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor).
- a main processor 121 eg, a central processing unit or an application processor
- a secondary processor 123 eg, a graphic processing unit, a neural network processing unit
- NPU neural processing unit
- an image signal processor e.g., a sensor hub processor, or a communication processor.
- the secondary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display module 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
- the coprocessor 123 eg, an image signal processor or a communication processor
- may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
- the auxiliary processor 123 may include a hardware structure specialized for processing an artificial intelligence model.
- Artificial intelligence models can be created through machine learning. Such learning may be performed, for example, in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (eg, the server 108).
- the learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but in the above example not limited
- the artificial intelligence model may include a plurality of artificial neural network layers.
- Artificial neural networks include deep neural networks (DNNs), convolutional neural networks (CNNs), recurrent neural networks (RNNs), restricted boltzmann machines (RBMs), deep belief networks (DBNs), bidirectional recurrent deep neural networks (BRDNNs), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the above example.
- the artificial intelligence model may include, in addition to, or alternatively, a software structure in addition to the hardware structure.
- the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
- the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
- the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
- the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
- the input module 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
- the input module 150 may include, for example, a microphone, a mouse, a keyboard, a key (eg, a button), or a digital pen (eg, a stylus pen).
- the sound output module 155 may output a sound signal to the outside of the electronic device 101 .
- the sound output module 155 may include, for example, a speaker or a receiver.
- the speaker can be used for general purposes such as multimedia playback or recording playback.
- the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
- the display module 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
- the display module 160 may include, for example, a control circuit for controlling a display, a hologram device, or a projector and a corresponding device.
- the display module 160 may include a touch sensor configured to sense a touch or a pressure sensor configured to measure the intensity of a force generated by the touch.
- the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input module 150 or an external electronic device (eg, a sound output module 155 ) directly or wirelessly connected to the electronic device 101 .
- the electronic device 102) eg, a speaker or headphones
- the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
- the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
- the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
- the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
- the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 may manage power supplied to the electronic device 101 .
- the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101 .
- battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
- the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication performance through the established communication channel.
- the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
- the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
- a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
- GNSS global navigation satellite system
- wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
- a corresponding communication module among these communication modules is a first network 198 (eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
- a first network 198 eg, a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)
- a second network 199 eg, legacy It may communicate with the external electronic device 104 through a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (eg, a telecommunication network such as a LAN or a WAN).
- a telecommunication network
- the wireless communication module 192 uses subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
- subscriber information eg, International Mobile Subscriber Identifier (IMSI)
- IMSI International Mobile Subscriber Identifier
- the electronic device 101 may be identified or authenticated.
- the wireless communication module 192 may support a 5G network after a 4G network and a next-generation communication technology, for example, a new radio access technology (NR).
- NR access technology includes high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency) -latency communications)).
- eMBB enhanced mobile broadband
- mMTC massive machine type communications
- URLLC ultra-reliable and low-latency
- the wireless communication module 192 may support a high frequency band (eg, mmWave band) to achieve a high data rate, for example.
- a high frequency band eg, mmWave band
- the wireless communication module 192 uses various techniques for securing performance in a high-frequency band, for example, beamforming, massive multiple-input and multiple-output (MIMO), all-dimensional multiplexing. It may support technologies such as full dimensional MIMO (FD-MIMO), an array antenna, analog beam-forming, or a large scale antenna.
- the wireless communication module 192 may support various requirements defined in the electronic device 101 , an external electronic device (eg, the electronic device 104 ), or a network system (eg, the second network 199 ).
- the wireless communication module 192 may include a peak data rate (eg, 20 Gbps or more) for realizing eMBB, loss coverage (eg, 164 dB or less) for realizing mMTC, or U-plane latency for realizing URLLC ( Example: Downlink (DL) and uplink (UL) each 0.5 ms or less, or round trip 1 ms or less) can be supported.
- a peak data rate eg, 20 Gbps or more
- loss coverage eg, 164 dB or less
- U-plane latency for realizing URLLC
- the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
- the antenna module 197 may include an antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
- the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
- other components eg, a radio frequency integrated circuit (RFIC)
- RFIC radio frequency integrated circuit
- the antenna module 197 may form a mmWave antenna module.
- the mmWave antenna module comprises a printed circuit board, an RFIC disposed on or adjacent to a first side (eg, underside) of the printed circuit board and capable of supporting a designated high frequency band (eg, mmWave band); and a plurality of antennas (eg, an array antenna) disposed on or adjacent to a second side (eg, top or side) of the printed circuit board and capable of transmitting or receiving signals of the designated high frequency band. can do.
- peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
- GPIO general purpose input and output
- SPI serial peripheral interface
- MIPI mobile industry processor interface
- the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
- Each of the external electronic devices 102 or 104 may be the same as or different from the electronic device 101 .
- all or part of the operations performed by the electronic device 101 may be executed by one or more external electronic devices 102 , 104 , or 108 .
- the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
- one or more external electronic devices may be requested to perform at least a part of the function or the service.
- One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
- the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
- cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used.
- the electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing.
- the external electronic device 104 may include an Internet of things (IoT) device.
- the server 108 may be an intelligent server using machine learning and/or neural networks.
- the external electronic device 104 or the server 108 may be included in the second network 199 .
- the electronic device 101 may be applied to an intelligent service (eg, smart home, smart city, smart car, or health care) based on 5G communication technology and IoT-related technology.
- FIG. 2 is a block diagram 200 of a display module 160, according to various embodiments.
- the display module 160 may include a display 210 and a display driver IC (DDI) 230 for controlling the display 210 .
- the DDI 230 may include an interface module 231 , a memory 233 (eg, a buffer memory), an image processing module 235 , or a mapping module 237 .
- the DDI 230 transmits, for example, image data or image information including an image control signal corresponding to a command for controlling the image data to other components of the electronic device 101 through the interface module 231 .
- the image information is provided by the processor 120 (eg, the main processor 121 (eg, an application processor) or the auxiliary processor 123 (eg, an application processor) operated independently of the function of the main processor 121 )
- the processor 120 eg, the main processor 121 (eg, an application processor) or the auxiliary processor 123 (eg, an application processor) operated independently of the function of the main processor 121
- the processor 120 eg, the main processor 121 (eg, an application processor) or the auxiliary processor 123 (eg, an application processor) operated independently of the function of the main processor 121
- the processor 120 eg, the main processor 121 (eg, an application processor) or the auxiliary processor 123 (eg, an application processor) operated independently of the function of the main processor 121 )
- the DDI 230 may communicate with the touch circuit 250 or the sensor module 176 through the interface module 231.
- the DDI 230 may be At least a portion of the received image information may be stored in the memory 233, for example, in units of frames, for example, the image processing module 235 may store at least a portion of the image data, Pre-processing or post-processing (eg, resolution, brightness, or size adjustment) may be performed based at least on the characteristics of the display 210.
- the mapping module 237 may perform pre-processing or post-processing through the image processing module 235. A voltage value or a current value corresponding to the image data may be generated.
- the generation of the voltage value or the current value may include, for example, a property of pixels of the display 210 (eg, an arrangement of pixels ( RGB stripe or pentile structure), or the size of each sub-pixel) At least some pixels of the display 210 are, for example, based at least in part on the voltage value or the current value.
- visual information eg, text, image, or icon
- the image data may be displayed through the display 210 .
- the display module 160 may further include a touch circuit 250 .
- the touch circuit 250 may include a touch sensor 251 and a touch sensor IC 253 for controlling the touch sensor 251 .
- the touch sensor IC 253 may control the touch sensor 251 to sense a touch input or a hovering input for a specific position of the display 210 , for example.
- the touch sensor IC 253 may detect a touch input or a hovering input by measuring a change in a signal (eg, voltage, light amount, resistance, or electric charge amount) for a specific position of the display 210 .
- the touch sensor IC 253 may provide information (eg, location, area, pressure, or time) regarding the sensed touch input or hovering input to the processor 120 .
- At least a part of the touch circuit 250 is disposed as a part of the display driver IC 230 , or the display 210 , or outside the display module 160 . may be included as a part of another component (eg, the coprocessor 123).
- the display module 160 may further include at least one sensor (eg, a fingerprint sensor, an iris sensor, a pressure sensor, or an illuminance sensor) of the sensor module 176 , or a control circuit therefor.
- the at least one sensor or a control circuit therefor may be embedded in a part of the display module 160 (eg, the display 210 or the DDI 230 ) or a part of the touch circuit 250 .
- the sensor module 176 embedded in the display module 160 includes a biometric sensor (eg, a fingerprint sensor)
- the biometric sensor provides biometric information related to a touch input through a partial area of the display 210 . (eg, fingerprint image) can be acquired.
- the pressure sensor may acquire pressure information related to a touch input through a part or the entire area of the display 210 .
- the touch sensor 251 or the sensor module 176 may be disposed between pixels of the pixel layer of the display 210 , or above or below the pixel layer.
- FIG. 3 is a diagram 300 for explaining various form factors of the electronic device 101 according to various embodiments of the present disclosure.
- FIG. 3 is a diagram illustrating examples of various form factors of an electronic device (eg, the electronic device 101 of FIG. 1 ) having various display types, according to various embodiments of the present disclosure.
- the electronic device 101 is a bar type or plate type 310 , a foldable 320 , 330 , or 340 , a rollable 350 , and/or various form factors such as a slideable 360 .
- the electronic device 101 may be implemented in various forms, and a display (eg, the display module 160 of FIG. 1 ) may be implemented according to the implementation form of the electronic device 101 .
- a display eg, the display module 160 of FIG. 1
- the electronic device 101 may be implemented in various forms, and a display (eg, the display module 160 of FIG. 1 ) may be implemented according to the implementation form of the electronic device 101 .
- the electronic device 101 is a bar type, a flat panel type 310 , or an electronic device 101 having a foldable form factor (eg, a foldable electronic device 320 ). , 330, or 340)) as an example, but is not limited thereto.
- the electronic device 101 may operate with and with various form factors such as the rollable 350 and/or the slideable 360 .
- the electronic device 101 may substantially face two different regions of the display (eg, the display module 160 of FIG. 1 ) or It may refer to an electronic device that can be folded in directions opposite to each other.
- the display eg, the display module 160 of FIG. 1 or 2
- the user can unfold the display in an actual use state so that the two different regions form a substantially flat plate shape.
- the electronic device 101 (eg, the foldable device 320 , 330 or 340 ) has two display surfaces (eg, a first display surface and a second display surface) based on one folding axis.
- a form factor comprising (e.g., 320 or 330) and/or at least three display faces (e.g., a first display face, a second display face and a third display face) based on at least two folding axes. (eg 340).
- a display eg, the display module 160 of FIG.
- the electronic device 101 may be configured in various ways (eg, in-folding) or out-folding (eg, in-folding) according to an implementation form. folding), or in/out folding) can be folded or unfolded.
- the electronic device 101 may include various foldable methods such as vertical foldable, horizontal foldable, G foldable, or Z foldable.
- FIG. 4 is a block diagram 400 illustrating an electronic device 401 according to various embodiments.
- an electronic device 401 (eg, the electronic device 101 of FIG. 1 ) includes a communication circuit 410 (eg, the communication module 190 of FIG. 1 ), a key input circuit 420 , and a touch screen.
- a screen display 430 (eg, the display module 160 of FIG. 1 ), a memory 440 (eg, the memory 130 of FIG. 1 ), a sound output circuit 450 (eg, the sound output module of FIG. 1 ) 155 ), and/or a processor 460 (eg, processor 120 of FIG. 1 ).
- the communication circuit 410 (eg, the communication module 190 of FIG. 1 ) is an external electronic device (eg, the electronic devices 102 and 104 of FIG. 1 , the server 108 )
- a communication channel may be established with an external electronic device, and various data may be transmitted/received with an external electronic device.
- the key input circuit 420 may be disposed on a side surface of the electronic device 401 . According to various embodiments, the position where the key input circuit 420 is disposed is not limited to the side surface of the electronic device 401 .
- the key input circuit 420 may include a touch sensor for detecting a touch interaction.
- the present invention is not limited thereto, and the key input circuit 420 may include a pressure sensor for detecting the intensity of pressure generated by the touch interaction.
- the touch screen display 430 displays an image under the control of the processor 460 , and a liquid crystal display (LCD) , a light-emitting diode (LED) display, an organic light-emitting diode (OLED) display, or a micro electro mechanical systems (MEMS) display, or an electronic paper display It may be implemented by any one of them.
- LCD liquid crystal display
- LED light-emitting diode
- OLED organic light-emitting diode
- MEMS micro electro mechanical systems
- the touch screen display 430 may be integrally configured including the display 431 and the touch panel 433 .
- the touch screen display 430 may display a plurality of screens of a plurality of applications executed under the control of the processor 460 .
- the touch screen display 430 may display a screen of an application for a function executed in response to a touch interaction detected by the key input circuit 420 under the control of the processor 460 .
- the memory 440 (eg, the memory 130 of FIG. 1 ) stores a program for determining a focused application among screens of a plurality of applications displayed on the touch screen display 430 . can be saved
- the memory 440 may store a program for determining context information of an application displayed or focused on the touch screen display 430 .
- the memory 440 stores a program for controlling the function of the displayed or focused application based on the type of touch interaction detected by the key input circuit 420 and context information of the displayed or focused application on the touch screen display 430 . can be saved
- the sound output circuit 450 (eg, the sound output module 155 of FIG. 1 ) may output an audio signal.
- the processor 460 controls the overall operation of the electronic device 401 and a signal flow between internal components of the electronic device 401 , and , data processing can be performed.
- the processor 460 may display screens of a plurality of applications on the display 431 in the form of a multi-window. For example, the processor 460 may divide the display area of the display 431 into a plurality of areas, and display a screen of each application through each area.
- the processor 460 may detect a touch interaction in the key input circuit 420 .
- the touch interaction may include a swipe, a tap, a double tap, a triple tap, a short press, or a long press.
- the processor 460 may identify a type of the touch interaction and context information of a focused application among a plurality of applications.
- the focused application may include an application for which a user input was last detected among screens of a plurality of applications, an application that was last executed, an application that continuously updates the screen (eg, a video application), or a camera module (eg, FIG. The application of the screen corresponding to the user's gaze direction obtained through the camera module 180 of No. 1) may be included.
- the context information of the application includes whether an audio signal corresponding to a focused application is being output through an audio device (eg, a wireless audio device) connected through the sound output circuit 450 or the communication circuit 410; / or a screen property of the focused application (eg, whether the size of the screen of the focused application exceeds the size of the display 431 ) may be included.
- an audio device eg, a wireless audio device
- a screen property of the focused application eg, whether the size of the screen of the focused application exceeds the size of the display 431 .
- the processor 460 may execute a first function of the focused application corresponding to the first type of touch interaction based on context information of the focused application. If the touch interaction is the second type, the processor 460 may execute a second function of the focused application corresponding to the second type of interaction based on context information of the focused application.
- the first type of touch interaction and the second type of touch interaction may be different, and accordingly, the first function and the second function may also be different.
- the type of touch interaction detected by the key input circuit 420 eg, the first type or the second type
- context information of the application eg, information on whether an audio signal is output and/or information on the application
- the function of the application according to whether the size of the screen exceeds the size of the divided area of the display 431) is a function for controlling an audio signal (eg, a function for adjusting the volume of an audio signal, a video function to play, stop video playback, mute or unmute audio signals, 10 seconds backwards in video playback, 10 seconds forward function, 30 seconds backwards in video playback , 30 second forward function, function to play previous video, or function to play next video) It may include a function of activating the navigation of the screen, a function of switching the screen of the application, a function of enlarging or reducing the screen of the application), and a function of terminating the application.
- the electronic device 401 includes a key input circuit 420 , a display 431 , a memory 440 , and the key input circuit 420 , the display 431 , and the memory 420 .
- a processor 460 operatively connected, wherein the processor 460 controls the display 431 to display screens of a plurality of applications in a multi-window form, and in the key input circuit 420
- the type of the touch interaction and context information of a focused application among the plurality of applications are checked, and if the touch interaction is the first type, based on the context information of the focused application , a first function of the focused application corresponding to the first type of touch interaction is executed, and if the touch interaction is of the second type, based on context information of the focused application, the second type of touch It may be set to execute a second function of the focused application corresponding to the interaction.
- the key input circuit 420 may include a touch sensor and/or a pressure sensor.
- the touch interaction includes a swipe interaction, a tap interaction, a multi-tap interaction, a short press interaction, and a long press interaction, wherein the first type of touch interaction and the second type of touch interaction are may be set to be different.
- the processor 460 may include an application for which a user input was last detected among screens of the plurality of applications, an application last executed, or an application that continuously updates a screen, and/or a camera It may be set to determine the focused application based on an application on the screen corresponding to the user's gaze direction obtained through (eg, the camera module 180 of FIG. 1 ).
- the context information of the focused application includes information on whether an audio signal corresponding to the focused application is being output through the sound output circuit 450 and/or the size of a screen of the focused application may include information on whether the size of the divided area of the display 431 on which the screen of the focused application is displayed exceeds the size.
- the processor 460 determines that the context information of the focused application is outputting an audio signal corresponding to the focused application through the sound output circuit 450, It may be configured to execute a first function or a second function of controlling the audio signal based on the first type of touch interaction or the second type of touch interaction.
- the first function or the second function of controlling the audio signal may include a function of adjusting a volume of the audio signal, a function of reproducing the audio signal, a function of stopping the audio signal, and a function of controlling the audio signal.
- Function to mute or unmute function to play the audio signal backward by 10 seconds, function to play it 10 seconds forward, function to play the audio signal backward by 30 seconds, function to play the audio signal forward by 30 seconds , a function of reproducing a previous audio signal, or a function of reproducing a next audio signal.
- the processor 460 when the context information of the focused application is not outputting an audio signal corresponding to the focused application through the sound output circuit 450 , the processor 460 is configured to It is checked whether the size of the screen exceeds the size of the divided area of the display 431 on which the screen of the focused application is displayed, and the size of the screen of the focused application is the size of the screen on which the screen of the focused application is displayed. Based on exceeding the size of the divided area of the display 431, a first function or a second function for controlling the screen of the focused application based on the first type of touch interaction or the second type of touch interaction It can be set to execute 2 functions.
- the first function or the second function for controlling the screen of the focused application may include a function of scrolling a screen of the focused application, a function of fixing a screen of the focused application, and a function of fixing the screen of the focused application. It may include a function of navigating the screen of the application, a function of switching the screen of the focused application, or a function of enlarging or reducing the screen of the focused application.
- the processor 460 may control the display 431 to display a guide for a touch interaction mapped to a function of the focused application.
- FIG. 5 is a diagram 500 for explaining a type of touch interaction that may be detected by the key input circuit 420 of the electronic device 401, according to various embodiments of the present disclosure.
- an electronic device may include a key input circuit 515 (eg, the key input circuit 420 of FIG. 4 ).
- the key input circuit 420 may be disposed on a side surface of the electronic device 401 .
- a position where the key input circuit 420 according to various embodiments is disposed is not limited to a side surface of the electronic device 401 .
- the key input circuit 515 may include a touch sensor for detecting a touch interaction.
- the present invention is not limited thereto, and the key input circuit 515 may include a pressure sensor for detecting the intensity of pressure generated by the touch interaction.
- the touch interaction is a swipe interaction 520 (eg, a swipe interaction moving from a first direction (1) to a second direction (2) or a second a swipe interaction moving from the direction (2) to the first direction (1)). It is not limited thereto, and as shown in reference number ⁇ 550>, the touch interaction includes a tab interaction 555, a multi-tap interaction (eg, a double tap interaction 560), It may include a triple tap interaction 565) and a press interaction (eg, a short press interaction 570, a long press interaction 575).
- a swipe interaction 520 eg, a swipe interaction moving from a first direction (1) to a second direction (2) or a second a swipe interaction moving from the direction (2) to the first direction (1).
- the touch interaction includes a tab interaction 555, a multi-tap interaction (eg, a double tap interaction 560), It may include a triple tap interaction 565) and a press interaction (eg, a short press interaction 570, a long press interaction 575).
- the electronic device 401 may identify the type of the detected touch interaction.
- the electronic device 401 may control various functions of the application corresponding to the type of touch interaction based on context information of the currently running application. In this regard, various embodiments will be described with reference to FIGS. 6 to 20 to be described later.
- FIG. 6 is a flowchart 600 for explaining a method of controlling a function of a focused application based on a touch interaction detected by the key input circuit 420 while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure; )to be.
- the processor (eg, the processor 460 of FIG. 4 ) of the electronic device displays screens of a plurality of applications in a multi-window form.
- the processor 460 divides the display area of the display (eg, the display 431 of FIG. 4 ) into a plurality of areas, and configures the display 431 to display a screen of each application through each divided area. can be controlled
- the screen of each application displayed in each divided area may include a service screen of the application and/or a graphic user interface (GUI) related to the application.
- GUI graphic user interface
- the processor 460 may display the screen of at least one application among the screens of the plurality of applications on the display 431 and pop up the screen of at least one other application. form may be displayed on the display 431 .
- the processor 460 detects the touch interaction in the key input circuit (eg, the key input circuit 420 of FIG. 4 ), based on the type of the touch interaction and among the plurality of applications. You can check the context information of the focused application.
- the key input circuit eg, the key input circuit 420 of FIG. 4
- the focused application may include an application for which a user input was last detected among screens of a plurality of applications, an application last executed, or an application that continuously updates the screen (eg, a video application).
- the present invention is not limited thereto, and the focused application may include an application of a screen corresponding to a user's gaze direction obtained through a camera module (eg, the camera module 180 of FIG. 1 ) among screens of a plurality of applications. have.
- the context information of the application may include an audio device (eg, wireless audio) connected through a speaker (eg, the sound output circuit 450 of FIG. 4 ) or a communication circuit (eg, the communication circuit 410 of FIG. 4 ). Whether an audio signal corresponding to the focused application is being output through the device) and/or screen properties of the focused application (eg, whether the size of the screen of the focused application exceeds the size of the display 431 ). can be an audio device (eg, wireless audio) connected through a speaker (eg, the sound output circuit 450 of FIG. 4 ) or a communication circuit (eg, the communication circuit 410 of FIG. 4 ).
- a communication circuit eg, the communication circuit 410 of FIG. 4
- the processor 460 executes a first function of the focused application corresponding to the first type of touch interaction based on context information of the focused application in operation 615 .
- the processor 460 may execute a second function of the focused application corresponding to the second type of interaction based on context information of the focused application. have.
- the touch interaction may include a swipe (eg, swipe interaction 520 in FIG. 5 ), a tap (eg, tap interaction 555 in FIG. 5 ), a multi-tap (eg, double tap in FIG. 5 ). It may include an interaction 560, a triple tap interaction 565), a short press (eg, a short press interaction 570 of FIG. 5), or a long press (eg, a long press interaction 575 of FIG. 5). .
- the first type of touch interaction may include an interaction of one of swipe, tap, multi-tap, short press, and long press
- the second type of touch interaction may include a swipe, tap, multi-tap, short press, or Among the long presses, one touch interaction different from the first type of touch interaction may be included.
- the focused corresponding to the type of touch interaction (eg, the first type and the second type) according to various embodiments of the present disclosure.
- the type of touch interaction eg, the first type and the second type
- FIGS. 7 to 11 Various embodiments will be described with reference to FIGS. 7 to 11 to be described later with respect to a configuration for executing a function (eg, a first function, a second function) of an application.
- the processor 460 may display a guide for a touch interaction mapped to a function of a focused application on the display 431 .
- the processor 460 may display an item (not shown) for outputting a guide for the touch interaction on the display 431, and may display an item (not shown) for the touch interaction by an input for selecting the item (not shown).
- a guide may be displayed on the display 431 .
- the processor 460 may provide a user settable for whether to display a guide for a touch interaction.
- a guide for a touch interaction may be displayed, and as the user can set whether to output a guide for the touch interaction, the user can use the touch detected by the key input circuit 420 . You can intuitively check the function of the application mapped to the interaction.
- FIG. 7 is a diagram 700 for explaining context information of an application according to various embodiments of the present disclosure.
- a processor (eg, the processor 460 of FIG. 4 ) of the electronic device may display screens of a plurality of applications in a multi-window form.
- each of the three screens according to the execution of the three applications is displayed in each area of the display divided into three areas (eg, the display 431 of FIG. 4 ). Assume and explain.
- the processor 460 displays the first screen 710 of the first application in a first area (eg, a left area) among three areas of the display 431 , and displays a first screen 710 of the first application in a second area (eg: The second screen 720 of the second application may be displayed in the upper right area), and the third screen 730 of the third application may be displayed in the third area (eg, the lower right area).
- a first area eg, a left area
- a second area eg: The second screen 720 of the second application may be displayed in the upper right area
- the third screen 730 of the third application may be displayed in the third area (eg, the lower right area).
- a touch interaction eg, swipe (eg, swipe interaction in FIG. 5 ) in a key input circuit (eg, key input circuit 420 of FIG. 4 )
- a touch sensor and/or pressure sensor
- tap eg, tap interaction 555 in FIG. 5
- multi-tap eg, double tap interaction 560, triple tap interaction 565 in FIG. 5
- short press eg, in FIG. 5
- the long press eg, the long press interaction 575 of FIG.
- the processor 460 displays the type of interaction and screens of a plurality of applications (eg, the first The context information of the focused application among the first screen 710 of the first application, the second screen 720 of the second application, and the third screen 730 of the third application may be checked.
- a plurality of applications eg, the first The context information of the focused application among the first screen 710 of the first application, the second screen 720 of the second application, and the third screen 730 of the third application may be checked.
- the processor 460 may display one of the plurality of application screens (eg, the first screen 710 of the first application, the second screen 720 of the second application, and the third screen 730 of the third application).
- An application in which a user input was last detected, an application last executed, an application that continuously updates the screen, and/or an application on the screen corresponding to the user's gaze direction may be determined as the focused application.
- the context information of the application may include an audio device (eg, wireless audio) connected through a speaker (eg, the sound output circuit 450 of FIG. 4 ) or a communication circuit (eg, the communication circuit 410 of FIG. 4 ). It may include whether an audio signal corresponding to the focused application is being output through the device) and/or screen properties of the focused application (eg, whether the size of the screen of the application exceeds the size of the display 431 ).
- the context information of the first application may include a speaker (eg, the sound output circuit 450 in FIG. 4 ) or a communication circuit (eg: It may include a state in which an audio signal is being output through an audio device (eg, a wireless audio device) connected through the communication circuit 410 of FIG. 4 , or a state in which an audio signal is not output.
- a speaker eg, the sound output circuit 450 in FIG. 4
- a communication circuit eg: It may include a state in which an audio signal is being output through an audio device (eg, a wireless audio device) connected through the communication circuit 410 of FIG. 4 , or a state in which an audio signal is not output.
- the second application is, for example, a photo application.
- the specific image 720 is enlarged, so that only a part 720a of the specific image 720 is displayed on the display 431.
- a state displayed in the area a state in which the size of the screen of the application is larger than the size of the display 431 may be included.
- the size of the second screen 720 of the second application may be larger than the size of the divided second area (eg, the upper right area) of the display 431 .
- the first directional length 745 of the specific image 720 may be greater than the first directional length 740 of the second area of the display 431 .
- the second direction length 755 of the specific image 720 may be greater than the second direction length 750 of the second area of the display 431 . Accordingly, as the specific image 720 is in an enlarged state, only a partial area 720a of the specific image 720 may be displayed on the second area of the display 431 , and another portion of the specific image 720 may be displayed on the second area of the display 431 . The region 720b may not be being displayed in the second region of the display 431 .
- the third application is, for example, a file search application, and the context information of the third application displays only a part 730a of the third screen 730 of the file search application on the third area of the display 431 .
- One state a state in which the size of the screen of the application is larger than the size of the display 431 may be included.
- the size of the third screen 730 of the third application may be larger than the size of the divided third area (eg, the lower right area) of the display 431 .
- the length 740 in the first direction of the third screen 730 may be the same as the length 740 in the first direction of the third region of the display 431 , but the length in the second direction of the third screen 730 may be the same.
- the third screen 765 may be greater than the second direction length 760 of the third area of the display 431 . Accordingly, only a partial area 730a of the third screen 730 may be displayed on the third area of the display 431 , and the other partial area 730b of the third screen 730 may be displayed on the third area of the display 431 . 3 It may not be being displayed in the area.
- the type of touch interaction detected by the key input circuit 420 (eg, the first type or the second type) and context information of the application (eg, information on whether an audio signal is output and/or the application)
- the function of the application according to whether the size of the screen exceeds the size of the divided area of the display 431) is a function for controlling an audio signal (eg, a function for adjusting the volume of an audio signal, a video function to play, stop video playback, mute or unmute audio signals, reverse video playback by 10 seconds, advance video playback by 10 seconds, reverse video playback by 30 seconds function, 30-second forward function, function to play the previous video, or function to play the next video), function to control the screen of the application (e.g., the function to scroll the screen of the application, function to freeze the screen of the application, It may include a function of activating the navigation of the screen of the application, the function of switching the screen of the application, the function of enlarging or reducing the screen of the application).
- FIGS. 9A and 9B various embodiments will be described later in FIGS. 9A and 9B . Examples will be described.
- various embodiments will be described with reference to FIG. 9C to be described later with respect to an embodiment in which a touch interaction is detected in the key input circuit 420 and the focused application is the second screen 720 of the second application.
- various embodiments will be described with reference to FIG. 9D to be described later with respect to an embodiment in which a touch interaction is detected by the key input circuit 420 and the focused application is the third screen 730 of the third application.
- FIGS. 8A and 8B are for explaining a method of controlling a function of a focused application based on a touch interaction detected by the key input circuit 420 while screens of a plurality of applications are displayed, according to various embodiments; Flowchart 800.
- operations 805 to 815 of FIG. 8A are the same as operations 605 and 610 of FIG. 6 described above, a detailed description thereof may be replaced with the description related to FIG. 6 .
- the processor eg, the processor 460 of FIG. 4
- the electronic device eg, the electronic device 401 of FIG. 4
- the processor 460 may divide the display area of the display (eg, the display 431 of FIG. 4 ) into a plurality of areas, and display a screen of each application through each of the divided areas.
- the processor 460 detects a touch interaction in a key input circuit (eg, the key input circuit 420 of FIG. 4 ) in operation 810 .
- the touch interaction includes a swipe (eg, the swipe interaction 520 of FIG. 5 ), a tap (eg, the tap interaction 555 of FIG. 5 ), and a multi-tap (eg, the double tap interaction 560 of FIG. 5 ).
- triple tap interaction 565 eg, the short press interaction 570 of FIG. 5
- a long press eg, the long press interaction 575 of FIG. 5.
- the processor 460 may check the focused application among the plurality of applications and context information of the focused application.
- the processor 460 corresponds to an application for which a user input was last detected, an application for which a user input was last detected, an application for continuously updating the screen (eg, a video application), or a user's gaze direction among screens of the plurality of applications.
- the focused application can be checked.
- the processor 460 may check context information of the focused application. Context information is an application focused through a speaker (eg, the sound output circuit 450 of FIG. 4 ) or an audio device (eg, a wireless audio device) connected through a communication circuit (eg, the communication circuit 410 of FIG. 4 ) Whether an audio signal corresponding to is being output and/or a screen property of the focused application (eg, whether the size of the screen of the focused application exceeds the size of the display 431) may be included.
- the processor 460 may determine whether an audio signal corresponding to a focused application is being output. For example, the processor 460 outputs an audio signal corresponding to the focused application through a speaker or an audio device (eg, a wireless audio device) connected through the communication circuit 410 based on the identified context information of the focused application. You can check whether it is in progress.
- a speaker or an audio device eg, a wireless audio device
- the processor 460 may determine whether the detected touch interaction is the first type in operation 825 . Based on it being confirmed that the detected touch interaction is the first type (eg, YES in operation 825 ), the processor 460 may execute a first function for controlling an audio signal of a focused application in operation 830 .
- the first type of touch interaction may include one of a swipe, a tap, a multi-tap, a short press, and a long press.
- the first function for controlling the audio signal of the focused application according to the first type of touch interaction includes a function of adjusting the volume of the audio signal, a function of playing a video, a function of stopping video reproduction, and a function of muting the audio signal.
- mute or unmute rewind video playback by 10 seconds, forward video by 10 seconds, reverse video playback by 30 seconds, go forward 30 seconds, play previous video, or next It may include a function to play a video.
- the processor 460 determines, in operation 835 , whether the detected touch interaction is of the second type can be checked Based on it being confirmed that the detected touch interaction is the second type (eg, YES in operation 835 ), the processor 460 may execute a second function for controlling the audio signal of the focused application in operation 840 .
- the second type of touch interaction may include one touch interaction different from the first type of touch interaction among swipe, tap, multi-tap, short press, and long press.
- the second function for controlling the audio signal of the focused application according to the second type of touch interaction includes a function of adjusting the volume of the audio signal, a function of playing a video, a function of stopping the video reproduction, and a function of muting the audio signal. mute or unmute, rewind video playback by 10 seconds, forward video by 10 seconds, reverse video playback by 30 seconds, go forward 30 seconds, play previous video, or next
- One function different from the first function for controlling the audio signal of the focused application according to the first type of touch interaction in operation 830 among the functions of reproducing a video may be included.
- the processor 460 may end the operation of controlling the function of the focused application.
- the processor 460 may perform the operation of FIG. 8B .
- the processor 460 may check the screen property of the focused application in operation 850 . Based on the screen property of the focused application, in operation 855 , the processor 460 determines the size of the screen of the focused application to be the size of the display 431 (eg, the focus among the plurality of divided areas of the display 431 ). You can check whether the application exceeds the size of the displayed area).
- the processor 460 may determine whether the detected touch interaction is the first type in operation 860 . Based on that the detected touch interaction is identified as the first type (eg, YES in operation 860 ), the processor 460 may execute a first function for controlling the screen of the focused application in operation 865 .
- the first type of touch interaction may include one of a swipe, a tap, a multi-tap, a short press, and a long press.
- a first function for controlling the screen of the focused application according to the first type of touch interaction includes a scrolling function of the screen of the application, a function of fixing the screen of the application, a function of activating the navigation of the screen of the application, and the screen of the application. It may include a function of switching the screen, or a function of enlarging or reducing the screen of the application.
- the processor 460 determines whether the detected touch interaction is of the second type in operation 870 can be checked Based on that the detected touch interaction is identified as the second type (eg, YES in operation 870 ), the processor 460 may execute a second function for controlling the screen of the focused application in operation 875 .
- the second type of touch interaction may include one touch interaction different from the first type of touch interaction among swipe, tap, multi-tap, short press, and long press.
- the second function for controlling the screen of the focused application according to the second type of touch interaction includes a scroll function of the screen of the application, a function of fixing the screen of the application, a function of activating navigation of the screen of the application, and a function of the screen of the application.
- One function different from the first function for controlling the screen of the focused application according to the first type of touch interaction in operation 850 may be included among the function of switching between , or enlarging or reducing the screen of the application.
- the processor 460 may end the operation of controlling the function of the focused application.
- the processor 460 may end the operation of controlling the function of the focused application.
- 9A, 9B, 9C, and 9D illustrate a function of a focused application based on a touch interaction detected by the key input circuit 420 while screens of a plurality of applications are displayed, according to various embodiments. It is a diagram 900 for explaining a control method.
- the processor may perform a touch interaction (eg, swipe (eg, swipe in FIG. 5 ) in a key input circuit (eg, key input circuit 420 in FIG. 4 )).
- wipe interaction 520 eg, tap interaction 555 in FIG. 5
- multi-tap eg, double tap interaction 560, triple tap interaction 565 in FIG. 5
- short press eg, FIG. 5
- screens of a plurality of applications eg, the first application of the first application of FIG. 7 ) are detected.
- the focused application eg, the application for which the user input was last detected, the last executed application, An application that continuously updates the screen (eg, a video application) or an application on the screen corresponding to the user's gaze direction) may be checked.
- the focused application is the first screen 710 of the first application.
- a touch interaction is detected in a key input circuit (eg, the key input circuit 420 of FIG. 4 ), and an audio signal corresponding to a focused first application is transmitted to a speaker (eg, the sound output circuit of FIG. 4 )
- a speaker eg, the sound output circuit of FIG. 4
- the processor 460 controls the audio of the focused first application.
- a function to control the signal can be executed.
- the processor 460 controls the volume of the audio signal corresponding to the focused first application. can run When the key input circuit 420 detects a swipe interaction moving from the first direction (eg, 1 in FIG. 5) to the second direction (eg, 2 in FIG. 5), the processor 460 adjusts the volume of the audio signal. lowering function can be executed. When the key input circuit 420 detects a swipe interaction moving from the second direction (eg, 2 in FIG. 5) to the first direction (eg, 1 in FIG. 5), the processor 460 adjusts the volume of the audio signal. Elevation can execute a function.
- the processor 460 displays the volume control indicator 910 indicating volume control of the audio signal based on the detection of the swipe interaction 520 in the key input circuit 420 for the first application of the first application. It may be displayed on a partial area of the screen 710 .
- the processor 460 may execute a function to play a video or a function to stop playing the video. have.
- the present invention is not limited thereto, and a function of muting or unmuteing an audio signal may be executed.
- the key input circuit 420 is divided into at least two keys, different functions may be executed based on a tap interaction in the first key input circuit and a tap interaction in the second key input circuit.
- a double tap interaction eg, the double tap interaction 560 of FIG.
- the processor 460 performs a 10 second backward function or a 10 second forward function. You can run the go function. As another example, if a triple tap interaction (eg, triple tap interaction 565 of FIG. 5 ) is detected in the key input circuit 420 , the processor 460 may perform a 30 second backward function or 30 second forward function. You can run the go function. As another example, when a short press interaction (eg, the short press interaction 570 in FIG. 5 ) is detected in the key input circuit 420 , the processor 460 performs a function to play the previous video or to play the next video. function can be executed. As another example, when a long press interaction (eg, the long press interaction 575 of FIG. 5 ) is detected in the key input circuit 420 , the processor 460 executes the first application (or the service of the first application). You can execute the function to terminate.
- a triple tap interaction eg, triple tap interaction 565 of FIG. 5
- the processor 460 may perform a 30 second backward function or 30
- the processor 460 displays the first screen ( 710) may be executed. For example, the processor 460 determines that the size of the first screen 710 of the focused first application is the size of the display 431 (eg, the size of the display 431 on which the first screen 710 of the first application is displayed). A function of controlling the first screen 710 of the focused first application according to a touch interaction in the key input circuit 420 may be executed based on whether the region (eg, the size of the left region) is exceeded. .
- the processor 460 executes a function of scrolling (eg, scrolling up/down) the first screen 710 of the focused first application.
- a function of scrolling eg, scrolling up/down
- the processor 460 may display a hidden display of the first screen 710 of the first application that is not displayed in the first area (eg, the left area) of the display 461 .
- a region 925 may be displayed.
- the processor 460 may execute a function of fixing the first screen 710 of the focused first application.
- the processor 460 may execute a function of activating the navigation of the first screen 710 of the focused first application. .
- the processor 460 may execute a function of switching the first screen 710 of the focused first application.
- the processor 460 may execute a function of terminating the focused first application (or the service of the first application).
- the focused application is the second screen 720 of the second application.
- the processor 460 displays the second screen ( The property of 720 may be checked and a function of controlling the second screen 720 may be executed. For example, the processor 460 determines that the size of the second screen 720 of the focused second application is the size of the display 431 (eg, the size of the display 431 on which the second screen 720 of the second application is displayed. A function of controlling the second screen 720 of the focused second application according to a touch interaction in the key input circuit 420 may be executed based on whether the area (eg, the size of the upper right area) is exceeded. have.
- the processor 460 may execute a function of scrolling the second screen 720 of the focused second application.
- the length in the first direction of the second screen 720 eg, the length 745 in the first direction of the second screen 720 of FIG. 7
- the first direction length 740 of the second area of FIG. 7 and the second direction length of the second screen 720 eg, the second direction length 755 of the second screen 720 of FIG. 7 )
- the second directional length of the second region of the display 431 eg, the first directional length 750 of the second region of FIG.
- the processor 460 controls the top/bottom/left/right The scroll function can be executed.
- the processor 460 displays the second screen 720 of the second application that is not displayed in the second area (eg, upper right area) of the display 461 .
- the hidden region 720b may be displayed.
- the processor 460 may execute a function of fixing the second screen 720 of the focused second application.
- the processor 460 may execute a function of activating the navigation of the second screen 720 of the focused second application. .
- the present invention is not limited thereto, and the processor 460 may execute a function of zooming out or a function of zooming in the second screen 720 of the focused second application.
- the processor 460 may execute a function of switching the second screen 720 of the focused second application.
- the processor 460 may execute a function of terminating the focused second application (or the service of the second application).
- the focused application is the third screen 730 of the third application.
- the processor 460 displays the third screen ( The property of the 730 may be checked and a function of controlling the third screen 730 may be executed. For example, the processor 460 determines that the size of the third screen 730 of the focused second application is the size of the display 431 (eg, the size of the third screen 730 of the display 431 on which the third screen 730 of the third application is displayed). A function of controlling the third screen 730 of the focused third application according to a touch interaction in the key input circuit 420 may be executed based on whether the region (eg, the size of the lower right region) is exceeded. have.
- the processor 460 may execute a function of scrolling the third screen 730 of the focused third application.
- the length of the third screen 730 in the second direction eg, the length 765 of the third screen 730 in the second direction
- the processor 460 may execute an up/down scroll function.
- the processor 460 displays the third screen 730 of the third application that is not displayed on the third area (eg, the lower right area) of the display 461 .
- the hidden region 730b may be displayed.
- the processor 460 may execute a function of fixing the third screen 730 of the focused third application.
- the processor 460 performs a function of activating the navigation of the third screen 730 of the focused third application, the third screen A function of enlarging the 730 or a function of reducing the third screen 730 may be executed.
- the processor 460 may execute a function of switching the third screen 730 of the focused third application.
- the processor 460 may execute a function of terminating a focused third application (or a service of the third application).
- the function of the application performed according to the type of touch interaction detected by the key input circuit 420 and the context information of the application according to various embodiments is one embodiment, but is not limited thereto.
- the function of the application performed according to the type of touch interaction and context information of the application may vary according to implementation or user settings.
- FIG. 10 is a diagram 1000 for explaining a method of controlling a function of a focused application based on a touch interaction detected by the key input circuit 420 while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure; )to be.
- the processor (eg, the processor 460 of FIG. 4 ) of the electronic device displays the display (eg, the display 431 of FIG. 4 ) into two regions.
- a second screen of a second application eg, the second screen 720 of the second application of FIG. 7
- a third screen of a third application For example, the third screen 730 of the third application of FIG. 7 may be displayed, and the first screen of the first application (eg, the first screen 710 of the first application of FIG. 7 ) may be displayed as a pop-up window. have.
- the processor 460 is configured to configure a type of touch interaction detected by a key input circuit (eg, the key input circuit 420 of FIG. 4 ) and a plurality of applications (eg, a first application, a second application, and The context information of the focused application among the third application) may be checked.
- a key input circuit eg, the key input circuit 420 of FIG. 4
- a plurality of applications eg, a first application, a second application, and The context information of the focused application among the third application
- the processor 460 controls the audio signal of the application (eg, the first application) based on the touch interaction in the key input circuit 420 according to the above-described embodiments of FIGS. 9A to 9D and functions of the application.
- the same function as the function of controlling the screen may be executed.
- FIG. 11 is a diagram 1100 for explaining a method of controlling a function of a focused application based on a touch interaction detected by the key input circuit 420 while screens of a plurality of applications are displayed, according to various embodiments of the present disclosure; )to be.
- FIG. 11 illustrates an electronic device (eg, the electronic device 401 of FIG. 4 ) having a form factor of a bar type, a flat panel type 310 , or a foldable 330 type according to various embodiments of the present disclosure. ))) in a state where screens of a plurality of applications are displayed in a multi-window or pop-up form on the display (eg, the display 431 of FIG. 4 ), a key input circuit (eg, the key input circuit 420 of FIG. 4 ))) in a state where screens of a plurality of applications are displayed in a multi-window or pop-up form on the display (eg, the display 431 of FIG. 4 ), a key input circuit (eg, the key input circuit 420 of FIG. 4 ))
- the processor (eg, the processor 460 of FIG. 4 ) divides the display 431 into two regions, and the divided first region (eg: The second screen (eg, the second screen 720 of the second application of FIG. 7 ) of the second application (eg, photo application) is displayed in the upper area), and the third screen is displayed in the second area (eg, the lower area).
- a third screen eg, the third screen 730 of the third application of FIG. 7 ) of the application (eg, a file search application) may be displayed.
- the screen of the focused application is the second screen 720 of the second application or the third screen 730 of the third application, as described above in FIGS. 9C and 9D .
- a function eg, a screen scroll function
- the screen of the application eg, the second screen 720 or the third screen 730
- a function of fixing the screen e.g., a function of fixing the screen, a function of activating the navigation of the screen, a function of switching the screen, a function of enlarging or reducing the screen
- the processor 460 divides the display 431 into two regions, and places the first application (eg, the upper region) in the divided first region (eg, the upper region). : A first screen 710 of a video playback application) may be displayed, and a second screen 720 of a second application (eg, a photo application) may be displayed in a second area (eg, a lower area).
- the embodiment indicated by reference number ⁇ 1120> is based on the fact that the screen of the focused application is the first screen 710 of the first application or the second screen 720 of the second application, as described above in FIGS. 9A and 9C .
- a function of controlling an audio signal of an application eg, the first application based on a touch interaction in the key input circuit 420 according to embodiments of function, function to stop video playback, function to mute or unmute audio signal, function to reverse video playback by 10 seconds, function to advance video playback by 10 seconds, function to reverse video playback by 30 seconds, 30
- the second forward function, the function of playing the previous video, or the function of playing the next video) and the function of controlling the screen of the application may be the same.
- the processor 460 divides the display 431 into two regions, and places the second application (eg, the upper region) in the divided first region (eg, the upper region). For example, a second screen 720 of a photo application) is displayed, and a third screen 730 of a third application (eg, a file search application) is displayed in a second area (eg, a lower area), and the first application A first screen (eg, the first screen 710 of the first application (eg, a video playback application) of FIG. 7 ) may be displayed as a pop-up window.
- the screen of the focused application is the first screen 710 of the first application, the second screen 720 of the second application, or the third screen 730 of the third application.
- a function for controlling an audio signal of an application eg, the first application based on a touch interaction in the key input circuit 420 according to the above-described embodiments of FIGS. 9A to 9D and a screen of the application. (eg, the function of controlling the second screen 720 or the third screen 730) may be the same.
- FIG. 12 is a flowchart 1200 for explaining a method of controlling a function of a displayed application based on a touch interaction detected by the key input circuit 420 while a screen of one application is displayed, according to various embodiments; to be.
- the processor eg, the processor 460 of FIG. 4
- the electronic device eg, the electronic device 401 of FIG. 4
- the processor may display an application screen in operation 1205 .
- the processor 460 detects the touch interaction in the key input circuit (eg, the key input circuit 420 of FIG. 4 ), based on the type of the touch interaction and context information of the displayed application. can be checked.
- a touch interaction may include a swipe (eg, the swipe interaction 520 of FIG. 5 ), a tap (eg, the tap interaction 555 of FIG. 5 ), and a multi-tap (eg, the double tap interaction 560 of FIG. 5 ). , triple tap interaction 565), a short press (eg, the short press interaction 570 of FIG. 5), or a long press (eg, the long press interaction 575 of FIG. 5).
- the context information of the application is displayed through a speaker (eg, the sound output circuit 450 of FIG. 4 ) or an audio device (eg, a wireless audio device) connected through a communication circuit (eg, the communication circuit 410 of FIG. 4 ). It may include whether an audio signal corresponding to the application is being output and/or screen properties of the displayed application (eg, whether the size of the screen of the displayed application exceeds the size of the display 431 ).
- the processor 460 may execute a first function of the displayed application corresponding to the first type of touch interaction based on context information of the displayed application. .
- the processor 460 may execute a second function of the displayed application corresponding to the second type of touch interaction based on context information of the displayed application. .
- the first type of touch interaction may include one of swipe, tap, multi-tap, short press, and long press
- the second type of touch interaction is swipe, tap, multi-tap.
- a short press, or a long press may include one touch interaction different from the first type of touch interaction.
- a function (eg, first function) of the displayed application corresponding to the type of touch interaction (eg, first type, second type) , second function), various embodiments will be described with reference to FIGS. 13A to 20 to be described later.
- 13A and 13B are flowcharts for explaining a method of controlling a function of a displayed application based on a touch interaction detected by the key input circuit 420 while a screen of one application is displayed, according to various embodiments; (1300).
- operations 1305 to 1315 of FIG. 13A are the same as operations 1205 and 1210 of FIG. 12 described above, a detailed description thereof may be replaced with the description related to FIG. 12 .
- the processor eg, the processor 460 of FIG. 4 of the electronic device (eg, the electronic device 401 of FIG. 4 ) may display an application screen in operation 1305 .
- the processor 460 may detect a touch interaction in a key input circuit (eg, the key input circuit 420 of FIG. 4 ) in operation 1310 .
- the touch interaction includes a swipe (eg, the swipe interaction 520 of FIG. 5 ), a tap (eg, the tap interaction 555 of FIG. 5 ), and a multi-tap (eg, the double tap interaction 560 of FIG. 5 ).
- triple tap interaction 565 a short press (eg, the short press interaction 570 of FIG. 5), or a long press (eg, the long press interaction 575 of FIG. 5).
- the processor 460 may check the type of touch interaction and context information of the displayed application in operation 1315 .
- the context information may be displayed through a speaker (eg, the sound output circuit 450 of FIG. 4 ) or an audio device (eg, a wireless audio device) connected via a communication circuit (eg, the communication circuit 410 of FIG. 4 ). It may include whether an audio signal corresponding to the application is being output and/or screen properties of the displayed application (eg, whether the size of the screen of the displayed application exceeds the size of the display 431 ).
- the processor 460 may determine whether an audio signal corresponding to the displayed application is being output. For example, the processor 460 determines whether an audio signal corresponding to the displayed application is being output through a speaker or an audio device (eg, a wireless audio device) connected through the communication circuit 410 based on context information of the displayed application.
- a speaker or an audio device eg, a wireless audio device
- the processor 460 may determine whether the detected touch interaction is the first type in operation 1325 . Based on it being confirmed that the detected touch interaction is of the first type (eg, YES in operation 1325 ), the processor 460 may execute a first function for controlling an audio signal corresponding to the displayed application in operation 1330 .
- the first type of touch interaction may include one of a swipe, a tap, a multi-tap, a short press, and a long press.
- a first function for controlling the audio signal of the displayed application according to the first type of touch interaction includes a function of adjusting the volume of the audio signal, a function of playing a video, a function of stopping video reproduction, and a function of muting the audio signal.
- ) or function to unmute, rewind video playback by 10 seconds, advance video by 10 seconds, reverse video playback by 30 seconds, forward 30 seconds, play previous video, or next video may include a function to play
- the processor 460 determines, in operation 1335 , whether the detected touch interaction is of the second type can be checked Based on it being confirmed that the detected touch interaction is of the second type (eg, YES in operation 1335 ), the processor 460 may execute a second function for controlling an audio signal corresponding to the displayed application in operation 1340 .
- the second type of touch interaction may include one touch interaction different from the first type of touch interaction among swipe, tap, multi-tap, short press, and long press.
- the second function for controlling the audio signal of the displayed application according to the second type of touch interaction includes a function of adjusting the volume of the audio signal, a function of playing a video, a function of stopping video reproduction, and a function of muting the audio signal. ) or function to unmute, rewind video playback by 10 seconds, advance video by 10 seconds, reverse video playback by 30 seconds, forward 30 seconds, play previous video, or next video
- One function different from the first function for controlling an audio signal corresponding to the displayed application according to the first type of touch interaction in operation 1330 may be included among the functions of reproducing .
- the processor 460 may end the operation of controlling the function of the displayed application.
- the processor 460 may perform the operation of FIG. 13B .
- the processor 460 may check the screen property of the displayed application in operation 1350 . For example, based on the screen property of the displayed application, in operation 1355 , the processor 460 may determine whether the size of the screen of the displayed application exceeds the size of the display (eg, the display 431 of FIG. 4 ).
- the processor 460 determines whether the detected touch interaction is the first type in operation 1360 can be checked Based on that the detected touch interaction is identified as the first type (eg, YES in operation 1360 ), the processor 460 may execute a first function for controlling the screen of the displayed application in operation 1365 .
- the first type of touch interaction may include one of a swipe, a tap, a multi-tap, a short press, and a long press.
- the first function for controlling the screen of the displayed application according to the first type of touch interaction includes a scrolling function of the screen of the application, a function of fixing the screen of the application, a function of activating the navigation of the screen of the application, and a function of controlling the screen of the application. It may include a function of switching, or a function of enlarging or reducing the screen of the application.
- the processor 460 determines, in operation 1370 , whether the detected touch interaction is of the second type can be checked Based on that the detected touch interaction is identified as the second type (eg, YES in operation 1370 ), the processor 460 may execute a second function for controlling the screen of the displayed application in operation 1375 .
- the second type of touch interaction may include one touch interaction different from the first type of touch interaction among swipe, tap, multi-tap, short press, and long press.
- the second type of touch interaction may include one touch interaction different from the first type of touch interaction among swipe, tap, multi-tap, short press, and long press.
- the second function for controlling the screen of the application displayed according to the second type of touch interaction includes a scroll function of the screen of the application, a function of fixing the screen of the application, a function of activating the navigation of the screen of the application, and a function of controlling the screen of the application.
- a scroll function of the screen of the application includes a scroll function of the screen of the application, a function of fixing the screen of the application, a function of activating the navigation of the screen of the application, and a function of controlling the screen of the application.
- one function different from the first function for controlling the screen of the displayed application according to the first type of touch interaction in operation 1365 may be included.
- the processor 460 may end the operation of controlling the function of the displayed application.
- the processor 460 may end the operation of controlling the function of the displayed application.
- FIG. 14 is a diagram 1400 for explaining a method of controlling a function of a phone application based on a touch interaction detected by the key input circuit 1415 while a screen of the phone application is displayed, according to various embodiments. .
- a processor eg, processor 460 of FIG. 4
- an electronic device eg, electronic device 401 of FIG. 4
- a sender eg, john
- smith a screen of the phone application may be displayed on the display 431 based on the reception of a call.
- the processor 460 may detect a touch interaction in the key input circuit 1415 (eg, the key input circuit 420 of FIG. 4 ).
- the processor 460 may check the type of touch interaction and context information of the phone application.
- the type of touch interaction is a swipe (eg, swipe interaction 520 in FIG. 5), tap (eg, tap interaction 555 in FIG. 5), and multi-tap (eg, double tap interaction in FIG. 5) 560), triple tap interaction 565), short press (eg, short press interaction 570 of FIG. 5), or long press (eg, long press interaction 575 of FIG. 5).
- the context information corresponds to a phone application through a speaker (eg, the sound output circuit 450 in FIG. 4 ) or an audio device (eg, a wireless audio device) connected via a communication circuit (eg, the communication circuit 410 in FIG. 4 ). whether an audio signal is being output and/or screen properties of a phone application.
- the processor 460 may determine that the audio signal is output through the speaker 450 as context information as the phone application is executed.
- the processor 460 may execute a function of the phone application corresponding to the type of touch interaction based on the type of touch interaction and context information of the phone application.
- the processor 460 performs a function of adjusting the volume of the phone application.
- the processor 460 may display an indication indicating a function of adjusting the volume of the phone application, for example, the volume control bar 1455 on the display 431 .
- the processor 460 initiates a call and executes a mute/unmute function 1421 .
- the type of touch interaction is a double-tap interaction (eg, the double-tap interaction 560 of FIG. 5 )
- the processor 460 outputs a voice signal received through a speaker 1425 or a call You can execute the recording on/off function.
- the touch interaction is a triple tap interaction (eg, the triple tap interaction 565 of FIG. 5 )
- the processor 460 may execute the conference call function 1427 .
- the processor 460 may execute the video call function 1429 .
- the processor 460 may perform a function to terminate a phone application or a function 1433 to terminate a phone call. can be done
- the function of the phone application is not limited to the above-described function.
- the function of the phone application may include a function 1423 for displaying a keypad and a function 1431 for checking information of a recipient.
- a function of a phone application performed according to the type of touch interaction detected by the key input circuit 1415 and context information of the phone application is an example, but is not limited thereto.
- a function of the phone application performed according to the type of touch interaction and context information of the phone application may vary according to implementation or user settings.
- FIG. 15 is a diagram 1500 for explaining a method of controlling a function of a notification application based on a touch interaction detected by the key input circuit 1515 while a screen of the notification application is displayed, according to various embodiments. .
- the processor eg, the processor 460 of FIG. 4 of the electronic device (eg, the electronic device 401 of FIG. 4 ) has a speaker (eg, the sound output circuit of FIG. 4 ) according to a set notification time. (450)), a notification sound may be output (1520) and a screen of a notification application may be displayed on a display (eg, the display 431 of FIG. 4).
- a speaker eg, the sound output circuit of FIG. 4
- a notification sound may be output (1520) and a screen of a notification application may be displayed on a display (eg, the display 431 of FIG. 4).
- the processor 460 may detect a touch interaction in the key input circuit 1515 (eg, the key input circuit 420 of FIG. 4 ).
- the processor 460 may check the type of touch interaction and context information of the notification application.
- the type of touch interaction is a swipe (eg, swipe interaction 520 in FIG. 5), tap (eg, tap interaction 555 in FIG. 5), and multi-tap (eg, double tap interaction 560 in FIG. 5).
- triple tap interaction 565 eg, the short press interaction 570 of FIG. 5
- a long press eg, the long press interaction 575 of FIG. 5.
- the context information may include whether an audio signal corresponding to the notification application is being output through the speaker 450 or an audio device (eg, a wireless audio device) connected through a communication circuit (eg, the communication circuit 410 of FIG. 4 ) and/or It may include screen properties of the notification application.
- an audio device eg, a wireless audio device
- a communication circuit eg, the communication circuit 410 of FIG. 4
- the processor 460 outputs the context information of the notification application as an audio signal based on the confirmation as a state 1520 of outputting a notification sound through the speaker 450 as the set notification time comes. (1520) can be determined. Based on the touch interaction type and context information of the notification application, the processor 460 may execute a function of the notification application corresponding to the touch interaction type.
- the processor 460 may execute a snooze function.
- the processor 460 functions to terminate the notification application ( Alternatively, a function of terminating the output of a notification sound) may be performed.
- the processor 460 based on the confirmation 1525 that the notification sound is not output through the speaker 450 as the function of terminating the output of the notification sound is performed, the processor 460 provides context information of the notification application may be determined as a state 1525 in which an audio signal is not being output.
- the processor 460 may detect a touch interaction in the key input circuit 1515 .
- the processor 460 may execute a function of the notification application corresponding to the type of touch interaction based on the touch interaction type and context information of the notification application.
- the processor 460 may execute a function of setting a notification time.
- the processor 460 sets the notification, hours, minutes The function to move in (minute) units can be executed.
- the processor 460 has a function of canceling the set notification time.
- the processor 460 can run as another example, if the type of the touch interaction detected by the key input circuit 1515 is a short press interaction (eg, the short press interaction 570 in FIG. 5 ), the processor 460 functions to complete the notification time setting. can run As another example, if the type of touch interaction detected by the key input circuit 1515 is a long press interaction (eg, the long press interaction 575 of FIG. 5 ), the processor 460 provides a function to terminate the notification application. can run
- the function of the notification application performed according to the type of touch interaction detected by the key input circuit 1515 and context information of the notification application is one embodiment, but is not limited thereto.
- a function of the notification application performed according to the type of touch interaction and context information of the notification application may vary according to implementations or user settings.
- 16A and 16B are diagrams ( 1600, 1650).
- the processor (eg, the processor 460 of FIG. 4 ) of the electronic device executes the music application by executing the music application as shown in reference numeral ⁇ 1610>.
- the processor eg, the processor 460 of FIG. 4
- the electronic device executes the music application by executing the music application as shown in reference numeral ⁇ 1610>.
- the processor 460 may detect a touch interaction in the key input circuit 1615 (eg, the key input circuit 420 of FIG. 4 ). The processor 460 may check the type of touch interaction and context information of the notification application.
- the processor 460 outputs context information of the music application to the audio signal being output based on the confirmation that the audio signal corresponding to the music is outputting the notification sound through the speaker 450 ( 1620 ). State 1620 may be determined. Based on the touch interaction type and context information of the music application, the processor 460 may execute a function of the music application corresponding to the touch interaction type.
- the processor 460 adjusts the volume of an audio signal corresponding to music. function can be performed. For example, the processor 460 may display, on the display 431 , an indication indicating a function of adjusting the volume of an audio signal, for example, a volume control bar 1635 as shown by reference numeral 1630 . As another example, if the type of touch interaction detected by the key input circuit 1615 is a tap interaction (eg, the tap interaction 555 in FIG. 5 ), the processor 460 may execute a function to stop playing music. have.
- a swipe interaction eg, the swipe interaction 520 of FIG. 5
- the processor 460 adjusts the volume of an audio signal corresponding to music. function can be performed. For example, the processor 460 may display, on the display 431 , an indication indicating a function of adjusting the volume of an audio signal, for example, a volume control bar 1635 as shown by reference numeral 1630 .
- the processor 460 may execute a function to stop playing music. have.
- the processor 460 moves the music playback back 10 seconds. function or 10 second forward function.
- the processor 460 moves the music playback back 30 seconds function or 30 second forward function.
- the processor 460 may perform a function of playing previous music or You can execute the function to play the following music.
- the processor 460 provides a function of terminating the music application. can run
- the processor 460 performs a music application It may be determined that the context information of ' is not outputting an audio signal ( 1665 ).
- the processor 460 may detect a touch interaction in the key input circuit 1615 .
- the processor 460 may execute a function of the music application corresponding to the touch interaction type based on the touch interaction type and context information of the notification application.
- the processor 460 may perform a scroll function. For example, based on the scroll function being performed, the processor 460 may display the playlist 1675 hidden at the bottom of the screen of the music application on the display 431 as shown by reference number ⁇ 1670>.
- the processor 460 may execute a function of searching for music, a function of adding the found music to a playlist, a function of sharing music, or a function of terminating a music application.
- the function of the music application performed according to the type of touch interaction detected by the key input circuit 1615 and the context information of the music application is one embodiment, but is not limited thereto.
- a function of the music application performed according to the type of touch interaction and context information of the music application may vary according to implementation or user settings.
- 17A and 17B are diagrams ( 1700, 1750).
- the processor (eg, the processor 460 of FIG. 4 ) of the electronic device executes the video application by executing the video application as shown in reference numeral ⁇ 1710>.
- the video application may be displayed on the display 431, and an audio signal corresponding to the moving picture is being output through a speaker (eg, the sound output circuit 450 of FIG. 4 ) ( 1720 ).
- the processor 460 may detect a touch interaction in the key input circuit 1715 (eg, the key input circuit 420 of FIG. 4 ).
- the processor 460 may check the type of touch interaction and context information of the video application.
- the processor 460 outputs context information of the video application based on the confirmation that the audio signal corresponding to the video is outputting a notification sound through the speaker 450 in a state 1720 in which the audio signal is output. ) can be determined. Based on the touch interaction type and context information of the video application, the processor 460 may execute a function of the video application corresponding to the touch interaction type.
- the processor 460 adjusts the volume of the audio signal corresponding to the video. function can be performed.
- the processor 460 may display, on the display 431 , an indication indicating a function of adjusting the volume of an audio signal, for example, a volume control bar 1735 as shown by reference numeral 1730 .
- a tap interaction eg, a tap interaction 555 of FIG. 5
- a double tap interaction eg, a double tap interaction 560 of FIG. 5
- a triple tap interaction eg : Triple tap interaction 565 of FIG. 5
- short press interaction eg, short press interaction 570 of FIG. 5
- long press interaction eg, long press interaction 575 of FIG. 5
- the forward function, the function to play the previous video, the function to play the next video, or the function to close the video application can be executed.
- the processor 460 provides context information of the video application may be determined as a state 1765 in which an audio signal is not being output.
- the processor 460 may detect a touch interaction in the key input circuit 1715 .
- the processor 460 may execute a function of the video application corresponding to the type of touch interaction based on the touch interaction type and context information of the video application.
- the processor 460 may perform a scroll function. For example, based on the scroll function being performed, the processor 460 may display the playlist 1775 hidden at the bottom of the screen of the video application on the display 431 as shown by reference number ⁇ 1670>.
- the processor 460 may execute a function of searching for a video, a function of adding the searched video to a playlist, a function of sharing a video, or a function of terminating a video application.
- the function of the video application performed according to the type of touch interaction detected by the key input circuit 1715 and the context information of the video application according to various embodiments is one embodiment, but is not limited thereto.
- a function of the video application performed according to the type of touch interaction and context information of the video application may vary according to implementation or user settings.
- FIG. 18 is a diagram 1800 for explaining a method of controlling a function of a search application based on a touch interaction detected by the key input circuit 1815 while a screen of the search application is displayed, according to various embodiments. .
- the processor eg, the processor 460 of FIG. 4
- the electronic device eg, the electronic device 401 of FIG. 4
- the processor 460 may detect a touch interaction in the key input circuit 1815 (eg, the key input circuit 420 of FIG. 4 ).
- the processor 460 may check the type of touch interaction and context information of the search application.
- the type of touch interaction is a swipe (eg, swipe interaction 520 in FIG. 5), tap (eg, tap interaction 555 in FIG. 5), and multi-tap (eg, double tap interaction in FIG. 5) 560), triple tap interaction 565), short press (eg, short press interaction 570 of FIG. 5), or long press (eg, long press interaction 575 of FIG. 5).
- Context information is transmitted to a search application through a speaker (eg, the sound output circuit 450 of FIG.
- an audio device eg, a wireless audio device
- a communication circuit eg, the communication circuit 410 of FIG. 4 . It may include whether a corresponding audio signal is being output and/or a screen property of a search application.
- the processor 460 may check a state in which an audio signal is not being output, and check a screen property of the search application. For example, the processor 460 may determine whether the size of the screen of the search application exceeds the size of the display 431 . Based on it being confirmed that the screen size of the search application is larger than the size of the display 431 , the processor 460 may execute a function of the search application corresponding to the type of touch interaction detected by the key input circuit 1815 . .
- the processor 460 may perform a scroll function. For example, the processor 460 displays a hidden area 1825 (eg, screen/feed) of the screen of the search application on the display 431 as shown by reference number ⁇ 1820> as the scroll function is performed. can do.
- the processor 460 executes a function of fixing the screen of the search application.
- the processor 460 performs navigation of the screen of the search application. Activation function can be executed.
- the processor 460 switches the screen of the search application. function can be executed.
- the processor 460 provides a function of terminating the search application. can run
- a function of a search application performed according to the type of touch interaction detected by the key input circuit 1815 and context information of the search application is an example, but is not limited thereto.
- a function of the search application performed according to the type of touch interaction and context information of the search application may vary according to implementations or user settings.
- 19A and 19B are diagrams ( 1900, 1950).
- a processor eg, processor 460 of FIG. 4 of an electronic device (eg, electronic device 401 of FIG. 4 ) includes a plurality of images.
- a screen of a photo application may be displayed on a display (eg, the display 431 of FIG. 4 ).
- the processor 460 may detect a touch interaction in the key input circuit 1915 (eg, the key input circuit 420 of FIG. 4 ).
- the processor 460 may check the type of touch interaction and context information of the photo application.
- the processor 460 may check a state in which an audio signal is not being output, and check a screen property of the photo application. For example, the processor 460 may determine whether the size of the screen of the photo application exceeds the size of the display 431 . Based on it is confirmed that the screen size of the photo application is larger than the size of the display 431 , the processor 460 may execute a function of the photo application corresponding to the type of touch interaction detected by the key input circuit 1915 . .
- the processor 460 may perform a scroll function. For example, the processor 460 displays a hidden area 1925 (eg, screen/feed) of the screen of the photo application on the display 431 as shown by reference number ⁇ 1920> as the scroll function is performed. can do.
- a swipe interaction e.g., the swipe interaction 520 of FIG. 5
- the processor 460 may perform a scroll function. For example, the processor 460 displays a hidden area 1925 (eg, screen/feed) of the screen of the photo application on the display 431 as shown by reference number ⁇ 1920> as the scroll function is performed. can do.
- a tap interaction eg, the tap interaction 555 of FIG. 5
- a double tap interaction eg, the double tap interaction 560 of FIG. 5
- a triple tap interaction eg : Triple tap interaction 565 of FIG. 5
- short press interaction eg, short press interaction 570 of FIG. 5
- long press interaction eg, long press interaction 575 of FIG. 5
- the processor 460 may execute a function of fixing the screen of the photo application, a function of activating the navigation of the screen of the photo application, a function of switching the screen of the photo application, or a function of terminating the photo application.
- the processor 460 may display the specific image on the display 431 as shown by reference numeral ⁇ 1960>.
- the processor 460 performs a function (or magnification) can be executed. Based on the detection of the swipe interaction 520 by the key input circuit 1915 , the processor 460 may reduce a specific image and display the reduced specific image on the display 431 . For example, the processor 460 may display a specific image including the area 1975 that was not displayed on the display 431 on the display 431 .
- the processor 460 may execute a function of switching to a previous screen, a function of changing the effect of a specific image, a function of sharing a specific image, or a function of terminating a photo application.
- the function of the photo application performed according to the type of touch interaction detected by the key input circuit 1915 and the context information of the photo application is an example, but is not limited thereto.
- a function of the photo application performed according to the type of touch interaction and context information of the photo application may vary according to implementation or user settings.
- 20 is a diagram (2000) for explaining a method of controlling a function of a social network application based on a touch interaction detected by the key input circuit 2015 while a screen of the social network application is displayed, according to various embodiments; )to be.
- a processor eg, processor 460 of FIG. 4 of an electronic device (eg, electronic device 401 of FIG. 4 ) may include a plurality of feeds. ) may be displayed on the display 431 of the screen of the social network application including.
- the plurality of feeds may include videos, photos, and/or text.
- the processor 460 may detect a touch interaction in the key input circuit 2015 (eg, the key input circuit 420 of FIG. 4 ). The processor 460 may check the type of touch interaction and context information of the social network application.
- the processor 460 may check a state in which an audio signal is not being output, and may check a screen property of a social network application. For example, the processor 460 may determine whether the size of the screen of the social network application exceeds the size of the display 431 . Based on it being confirmed that the screen size of the social network application is larger than the size of the display 431 , the processor 460 executes a function of the social network application corresponding to the type of touch interaction detected by the key input circuit 2015 . can
- the processor 460 may perform a scroll function. For example, as the processor 460 performs a scroll function, as shown in reference number ⁇ 2020>, a hidden area 2025 (eg, screen/feed) of the screen of the social network application is displayed on the display 431 . can be displayed
- the processor 460 is based on detecting an input 2027 for playing a video included in the hidden area 2025 of the screen of the social network application, as shown in reference numeral 2030. You can display a screen to play When the swipe interaction 520 is detected by the key input circuit 2015 while playing the video, the processor 460 may execute a function of adjusting the volume of the audio signal corresponding to the reproduced video. Based on the detection of the swipe interaction 520 in the key input circuit 2015, the processor 460 may display a volume control indicator 2035 of an audio signal indicating volume control of the audio signal on the display 431. have.
- the function of the social network application performed according to the type of touch interaction detected by the key input circuit 2015 and context information of the social network application according to various embodiments is one embodiment, but is not limited thereto.
- a function of the social network application performed according to the type of touch interaction and context information of the social network application may vary according to implementation or user settings.
- Controlling an application function based on a touch interaction detected by a key input circuit (eg, the key input circuit 420 of FIG. 4 ) of the electronic device (eg, the electronic device 401 of FIG. 4 ) according to various embodiments
- the method includes an operation of displaying screens of a plurality of applications on the display (eg, the display 431 of FIG. 4 ) of the electronic device 401 in a multi-window form, and detecting a touch interaction in the key input circuit 420 .
- the key input circuit 420 may include a touch sensor and/or a pressure sensor.
- the touch interaction includes a swipe interaction (eg, the swipe interaction 520 of FIG. 5 ), a tap interaction (eg, the tap interaction 555 of FIG. 5 ), and a multi-tap interaction (eg: Double tap interaction 560, triple tap interaction 565 of FIG. 5), short press interaction (eg, short press interaction 570 of FIG. 5), and long press interaction (eg, long press interaction 575 of FIG. 5) )), and the first type of touch interaction and the second type of touch interaction may be set to be different.
- a swipe interaction eg, the swipe interaction 520 of FIG. 5
- a tap interaction eg, the tap interaction 555 of FIG. 5
- a multi-tap interaction eg: Double tap interaction 560, triple tap interaction 565 of FIG. 5
- short press interaction eg, short press interaction 570 of FIG. 5
- long press interaction eg, long press interaction 575 of FIG. 575
- the checking of context information of the focused application among the plurality of applications may include an application for which a user input was last detected, a last executed application, or a screen among screens of the plurality of applications.
- An operation of determining the focused application based on an application that continuously updates the may include
- the context information of the focused application includes information on whether an audio signal corresponding to the focused application is being output through a sound output circuit (eg, the sound output circuit 450 of FIG. 4 ). and/or information on whether the size of the screen of the focused application exceeds the size of the divided area of the display 431 on which the screen of the focused application is displayed.
- a sound output circuit eg, the sound output circuit 450 of FIG. 4
- the operation of executing the first function or the operation of executing the second function may include an audio corresponding to the focused application through the sound output circuit 450 of context information of the focused application. Based on it is confirmed that a signal is being output, the method may include executing a first function or a second function of controlling the audio signal based on the first type of touch interaction or the second type of touch interaction. have.
- the first function or the second function of controlling the audio signal includes a function of adjusting a volume of the audio signal, a function of reproducing the audio signal, a function of stopping the audio signal, and an audio signal function to mute or unmute , the function to play the audio signal backward by 10 seconds, the function to play the audio signal forward by 10 seconds, the function to play the audio signal backward by 30 seconds, the function to play the audio signal backward by 30 seconds It may include a function, a function of reproducing a previous audio signal, or a function of reproducing a next audio signal.
- the context information of the focused application when the context information of the focused application is not outputting an audio signal corresponding to the focused application through the sound output circuit 450 , and determining whether the size of the screen of the focused application exceeds the size of the divided area of the display 431 on which the screen of the focused application is displayed.
- the operation of executing the first function or the operation of executing the second function may include a size of a screen of the focused application that is divided into a division of the display 431 on which a screen of the focused application is displayed.
- an operation of executing a first function or a second function for controlling the screen of the focused application based on the first type of touch interaction or the second type of touch interaction based on exceeding the size of the area may include
- the first function or the second function for controlling the screen of the focused application may include a function of scrolling the screen of the focused application, a function of fixing the screen of the focused application, and the focus. It may include a function of navigating the screen of the focused application, a function of switching the screen of the focused application, or a function of enlarging or reducing the screen of the focused application.
- a guide for the touch interaction mapped to the focused application function is provided.
- the operation of displaying on the display 431 may be further included.
- the electronic device may have various types of devices.
- the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
- a portable communication device eg, a smart phone
- a computer device e.g., a smart phone
- a portable multimedia device e.g., a portable medical device
- a camera e.g., a portable medical device
- a camera e.g., a portable medical device
- a camera e.g., a portable medical device
- a wearable device e.g., a smart bracelet
- a home appliance device e.g., a home appliance
- a or B each may include any one of the items listed together in the corresponding one of the phrases, or all possible combinations thereof.
- Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish an element from other elements in question, and may refer elements to other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
- module used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as, for example, logic, logic block, component, or circuit.
- a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
- the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- Various embodiments of the present document include one or more instructions stored in a storage medium (eg, the internal memory 136 or the external memory 138) readable by a machine (eg, the electronic device 101).
- a storage medium eg, the internal memory 136 or the external memory 138
- the electronic device 101 may be implemented as software (eg, the program 140) including
- the processor eg, the processor 120
- the device eg, the electronic device 101
- the one or more instructions may include code generated by a compiler or code executable by an interpreter.
- the device-readable storage medium may be provided in the form of a non-transitory storage medium.
- 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term is used in cases where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
- a signal eg, electromagnetic wave
- the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product).
- Computer program products may be traded between sellers and buyers as commodities.
- the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play Store TM ) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly or online between smartphones (eg: smartphones).
- a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
- each component eg, a module or a program of the above-described components may include a singular or a plurality of entities, and some of the plurality of entities may be separately disposed in other components. have.
- one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
- a plurality of components may be integrated into one component.
- the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration.
- operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. , or one or more other operations may be added.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 개시의 다양한 실시예들에 따르면, 전자 장치는, 키 입력 회로, 디스플레이, 메모리, 및 상기 키 입력 회로, 상기 디스플레이, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하며, 상기 프로세서는, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시하도록 상기 디스플레이를 제어하고, 상기 키 입력 회로에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하고, 상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하고, 및 상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하도록 설정될 수 있다. 본 문서에 개시된 다양한 실시예들 이외의 다른 다양한 실시예가 가능하다.
Description
본 개시의 다양한 실시예들은 전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능을 제어하는 방법에 관한 것이다.
전자 장치는 사용자가 다양한 기능들에 용이하게 액세스 할 수 있도록 터치스크린 디스플레이를 포함할 수 있으며, 터치스크린 디스플레이를 통해 다양한 어플리케이션의 화면을 제공할 수 있다. 특히, 전자 장치는 터치스크린 디스플레이의 분할된 영역들을 통해 복수의 어플리케이션들의 화면들을 동시에 표시할 수 있는 멀티윈도우 기능을 제공할 수 있다. 전자 장치는 터치스크린 디스플레이에 표시된 복수의 어플리케이션들의 화면들 중 하나의 화면을 선택한 후, 선택된 화면에서의 입력을 통해, 선택된 화면에 대응하는 어플리케이션의 기능을 수행할 수 있다.
또한, 전자 장치는 하우징의 측면에 배치되는 물리적인 키 입력 회로를 포함할 수 있다. 전자 장치는 물리적인 키 입력 회로의 가압을 통해 수신되는 키 입력에 대응하는 기능을 수행할 수 있다.
하우징의 측면에 배치되는 물리적인 키 입력 회로를 통해 수행될 수 있는 기능이 미리 지정될 수 있으며, 이에 따라, 전자 장치는 물리적인 키 입력 회로를 이용하여 제한적인 기능만을 수행할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치는 터치 센서 및/또는 압력 센서를 포함하는 키 입력 회로를 포함할 수 있다. 전자 장치는, 키 입력 회로를 통해 터치 인터랙션이 검출되면, 터치 인터랙션의 타입 및 복수의 어플리케이션들 중 특정 어플리케이션의 컨텍스트 정보에 기반하여, 특정 어플리케이션의 다양한 기능을 제어할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치는, 키 입력 회로, 디스플레이, 메모리, 및 상기 키 입력 회로, 상기 디스플레이, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하며, 상기 프로세서는, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시하도록 상기 디스플레이를 제어하고, 상기 키 입력 회로에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하고, 상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하고, 및 상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하도록 설정될 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치의 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능을 제어하는 방법에 있어서, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 상기 전자 장치의 디스플레이에 표시하는 동작, 키 입력 회로에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작, 상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하는 동작, 및 상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하는 동작을 포함할 수 있다.
본 개시의 다양한 실시예들에 따른 전자 장치는, 터치 센서 및/또는 압력 센서를 포함하는 키 입력 회로에서 검출되는 터치 인터랙션의 타입 및 복수의 어플리케이션들 중 특정 어플리케이션의 컨텍스트 정보에 기반하여, 특정 어플리케이션의 다양한 기능을 실행할 수 있음에 따라, 키 입력에 대한 사용자 경험을 제공할 수 있다. 또한, 전자 장치는, 키 입력 회로에서 사용자의 의도가 반영된 터치 인터랙션을 검출하는 것에 기반하여, 특정 어플리케이션의 다양한 제어 기능을 수행하도록 제공할 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는, 다양한 실시예들에 따른, 디스플레이 모듈의 블록도이다.
도 3은, 다양한 실시예들에 따른, 전자 장치의 다양한 폼 팩터(form factor)를 설명하기 위한 도면이다.
도 4는, 다양한 실시예들에 따른, 전자 장치를 도시한 블록도이다.
도 5는, 다양한 실시예들에 따른, 전자 장치의 키 입력 회로에서 검출될 수 있는 터치 인터랙션의 타입을 설명하기 위한 도면이다.
도 6은, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도이다.
도 7은, 다양한 실시예들에 따른, 어플리케이션의 컨텍스트 정보를 설명하기 위한 도면이다.
도 8a 및 도 8b는, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도이다.
도 9a, 도 9b, 도 9c, 및 도 9d는, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 10은, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 11은, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 12는, 다양한 실시예들에 따른, 하나의 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 표시된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도이다.
도 13a 및 도 13b는, 다양한 실시예들에 따른, 하나의 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 표시된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도이다.
도 14는, 다양한 실시예들에 따른, 전화 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 전화 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 15는, 다양한 실시예들에 따른, 알림 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 알림 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 16a 및 도 16b는, 다양한 실시예들에 따른, 음악 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 음악 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 17a 및 도 17b는, 다양한 실시예들에 따른, 동영상 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 동영상 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 18은, 다양한 실시예들에 따른, 검색 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 검색 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 19a 및 도 19b는, 다양한 실시예들에 따른, 사진 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 사진 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 20은, 다양한 실시예들에 따른, 소셜 네트워크 어플리케이션의 화면이 표시된 상태에서 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 소셜 네트워크 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD 카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
다양한 실시예들에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.
도 2는, 다양한 실시예들에 따른, 디스플레이 모듈(160)의 블록도(200)이다.
도 2를 참조하면, 디스플레이 모듈(160)은 디스플레이(210), 및 이를 제어하기 위한 디스플레이 드라이버 IC(DDI)(230)를 포함할 수 있다. DDI(230)는 인터페이스 모듈(231), 메모리(233)(예: 버퍼 메모리), 이미지 처리 모듈(235), 또는 맵핑 모듈(237)을 포함할 수 있다. DDI(230)는, 예를 들면, 영상 데이터, 또는 상기 영상 데이터를 제어하기 위한 명령에 대응하는 영상 제어 신호를 포함하는 영상 정보를 인터페이스 모듈(231)을 통해 전자 장치(101)의 다른 구성요소로부터 수신할 수 있다. 예를 들면, 일 실시예에 따르면, 영상 정보는 프로세서(120)(예: 메인 프로세서(121)(예: 어플리케이션 프로세서) 또는 메인 프로세서(121)의 기능과 독립적으로 운영되는 보조 프로세서(123)(예: 그래픽 처리 장치)로부터 수신될 수 있다. DDI(230)는 터치 회로(250) 또는 센서 모듈(176) 등과 상기 인터페이스 모듈(231)을 통하여 커뮤니케이션할 수 있다. 또한, DDI(230)는 상기 수신된 영상 정보 중 적어도 일부를 메모리(233)에, 예를 들면, 프레임 단위로 저장할 수 있다. 이미지 처리 모듈(235)은, 예를 들면, 상기 영상 데이터의 적어도 일부를 상기 영상 데이터의 특성 또는 디스플레이(210)의 특성에 적어도 기반하여 전처리 또는 후처리(예: 해상도, 밝기, 또는 크기 조정)를 수행할 수 있다. 맵핑 모듈(237)은 이미지 처리 모듈(235)를 통해 전처리 또는 후처리된 상기 영상 데이터에 대응하는 전압 값 또는 전류 값을 생성할 수 있다. 일 실시예에 따르면, 전압 값 또는 전류 값의 생성은 예를 들면, 디스플레이(210)의 픽셀들의 속성(예: 픽셀들의 배열(RGB stripe 또는 pentile 구조), 또는 서브 픽셀들 각각의 크기)에 적어도 일부 기반하여 수행될 수 있다. 디스플레이(210)의 적어도 일부 픽셀들은, 예를 들면, 상기 전압 값 또는 전류 값에 적어도 일부 기반하여 구동됨으로써 상기 영상 데이터에 대응하는 시각적 정보(예: 텍스트, 이미지, 또는 아이콘)가 디스플레이(210)를 통해 표시될 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 터치 회로(250)를 더 포함할 수 있다. 터치 회로(250)는 터치 센서(251) 및 이를 제어하기 위한 터치 센서 IC(253)를 포함할 수 있다. 터치 센서 IC(253)는, 예를 들면, 디스플레이(210)의 특정 위치에 대한 터치 입력 또는 호버링 입력을 감지하기 위해 터치 센서(251)를 제어할 수 있다. 예를 들면, 터치 센서 IC(253)는 디스플레이(210)의 특정 위치에 대한 신호(예: 전압, 광량, 저항, 또는 전하량)의 변화를 측정함으로써 터치 입력 또는 호버링 입력을 감지할 수 있다. 터치 센서 IC(253)는 감지된 터치 입력 또는 호버링 입력에 관한 정보(예: 위치, 면적, 압력, 또는 시간)를 프로세서(120)에 제공할 수 있다. 일 실시예에 따르면, 터치 회로(250)의 적어도 일부(예: 터치 센서 IC(253))는 디스플레이 드라이버 IC(230), 또는 디스플레이(210)의 일부로, 또는 디스플레이 모듈(160)의 외부에 배치된 다른 구성요소(예: 보조 프로세서(123))의 일부로 포함될 수 있다.
일 실시예에 따르면, 디스플레이 모듈(160)은 센서 모듈(176)의 적어도 하나의 센서(예: 지문 센서, 홍채 센서, 압력 센서 또는 조도 센서), 또는 이에 대한 제어 회로를 더 포함할 수 있다. 이 경우, 상기 적어도 하나의 센서 또는 이에 대한 제어 회로는 디스플레이 모듈(160)의 일부(예: 디스플레이(210) 또는 DDI(230)) 또는 터치 회로(250)의 일부에 임베디드될 수 있다. 예를 들면, 디스플레이 모듈(160)에 임베디드된 센서 모듈(176)이 생체 센서(예: 지문 센서)를 포함할 경우, 상기 생체 센서는 디스플레이(210)의 일부 영역을 통해 터치 입력과 연관된 생체 정보(예: 지문 이미지)를 획득할 수 있다. 다른 예를 들면, 디스플레이 모듈(160)에 임베디드된 센서 모듈(176)이 압력 센서를 포함할 경우, 상기 압력 센서는 디스플레이(210)의 일부 또는 전체 영역을 통해 터치 입력과 연관된 압력 정보를 획득할 수 있다. 일실시예에 따르면, 터치 센서(251) 또는 센서 모듈(176)은 디스플레이(210)의 픽셀 레이어의 픽셀들 사이에, 또는 상기 픽셀 레이어의 위에 또는 아래에 배치될 수 있다.
도 3은, 다양한 실시예들에 따른, 전자 장치(101)의 다양한 폼 팩터(form factor)를 설명하기 위한 도면(300)이다.
다양한 실시예들에 따른, 도 3은 다양한 디스플레이 형태에 가지는 전자 장치(예: 도 1의 전자 장치(101))의 다양한 폼 팩터(form factor)의 예를 나타낸 도면이다.
일 실시예에서, 전자 장치(101)는 바형(bar type) 또는 평판형(plate type)(310), 폴더블(foldable)(320, 330, 또는 340), 롤러블(rollable)(350), 및/또는 슬라이더블(slidable)(360)과 같은 다양한 폼 팩터를 포함할 수 있다.
일 실시예에서, 도 3에 도시된 바와 같이, 전자 장치(101)는 다양한 형태로 구현될 수 있고, 전자 장치(101)의 구현 형태에 따라 디스플레이(예: 도 1의 디스플레이 모듈(160))가 다양한 방식으로 제공될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치(101)는 바형(bar type) 또는 평판형(310), 폴더블 형태의 폼 팩터를 가지는 전자 장치(101)(예: 폴더블 전자 장치(320, 330, 또는 340))를 예로 설명하지만, 이에 한정하지 않는다. 예컨대, 전자 장치(101)는, 롤러블(350) 및/또는 슬라이더블(360)과 같은 다양한 폼 팩터 및 그에 의해서도 동작할 수 있다.
일 실시예에서, 전자 장치(101)(예: 폴더블 전자 장치(320, 330 또는 340))는 디스플레이(예: 도 1의 디스플레이 모듈(160))의 서로 다른 두 영역을 실질적으로 마주보게 또는 서로 반대 방향을 향하는(opposite to) 방향으로 접힘이 가능한 전자 장치를 의미할 수 있다. 일반적으로, 휴대 상태에서 전자 장치(101)(예: 폴더블 전자 장치(320, 330 또는 340))의 디스플레이(예: 도 1 또는 도 2의 디스플레이 모듈(160))는 서로 다른 두 영역이 마주보는 상태로 또는 대향하는 방향으로 접혀지고, 실제 사용 상태에서 사용자는 디스플레이를 펼쳐 서로 다른 두 영역이 실질적으로 평판 형태를 이루게 할 수 있다.
일 실시예에서, 전자 장치(101)(예: 폴더블 장치(320, 330 또는 340))는 하나의 폴딩 축에 기반하여 2개의 디스플레이 면(예: 제1 디스플레이 면 및 제2 디스플레이 면)을 포함하는 폼 팩터(예: 320 또는 330) 및/또는 적어도 2개의 폴딩 축에 기반하여 적어도 3개의 디스플레이 면(예: 제1 디스플레이 면, 제2 디스플레이 면 및 제3 디스플레이 면)을 포함하는 폼 팩터(예: 340)를 포함할 수 있다. 다양한 실시예들이 이에 한정되는 것은 아니며, 이는 예시적인 것으로, 전자 장치(101)가 가질 수 있는 폴딩 축들의 수는 제한하지 않는다. 일 실시예에 따르면, 전자 장치(101)는 구현 형태에 따라 디스플레이(예: 도 1의 디스플레이 모듈(160))가 다양한 방식(예: 인-폴딩(in-folding), 아웃-폴딩(out-folding), 또는 인/아웃 폴딩)으로 폴딩 또는 언폴딩 될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 세로 폴더블, 가로 폴더블, G 폴더블, 또는 Z 폴더블과 같이 다양한 폴더블 방식을 포함할 수 있다.
도 4는, 다양한 실시예들에 따른, 전자 장치(401)를 도시한 블록도(400)이다.
도 4를 참조하면, 전자 장치(401)(예: 도 1의 전자 장치(101))는 통신 회로(410)(예: 도 1의 통신 모듈(190)), 키 입력 회로(420), 터치스크린 디스플레이(430)(예: 도 1의 디스플레이 모듈(160)), 메모리(440)(예: 도 1의 메모리(130)), 음향 출력 회로(450)(예: 도 1의 음향 출력 모듈(155)), 및/또는 프로세서(460)(예: 도 1의 프로세서(120))를 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 통신 회로(410)(예: 도 1의 통신 모듈(190))는 외부 전자 장치(예: 도 1의 전자 장치(102, 104), 서버(108))와 통신 채널을 설립하고, 외부 전자 장치와 다양한 데이터를 송수신하도록 지원할 수 있다.
본 개시의 다양한 실시예들에 따르면, 키 입력 회로(420)는 전자 장치(401)의 측면에 배치될 수 있다. 다양한 실시예들에 따르면, 키 입력 회로(420)가 배치되는 위치는 전자 장치(401)의 측면으로 한정하는 것은 아니다. 키 입력 회로(420)는 터치 인터랙션을 검출하기 위한 터치 센서를 포함할 수 있다. 이에 한정하는 것은 아니며, 키 입력 회로(420)는 터치 인터랙션에 의해 발생되는 압력의 세기를 검출하기 위한 압력 센서를 포함할 수 있다.
본 개시의 다양한 실시예들에 따르면, 터치스크린 디스플레이(430)(예: 도 1의 디스플레이 모듈(160))는 프로세서(460)의 제어 하에 영상을 표시하며, 액정 디스플레이(liquid crystal display, LCD), 발광 다이오드(light-emitting diode, LED) 디스플레이, 유기 발광 다이오드(organic light-emitting diode, OLED) 디스플레이, 또는 마이크로 전자 기계 시스템(micro electro mechanical systems, MEMS) 디스플레이, 또는 전자 종이(electronic paper) 디스플레이 중 어느 하나로 구현될 수 있다. 하지만 이에 한정하는 것은 아니다.
일 실시예에서, 터치스크린 디스플레이(430)는 디스플레이(431)와 터치 패널(433)을 포함하는 일체형으로 구성될 수 있다.
일 실시예에서, 터치스크린 디스플레이(430)는 프로세서(460)의 제어 하에 실행된 복수의 어플리케이션들의 복수의 화면들을 표시할 수 있다. 터치스크린 디스플레이(430)는 프로세서(460)의 제어 하에 키 입력 회로(420)에서 검출되는 터치 인터랙션에 대해 응답하여 실행된 기능에 대한 어플리케이션의 화면을 표시할 수 있다.
본 개시의 다양한 실시예들에 따르면, 메모리(440)(예: 도 1의 메모리(130))는 터치스크린 디스플레이(430)에 표시된 복수의 어플리케이션들의 화면들 중 포커스된 어플리케이션을 결정하기 위한 프로그램을 저장할 수 있다. 메모리(440)는 터치스크린 디스플레이(430)에 표시된 또는 포커스된 어플리케이션의 컨텍스트 정보를 결정하기 위한 프로그램을 저장할 수 있다. 메모리(440)는 키 입력 회로(420)에서 검출되는 터치 인터랙션의 타입 및 터치스크린 디스플레이(430)에 표시된 또는 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 표시된 또는 포커스된 어플리케이션의 기능을 제어하는 프로그램을 저장할 수 있다.
본 개시의 다양한 실시예들에 따르면, 음향 출력 회로(450)(예: 도 1의 음향 출력 모듈(155))는 오디오 신호를 출력할 수 있다.
본 개시의 다양한 실시예들에 따르면, 프로세서(460)(예: 도 1의 프로세서(120))는 전자 장치(401)의 전반적인 동작 및 전자 장치(401)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터 처리를 수행할 수 있다.
일 실시예에서, 프로세서(460)는 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 디스플레이(431)에 표시할 수 있다. 예컨대, 프로세서(460)는 디스플레이(431)의 표시 영역을 복수의 영역들로 분할하고, 각각의 영역을 통해 각 어플리케이션의 화면을 표시할 수 있다. 프로세서(460)는 키 입력 회로(420)에서 터치 인터랙션을 검출할 수 있다. 예컨대, 터치 인터랙션은, 스와이프, 탭, 더블 탭, 트리플 탭, 숏 프레스, 또는 롱 프레스를 포함할 수 있다.
일 실시예에서, 터치 인터랙션을 검출하는 것에 기반하여, 프로세서(460)는 터치 인터랙션의 타입 및 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보(context information)를 확인할 수 있다. 예컨대, 포커스된 어플리케이션은, 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 화면을 계속적으로 업데이트하는 어플리케이션(예: 동영상 어플리케이션), 또는 카메라 모듈(예: 도 1의 카메라 모듈(180))을 통해 획득되는 사용자의 시선 방향에 대응하는 화면의 어플리케이션을 포함할 수 있다.
일 실시예에서, 어플리케이션의 컨텍스트 정보는, 음향 출력 회로(450) 또는 통신 회로(410)를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 포커스된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부 및/또는 포커스된 어플리케이션의 화면 속성(예: 포커스된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부)을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 터치 인터랙션이 제1 타입이면, 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 제1 타입의 터치 인터랙션에 대응하는 포커스된 어플리케이션의 제1 기능을 실행할 수 있다. 프로세서(460)는 터치 인터랙션이 제2 타입이면, 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 제2 타입의 인터랙션에 대응하는 포커스된 어플리케이션의 제2 기능을 실행할 수 있다. 일 실시예에서, 제1 타입의 터치 인터랙션과 제2 타입의 터치 인터랙션은 상이할 수 있으며, 이에 따라, 제1 기능 및 제2 기능 또한 상이할 수 있다.
일 실시예에서, 키 입력 회로(420)에서 검출되는 터치 인터랙션의 타입(예: 제1 타입 또는 제2 타입) 및 어플리케이션의 컨텍스트 정보(예: 오디오 신호의 출력 여부에 대한 정보 및/또는 어플리케이션의 화면의 크기가 디스플레이(431)의 분할된 영역의 크기를 초과하는지 여부에 대한 정보)에 따른 어플리케이션의 기능은, 오디오 신호를 제어하기 위한 기능(예: 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능), 어플리케이션의 화면을 제어하기 위한 기능(예: 어플리케이션의 화면의 스크롤 기능, 어플리케이션의 화면을 고정하는 기능, 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 어플리케이션의 화면을 전환하는 기능, 어플리케이션의 화면을 확대, 또는 축소하는 기능), 및 어플리케이션을 종료하는 기능을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치(401)는, 키 입력 회로(420), 디스플레이(431), 메모리(440), 및 상기 키 입력 회로(420), 상기 디스플레이(431), 및 상기 메모리(420)와 작동적으로 연결된 프로세서(460)를 포함하며, 상기 프로세서(460)는, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시하도록 상기 디스플레이(431)를 제어하고, 상기 키 입력 회로(420)에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하고, 상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하고, 및 상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 상기 키 입력 회로(420)는, 터치 센서 및/또는 압력 센서를 포함할 수 있다.
다양한 실시예들에 따른 상기 터치 인터랙션은, 스와이프 인터랙션, 탭 인터랙션, 멀티 탭 인터랙션, 숏 프레스 인터랙션, 및 롱 프레스 인터랙션을 포함하며, 상기 제1 타입의 터치 인터랙션과 상기 제2 타입의 터치 인터랙션은 상이하도록 설정될 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(460)는, 상기 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 또는 화면을 계속적으로 업데이트하는 어플리케이션, 및/또는 카메라(예: 도 1의 카메라 모듈(180))를 통해 획득되는 사용자의 시선 방향에 대응하는 화면의 어플리케이션에 기반하여, 상기 포커스된 어플리케이션을 결정하도록 설정될 수 있다.
다양한 실시예들에 따른 상기 포커스된 어플리케이션의 컨텍스트 정보는, 음향 출력 회로(450)를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부에 대한 정보 및/또는 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이(431)의 분할된 영역의 크기를 초과하는지 여부에 대한 정보를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(460)는, 상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로(450)를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인 것으로 확인되는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능은, 상기 오디오 신호의 볼륨을 조절하는 기능, 상기 오디오 신호를 재생하는 기능, 상기 오디오 신호를 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 오디오 신호를 10초 뒤로하여 재생하는 기능, 10초 앞으로 하여 재생하는 기능, 오디오 신호를 30초 뒤로하여 재생하는 기능, 30초 앞으로 하여 재생하는 기능, 이전 오디오 신호를 재생하는 기능, 또는 다음 오디오 신호를 재생하는 기능을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(460)는, 상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로(450)를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중이 아니면, 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이(431)의 분할된 영역의 크기를 초과하는지 여부를 확인하고, 및 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이(431)의 분할된 영역의 크기를 초과하는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 포커스된 어플리케이션의 화면을 제어하기 위한 재1 기능 또는 제2 기능을 실행하도록 설정될 수 있다.
다양한 실시예들에 따른 상기 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능 또는 제2 기능은, 상기 포커스된 어플리케이션의 화면을 스크롤 하는 기능, 상기 포커스된 어플리케이션의 화면을 고정하는 기능, 상기 포커스된 어플리케이션의 화면을 네비게이션 하는 기능, 상기 포커스된 어플리케이션의 화면을 전환하는 기능, 또는 상기 포커스된 어플리케이션의 화면을 확대 또는 축소하는 기능을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 프로세서(460)는, 상기 포커스된 어플리케이션의 기능에 매핑된 터치 인터랙션에 대한 가이드를 표시하도록 상기 디스플레이(431)를 제어할 수 있다.
도 5는, 다양한 실시예들에 따른, 전자 장치(401)의 키 입력 회로(420)에서 검출될 수 있는 터치 인터랙션의 타입을 설명하기 위한 도면(500)이다.
도 5를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))는 키 입력 회로(515)(예: 도 4의 키 입력 회로(420))를 구비할 수 있다. 예컨대, 키 입력 회로(420)는 전자 장치(401)의 측면에 배치될 수 있다. 다양한 실시예들에 따른 키 입력 회로(420)가 배치되는 위치는 전자 장치(401)의 측면으로 한정하는 것은 아니다.
일 실시예에서, 키 입력 회로(515)는 터치 인터랙션을 검출하기 위한 터치 센서를 포함할 수 있다. 이에 한정하는 것은 아니며, 키 입력 회로(515)는 터치 인터랙션에 의해 발생되는 압력의 세기를 검출하기 위한 압력 센서를 포함할 수 있다.
일 실시예에서, 참조번호 <510>에 도시된 바와 같이, 터치 인터랙션은 스와이프 인터랙션(520)(예: 제1 방향(①)으로부터 제2 방향(②)으로 이동하는 스와이프 인터랙션 또는 제2 방향(②)으로부터 제1 방향(①)으로 이동하는 스와이프 인터랙션)을 포함할 수 있다. 이에 한정하는 것은 아니며, 참조번호 <550>에 도시된 바와 같이, 터치 인터랙션은 탭(tab) 인터랙션(555), 멀티 탭(multi-tap) 인터랙션(예: 더블(double) 탭 인터랙션(560), 트리플(triple) 탭 인터랙션(565)), 프레스(press) 인터랙션(예: 숏 프레스(short press) 인터랙션(570), 롱 프레스(long press) 인터랙션(575))을 포함할 수 있다.
다양한 실시예들에서, 키 입력 회로(515)에서 터치 인터랙션이 검출되면, 전자 장치(401)는 검출되는 터치 인터랙션의 타입을 확인할 수 있다. 전자 장치(401)는 현재 실행 중인 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입에 대응하는 어플리케이션의 다양한 기능들을 제어할 수 있다. 이와 관련하여, 후술하는 도 6 내지 도 20에서 다양한 실시예들이 설명될 것이다.
도 6은, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도(600)이다.
도 6을 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 605동작에서, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시할 수 있다. 예컨대, 프로세서(460)는 디스플레이(예: 도 4의 디스플레이(431))의 표시 영역을 복수의 영역들로 분할하고, 분할된 각 영역을 통해 각 어플리케이션의 화면을 표시하도록, 디스플레이(431)를 제어할 수 있다. 분할된 각 영역에 표시되는 각 어플리케이션의 화면은, 어플리케이션의 서비스 화면 및/또는 어플리케이션과 관련된 그래픽 사용자 인터페이스(graphic user interface, GUI)를 포함할 수 있다.
이에 한정하는 것은 아니며, 다양한 실시예들에서, 프로세서(460)는 복수의 어플리케이션들의 화면들 중 적어도 하나의 어플리케이션의 화면을 디스플레이(431)에 표시할 수 있으며, 적어도 하나의 다른 어플리케이션의 화면을 팝업 형태로 디스플레이(431)에 표시할 수 있다.
일 실시예에서, 프로세서(460)는 610동작에서, 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출하는 것에 기반하여, 터치 인터랙션의 타입 및 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
일 실시예에서, 포커스된 어플리케이션은, 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 또는 화면을 계속적으로 업데이트하는 어플리케이션(예: 동영상 어플리케이션)을 포함할 수 있다. 이에 한정하는 것은 아니며, 포커스된 어플리케이션은, 복수의 어플리케이션들의 화면들 중 카메라 모듈(예: 도 1의 카메라 모듈(180))을 통해 획득되는 사용자의 시선 방향에 대응하는 화면의 어플리케이션을 포함할 수 있다.
일 실시예에서, 어플리케이션의 컨텍스트 정보는, 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 포커스된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부 및/또는 포커스된 어플리케이션의 화면 속성(예: 포커스된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부)을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 615동작에서, 터치 인터랙션이 제1 타입이면, 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 제1 타입의 터치 인터랙션에 대응하는 포커스된 어플리케이션의 제1 기능을 실행할 수 있다.
일 실시예에서, 프로세서(460)는 620동작에서, 터치 인터랙션이 제2 타입이면, 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 제2 타입의 인터랙션에 대응하는 포커스된 어플리케이션의 제2 기능을 실행할 수 있다.
다양한 실시예들에서, 터치 인터랙션은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다. 터치 인터렉션의 제1 타입은 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 하나의 인터랙션을 포함할 수 있으며, 터치 인터랙션의 제2 타입은 스와이프, 탭, 멀티 탭, 숏 프레스, 또는 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다.
다양한 실시예들에 따른, 615동작 및 620동작의 복수의 어플리케이션들의 화면들 중 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입(예: 제1 타입, 제2 타입)에 대응하는 포커스된 어플리케이션의 기능(예: 제1 기능, 제2 기능)을 실행하는 구성과 관련하여, 후술하는 도 7 내지 도 11에서 다양한 실시예들이 설명될 것이다.
다양한 실시예들에서, 미도시 되었으나, 프로세서(460)는 포커스된 어플리케이션의 기능에 매핑된 터치 인터랙션에 대한 가이드를 디스플레이(431)에 표시할 수 있다. 다른 예를 들어, 프로세서(460)는 디스플레이(431)에 터치 인터랙션에 대한 가이드를 출력하기 위한 아이템(미도시)을 표시할 수 있으며, 아이템(미도시)을 선택하는 입력에 의해 터치 인터랙션에 대한 가이드를 디스플레이(431)에 표시할 수 있다. 또 다른 예를 들어, 프로세서(460)는 터치 인터랙션에 대한 가이드의 표시 여부에 대해 사용자가 설정 가능하도록 제공할 수 있다. 다양한 실시예들에 따라, 터치 인터랙션에 대한 가이드를 표시할 수 있으며, 사용자가 터치 인터랙션에 대한 가이드를 출력할지 여부에 대해 설정 가능하도록 제공함에 따라, 사용자는 키 입력 회로(420)에서 검출되는 터치 인터랙션에 매핑된 어플리케이션의 기능을 직관적으로 확인할 수 있다.
도 7은, 다양한 실시예들에 따른, 어플리케이션의 컨텍스트 정보를 설명하기 위한 도면(700)이다.
도 7을 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시할 수 있다.
다양한 실시예들에 따른 도 7에서, 3개의 어플리케이션들의 실행에 따른 3개의 화면들 각각을, 3개의 영역들로 분할된 디스플레이(예: 도 4의 디스플레이(431))의 각 영역에 표시하는 것으로 가정하여 설명하도록 한다.
일 실시예에서, 프로세서(460)는 디스플레이(431)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 제1 어플리케이션의 제1 화면(710)을 표시하고, 제2 영역(예: 우측 상측 영역)에 제2 어플리케이션의 제2 화면(720)을 표시하고, 제3 영역(예: 우측 하측 영역)에 제3 어플리케이션의 제3 화면(730)을 표시할 수 있다.
일 실시예에서, 터치 센서(및/또는 압력 센서)를 포함하는 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션(예: 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))이 검출되는 것에 기반하여, 프로세서(460)는 인터랙션의 타입 및 복수의 어플리케이션들의 화면들(예: 제1 어플리케이션의 제1 화면(710), 제2 어플리케이션의 제2 화면(720), 제3 어플리케이션의 제3 화면(730)) 중 포커스된 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
예컨대, 프로세서(460)는 복수의 어플리케이션들의 화면들(예: 제1 어플리케이션의 제1 화면(710), 제2 어플리케이션의 제2 화면(720), 제3 어플리케이션의 제3 화면(730)) 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 화면을 계속적으로 업데이트하는 어플리케이션, 및/또는 사용자의 시선 방향에 대응하는 화면의 어플리케이션을 포커스된 어플리케이션으로 결정할 수 있다.
일 실시예에서, 어플리케이션의 컨텍스트 정보는, 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 포커스된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부 및/또는 포커스된 어플리케이션의 화면 속성(예: 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부)을 포함할 수 있다.
일 실시예에서, 제1 어플리케이션 예컨대, 동영상 재생 어플리케이션으로, 제1 어플리케이션의 컨텍스트 정보는, 동영상이 재생 중인지 여부에 따라 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 오디오 신호를 출력 중인 상태이거나, 또는 오디오 신호를 출력하지 않는 상태를 포함할 수 있다.
일 실시예에서, 제2 어플리케이션은 예컨대, 사진 어플리케이션으로, 제2 어플리케이션의 컨텍스트 정보는, 특정 이미지(720)가 확대되어, 특정 이미지(720)의 일부(720a)만을 디스플레이(431)의 제2 영역에 표시한 상태로, 어플리케이션의 화면의 크기가 디스플레이(431)의 크기보다 큰 상태를 포함할 수 있다. 예컨대, 제2 어플리케이션의 제2 화면(720)의 크기는 디스플레이(431)의 분할된 제2 영역(예: 우측 상측 영역)의 크기보다 클 수 있다. 예컨대, 특정 이미지(720)의 제1 방향 길이(745)는 디스플레이(431)의 제2 영역의 제1 방향 길이(740)보다 클 수 있다. 또한, 특정 이미지(720)의 제2 방향 길이(755)는 디스플레이(431)의 제2 영역의 제2 방향 길이(750)보다 클 수 있다. 이에 따라, 특정 이미지(720)가 확대된 상태임에 따라, 특정 이미지(720)의 일부 영역(720a)만을 디스플레이(431)의 제2 영역에 표시 중일 수 있으며, 특정 이미지(720)의 다른 일부 영역(720b)은 디스플레이(431)의 제2 영역에 표시 중이 아닐 수 있다.
일 실시예에서, 제3 어플리케이션은 예컨대, 파일 탐색 어플리케이션으로, 제3 어플리케이션의 컨텍스트 정보는, 파일 탐색 어플리케이션의 제3 화면(730)의 일부(730a)만을 디스플레이(431)의 제3 영역에 표시한 상태인, 어플리케이션의 화면의 크기가 디스플레이(431)의 크기보다 큰 상태를 포함할 수 있다. 예컨대, 제3 어플리케이션의 제3 화면(730)의 크기는 디스플레이(431)의 분할된 제3 영역(예: 우측 하측 영역)의 크기보다 클 수 있다. 예컨대, 제3 화면(730)의 제1 방향 길이(740)는 디스플레이(431)의 제3 영역의 제1 방향 길이(740)와 동일할 수 있으나, 제3 화면(730)의 제2 방향 길이(765)는 디스플레이(431)의 제3 영역의 제2 방향 길이(760)보다 클 수 있다. 이에 따라, 제3 화면(730)의 일부 영역(730a)만을 디스플레이(431)의 제3 영역에 표시 중일 수 있으며, 제3 화면(730)의 다른 일부 영역(730b)은 디스플레이(431)의 제3 영역에 표시 중이 아닐 수 있다.
다양한 실시예들에서, 키 입력 회로(420)에서 검출되는 터치 인터랙션의 타입(예: 제1 타입 또는 제2 타입) 및 어플리케이션의 컨텍스트 정보(예: 오디오 신호의 출력 여부에 대한 정보 및/또는 어플리케이션의 화면의 크기가 디스플레이(431)의 분할된 영역의 크기를 초과하는지 여부에 대한 정보)에 따른 어플리케이션의 기능은, 오디오 신호를 제어하기 위한 기능(예: 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능), 어플리케이션의 화면을 제어하기 위한 기능(예: 어플리케이션의 화면의 스크롤 기능, 어플리케이션의 화면을 고정하는 기능, 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 어플리케이션의 화면을 전환하는 기능, 어플리케이션의 화면을 확대, 또는 축소하는 기능)을 포함할 수 있다.
다양한 실시예들에 따른 키 입력 회로(420)에서 터치 인터랙션이 검출되고, 포커스된 어플리케이션이 제1 어플리케이션의 제1 화면(710)인 실시예와 관련하여, 후술하는 도 9a 및 도 9b에서 다양한 실시예들이 설명될 것이다. 또한, 키 입력 회로(420)에서 터치 인터랙션이 검출되고, 포커스된 어플리케이션이 제2 어플리케이션의 제2 화면(720)인 실시예와 관련하여, 후술하는 도 9c에서 다양한 실시예들이 설명될 것이다. 또한, 키 입력 회로(420)에서 터치 인터랙션이 검출되고, 포커스된 어플리케이션이 제3 어플리케이션의 제3 화면(730)인 실시예와 관련하여, 후술하는 도 9d에서 다양한 실시예들이 설명될 것이다.
도 8a 및 도 8b는, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도(800)이다.
다양한 실시예들에 따른, 도 8a의 805동작 내지 815동작은 전술한 도 6의 605동작 및 610동작과 동일하므로, 그에 대한 상세한 설명은 도 6과 관련된 설명으로 대신할 수 있다.
도 8a 및 도 8b를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 805동작에서, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시할 수 있다. 예컨대, 프로세서(460)는 디스플레이(예: 도 4의 디스플레이(431))의 표시 영역을 복수의 영역으로 분할하고, 분할된 각 영역을 통해 각 어플리케이션의 화면을 표시할 수 있다.
일 실시예에서, 프로세서(460)는 810동작에서, 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 예컨대, 터치 인터랙션은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다.
일 실시예에서, 프로세서(460)는 815동작에서, 복수의 어플리케이션들 중 포커스된 어플리케이션 및 포커스된 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
예컨대, 프로세서(460)는 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 화면을 계속적으로 업데이트하는 어플리케이션(예: 동영상 어플리케이션), 또는 사용자의 시선 방향에 대응하는 화면의 어플리케이션에 기반하여, 포커스된 어플리케이션을 확인할 수 있다. 포커스된 어플리케이션이 확인되면, 프로세서(460)는 포커스된 어플리케이션의 컨텍스트 정보를 확인할 수 있다. 컨텍스트 정보는, 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 포커스된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부 및/또는 포커스된 어플리케이션의 화면 속성(예: 포커스된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부)을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 820동작에서, 포커스된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부를 확인할 수 있다. 예컨대, 프로세서(460)는 확인된 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 포커스된 어플리케이션에 대응하는 오디오 신호가 스피커 또는 통신 회로(410)를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 출력 중인지 여부를 확인할 수 있다.
일 실시예에서, 오디오 신호가 출력 중으로 확인되는 것에 기반하여(예: 820동작의 YES), 프로세서(460)는 825동작에서, 검출된 터치 인터랙션이 제1 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제1 타입인 것으로 확인되는 것에 기반하여(예: 825동작의 YES), 프로세서(460)는 830동작에서, 포커스된 어플리케이션의 오디오 신호를 제어하기 위한 제1 기능을 실행할 수 있다. 예컨대, 제1 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 하나의 터치 인터랙션을 포함할 수 있다. 제1 타입의 터치 인터랙션에 따른 포커스된 어플리케이션의 오디오 신호를 제어하기 위한 제1 기능은, 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제1 타입이 아닌 것으로 확인되는 것에 기반하여(예: 825동작의 NO), 프로세서(460)는 835동작에서, 검출된 터치 인터랙션이 제2 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제2 타입인 것으로 확인되는 것에 기반하여(예: 835동작의 YES), 프로세서(460)는 840동작에서, 포커스된 어플리케이션의 오디오 신호를 제어하기 위한 제2 기능을 실행할 수 있다. 예컨대, 제2 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다. 제2 타입의 터치 인터랙션에 따른 포커스된 어플리케이션의 오디오 신호를 제어하기 위한 제2 기능은, 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능 중 830동작의 제1 타입의 터치 인터랙션에 따른 포커스된 어플리케이션의 오디오 신호를 제어하기 위한 제1 기능과 상이한 하나의 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제2 타입이 아닌 것으로 확인되는 것에 기반하여(예: 835동작의 NO), 프로세서(460)는 포커스된 어플리케이션의 기능을 제어하는 동작을 종료할 수 있다.
일 실시예에서, 오디오 신호가 출력 중이 아닌 것으로 확인되는 것에 기반하여(예: 820동작의 NO), 프로세서(460)는 도 8b의 동작을 수행할 수 있다.
예컨대, 오디오 신호가 출력 중이 아닌 것으로 확인되는 것에 기반하여(예: 820동작의 NO), 프로세서(460)는 850동작에서, 포커스된 어플리케이션의 화면 속성을 확인할 수 있다. 포커스된 어플리케이션의 화면 속성에 기반하여, 프로세서(460)는 855동작에서, 포커스된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기(예: 디스플레이(431)의 복수의 분할된 영역들 중 포커스된 어플리케이션이 표시된 영역의 크기)를 초과하는지 여부를 확인할 수 있다.
일 실시예에서, 포커스된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기(예: 디스플레이(431)의 복수의 분할된 영역들 중 포커스된 어플리케이션이 표시된 영역의 크기)보다 큰 경우(예: 855동작의 YES), 프로세서(460)는 860동작에서, 검출된 터치 인터랙션이 제1 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제1 타입으로 확인되는 것에 기반하여(예: 860동작의 YES), 프로세서(460)는 865동작에서, 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능을 실행할 수 있다. 예컨대, 제1 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 하나의 터치 인터랙션을 포함할 수 있다. 제1 타입의 터치 인터랙션에 따른 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능은, 어플리케이션의 화면의 스크롤 기능, 어플리케이션의 화면을 고정하는 기능, 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 어플리케이션의 화면을 전환하는 기능, 또는 어플리케이션의 화면을 확대 또는 축소하는 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제1 타입이 아닌 것으로 확인되는 것에 기반하여(예: 860동작의 NO), 프로세서(460)는 870동작에서, 검출된 터치 인터랙션이 제2 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제2 타입으로 확인되는 것에 기반하여(예: 870동작의 YES), 프로세서(460)는 875동작에서, 포커스된 어플리케이션의 화면을 제어하기 위한 제2 기능을 실행할 수 있다. 예컨대, 제2 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다. 제2 타입의 터치 인터랙션에 따른 포커스된 어플리케이션의 화면을 제어하기 위한 제2 기능은, 어플리케이션의 화면의 스크롤 기능, 어플리케이션의 화면을 고정하는 기능, 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 어플리케이션의 화면을 전환하는 기능, 또는 어플리케이션의 화면을 확대 또는 축소하는 기능 중 850동작의 제1 타입의 터치 인터랙션에 따른 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능과 상이한 하나의 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제2 타입이 아닌 것으로 확인되는 것에 기반하여(예: 870동작의 NO), 프로세서(460)는 포커스된 어플리케이션의 기능을 제어하는 동작을 종료할 수 있다.
일 실시예에서, 포커스된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기(예: 디스플레이(431)의 복수의 분할된 영역들 중 포커스된 어플리케이션이 표시된 영역의 크기)보다 크지 않은 경우(예: 855동작의 NO), 프로세서(460)는 포커스된 어플리케이션의 기능을 제어하는 동작을 종료할 수 있다.
도 9a, 도 9b, 도 9c, 및 도 9d는, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(900)이다.
다양한 실시예들에서, 프로세서(예: 도 4의 프로세서(460))는 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션(예: 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))이 검출되는 것에 기반하여, 복수의 어플리케이션들의 화면들(예: 도 7의 제1 어플리케이션의 제1 화면(710), 제2 어플리케이션의 제2 화면(720), 제3 어플리케이션의 제3 화면(730)) 중 포커스된 어플리케이션(예: 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 화면을 계속적으로 업데이트하는 어플리케이션(예: 동영상 어플리케이션), 또는 사용자의 시선 방향에 대응하는 화면의 어플리케이션)을 확인할 수 있다.
이하, 도 9a 및 도 9b에서는, 포커스된 어플리케이션을 제1 어플리케이션의 제1 화면(710)으로 가정하여 설명하도록 한다.
도 9a를 참조하면, 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션이 검출되고, 포커스된 제1 어플리케이션에 대응하는 오디오 신호가 스피커(예: 도 4의 음향 출력 회로(450)(또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치))를 통해 출력 중인 경우, 프로세서(460)는 포커스된 제1 어플리케이션의 오디오 신호를 제어하는 기능을 실행할 수 있다.
예컨대, 키 입력 회로(420)에서 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이 검출되면, 프로세서(460)는 포커스된 제1 어플리케이션에 대응하는 오디오 신호의 볼륨을 조절하는 기능을 실행할 수 있다. 키 입력 회로(420)에서 제1 방향(예: 도 5의 ①)으로부터 제2 방향(예: 도 5의 ②)으로 이동하는 스와이프 인터랙션이 검출되면, 프로세서(460)는 오디오 신호의 볼륨을 낮추는 기능을 실행할 수 있다. 키 입력 회로(420)에서 제2 방향(예: 도 5의 ②)으로부터 제1 방향(예: 도 5의 ①)으로 이동하는 스와이프 인터랙션이 검출되면, 프로세서(460)는 오디오 신호의 볼륨을 높이는 기능을 실행할 수 있다. 일 실시예에서, 프로세서(460)는 키 입력 회로(420)에서 스와이프 인터랙션(520)이 검출되는 것에 기반하여, 오디오 신호의 볼륨 조절을 나타내는 볼륨 조절 인디케이터(910)를 제1 어플리케이션의 제1 화면(710)의 일부 영역에 표시할 수 있다.
다른 예를 들어, 키 입력 회로(420)에서 탭 인터랙션(예: 도 5의 탭 인터랙션(555))이 검출되면, 프로세서(460)는 동영상을 재생하는 기능 또는 동영상 재생을 중지하는 기능을 실행할 수 있다. 이에 한정하는 것은 아니며, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능을 실행할 수 있다. 예컨대, 키 입력 회로(420)가 적어도 두 개의 키로 구분되는 경우, 제1 키 입력 회로에서의 탭 인터랙션 및 제2 키 입력 회로에서의 탭 인터랙션에 기반하여 상이한 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560))이 검출되면, 프로세서(460)는 동영상 재생을 10초 뒤로 가기 기능 또는 10초 앞으로 가기 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 트리플 탭 인터랙션(예: 도 5의 트리플 탭 인터랙션(565))이 검출되면, 프로세서(460)는 동영상 재생을 30초 뒤로 가기 기능 또는 30초 앞으로 가기 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570))이 검출되면, 프로세서(460)는 이전 동영상을 재생하는 기능 또는 다음 동영상을 재생하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이 검출되면, 프로세서(460)는 제1 어플리케이션(또는 제1 어플리케이션의 서비스)을 종료하는 기능을 실행할 수 있다.
도 9b를 참조하면, 키 입력 회로(420)에서 터치 인터랙션이 검출되고, 포커스된 제1 어플리케이션에 대응하는 오디오 신호가 출력 중이 아닌 경우, 프로세서(460)는 포커스된 제1 어플리케이션의 제1 화면(710)을 제어하는 기능을 실행할 수 있다. 예컨대, 프로세서(460)는 포커스된 제1 어플리케이션의 제1 화면(710)의 크기가 디스플레이(431)의 크기(예: 제1 어플리케이션의 제1 화면(710)이 표시된 디스플레이(431)의 제1 영역(예: 좌측 영역)의 크기)를 초과하는지 여부에 기반하여, 키 입력 회로(420)에서의 터치 인터랙션에 따른 포커스된 제1 어플리케이션의 제1 화면(710)을 제어하는 기능을 실행할 수 있다.
예컨대, 키 입력 회로(420)에서 스와이프 인터랙션(520)이 검출되면, 프로세서(460)는 포커스된 제1 어플리케이션의 제1 화면(710)을 스크롤(예: 상/하 스크롤)하는 기능을 실행할 수 있다. 제1 어플리케이션의 제1 화면(710)을 스크롤함에 따라, 프로세서(460)는 디스플레이(461)의 제1 영역(예: 좌측 영역)에 표시되지 않은 제1 어플리케이션의 제1 화면(710)의 숨겨진 영역(925)을 표시할 수 있다. 다른 예를 들어, 키 입력 회로(420)에서 탭 인터랙션(555)이 검출되면, 프로세서(460)는 포커스된 제1 어플리케이션의 제1 화면(710)을 고정하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 더블 탭 인터랙션(560)이 검출되면, 프로세서(460)는 포커스된 제1 어플리케이션의 제1 화면(710)의 네비게이션을 활성화하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 숏 프레스 인터랙션(570)이 검출되면, 프로세서(460)는 포커스된 제1 어플리케이션의 제1 화면(710)을 전환하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 롱 프레스 인터랙션(575)이 검출되면, 프로세서(460)는 포커스된 제1 어플리케이션(또는 제1 어플리케이션의 서비스)을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른 도 9c에서는, 포커스된 어플리케이션을 제2 어플리케이션의 제2 화면(720)으로 가정하여 설명하도록 한다.
도 9c를 참조하면, 키 입력 회로(420)에서 터치 인터랙션이 검출되고, 포커스된 제2 어플리케이션에 대응하는 오디오 신호가 출력 중이 아닌 경우, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)의 속성을 확인하고, 제2 화면(720)을 제어하는 기능을 실행할 수 있다. 예컨대, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)의 크기가 디스플레이(431)의 크기(예: 제2 어플리케이션의 제2 화면(720)이 표시된 디스플레이(431)의 제2 영역(예: 우측 상측 영역)의 크기)를 초과하는지 여부에 기반하여, 키 입력 회로(420)에서의 터치 인터랙션에 따른 포커스된 제2 어플리케이션의 제2 화면(720)을 제어하는 기능을 실행할 수 있다.
예컨대, 키 입력 회로(420)에서 스와이프 인터랙션(520)이 검출되면, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)을 스크롤하는 기능을 실행할 수 있다. 예컨대, 제2 화면(720)의 제1 방향 길이(예: 도 7의 제2 화면(720)의 제1 방향 길이(745))가 디스플레이(431)의 제2 영역의 제1 방향 길이(예: 도 7의 제2 영역의 제1 방향 길이(740))보다 크고, 제2 화면(720)의 제2 방향 길이(예: 도 7의 제2 화면(720)의 제2 방향 길이(755))가 디스플레이(431)의 제2 영역의 제2 방향 길이(예: 도 7의 제2 영역의 제1 방향 길이(750))보다 큼에 따라, 프로세서(460)는 상/하/좌/우 스크롤 기능을 실행할 수 있다. 제2 어플리케이션의 제2 화면(720)을 스크롤함에 따라, 프로세서(460)는 디스플레이(461)의 제2 영역(예: 우측 상측 영역)에 표시되지 않은 제2 어플리케이션의 제2 화면(720)의 숨겨진 영역(720b)을 표시할 수 있다.
다른 예를 들어, 키 입력 회로(420)에서 탭 인터랙션(555)이 검출되면, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)을 고정하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 더블 탭 인터랙션(560)이 검출되면, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)의 네비게이션을 활성화하는 기능을 실행할 수 있다. 이에 한정하는 것은 아니며, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)을 확대(zoom out)하는 기능 또는 축소(zoom in)하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 숏 프레스 인터랙션(570)이 검출되면, 프로세서(460)는 포커스된 제2 어플리케이션의 제2 화면(720)을 전환하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 롱 프레스 인터랙션(575)이 검출되면, 프로세서(460)는 포커스된 제2 어플리케이션(또는 제2 어플리케이션의 서비스)을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른 도 9d에서는, 포커스된 어플리케이션을 제3 어플리케이션의 제3 화면(730)으로 가정하여 설명하도록 한다.
도 9d를 참조하면, 키 입력 회로(420)에서 터치 인터랙션이 검출되고, 포커스된 제3 어플리케이션에 대응하는 오디오 신호가 출력 중이 아닌 경우, 프로세서(460)는 포커스된 제3 어플리케이션의 제3 화면(730)의 속성을 확인하고, 제3 화면(730)을 제어하는 기능을 실행할 수 있다. 예컨대, 프로세서(460)는 포커스된 제2 어플리케이션의 제3 화면(730)의 크기가 디스플레이(431)의 크기(예: 제3 어플리케이션의 제3 화면(730)이 표시된 디스플레이(431)의 제3 영역(예: 우측 하측 영역)의 크기)를 초과하는지 여부에 기반하여, 키 입력 회로(420)에서의 터치 인터랙션에 따른 포커스된 제3 어플리케이션의 제3 화면(730)을 제어하는 기능을 실행할 수 있다.
예컨대, 키 입력 회로(420)에서 스와이프 인터랙션(520)이 검출되면, 프로세서(460)는 포커스된 제3 어플리케이션의 제3 화면(730)을 스크롤하는 기능을 실행할 수 있다. 예컨대, 제3 화면(730)의 제2 방향 길이(예: 제3 화면(730)의 제2 방향 길이(765))가 디스플레이(431)의 제3 영역의 제2 방향 길이(예: 제3 영역의 제2 방향 길이(760))보다 큼에 따라, 프로세서(460)는 상/하 스크롤 기능을 실행할 수 있다. 제3 어플리케이션의 제3 화면(730)을 스크롤함에 따라, 프로세서(460)는 디스플레이(461)의 제3 영역(예: 우측 하측 영역)에 표시되지 않은 제3 어플리케이션의 제3 화면(730)의 숨겨진 영역(730b)을 표시할 수 있다.
다른 예를 들어, 키 입력 회로(420)에서 탭 인터랙션(555)이 검출되면, 프로세서(460)는 포커스된 제3 어플리케이션의 제3 화면(730)을 고정하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 더블 탭 인터랙션(560)이 검출되면, 프로세서(460)는 포커스된 제3 어플리케이션의 제3 화면(730)의 네비게이션을 활성화하는 기능, 제3 화면(730)을 확대하는 기능, 또는 제3 화면(730)을 축소하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 숏 프레스 인터랙션(570)이 검출되면, 프로세서(460)는 포커스된 제3 어플리케이션의 제3 화면(730)을 전환하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(420)에서 롱 프레스 인터랙션(575)이 검출되면, 프로세서(460)는 포커스된 제3 어플리케이션(또는 제3 어플리케이션의 서비스)을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(420)에서 검출되는 터치 인터랙션의 타입 및 어플리케이션의 컨텍스트 정보에 따라 수행되는 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 어플리케이션의 컨텍스트 정보에 따라 수행되는 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 10은, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1000)이다.
도 10을 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 디스플레이(예: 도 4의 디스플레이(431))를 2개의 영역으로 분할하고, 분할된 제1 영역에 제2 어플리케이션의 제2 화면(예: 도 7의 제2 어플리케이션의 제2 화면(720))을 표시하고, 제2 영역에 제3 어플리케이션의 제3 화면(예: 도 7의 제3 어플리케이션의 제3 화면(730))을 표시하고, 제1 어플리케이션의 제1 화면(예: 도 7의 제1 어플리케이션의 제1 화면(710))을 팝업창으로 표시할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 검출되는 터치 인터랙션의 타입 및 복수의 어플리케이션들(예: 제1 어플리케이션, 제2 어플리케이션, 및 제3 어플리케이션) 중 포커스된 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
다양한 실시예들에서, 포커스된 어플리케이션이 팝업창으로 표시된 제1 어플리케이션의 제1 화면(710), 제2 어플리케이션의 제2 화면(720), 또는 제3 어플리케이션의 제3 화면(730)인 것에 기반하여, 프로세서(460)는 전술한 도 9a 내지 도 9d의 실시예들에 따른 키 입력 회로(420)에서의 터치 인터랙션에 기반하여 어플리케이션(예: 제1 어플리케이션)의 오디오 신호를 제어하는 기능 및 어플리케이션의 화면(예: 제2 화면(720) 또는 제3 화면(730))을 제어하는 기능과 동일한 기능을 실행할 수 있다.
도 11은, 다양한 실시예들에 따른, 복수의 어플리케이션들의 화면들이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1100)이다.
다양한 실시예들에 따른 도 11은, 바형(bar type) 또는 평판형(310) 형태, 또는 폴더블(foldable)(330) 형태의 폼 팩터를 가지는 전자 장치(예: 도 4의 전자 장치(401))의 디스플레이(예: 도 4의 디스플레이(431))에 복수의 어플리케이션들의 화면들 멀티윈도우 형태 또는 팝업 형태로 표시한 상태에서, 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 검출되는 터치 인터랙션에 기반하여 포커스된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면이다.
도 11을 참조하면, 참조번호 <1110>에 도시된 바와 같이, 프로세서(예: 도 4의 프로세서(460))는 디스플레이(431)를 2개의 영역으로 분할하고, 분할된 제1 영역(예: 상측 영역)에 제2 어플리케이션(예: 사진 어플리케이션)의 제2 화면(예: 도 7의 제2 어플리케이션의 제2 화면(720))을 표시하고, 제2 영역(예: 하측 영역)에 제3 어플리케이션(예: 파일 탐색 어플리케이션)의 제3 화면(예: 도 7의 제3 어플리케이션의 제3 화면(730))을 표시할 수 있다.
참조번호 <1110>에 따른 실시예는, 포커스된 어플리케이션의 화면이 제2 어플리케이션의 제2 화면(720) 또는 제3 어플리케이션의 제3 화면(730)인 것에 기반하여, 전술한 도 9c 및 도 9d의 실시예들에 따른 키 입력 회로(420)에서의 터치 인터랙션에 기반하여 어플리케이션의 화면(예: 제2 화면(720) 또는 제3 화면(730))을 제어하는 기능(예: 화면의 스크롤 기능, 화면을 고정하는 기능, 화면의 네비게이션을 활성화하는 기능, 화면을 전환하는 기능, 화면을 확대, 또는 축소하는 기능)과 동일할 수 있다.
다른 실시예에서, 참조번호 <1120>에 도시된 바와 같이, 프로세서(460)는 디스플레이(431)를 2개의 영역으로 분할하고, 분할된 제1 영역(예: 상측 영역)에 제1 어플리케이션(예: 동영상 재생 어플리케이션)의 제1 화면(710)을 표시하고, 제2 영역(예: 하측 영역)에 제2 어플리케이션(예: 사진 어플리케이션)의 제2 화면(720)을 표시할 수 있다.
참조번호 <1120>에 따른 실시예는, 포커스된 어플리케이션의 화면이 제1 어플리케이션의 제1 화면(710) 또는 제2 어플리케이션의 제2 화면(720)인 것에 기반하여, 전술한 도 9a 및 도 9c의 실시예들에 따른 키 입력 회로(420)에서의 터치 인터랙션에 기반하여 어플리케이션(예: 제1 어플리케이션)의 오디오 신호를 제어하는 기능(예: 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능) 및 어플리케이션의 화면(예: 제2 화면(720))을 제어하는 기능과 동일할 수 있다.
또 다른 실시예에서, 참조번호 <1130>에 도시된 바와 같이, 프로세서(460)는 디스플레이(431)를 2개의 영역으로 분할하고, 분할된 제1 영역(예: 상측 영역)에 제2 어플리케이션(예: 사진 어플리케이션)의 제2 화면(720)을 표시하고, 제2 영역(예: 하측 영역)에 제3 어플리케이션(예: 파일 탐색 어플리케이션)의 제3 화면(730)을 표시하고, 제1 어플리케이션의 제1 화면(예: 도 7의 제1 어플리케이션(예: 동영상 재생 어플리케이션)의 제1 화면(710))을 팝업창으로 표시할 수 있다.
참조번호 <1130>에 따른 실시예는, 포커스된 어플리케이션의 화면이 제1 어플리케이션의 제1 화면(710), 제2 어플리케이션의 제2 화면(720), 또는 제3 어플리케이션의 제3 화면(730)인 것에 기반하여, 전술한 도 9a 내지 도 9d의 실시예들에 따른 키 입력 회로(420)에서의 터치 인터랙션에 기반하여 어플리케이션(예: 제1 어플리케이션)의 오디오 신호를 제어하는 기능 및 어플리케이션의 화면(예: 제2 화면(720) 또는 제3 화면(730))을 제어하는 기능과 동일할 수 있다.
도 12는, 다양한 실시예들에 따른, 하나의 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 표시된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도(1200)이다.
도 12를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 1205동작에서, 어플리케이션의 화면을 표시할 수 있다.
일 실시예에서, 프로세서(460)는 1210동작에서, 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출하는 것에 기반하여, 터치 인터랙션의 타입 및 표시된 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
예컨대, 터치 인터랙션은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다. 어플리케이션의 컨텍스트 정보는, 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 표시된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부 및/또는 표시된 어플리케이션의 화면 속성(예: 표시된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부)을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 1215동작에서, 터치 인터랙션이 제1 타입이면, 표시된 어플리케이션의 컨텍스트 정보에 기반하여, 제1 타입의 터치 인터랙션에 대응하는 표시된 어플리케이션의 제1 기능을 실행할 수 있다.
일 실시예에서, 프로세서(460)는 1220동작에서, 터치 인터랙션이 제2 타입이면, 표시된 어플리케이션의 컨텍스트 정보에 기반하여, 제2 타입의 터치 인터랙션에 대응하는 표시된 어플리케이션의 제2 기능을 실행할 수 있다.
일 실시예에서, 터치 인터렉션의 제1 타입은 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 하나의 인터랙션을 포함할 수 있으며, 터치 인터랙션의 제2 타입은 스와이프, 탭, 멀티 탭, 숏 프레스, 또는 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다.
다양한 실시예들에 따른, 1215동작 및 1220동작의 표시된 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입(예: 제1 타입, 제2 타입)에 대응하는 표시된 어플리케이션의 기능(예: 제1 기능, 제2 기능)을 실행하는 구성과 관련하여, 후술하는 도 13a 내지 도 20에서 다양한 실시예들이 설명될 것이다.
도 13a 및 도 13b는, 다양한 실시예들에 따른, 하나의 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 표시된 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 흐름도(1300)이다.
다양한 실시예들에 따른, 도 13a의 1305동작 내지 1315동작은 전술한 도 12의 1205동작 및 1210동작과 동일하므로, 그에 대한 상세한 설명은 도 12와 관련된 설명으로 대신할 수 있다.
도 13a 및 도 13b를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 1305동작에서, 어플리케이션의 화면을 표시할 수 있다. 프로세서(460)는 1310동작에서, 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 예컨대, 터치 인터랙션은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다.
일 실시예에서, 프로세서(460)는 1315동작에서, 터치 인터랙션의 타입 및 표시된 어플리케이션의 컨텍스트 정보를 확인할 수 있다. 예컨대, 컨텍스트 정보는, 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 표시된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부 및/또는 표시된 어플리케이션의 화면 속성(예: 표시된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부)을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 1320동작에서, 표시된 어플리케이션에 대응하는 오디오 신호가 출력 중인지 여부를 확인할 수 있다. 예컨대, 프로세서(460)는 표시된 어플리케이션의 컨텍스트 정보에 기반하여, 표시된 어플리케이션에 대응하는 오디오 신호가 스피커 또는 통신 회로(410)를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 출력 중인지 여부를 확인할 수 있다.
일 실시예에서, 오디오 신호가 출력 중으로 확인되는 것에 기반하여(예: 1320동작의 YES), 프로세서(460)는 1325동작에서, 검출된 터치 인터랙션이 제1 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제1 타입인 것으로 확인되는 것에 기반하여(예: 1325동작의 YES), 프로세서(460)는 1330동작에서, 표시된 어플리케이션에 대응하는 오디오 신호를 제어하기 위한 제1 기능을 실행할 수 있다. 예컨대, 제1 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 하나의 터치 인터랙션을 포함할 수 있다. 제1 타입의 터치 인터랙션에 따른 표시된 어플리케이션의 오디오 신호를 제어하기 위한 제1 기능은, 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제1 타입이 아닌 것으로 확인되는 것에 기반하여(예: 1325동작의 NO), 프로세서(460)는 1335동작에서, 검출된 터치 인터랙션이 제2 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제2 타입인 것으로 확인되는 것에 기반하여(예: 1335동작의 YES), 프로세서(460)는 1340동작에서, 표시된 어플리케이션에 대응하는 오디오 신호를 제어하기 위한 제2 기능을 실행할 수 있다. 예컨대, 제2 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다. 제2 타입의 터치 인터랙션에 따른 표시된 어플리케이션의 오디오 신호를 제어하기 위한 제2 기능은, 오디오 신호의 볼륨을 조절하는 기능, 동영상을 재생하는 기능, 동영상 재생을 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 또는 다음 동영상을 재생하는 기능 중 1330동작의 제1 타입의 터치 인터랙션에 따른 표시된 어플리케이션에 대응하는 오디오 신호를 제어하기 위한 제1 기능과 상이한 하나의 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제2 타입이 아닌 것으로 확인되는 것에 기반하여(예: 1335동작의 NO), 프로세서(460)는 표시된 어플리케이션의 기능을 제어하는 동작을 종료할 수 있다.
일 실시예에서, 오디오 신호가 출력 중이 아닌 것으로 확인되는 것에 기반하여(예: 1320동작의 NO), 프로세서(460)는 도 13b의 동작을 수행할 수 있다.
예컨대, 오디오 신호가 출력 중이 아닌 것으로 확인되는 것에 기반하여(예: 1320동작의 NO), 프로세서(460)는 1350동작에서, 표시된 어플리케이션의 화면 속성을 확인할 수 있다. 예컨대, 표시된 어플리케이션의 화면 속성에 기반하여, 프로세서(460)는 1355동작에서, 표시된 어플리케이션의 화면의 크기가 디스플레이(예: 도 4의 디스플레이(431))의 크기를 초과하는지 여부를 확인할 수 있다.
일 실시예에서, 표시된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기보다 큰 경우(예: 1355동작의 YES), 프로세서(460)는 1360동작에서, 검출된 터치 인터랙션이 제1 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제1 타입으로 확인되는 것에 기반하여(예: 1360동작의 YES), 프로세서(460)는 1365동작에서, 표시된 어플리케이션의 화면을 제어하기 위한 제1 기능을 실행할 수 있다. 예컨대, 제1 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 하나의 터치 인터랙션을 포함할 수 있다. 제1 타입의 터치 인터랙션에 따른 표시된 어플리케이션의 화면을 제어하기 위한 제1 기능은, 어플리케이션의 화면의 스크롤 기능, 어플리케이션의 화면을 고정하는 기능, 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 어플리케이션의 화면을 전환하는 기능, 또는 어플리케이션의 화면을 확대 또는 축소하는 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제1 타입이 아닌 것으로 확인되는 것에 기반하여(예: 1360동작의 NO), 프로세서(460)는 1370동작에서, 검출된 터치 인터랙션이 제2 타입인지 여부를 확인할 수 있다. 검출된 터치 인터랙션이 제2 타입으로 확인되는 것에 기반하여(예: 1370동작의 YES), 프로세서(460)는 1375동작에서, 표시된 어플리케이션의 화면을 제어하기 위한 제2 기능을 실행할 수 있다. 예컨대, 제2 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다. 예컨대, 제2 타입의 터치 인터랙션은, 스와이프, 탭, 멀티 탭, 숏 프레스, 및 롱 프레스 중 제1 타입의 터치 인터랙션과 상이한 하나의 터치 인터랙션을 포함할 수 있다. 제2 타입의 터치 인터랙션에 따른 표시된 어플리케이션의 화면을 제어하기 위한 제2 기능은, 어플리케이션의 화면의 스크롤 기능, 어플리케이션의 화면을 고정하는 기능, 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 어플리케이션의 화면을 전환하는 기능, 또는 어플리케이션의 화면을 확대 또는 축소하는 기능 중 1365동작의 제1 타입의 터치 인터랙션에 따른 표시된 어플리케이션의 화면을 제어하기 위한 제1 기능과 상이한 하나의 기능을 포함할 수 있다.
일 실시예에서, 검출된 터치 인터랙션이 제2 타입이 아닌 것으로 확인되는 것에 기반하여(예: 1370동작의 NO), 프로세서(460)는 표시된 어플리케이션의 기능을 제어하는 동작을 종료할 수 있다.
일 실시예에서, 표시된 어플리케이션의 화면의 크기가 디스플레이(431)의 크기보다 크지 않은 경우(예: 1355동작의 NO), 프로세서(460)는 표시된 어플리케이션의 기능을 제어하는 동작을 종료할 수 있다.
도 14는, 다양한 실시예들에 따른, 전화 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(1415)에서 검출되는 터치 인터랙션에 기반하여 전화 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1400)이다.
도 14를 참조하면, 참조번호 <1410>에 도시된 바와 같이, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 발신자(예: john smith)로부터 전화가 수신되는 것에 기반하여, 전화 어플리케이션의 화면을 디스플레이(431)에 표시할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1415)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 전화 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
예컨대, 터치 인터랙션의 타입은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다. 컨텍스트 정보는 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 전화 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부 및/또는 전화 어플리케이션의 화면 속성을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 전화 어플리케이션이 실행됨에 따라 컨텍스트 정보를 스피커(450)를 통해 오디오 신호를 출력하는 것으로 결정할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 전화 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입에 대응하는 전화 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1415)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 전화 어플리케이션의 음량을 조절하는 기능을 수행할 수 있다. 예컨대, 프로세서(460)는 전화 어플리케이션의 음량을 조절하는 기능을 나타내는 인디케이션 예컨대, 음량 조절 바(1455)를 디스플레이(431)에 표시할 수 있다.
다른 예를 들어, 터치 인터랙션의 타입이 탭 인터랙션(예: 도 5의 탭 인터랙션(555))이면, 프로세서(460)는 통화 시작, 뮤트(mute)/언뮤트(unmute) 기능(1421)을 실행할 수 있다. 또 다른 예를 들어, 터치 인터랙션의 타입이 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560))이면, 프로세서(460)는 스피커를 통해 수신되는 음성 신호를 출력하는 기능(1425) 또는 통화 중 녹음 온(on)/오프(off) 기능을 실행할 수 있다. 또 다른 예를 들어, 터치 인터랙션의 트리플 탭 인터랙션(예: 도 5의 트리플 탭 인터랙션(565))이면, 프로세서(460)는 다자간 통화 기능(1427)을 실행할 수 있다. 또 다른 예를 들어, 터치 인터랙션의 타입이 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570))이면, 프로세서(460)는 영상 통화 기능(1429)을 실행할 수 있다. 또 다른 예를 들어, 터치 인터랙션의 타입이 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이면, 프로세서(460)는 전화 어플리케이션을 종료하는 기능 또는 전화를 종료하는 기능(1433)을 수행할 수 있다.
다양한 실시예들에 따른 전화 어플리케이션의 기능은 전술한 기능에 한정하는 것은 아니다. 예컨대, 전화 어플리케이션의 기능은, 키패드 표시하는 기능(1423) 및 수신자의 정보를 확인하는 기능(1431)을 포함할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(1415)에서 검출되는 터치 인터랙션의 타입 및 전화 어플리케이션의 컨텍스트 정보에 따라 수행되는 전화 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 전화 어플리케이션의 컨텍스트 정보에 따라 수행되는 전화 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 15는, 다양한 실시예들에 따른, 알림 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(1515)에서 검출되는 터치 인터랙션에 기반하여 알림 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1500)이다.
도 15를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 설정된 알림 시간이 됨에 따라 스피커(예: 도 4의 음향 출력 회로(450))를 통해 알림 소리를 출력(1520)함과 함께 알림 어플리케이션의 화면을 디스플레이(예: 도 4의 디스플레이(431))에 표시할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1515)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보를 확인할 수 있다. 터치 인터랙션의 타입은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다. 컨텍스트 정보는 스피커(450) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 알림 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부 및/또는 알림 어플리케이션의 화면 속성을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 설정된 알림 시간이 됨에 따라 스피커(450)를 통해 알림 소리를 출력하는 상태(1520)로 확인되는 것에 기반하여, 알림 어플리케이션의 컨텍스트 정보를 오디오 신호를 출력 중인 상태(1520)로 결정할 수 있다. 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보에 기반하여, 프로세서(460)는 터치 인터랙션의 타입에 대응하는 알림 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560))이면, 프로세서(460)는 스누즈(snooze) 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이면, 프로세서(460)는 알림 어플리케이션을 종료하는 기능(또는 알림 소리의 출력을 종료하는 기능)을 수행할 수 있다.
일 실시예에서, 알림 소리의 출력을 종료하는 기능이 수행됨에 따라 스피커(450)를 통해 알림 소리가 출력되지 않는 상태(1525)로 확인되는 것에 기반하여, 프로세서(460)는 알림 어플리케이션의 컨텍스트 정보를 오디오 신호를 출력 중이 아닌 상태(1525)로 결정할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1515)에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입에 대응하는 알림 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 알림 시간을 설정하는 기능을 실행할 수 있다. 다른 예를 들어, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 탭 인터랙션(예: 도 5의 탭 인터랙션(555))이면, 프로세서(460)는 알림 설정 시, 시(hour), 분(minute) 단위로 이동하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560))이면, 프로세서(460)는 설정된 알림 시간을 취소하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570))이면, 프로세서(460)는 알림 시간 설정을 완료하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입이 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이면, 프로세서(460)는 알림 어플리케이션을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(1515)에서 검출되는 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보에 따라 수행되는 알림 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보에 따라 수행되는 알림 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 16a 및 도 16b는, 다양한 실시예들에 따른, 음악 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(1615)에서 검출되는 터치 인터랙션에 기반하여 음악 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1600, 1650)이다.
도 16a를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 참조번호 <1610>에 도시된 바와 같이 음악 어플리케이션 실행으로 음악 어플리케이션의 화면을 디스플레이(431)에 표시하며, 음악에 대응하는 오디오 신호를 스피커(예: 도 4의 음향 출력 회로(450))를 통해 출력 중일 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1615)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
일 실시예에서, 프로세서(460)는 음악에 대응하는 오디오 신호가 스피커(450)를 통해 알림 소리를 출력하는 상태(1620)로 확인되는 것에 기반하여, 음악 어플리케이션의 컨텍스트 정보를 오디오 신호를 출력 중인 상태(1620)로 결정할 수 있다. 터치 인터랙션의 타입 및 음악 어플리케이션의 컨텍스트 정보에 기반하여, 프로세서(460)는 터치 인터랙션의 타입에 대응하는 음악 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 음악에 대응하는 오디오 신호의 음량을 조절하는 기능을 수행할 수 있다. 예컨대, 프로세서(460)는 참조번호 <1630>에 도시된 바와 같이 오디오 신호의 음량을 조절하는 기능을 나타내는 인디케이션 예컨대, 음량 조절 바(1635)를 디스플레이(431)에 표시할 수 있다. 다른 예를 들어, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 탭 인터랙션(예: 도 5의 탭 인터랙션(555))이면, 프로세서(460)는 음악의 재생을 중지하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560))이면, 프로세서(460)는 음악 재생을 10초 뒤로 가기 기능 또는 10초 앞으로 가기 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 트리플 탭 인터랙션(예: 도 5의 트리플 탭 인터랙션(565))이면, 프로세서(460)는 음악 재생을 30초 뒤로 가기 기능 또는 30초 앞으로 가기 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570))이면, 프로세서(460)는 이전 음악을 재생하는 기능 또는 다음 음악을 재생하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이면, 프로세서(460)는 음악 어플리케이션을 종료하는 기능을 실행할 수 있다.
도 16b를 참조하면, 음악 재생을 중지하는 기능이 수행됨에 따라 스피커(450)를 통해 음악에 대응하는 오디오 신호가 출력되지 않는 상태(1665)로 확인되는 것에 기반하여, 프로세서(460)는 음악 어플리케이션의 컨텍스트 정보를 오디오 신호를 출력 중이 아닌 상태(1665)로 결정할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1615)에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 알림 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입에 대응하는 음악 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(520)이면, 프로세서(460)는 스크롤 기능을 수행할 수 있다. 예컨대, 스크롤 기능이 수행되는 것에 기반하여, 프로세서(460)는 참조번호 <1670>에 도시된 바와 같이 음악 어플리케이션의 화면의 하단에 숨겨진 플레이리스트(1675)를 디스플레이(431)에 표시할 수 있다.
이에 한정하는 것은 아니며, 키 입력 회로(1615)에서 탭 인터랙션(555), 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565), 숏 프레스 인터랙션(570), 또는 롱 프레스 인터랙션(575)이 검출되는 것에 기반하여, 프로세서(460)는 음악을 탐색하는 기능, 탐색된 음악을 플레이리스트에 추가하는 기능, 음악을 공유하는 기능, 또는 음악 어플리케이션을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(1615)에서 검출되는 터치 인터랙션의 타입 및 음악 어플리케이션의 컨텍스트 정보에 따라 수행되는 음악 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 음악 어플리케이션의 컨텍스트 정보에 따라 수행되는 음악 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 17a 및 도 17b는, 다양한 실시예들에 따른, 동영상 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(1715)에서 검출되는 터치 인터랙션에 기반하여 동영상 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1700, 1750)이다.
도 17a를 참조하면, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 참조번호 <1710>에 도시된 바와 같이 동영상 어플리케이션 실행으로 동영상 어플리케이션의 화면을 디스플레이(431)에 표시하며, 동영상에 대응하는 오디오 신호를 스피커(예: 도 4의 음향 출력 회로(450))를 통해 출력 중(1720)일 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1715)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 동영상 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
일 실시예에서, 프로세서(460)는 동영상에 대응하는 오디오 신호가 스피커(450)를 통해 알림 소리를 출력하는 상태로 확인되는 것에 기반하여, 동영상 어플리케이션의 컨텍스트 정보를 오디오 신호를 출력 중인 상태(1720)로 결정할 수 있다. 터치 인터랙션의 타입 및 동영상 어플리케이션의 컨텍스트 정보에 기반하여, 프로세서(460)는 터치 인터랙션의 타입에 대응하는 동영상 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1715)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 동영상에 대응하는 오디오 신호의 음량을 조절하는 기능을 수행할 수 있다. 예컨대, 프로세서(460)는 참조번호 <1730>에 도시된 바와 같이 오디오 신호의 음량을 조절하는 기능을 나타내는 인디케이션 예컨대, 음량 조절 바(1735)를 디스플레이(431)에 표시할 수 있다.
이에 한정하는 것은 아니며, 키 입력 회로(1715)에서 탭 인터랙션(예: 도 5의 탭 인터랙션(555)), 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560)), 트리플 탭 인터랙션(예: 도 5의 트리플 탭 인터랙션(565)), 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이 검출되는 것에 기반하여, 프로세서(460)는 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 동영상 재생을 10초 뒤로 가기 기능, 10초 앞으로 가기 기능, 동영상 재생을 30초 뒤로 가기 기능, 30초 앞으로 가기 기능, 이전 동영상을 재생하는 기능, 다음 동영상을 재생하는 기능, 또는 동영상 어플리케이션을 종료하는 기능을 실행할 수 있다.
도 17b를 참조하면, 동영상 재생을 중지하는 기능이 수행됨에 따라 스피커(450)를 통해 음악에 대응하는 오디오 신호가 출력되지 않는 상태로 확인되는 것에 기반하여, 프로세서(460)는 동영상 어플리케이션의 컨텍스트 정보를 오디오 신호를 출력 중이 아닌 상태(1765)로 결정할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1715)에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 동영상 어플리케이션의 컨텍스트 정보에 기반하여, 터치 인터랙션의 타입에 대응하는 동영상 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1715)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(520)이면, 프로세서(460)는 스크롤 기능을 수행할 수 있다. 예컨대, 스크롤 기능이 수행되는 것에 기반하여, 프로세서(460)는 참조번호 <1670>에 도시된 바와 같이 동영상 어플리케이션의 화면의 하단에 숨겨진 플레이리스트(1775)를 디스플레이(431)에 표시할 수 있다.
이에 한정하는 것은 아니며, 키 입력 회로(1715)에서 탭 인터랙션(555), 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565), 숏 프레스 인터랙션(570), 또는 롱 프레스 인터랙션(575)이 검출되는 것에 기반하여, 프로세서(460)는 동영상을 탐색하는 기능, 탐색된 동영상을 플레이리스트에 추가하는 기능, 동영상을 공유하는 기능, 또는 동영상 어플리케이션을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(1715)에서 검출되는 터치 인터랙션의 타입 및 동영상 어플리케이션의 컨텍스트 정보에 따라 수행되는 동영상 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 동영상 어플리케이션의 컨텍스트 정보에 따라 수행되는 동영상 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 18은, 다양한 실시예들에 따른, 검색 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(1815)에서 검출되는 터치 인터랙션에 기반하여 검색 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1800)이다.
도 18을 참조하면, 참조번호 <1810>에 도시된 바와 같이, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 검색 어플리케이션의 화면을 디스플레이(예: 도 4의 디스플레이(431))에 표시할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1815)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 검색 어플리케이션의 컨텍스트 정보를 확인할 수 있다. 예컨대, 터치 인터랙션의 타입은, 스와이프(예: 도 5의 스와이프 인터랙션(520)), 탭(예: 도 5의 탭 인터랙션(555)), 멀티 탭(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스(예: 도 5의 롱 프레스 인터랙션(575))를 포함할 수 있다. 컨텍스트 정보는, 스피커(예: 도 4의 음향 출력 회로(450)) 또는 통신 회로(예: 도 4의 통신 회로(410))를 통해 연결된 오디오 장치(예: 무선 오디오 장치)를 통해 검색 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부 및/또는 검색 어플리케이션의 화면 속성을 포함할 수 있다.
일 실시예에서, 프로세서(460)는 오디오 신호가 출력 중이 아닌 상태를 확인하고, 검색 어플리케이션의 화면 속성을 확인할 수 있다. 예컨대, 프로세서(460)는 검색 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부를 확인할 수 있다. 검색 어플리케이션의 화면 크기가 디스플레이(431)의 크기보다 큰 것으로 확인되는 것에 기반하여, 프로세서(460)는 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입에 대응하는 검색 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 스크롤 기능을 수행할 수 있다. 예컨대, 프로세서(460)는 스크롤 기능을 수행함에 따라 참조번호 <1820>에 도시된 바와 같이 검색 어플리케이션의 화면의 숨겨진 영역(1825)(예: 화면/피드(feed))을 디스플레이(431)에 표시할 수 있다. 다른 예를 들어, 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입이 탭 인터랙션(예: 도 5의 탭 인터랙션(555))이면, 프로세서(460)는 검색 어플리케이션의 화면을 고정하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입이 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560))이면, 프로세서(460)는 검색 어플리케이션의 화면의 네비게이션을 활성화하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입이 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570))이면, 프로세서(460)는 검색 어플리케이션의 화면을 전환하는 기능을 실행할 수 있다. 또 다른 예를 들어, 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입이 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이면, 프로세서(460)는 검색 어플리케이션을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(1815)에서 검출되는 터치 인터랙션의 타입 및 검색 어플리케이션의 컨텍스트 정보에 따라 수행되는 검색 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 검색 어플리케이션의 컨텍스트 정보에 따라 수행되는 검색 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 19a 및 도 19b는, 다양한 실시예들에 따른, 사진 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(1915)에서 검출되는 터치 인터랙션에 기반하여 사진 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(1900, 1950)이다.
도 19a를 참조하면, 참조번호 <1910>에 도시된 바와 같이, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 복수의 이미지들을 포함하는 사진 어플리케이션의 화면을 디스플레이(예: 도 4의 디스플레이(431))에 표시할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(1915)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 사진 어플리케이션의 컨텍스트 정보를 확인할 수 있다. 일 실시예에서, 프로세서(460)는 오디오 신호가 출력 중이 아닌 상태를 확인하고, 사진 어플리케이션의 화면 속성을 확인할 수 있다. 예컨대, 프로세서(460)는 사진 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부를 확인할 수 있다. 사진 어플리케이션의 화면 크기가 디스플레이(431)의 크기보다 큰 것으로 확인되는 것에 기반하여, 프로세서(460)는 키 입력 회로(1915)에서 검출되는 터치 인터랙션의 타입에 대응하는 사진 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(1915)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 스크롤 기능을 수행할 수 있다. 예컨대, 프로세서(460)는 스크롤 기능을 수행함에 따라 참조번호 <1920>에 도시된 바와 같이 사진 어플리케이션의 화면의 숨겨진 영역(1925)(예: 화면/피드(feed))을 디스플레이(431)에 표시할 수 있다.
이에 한정하는 것은 아니며, 키 입력 회로(1915)에서 탭 인터랙션(예: 도 5의 탭 인터랙션(555)), 더블 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560)), 트리플 탭 인터랙션(예: 도 5의 트리플 탭 인터랙션(565)), 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570)), 또는 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))이 검출되는 것에 기반하여, 프로세서(460)는 사진 어플리케이션의 화면을 고정하는 기능, 사진 어플리케이션의 화면의 네비게이션을 활성화하는 기능, 사진 어플리케이션의 화면을 전환하는 기능, 또는 사진 어플리케이션을 종료하는 기능을 실행할 수 있다.
다른 실시예에서, 도 19b를 참조하면, 복수의 이미지들 중 특정 이미지를 선택하는 것에 기반하여, 프로세서(460)는 참조번호 <1960>에 도시된 바와 같이 특정 이미지를 디스플레이(431)에 표시할 수 있다.
다양한 실시예들에 따라 참조번호 <1960>에 도시된 특정 이미지는 확대된 상태로 가정하여 설명한다.
일 실시예에서, 키 입력 회로(1915)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 특정 이미지를 축소하는 기능(또는 확대하는 기능)을 실행할 수 있다. 프로세서(460)는 키 입력 회로(1915)에서 스와이프 인터랙션(520)이 검출되는 것에 기반하여, 특정 이미지를 축소하고, 축소된 특정 이미지를 디스플레이(431)에 표시할 수 있다. 예컨대, 프로세서(460)는 디스플레이(431)에 표시되지 않았던 영역(1975)을 포함하는 특정 이미지를 디스플레이(431)에 표시될 수 있다.
이에 한정하는 것은 아니며, 키 입력 회로(1915)에서 탭 인터랙션(555), 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565), 숏 프레스 인터랙션(570), 또는 롱 프레스 인터랙션(575)이 검출되는 것에 기반하여, 프로세서(460)는 이전 화면으로 전환하는 기능, 특정 이미지의 효과를 변경하는 기능, 특정 이미지를 공유하는 기능, 또는 사진 어플리케이션을 종료하는 기능을 실행할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(1915)에서 검출되는 터치 인터랙션의 타입 및 사진 어플리케이션의 컨텍스트 정보에 따라 수행되는 사진 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 사진 어플리케이션의 컨텍스트 정보에 따라 수행되는 사진 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
도 20은, 다양한 실시예들에 따른, 소셜 네트워크 어플리케이션의 화면이 표시된 상태에서 키 입력 회로(2015)에서 검출되는 터치 인터랙션에 기반하여 소셜 네트워크 어플리케이션의 기능을 제어하는 방법을 설명하기 위한 도면(2000)이다.
도 20을 참조하면, 참조번호 <2010>에 도시된 바와 같이, 전자 장치(예: 도 4의 전자 장치(401))의 프로세서(예: 도 4의 프로세서(460))는 복수의 피드(feed)를 포함하는 소셜 네트워크 어플리케이션의 화면을 디스플레이(431)에 표시할 수 있다. 예컨대, 복수의 피드는 동영상, 사진, 및/또는 텍스트를 포함할 수 있다.
일 실시예에서, 프로세서(460)는 키 입력 회로(2015)(예: 도 4의 키 입력 회로(420))에서 터치 인터랙션을 검출할 수 있다. 프로세서(460)는 터치 인터랙션의 타입 및 소셜 네트워크 어플리케이션의 컨텍스트 정보를 확인할 수 있다.
일 실시예에서, 프로세서(460)는 오디오 신호가 출력 중이 아닌 상태를 확인하고, 소셜 네트워크 어플리케이션의 화면 속성을 확인할 수 있다. 예컨대, 프로세서(460)는 소셜 네트워크 어플리케이션의 화면의 크기가 디스플레이(431)의 크기를 초과하는지 여부를 확인할 수 있다. 소셜 네트워크 어플리케이션의 화면 크기가 디스플레이(431)의 크기보다 큰 것으로 확인되는 것에 기반하여, 프로세서(460)는 키 입력 회로(2015)에서 검출되는 터치 인터랙션의 타입에 대응하는 소셜 네트워크 어플리케이션의 기능을 실행할 수 있다.
예컨대, 키 입력 회로(2015)에서 검출되는 터치 인터랙션의 타입이 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520))이면, 프로세서(460)는 스크롤 기능을 수행할 수 있다. 예컨대, 프로세서(460)는 스크롤 기능을 수행함에 따라 참조번호 <2020>에 도시된 바와 같이 소셜 네트워크 어플리케이션의 화면의 숨겨진 영역(2025)(예: 화면/피드(feed))을 디스플레이(431)에 표시할 수 있다.
일 실시예에서, 프로세서(460)는 소셜 네트워크 어플리케이션의 화면의 숨겨진 영역(2025)에 포함된 동영상을 재생하는 입력(2027)을 검출하는 것에 기반하여, 참조번호 <2030>에 도시된 바와 같이 동영상을 재생하는 화면을 표시할 수 있다. 동영상을 재생하는 중에 키 입력 회로(2015)에서 스와이프 인터랙션(520)이 검출되면, 프로세서(460)는 재생되는 동영상에 대응하는 오디오 신호의 볼륨을 조절하는 기능을 실행할 수 있다. 키 입력 회로(2015)에서 스와이프 인터랙션(520)이 검출되는 것에 기반하여, 프로세서(460)는 오디오 신호의 볼륨 조절을 나타내는 오디오 신호의 볼륨 조절 인디케이터(2035)를 디스플레이(431)에 표시할 수 있다.
다양한 실시예들에 따른, 키 입력 회로(2015)에서 검출되는 터치 인터랙션의 타입 및 소셜 네트워크 어플리케이션의 컨텍스트 정보에 따라 수행되는 소셜 네트워크 어플리케이션의 기능은 하나의 실시예로, 이에 한정하는 것은 아니다. 터치 인터랙션의 타입 및 소셜 네트워크 어플리케이션의 컨텍스트 정보에 따라 수행되는 소셜 네트워크 어플리케이션의 기능은, 구현에 따라 또는 사용자 설정에 따라 달라질 수 있다.
다양한 실시예들에 따른 전자 장치(예: 도 4의 전자 장치(401))의 키 입력 회로(예: 도 4의 키 입력 회로(420))에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능을 제어하는 방법은, 복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 상기 전자 장치(401)의 디스플레이(예: 도 4의 디스플레이(431))에 표시하는 동작, 키 입력 회로(420)에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작, 상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하는 동작, 및 상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 키 입력 회로(420)는, 터치 센서 및/또는 압력 센서를 포함할 수 있다.
다양한 실시예들에 따르면, 상기 터치 인터랙션은, 스와이프 인터랙션(예: 도 5의 스와이프 인터랙션(520)), 탭 인터랙션(예: 도 5의 탭 인터랙션(555)), 멀티 탭 인터랙션(예: 도 5의 더블 탭 인터랙션(560), 트리플 탭 인터랙션(565)), 숏 프레스 인터랙션(예: 도 5의 숏 프레스 인터랙션(570)), 및 롱 프레스 인터랙션(예: 도 5의 롱 프레스 인터랙션(575))을 포함하며, 상기 제1 타입의 터치 인터랙션과 상기 제2 타입의 터치 인터랙션은 상이하도록 설정될 수 있다.
다양한 실시예들에 따른 상기 복수의 어플리케이션들 중 상기 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작은, 상기 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 또는 화면을 계속적으로 업데이트하는 어플리케이션, 및/또는 카메라(예: 도 1의 카메라 모듈(180))를 통해 획득되는 사용자의 시선 방향에 대응하는 화면의 어플리케이션에 기반하여, 상기 포커스된 어플리케이션을 결정하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 포커스된 어플리케이션의 컨텍스트 정보는, 음향 출력 회로(예: 도 4의 음향 출력 회로(450))를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부에 대한 정보 및/또는 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이(431)의 분할된 영역의 크기를 초과하는지 여부에 대한 정보를 포함할 수 있다.
다양한 실시예들에 따른 상기 제1 기능을 실행하는 동작 또는 상기 제2 기능을 실행하는 동작은, 상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로(450)를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인 것으로 확인되는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능을 실행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능은, 상기 오디오 신호의 볼륨을 조절하는 기능, 상기 오디오 신호를 재생하는 기능, 상기 오디오 신호를 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 오디오 신호를 10초 뒤로하여 재생하는 기능, 10초 앞으로 하여 재생하는 기능, 오디오 신호를 30초 뒤로하여 재생하는 기능, 30초 앞으로 하여 재생하는 기능, 이전 오디오 신호를 재생하는 기능, 또는 다음 오디오 신호를 재생하는 기능을 포함할 수 있다.
다양한 실시예들에 따른 상기 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작은, 상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로(450)를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중이 아니면, 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이(431)의 분할된 영역의 크기를 초과하는지 여부를 확인하는 동작을 포함할 수 있다.
다양한 실시예들에 따른 상기 제1 기능을 실행하는 동작 또는 상기 제2 기능을 실행하는 동작은, 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이(431)의 분할된 영역의 크기를 초과하는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능 또는 제2 기능을 실행하는 동작을 포함할 수 있다.
다양한 실시예들에 따르면, 상기 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능 또는 제2 기능은, 상기 포커스된 어플리케이션의 화면을 스크롤 하는 기능, 상기 포커스된 어플리케이션의 화면을 고정하는 기능, 상기 포커스된 어플리케이션의 화면을 네비게이션 하는 기능, 상기 포커스된 어플리케이션의 화면을 전환하는 기능, 또는 상기 포커스된 어플리케이션의 화면을 확대 또는 축소하는 기능을 포함할 수 있다.
다양한 실시예들에 따른 전자 장치(401)의 키 입력 회로(420)에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능을 제어하는 방법은, 상기 포커스된 어플리케이션의 기능에 매핑된 터치 인터랙션에 대한 가이드를 상기 디스플레이(431)에 표시하는 동작을 더 포함할 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다.
대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
Claims (15)
- 전자 장치에 있어서,키 입력 회로;디스플레이;메모리; 및상기 키 입력 회로, 상기 디스플레이, 및 상기 메모리와 작동적으로 연결된 프로세서를 포함하며,상기 프로세서는,복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 표시하도록 상기 디스플레이를 제어하고,상기 키 입력 회로에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하고,상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하고, 및상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 키 입력 회로는,터치 센서 및/또는 압력 센서를 포함하는 전자 장치.
- 제 1 항에 있어서,상기 터치 인터랙션은, 스와이프 인터랙션, 탭 인터랙션, 멀티 탭 인터랙션, 숏 프레스 인터랙션, 및 롱 프레스 인터랙션을 포함하며,상기 제1 타입의 터치 인터랙션과 상기 제2 타입의 터치 인터랙션은 상이하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 또는 화면을 계속적으로 업데이트하는 어플리케이션, 및/또는 카메라를 통해 획득되는 사용자의 시선 방향에 대응하는 화면의 어플리케이션에 기반하여, 상기 포커스된 어플리케이션을 결정하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 포커스된 어플리케이션의 컨텍스트 정보는, 음향 출력 회로를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부에 대한 정보 및/또는 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이의 분할된 영역의 크기를 초과하는지 여부에 대한 정보를 포함하는 전자 장치.
- 제 5 항에 있어서,상기 프로세서는,상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인 것으로 확인되는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능을 실행하고,상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능은, 상기 오디오 신호의 볼륨을 조절하는 기능, 상기 오디오 신호를 재생하는 기능, 상기 오디오 신호를 중지하는 기능, 오디오 신호를 뮤트(mute) 또는 언뮤트(unmute)하는 기능, 오디오 신호를 10초 뒤로하여 재생하는 기능, 10초 앞으로 하여 재생하는 기능, 오디오 신호를 30초 뒤로하여 재생하는 기능, 30초 앞으로 하여 재생하는 기능, 이전 오디오 신호를 재생하는 기능, 또는 다음 오디오 신호를 재생하는 기능을 포함하는 전자 장치.
- 제 5 항에 있어서,상기 프로세서는,상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중이 아니면, 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이의 분할된 영역의 크기를 초과하는지 여부를 확인하고, 및상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이의 분할된 영역의 크기를 초과하는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 포커스된 어플리케이션의 화면을 제어하기 위한 재1 기능 또는 제2 기능을 실행하고,상기 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능 또는 제2 기능은, 상기 포커스된 어플리케이션의 화면을 스크롤 하는 기능, 상기 포커스된 어플리케이션의 화면을 고정하는 기능, 상기 포커스된 어플리케이션의 화면을 네비게이션 하는 기능, 상기 포커스된 어플리케이션의 화면을 전환하는 기능, 또는 상기 포커스된 어플리케이션의 화면을 확대 또는 축소하는 기능을 포함하는 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 포커스된 어플리케이션의 기능에 매핑된 터치 인터랙션에 대한 가이드를 표시하도록 상기 디스플레이를 제어하는 전자 장치.
- 전자 장치의 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능을 제어하는 방법에 있어서,복수의 어플리케이션들의 화면들을 멀티윈도우 형태로 상기 전자 장치의 디스플레이에 표시하는 동작;키 입력 회로에서 터치 인터랙션을 검출하는 것에 기반하여, 상기 터치 인터랙션의 타입 및 상기 복수의 어플리케이션들 중 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작;상기 터치 인터랙션이 제1 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제1 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제1 기능을 실행하는 동작; 및상기 터치 인터랙션이 제2 타입이면, 상기 포커스된 어플리케이션의 컨텍스트 정보에 기반하여, 상기 제2 타입의 터치 인터랙션에 대응하는 상기 포커스된 어플리케이션의 제2 기능을 실행하는 동작을 포함하는 방법.
- 제 9 항에 있어서,상기 키 입력 회로는,터치 센서 및/또는 압력 센서를 포함하는 방법.
- 제 9 항에 있어서,상기 터치 인터랙션은, 스와이프 인터랙션, 탭 인터랙션, 멀티 탭 인터랙션, 숏 프레스 인터랙션, 및 롱 프레스 인터랙션을 포함하며,상기 제1 타입의 터치 인터랙션과 상기 제2 타입의 터치 인터랙션은 상이하도록 설정된 방법.
- 제 9 항에 있어서,상기 복수의 어플리케이션들 중 상기 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작은,상기 복수의 어플리케이션들의 화면들 중 사용자 입력이 마지막으로 검출된 어플리케이션, 마지막으로 실행된 어플리케이션, 또는 화면을 계속적으로 업데이트하는 어플리케이션, 및/또는 카메라를 통해 획득되는 사용자의 시선 방향에 대응하는 화면의 어플리케이션에 기반하여, 상기 포커스된 어플리케이션을 결정하는 동작을 포함하는 방법.
- 제 9 항에 있어서,상기 포커스된 어플리케이션의 컨텍스트 정보는, 음향 출력 회로를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인지 여부에 대한 정보 및/또는 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이의 분할된 영역의 크기를 초과하는지 여부에 대한 정보를 포함하는 방법.
- 제 13 항에 있어서,상기 제1 기능을 실행하는 동작 또는 상기 제2 기능을 실행하는 동작은,상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중인 것으로 확인되는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 오디오 신호를 제어하는 제1 기능 또는 제2 기능을 실행하는 동작을 포함하는 방법.
- 제 13 항에 있어서,상기 포커스된 어플리케이션의 컨텍스트 정보를 확인하는 동작은,상기 포커스된 어플리케이션의 컨텍스트 정보가 상기 음향 출력 회로를 통해 상기 포커스된 어플리케이션에 대응하는 오디오 신호를 출력 중이 아니면, 상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이의 분할된 영역의 크기를 초과하는지 여부를 확인하는 동작을 포함하며,상기 제1 기능을 실행하는 동작 또는 상기 제2 기능을 실행하는 동작은,상기 포커스된 어플리케이션의 화면의 크기가 상기 포커스된 어플리케이션의 화면이 표시된 상기 디스플레이의 분할된 영역의 크기를 초과하는 것에 기반하여, 상기 제1 타입의 터치 인터랙션 또는 상기 제2 타입의 터치 인터랙션에 기반하여 상기 포커스된 어플리케이션의 화면을 제어하기 위한 제1 기능 또는 제2 기능을 실행하는 동작을 포함하는 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210005385A KR20220102898A (ko) | 2021-01-14 | 2021-01-14 | 전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능 제어 방법 |
KR10-2021-0005385 | 2021-01-14 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022154536A1 true WO2022154536A1 (ko) | 2022-07-21 |
Family
ID=82447565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2022/000672 WO2022154536A1 (ko) | 2021-01-14 | 2022-01-13 | 전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능 제어 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20220102898A (ko) |
WO (1) | WO2022154536A1 (ko) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100027660A (ko) * | 2008-09-03 | 2010-03-11 | 에스케이 텔레콤주식회사 | 측면 터치 인터페이스 장치 및 방법 |
KR20130096917A (ko) * | 2012-02-23 | 2013-09-02 | 주식회사 팬택 | 터치 기반으로 동작되는 휴대 단말 및 그 동작 방법 |
KR20150067919A (ko) * | 2013-12-10 | 2015-06-19 | 엘지전자 주식회사 | 이동 단말기 및 그의 후면 입력부 운용방법 |
KR20160061733A (ko) * | 2014-11-24 | 2016-06-01 | 삼성전자주식회사 | 복수의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법 |
KR20170019248A (ko) * | 2015-08-11 | 2017-02-21 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
-
2021
- 2021-01-14 KR KR1020210005385A patent/KR20220102898A/ko unknown
-
2022
- 2022-01-13 WO PCT/KR2022/000672 patent/WO2022154536A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100027660A (ko) * | 2008-09-03 | 2010-03-11 | 에스케이 텔레콤주식회사 | 측면 터치 인터페이스 장치 및 방법 |
KR20130096917A (ko) * | 2012-02-23 | 2013-09-02 | 주식회사 팬택 | 터치 기반으로 동작되는 휴대 단말 및 그 동작 방법 |
KR20150067919A (ko) * | 2013-12-10 | 2015-06-19 | 엘지전자 주식회사 | 이동 단말기 및 그의 후면 입력부 운용방법 |
KR20160061733A (ko) * | 2014-11-24 | 2016-06-01 | 삼성전자주식회사 | 복수의 어플리케이션을 실행하는 전자 장치 및 그 제어 방법 |
KR20170019248A (ko) * | 2015-08-11 | 2017-02-21 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20220102898A (ko) | 2022-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2019240519A2 (en) | Electronic device including flexible display capable of changing size of display area and method for controlling same | |
WO2022030990A1 (ko) | 복수의 디스플레이를 통해 다양한 사용자 인터페이스를 제공하는 전자 장치 및 그 방법 | |
WO2022025450A1 (ko) | 슬라이딩 가능한 전자 장치 및 이의 제어 방법 | |
WO2016175424A1 (ko) | 이동 단말기 및 그 제어 방법 | |
WO2022019484A1 (ko) | 디스플레이를 포함하는 전자 장치 및 그의 디스플레이 제어 방법 | |
WO2023282563A1 (ko) | 복수의 터치스크린 디스플레이를 포함하는 전자 장치 및 화면 분할 방법 | |
WO2022154500A1 (ko) | 전자 장치 및 전자 장치의 폴딩 상태에 기반하여 레이아웃 구성 방법 | |
WO2022031047A1 (ko) | 디스플레이를 포함하는 전자 장치 및 그의 화면 운용 방법 | |
WO2022103174A1 (ko) | 표시 영역이 가변되는 디스플레이를 포함하는 전자 장치 및 앱 아이콘을 이용하여 화면 비율을 가변적으로 운용하는 방법 | |
WO2021187850A1 (ko) | 멀티 윈도우를 표시하기 위한 폴더블 전자 장치 및 그의 동작 방법 | |
WO2022154423A1 (ko) | 전자 장치 및 전자 장치에서 스타일러스 펜의 입력을 처리하는 방법 | |
WO2022119219A1 (ko) | 전자 장치 및 전자 장치의 동작 방법 | |
WO2022108271A1 (ko) | 플렉서블 디스플레이를 포함하는 전자 장치 및 그의 터치 제어 방법 | |
WO2021246783A1 (ko) | 롤러블 디스플레이를 갖는 전자 장치 및 이를 위한 디스플레이 방법 | |
WO2023017954A1 (ko) | 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법 | |
WO2022092652A1 (ko) | 사용자 인터페이스를 제공하는 전자 장치 | |
WO2022108379A1 (ko) | 확장 가능한 디스플레이를 포함하는 전자 장치 및 컨텐츠 제공 방법 | |
WO2022025451A1 (ko) | 슬라이딩 가능한 전자 장치 및 이의 제어 방법 | |
WO2022025400A1 (ko) | 전자 펜과 연동된 화면 분할 제공 방법 및 이를 이용한 폴더블 전자 장치 | |
WO2022154536A1 (ko) | 전자 장치 및 이를 이용한 키 입력 회로에서 검출되는 터치 인터랙션에 기반하여 어플리케이션의 기능 제어 방법 | |
WO2024063432A1 (ko) | 전자 장치의 어플리케이션 실행 화면 제어 방법 및 그 전자 장치 | |
WO2022098010A1 (ko) | 안테나를 포함하는 전자 장치 | |
WO2024117558A1 (ko) | 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법 | |
WO2022108239A1 (ko) | 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 동작 방법 | |
WO2023191303A1 (ko) | 플렉서블 디스플레이를 포함하는 전자 장치 및 이의 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 22739729 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 22739729 Country of ref document: EP Kind code of ref document: A1 |