KR20240050225A - Electronic device and method for controlling screen according to user interaction using the same - Google Patents
Electronic device and method for controlling screen according to user interaction using the same Download PDFInfo
- Publication number
- KR20240050225A KR20240050225A KR1020220179504A KR20220179504A KR20240050225A KR 20240050225 A KR20240050225 A KR 20240050225A KR 1020220179504 A KR1020220179504 A KR 1020220179504A KR 20220179504 A KR20220179504 A KR 20220179504A KR 20240050225 A KR20240050225 A KR 20240050225A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- user interaction
- information
- electronic device
- display
- Prior art date
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 461
- 238000000034 method Methods 0.000 title claims description 100
- 230000004044 response Effects 0.000 claims abstract description 11
- 238000004891 communication Methods 0.000 claims description 64
- 238000013473 artificial intelligence Methods 0.000 claims description 26
- 230000008859 change Effects 0.000 claims description 14
- 238000010801 machine learning Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 88
- 230000006870 function Effects 0.000 description 74
- 230000001133 acceleration Effects 0.000 description 39
- 238000001914 filtration Methods 0.000 description 16
- 238000001514 detection method Methods 0.000 description 15
- 210000004247 hand Anatomy 0.000 description 14
- 230000001681 protective effect Effects 0.000 description 12
- 239000000758 substrate Substances 0.000 description 11
- 238000012952 Resampling Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000007704 transition Effects 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 229910052751 metal Inorganic materials 0.000 description 8
- 210000003813 thumb Anatomy 0.000 description 8
- 239000002184 metal Substances 0.000 description 7
- 230000008569 process Effects 0.000 description 7
- 238000013434 data augmentation Methods 0.000 description 6
- 238000004590 computer program Methods 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 210000003811 finger Anatomy 0.000 description 4
- 229920000642 polymer Polymers 0.000 description 4
- 239000011521 glass Substances 0.000 description 3
- 230000010365 information processing Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 230000000638 stimulation Effects 0.000 description 3
- 229920002430 Fibre-reinforced plastic Polymers 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 239000004020 conductor Substances 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000011151 fibre-reinforced plastic Substances 0.000 description 2
- 239000010410 layer Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000007769 metal material Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000035939 shock Effects 0.000 description 2
- 229910001220 stainless steel Inorganic materials 0.000 description 2
- 239000010935 stainless steel Substances 0.000 description 2
- 238000002834 transmittance Methods 0.000 description 2
- 229920000742 Cotton Polymers 0.000 description 1
- FYYHWMGAXLPEAU-UHFFFAOYSA-N Magnesium Chemical compound [Mg] FYYHWMGAXLPEAU-UHFFFAOYSA-N 0.000 description 1
- 230000004308 accommodation Effects 0.000 description 1
- 229910052782 aluminium Inorganic materials 0.000 description 1
- XAGFODPZIPBFFR-UHFFFAOYSA-N aluminium Chemical compound [Al] XAGFODPZIPBFFR-UHFFFAOYSA-N 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000000919 ceramic Substances 0.000 description 1
- 239000011247 coating layer Substances 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 229910052749 magnesium Inorganic materials 0.000 description 1
- 239000011777 magnesium Substances 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000012811 non-conductive material Substances 0.000 description 1
- 239000002861 polymer material Substances 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000008961 swelling Effects 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/0206—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
- H04M1/0208—Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
- H04M1/0214—Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
- H04M1/0216—Foldable in one direction, i.e. using a one degree of freedom hinge
- H04M1/0218—The hinge comprising input and/or output user interface means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/02—Constructional features of telephone sets
- H04M1/0202—Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
- H04M1/026—Details of the structure or mounting of specific components
- H04M1/0266—Details of the structure or mounting of specific components for a display module assembly
- H04M1/0268—Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04102—Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/12—Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Environmental & Geological Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
본 개시의 다양한 실시예들에 따르면, 전자 장치는, 제1 면, 상기 제1 면과 반대 방향으로 향하는 제2 면, 및 상기 제1 면과 상기 제2 면 사이의 제1 공간을 둘러싸는 제1 측면 부재를 포함하는 제1 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 힌지 구조를 이용하여 상기 제1 하우징과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 상기 제1 면과 동일한 방향을 향하는 제3 면, 상기 제3 면과 반대 방향을 향하는 제4 면, 및 상기 제3 면과 상기 제4 면 사이의 제2 공간을 둘러싸는 제2 측면 부재를 포함하는 제2 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 면의 적어도 일부로부터 상기 제3 면의 적어도 일부에 배치되는 제1 디스플레이를 포함할 수 있다. 일 실시예에서, 전자 장치는, 센서 회로를 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 디스플레이 및 상기 센서 회로와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에서, 상기 프로세서는, 제1 어플리케이션의 제1 정보를 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 센서 회로를 통해 센서 정보를 획득할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 획득된 센서 정보에 기반하여, 상기 제2 면 또는 상기 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시할 수 있다.
본 문서에 개시된 다양한 실시예들 이외의 다른 다양한 실시예들이 가능할 수 있다.According to various embodiments of the present disclosure, an electronic device includes a first surface, a second surface facing in an opposite direction to the first surface, and a second surface surrounding the first space between the first surface and the second surface. It may include a first housing including a side member. In one embodiment, the electronic device is foldably connected to the first housing based on a folding axis using a hinge structure, and in the unfolded state, a third side facing the same direction as the first side, the third side It may include a second housing including a fourth side facing in the opposite direction, and a second side member surrounding a second space between the third side and the fourth side. In one embodiment, the electronic device may include a first display disposed from at least part of the first side to at least part of the third side. In one embodiment, the electronic device may include a sensor circuit. In one embodiment, the electronic device may include a processor operatively connected to the first display and the sensor circuit. In one embodiment, the processor may display first information of the first application on the first display. In one embodiment, the processor may display second information of the second application and first information of the first application in a multi-window on the first display in response to an input for executing a second application. . In one embodiment, the processor may obtain sensor information through the sensor circuit. In one embodiment, when it is confirmed that user interaction is detected on the second side or the fourth side based on the obtained sensor information, the processor determines the type of user interaction and the detected user interaction. You can check location information. In one embodiment, the processor displays at least one display property of first information of the first application and second information of the second application, based on the type of the user interaction and the location information at which the user interaction was detected. can be changed. In one embodiment, the processor may display at least one of the first information and the second information on the first display based on the changed display properties.
Various other embodiments other than those disclosed in this document may be possible.
Description
본 개시의 실시예들은 전자 장치 및 이를 이용한 사용자 인터랙션에 따른 화면 제어 방법에 관한 것이다.Embodiments of the present disclosure relate to an electronic device and a screen control method according to user interaction using the same.
최근, 전자 장치는 장방형 형태의 획일적인 형상에서 벗어나, 다양한 형상으로 변모되어 가고 있다. 예를 들어, 전자 장치는 전자 장치의 휴대성 및 사용성을 만족시키기 위해 디스플레이의 크기를 조절할 수 있는 변형 가능한 구조를 가질 수 있다. 변형 가능한 구조를 가지는 전자 장치는 적어도 두 개의 하우징들이 서로에 대하여 접히거나 펼쳐지는 방식으로 동작하는 폴더블(foldable) 전자 장치 또는 슬라이더블(slidable) 전자 장치를 포함할 수 있다.Recently, electronic devices are moving away from the uniform rectangular shape and are being transformed into various shapes. For example, an electronic device may have a deformable structure that can adjust the size of the display to satisfy the portability and usability of the electronic device. An electronic device having a deformable structure may include a foldable electronic device or a slideable electronic device in which at least two housings operate in a manner in which at least two housings are folded or unfolded relative to each other.
예를 들어, 전자 장치는 적어도 두 개의 하우징들이 서로에 대하여 접히거나 펼쳐짐에 따라 조절되는 디스플레이를 통해 복수의 어플리케이션들의 화면을 제공할 수 있다. 특히, 전자 장치는 디스플레이를 통해 하나의 표시 영역에서 복수의 어플리케이션들의 정보들을 동시에 표시할 수 있는 멀티 윈도우 기능을 제공할 수 있다. 즉, 전자 장치는 디스플레이를 복수의 영역들로 분할하고, 분할된 영역에 동시에 실행 중인 복수의 어플리케이션들의 정보들을 표시할 수 있다.For example, an electronic device may provide screens of a plurality of applications through a display that is adjusted as at least two housings are folded or unfolded relative to each other. In particular, an electronic device can provide a multi-window function that can simultaneously display information from a plurality of applications in one display area through a display. That is, the electronic device can divide the display into a plurality of areas and display information about multiple applications running simultaneously in the divided areas.
전자 장치는 디스플레이를 통해 표시되는 복수의 어플리케이션들의 정보들을 제어하기 위한 방안을 필요로 한다.Electronic devices require a method for controlling information on multiple applications displayed through a display.
본 개시의 일 실시예에 따른 전자 장치는, 복수의 어플리케이션들의 정보들이 디스플레이에 표시되는 중에 센서 회로를 통해 전자 장치의 후면에서의 사용자 인터랙션이 검출되면, 전자 장치의 상태와 사용자 인터랙션의 정보(예: 사용자 인터랙션 타입 정보 및/또는 사용자 인터랙션이 검출된 위치 정보)를 확인할 수 있다. 전자 장치는, 확인된 전자 장치의 상태와 사용자 인터랙션의 정보에 기반하여, 복수의 어플리케이션들의 정보들 중 적어도 하나의 표시 속성을 변경하고, 변경된 표시 속성에 기반하여 적어도 하나의 어플리케이션의 정보를 디스플레이에 표시할 수 있다.The electronic device according to an embodiment of the present disclosure detects user interaction on the back of the electronic device through a sensor circuit while information on a plurality of applications is displayed on the display, and detects the status of the electronic device and information on the user interaction (e.g. : You can check user interaction type information and/or location information where user interaction was detected. The electronic device changes the display attribute of at least one of the information of the plurality of applications based on the confirmed status of the electronic device and information about the user interaction, and displays the information of the at least one application on the display based on the changed display attribute. It can be displayed.
본 개시의 일 실시예에 따른 전자 장치는, 제1 면, 상기 제1 면과 반대 방향으로 향하는 제2 면, 및 상기 제1 면과 상기 제2 면 사이의 제1 공간을 둘러싸는 제1 측면 부재를 포함하는 제1 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 힌지 구조를 이용하여 상기 제1 하우징과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 상기 제1 면과 동일한 방향을 향하는 제3 면, 상기 제3 면과 반대 방향을 향하는 제4 면, 및 상기 제3 면과 상기 제4 면 사이의 제2 공간을 둘러싸는 제2 측면 부재를 포함하는 제2 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 면의 적어도 일부로부터 상기 제3 면의 적어도 일부에 배치되는 제1 디스플레이를 포함할 수 있다. 일 실시예에서, 전자 장치는, 센서 회로를 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 디스플레이 및 상기 센서 회로와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에서, 상기 프로세서는, 제1 어플리케이션의 제1 정보를 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 센서 회로를 통해 센서 정보를 획득할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 획득된 센서 정보에 기반하여, 상기 제2 면 또는 상기 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시할 수 있다.An electronic device according to an embodiment of the present disclosure includes a first side, a second side facing in a direction opposite to the first side, and a first side surrounding the first space between the first side and the second side. It may include a first housing including a member. In one embodiment, the electronic device is foldably connected to the first housing based on a folding axis using a hinge structure, and in the unfolded state, a third side facing the same direction as the first side, the third side It may include a second housing including a fourth side facing in the opposite direction, and a second side member surrounding a second space between the third side and the fourth side. In one embodiment, the electronic device may include a first display disposed from at least part of the first side to at least part of the third side. In one embodiment, the electronic device may include a sensor circuit. In one embodiment, the electronic device may include a processor operatively connected to the first display and the sensor circuit. In one embodiment, the processor may display first information of the first application on the first display. In one embodiment, the processor may display second information of the second application and first information of the first application in a multi-window on the first display in response to an input for executing the second application. . In one embodiment, the processor may obtain sensor information through the sensor circuit. In one embodiment, when it is confirmed that user interaction is detected on the second side or the fourth side based on the obtained sensor information, the processor determines the type of user interaction and the detected user interaction. You can check location information. In one embodiment, the processor displays at least one display attribute of first information of the first application and second information of the second application, based on the type of the user interaction and the location information at which the user interaction was detected. can be changed. In one embodiment, the processor may display at least one of the first information and the second information on the first display based on the changed display properties.
본 개시의 일 실시예에 따른 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 제1 어플리케이션의 제1 정보를 제1 디스플레이에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 센서 회로를 통해 센서 정보를 획득하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 상기 획득된 센서 정보에 기반하여, 상기 전자 장치의 제2 면 또는 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시하는 동작을 포함할 수 있다.A screen control method according to user interaction of an electronic device according to an embodiment of the present disclosure may include displaying first information of a first application on a first display. In one embodiment, a screen control method according to user interaction of an electronic device includes displaying second information of the second application and first information of the first application in a multi-window in response to an input for executing a second application. It may include an operation of displaying information on the first display. In one embodiment, a screen control method based on user interaction of an electronic device may include acquiring sensor information through a sensor circuit. In one embodiment, the screen control method according to user interaction of the electronic device includes, when it is confirmed that user interaction on the second or fourth side of the electronic device is detected based on the obtained sensor information, the user It may include checking the type of interaction and location information where the user interaction was detected. In one embodiment, a screen control method according to user interaction of an electronic device includes first information of the first application and first information of the second application based on the type of the user interaction and location information at which the user interaction was detected. It may include an operation to change the display attribute of at least one of the two pieces of information. In one embodiment, a screen control method according to user interaction of an electronic device includes displaying at least one of the first information and the second information on the first display based on the changed display properties. can do.
본 개시의 일 실시예에 따르면, 하나 이상의 프로그램을 저장하는 비일시적인 컴퓨터 판독가능 저장 매체(또는, 컴퓨터 프로그램 제품(product))가 기술될 수 있다. 일 실시예에 따른 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 제1 어플리케이션의 제1 정보를 제1 디스플레이에 표시하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 센서 회로를 통해 센서 정보를 획득하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 상기 획득된 센서 정보에 기반하여, 상기 전자 장치의 제2 면 또는 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시하는 명령어를 포함할 수 있다.According to one embodiment of the present disclosure, a non-transitory computer-readable storage medium (or computer program product) storing one or more programs may be described. One or more programs according to an embodiment may include instructions that, when executed by a processor of an electronic device, display first information of the first application on the first display. One or more programs, when executed by a processor of an electronic device, in response to an input for executing a second application, displaying second information of the second application and first information of the first application in a multi-window. It can include commands displayed in . One or more programs may include instructions for obtaining sensor information through a sensor circuit. When it is confirmed that user interaction is detected on the second or fourth side of the electronic device based on the acquired sensor information, the one or more programs provide information on the type of user interaction and the location where the user interaction was detected. It may include a command to check. The one or more programs include instructions for changing the display attribute of at least one of first information of the first application and second information of the second application based on the type of user interaction and location information where the user interaction was detected. may include. One or more programs may include instructions for displaying at least one of the first information and the second information on the first display based on the changed display properties.
본 개시의 일 실시예에 따른 전자 장치는, 디스플레이를 이용한 직접적인 사용자 입력(예: 터치 입력) 외, 전자 장치의 후면에서 검출되는 사용자 인터랙션에 기반하여 디스플레이에 표시된 어플리케이션의 정보의 표시 속성을 변경하여 표시함으로써, 사용자에게 편리한 사용성을 제공할 수 있다.An electronic device according to an embodiment of the present disclosure changes the display properties of information of an application displayed on the display based on user interaction detected on the back of the electronic device in addition to direct user input (e.g., touch input) using the display. By displaying it, convenient usability can be provided to the user.
도 1은, 본 개시의 일 실시예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a 및 도 2b는, 본 개시의 일 실시예에 따른, 전자 장치(예: 폴더블 전자 장치)의 펼침(unfolding) 상태를 전면 및 후면에서 바라본 도면이다.
도 3a 및 도 3b는, 본 개시의 일 실시예에 따른, 전자 장치의 접힘(folding) 상태를 전면 및 후면에서 바라본 도면이다.
도 4는, 본 개시의 일 실시예에 따른, 전자 장치의 분리 사시도를 개략적으로 나타내는 도면이다.
도 5는, 본 개시의 일 실시예에 따른, 전자 장치를 도시한 블록도이다.
도 6a는, 본 개시의 일 실시예에 따른, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법을 설명하기 위한 흐름도이다.
도 6b는, 본 개시의 일 실시예에 따른, 전술한 도 6a의 640동작을 설명하기 위한 흐름도이다.
도 7a는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서 검출될 수 있는 사용자 인터랙션을 설명하기 위한 도면이다.
도 7b 및 도 7c는, 본 개시의 일 실시예에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 도면이다.
도 8은, 본 개시의 일 실시예에 따른, 전자 장치의 상태에 기반하여, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 9a 및 도 9b는, 본 개시의 일 실시예에 따른, 관성 센서를 통해 획득되는 센서 정보를 이용하여 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 10a 및 도 10b는, 본 개시의 일 실시예에 따른, 도 7b의 리샘플링부의 동작을 설명하기 위한 도면이다.
도 11은, 본 개시의 일 실시예에 따른, 도 7b의 슬로핑부의 동작을 설명하기 위한 도면이다.
도 12는, 본 개시의 일 실시예에 따른, 도 7b의 피크 식별부의 동작을 설명하기 위한 도면이다.
도 13은, 본 개시의 일 실시예에 따른, 도 7b의 클러스터 생성부의 동작을 설명하기 위한 도면이다.
도 14는, 본 개시의 일 실시예에 따른, 인공지능 모델의 동작을 설명하기 위한 도면이다.
도 15a 및 도 15b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 16은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 17은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 18은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 19는, 본 개시의 일 실시예에 따른, 전자 장치의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 20은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 21a 및 도 21b는, 본 개시의 일 실시예에 따른, 전자 장치의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 22는, 본 개시의 일 실시예에 따른, 전자 장치의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 23은, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서 복수의 어플리케이션들의 정보들을 표시하는 방법을 설명하기 위한 도면이다.
도 24는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서 검출되는 사용자 인터랙션을 설명하기 위한 도면이다.
도 25는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 26은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 27은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 28a 및 도 28b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 29a 및 도 29b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 30은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 31은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 32는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 33은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 34a 및 도 34b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 35a는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서, 전자 장치의 전면을 도시한 평면도이다.
도 35b는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서, 전자 장치의 후면을 도시한 평면도이다.
도 36a는, 본 개시의 일 실시예에 따른, 전자 장치의 접힘 상태(folding state)를 도시한 사시도이다.
도 36b는, 본 개시의 일 실시예에 따른, 전자 장치의 중간 상태(intermediate state)를 도시한 사시도이다.
도 37은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 38은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 39는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 40a 및 도 40b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 41은, 본 개시의 일 실시예에 따른, 전자 장치의 다양한 폼 팩터(form factor)를 설명하기 위한 도면이다.
도 42는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따른 기능을 설정하는 방법을 설명하기 위한 도면이다.1 is a block diagram of an electronic device in a network environment, according to an embodiment of the present disclosure.
FIGS. 2A and 2B are front and rear views of an unfolding state of an electronic device (eg, a foldable electronic device) according to an embodiment of the present disclosure.
3A and 3B are diagrams showing a folded state of an electronic device viewed from the front and rear, according to an embodiment of the present disclosure.
FIG. 4 is a diagram schematically showing an exploded perspective view of an electronic device according to an embodiment of the present disclosure.
Figure 5 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
FIG. 6A is a flowchart illustrating a screen control method according to user interaction of an electronic device, according to an embodiment of the present disclosure.
FIG. 6B is a flowchart for explaining
FIG. 7A is a diagram illustrating user interaction that can be detected when the electronic device is in an unfolded state, according to an embodiment of the present disclosure.
7B and 7C are diagrams for explaining a method for detecting user interaction according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating a method of correcting sensor data of user interaction based on the state of an electronic device, according to an embodiment of the present disclosure.
FIGS. 9A and 9B are diagrams for explaining a method of correcting sensor data of user interaction using sensor information acquired through an inertial sensor, according to an embodiment of the present disclosure.
FIGS. 10A and 10B are diagrams for explaining the operation of the resampling unit of FIG. 7B according to an embodiment of the present disclosure.
FIG. 11 is a diagram for explaining the operation of the sloping unit of FIG. 7B according to an embodiment of the present disclosure.
FIG. 12 is a diagram for explaining the operation of the peak identification unit of FIG. 7B according to an embodiment of the present disclosure.
FIG. 13 is a diagram for explaining the operation of the cluster generator of FIG. 7B according to an embodiment of the present disclosure.
Figure 14 is a diagram for explaining the operation of an artificial intelligence model according to an embodiment of the present disclosure.
FIGS. 15A and 15B are diagrams for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 16 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 17 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 18 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 19 is a diagram for explaining a method of correcting sensor data of user interaction according to the grip of an electronic device, according to an embodiment of the present disclosure.
FIG. 20 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIGS. 21A and 21B are diagrams for explaining a method of correcting sensor data of user interaction according to the grip of an electronic device, according to an embodiment of the present disclosure.
FIG. 22 is a diagram for explaining a method of correcting sensor data of user interaction according to the grip of an electronic device, according to an embodiment of the present disclosure.
FIG. 23 is a diagram illustrating a method of displaying information on a plurality of applications in an unfolded state of an electronic device, according to an embodiment of the present disclosure.
FIG. 24 is a diagram illustrating user interaction detected when the electronic device is in an unfolded state, according to an embodiment of the present disclosure.
FIG. 25 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 26 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 27 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIGS. 28A and 28B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIGS. 29A and 29B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 30 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 31 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 32 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 33 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIGS. 34A and 34B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 35A is a plan view showing the front of the electronic device in an unfolded state, according to an embodiment of the present disclosure.
FIG. 35B is a plan view illustrating the rear of the electronic device in an unfolded state, according to an embodiment of the present disclosure.
Figure 36A is a perspective view showing a folding state of an electronic device, according to an embodiment of the present disclosure.
Figure 36b is a perspective view showing an intermediate state of an electronic device, according to an embodiment of the present disclosure.
FIG. 37 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 38 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 39 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
40A and 40B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 41 is a diagram for explaining various form factors of an electronic device according to an embodiment of the present disclosure.
FIG. 42 is a diagram for explaining a method of setting a function according to user interaction, according to an embodiment of the present disclosure.
도 1은, 본 개시의 일 실시예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.1 is a block diagram of an
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in the
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.The
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다.
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB(printed circuit board)) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.
일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.According to one embodiment, commands or data may be transmitted or received between the
도 2a 및 도 2b는, 본 개시의 일 실시예에 따른, 전자 장치(예: 폴더블 전자 장치)의 펼침(unfolding) 상태를 전면 및 후면에서 바라본 도면이다. 도 3a 및 도 3b는, 본 개시의 일 실시예에 따른, 전자 장치의 접힘(folding) 상태를 전면 및 후면에서 바라본 도면이다.FIGS. 2A and 2B are front and rear views of an unfolding state of an electronic device (eg, a foldable electronic device) according to an embodiment of the present disclosure. 3A and 3B are diagrams showing a folded state of an electronic device viewed from the front and rear, according to an embodiment of the present disclosure.
다양한 실시예들에 따르면, 도 1에 개시된 실시예들은 도 2a 내지 도 3b에 개시된 실시예들에 포함될 수 있다. 예를 들어, 도 2a 내지 도 3b에 개시된 전자 장치(200)는 도 1에 개시된 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 안테나 모듈(197), 및/또는 가입자 식별 모듈(196)을 포함할 수 있다. 도 2a 내지 도 3b에 개시된 전자 장치는 폴더블 전자 장치(200)를 포함할 수 있다. According to various embodiments, the embodiments disclosed in FIG. 1 may be included in the embodiments disclosed in FIGS. 2A to 3B. For example, the
도 2a 내지 도 3b를 참조하면, 본 개시의 다양한 실시예에 따른 전자 장치(200)(예: 폴더블 전자 장치)는, 서로에 대하여 접힘 가능하도록 힌지 장치(예: 도 4의 힌지 플레이트(320))(예: 힌지 모듈)를 통해 폴딩 축(A)을 기준으로 회동 가능하게 결합되는 한 쌍의 하우징들(210, 220)(예: 폴더블 하우징 구조), 한 쌍의 하우징들(210, 220)을 통해 배치되는 플렉서블(flexible) 디스플레이(230)(예: 제1 디스플레이, 폴더블(foldable) 디스플레이 또는 메인 디스플레이), 및/또는 제2 하우징(220)을 통해 배치된 서브 디스플레이(300)(예: 제2 디스플레이)를 포함할 수 있다. 2A to 3B, electronic devices 200 (e.g., foldable electronic devices) according to various embodiments of the present disclosure include a hinge device (e.g., the
다양한 실시예들에 따르면, 힌지 장치(예: 도 4의 힌지 플레이트(320))의 적어도 일부는 제1 하우징(210) 및 제2 하우징(220)을 통해 외부로부터 보이지 않도록 배치되고, 펼침 상태에서, 접힘 가능한 부분을 커버하는 힌지 커버(310)(예: 힌지 하우징)를 통해 외부로부터 보이지 않게 배치될 수 있다. 본 문서에서, 플렉서블 디스플레이(230)가 배치된 면은 전자 장치(200)의 전면으로 정의될 수 있고, 전면의 반대면은 전자 장치(200)의 후면으로 정의될 수 있다. 상기 전면 및 후면 사이의 공간을 둘러싸는 면은 전자 장치(200)의 측면으로 정의될 수 있다.According to various embodiments, at least a portion of the hinge device (e.g., the
다양한 실시예들에 따르면, 한 쌍의 하우징들(210, 220)은 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해 서로에 대하여 폴딩 가능하게 배치되는 제1 하우징(210) 및 제2 하우징(220)을 포함할 수 있다. 한 쌍의 하우징들(210, 220)은 도 2a 내지 도 3b에 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수도 있다. 제1 하우징(210) 및 제2 하우징(220)은 폴딩 축(A)을 기준으로 양측에 배치되고, 폴딩 축(A)에 대하여 전체적으로 대칭인 형상을 가질 수 있다. 어떤 실시예에 따르면, 제1 하우징(210) 및 제2 하우징(220)은 폴딩 축(A)을 기준으로 비대칭으로 접힐 수도 있다. 제1 하우징(210) 및 제2 하우징(220)은 전자 장치(200)가 펼침 상태, 접힘 상태, 또는 중간 상태(intermediate state)인지의 여부에 따라 서로 이루는 각도나 거리가 서로 달라질 수 있다. According to various embodiments, a pair of
다양한 실시예들에 따르면, 제1 하우징(210)은 전자 장치(200)의 펼침 상태에서, 힌지 장치(예: 도 4의 힌지 플레이트(320))에 연결되며, 전자 장치(200)의 전면을 향하도록 배치된 제1 면(211), 제1 면(211)의 반대 방향을 향하는 제2 면(212), 및/또는 제1 면(211)과 제2 면(212) 사이의 제1 공간(2101)의 적어도 일부를 둘러싸는 제1 측면 부재(213)를 포함할 수 있다. 한 실시예에 따르면, 제1 측면 부재(213)는 제1 방향(예: x축 방향)을 따라 제1 길이를 갖는 제1 측면(213a), 제1 측면(213a)으로부터 실질적으로 수직한 방향(예: -y축 방향)을 따라 제1 길이보다 긴 제2 길이를 갖도록 연장된 제2 측면(213c), 및 제2 측면(213c)으로부터 제1 측면(213a)과 실질적으로 평행하게 연장되고 제1 길이를 갖는 제3 측면(213b)을 포함할 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 제2 하우징(220)은 전자 장치(200)의 펼침 상태에서, 힌지 장치(예: 도 4의 힌지 플레이트(320))와 연결되며, 전자 장치(200)의 전면을 향하도록 배치된 제3 면(221), 제3 면(221)의 반대 방향을 향하는 제4 면(222), 및/또는 제3 면(221)과 제4 면(222) 사이의 제2 공간(2201)의 적어도 일부를 둘러싸는 제2 측면 부재(223)를 포함할 수 있다. 한 실시예에 따르면, 제2 측면 부재(223)는 제1 방향(예: x축 방향)을 따라 제1 길이를 갖는 제4 측면(223a), 제4 측면(223a)으로부터 실질적으로 수직한 방향(예: -y축 방향)을 따라 제1 길이보다 긴 제2 길이를 갖도록 연장된 제5 측면(223c), 및 제5 측면(223c)으로부터 제4 측면(223a)과 실질적으로 평행하게 연장되고 제1 길이를 갖는 제6 측면(223b)을 포함할 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 제1 면(211)은, 펼침 상태에서 제3 면(221)과 실질적으로 동일한 방향을 향하고, 접힘 상태에서 제3 면(221)과 마주보도록 적어도 부분적으로 대면될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(200)는 제1 하우징(210) 및 제2 하우징(220)의 구조적 결합을 통해 플렉서블 디스플레이(230)를 수용하도록 형성된 리세스(201)를 포함할 수도 있다. 리세스(201)는 플렉서블 디스플레이(230)와 실질적으로 동일한 크기를 가질 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 힌지 커버(310)(예: 힌지 하우징)는, 제1 하우징(210) 및 제2 하우징(220) 사이에 배치될 수 있다. 힌지 커버(310)는 힌지 장치(예: 도 4의 힌지 플레이트(320))의 일부(예: 적어도 하나의 힌지 모듈)를 가리도록 배치될 수 있다. 힌지 커버(310)는, 전자 장치(200)의 펼침 상태, 접힘 상태, 또는 중간 상태에 따라, 제1 하우징(210) 및 제2 하우징(220)의 일부에 의해 가려지거나, 외부로 노출될 수 있다. According to various embodiments, the hinge cover 310 (eg, hinge housing) may be disposed between the
다양한 실시예들에 따르면, 전자 장치(200)가 펼침 상태인 경우, 힌지 커버(310)의 적어도 일부는 제1 하우징(210) 및 제2 하우징(220)에 의해 가려져 실질적으로 노출되지 않을 수 있다. 전자 장치(200)가 접힘 상태인 경우, 힌지 커버(310)의 적어도 일부는 제1 하우징(210) 및 제2 하우징(220) 사이에서 외부로 노출될 수 있다. 제1 하우징(210) 및 제2 하우징(220)이 소정의 각도를 이루는(folded with a certain angle) 중간 상태인 경우, 힌지 커버(310)는 제1 하우징(210) 및 제2 하우징(220) 사이에서 전자 장치(200)의 외부로 적어도 부분적으로 노출될 수 있다. 예를 들어, 힌지 커버(310)가 외부로 노출되는 영역은 완전히 접힌 상태보다 적을 수 있다. 힌지 커버(310)는 적어도 부분적으로 곡면을 포함할 수 있다. According to various embodiments, when the
다양한 실시예들에 따르면, 전자 장치(200)가 펼침 상태(예: 도 2a 및 도 2b의 상태)인 경우, 제1 하우징(210) 및 제2 하우징(220)은 약 180도의 각도를 이루고, 플렉서블 디스플레이(230)의 제1 영역(230a), 제2 영역(230b), 및 폴딩 영역(230c)은 동일 평면을 이루며, 실질적으로 동일 방향(예: z축 방향)을 향하도록 배치될 수 있다. According to various embodiments, when the
다양한 실시예들에 따르면, 전자 장치(200)가 접힘 상태(예: 도 3a 및 도 3b의 상태)인 경우, 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)은 서로 마주보게 배치될 수 있다. 이 경우, 플렉서블 디스플레이(230)의 제1 영역(230a) 및 제2 영역(230b)은 폴딩 영역(230c)을 통해, 서로 좁은 각도(예: 0도~약 10도 범위)를 형성하고, 서로 마주보도록 배치될 수도 있다. 다른 실시예에서, 전자 장치(200)가 접힘 상태인 경우, 제1 하우징(210)은 제2 하우징(220)에 대하여 약 360도의 각도로 회동하여 제2 면(212) 및 제4 면(222)이 마주보도록 반대로 접힐 수도 있다(예: out folding 방식).According to various embodiments, when the
다양한 실시예들에 따르면, 폴딩 영역(230c)은 적어도 일부가 소정의 곡률을 가지는 곡형으로 변형될 수 있다. 전자 장치(200)가 중간 상태인 경우, 제1 하우징(210) 및 제2 하우징(220)은 서로 소정의 각도(a certain angle)로 배치될 수 있다. 이 경우, 플렉서블 디스플레이(230)의 제1 영역(230a)과 제2 영역(230b)은 접힘 상태보다 크고, 펼침 상태보다 작은 각도를 형성할 수 있으며, 폴딩 영역(230c)의 곡률은 접힘 상태인 경우보다 작을 수 있고, 펼침 상태보다 클 수 있다.According to various embodiments, at least a portion of the
다양한 실시예들에 따르면, 제1 하우징(210) 및 제2 하우징(220)은, 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해, 접힘 상태에서 펼침 상태 사이의 지정된 폴딩 각도에서 멈출 수 있는 각도를 형성할 수 있다(예: free stop 기능). 어떤 실시예에서, 제1 하우징(210) 및 제2 하우징(220)은, 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해, 지정된 변곡 각도를 기준으로, 펼쳐지는 방향 또는 접히는 방향으로, 가압 받으면서 지속적으로 동작될 수도 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(200)는, 제1 하우징(210) 및/또는 제2 하우징(220)에 배치되는 적어도 하나의 디스플레이(예: 플렉서블 디스플레이(230), 서브 디스플레이(300)), 입력 장치(215), 음향 출력 장치(227, 228), 센서 모듈(217a, 217b, 226), 카메라 모듈(216a, 216b, 225), 키 입력 장치(219), 인디케이터(미도시 됨), 또는 커넥터 포트(229) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에서, 전자 장치(200)는, 상술한 구성 요소들 중 적어도 하나를 생략하거나 적어도 하나의 다른 구성 요소를 추가적으로 포함할 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 적어도 하나의 디스플레이(예: 플렉서블 디스플레이(230), 서브 디스플레이(300))는, 제1 하우징(210)의 제1 면(211)으로부터 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해 제2 하우징(220)의 제3 면(221)의 지지를 받도록 배치되는 플렉서블 디스플레이(230)(예: 제1 디스플레이) 및 제2 하우징(220)의 내부 공간에서 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 서브 디스플레이(300)(예: 제2 디스플레이)를 포함할 수 있다. 어떤 실시예에서, 서브 디스플레이(300)는 제1 하우징(210)의 내부 공간에서 제2 면(212)을 통해 외부로부터 보일 수 있게 배치될 수도 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)는, 전자 장치(200)의 펼침 상태에서 주로 사용될 수 있으며, 서브 디스플레이(300)는, 전자 장치(200)의 접힘 상태에서 주로 사용될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 중간 상태의 경우, 제1 하우징(210) 및 제2 하우징(220)의 폴딩 각도에 기반하여 플렉서블 디스플레이(230) 및/또는 서브 디스플레이(300)를 사용 가능하게 제어할 수도 있다.According to various embodiments, at least one display (e.g.,
다양한 실시예들에 따르면, 플렉서블 디스플레이(230)는, 한 쌍의 하우징들(210, 220)에 의해 형성된 수용 공간에 배치될 수 있다. 예를 들어, 플렉서블 디스플레이(230)는 한 쌍의 하우징들(210, 220)에 의해 형성되는 리세스(recess)(201)에 배치될 수 있으며, 펼침 상태에서, 전자 장치(200)의 전면의 실질적으로 대부분을 차지하도록 배치될 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)는, 적어도 일부 영역이 평면 또는 곡면으로 변형될 수 있다. 플렉서블 디스플레이(230)는 제1 하우징(210)과 대면하는 제1 영역(230a), 제2 하우징(220)과 대면하는 제2 영역(230b), 및 제1 영역(230a)과 제2 영역(230b)을 연결하고, 힌지 장치(예: 도 4의 힌지 플레이트(320))와 대면하는 폴딩 영역(230c)을 포함할 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)의 영역 구분은 한 쌍의 하우징(210, 220) 및 힌지 장치(예: 도 4의 힌지 플레이트(320))에 의한 예시적인 물리적 구분일 뿐, 실질적으로 한 쌍의 하우징(210, 220) 및 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해 플렉서블 디스플레이(230)는 이음매 없는(seamless), 하나의 전체 화면으로 표시될 수 있다. 제1 영역(230a) 및 제2 영역(230b)은 폴딩 영역(230c)을 기준으로 전체적으로 대칭인 형상을 가지거나, 부분적으로 비대칭 형상을 가질 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(200)는 제1 하우징(210)의 제2 면(212)에 배치되는 제1 후면 커버(240) 및 제2 하우징(220)의 제4 면(222)에 배치되는 제2 후면 커버(250)를 포함할 수 있다. 어떤 실시예에서, 제1 후면 커버(240)의 적어도 일부는 제1 측면 부재(213)와 일체로 형성될 수도 있다. 어떤 실시예에서, 제2 후면 커버(250)의 적어도 일부는 제2 측면 부재(223)와 일체로 형성될 수도 있다. 일 실시예에 따르면, 제1 후면 커버(240) 및 제2 후면 커버(250) 중 적어도 하나는 실질적으로 투명한 플레이트(예: 다양한 코팅 레이어들을 포함하는 글라스 플레이트, 또는 폴리머 플레이트) 또는 불투명한 플레이트로 형성될 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 제1 후면 커버(240)는, 예를 들어, 코팅 또는 착색된 유리, 세라믹, 폴리머, 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합과 같은, 불투명한 플레이트에 의하여 형성될 수 있다. 제2 후면 커버(250)는, 예를 들어, 글래스 또는 폴리머와 같은, 실질적으로 투명한 플레이트를 통해 형성될 수 있다. 이 경우, 제2 디스플레이(300)는 제2 하우징(220)의 내부 공간에서, 제2 후면 커버(250)를 통해 외부로부터 보일 수 있게 배치될 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 입력 장치(215)는, 마이크를 포함할 수 있다. 어떤 실시예에서, 입력 장치(215)는 소리의 방향을 감지할 수 있도록 배치되는 복수 개의 마이크들을 포함할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 음향 출력 장치(227, 228)는 스피커들을 포함할 수 있다. 일 실시예에 따르면, 음향 출력 장치(227, 228)는, 제2 하우징(220)의 제4 면(222)을 통해 배치되는 통화용 리시버(227) 및 제2 하우징(220)의 제2 측면 부재(223)의 적어도 일부를 통해 배치되는 외부 스피커(228)를 포함할 수 있다. 어떤 실시예에서, 입력 장치(215), 음향 출력 장치(227, 228), 및 커넥터 포트(229)는 제1 하우징(210) 및/또는 제2 하우징(220)의 공간들에 배치되고, 제1 하우징(210) 및/또는 제2 하우징(220)에 형성된 적어도 하나의 홀을 통하여 외부 환경에 노출될 수 있다. 어떤 실시예에서, 제1 하우징(210) 및/또는 제2 하우징(220)에 형성된 홀들은 입력 장치(215) 및 음향 출력 장치(227, 228)를 위하여 공용으로 사용될 수 있다. 어떤 실시예에서, 음향 출력 장치(227, 228)는 제1 하우징(210) 및/또는 제2 하우징(220)에 형성된 홀이 배제된 채, 동작되는 스피커(예: 피에조 스피커)를 포함할 수도 있다.According to various embodiments, the
다양한 실시예들에 따르면, 카메라 모듈(216a, 216b, 225)은, 제1 하우징(210)의 제1 면(211)에 배치되는 제1 카메라 모듈(216a), 제1 하우징(210)의 제2 면(212)에 배치되는 제2 카메라 모듈(216b), 및/또는 제2 하우징(220)의 제4 면(222)에 배치되는 제3 카메라 모듈(225)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제2 카메라 모듈(216b) 근처에 배치되는 플래시(218)를 포함할 수 있다. 플래시(218)는, 예를 들어, 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈들(216a, 216b, 225)은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 어떤 실시예에서, 카메라 모듈들(216a, 216b, 225) 중 적어도 하나의 카메라 모듈은 2개 이상의 렌즈들(예: 광각 및 망원 렌즈) 및 이미지 센서들을 포함하고, 제1 하우징(210) 및/또는 제2 하우징(220)의 어느 한 면에 함께 배치될 수도 있다.According to various embodiments, the
다양한 실시예들에 따르면, 센서 모듈(217a, 217b, 226)은, 전자 장치(200)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(217a, 217b, 226)은, 제1 하우징(210)의 제1 면(211)에 배치되는 제1 센서 모듈(217a), 제1 하우징(210)의 제2 면(212)에 배치되는 제2 센서 모듈(217b), 및/또는 제2 하우징(220)의 제4 면(222)에 배치되는 제3 센서 모듈(226)을 포함할 수 있다. 어떤 실시예에서, 센서 모듈(217a, 217b, 226)은 제스처 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 조도 센서, 초음파 센서, 홍채 인식 센서, 또는 거리 검출 센서(예: TOF(time of flight) 센서 또는 LiDAR(light detection and ranging)) 중 적어도 하나를 포함할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(200)는, 도시되지 않은 센서 모듈, 예를 들어, 기압 센서, 마그네틱 센서, 생체 센서, 온도 센서, 습도 센서, 또는 지문 인식 센서 중 적어도 하나를 더 포함할 수 있다. 어떤 실시예에서, 지문 인식 센서는 제1 하우징(210)의 제1 측면 부재(213) 및/또는 제2 하우징(220)의 제2 측면 부재(223) 중 적어도 하나의 측면 부재를 통해 배치될 수도 있다.According to various embodiments, the
다양한 실시예들에 따르면, 키 입력 장치(219)는, 제1 하우징(210)의 제1 측면 부재(213)를 통해 외부로 노출되도록 배치될 수 있다. 어떤 실시예에서, 키 입력 장치(219)는 제2 하우징(220)의 제2 측면 부재(223)를 통해 외부로 노출되도록 배치될 수도 있다. 어떤 실시예에서, 전자 장치(200)는 키 입력 장치(219)들 중 일부 또는 전부를 포함하지 않을 수 있고, 포함되지 않은 키 입력 장치(219)는 적어도 하나의 디스플레이(230, 300) 상에 소프트 키와 같은 다른 형태로 구현될 수 있다. 다른 실시예에서, 키 입력 장치(219)는 적어도 하나의 디스플레이(230, 300)에 포함된 압력 센서를 이용하여 구현될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 커넥터 포트(229)는, 외부 전자 장치(예: 도 1a의 외부 전자 장치(102, 104, 108))와 전력 및/또는 데이터를 송수신하기 위한 커넥터(예: USB 커넥터 또는 IF 모듈(interface connector port 모듈))를 포함할 수 있다. 어떤 실시예에서, 커넥터 포트(229)는 외부 전자 장치와 오디오 신호를 송수신하기 위한 기능을 함께 수행하거나, 오디오 신호의 송수신 기능을 수행하기 위한 별도의 커넥터 포트(예: 이어잭 홀)를 더 포함할 수도 있다.According to various embodiments, the
다양한 실시예들에 따르면, 카메라 모듈들(216a, 216b, 225) 중 적어도 하나의 카메라 모듈(216a, 225), 센서 모듈들(217a, 217b, 226) 중 적어도 하나의 센서 모듈(217a, 226), 및/또는 인디케이터는 적어도 하나의 디스플레이(230, 300)를 통해 노출되도록 배치될 수 있다. 예를 들어, 적어도 하나의 카메라 모듈(216a, 225), 적어도 하나의 센서 모듈(217a, 226), 및/또는 인디케이터는 적어도 하나의 하우징(210, 220)의 내부 공간에서, 적어도 하나의 디스플레이(230, 300)의 활성화 영역(display area) 아래에 배치되고, 커버 부재(예: 플렉서블 디스플레이(230)의 윈도우층(미도시 됨) 및/또는 제2 후면 커버(250))까지 천공된 오프닝 또는 투명 영역을 통해 외부 환경과 접할 수 있도록 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 디스플레이(230, 300)와 적어도 하나의 카메라 모듈(216a, 225)이 대면하는 영역은 컨텐츠를 표시하는 영역의 일부로서 일정 투과율을 갖는 투과 영역으로 형성될 수 있다. 일 실시예에 따르면, 투과 영역은 약 5%~약 20% 범위의 투과율을 갖도록 형성될 수 있다. 투과 영역은 이미지 센서로 결상되어 화상을 생성하기 위한 광이 통과하는 적어도 하나의 카메라 모듈(216a, 225)의 유효 영역(예: 화각 영역)과 중첩되는 영역을 포함할 수 있다. 예를 들어, 적어도 하나의 디스플레이(230, 300)의 투과 영역은 주변 보다 픽셀의 밀도가 낮은 영역을 포함할 수 있다. 예를 들어, 투과 영역은 오프닝을 대체할 수 있다. 예를 들어, 적어도 하나의 카메라 모듈(216a, 225)은 언더 디스플레이 카메라(UDC, under display camera) 또는 언더 패널 카메라(UPC, under panel camera)를 포함할 수 있다. 다른 실시예에서, 일부 카메라 모듈 또는 센서 모듈(217a, 226)은 디스플레이를 통해 시각적으로 노출되지 않고 그 기능을 수행하도록 배치될 수도 있다. 예를 들어, 적어도 하나의 디스플레이(230, 300)(예: 디스플레이 패널) 아래에 배치된 카메라 모듈(216a, 225) 및/또는 센서 모듈(217a, 226)과 대면하는 영역은, UDC(under display camera) 구조로써, 천공된 오프닝이 불필요할 수도 있다.According to various embodiments, at least one
도 4는, 본 개시의 일 실시예에 따른, 전자 장치의 분리 사시도를 개략적으로 나타내는 도면이다.FIG. 4 is a diagram schematically showing an exploded perspective view of an electronic device according to an embodiment of the present disclosure.
도 4를 참조하면, 전자 장치(200)는 플렉서블 디스플레이(230)(예: 제1 디스플레이), 서브 디스플레이(300)(예: 제2 디스플레이), 힌지 플레이트(320), 한 쌍의 지지 부재들(예: 제1 지지 부재(261), 제2 지지 부재(262)), 적어도 하나의 기판(270)(예: 인쇄 회로 기판(PCB, printed circuit board)), 제1 하우징(210), 제2 하우징(220), 제1 후면 커버(240), 및/또는 제2 후면 커버(250)를 포함할 수 있다. Referring to FIG. 4, the
다양한 실시예들에 따르면, 플렉서블 디스플레이(230)는 디스플레이 패널(430)(예: 플렉서블 디스플레이 패널), 디스플레이 패널(430)의 하부(예: -z축 방향)에 배치된 지지 플레이트(450), 및 지지 플레이트(450)의 하부(예: -z축 방향)에 배치된 한 쌍의 메탈 플레이트들(461, 462)을 포함할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 디스플레이 패널(430)은 플렉서블 디스플레이(230)의 제1 영역(예: 도 2a의 제1 영역(230a))과 대응하는 제1 패널 영역(430a), 제1 패널 영역(430a)으로부터 연장되고, 플렉서블 디스플레이(230)의 제2 영역(예: 도 2a의 제2 영역(230b))과 대응하는 제2 패널 영역(430b), 및 제1 패널 영역(430a)과 제2 패널 영역(430b)을 연결하고, 플렉서블 디스플레이(230)의 폴딩 영역(예: 도 2a의 폴딩 영역(230c))과 대응하는 제3 패널 영역(430c))을 포함할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 지지 플레이트(450)는 디스플레이 패널(430)과 한 쌍의 지지 부재들(261, 262) 사이에 배치되고, 제1 패널 영역(430a) 및 제2 패널 영역(430b)을 위한 평면형 지지 구조 및 제3 패널 영역(430c)에 굴곡성에 도움을 주기 위한 굴곡 가능 구조를 제공하기 위한 소재 및 형상을 갖도록 형성될 수 있다. 일 실시예에 따르면, 지지 플레이트(450)는 도전성 소재(예: 금속) 또는 비도전성 소재(예: 폴리머 또는 FRP(fiber reinforced plastics))로 형성될 수 있다. 일 실시예에 따르면, 한 쌍의 메탈 플레이트들(461, 462)은, 지지 플레이트(450)와 한 쌍의 지지 부재들(261, 262) 사이에서, 제1 패널 영역(430a) 및 제3 패널 영역(430c)의 적어도 일부와 대응하도록 배치된 제1 메탈 플레이트(461) 및 제2 패널 영역(430b) 및 제3 패널 영역(430c)의 적어도 일부와 대응하도록 배치된 제2 메탈 플레이트(462)를 포함할 수 있다. 일 실시예에 따르면, 한 쌍의 메탈 플레이트들(461, 462)은 금속 소재(예: SUS)로 형성됨으로써, 플렉서블 디스플레이(230)를 위한 그라운드 연결 구조 및 강성 보강에 도움을 줄 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 서브 디스플레이(300)는 제2 하우징(220)과 제2 후면 커버(250) 사이의 공간에 배치될 수 있다. 일 실시예에 따르면, 서브 디스플레이(300)는 제2 하우징(220)과 제2 후면 커버(250) 사이의 공간에서, 제2 후면 커버(250)의 실질적으로 전체 면적을 통해 외부로부터 보일 수 있게 배치될 수 있다.According to various embodiments, the sub-display 300 may be disposed in the space between the
다양한 실시예들에 따르면, 제1 지지 부재(261)의 적어도 일부는 힌지 플레이트(320)를 통해 제2 지지 부재(262)와 접힘 가능하게 결합될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제1 지지 부재(261)의 적어도 일부로부터 힌지 플레이트(320)를 가로질러, 제2 지지 부재(262)의 일부까지 배치되는 적어도 하나의 배선 부재(263)(예: 연성 회로 기판(FPCB; flexible printed circuit board))를 포함할 수 있다. 일 실시예에 따르면, 제1 지지 부재(261)는 제1 측면 부재(213)로부터 연장되거나, 제1 측면 부재(213)와 구조적으로 결합되는 방식으로 배치될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제1 지지 부재(261)와 제1 후면 커버(240)를 통해 제공된 제1 공간(예: 도 2a의 제1 공간(2101))을 포함할 수 있다. According to various embodiments, at least a portion of the
다양한 실시예들에 따르면, 제1 하우징(210)(예: 제1 하우징 구조)은 제1 측면 부재(213), 제1 지지 부재(261), 및 제1 후면 커버(240)의 결합을 통해 구성될 수 있다. 일 실시예에 따르면, 제2 지지 부재(262)는 제2 측면 부재(223)로부터 연장되거나, 제2 측면 부재(223)와 구조적으로 결합되는 방식으로 배치될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제2 지지 부재(262)와 제2 후면 커버(250)를 통해 제공된 제2 공간(예: 도 2a의 제2 공간(2201))을 포함할 수 있다. According to various embodiments, the first housing 210 (e.g., a first housing structure) is formed through a combination of the
다양한 실시예들에 따르면, 제2 하우징(220)(예: 제2 하우징 구조)은 제2 측면 부재(223), 제2 지지 부재(262), 및 제2 후면 커버(250)의 결합을 통해 구성될 수 있다. 일 실시예에 따르면, 적어도 하나의 배선 부재(263) 및/또는 힌지 플레이트(320)의 적어도 일부는 한 쌍의 지지 부재들(261, 262)의 적어도 일부를 통해 지지 받도록 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 배선 부재(263)는 제1 지지 부재(261)와 제2 지지 부재(262)를 가로지르는 방향(예: x축 방향)으로 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 배선 부재(263)는 폴딩 축(예: y축 또는 도 2a의 폴딩 축(A))에 실질적으로 수직한 방향(예: x축 방향)으로 배치될 수 있다.According to various embodiments, the second housing 220 (e.g., a second housing structure) is formed through a combination of the
다양한 실시예들에 따르면, 적어도 하나의 기판(270)은, 제1 공간(2101)에 배치된 제1 기판(271) 및 제2 공간(2201)에 배치된 제2 기판(272)을 포함할 수 있다. 일 실시예에 따르면, 제1 기판(271)과 제2 기판(272)은 전자 장치(200)의 다양한 기능을 구현하기 위하여 배치되는 적어도 하나의 전자 부품들을 포함할 수 있다. 일 실시예에 따르면, 제1 기판(271)과 제2 기판(272)은 적어도 하나의 배선 부재(263)를 통해 전기적으로 연결될 수 있다.According to various embodiments, the at least one
다양한 실시예들에 따르면, 전자 장치(200)는 적어도 하나의 배터리(291, 292)를 포함할 수 있다. 일 실시예에 따르면, 적어도 하나의 배터리(291, 292)는 제1 하우징(210)의 제1 공간(2101)에 배치되고, 제1 기판(271)과 전기적으로 연결된 제1 배터리(291) 및 제2 하우징(220)의 제2 공간(2201)에 배치되고, 제2 기판(272)과 전기적으로 연결된 제2 배터리(292)를 포함할 수 있다. 일 실시예에 따르면, 제1 지지 부재(261) 및 제2 지지 부재(262)는 제1 배터리(291) 및 제2 배터리(292)를 위한 적어도 하나의 스웰링 홀을 더 포함할 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 제1 하우징(210)은 제1 회전 지지면(214)을 포함할 수 있고, 제2 하우징(220)은 제1 회전 지지면(214)에 대응되는 제2 회전 지지면(224)을 포함할 수 있다. 일 실시예에 따르면, 제1 회전 지지면(214)과 제2 회전 지지면(224)은 힌지 커버(310)의 곡형의 외면과 대응되는 곡면을 포함할 수 있다. 일 실시예에 따르면, 제1 회전 지지면(214)과 제2 회전 지지면(224)은 전자 장치(200)가 펼침 상태인 경우, 힌지 커버(310)를 커버함으로써, 힌지 커버(310)를 전자 장치(200)의 후면으로 노출시키지 않거나 일부만 노출시킬 수 있다. 일 실시예에 따르면, 제1 회전 지지면(214)과 제2 회전 지지면(224)은 전자 장치(200)가 접힘 상태인 경우, 힌지 커버(310)의 곡형이 외면을 따라 회전하여 힌지 커버(310)를 전자 장치(200)의 후면으로 적어도 일부 노출시킬 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(200)는 제1 공간(2101)에 배치된 적어도 하나의 안테나(276)를 포함할 수 있다. 일 실시예에 따르면, 적어도 하나의 안테나(276)는 제1 공간(2101)에서, 제1 배터리(291)와 제1 후면 커버(240) 사이에 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 안테나(276)는, 예를 들어, NFC(near field communication) 안테나, 무선 충전 안테나, 및/또는 MST(magnetic secure transmission) 안테나를 포함할 수 있다. 일 실시예에 따르면, 적어도 하나의 안테나(276)는, 예를 들어, 외부 장치와 근거리 통신을 하거나, 충전에 필요한 전력을 무선으로 송수신 할 수 있다. 어떤 실시예에서, 제1 측면 부재(213) 또는 제2 측면 부재(223)의 적어도 일부, 및/또는 제1 지지 부재(261)와 제2 지지 부재(262)의 일부 또는 그 조합에 의하여 안테나 구조가 형성될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(200)는 제1 공간(2101) 및/또는 제2 공간(2201)에 배치된 적어도 하나의 전자 부품 어셈블리(274, 275) 및/또는 추가적인 지지 부재들(273, 277)을 더 포함할 수도 있다. 예를 들어, 적어도 하나의 전자 부품 어셈블리(274, 275)는 인터페이스 커넥터 포트 어셈블리(274) 또는 스피커 어셈블리(275)를 포함할 수 있다.According to various embodiments, the
도 5는, 본 개시의 일 실시예에 따른, 전자 장치(501)를 도시한 블록도(500)이다.FIG. 5 is a block diagram 500 illustrating an
도 5를 참조하면, 전자 장치(501)(예: 도 1의 전자 장치(101), 도 2a 내지 도 4의 전자 장치(200))는 무선 통신 회로(510)(예: 도 1의 통신 모듈(190)), 메모리(520)(예: 도 1의 메모리(130)), 디스플레이(530)(예: 도 1의 디스플레이 모듈(160), 도 2a 내지 도 4의 디스플레이(230, 300)), 센서 회로(540)(예: 도 1의 센서 모듈(176)), 및/또는 프로세서(550)(예: 도 1의 프로세서(120))를 포함할 수 있다.Referring to FIG. 5, the electronic device 501 (e.g., the
본 개시의 일 실시예에 따르면, 무선 통신 회로(510)(예: 도 1의 통신 모듈(190))는 외부 전자 장치(예: 도 1의 전자 장치(102))와 통신 채널을 설립하고, 외부 전자 장치와 다양한 데이터를 송수신하도록 지원할 수 있다.According to one embodiment of the present disclosure, the wireless communication circuit 510 (e.g.,
일 실시예에서, 무선 통신 회로(510)는 프로세서(550)의 제어 하에, 센서 회로(540)를 통해 획득되는 센서 데이터들을 서버(예: 도 1의 서버(108))(예: 지능형 서버)에 전송하고, 서버로부터 인공지능에 의해 머신 러닝(machine learning) 학습으로 학습된 학습 모델을 수신할 수 있다.In one embodiment, the
본 개시의 일 실시예에 따르면, 메모리(520)(예: 도 1의 메모리(130))는 전자 장치(501)의 프로세서(550)의 처리 및 제어를 위한 프로그램(예: 도 1의 프로그램(140)), 운영 체제(operating system, OS)(예: 도 1의 운영 체제(142)), 다양한 어플리케이션, 및/또는 입/출력 데이터를 저장하는 기능을 수행하며, 전자 장치(501)의 전반적인 동작을 제어하는 프로그램을 저장할 수 있다. 메모리(520)는 프로세서(550)에 의해 수행될 수 있는 다양한 인스트럭션들(instructions)을 저장할 수 있다.According to an embodiment of the present disclosure, the memory 520 (e.g., the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 전자 장치(501)의 제1 하우징(210)과 제2 하우징(220) 간의 각도 변화에 기반하여, 전자 장치(501)의 상태(예: 펼침 상태 또는 접힘 상태)를 검출하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 센서 회로(540)에 포함된 적어도 하나의 센서, 예를 들어, 관성 센서(541) 및/또는 그립 센서(543)를 통해 획득(또는 측정)된 센서 정보에 기반하여, 전자 장치(501)의 상태를 검출하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment,
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 관성 센서(541) 및/또는 그립 센서(543)를 통해 획득(또는 측정)된 센서 정보에 기반하여, 전자 장치(501)의 후면(예: 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))에서의 사용자 인터랙션을 검출하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 관성 센서(541) 및/또는 그립 센서(543)를 통해 획득(또는 측정)된 센서 정보에 기반하여, 전자 장치(501)의 후면에서 검출되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 결정(또는 확인, 또는 식별)하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 센서 회로(540)를 통해 획득되는 센서 데이터들 및 센서 데이터들에 기반하여 결정(또는 확인)되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 누적하여 저장할 수 있다. 메모리(520)는 프로세서(550)의 제어 하에, 저장된 센서 정보 및 이에 기반한 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하고, 학습된 모델을 생성하기 위한 인스트럭션들을 저장할 수 있다. 메모리(520)는 프로세서(550)의 제어 하에, 학습된 모델에 기반하여, 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 결정(또는 확인, 또는 식별)하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 센서 회로(540)를 통해 획득되는 센서 데이터들을 무선 통신 회로(510)를 통해 서버(예: 지능형 서버)에 전송하고, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여, 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 결정(또는 확인, 또는 식별)하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 결정(또는 확인, 또는 식별)된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보에 기반하여, 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시된 적어도 하나의 어플리케이션의 정보의 표시 속성을 변경하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 변경된 표시 속성에 기반하여, 적어도 하나의 어플리케이션의 정보를 표시하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the
본 개시의 일 실시예에 따르면, 디스플레이(530)(예: 도 1의 디스플레이 모듈(160), 도 2a 내지 도 4의 디스플레이(230, 300))는 터치 패널(미도시)을 포함하는 일체형으로 구성되어, 프로세서(550)의 제어 하에 영상을 표시할 수 있다.According to an embodiment of the present disclosure, the display 530 (e.g., the
일 실시예에서, 디스플레이(530)는 제1 디스플레이(531)(예: 도 2a의 제1 디스플레이(230)) 및 제2 디스플레이(533)(예: 도 2b의 제2 디스플레이(300))를 포함할 수 있다. 일 실시예에서, 제1 디스플레이(531)는 프로세서(550)의 제어 하에, 전자 장치(501)가 펼침 상태에서 활성화되고, 전자 장치(501)가 접힘 상태에서 비활성화될 수 있다. 제2 디스플레이(533)는 프로세서(550)의 제어 하에, 전자 장치(501)가 접힘 상태에서 활성화되고, 전자 장치(501)가 펼침 상태에서 비활성화될 수 있다.In one embodiment, the
일 실시예에서, 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))는 프로세서(550)의 제어 하에, 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 변경된 표시 속성에 기반하여, 적어도 하나의 어플리케이션의 정보를 표시할 수 있다.In one embodiment, the display 530 (e.g., the
본 개시의 일 실시예에 따르면, 센서 회로(540)(예: 도 1의 센서 모듈(176))는 물리량을 계측하거나 전자 장치(501)의 작동 상태를 검출하여, 이에 대응하는 전기적 신호 또는 데이터 값을 생성할 수 있다.According to an embodiment of the present disclosure, the sensor circuit 540 (e.g., the
일 실시예에서, 센서 회로(540)는, 관성 센서(541) 및/또는 그립 센서(543)를 포함할 수 있다.In one embodiment, the
일 실시예에서, 관성 센서(541)는 6축 센서(예: 지자기 센서, 가속도 센서, 및/또는 자이로 센서)를 포함할 수 있다. 관성 센서(541)는 전자 장치(501)의 자세를 결정하기 위한 센서 정보(예: x축, y축, 및/또는 z축의 센서 정보(예: 가속도 값, 각속도 값))를 획득(또는 측정)하고, 이를 프로세서(550)에 전달할 수 있다.In one embodiment, the
일 실시예에서, 관성 센서(541)는 제1 하우징(210)의 내부 공간에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다. 예를 들어, 관성 센서(541)는 제2 하우징(220)의 내부 공간에 배치될 수 있다. 다른 예를 들어, 관성 센서(541)가 2개 이상의 관성 센서를 포함하는 경우, 적어도 하나의 관성 센서는 제1 하우징(210)의 내부 공간에 배치되고, 적어도 하나의 다른 관성 센서는 제2 하우징(220)의 내부 공간에 배치될 수도 있다.In one embodiment, the
일 실시예에서, 그립 센서(543)는 전자 장치(501)의 그립 상태를 검출할 수 있다. 예를 들어, 그립 센서(543)는 전자 장치(501)가 한 손(예: 왼손 또는 오른손)으로 그립된 상태인지 또는 양 손으로 그립된 상태인지 여부를 검출할 수 있다. 일 실시예에서, 그립 센서(543)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the
본 개시의 일 실시예에 따르면, 프로세서(550)는 예를 들어, 마이크로 컨트롤러 유닛(micro controller unit, MCU)을 포함할 수 있고, 운영 체제(OS) 또는 임베디드 소프트웨어 프로그램을 구동하여 프로세서(550)에 연결된 다수의 하드웨어 구성요소들을 제어할 수 있다. 프로세서(550)는, 예를 들어, 메모리(520)에 저장된 인스트럭션들(예: 도 1의 프로그램(140))에 따라 다수의 하드웨어 구성요소들을 제어할 수 있다.According to an embodiment of the present disclosure, the
일 실시예에서, 프로세서(550)는 복수의 어플리케이션들의 정보들을 멀티 윈도우로 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시할 수 있다. 예를 들어, 프로세서(550)는 전자 장치(501)가 펼침 상태 또는 접힘 상태인 경우, 활성화된 제1 디스플레이(531) 또는 제2 디스플레이(533)의 표시 영역을 복수의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 각 영역에 어플리케이션의 정보를 표시하도록 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))를 제어할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 센서 회로(540), 예를 들어, 관성 센서(541) 및/또는 그립 센서(543)를 통해 센서 정보를 획득할 수 있다. 또한, 프로세서(550)는 터치 센서(예: 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 획득할 수 있다. 프로세서(550)는 획득된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는지 여부를 확인할 수 있다. 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출된 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 예를 들어, 프로세서(550)는 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 보정된 센서 데이터들에 기반하여 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment,
일 실시예에서, 프로세서(550)는 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 예를 들어, 표시 속성은, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보를 표시하기 위한 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))의 표시 영역 내 윈도우의 크기 및 윈도우 내 배열 중 적어도 하나를 포함할 수 있다. 프로세서(550)는 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시할 수 있다.In one embodiment, the
본 개시의 일 실시예에 따른 전자 장치(501)는, 제1 면(211), 제1 면(211)과 반대 방향으로 향하는 제2 면(212), 및 제1 면(211)과 제2 면(212) 사이의 제1 공간을 둘러싸는 제1 측면 부재(213)를 포함하는 제1 하우징(210)을 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 힌지 구조(예: 힌지 플레이트(320))를 이용하여 제1 하우징(210)과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 제1 면(211)과 동일한 방향을 향하는 제3 면(221), 제3 면(221)과 반대 방향을 향하는 제4 면(222), 및 제3 면(221)과 제4 면(222) 사이의 제2 공간을 둘러싸는 제2 측면 부재(223)를 포함하는 제2 하우징(220)을 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 제1 면(211)의 적어도 일부로부터 제3 면(221)의 적어도 일부에 배치되는 제1 디스플레이(531)를 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 센서 회로(540)를 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 제1 디스플레이(531) 및 센서 회로(540)와 작동적으로 연결된 프로세서(550)를 포함할 수 있다. 일 실시예에서, 프로세서(550)는, 제1 어플리케이션의 제1 정보를 제1 디스플레이(531)에 표시할 수 있다. 일 실시예에서, 프로세서(550)는, 제2 어플리케이션을 실행하는 입력에 응답하여, 제2 어플리케이션의 제2 정보와 제1 어플리케이션의 제1 정보를 멀티 윈도우로 제1 디스플레이(531)에 표시할 수 있다. 일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 센서 정보를 획득할 수 있다. 일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득된 센서 정보에 기반하여, 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 일 실시예에서, 프로세서(550)는, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 일 실시예에서, 프로세서(550)는, 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 제1 디스플레이(531)에 표시할 수 있다.The
일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다. 일 실시예에서, 프로세서(550)는, 보정된 센서 데이터들에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 윈도우의 배열 중 적어도 하나를 포함하는 표시 속성을 변경할 수 있다.In one embodiment, the
일 실시예에서, 전자 장치(501)는, 제2 하우징(220)의 내부 공간에서 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함할 수 있다.In one embodiment, the
일 실시예에서, 센서 회로(540)를 통해 획득되는 센서 정보는, 관성 센서(541)를 통해 획득되는 제1 센서 정보, 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the sensor information acquired through the
일 실시예에서, 제1 센서 정보는, 전자 장치(501)의 자세와 관련된 센서 정보 및 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the first sensor information may include at least one of sensor information related to the posture of the
일 실시예에서, 제2 센서 정보는, 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함할 수 있다.In one embodiment, the second sensor information may include at least one of the grip state and grip pattern of the
일 실시예에서, 제3 센서 정보는, 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함할 수 있다.In one embodiment, the third sensor information may include touch information acquired through the touch circuit of the
일 실시예에서, 프로세서(550)는, 제1 센서 정보, 제2 센서 정보, 및 제3 센서 정보 중 적어도 하나에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the
일 실시예에서, 전자 장치(501)는 메모리(520)를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득되는 센서 정보 및 센서 정보에 기반하여 확인된 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 메모리(520)에 누적하여 저장할 수 있다. 일 실시예에서, 프로세서(550)는, 저장된 센서 정보 및 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습할 수 있다. 일 실시예에서, 프로세서(550)는, 학습에 의해 생성된 모델에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the
일 실시예에서, 전자 장치(501)는 무선 통신 회로(510)를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득되는 센서 정보를 무선 통신 회로(510)를 통해 서버에 전송할 수 있다. 일 실시예에서, 프로세서(550)는, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 확인할 수 있다.In one embodiment, the
도 6a는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 사용자 인터랙션에 따른 화면 제어 방법을 설명하기 위한 흐름도(600)이다.FIG. 6A is a
도 6a를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 610동작에서, 제1 어플리케이션의 제1 정보를 디스플레이(예: 도 5의 디스플레이(530))에 표시할 수 있다.Referring to FIG. 6A, in
일 실시예에서, 전자 장치(501)는 펼침 상태(예: 도 2a 및 도 2b의 상태) 또는 접힘 상태(예: 도 3a 및 도 3b의 상태)일 수 있다.In one embodiment, the
일 실시예에서, 전자 장치(501)가 펼침 상태인 경우, 제1 어플리케이션의 제1 정보는 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시될 수 있다. 예를 들어, 전자 장치(501)가 펼침 상태인 경우, 한 쌍의 하우징(예: 도 2a의 제1 하우징(210) 및 제2 하우징(220))에 의해 형성된 공간에 배치되는 제1 디스플레이(531)는 활성화될 수 있으며, 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222)) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))는 비활성화될 수 있다. 제1 디스플레이(531)는 제1 크기를 가질 수 있으며, 제2 디스플레이(533)는 제1 크기보다 상대적으로 작은 제2 크기를 가질 수 있다.In one embodiment, when the
일 실시예에서, 전자 장치(501)가 접힘 상태인 경우, 제1 어플리케이션의 제1 정보는 제2 디스플레이(533)에 표시될 수 있다. 예를 들어, 전자 장치(501)가 접힘 상태인 경우, 제2 디스플레이(533)는 활성화될 수 있으며, 제1 디스플레이(531)는 비활성화될 수 있다.In one embodiment, when the
일 실시예에서, 프로세서(550)는 620동작에서, 제2 어플리케이션을 실행하는 입력에 응답하여, 제2 어플리케이션의 제2 정보와 제1 어플리케이션의 제1 정보를 멀티 윈도우로 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시할 수 있다.In one embodiment, in
예를 들어, 프로세서(550)는 전자 장치(501)가 펼침 상태 또는 접힘 상태인 경우, 활성화된 제1 디스플레이(531) 또는 제2 디스플레이(533)의 표시 영역을 복수의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 각 영역에 제1 어플리케이션의 제1 정보와 제2 어플리케이션의 제2 정보를 표시하도록 제1 디스플레이(531) 또는 제2 디스플레이(533)를 제어할 수 있다.For example, when the
일 실시예에서, 프로세서(550)는 630동작에서, 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 640동작에서, 획득된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(예: 도 2b의 제2 면(212)) 또는 제4 면(예: 도 2b의 제4 면(222))에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the
일 실시예에서, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541))를 포함할 수 있다. 관성 센서(541)는 제1 하우징(210)의 내부 공간에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment,
일 실시예에서, 프로세서(550)는 관성 센서(541)를 통해 전자 장치(501)의 자세와 관련된 센서 정보 및/또는 움직임과 관련된 센서 정보를 획득할 수 있다. 전자 장치(501)의 자세와 관련된 센서 정보 및/또는 움직임과 관련된 센서 정보는, 특정 축(예: x축, y축, 및/또는 z축)을 기준으로 측정되는 센서 값 예를 들어, 가속도 값 및/또는 각속도 값을 포함할 수 있다. 프로세서(550)는 관성 센서(541)를 통해 획득되는 전자 장치(501)의 자세와 관련된 센서 정보 및/또는 움직임과 관련된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션이 검출되는지 여부를 확인할 수 있다.In one embodiment, the
이에 한정하는 것은 아니며, 센서 회로(540)는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 그립 센서(543)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.It is not limited to this, and the
일 실시예에서, 프로세서(550)는 그립 센서(543)를 통해 획득되는 센서 정보에 기반하여, 그립 상태(예: 한 손(예: 왼손 또는 오른손)에 의한 그립 상태 또는 양 손에 의한 그립 상태)를 확인할 수 있다. 프로세서(550)는 확인된 그립 상태에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222) 중 사용자 인터랙션이 검출되는 위치 정보를 추정(또는 예측)할 수 있다.In one embodiment, the
이에 한정하는 것은 아니며, 프로세서(550)는 제4 면(222)에 배치된 제2 디스플레이(533)에서 검출되는 터치 입력에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222) 중 사용자 인터랙션이 검출되는 위치 정보를 추정(또는 예측)할 수 있다.It is not limited to this, and the
일 실시예에서, 프로세서(550)는 650동작에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, in
일 실시예에서, 표시 속성은, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보를 표시하기 위한 디스플레이(530)의 표시 영역 내 윈도우의 크기 및 윈도우 내 배열 중 적어도 하나를 포함할 수 있다.In one embodiment, the display properties may include at least one of the size of a window and an arrangement within the window in the display area of the
일 실시예에서, 프로세서(550)는 660동작에서, 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 디스플레이(530)에 표시할 수 있다.In one embodiment, the
도 6b는, 본 개시의 일 실시예에 따른, 전술한 도 6a의 640동작을 설명하기 위한 흐름도이다.FIG. 6B is a flowchart for explaining
도 6b를 참조하면, 프로세서(550)는 641동작에서, 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.Referring to FIG. 6B, the
일 실시예에서, 전자 장치(501)는 센서 회로(540) 예를 들어, 관성 센서(541) 및/또는 그립 센서(543)를 포함할 수 있다. 또한, 전자 장치(501)는 터치 센서를 포함하는 디스플레이(530)를 포함할 수 있다. 프로세서(550)는 관성 센서(541)를 통해 획득되는 센서 정보, 그립 센서(543)를 통해 획득되는 센서 정보, 및/또는 제2 디스플레이(533)를 통해 획득되는 터치 정보에 기반하여 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 643동작에서, 보정된 센서 데이터들에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the
전술한 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작과 관련하여, 후술하는 도 7a 내지 도 22에서 다양한 실시예들이 설명될 것이다.In relation to the operation of correcting the sensor data of the detected user interaction described above, various embodiments will be described in FIGS. 7A to 22 described later.
도 7a는, 본 개시의 일 실시예에 따른, 전자 장치(501)가 펼침 상태에서 검출될 수 있는 사용자 인터랙션을 설명하기 위한 도면(700)이다.FIG. 7A is a diagram 700 illustrating a user interaction that can be detected when the
도 7a를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 제1 하우징(예: 도 2a의 제1 하우징(210)) 및 제2 하우징(예: 도 2a의 및 제2 하우징(220))을 포함할 수 있다.Referring to FIG. 7A, the electronic device (e.g., the
일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득된 센서 정보에 기반하여, 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212))의 적어도 일부 영역 및/또는 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222))의 적어도 일부 영역에서 사용자 인터랙션을 검출할 수 있다.In one embodiment, the processor (e.g.,
일 실시예에서, 사용자 인터랙션은, 더블 탭(double tap) 또는 트리플 탭(triple tap)을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, user interaction may include a double tap or triple tap. However, it is not limited to this.
일 실시예에서, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541))를 포함할 수 있다. 일 실시예에서, 관성 센서(541)는 제1 하우징(210)의 내부 공간에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment,
일 실시예에서, 관성 센서(541)는 6축 센서(예: 지자기 센서, 가속도 센서, 및/또는 자이로 센서)를 포함할 수 있다. 관성 센서(541)는 전자 장치(501)의 움직임과 관련된 센서 정보(예: x축, y축, 및/또는 z축의 센서 정보(예: 가속도 값, 각속도 값))를 획득(또는 측정)하고, 이를 프로세서(550)에 전달할 수 있다. 프로세서(550)는 관성 센서(541)를 통해 획득된 센서 정보에 기반하여, 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)에서의 사용자 인터랙션을 검출하고, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 제1 하우징(210)의 제2 면(212)을 적어도 하나의 영역으로 설정하고, 제2 하우징(220)의 제4 면(222)을 적어도 하나의 다른 영역으로 설정할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 설정된 적어도 하나의 영역(예: 제2 면(212) 또는 제4 면(222))에서 사용자 인터랙션을 검출할 수 있다.In one embodiment, the
예를 들어, 참조번호 <710> 및 <715>에 도시된 바와 같이, 프로세서(550)는 제2 하우징(220)의 제4 면(222)을 두 개의 영역 예를 들어 제1 영역(예: 제2 하우징(220)의 제4 면(222)의 상측 영역) 및 제2 영역(예: 제2 하우징(220)의 제4 면(222)의 하측 영역)으로 설정할 수 있다. 프로세서(550)는 제1 영역 및 제2 영역으로 구분된 제4 면(222)에서의 사용자 인터랙션(711, 716)을 검출할 수 있다.For example, as shown in reference numerals <710> and <715>, the
다른 예를 들어, 참조번호 <720> 및 <725>에 도시된 바와 같이, 프로세서(550)는 제1 하우징(210)의 제2 면(212)을 두 개의 영역 예를 들어 제3 영역(예: 제1 하우징(210)의 제2 면(212)의 상측 영역) 및 제4 영역(예: 제1 하우징(210)의 제2 면(212)의 하측 영역)으로 설정할 수 있다. 프로세서(550)는 제3 영역 및 제4 영역으로 구분된 제2 면(212)에서의 사용자 인터랙션(721, 726)을 검출할 수 있다.For another example, as shown in reference numerals <720> and <725>, the
다양한 실시예들에서, 프로세서(550)는 사용자 인터랙션이 검출되는 위치(예: 제1 영역, 제2 영역, 제3 영역, 또는 제4 영역) 및/또는 각 위치(예: 제1 영역, 제2 영역, 제3 영역, 또는 제4 영역)에서 검출되는 사용자 인터랙션의 타입(예: 더블 탭 또는 트리플 탭)에 기반하여, 상이한 기능을 수행할 수 있다.In various embodiments,
다양한 실시예들에서, 프로세서(550)는 사용자 인터랙션이 검출되는 경우, 센서 회로(540)를 통해 획득된 센서 정보와 이에 기반하여 확인된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보가 메모리(예: 도 5의 메모리(520))에 누적되어 저장될 수 있다. 프로세서(550)는 메모리(520)에 저장된 센서 정보 및 이에 기반한 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습할 수 있다. 프로세서(550)는 학습된 학습 모델에 기반하여 획득된 센서 정보에 대응하는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 확인할 수 있다. 이와 관련하여, 후술하는 도 7b 내지 도 22에서 다양한 실시예들이 설명될 것이다.In various embodiments, when user interaction is detected, the
도 7b 및 도 7c는, 본 개시의 일 실시예에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 도면(700)이다.FIGS. 7B and 7C are diagrams 700 for explaining a method for detecting user interaction according to an embodiment of the present disclosure.
도 7b 및 도 7c를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 센서 정보 처리부(730), 데이터 증강부(755)(data augmentation), 및/또는 인공지능 모델(775)을 포함할 수 있다.7B and 7C, a processor (e.g.,
일 실시예에 따라, 전술한 프로세서(550)에 포함된 센서 정보 처리부(730), 데이터 증강부(755)(data augmentation), 및/또는 인공지능 모델(775)은 하드웨어 모듈(예: 회로(circuitry))로 프로세서(550)에 포함되거나, 및/또는 프로세서(550)에 의해 실행될 수 있는 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다.According to one embodiment, the sensor
일 실시예에서, 센서 정보 처리부(730)는 잡음 제거부(735), 피크(peak) 식별부(740), 및/또는 클러스터 생성부(745)를 포함할 수 있다.In one embodiment, the sensor
일 실시예에서, 잡음 제거부(735)는 리샘플링부(resampling)(736), 슬로핑부(sloping)(737), 및/또는 필터링부(filtering)(738)를 포함할 수 있다.In one embodiment, the
일 실시예에서, 잡음 제거부(735)의 리샘플링부(736)는 특정 시간 간격으로 센서 회로(540) 예를 들어, 관성 센서(541)를 통해 획득되는 센서 값들(예: x축, y축, 및 z축의 센서 데이터(예: 가속도 값들 및/또는 각도 값들))을 균일하게 보정할 수 있다.In one embodiment, the
일 실시예에서, 잡음 제거부(735)의 슬로핑부(737)는 리샘플링부(736)를 통해 균일하게 보정된 센서 값들의 기울기 값을 산출하고, 산출된 기울기 값에 기반하여, 센서 값들에서 급격한 변화를 식별할 수 있다.In one embodiment, the sloping
일 실시예에서, 잡음 제거부(735)의 필터링부(738)는 센서 값들과 기울기 값을 저역 통과 필터(low-pass filter; LPF)로 통과시킬 수 있다. 저역 통과 필터로 통과된 센서 값들과 기울기 값은 고역 통과 필터(high-pass filter; HPF)를 통과할 수 있다. 센서 값들이 고역 통과 필터를 통과함에 따라 센서 값들 및 기울기 값에서 노이즈가 제거되어, 센서 값들의 피크 값은 정확하게 획득될 수 있다.In one embodiment, the
일 실시예에서, 피크(peak) 식별부(740)는 피크 검출부(peak detection)(741) 및/또는 피크 필터링부(peak filtering)(742)를 포함할 수 있다.In one embodiment, the
일 실시예에서, 피크 검출부(741)는 필터링부(738)를 통해 고역 통과 필터를 통과한 센서 값들(예: 필터링된 센서 값들)에 기반하여, 피크 값들을 검출할 수 있다.In one embodiment, the
일 실시예에서, 피크 필터링부(742)는 피크 검출부(741)를 통해 검출된 피크 값들 중 지정된 피크 값보다 작은 피크 값들을 제거(또는 삭제)할 수 있다.In one embodiment, the
일 실시예에서, 클러스터 생성부(745)는 피크 필터링부(742)에 의해 필터링된 피크 값들 중 가장 높은 피크 값을 포함하는 지정된 개수의 센서 값들을 하나의 클러스터(cluster)(750)로 생성할 수 있다.In one embodiment, the
일 실시예에서, 데이터 증강부(755)(data augmentation)는 생성된 클러스터(750)에 기반하여, 데이터 양을 증강시킬 수 있다. 증강된 데이터는 하나의 클러스터(760)로 생성될 수 있다. 일 실시예에서, 학습에 사용될 수 있는 충분한 양의 데이터 세트(765)를 생성하기 위해, 데이터 증강부(755)는 생성된 클러스터(750)에 기반하여 데이터 양을 증강시킬 수 있다.In one embodiment, the data augmentation unit 755 (data augmentation) may augment the amount of data based on the generated
일 실시예에서, 증강된 데이터를 포함하는 하나의 클러스터(760)에 기반하여, 데이터 세트(765)가 생성될 수 있다. 생성된 데이터 세트(765)는 인공지능 모델(775)에 의해 학습될 수 있다.In one embodiment, a
일 실시예에서, 인공지능 모델(775)은 생성된 데이터 세트(765)를 이용하여 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 학습하고, 학습된 모델(780)을 생성할 수 있다. 인공지능 모델(775)은, 뉴럴 네트워크 모델(neural network model)(776)을 포함할 수 있다. 이에 한정하는 것은 아니다.In one embodiment, the
다양한 실시예들에서, 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 데이터들에 기반하여 결정(또는 확인)되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 학습하고, 학습된 모델(780)을 생성하는 것으로 설명하였으나, 이에 한정하는 것은 아니다. 예를 들어, 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 데이터들을 무선 통신 회로(예: 도 5의 무선 통신 회로(510))를 통해 서버(예: 지능형 서버)에 전송하고, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 확인(또는 식별, 또는 결정)할 수도 있다.In various embodiments, the
도 8은, 본 개시의 일 실시예에 따른, 전자 장치(501)의 상태에 기반하여, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(800)이다.FIG. 8 is a diagram 800 for explaining a method of correcting sensor data of user interaction based on the state of the
도 8을 참조하면, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득되는 센서 정보에 기반하여, 전자 장치(예: 도 5의 전자 장치(501))의 상태(예: 펼침 상태(예: 도 2a 및 도 2b의 상태), 접힘 상태(예: 도 3a 및 도 3b의 상태), 또는 중간 상태) 및/또는 상태 전환(예: 펼침 상태에서 접힘 상태로의 전환 또는 접힘 상태에서 펼침 상태로의 전환)을 확인할 수 있다. 예를 들어, 센서 회로(540)는 홀 센서(미도시) 및/또는 관성 센서(예: 도 5의 관성 센서(541))를 포함할 수 있다.Referring to FIG. 8, a processor (e.g.,
일 실시예에서, 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)인 경우, 제1 하우징(예: 도 2a의 제1 하우징(210)) 및 제2 하우징(예: 도 2a의 제2 하우징(220))은 약 180도의 각도를 이룰 수 있다.In one embodiment, when the
일 실시예에서, 전자 장치(501)가 접힘 상태(예: 도 3a 및 도 3b의 상태)인 경우, 제1 하우징(210)의 제1 면(예: 도 2a의 제1 면(211)) 및 제2 하우징(220)의 제3 면(예: 도 2a의 제3 면(221))은 서로 좁은 각도(예: 약 0도~약 10도 범위)를 형성하고, 서로 마주보도록 배치될 수도 있다.In one embodiment, when the
일 실시예에서, 전자 장치(501)가 소정의 각도를 이루는 중간 상태인 경우, 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)은 약 80도~약 130도의 각도를 이룰 수 있다.In one embodiment, when the
다양한 실시예들에 따른 참조번호 <810>은, 전자 장치(501)가 접힘 상태에서 펼침 상태로의 전환(815)을 도시한 도면이다. 예를 들어, 프로세서(550)는 전자 장치(501)의 접힘 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 0도~약 10도를 이루는 상태)에서 중간 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 80도~약 130도를 이루는 상태), 또는 펼침 상태(예: 제1 하우징(210) 및 제2 하우징(220)이 약 180도를 이루는 상태)로의 전환을 검출할 수 있다.Reference numeral <810> according to various embodiments is a diagram illustrating a
다양한 실시예들에 따른 참조번호 <850>은 전자 장치(501)가 펼침 상태에서 접힘 상태로의 전환(855)을 도시한 도면이다. 예를 들어, 프로세서(550)는 전자 장치(501)의 펼침 상태(예: 약 180도를 이루는 상태)에서, 중간 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 80도~약 130도를 이루는 상태) 또는 접힘 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 0도~약 10도를 이루는 상태)로의 전환을 검출할 수 있다.Reference numeral <850> according to various embodiments is a diagram illustrating a
일 실시예에서, 프로세서(550)는 전자 장치(501)의 상태 전환에 기반하여, 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 특정 각도(820)(예: 약 75도~약 115도)를 이루는 경우, 센서 회로(540)를 통해 획득되는 센서 데이터들을 보정할 수 있다. 센서 회로(540)를 통해 획득되는 전자 장치(501)의 상태에 따른 센서 데이터들을 보정함으로써, 전자 장치(501)의 상태에 따른 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 정확하게 식별할 수 있다.In one embodiment, the
도 9a 및 도 9b는, 본 개시의 일 실시예에 따른, 관성 센서(541)를 통해 획득되는 센서 정보를 이용하여 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(900, 950)이다.FIGS. 9A and 9B are diagrams 900 and 950 for explaining a method of correcting sensor data of user interaction using sensor information acquired through the
다양한 실시예들에 따른 도 9a는, 관성 센서(예: 도 5의 관성 센서(541))를 통해 획득되는 센서 정보 예를 들어, x축, y축, 및 z축의 가속도 값을 나타낸 제1 그래프(900)이다. 도 9b는, 관성 센서(541)를 통해 획득되는 센서 정보 예를 들어, x축, y축, 및 z축의 각도 값을 나타낸 제2 그래프(950)이다.FIG. 9A according to various embodiments is a first graph showing sensor information acquired through an inertial sensor (e.g., the
도 9a를 참조하면, 일 실시예에 따른 제1 그래프(900)에서 x축은 시간(901)을 의미하고, y축은 가속도 값(m/s2)(905)을 의미할 수 있다.Referring to FIG. 9A, in the
일 실시예에서, 참조번호 <910>, <920>, 및 <930>은, 전자 장치(예: 도 5의 전자 장치(501))의 움직임에 따른, 제1 하우징(예: 도 2a의 제1 하우징(210))의 x축(예: 좌/우 움직임), y축(예: 앞/뒤 움직임), 및 z축(예: 상/하 움직임)의 가속도 값(911, 921, 931)과 제2 하우징(예: 도 2a의 제2 하우징(220))의 x축(예: 좌/우 움직임), y축(예: 앞/뒤 움직임), 및 z축(예: 상/하 움직임)의 가속도 값(913, 923, 933)을 나타낸 그래프이다.In one embodiment, reference numerals <910>, <920>, and <930> refer to the first housing (e.g., the first housing (e.g., the
다양한 실시예들에서, 프로세서(550)는, 참조번호 <910>, <920>, 및 <930>에서 살펴본 바와 같이, 전자 장치(501)의 움직임에 대한 제1 하우징(210) 및 제2 하우징(220)의 가속도 값에 기반하여, 전자 장치(501)의 후면 예를 들어, 제2 면(예: 도 2b의 제2 면(212)) 또는 제4 면(예: 도 2b의 제4 면(222))에서 사용자 인터랙션이 검출되었는지 여부를 확인(또는 결정)할 수 있다.In various embodiments, the
도 9b를 참조하면, 제2 그래프(950)에서 x축은 시간(951)을 의미하고, y축은 각속도 값(rad/s)(953)을 의미할 수 있다.Referring to FIG. 9B, in the
일 실시예에서, 참조번호 <960>, <970>, 및 <980>은, 전자 장치(501)의 움직임에 따른, 제1 하우징(예: 도 2a의 제1 하우징(210))의 x축, y축, 및 z축의 각속도 값(961, 971, 981)과 제2 하우징(예: 도 2a의 제2 하우징(220))의 x축, y축, 및 z축의 각속도 값(963, 973, 983)을 나타낸 그래프이다.In one embodiment, reference numerals <960>, <970>, and <980> represent the x-axis of the first housing (e.g., the
다양한 실시예들에서, 프로세서(550)는, 참조번호 <960>, <970>, 및 <980>에서 살펴본 바와 같이, 전자 장치(501)의 움직임에 대한 제1 하우징(210) 및 제2 하우징(220)의 각속도 값에 기반하여, 전자 장치(501)의 자세, 예를 들어, 수평 정도를 확인하여, 전자 장치(501)의 후면, 예를 들어, 제2 면(212) 또는 제4 면(222)에 검출된 사용자 인터랙션이 의도된 사용자 입력인지 여부를 결정(또는 식별, 또는 확인, 또는 추정)할 수 있다.In various embodiments, the
도 10a 및 도 10b는, 본 개시의 일 실시예에 따른, 도 7b의 리샘플링부(736)의 동작을 설명하기 위한 도면(1000, 1050)이다.FIGS. 10A and 10B are diagrams 1000 and 1050 for explaining the operation of the
도 10a를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540)), 예를 들어, 관성 센서(예: 도 5의 관성 센서(541))를 통해 특정 축(예: x축, y축, 및/또는 z축)을 기준으로 측정되는 센서 값 예를 들어, 가속도 값 및/또는 각속도 값을 획득할 수 있다.Referring to FIG. 10A, a processor (e.g.,
일 실시예에서, 프로세서(550)(예: 리샘플링부(736))는 특정 시간 동안 관성 센서(541)를 통해 획득되는, 특정 축을 기준으로 측정된 가속도 값 및/또는 각속도 값을 균일하게 보정할 수 있다.In one embodiment, the processor 550 (e.g., the resampling unit 736) uniformly corrects the acceleration value and/or angular velocity value measured based on a specific axis, which is acquired through the
일 실시예에서, 프로세서(550)는 특정 시간 동안(예: T0(1005)~T3(1010)) 관성 센서(541) 예를 들어, 가속도 센서 및/또는 자이로 센서를 통해 센서 데이터를 획득할 수 있다. 예를 들어, 가속도 센서를 통해 제1 센서 데이터(1015)(예: Ax1, Ay1, Az1), 제3 센서 데이터(1025)(예: Ax2, Ay2, Az2), 제4 센서 데이터(1030)(예: Ax3, Ay3, Az3)를 획득하고, 자이로 센서를 통해 제2 센서 데이터(1020)(예: Gx1, Gy1, Gz1) 및 제5 센서 데이터(1035)(예: Gx2, Gy2, Gz2)를 획득할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)(예: 리샘플링부(736))는 특정 시간 동안 관성 센서(541)를 통해 획득된 제1 센서 데이터(1015)(예: Ax1, Ay1, Az1), 제2 센서 데이터(1020)(예: Gx1, Gy1, Gz1), 제3 센서 데이터(1025)(예: Ax2, Ay2, Az2), 제4 센서 데이터(1030)(예: Ax3, Ay3, Az3), 및 제5 센서 데이터(1035)(예: Gx2, Gy2, Gz2)를 균일하게 보정할 수 있다.In one embodiment, the processor 550 (e.g., the resampling unit 736) collects the first sensor data 1015 (e.g., Ax1, Ay1, and Az1) acquired through the
예를 들어, 도 10b를 참조하면, 참조번호 <1060>은, 관성 센서(541), 예를 들어, 가속도 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: z축을 기준으로 측정된 가속도 값들)을 도시한 제1 그래프(1071) 및 자이로 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: x축을 기준으로 측정된 각속도 값들)을 도시한 제2 그래프(1073)를 도시한 것이다. For example, referring to FIG. 10B, reference numeral <1060> indicates sensor values (e.g., acceleration values measured based on the z-axis) acquired at specified time intervals through an
참조번호 <1060>에 따른 제1 그래프(1071) 및 제2 그래프(1073)에서 x축은 시간(1061)을 의미하고, y축은 센서 값(1063)(예: 가속도 값 또는 각속도 값)을 의미할 수 있다.In the
일 실시예에서, 참조번호 <1080>은, 참조번호 <1060>에 따른 가속도 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: z축을 기준으로 측정된 가속도 값들)을 리샘플링한 제3 그래프(1091) 및 자이로 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: x축을 기준으로 측정된 각속도 값들)을 리샘플링한 제4 그래프(1093)를 도시한 것이다. In one embodiment, reference number <1080> represents a third graph (e.g., acceleration values measured based on the z-axis) resampled sensor values obtained at specified time intervals through an acceleration sensor according to reference number <1060>. 1091) and a
참조번호 <1080>에 따른 제3 그래프(1091) 및 제4 그래프(1093)에서 x축은 시간(1081)을 의미하고, y축은 센서 값(1083)(예: 가속도 값 또는 각속도 값)을 의미할 수 있다.In the
다양한 실시예들에서, 리샘플링부(736)는 가속도 센서 및/또는 자이로 센서를 통해 획득되는 센서 값들이 균일한 센서 값들을 가지도록 보정(1090)할 수 있다.In various embodiments, the
다양한 실시예들에서, 프로세서(550)는 전술한 보정된 균일한 센서 값들을 이용하여, 후술하는 도 11의 동작을 수행할 수 있다.In various embodiments, the
도 11은, 본 개시의 일 실시예에 따른, 도 7b의 슬로핑부(737)의 동작을 설명하기 위한 도면(1100)이다.FIG. 11 is a diagram 1100 for explaining the operation of the
도 11을 참조하면, 참조번호 <1110>은, 전술한 도 10b의 리샘플링 동작을 통해 보정된 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1091)를 도시한 것이다. 참조번호 <1150>은 슬로핑 동작을 통해 전자 장치(501)의 움직임에 따른 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1151)를 도시한 것이다.Referring to FIG. 11 , reference number <1110> illustrates a
일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 하기 <수학식 1>에 기반하여, 센서 값들의 기울기 값(m)을 산출할 수 있다. 예를 들어, 프로세서(550)는 슬로핑부(예: 도 7b의 슬로핑부(737))를 통해 일정 시간(예: x축) 동안 얼마나 가속(예: y축)하였는지 여부를 확인하여, 센서 값들의 기울기 값(m)을 산출할 수 있다. 프로세서(550)는 산출된 기울기 값(m)에 기반하여, 센서 값들의 급격한 변화를 식별할 수 있다. 다시 말해, 프로세서(550)는 시간에 대해 가속도가 급격하게 변화되었는지 여부를 확인할 수 있다.In one embodiment, a processor (e.g.,
전술한 기울기(m)를 산출한 후, 프로세서(550)는 센서 값들과 산출된 기울기 값(m)을 필터링부(예: 도 7b의 필터링부(738))를 통해 필터링한 후, 후술하는 도 12의 동작을 수행할 수 있다.After calculating the above-described slope (m), the
도 12는, 본 개시의 일 실시예에 따른, 도 7b의 피크 식별부(740)의 동작을 설명하기 위한 도면(1200)이다.FIG. 12 is a diagram 1200 for explaining the operation of the
도 12를 참조하면, 참조번호 <1210>은, 피크 검출부(예: 도 7b의 피크 검출부(741))를 통해 검출된 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1211)를 도시한 것이다. 참조번호 <1250>은 피크 필터링부(예: 도 7b의 피크 필터링부(742))를 통해 필터링된 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1211)를 도시한 것이다.Referring to FIG. 12, reference number <1210> is a
일 실시예에 따른 참조번호 <1210> 및 <1250>에서 x축은 시간(1201)을 나타내고, y축은 가속도 값들의 표준편차(1203)를 나타낼 수 있다.In reference numbers <1210> and <1250> according to one embodiment, the x-axis may represent time (1201), and the y-axis may represent the standard deviation (1203) of acceleration values.
일 실시예에서, 프로세서(550)(예: 피크 검출부(741))는 참조번호 <1210>에 따른 그래프(1211)에서 가속도 값들의 피크 값들을 식별할 수 있다. 예를 들어, 식별된 피크 값들은, 제1 피크 값(1261), 제2 피크 값(1263), 제3 피크 값(1265), 제4 피크 값(1267), 제5 피크 값(1269), 제6 피크 값(1271), 및 제7 피크 값(1273)을 포함할 수 있다. In one embodiment, the processor 550 (e.g., peak detection unit 741) may identify peak values of acceleration values in the
일 실시예에서, 프로세서(550)(예: 피크 필터링부(742))는 필터(예: 고역 통과 필터)를 통해 중력 가속도 성분을 제거할 수 있다. 예를 들어, 프로세서(550)(예: 피크 필터링부(742))는, 참조번호 <1250>에 도시된 바와 같이, 식별된 피크 값들 예를 들어, 피크 값들은 제1 피크 값(1261), 제2 피크 값(1263), 제3 피크 값(1265), 제4 피크 값(1267), 제5 피크 값(1269), 제6 피크 값(1271), 및 제7 피크 값(1273) 중 지정된 피크 값(1251)보다 작거나 및/또는 지정된 피크 값(1251)을 기준으로 지정된 범위(예: +0.2) 내 포함되는 피크 값들(예: 제2 피크 값(1263), 제3 피크 값(1265), 제4 피크 값(1267), 제6 피크 값(1271), 및 제7 피크 값(1273))을 제거(또는 삭제)할 수 있다.In one embodiment, the processor 550 (eg, peak filtering unit 742) may remove the gravitational acceleration component through a filter (eg, high-pass filter). For example, the processor 550 (e.g., peak filtering unit 742), as shown in reference numeral <1250>, selects the identified peak values, for example, the peak values are the
도 13은, 본 개시의 일 실시예에 따른, 도 7b의 클러스터 생성부(745)의 동작을 설명하기 위한 도면(1300)이다.FIG. 13 is a diagram 1300 for explaining the operation of the
도 13을 참조하면, 프로세서(예: 도 5의 프로세서(550))(예: 클러스터 생성부(745))는 전술한 도 12에서 피크 필터링부(예: 도 7b의 피크 필터링부(742))에 의해 필터링된 피크 값들 중 가장 높은 피크 값을 포함하는 지정된 개수의 센서 값들을 하나의 클러스터(cluster)로 생성할 수 있다. 예를 들어, 프로세서(550)(예: 클러스터 생성부(745))는 가장 높은 피크 값 예를 들어, 제1 피크 값(1261)을 포함하는 지정된 개수의 센서 값들을 포함하는 제1 클러스터(1310) 및 제5 피크 값(1269)을 포함하는 지정된 개수의 센서 값들을 포함하는 제2 클러스터(1320)를 생성할 수 있다.Referring to FIG. 13, the processor (e.g.,
일 실시예에서, 프로세서(550)는 하나의 클러스터를 싱글 탭으로 식별(또는 결정)할 수 있다. 예를 들어, 프로세서(550)는 제1 클러스터(1310)는 제1 탭으로 식별할 수 있으며, 제2 클러스터(1320)는 제2 탭으로 식별할 수 있다. 프로세서(550)는 식별된 제1 탭이 검출된 시간 및 제2 탭이 검출된 시간에 기반하여, 사용자 인터랙션의 타입을 결정할 수 있다. 이와 관련하여, 후술하는 도 14에서 다양한 실시예들이 설명될 것이다.In one embodiment,
도 14는, 본 개시의 일 실시예에 따른, 인공지능 모델(775)의 동작을 설명하기 위한 도면(1400)이다.FIG. 14 is a diagram 1400 for explaining the operation of the
도 14를 참조하면, 프로세서(예: 도 5의 프로세서(550))(예: 도 7b의 인공지능 모델(775))은 전술한 도 7a 내지 도 13의 동작을 통해 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득되는 센서 데이터들에 기반하여 결정(또는 확인)되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 학습하고, 학습된 모델을 생성할 수 있다. Referring to FIG. 14, a processor (e.g.,
일 실시예에서, 사용자 인터랙션의 타입은, 노 탭, 싱글 탭, 더블 탭, 및 트리플 탭을 포함할 수 있다. 또한, 사용자 인터랙션이 검출되는 위치는, 전자 장치(예: 도 5의 전자 장치(501))의 후면의 일부 영역일 수 있다. 예를 들어, 전자 장치(501)의 후면의 일부 영역은, 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))을 포함할 수 있다.In one embodiment, types of user interaction may include no tap, single tap, double tap, and triple tap. Additionally, the location where user interaction is detected may be a partial area of the rear of the electronic device (e.g., the
일 실시예에서, 프로세서(550)는 제1 탭(1410)이 검출된 시간(T1), 제2 탭(1420)이 검출된 시간(T2), 및 제3 탭(1430)이 검출된 시간(T3)을 확인할 수 있다. 예를 들어, 제1 탭(1410), 제2 탭(1420), 또는 제3 탭(1430) 각각은, 전술한 도 13에서 살펴본 피크 값에 기반하여 생성된 클러스터(예: 제1 클러스터(1310) 및 제2 클러스터(1320))에 기반한 것일 수 있다.In one embodiment, the
일 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 작고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 작은 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 트리플 탭으로 확인(또는 결정)할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the difference between the time (T3) at which the third tap (1430) was detected and the time (T2) at which the second tap (1420) was detected is less than a specified time (e.g., 500 ms), and the second tap (1420) If the detected time (T2) and the detected time (T1) of the
일 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 크고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 작은 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 더블 탭으로 확인(또는 결정)할 수 있다. 다른 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 작고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 큰 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 더블 탭으로 확인(또는 결정)할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the difference between the time T3 at which the
일 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 크고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 큰 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 싱글 탭으로 확인(또는 결정)하고, 제1 탭(1410), 제2 탭(1420), 또는 제3 탭(1430)을 무효한 입력으로 처리할 수 있다. 예를 들어, 싱글 탭의 경우 전자 장치(501)를 조작(예: 디스플레이(예: 도 5의 디스플레이(530)) 상에서의 터치 입력)하거나 또는 외부 충격(예: 전자 장치(501)를 지면에 내려놓음에 따른 충격 또는 전자 장치(501)가 놓여진 지면에 충격이 가해짐에 따른 충격)에 의해 검출될 가능성이 있고, 이는 사용자에 의한 의도된 입력이 아닐 수 있다. 이를 고려하여, 제1 탭(1410), 제2 탭(1420), 및/또는 제3 탭(1430)에 의한 사용자 인터랙션의 타입이 싱글 탭으로 확인(또는 결정)되는 경우, 프로세서(550)는 싱글 탭을 무효한 입력으로 처리할 수 있다. 다른 예를 들어, 전술한 제1 탭(1410), 제2 탭(1420), 및/또는 제3 탭(1430)에 의한 사용자 인터랙션의 타입이 더블 탭 또는 트리플 팁으로 확인(또는 결정)되는 경우, 프로세서(550)는 더블 탭 또는 트리플 탭으로서 유효한 입력으로 처리할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the difference between the time T3 at which the
도 15a 및 도 15b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1500, 1550)이다.FIGS. 15A and 15B are diagrams 1500 and 1550 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
도 15a 및 도 15b를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))의 자세를 확인할 수 있다.Referring to FIGS. 15A and 15B , a processor (eg,
일 실시예에서, 프로세서(550)는 관성 센서(예: 도 5의 관성 센서(541))를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 자세를 확인할 수 있다.In one embodiment, the
일 실시예에서, 전자 장치(501)의 자세는, 참조번호 <1510> 및 <1530>에 도시된 바와 같이, 센서 회로(예: 도 5의 센서 회로(540)), 예를 들어, 관성 센서(541)가 배치된 제1 하우징(예: 도 2a의 제1 하우징(210))이 지면(예: 바닥 또는 책상)을 향하게 배치되는 상태(예: 제1 하우징(210)이 지면과 평행하게 배치되는 상태)를 포함할 수 있다. In one embodiment, the posture of the
일 실시예에 따른 참조번호 <1510>은 제1 하우징(210)이 지면을 향하게 배치되는 상태에서 전자 장치(501)의 전면을 도시한 도면이고, 참조번호 <1530>은 제1 하우징(210)이 지면을 향하게 배치되는 상태에서 전자 장치(501)의 후면을 도시한 도면이다.According to one embodiment, reference number <1510> is a diagram showing the front of the
일 실시예에서, 참조번호 <1510> 및 <1530>을 참조하면, 제1 하우징(210)이 지면을 향하게 배치되는 상태에서, 전자 장치(501)의 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))의 일부 영역 예를 들어, 제2 영역에서 사용자 인터랙션(1535)을 검출할 수 있다. 일 실시예에서, 제2 하우징(220)의 제4 면(222)에는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))가 배치될 수 있다. 제2 하우징(220)의 제4 면(222)에 제2 디스플레이(533)가 배치됨에 따라, 사용자 인터랙션(1535)은, 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 검출될 수 있다.In one embodiment, referring to reference numerals <1510> and <1530>, in a state in which the
일 실시예에서, 전자 장치(501)의 자세가 참조번호 <1510> 및 <1530>의 상태에서는 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션(1535)이 검출될 확률이, 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212))에서 사용자 인터랙션이 검출될 확률보다 높을 수 있다. 이에 기반하여, 전자 장치(501)의 자세가 참조번호 <1510> 및 <1530>의 상태로 확인되면, 프로세서(550)는 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션(1535)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(1535)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the posture of the
다른 실시예에서, 전자 장치(501)의 자세는, 참조번호 <1560> 및 <1570>에 도시된 바와 같이, 센서 회로(540), 예를 들어, 관성 센서(541)가 배치된 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태(예: 제1 하우징(210)이 지면과 평행하게 배치되지 않은 상태)를 포함할 수 있다.In another embodiment, the posture of the
일 실시예에 따른 참조번호 <1560>은 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태에서 전자 장치(501)의 전면을 도시한 도면이고, 참조번호 <1580>은 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태에서 전자 장치(501)의 후면을 도시한 도면이다.According to one embodiment, reference number <1560> is a diagram illustrating the front of the
일 실시예에서, 참조번호 <1560> 및 <1580>을 참조하면, 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태에서, 전자 장치(501)의 제1 하우징(210)의 제2 면(212)의 일부 영역 예를 들어, 제4 영역에서 사용자 인터랙션(1535)을 검출할 수 있다. 일 실시예에서, 제1 하우징(210)의 제2 면(212)에는 제2 디스플레이(533)가 배치되지 않을 수 있으며, 이에 따라, 제2 디스플레이(533)를 통해 사용자 인터랙션(1535)이 검출되지 않을 수 있다.In one embodiment, referring to reference numerals <1560> and <1580>, the second surface of the
일 실시예에서, 전자 장치(501)의 자세가 참조번호 <1560> 및 <1580>의 상태에서는 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션이 검출될 확률이 제2 면(212)에서 사용자 인터랙션(1535)이 검출될 확률보다 낮을 수 있다. 이에 기반하여, 전자 장치(501)의 자세가 참조번호 <1560> 및 <1580>의 상태로 확인되면, 프로세서(550)는 제2 면(212)에서 사용자 인터랙션(1535)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(1535)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the posture of the
도 16은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1600)이다.FIG. 16 is a diagram 1600 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
도 16을 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))의 자세를 확인할 수 있다. 예를 들어, 프로세서(550)는 관성 센서(예: 도 5의 관성 센서(541))를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 자세, 예를 들어, 수평 정도를 확인할 수 있다. 예를 들어, 프로세서(550)는 관성 센서(541)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 및/또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 이 지면(예: 바닥 또는 책상)을 향하게 배치되어, 지면과 수평을 유지하는 상태인지 여부를 확인할 수 있다.Referring to FIG. 16, a processor (e.g.,
일 실시예에서, 전자 장치(501)의 자세(예: 전자 장치(501)의 수평 정도)를 확인한 후, 프로세서(550)는 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)의 그립 상태를 확인할 수 있다.In one embodiment, after confirming the posture of the electronic device 501 (e.g., the horizontal degree of the electronic device 501), the
일 실시예에서, 전자 장치(501)의 그립 상태는, 참조번호 <1610>에 도시된 바와 같이, 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서, 제1 하우징(예: 도 2a의 제1 하우징(210))을 그립한 상태일 수 있다.In one embodiment, the grip state of the
일 실시예에 따른 참조번호 <1610>은, 제1 하우징(210)의 제2 면(212)과 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치되지 않은 상태) 및 제1 하우징(210)을 그립한 상태에서, 전자 장치(501)의 후면을 도시한 도면이다.Reference number <1610> according to one embodiment refers to a state in which the
일 실시예에서, 참조번호 <1610>을 참조하면, 제1 하우징(210)의 제2 면(212)과 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치되지 않은 상태) 및 제1 하우징(210)을 그립한 상태에서, 전자 장치(501)의 제1 하우징(210)의 제2 면(212)의 일부 영역, 예를 들어, 제3 영역에서 사용자 인터랙션(1615)을 검출할 수 있다. 일 실시예에서, 제1 하우징(210)의 제2 면(212)에는 제2 디스플레이(533)가 배치되지 않을 수 있으며, 이에 따라, 제1 하우징(210)을 그립한 상태에서는 제2 디스플레이(533)를 통해 사용자 인터랙션(1615)이 검출되지 않을 수 있다.In one embodiment, referring to reference number <1610>, the
일 실시예에서, 전자 장치(501)가 참조번호 <1610>의 상태인 경우, 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션이 검출될 확률이 제2 면(212)에서 사용자 인터랙션(1615)이 검출될 확률보다 낮을 수 있다. 이에 기반하여, 참조번호 <1610>의 상태에서, 프로세서(550)는 제2 면(212)에서 사용자 인터랙션(1615)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(1615)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the
다른 실시예에서, 참조번호 <1650>은, 전자 장치(501)가 접힘 상태(예: 도 3a 및 도 3b의 상태)에서, 제2 하우징(220)의 제4 면(222)이 전면을 바라보는 상태(예: 제1 하우징(210)의 제2 면(212)이 지면을 향하지 않도록 배치된 상태)이고, 전자 장치(501)를 그립한 상태일 수 있다. 참조번호 <1650>과 같은 상태에서, 프로세서(550)는 전자 장치(501)의 제1 하우징(210)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(미도시)을 검출할 수 있다.In another embodiment, reference numeral <1650> indicates that when the
일 실시예에서, 전자 장치(501)가 참조번호 <1650>의 상태에서는, 제2 하우징(220)의 제4 면(222)이 전면을 바라보는 상태에서 전자 장치(501)를 그립한 상태이기 때문에, 제2 면(212)에서 사용자 인터랙션(미도시)이 검출될 확률이 높을 수 있다. 이에 기반하여, 프로세서(550)는 전자 장치(501)가 참조번호 <1650>의 상태로 확인되면, 제2 면(212)에서 사용자 인터랙션(미도시)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(미도시)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the
다양한 실시예들에서, 미도시 되었으나, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)에서, 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립한 상태로 검출할 수 있다. 이 상태에서 사용자 인터랙션이 검출되면, 프로세서(550)는 사용자 인터랙션을 유효한 입력으로 처리할 수 있다. 예를 들어, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)이지만, 제1 하우징(210) 및/또는 제2 하우징(220)을 그립한 상태임에 따라, 검출되는 사용자 인터랙션을 사용자에 의한 의도된 입력으로 결정하고, 유효한 입력으로 처리할 수 있다. 하지만 이에 한정하는 것은 아니며, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)이고, 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립한 상태에서 사용자 인터랙션이 검출되는 경우, 프로세서(550)는 사용자 인터랙션을 무효한 입력으로 처리할 수도 있다.In various embodiments, although not shown, the
다양한 실시예들에서, 미도시 되었으나, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)에서, 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립하지 않은 상태를 검출할 수 있다. 이 상태에서 사용자 인터랙션이 검출되면, 프로세서(550)는 사용자 인터랙션을 무효한 입력으로 처리할 수 있다. 예를 들어, 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태 및 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립하지 않은 상태에서 검출되는 사용자 인터랙션은, 전자 장치(501)를 조작(예: 디스플레이(예: 도 5의 디스플레이(530)) 상에서의 터치 입력)하거나 또는 외부 충격(예: 전자 장치(501)를 지면에 내려놓음에 따른 충격 또는 전자 장치(501)가 놓여진 지면에 충격이 가해짐에 따른 충격)에 의해 검출될 수 있는 사용자에 의한 의도된 입력이 아닐 수 있다. 이에 기반하여, 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태 및 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립하지 않은 상태에서 사용자 인터랙션이 검출되는 경우, 프로세서(550)는 검출되는 사용자 인터랙션을 무효한 입력으로 처리할 수 있다.In various embodiments, although not shown, the
도 17은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1700)이다.FIG. 17 is a diagram 1700 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
도 17을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서, 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)의 그립 상태를 확인할 수 있다.Referring to FIG. 17, when the electronic device (e.g., the
일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 그립 센서(543)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)를 한 손으로 그립한 상태인지 또는 양 손으로 그립한 상태인지 여부에 기반하여, 검출되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 학습할 수 있다.In one embodiment, the processor (e.g.,
일 실시예에서, 전자 장치(501)를 한 손으로 그립한 상태에서 전자 장치(501)의 후면에서 사용자 인터랙션이 검출되는 경우, 전자 장치(501)의 움직임에 대한 센서 값(예: 가속도 값 및/또는 각속도 값)은, 전자 장치(501)를 양 손으로 그립한 상태에서 전자 장치(501)의 후면에서 사용자 인터랙션이 검출되는 경우 전자 장치(501)의 움직임에 대한 센서 값(예: 가속도 값 및/또는 각속도 값)보다 클 수 있다.In one embodiment, when user interaction is detected on the back of the
일 실시예에서, 전자 장치(501)를 한 손으로 그립한 상태인 경우, 왼손으로 전자 장치(501)를 그립한 상태인지 또는 오른손으로 전자 장치(501)를 그립한 상태인지 여부에 따라, 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션이 검출되는 상태인지, 또는 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션이 검출되는 상태인지 여부를 추정할 수 있다.In one embodiment, when the
일 실시예에서, 그립 센서(543)는 전자 장치(501)의 측면의 적어도 일부 영역에 배치될 수 있다. 예를 들어, 그립 센서(543)는 참조번호 <1710>에 도시된 바와 같이, 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711) 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713)를 포함할 수 있다.In one embodiment, the
일 실시예에서, 참조번호 <1710>에 도시된 바와 같이, 프로세서(550)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711) 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713)를 통해 전자 장치(501)를 양 손(1701, 1703)으로 그립한 상태로 확인할 수 있다. 예를 들어, 제1 그립 센서(1711) 및 제2 그립 센서(1713)를 통해 전자 장치(501)를 양 손(1701, 1703)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션(1615)이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, as shown in reference numeral <1710>, the
다른 실시예에서, 참조번호 <1730>에 도시된 바와 같이, 프로세서(550)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인할 수 있다. 예를 들어, 제1 그립 센서(1711)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션(1615)이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In another embodiment, as shown in reference numeral <1730>, the
도 18은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1800)이다.FIG. 18 is a diagram 1800 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
도 18을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))가 접힘 상태(예: 도 3a 및 도 3b의 상태)에서, 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)의 그립 상태를 확인할 수 있다.Referring to FIG. 18, when the electronic device (e.g., the
일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 그립 센서(543)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)를 한 손으로 그립한 상태인지 또는 양 손으로 그립한 상태인지 여부에 기반하여, 검출되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 추정할 수 있다.In one embodiment, the processor (e.g.,
예를 들어, 프로세서(550)는 전자 장치(501)가 접힘 상태에서, 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인할 수 있다. 예를 들어, 전자 장치(501)가 접힘 상태에서, 제2 그립 센서(1713)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.For example, when the
도 19는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1900)이다.FIG. 19 is a diagram 1900 for explaining a method of correcting sensor data of user interaction according to the grip of the
도 19를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))의 그립 상태를 확인할 수 있다. 예를 들어, 프로세서(550)는 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)를 한 손(예: 왼손 또는 오른손)으로 그립한 상태인지 또는 양 손으로 그립한 상태인지 여부를 확인할 수 있다.Referring to FIG. 19, a processor (e.g.,
일 실시예에서, 프로세서(550)는 엄지기부(1910) 및/또는 터치 정보에 기반하여, 사용자 인터랙션을 검출할 수 있다. 예를 들어, 프로세서(550)는 그립 센서(543) 및/또는 제1 디스플레이(예: 도 5의 제1 디스플레이(531))의 터치 센서를 통해 오른손(1901)의 엄지기부(1910)가 제1 디스플레이(531)의 일부 영역에 접촉된 것으로 확인되는 것에 기반하여, 전자 장치(501)를 오른손(1901)으로 그립한 상태에서 오른손(1901)으로 이용하여 전자 장치(501)를 조작하는 것으로 확인할 수 있다.In one embodiment,
일 실시예에서, 전자 장치(501)를 한 손으로 조작하는 경우, 양손으로 조작하는 경우보다 전자 장치(501)의 가속도 값 및/또는 각속도 값의 변화량이 클 수 있다. 이에 기반하여, 전자 장치(501)가 펼침 상태에서 한 손으로 조작 시에 전자 장치(501)의 후면에서 사용자 인터랙션이 검출되는 경우 또한, 전자 장치(501)의 움직임은 전자 장치(501)를 양 손으로 조작하는 경우의 움직임보다 클 수 있다. 상기와 같은 점을 고려하여, 프로세서(550)는 한 손으로 전자 장치(501)를 조작하는 상태로 확인되면, 전자 장치(501)의 후면(예: 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))에서의 사용자 인터랙션을 정확하게 인식하기 위해, 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득되는 센서 데이터들을 보정할 수 있다.In one embodiment, when the
일 실시예에서, 전자 장치(501)를 오른손(1901)으로 그립한 상태에서, 오른손(1901)에 의해 전자 장치(501)의 후면의 제1 영역(1920) 및 제2 영역(1930)에서 사용자 인터랙션을 검출하기 용이할 수 있으나, 제3 영역(1940)에서는 사용자 인터랙션을 검출하기 어려울 수 있다. 이에 기반하여, 전자 장치(501)가 펼침 상태에서, 전자 장치(501)를 오른손(1901)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, while gripping the
도 20은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(2000)이다. FIG. 20 is a diagram 2000 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
도 20의 참조번호 <2010>을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 펼침 상태에서, 사용자의 한 손(2015)(예: 왼손)에 의해 그립된 상태일 수 있다. 예를 들어, 전자 장치(501)는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)인 경우, 한 쌍의 하우징(예: 도 2a의 제1 하우징(210) 및 제2 하우징(220))에 의해 형성된 공간에 배치되는 제1 디스플레이(예: 도 5의 제1 디스플레이(531))와 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222)) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))를 포함할 수 있다.Referring to reference number <2010> in FIG. 20, the electronic device (e.g., the
일 실시예에서, 프로세서(550)는 전자 장치(501)가 펼침 상태에서 제1 디스플레이(531) 및/또는 제2 디스플레이(533)에서의 터치 입력이 검출되는 것에 기반하여, 사용자 인터랙션이 검출될 영역을 추정(또는 예측)할 수 있다.In one embodiment, the
예를 들어, 프로세서(550)는 참조번호 <2050>에 도시된 바와 같이, 제1 디스플레이(531)의 복수의 영역들(예: 제1 영역 내지 제6 영역) 중 제4 영역에서 엄지에 의한 터치 입력(2051)이 검출되고, 참조번호 <2030>에 도시된 바와 같이, 제2 디스플레이(533)의 특정 영역(2035)에서 검지 및/또는 중지에 의한 터치 입력이 검출될 수 있다.For example, as shown in reference numeral <2050>, the
일 실시예에서, 참조번호 <2050> 및 <2030>에 도시된 바와 같이, 제1 디스플레이(531)의 복수의 영역들(예: 제1 영역 내지 제6 영역) 중 제4 영역에서 엄지에 의한 터치 입력(2051)이 검출되고, 제2 디스플레이(533)의 특정 영역(2035) 검지 및/또는 중지에 의한 터치 입력이 검출되는 경우, 프로세서(550)는 제2 디스플레이(533)가 배치된 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, as shown in reference numerals <2050> and <2030>, a thumb is pressed in a fourth area among a plurality of areas (e.g., first to sixth areas) of the
도 21a 및 도 21b는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(2100, 2150)이다.FIGS. 21A and 21B are diagrams 2100 and 2150 for explaining a method of correcting sensor data of user interaction according to the grip of the
도 21a를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 펼침 상태에서, 사용자의 양 손(2110, 2120)에 의해 그립된 상태일 수 있다. 예를 들어, 왼손(2110)은 전자 장치(501)의 측면(예: 도 2a의 제2 하우징(220)의 제5 측면(223c))을 그립한 상태일 수 있다. 또한, 오른손(2120)은 전자 장치(501)의 측면(예: 도 2a의 제1 하우징(210)의 제2 측면(213c))을 그립한 상태로, 제1 디스플레이(예: 도 5의 제1 디스플레이(531))의 복수의 영역들(예: 제1 영역(2131), 제2 영역(2133), 제3 영역(2135), 및 제4 영역(2137)) 중 제4 영역(2137)에서 오른손(2120)의 엄지에 의한 터치 입력이 검출될 수 있다.Referring to FIG. 21A , the electronic device (e.g., the
일 실시예에서, 오른손(2120)의 엄지에 의한 제4 영역(2137)에서 터치 입력이 검출되는 경우, 전자 장치(501)의 후면에서 오른손(2120)의 다른 손가락에 의해 사용자 인터랙션이 검출될 가능성이 높을 수 있다. 이를 고려하여, 오른손(2120)의 엄지에 의한 제4 영역(2137)에서 터치 입력이 검출되는 경우, 프로세서(550)는 제2 영역(2133)에 대응하는 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212))의 영역(2140)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, when a touch input is detected in the
이에 한정하는 것은 아니며, 도 21b를 참조하면, 전자 장치(501)는 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222)) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))를 포함할 수 있다.It is not limited thereto, and referring to FIG. 21B, the
일 실시예에서, 프로세서(550)는 전자 장치(501)가 펼침 상태에서 전면에 배치된 제1 디스플레이(531) 및/또는 제2 디스플레이(533)에서의 터치 입력이 검출되는 것에 기반하여, 사용자 인터랙션이 검출될 영역을 추정(또는 예측)할 수 있다. 예를 들어, 오른손(2120)의 엄지에 의한 제4 영역(2137)에서 터치 입력이 검출되고, 전자 장치(501)의 후면 예를 들어, 제2 디스플레이(533)에서 왼손(2110)에 의해 사용자 인터랙션이 검출되는 경우, 프로세서(550)는 제2 디스플레이(533)가 배치된 제2 하우징(220)의 제4 면(222)의 영역(2160)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the
도 22는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(2200)이다.FIG. 22 is a diagram 2200 for explaining a method of correcting sensor data of user interaction according to the grip of the
도 22를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 펼침 상태에서, 사용자의 한 손(2210)(예: 왼손)에 의해 그립된 상태일 수 있다. 예를 들어, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)의 측면에 배치된 그립 센서(예: 도 17의 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711) 및 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713))를 통해 전자 장치(501)가 양 손에 의해 그립된 상태인지 또는 한 손에 의해 그립된 상태인지 여부를 확인할 수 있다.Referring to FIG. 22 , the electronic device (e.g., the
일 실시예에서, 전자 장치(501)의 측면에 배치된 그립 센서(예: 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713))를 통해 전자 장치(501)를 한 손(2210)으로 그립한 상태로 확인되면, 한 손(2210)에 의해 전자 장치(501)를 파지된 패턴을 확인하여 사용자 인터랙션이 검출되는 전자 장치(501)의 후면(예: 제2 면(예: 도 2b의 제2 면(212)) 및/또는 제4 면(예: 도 2b의 제4 면(222)))의 영역을 추정(또는 예측)할 수 있다.In one embodiment, the
예를 들어, 전자 장치(501)를 한 손(2210)으로 그립한 상태에서, 전자 장치(501)의 제4 면(222) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))를 통해 손가락에 의해 터치 입력이 검출되는 경우, 프로세서(550)는 제2 디스플레이(533)가 배치된 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다. For example, while gripping the
다양한 실시예들에 따른 도 7a 내지 도 22에서 살펴본 바와 같이, 전자 장치(501)의 상태(예: 전자 장치(501)의 자세, 전자 장치(501)의 움직임, 및/또는 전자 장치(501)의 그립 상태)에 따른 사용자 인터랙션의 센서 데이터들을 보정함으로써, 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 정확하게 결정할 수 있다.7A to 22 according to various embodiments, the state of the electronic device 501 (e.g., the posture of the
도 23은, 본 개시의 일 실시예에 따른, 전자 장치(501)가 펼침 상태에서 복수의 어플리케이션들의 정보들을 표시하는 방법을 설명하기 위한 도면(2300)이다.FIG. 23 is a diagram 2300 for explaining a method of displaying information on a plurality of applications in an unfolded state of the
도 23을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서 복수의 어플리케이션들의 정보들을 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시할 수 있다.Referring to FIG. 23, the processor (e.g.,
다양한 실시예들에 따른 도 23에서 복수의 어플리케이션들 예컨대, 3개의 어플리케이션들의 실행으로 이에 대한 3개의 정보들을, 3개의 영역으로 분할된 제1 디스플레이(531)의 각 영역에 표시하는 것으로 가정하여 설명하도록 한다. 이에 한정하는 것은 아니며, 3개를 초과하는 어플리케이션이 실행되는 경우, 프로세서(550)는 제1 디스플레이(531)를 3개를 초과하는 개수의 영역으로 분할하고, 각 영역에 각 어플리케이션의 정보를 표시할 수 있다.In FIG. 23 according to various embodiments, the description will be made on the assumption that the execution of a plurality of applications, for example, three applications, displays three pieces of information about them in each region of the
예컨대, 프로세서(550)는 참조번호 <2310>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시할 수 있다.For example, the
다른 예를 들어, 프로세서(550)는 참조번호 <2320>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제2 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시하고, 제3 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시할 수 있다.For another example, the
또 다른 예를 들어, 프로세서(550)는 참조번호 <2330>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시하고, 제2 영역(예: 하측 좌측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제3 영역(예: 하측 우측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시할 수 있다.For another example, the
또 다른 예를 들어, 프로세서(550)는 참조번호 <2340>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 좌측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제2 영역(예: 상측 우측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시하고, 제3 영역(예: 하측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시할 수 있다.For another example, as shown in reference numeral <2340>, the
다양한 실시예들에 따른 도 23의 참조번호 <2310>, <2320>, <2330>, 및 <2340>은 하나의 실시예로, 이에 한정하는 것은 아니며, 각 영역에 배치되는 어플리케이션의 정보는 달라질 수 있다.Reference numbers <2310>, <2320>, <2330>, and <2340> in FIG. 23 according to various embodiments are one embodiment and are not limited thereto, and information on applications placed in each area may vary. You can.
다양한 실시예들에서, 프로세서(550)는 어플리케이션이 실행되는 것에 기반하여, 실행된 어플리케이션의 정보가 표시되는 제1 디스플레이(531)의 영역에 대한 정보(예: 배열 정보)를 저장할 수 있다.In various embodiments, the
도 24는, 본 개시의 일 실시예에 따른, 전자 장치(501)가 펼침 상태에서 검출되는 사용자 인터랙션을 설명하기 위한 도면(2400)이다.FIG. 24 is a diagram 2400 for explaining user interaction detected when the
도 24를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 제1 하우징(예: 도 2a의 제1 하우징(210)) 및 제2 하우징(예: 도 2a의 및 제2 하우징(220))을 포함할 수 있다.Referring to FIG. 24, the electronic device (e.g., the
일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540)) 및/또는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보에 기반하여, 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212)) 및/또는 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222))에서 사용자 인터랙션이 검출되는 위치를 확인할 수 있다.In one embodiment, a processor (e.g.,
일 실시예에서, 사용자 인터랙션은, 더블 탭 또는 트리플 탭을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, user interaction may include a double tap or triple tap. However, it is not limited to this.
일 실시예에서, 프로세서(550)는 제1 하우징(210)의 제2 면(212)을 제1 영역으로 설정하고, 제2 하우징(220)의 제4 면(222)을 제2 영역으로 설정할 수 있다. 프로세서(550)는 설정된 제1 영역(예: 제2 면(212)) 또는 제2 영역(예: 제4 면(222))에서 사용자 인터랙션을 검출할 수 있다.In one embodiment, the
예를 들어, 참조번호 <2410>에 도시된 바와 같이, 프로세서(550)는 제1 영역(예: 제1 하우징(210)의 제2 면(212))에서 사용자 인터랙션(2411)을 검출할 수 있다. 다른 예를 들어, 참조번호 <2420>에 도시된 바와 같이, 프로세서(550)는 제2 영역(예: 제2 하우징(220)의 제4 면(222))에서 사용자 인터랙션(2421)을 검출할 수 있다.For example, as shown in reference numeral <2410>, the
일 실시예에서, 프로세서(550)는 제1 영역 또는 제2 영역에서 사용자 인터랙션이 검출되는 것에 기반하여, 검출된 사용자 인터랙션에 매핑된 기능을 수행할 수 있다.In one embodiment, the
다양한 실시예들에 따른 참조번호 <2410> 및 <2420>에서 사용자 인터랙션이 검출되는 영역을 2개의 영역으로 설정한 것으로 설명하였으나, 이에 한정하는 것은 아니다. 예를 들어, 사용자 인터랙션이 검출되는 영역을 5개의 영역으로 설정할 수 있다. 예를 들어, 프로세서(550)는 제1 하우징(210)의 제2 면(212)의 일부 영역(예: 상측 영역)을 제1 영역으로 설정하고, 제2 면(212)의 다른 일부 영역(예: 하측 영역)을 제2 영역으로 설정할 수 있다. 프로세서(550)는 제2 하우징(220)의 제4 면(222)의 일부 영역(예: 상측 영역)을 제3 영역으로 설정하고, 제4 면(222)의 다른 일부 영역(예: 하측 영역)을 제4 영역으로 설정할 수 있다. 프로세서(550)는 제2 면(212)의 일부 영역과 제4 면(222)의 일부 영역(예: 힌지 영역(310))을 제5 영역으로 설정할 수 있다. 프로세서(550)는 설정된 제1 영역, 제2 영역, 제3 영역, 제4 영역, 또는 제5 영역에서 사용자 인터랙션을 검출할 수 있다.In reference numerals <2410> and <2420> according to various embodiments, it has been described that the area where user interaction is detected is set to two areas, but it is not limited thereto. For example, the areas where user interaction is detected can be set to five areas. For example, the
예를 들어, 참조번호 <2430>에 도시된 바와 같이, 프로세서(550)는 제1 영역(예: 제4 면(222)의 상측 영역)에서 사용자 인터랙션(2431)을 검출할 수 있다. 다른 예를 들어, 참조번호 <2440>에 도시된 바와 같이, 프로세서(550)는 제2 영역(예: 제4 면(222)의 하측 영역)에서 사용자 인터랙션(2441)을 검출할 수 있다. 또 다른 예를 들어, 참조번호 <2450>에 도시된 바와 같이, 프로세서(550)는 제3 영역(예: 제2 면(212)의 상측 영역)에서 사용자 인터랙션(2451)을 검출할 수 있다. 또 다른 예를 들어, 참조번호 <2460>에 도시된 바와 같이, 프로세서(550)는 제4 영역(예: 제2 면(212)의 하측 영역)에서 사용자 인터랙션(2461)을 검출할 수 있다. 또 다른 예를 들어, 참조번호 <2470>에 도시된 바와 같이, 프로세서(550)는 제5 영역(예: 제2 면(212)의 일부 영역과 제4 면(222)의 일부 영역(예: 힌지 영역(310)))에서 사용자 인터랙션(2471)을 검출할 수 있다.For example, as shown in reference numeral <2430>, the
다양한 실시예들에 따른 영역(예: 제1 영역, 제2 영역, 제3 영역, 제4 영역, 및/또는 제5 영역)은 제1 디스플레이(예: 도 5의 제1 디스플레이(531)) 또는 제2 디스플레이(533)에 표시되는 정보의 개수(또는 윈도우의 개수)에 기반하여 설정될 수 있다.The area (e.g., the first area, the second area, the third area, the fourth area, and/or the fifth area) according to various embodiments is the first display (e.g., the
도 25는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2500)이다.FIG. 25 is a diagram 2500 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 25를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서 복수의 어플리케이션들의 정보들을 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2510>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.Referring to FIG. 25, the processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2510> 및 <2520>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2515)을 검출할 수 있다. 예를 들어, 참조번호 <2510> 및 <2520>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2530> 및 <2540>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2535)을 검출할 수 있다. 예를 들어, 참조번호 <2530> 및 <2540>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제3 영역(예: 어플리케이션 C의 제3 정보(2513)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2550> 및 <2560>에 도시된 바와 같이, 전자 장치(501)의 제4 면(222)의 일부 영역에서 사용자 인터랙션(2555)을 검출할 수 있다. 예를 들어, 참조번호 <2550> 및 <2560>에 도시된 제4 면(222)의 일부 영역은, 제1 디스플레이(531)의 제1 영역(예: 어플리케이션 A의 제1 정보(2511)를 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(2515, 2535, 2555)의 타입 및 사용자 인터랙션(2515, 2535, 2555)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다. In one embodiment, the
전술한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경하여 표시하는 실시예와 관련하여, 후술하는 도 27 및 도 34b에서 다양한 실시예들이 설명될 것이다.Based on the above-described type of user interaction and location information where the user interaction was detected,
도 26은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2600)이다.FIG. 26 is a diagram 2600 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 26을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서 복수의 어플리케이션들의 정보들을 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2610>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.Referring to FIG. 26, the processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2610> 및 <2620>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2615)을 검출할 수 있다. 예를 들어, 참조번호 <2610> 및 <2620>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(2615)의 타입 및 사용자 인터랙션(2615)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the
일 실시예에서, 표시 속성은, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보를 표시하기 위한 디스플레이(530)의 표시 영역 내 윈도우의 크기 및 윈도우 내 배열 중 적어도 하나를 포함할 수 있다.In one embodiment, the display properties may include at least one of the size of a window and an arrangement within the window in the display area of the
다양한 실시예들에 따른 도 26에서, 사용자 인터랙션(2615)의 타입은 더블 탭으로 가정하고, 더블 탭에 매핑된 기능이 어플리케이션을 종료하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 하지만 이에 한정하는 것은 아니며, 더블 탭에 매핑된 기능으로, 화면 회전 기능, 풀 스크린으로 표시하는 기능, 또는 어플리케이션 재실행 기능을 포함할 수 있다.In FIG. 26 according to various embodiments, the type of
일 실시예에서, 프로세서(550)는 사용자 인터랙션(2615)이 검출된 위치 정보에 기반하여, 사용자 인터랙션(2615)이 검출된 위치에 대응하는 제1 디스플레이(531)에 표시된 어플리케이션을 확인하고, 어플리케이션을 종료할 수 있다. 예를 들어, 프로세서(550)는 더블 탭(2615)이 검출된 위치에 대응하는 제1 디스플레이(531)에 표시된 어플리케이션 B를 종료하고, 참조번호 <2650>에 도시된 바와 같이, 제1 디스플레이(531)의 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 C의 제2 정보(2513)를 표시할 수 있다.In one embodiment, the
도 27은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2700)이다.FIG. 27 is a diagram 2700 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
다양한 실시예들에 따른 도 27의 참조번호 <2710>, <2720>, 및 <2730>은 전술한 도 26의 참조번호 <2610>, <2620>, 및 <2650>과 동일하므로, 이에 대한 상세한 설명은 도 26의 설명으로 대신할 수 있다.Reference numbers <2710>, <2720>, and <2730> of FIG. 27 according to various embodiments are the same as reference numbers <2610>, <2620>, and <2650> of FIG. 26 described above, so detailed The description can be replaced with the description of FIG. 26.
도 27을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <2710>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시한 상태에서, 전자 장치(501)의 제2 면(212)의 일부 영역에서 제1 사용자 인터랙션(2715)을 검출할 수 있다. 예를 들어, 참조번호 <2710> 및 <2720>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다.Referring to FIG. 27, the processor (e.g.,
일 실시예에서, 프로세서(550)는 제1 사용자 인터랙션(2715)의 타입 및 제1 사용자 인터랙션(2715)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 27에서, 제1 사용자 인터랙션(2715)의 타입은 더블 탭으로 가정하고, 더블 탭에 매핑된 기능이 어플리케이션을 종료하는 기능으로 설정된 것으로 가정하여 설명하도록 한다.In FIG. 27 according to various embodiments, the type of the
일 실시예에서, 프로세서(550)는 제1 사용자 인터랙션(2715)이 검출된 위치 정보에 기반하여, 제1 사용자 인터랙션(2715)이 검출된 위치에 대응하는 제1 디스플레이(531)에 표시된 어플리케이션 B를 종료하고, 참조번호 <2730>에 도시된 바와 같이, 제1 디스플레이(531)의 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 C의 제2 정보(2513)를 표시할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2730> 및 <2740>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 제2 사용자 인터랙션(2735)을 검출할 수 있다. 예를 들어, 참조번호 <2730> 및 <2740>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 27에서, 제2 사용자 인터랙션(2735)의 타입은 트리플 탭으로 가정하고, 트리플 탭에 매핑된 기능이 종료된 어플리케이션을 재실행하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 하지만 이에 한정하는 것은 아니며, 트리플 탭에 매핑된 기능으로, 화면 회전 기능, 풀 스크린으로 표시하는 기능, 또는 어플리케이션 변경 기능을 포함할 수 있다.In FIG. 27 according to various embodiments, it is assumed that the type of the
일 실시예에서, 프로세서(550)는 제2 사용자 인터랙션(2735)이 검출되는 것에 기반하여, 종료하였던 어플리케이션 B를 재실행하고, 참조번호 <2750>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 재실행한 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the
도 28a 및 도 28b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2800)이다.FIGS. 28A and 28B are diagrams 2800 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 28a 및 도 28b를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <2810>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.28A and 28B, the processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션(2821)을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션(2821)의 타입 및/또는 사용자 인터랙션(2821)이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2815>에 도시된 바와 같이, 전자 장치(501)의 제4 면(222)의 일부 영역에서 왼손(2501)에 의한 사용자 인터랙션(2821)을 검출할 수 있다. 예를 들어, 참조번호 <2815>에 도시된 제4 면(222)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 A의 제1 정보(2511)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(2821)의 타입 및 사용자 인터랙션(2821)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 28a 및 도 28b에서, 사용자 인터랙션(2821)의 타입은 트리플 탭으로 가정하여 설명하도록 한다. 또한, 제2 하우징(220)의 제4 면(222)에서 트리플 탭(2821)이 검출되는 경우에 매핑된 기능은 제1 방향으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 또한, 제1 하우징(210)의 제2 면(212)에서 트리플 탭(2821)이 검출되는 경우에 매핑된 기능은 제2 방향(예: 제1 방향과 반대 방향)으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다.In FIGS. 28A and 28B according to various embodiments, the type of
일 실시예에서, 프로세서(550)는 제2 하우징(220)의 제4 면(222)에서 트리플 탭(2821)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2823)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 참조번호 <2820>에 도시된 바와 같이, 프로세서(550)는 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 하측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2825>에 도시된 바와 같이, 제2 하우징(220)의 제4 면(222)에서 왼손(2501)에 의한 트리플 탭(2831)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2823)하여 어플리케이션들의 정보들을 표시할 수 있다. 예컨대, 프로세서(550)는 참조번호 <2830>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2835>에 도시된 바와 같이, 제2 하우징(220)의 제4 면(222)에서 왼손(2501)에 의한 트리플 탭(2841)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2823)하여 어플리케이션들의 정보들을 표시할 수 있다. 예컨대, 프로세서(550)는 참조번호 <2840>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제3 영역(예: 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2845>에 도시된 바와 같이, 제1 하우징(210)의 제2 면(212)에서 오른손(2503)에 의한 트리플 탭(2851)이 검출되는 것에 기반하여, 제2 방향으로 윈도우를 회전(2853)하여 어플리케이션들의 정보들을 표시할 수 있다. 예컨대, 프로세서(550)는 참조번호 <2850>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the
도 29a 및 도 29b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2900)이다.FIGS. 29A and 29B are diagrams 2900 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 29a 및 도 29b를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <2910>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.Referring to FIGS. 29A and 29B, the processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2917>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2915)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(2915)의 타입 및 사용자 인터랙션(2915)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 29a 및 도 29b에서, 사용자 인터랙션(2915)의 타입은 더블 탭 또는 트리플 탭으로 가정하고, 제1 하우징(210)의 제2 면(212)에서 더블 탭 또는 트리플 탭이 검출되는 것에 기반하여, 상이한 기능을 수행하는 것으로 가정하여 설명하도록 한다. 예를 들어, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 경우에 매핑된 기능은 제1 방향으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 또한, 제1 하우징(210)의 제2 면(212)에서 트리플 탭이 검출되는 경우에 매핑된 기능은 제2 방향(예: 제1 방향과 반대 방향)으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다.29A and 29B according to various embodiments, the type of
일 실시예에서, 프로세서(550)는 참조번호 <2917>에 도시된 바와 같이 제1 하우징(210)의 제2 면(212)에서 더블 탭(2915)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2921)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2920>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 하측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2927>에 도시된 바와 같이, 제1 하우징(210)의 제2 면(212)에서 더블 탭(2925)이 검출되는 것에 기반하여, 제1 방향으로 윈도우(예: 어플리케이션의 정보가 표시된 윈도우)를 회전(2931)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2930>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <2937>에 도시된 바와 같이, 제1 하우징(210)의 제2 면(212)에서 트리플 탭(2935)이 검출되는 것에 기반하여, 제2 방향으로 윈도우를 회전(2941)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2940>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 하측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the
도 30은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3000)이다.FIG. 30 is a diagram 3000 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 30을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3010>에 도시된 바와 같이, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)를 표시할 수 있다.Referring to FIG. 30, the processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 전자 장치(501)가 양 손(2501, 2503)으로 그립된 상태에서 참조번호 <3025>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3020)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3020)의 타입 및 사용자 인터랙션(3020)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 30에서, 사용자 인터랙션(3020)의 타입은 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.30 according to various embodiments, the type of
일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3020)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3030>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 리스트(3035)를 표시할 수 있다. 어플리케이션 리스트(3035)는 사용자에 의해 자주 사용된 적어도 하나의 어플리케이션을 포함할 수 있다.In one embodiment, based on detecting a
일 실시예에서, 프로세서(550)는 더블 탭(3020)이 검출된 제2 면(212)에 대응하는 제1 디스플레이(531)의 영역(예: 제2 영역(예: 우측 영역))에 새롭게 실행되는 정보들(예: 어플리케이션 리스트(3035))을 표시할 수 있다.In one embodiment, the
다른 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3020)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3050>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시하고, 제2 영역(예: 하측 영역)에 어플리케이션 리스트(3035)를 표시할 수 있다.In another embodiment, based on detecting a
도 31은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3100)이다.FIG. 31 is a diagram 3100 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
다양한 실시예들에 따른 도 31의 참조번호 <3110>은 전술한 도 30의 참조번호 <3010>과 동일하므로, 이에 대한 상세한 설명은 도 30의 설명으로 대신할 수 있다.Since the reference number <3110> of FIG. 31 according to various embodiments is the same as the reference number <3010> of FIG. 30 described above, the detailed description thereof can be replaced with the description of FIG. 30.
도 31을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3110>에 도시된 바와 같이, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)를 표시한 상태에서, 센서 회로(예: 도 5의 센서 회로(540))(예: 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543)) 및/또는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 획득할 수 있다. Referring to FIG. 31, the processor (e.g.,
일 실시예에서, 프로세서(550)는 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 전자 장치(501)가 양 손(2501, 2503)으로 그립된 상태에서 참조번호 <3125>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3120)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3120)의 타입 및 사용자 인터랙션(3120)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 31에서는, 사용자 인터랙션의 타입이 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.31 according to various embodiments, the type of user interaction is a double tap, and based on the double tap being detected on the
일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3120)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3150>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시하고, 제2 영역(예: 우측 영역)에 홈스크린 화면(3155)을 표시할 수 있다.In one embodiment, based on detecting a
일 실시예에서, 프로세서(550)는 더블 탭(3020)이 검출된 제2 면(212)에 대응하는 제1 디스플레이(531)의 영역(예: 제2 영역(예: 우측 영역))에 새롭게 실행되는 정보들(예: 홈스크린 화면(3155))을 표시할 수 있다.In one embodiment, the
도 32는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3200)이다.FIG. 32 is a diagram 3200 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
다양한 실시예들에 따른 도 32의 참조번호 <3210>은 전술한 도 30의 참조번호 <3010>과 동일하므로, 이에 대한 상세한 설명은 도 30의 설명으로 대신할 수 있다.Since the reference number <3210> of FIG. 32 according to various embodiments is the same as the reference number <3010> of FIG. 30 described above, the detailed description thereof can be replaced with the description of FIG. 30.
도 32를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3210>에 도시된 바와 같이, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)를 표시한 상태에서, 센서 회로(예: 도 5의 센서 회로(540))(예: 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543)) 및/또는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 획득할 수 있다. Referring to FIG. 32, the processor (e.g.,
일 실시예에서, 프로세서(550)는 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 전자 장치(501)가 양 손(2501, 2503)으로 그립된 상태에서 참조번호 <3230>에 도시된 바와 같이, 전자 장치(501)의 제4 면(222)의 일부 영역에서 사용자 인터랙션(3220)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3220)의 타입 및 사용자 인터랙션(3220)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 32에서는, 사용자 인터랙션의 타입이 더블 탭이고, 제2 하우징(220)의 제4 면(222)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.In FIG. 32 according to various embodiments, the type of user interaction is a double tap, and based on the double tap being detected on the
일 실시예에서, 제2 하우징(220)의 제4 면(222)에서 더블 탭(3220)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3250>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 리스트(3255)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시할 수 있다.In one embodiment, based on the
일 실시예에서, 프로세서(550)는 더블 탭(3020)이 검출된 제4 면(222)에 대응하는 제1 디스플레이(531)의 영역(예: 제1 영역(예: 좌측 영역))에 새롭게 실행되는 정보들(예: 어플리케이션 리스트(3255))을 표시할 수 있다.In one embodiment, the
도 33은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3300)이다.FIG. 33 is a diagram 3300 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 33을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3310>에 도시된 바와 같이, 제1 영역(예: 좌측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시할 수 있다. Referring to FIG. 33, a processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 이에 한정하는 것은 아니며, 프로세서(550)는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 더 획득할 수 있다. 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <3320>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3315)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3315)의 타입 및 사용자 인터랙션(3315)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 표시된 어플리케이션 B의 제2 정보(3313) 및 어플리케이션 A의 제1 정보(3311)의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 33에서는, 사용자 인터랙션의 타입이 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.In FIG. 33 according to various embodiments, the type of user interaction is a double tap, and based on the double tap being detected on the
일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3315)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3330>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 3개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시하고, 제3 영역(예: 하측 영역)에 어플리케이션 리스트(3331)를 표시할 수 있다.In one embodiment, based on detecting a
이에 한정하는 것은 아니며, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3315)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3350>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 3개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 리스트(3331)를 표시할 수도 있다.It is not limited to this, and based on the
도 34a 및 도 34b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3400, 3450)이다.FIGS. 34A and 34B are diagrams 3400 and 3450 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 34a 및 도 34b를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))가 접힘 상태에서, 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3410>에 도시된 바와 같이, 제2 디스플레이(예: 도 5의 제2 디스플레이(533))의 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시할 수 있다. Referring to FIGS. 34A and 34B, when the electronic device (e.g., the
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 이에 한정하는 것은 아니며, 프로세서(550)는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 더 획득할 수 있다. 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <3420>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3425)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3425)의 타입 및 사용자 인터랙션(3425)이 검출된 위치 정보에 기반하여, 제2 디스플레이(533)에 표시된 어플리케이션 A의 제1 정보(3311) 및/또는 어플리케이션 B의 제2 정보(3313)의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 34a 및 도 34b에서, 사용자 인터랙션(3425)의 타입은 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 표시 위치를 변경(예: 윈도우를 변경)하거나, 또는 더블 탭이 검출된 위치에 대응하는 제2 디스플레이(533)에 표시된 어플리케이션을 종료하는 것으로 가정하여 설명하도록 한다.34A and 34B according to various embodiments, the type of
일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3425)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3460>에 도시된 바와 같이, 제2 디스플레이(예: 도 5의 제2 디스플레이(533))의 제1 영역(예: 상측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시할 수 있다. In one embodiment, based on detecting a
일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3425)이 검출되는 것에 기반하여, 프로세서(550)는 더블 탭(3425)이 검출된 위치에 대응하는 제2 디스플레이(533)에 표시된 어플리케이션 A를 종료하고, 참조번호 <3470>에 도시된 바와 같이, 제2 디스플레이(533)에 어플리케이션 B의 제2 정보(3313)를 표시할 수 있다.In one embodiment, based on the
도 35a는, 본 개시의 일 실시예에 따른, 전자 장치(3500)가 펼침 상태에서, 전자 장치(3500)의 전면을 도시한 평면도이다. 도 35b는, 본 개시의 일 실시예에 따른, 전자 장치(3500)가 펼침 상태에서, 전자 장치(3500)의 후면을 도시한 평면도이다.FIG. 35A is a plan view showing the front of the
도 36a는, 본 개시의 일 실시예에 따른, 전자 장치(3500)의 접힘 상태(folding state)를 도시한 사시도이다. 도 36b는, 본 개시의 일 실시예에 따른, 전자 장치(3500)의 중간 상태(intermediate state)를 도시한 사시도이다.FIG. 36A is a perspective view showing the folding state of the
도 35a 내지 도 36b에 도시된 전자 장치(3500)는, 도 1에 도시된 전자 장치(101), 도 2a 내지 도 4에 도시된 전자 장치(200), 또는 도 5에 도시된 전자 장치(501)와 적어도 일부가 유사하거나, 다른 실시예를 포함할 수 있다.The
도 35a는, 다양한 실시예들에 따른 펼침 상태에서, 전자 장치(3500)의 전면을 도시한 평면도이다. 도 35b는, 다양한 실시예들에 따른, 펼침 상태에서, 전자 장치(3500)의 후면을 도시한 평면도이다.FIG. 35A is a plan view illustrating the front of the
도 36a는, 다양한 실시예들에 따른, 접힘 상태(folding state)를 도시한 전자 장치(3500)의 사시도이다. 도 36b는, 다양한 실시예들에 따른, 중간 상태(intermediate state)를 도시한 전자 장치(3500)의 사시도이다.FIG. 36A is a perspective view of an
도 35a 내지 도 36b를 참고하면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))(예: 도 4의 힌지 플레이트(320))를 기준으로 서로에 대하여 마주보며 접히도록 회동 가능하게 결합되는 한 쌍의 하우징(3510, 3520)(예: 폴더블 하우징)(예: 도 2a의 제1 하우징(210) 및 제2 하우징(220))을 포함할 수 있다. 어떤 실시예에서, 힌지 구조(예: 도 35a의 힌지 구조(3540))(예: 도 4의 힌지 구조(350))는 x축 방향으로 배치되거나, y축 방향으로 배치될 수 있다. 어떤 실시예에서, 힌지 구조(예: 도 35a의 힌지 구조(3540))는 동일한 방향 또는 서로 다른 방향으로 폴딩되도록 2개 이상 배치될 수도 있다. 한 실시예에 따르면, 전자 장치(3500)는 한 쌍의 하우징(3510, 3520)에 의해 형성된 영역에 배치되는 플렉서블 디스플레이(3530)(예: 폴더블 디스플레이)(예: 도 2a의 제1 디스플레이(230), 도 5의 제1 디스플레이(531))를 포함할 수 있다. 한 실시예에 따르면, 제1 하우징(3510)과 제2 하우징(3520)은 폴딩 축(축 B)을 중심으로 양측에 배치되고, 폴딩 축(축 B)에 대하여 실질적으로 대칭인 형상을 가질 수 있다. 한 실시예에 따르면, 제1 하우징(3510) 및 제2 하우징(3520)은 전자 장치(3500)의 상태가 펼침 상태(flat state 또는 unfolding state)인지, 접힘 상태(folding state)인지, 또는 중간 상태(intermediate state)인지의 여부에 따라 서로 이루는 각도나 거리가 달라질 수 있다. 35A to 36B, the
다양한 실시예들에 따르면, 한 쌍의 하우징(3510, 3520)은 힌지 구조(예: 도 35a의 힌지 구조(3540))와 결합되는 제1 하우징(3510)(예: 제1 하우징 구조) 및 힌지 구조(예: 도 35a의 힌지 구조(3540))와 결합되는 제2 하우징(3520)(예: 제2 하우징 구조)을 포함할 수 있다. 한 실시예에 따르면, 제1 하우징(3510)은, 펼침 상태에서, 제1 방향(예: 전면 방향)(z축 방향)을 향하는 제1 면(3511) 및 제1 면(3511)과 대향되는 제2 방향(예: 후면 방향)(-z축 방향)을 향하는 제2 면(3512)을 포함할 수 있다. 한 실시예에 따르면, 제2 하우징(3520)은 펼침 상태에서, 제1 방향(z축 방향)을 향하는 제3 면(3521) 및 제2 방향(-z축 방향)을 향하는 제4 면(3522)을 포함할 수 있다. 한 실시예에 따르면, 전자 장치(3500)는, 펼침 상태에서, 제1 하우징(3510)의 제1 면(3511)과 제2 하우징(3520)의 제3 면(3521)이 실질적으로 동일한 제1 방향(z축 방향)을 향하고, 접힘 상태에서 제1 면(3511)과 제3 면(3521)이 서로 마주보는 방식으로 동작될 수 있다. 한 실시예에 따르면, 전자 장치(3500)는, 펼침 상태에서, 제1 하우징(3510)의 제2 면(3512)과 제2 하우징(3520)의 제4 면(3522)이 실질적으로 동일한 제2 방향(-z축 방향)을 향하고, 접힘 상태에서 제2 면(3512)과 제4 면(3522)이 서로 반대 방향을 향하도록 동작될 수 있다. 예를 들면, 접힘 상태에서 제2 면(3512)은 제1 방향(z축 방향)을 향할 수 있고, 제4 면(3522)은 제2 방향(-z축 방향)을 향할 수 있다.According to various embodiments, the pair of
다양한 실시예들에 따르면, 제1 하우징(3510)은 적어도 부분적으로 전자 장치(3500)의 외관을 형성하는 제1 측면 부재(3513) 및 제1 측면 부재(3513)와 결합되고, 전자 장치(3500)의 제2 면(3512)의 적어도 일부를 형성하는 제1 후면 커버(3514)를 포함할 수 있다. 한 실시예에 따르면, 제1 측면 부재(3513)는 제1 측면(3513a), 제1 측면(3513a)의 일단으로부터 연장되는 제2 측면(3513b) 및 제1 측면(3513a)의 타단으로부터 연장되는 제3 측면(3513c)을 포함할 수 있다. 한 실시예에 따르면, 제1 측면 부재(3513)는 제1 측면(3513a), 제2 측면(3513b), 및 제3 측면(3513c)을 통해 장방형(예: 정사각형 또는 직사각형) 형상으로 형성될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 제2 하우징(3520)은 적어도 부분적으로 전자 장치(3500)의 외관을 형성하는 제2 측면 부재(3523) 및 제2 측면 부재(3523)와 결합되고, 전자 장치(3500)의 제4 면(3522)의 적어도 일부를 형성하는 제2 후면 커버(3524)를 포함할 수 있다. 한 실시예에 따르면, 제2 측면 부재(3523)는 제4 측면(3523a), 제4 측면(3523a)의 일단으로부터 연장되는 제5 측면(3523b) 및 제4 측면(3523a)의 타단으로부터 연장되는 제6 측면(3523c)을 포함할 수 있다. 한 실시예에 따르면, 제2 측면 부재(3523)는 제4 측면(3523a), 제5 측면(3523b), 및 제6 측면(3523c)을 통해 장방형 형상으로 형성될 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 한 쌍의 하우징(3510, 3520)은 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수 있다. 예를 들어, 어떤 실시예에서는, 제1 측면 부재(3513)는 제1 후면 커버(3514)와 일체로 형성될 수 있고, 제2 측면 부재(3523)는 제2 후면 커버(3524)와 일체로 형성될 수 있다.According to various embodiments, the pair of
다양한 실시예들에 따르면, 플렉서블 디스플레이(3530)는 제1 하우징(3510)의 제1 면(3511)으로부터 힌지 구조(예: 도 35a의 힌지 구조(3540))를 가로질러 제2 하우징(3520)의 제3 면(3521)의 적어도 일부까지 연장되도록 배치될 수 있다. 예를 들어, 플렉서블 디스플레이(3530)는 실질적으로 제1 면(3511)과 대응하는 제1 부분(3530a), 제3 면(3521)과 대응하는 제2 부분(3530b), 및 제1 부분(3530a)과 제2 부분(3530b)을 연결하고, 힌지 구조(예: 도 35a의 힌지 구조(3540))와 대응하는 제3 부분(3530c)(예: 굴곡 가능 영역)을 포함할 수 있다. 한 실시예에 따르면, 전자 장치(3500)는 제1 하우징(3510)의 가장자리를 따라 결합되는 제1 보호 커버(3515)(예: 제1 보호 프레임 또는 제1 장식 부재)를 포함할 수 있다. 한 실시예에 따르면, 전자 장치(3500)는 제2 하우징(3520)의 가장자리를 따라 결합되는 제2 보호 커버(3525)(예: 제2 보호 프레임 또는 제2 장식 부재)를 포함할 수 있다. 한 실시예에 따르면, 제1 보호 커버(3515) 및/또는 제2 보호 커버(3525)는 금속 또는 폴리머 재질로 형성될 수 있다. 한 실시예에 따르면, 제1 보호 커버(3515) 및/또는 제2 보호 커버(3525)는 장식 부재(decoration member)로 사용될 수 있다. 한 실시예에 따르면, 플렉서블 디스플레이(3530)는 제1 부분(3530a)의 가장자리가 제1 하우징(3510)과 제1 보호 커버(3515) 사이에 개재되도록 위치될 수 있다. 한 실시예에 따르면, 플렉서블 디스플레이(3530)는 제2 부분(3530b)의 가장자리가 제2 하우징(3520)과 제2 보호 커버(3525) 사이에 개재되도록 위치될 수 있다. 한 실시예에 따르면, 플렉서블 디스플레이(330)는 힌지 구조(예: 도 35a의 힌지 구조(3540))와 대응되는 영역에 배치되는 보호 캡(3535)을 통해, 보호 캡(3535)에 대응되는 플렉서블 디스플레이(3530)의 가장자리가 보호되도록 위치될 수 있다. 따라서, 플렉서블 디스플레이(3530)는 실질적으로 가장자리가 외부로부터 보호될 수 있다. 한 실시예에 따르면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))를 지지하고, 전자 장치(3500)가 접힘 상태일 때, 외부로 노출되고, 펼힘 상태일 때, 제1 공간(예: 제1 하우징(3510)의 내부 공간) 및 제2 공간(예: 제2 하우징(3520)의 내부 공간)으로 인입됨으로써 외부로부터 보이지 않게 배치되는 힌지 하우징(3541)(예: 힌지 커버)을 포함할 수 있다. 어떤 실시예에서, 플렉서블 디스플레이(3530)는 제2 면(3512)의 적어도 일부로부터 제4 면(3522)의 적어도 일부까지 연장 배치될 수 있다. 이러한 경우, 전자 장치(3500)는 플렉서블 디스플레이(3530)가 외부로 노출될 수 있도록 접힐 수 있다(아웃 폴딩 방식).According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(3500)는 플렉서블 디스플레이(3530)와 별도로 배치되는 서브 디스플레이(3531)(예: 도 5의 제2 디스플레이(533))를 포함할 수 있다. 한 실시예에 따르면, 서브 디스플레이(3531)는 제1 하우징(3510)의 제2 면(3512)에 적어도 부분적으로 노출되도록 배치됨으로써, 접힘 상태일 경우, 플렉서블 디스플레이(3530)의 표시 기능을 대체하는, 전자 장치(3500)의 상태 정보를 표시할 수 있다. 한 실시예에 따르면, 서브 디스플레이(3531)는 제1 후면 커버(3514)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다. 어떤 실시예에서, 서브 디스플레이(3531)는 제2 하우징(3520)의 제4 면(3522)에 배치될 수도 있다. 이러한 경우, 서브 디스플레이(3531)는 제2 후면 커버(3524)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다.According to various embodiments, the
다양한 실시예들에 따르면, 전자 장치(3500)는 입력 장치(3503)(예: 마이크), 음향 출력 장치(3501, 3502), 센서 모듈(3504), 카메라 장치(3505, 3508), 키 입력 장치(3506), 또는 커넥터 포트(3507) 중 적어도 하나를 포함할 수 있다. 도시된 실시예에서, 입력 장치(3503)(예: 마이크), 음향 출력 장치(3501, 3502), 센서 모듈(3504), 카메라 장치(3505, 3508), 키 입력 장치(3506), 또는 커넥터 포트(3507)는 제1 하우징(3510) 또는 제2 하우징(3520)에 형성된 홀 또는 형상을 지칭하고 있으나, 전자 장치(3500)의 내부에 배치되고, 홀 또는 형상을 통해 동작하는 실질적인 전자 부품(예: 입력 장치, 음향 출력 장치, 센서 모듈, 또는 카메라 장치)를 포함하도록 정의될 수 있다.According to various embodiments, the
다양한 실시예들에 따른 입력 장치(3503)(예: 마이크), 음향 출력 장치(3501, 3502), 센서 모듈(3504), 카메라 장치(3505, 3508), 플래시(3509), 키 입력 장치(3506), 또는 커넥터 포트(3507)는, 전술한 도 2a 및 도 2b의 전자 장치(200)의 입력 장치(215), 음향 출력 장치(227, 228), 센서 모듈(217a, 217b, 226), 카메라 모듈(216a, 216b, 225), 플래시(218), 키 입력 장치(219), 또는 커넥터 포트(229)와 동일하므로, 이에 대한 설명은 생략하기로 한다.Input device 3503 (e.g., microphone),
도 36b를 참조하면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))를 통해 중간 상태(intermediate state)를 유지하도록 동작될 수도 있다. 이러한 경우, 전자 장치(3500)는 제1 면(3511)과 대응하는 디스플레이 영역과, 제3 면(3521)과 대응하는 디스플레이 영역에 서로 다른 컨텐츠가 표시되도록 플렉서블 디스플레이(3530)를 제어할 수도 있다. 한 실시예에 따르면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))를 통해 일정 변곡 각도(예: 중간 상태일 때, 제1 하우징(3510)과 제2 하우징(3520) 사이의 각도)를 기준으로 실질적으로 펼침 상태(예: 도 35a의 펼침 상태) 및/또는 실질적으로 접힘 상태(예: 도 36a의 접힘 상태)로 동작될 수 있다. 예를 들어, 전자 장치(3500)는, 힌지 구조(예: 도 35a의 힌지 구조(3540))을 통해, 일정 변곡 각도로 펼쳐진 상태에서, 펼쳐지는 방향(D 방향)으로 가압력이 제공될 경우, 펼침 상태(예: 도 35a의 펼침 상태)로 천이되도록 동작될 수 있다. 예를 들어, 전자 장치(3500)는, 힌지 구조(예: 도 35a의 힌지 구조(3540))을 통해, 일정 변곡 각도로 펼쳐진 상태에서, 접히려는 방향(C 방향)으로 가압력이 제공될 경우, 닫힘 상태(예: 도 36a의 접힘 상태)로 천이되도록 동작될 수 있다. 한 실시예에서, 전자 장치(3500)는, 힌지 구조(예: 도 35a의 힌지 구조(3540))을 통해 다양한 각도에서 펼쳐진 상태(미도시)를 유지하도록 동작될 수도 있다.Referring to FIG. 36B, the
도 37은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(3700)이다.FIG. 37 is a diagram 3700 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
도 37을 참조하면, 전자 장치(예: 도 35a의 전자 장치(3500))가 펼침 상태(예: 도 35a 및 도 35b의 상태)에서, 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다.Referring to FIG. 37, when the electronic device (e.g., the
일 실시예에서, 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 그립 상태 및/또는 전자 장치(3500)의 후면(예: 제2 면(3512) 또는 제4 면(3522))에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 관성 센서(541)는 전자 장치(3500)의 제1 하우징(3510)의 내부 공간에 배치될 수 있다. 프로세서(예: 도 5의 프로세서(550))는 관성 센서(541)를 통해 전자 장치(3500)의 자세와 관련된 정보 및/또는 전자 장치(3500)의 움직임과 관련된 센서 정보를 획득할 수 있다. In one embodiment, the
일 실시예에서, 그립 센서(543)는 전자 장치(3500)의 측면의 적어도 일부 영역에 배치될 수 있다. 예를 들어, 그립 센서(543)는 제1 하우징(3510)의 제3 측면(3513c)의 일부 영역 및 제2 하우징(3520)의 제6 측면(3523c)의 일부 영역에 배치된 제1 그립 센서(3711)와 제2 하우징(3520)의 제4 면(3522)의 일부 영역에 배치된 제2 그립 센서(3751)를 포함할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 관성 센서(541), 제1 그립 센서(3711), 및/또는 제2 그립 센서(3751)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 그립 상태, 검출된 사용자 인터랙션의 타입, 및/또는 사용자 인터랙션이 검출된 위치 정보를 추정(또는 예측)하고, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the
도 38은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3800)이다.FIG. 38 is a diagram 3800 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 38을 참조하면, 참조번호 <3810>에 도시된 바와 같이, 전자 장치(예: 도 35a의 전자 장치(3500))는 중간 상태(예; 도 36b의 상태)에서, 제1 디스플레이(예: 도 35a의 제1 디스플레이(3530))에 카메라 어플리케이션의 화면을 표시하는 상태일 수 있다.Referring to FIG. 38, as shown by reference numeral <3810>, an electronic device (e.g., the
일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(3500)의 제1 디스플레이(3530)의 제1 영역(예: 상측 영역)에 카메라(예: 도 35a 및 도 35b의 카메라 장치(3505, 3508))를 통해 획득되는 프리뷰 이미지(3815)를 표시하고, 제2 영역(예: 하측 영역)에 카메라 기능을 제어하기 위한 적어도 하나의 아이템을 포함하는 화면(3820)을 표시할 수 있다. In one embodiment, a processor (e.g.,
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 전자 장치(3500)의 그립 상태와 제2 면(3512) 또는 제4 면(3522)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 및/또는 전자 장치(3500)의 그립 상태에 기반하여 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 보정된 센서 데이터들에 기반하여, 검출된 사용자 인터랙션의 타입, 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <3830>에 도시된 바와 같이, 전자 장치(3500)의 제2 면(3512)의 일부 영역에서 사용자 인터랙션(3835)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3835)의 타입 및 사용자 인터랙션(3835)이 검출된 위치 정보에 기반하여, 제1 디스플레이(3530)에 표시된 카메라 어플리케이션 화면의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 38에서, 사용자 인터랙션(3835)의 타입은 더블 탭으로 가정하고, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭이 검출되는 것에 기반하여, 표시 영역(예: 윈도우)을 변경하는 것으로 가정하여 설명하도록 한다.38 according to various embodiments, it is assumed that the type of
일 실시예에서, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭(3835)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3850>에 도시된 바와 같이, 제1 디스플레이(3530)의 제1 영역(예: 상측 영역)에 카메라 기능을 제어하기 위한 적어도 하나의 아이템을 포함하는 화면(3820)을 표시하고, 제2 영역(예: 하측 영역)에 카메라(예: 도 35a 및 도 35b의 카메라 장치(3505, 3508))를 통해 획득되는 프리뷰 이미지(3815)을 표시할 수 있다. In one embodiment, based on detecting a
도 39는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3900)이다.FIG. 39 is a diagram 3900 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
도 39를 참조하면, 참조번호 <3910>에 도시된 바와 같이, 전자 장치(예: 도 35a의 전자 장치(3500))가 펼침 상태(예: 도 35a 및 도 35b의 상태)에서, 제1 디스플레이(예: 도 35a의 제1 디스플레이(3530))의 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(3815)를 표시하고, 제2 영역(예: 하측 영역)에 어플리케이션 B의 제2 정보(3820)를 표시할 수 있다.Referring to FIG. 39, as shown by reference number <3910>, when the electronic device (e.g., the
일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 전자 장치(3500)의 그립 상태와 제2 면(예: 도 35b의 제2 면(3512)) 또는 제4 면(예: 도 35b의 제4 면(3522))에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 및/또는 전자 장치(3500)의 그립 상태에 기반하여 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 보정된 센서 데이터들에 기반하여 검출된 사용자 인터랙션의 타입, 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <3920>에 도시된 바와 같이, 전자 장치(3500)의 제2 면(3512)의 일부 영역에서 사용자 인터랙션(3925)을 검출할 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(3925)의 타입 및 사용자 인터랙션(3925)이 검출된 위치 정보에 기반하여, 제1 디스플레이(3530)에 표시된 어플리케이션의 표시 속성을 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 39에서, 사용자 인터랙션(3925)의 타입은 더블 탭 또는 트리플 탭이고, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭 또는 트리플 탭이 검출되는 것에 기반하여, 어플리케이션의 정보가 표시되는 영역의 크기를 조정하는 것으로 가정하여 설명하도록 한다.39 according to various embodiments, the type of
일 실시예에서, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭(3925)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3930>에 도시된 바와 같이, 어플리케이션 A의 제1 정보(3815)를 표시하는 제1 영역(예: 상측 영역)의 크기를 제1 크기보다 작은 제2 크기로 조정하고, 어플리케이션 B의 제2 정보(3820)를 표시하는 제2 영역(예: 하측 영역)의 크기를 제1 크기보다 큰 제3 크기로 조정(3835)할 수 있다.In one embodiment, based on the
일 실시예에서, 참조번호 <3940>에 도시된 바와 같이, 제1 하우징(3510)의 제2 면(3512)에서 트리플 탭(3945)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3950>에 도시된 바와 같이, 어플리케이션 A의 제1 정보(3815)를 표시하는 제1 영역(예: 상측 영역)의 크기를 제2 크기보다 큰 제1 크기로 조정하고, 어플리케이션 B의 제2 정보(3820)를 표시하는 제2 영역(예: 하측 영역)의 크기를 제3 크기보다 작은 제1 크기로 조정(3855)할 수 있다.In one embodiment, based on detection of a
다양한 실시예들에 따른 도 2a 내지 도 39에서, 전자 장치를 폴더블 전자 장치(200, 3500)로 설명하였으나, 이에 한정하는 것은 아니다. 예를 들어, 전자 장치는 슬라이더블 전자 장치를 포함할 수 있다. 이와 관련하여, 후술하는 도 40a 및 도 40b에서 다양한 실시예들에 설명될 것이다.2A to 39 according to various embodiments, the electronic devices are described as foldable
도 40a 및 도 40b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(4000, 4050)이다.FIGS. 40A and 40B are diagrams 4000 and 4050 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
다양한 실시예들에 따른 도 40a 및 도 40b에 도시된 전자 장치는 슬라이더블 전자 장치일 수 있다.The electronic devices shown in FIGS. 40A and 40B according to various embodiments may be slideable electronic devices.
도 40a 내지 도 40b에 도시된 전자 장치(4001)는, 도 1에 도시된 전자 장치(101), 도 2a 내지 도 4에 도시된 전자 장치(200), 도 5에 도시된 전자 장치(501), 또는 도 35a 내지 도 36b에 도시된 전자 장치(3500)와 적어도 일부가 유사하거나, 다른 실시예를 포함할 수 있다.The
도 40a 및 도 40b를 참조하면, 전자 장치(4001)는 제1 하우징(4003)(예: 제1 하우징 구조, 이동부, 또는 슬라이드 하우징), 제1 하우징(4003)과 지정된 방향(예: ±y축 방향)으로 슬라이딩 가능하게 결합된 제2 하우징(4005)(예: 제2 하우징 구조, 고정부, 또는 베이스 하우징), 및 제1 하우징(4003)과 제2 하우징(4005)의 적어도 일부를 통해 지지받도록 배치된 플렉서블 디스플레이(flexible display)(4007)(예: expandable display 또는 stretchable display)를 포함할 수 있다. 한 실시예에 따르면, 전자 장치(4001)는 사용자에 의해 파지된 제2 하우징(4005)을 기준으로, 제1 하우징(4003)이 제1 방향(예: y축 방향)으로 인출되거나(slide-out), 제1 방향(예: y축 방향)과 반대인, 제2 방향(예: - y축 방향)으로 인입되도록(slide-in) 구성될 수 있다.Referring to FIGS. 40A and 40B, the
일 실시예에서, 전자 장치(4001)는 참조번호 <4010>에 도시된 바와 같이, 인입 상태(slide-in state)일 수 있다. 예를 들어, 인입 상태는, 제1 하우징(4003)이 제2 하우징(4005)의 내부 공간에 인입된 상태를 의미할 수 있다.In one embodiment, the
일 실시예에서, 전자 장치(4001)가 인입된 상태에서, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(4001)의 그립 상태와 후면(4009)에서 사용자 인터랙션(4011)을 검출할 수 있다. 프로세서(550)는 전자 장치(4001)의 자세, 전자 장치(4001)의 움직임, 전자 장치(4001)의 그립 상태, 검출된 사용자 인터랙션(4011)의 타입, 및/또는 사용자 인터랙션(4011)이 검출된 위치 정보를 확인할 수 있다. In one embodiment, with the
일 실시예에서, 프로세서(550)는 사용자 인터랙션(4011)의 타입 및 사용자 인터랙션(4011)이 검출된 위치 정보에 기반하여, 전자 장치(4001)의 상태를 변경할 수 있다.In one embodiment, the
다양한 실시예들에 따른 도 40a 및 도 40b에서, 사용자 인터랙션(4011)의 타입은 더블 탭 또는 트리플 탭이고, 전자 장치(4001)의 후면(4009)에서 더블 탭 또는 트리플 탭이 검출되는 것에 기반하여, 전자 장치(4001)의 상태를 인입 상태에서 인출 상태(slide-out state)로 변경하거나, 또는 인출 상태에서 인입 상태로 변경하는 것으로 가정하여 설명하도록 한다. 하지만 이에 한정하는 것은 아니며, 사용자 인터랙션의 타입에 따라 수행될 수 있는 기능은 어플리케이션 종료 기능, 어플리케이션 재실행 기능, 화면 회전 기능, 풀 스크린으로 표시하는 기능, 어플리케이션 변경 기능, 또는 팝업창 표시 기능을 포함할 수 있다.40A and 40B according to various embodiments, the type of
일 실시예에서, 전자 장치(4001)의 후면(4009)에서 더블 탭(4011)이 검출되는 것에 기반하여, 프로세서(550)는 전자 장치(4001)를 인출 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 더블 탭(4011)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로부터 지정된 방향(예: y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4013)하도록 할 수 있다. 이에 따라, 참조번호 <4020>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 확장)될 수 있다.In one embodiment, based on a
일 실시예에서, 프로세서(550)는 참조번호 <4020>에 도시된 바와 같이, 전자 장치(4001)의 후면(4009)에서 더블 탭(4021)이 검출되는 것에 기반하여, 전자 장치(4001)를 인출 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 더블 탭(4021)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로부터 지정된 방향(예: y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4023)하도록 할 수 있다. 이에 따라, 참조번호 <4030>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 확장)될 수 있다. In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <4040>에 도시된 바와 같이, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4041)이 검출되는 것에 기반하여, 프로세서(550)는 전자 장치(4001)를 인입 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4041)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로 지정된 방향(예: -y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4043)하도록 할 수 있다. 이에 따라, 참조번호 <4050>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 축소)될 수 있다.In one embodiment, the
일 실시예에서, 프로세서(550)는 참조번호 <4050>에 도시된 바와 같이, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4051)이 검출되는 것에 기반하여, 전자 장치(4001)를 인입 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4051)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로부터 지정된 방향(예: -y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4053)하도록 할 수 있다. 이에 따라, 참조번호 <4060>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 축소)될 수 있다.In one embodiment, the
도 41은, 본 개시의 일 실시예에 따른, 전자 장치(501)의 다양한 폼 팩터(form factor)를 설명하기 위한 도면(4100)이다.FIG. 41 is a diagram 4100 for explaining various form factors of the
다양한 실시예들에 따른 도 41은, 다양한 디스플레이 형태에 가지는 전자 장치(예: 도 5의 전자 장치(501))의 다양한 폼 팩터(form factor)의 예를 나타낸 도면이다.FIG. 41 according to various embodiments is a diagram illustrating examples of various form factors of an electronic device (eg, the
일 실시예에서, 전자 장치(501)는 폴더블(foldable)(4105 내지 4155)과 같은 다양한 폼 팩터를 포함할 수 있다.In one embodiment, the
일 실시예에서, 도 41에 도시된 바와 같이, 전자 장치(501)는 다양한 형태로 구현될 수 있고, 전자 장치(501)의 구현 형태에 따라 디스플레이(예: 도 5의 디스플레이(530))가 다양한 방식으로 제공될 수 있다. In one embodiment, as shown in FIG. 41, the
일 실시예에서, 전자 장치(501)(예: 폴더블 전자 장치(4105 내지 4155))는 디스플레이(예: 도 5의 디스플레이(530))의 서로 다른 두 영역을 실질적으로 마주보게 또는 서로 반대 방향을 향하는(opposite to) 방향으로 접힘이 가능한 전자 장치를 의미할 수 있다. 일반적으로, 휴대 상태에서 전자 장치(501)(예: 폴더블 전자 장치(4105 내지 4155)의 디스플레이(예: 도 5의 디스플레이(530))는 서로 다른 두 영역이 마주보는 상태로 또는 대향하는 방향으로 접혀지고, 실제 사용 상태에서 사용자는 디스플레이를 펼쳐 서로 다른 두 영역이 실질적으로 평판 형태를 이루게 할 수 있다.In one embodiment, the electronic device 501 (e.g., foldable
일 실시예에서, 전자 장치(501)(예: 폴더블 장치(4105 내지 4155))는 하나의 폴딩 축에 기반하여 2개의 디스플레이 면(예: 제1 디스플레이 면 및 제2 디스플레이 면)을 포함하는 폼 팩터(예: 4115) 및/또는 적어도 2개의 폴딩 축에 기반하여 적어도 3개의 디스플레이 면(예: 제1 디스플레이 면, 제2 디스플레이 면 및 제3 디스플레이 면)을 포함하는 폼 팩터(예: 4105, 4110, 4120, 4125, 4130, 4135, 4140, 4145, 4150, 4155)를 포함할 수 있다.In one embodiment, the electronic device 501 (e.g.,
다양한 실시예들이 이에 한정되는 것은 아니며, 전자 장치(501)가 가질 수 있는 폴딩 축들의 수는 제한하지 않는다. 일 실시예에 따르면, 전자 장치(501)는 구현 형태에 따라 디스플레이(예: 도 5의 디스플레이(530))가 다양한 방식(예: 인-폴딩(in-folding), 아웃-폴딩(out-folding), 또는 인/아웃 폴딩)으로 폴딩 또는 언폴딩 될 수 있다.The various embodiments are not limited to this, and the number of folding axes that the
도 42는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따른 기능을 설정하는 방법을 설명하기 위한 도면(4200)이다.FIG. 42 is a diagram 4200 for explaining a method of setting a function according to user interaction, according to an embodiment of the present disclosure.
도 42를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))가 펼침 상태에서, 사용자 인터랙션에 따른 기능을 설정하기 위한 입력을 검출할 수 있다. 예를 들어, 사용자 인터랙션에 따른 기능을 설정하기 위한 입력은, 사용자 인터랙션에 따른 기능을 설정할 수 있는 아이템을 선택하는 입력 및/또는 지정된 입력(예: 지정된 제스처 또는 사용자 인터랙션에 따른 기능을 설정하기 위해 매핑된 지정된 입력 모듈(예: 도 1의 입력 모듈(150))에서 검출되는 입력)을 포함할 수 있다.Referring to FIG. 42, the processor (e.g.,
일 실시예에서, 사용자 인터랙션에 따른 기능을 설정하기 위한 입력을 검출하는 것에 기반하여, 프로세서(550)는 참조번호 <4210>에 도시된 바와 같이, 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 사용자 인터랙션에 따른 기능을 설정하기 위한 제1 화면(또는 제1 사용자 인터페이스)을 표시할 수 있다. 제1 화면은, 더블 탭에 따른 기능을 설정할 수 있는 제1 아이템(4211)과 트리플 탭에 따른 기능을 설정할 수 있는 제2 아이템(4213)을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다. 예를 들어, 프로세서(550)는 더블 탭 또는 트리플 탭 외 다른 사용자 인터랙션에 따른 기능을 설정할 수 있는 아이템을 더 표시할 수 있다.In one embodiment, based on detecting an input for setting a function according to user interaction, the
일 실시예에서, 프로세서(550)는 제1 화면에서 제1 아이템(4211) 또는 제2 아이템(4213)을 선택하는 입력을 검출할 수 있다. 제1 아이템(4211) 또는 제2 아이템(4213) 중 하나를 선택하는 입력을 검출하는 것에 기반하여, 프로세서(550)는 참조번호 <4250>에 도시된 바와 같이, 설정할 수 있는 기능들의 리스트를 포함하는 제2 화면(또는 제2 사용자 인터페이스)를 표시할 수 있다. 예를 들어, 기능들의 리스트는, 기능을 설정하지 않은 메뉴(4251), 윈도우 닫기 기능(4252), 윈도우 복원 기능(4253), 풀 스크린 표시 기능(4254), 손전등 켜기 기능(4255), 자동 회전 켜기 기능(4256), 모든 음소거 켜기 기능(4257), 윈도우 회전 기능(4258), 및/또는 앱 실행 기능(4259)을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the
다양한 실시예들에 따른 전자 장치(501)는 제1 디스플레이(531) 또는 제2 디스플레이(533)를 이용한 직접적인 사용자 입력(예: 터치 입력) 외, 전자 장치(501)의 후면에서 검출되는 사용자 인터랙션에 기반하여 디스플레이에 표시된 어플리케이션의 정보의 표시 속성을 변경하여 표시함으로써, 사용자에게 편리한 사용성을 제공할 수 있다.The
본 개시의 일 실시예에 따른 전자 장치(501)의 사용자 인터랙션에 따른 화면 제어 방법은, 제1 어플리케이션의 제1 정보를 제1 디스플레이(531)에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 제2 어플리케이션을 실행하는 입력에 응답하여, 제2 어플리케이션의 제2 정보와 제1 어플리케이션의 제1 정보를 멀티 윈도우로 제1 디스플레이(531)에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 센서 회로(540)를 통해 센서 정보를 획득하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 센서 회로(540)를 통해 획득된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 제1 디스플레이(531)에 표시하는 동작을 포함할 수 있다.A screen control method according to user interaction of the
일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 보정된 센서 데이터들에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다.In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected may include correcting sensor data of the detected user interaction based on the obtained sensor information. In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected includes confirming the type of user interaction and the location information where the user interaction was detected based on the corrected sensor data. can do.
일 실시예에서, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작은, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 윈도우의 배열 중 적어도 하나를 포함하는 표시 속성을 변경하는 동작을 포함할 수 있다.In one embodiment, the operation of changing the display attribute of at least one of the first information of the first application and the second information of the second application is based on the type of user interaction and location information at which the user interaction was detected, An operation of changing display properties including at least one of the size and arrangement of windows in the display area of the
일 실시예에서, 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함할 수 있다.In one embodiment, the
일 실시예에서, 센서 회로(540)를 통해 획득되는 센서 정보는, 관성 센서(541)를 통해 획득되는 제1 센서 정보, 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the sensor information acquired through the
일 실시예에서, 제1 센서 정보는, 전자 장치(501)의 자세와 관련된 센서 정보 및 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the first sensor information may include at least one of sensor information related to the posture of the
일 실시예에서, 제2 센서 정보는, 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함할 수 있다.In one embodiment, the second sensor information may include at least one of the grip state and grip pattern of the
일 실시예에서, 제3 센서 정보는, 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함할 수 있다.In one embodiment, the third sensor information may include touch information acquired through the touch circuit of the
일 실시예에서, 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작은, 제1 센서 정보, 제2 센서 정보, 및 제3 센서 정보 중 적어도 하나에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작을 포함할 수 있다.In one embodiment, the operation of correcting the sensor data of the detected user interaction includes correcting the sensor data of the detected user interaction based on at least one of first sensor information, second sensor information, and third sensor information. Can include actions.
일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 센서 회로(540)를 통해 획득되는 센서 정보 및 센서 정보에 기반하여 확인된 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 메모리(520)에 누적하여 저장하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 저장된 센서 정보 및 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 학습에 의해 생성된 모델에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다.In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected includes sensor information acquired through the
일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 센서 회로(540)를 통해 획득되는 센서 정보를 무선 통신 회로(510)를 통해 서버에 전송하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 확인하는 동작을 포함할 수 있다.In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected includes transmitting sensor information obtained through the
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited. One (e.g. first) component is said to be "coupled" or "connected" to another (e.g. second) component, with or without the terms "functionally" or "communicatively". When mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store TM ) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.
210: 제1 하우징
220: 제2 하우징
320: 힌지 모듈
501: 전자 장치
510: 무선 통신 회로
520: 메모리
530: 디스플레이
531: 제1 디스플레이
533: 제2 디스플레이
540: 센서 회로
541: 관성 센서
543: 그립 센서
550: 프로세서210: first housing 220: second housing
320: Hinge module 501: Electronic device
510: wireless communication circuit 520: memory
530: display 531: first display
533: second display 540: sensor circuit
541: Inertial sensor 543: Grip sensor
550: processor
Claims (20)
제1 면(211), 상기 제1 면(211)과 반대 방향으로 향하는 제2 면(212), 및 상기 제1 면(211)과 상기 제2 면(212) 사이의 제1 공간을 둘러싸는 제1 측면 부재(213)를 포함하는 제1 하우징(210);
힌지 구조(320)를 이용하여 상기 제1 하우징(210)과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 상기 제1 면(211)과 동일한 방향을 향하는 제3 면(221), 상기 제3 면(221)과 반대 방향을 향하는 제4 면(222), 및 상기 제3 면(221)과 상기 제4 면(222) 사이의 제2 공간을 둘러싸는 제2 측면 부재(223)을 포함하는 제2 하우징(220);
상기 제1 면(211)의 적어도 일부로부터 상기 제3 면(221)의 적어도 일부에 배치되는 제1 디스플레이(531);
센서 회로(540); 및
상기 제1 디스플레이(531) 및 상기 센서 회로(540)와 작동적으로 연결된 프로세서(550)를 포함하고,
상기 프로세서(550)는,
제1 어플리케이션의 제1 정보를 상기 제1 디스플레이(531)에 표시하고,
제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이(531)에 표시하고,
상기 센서 회로(540)를 통해 센서 정보를 획득하고,
상기 획득된 센서 정보에 기반하여, 상기 제2 면(212) 또는 상기 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하고,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하고, 및
상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이(531)에 표시하도록 설정된 전자 장치.In the electronic device 501,
surrounding a first face 211, a second face 212 facing in the opposite direction to the first face 211, and a first space between the first face 211 and the second face 212. A first housing 210 including a first side member 213;
A third surface 221 that is foldably connected to the first housing 210 using a hinge structure 320 and faces the same direction as the first surface 211 in the unfolded state, a fourth side 222 facing in the opposite direction to the third side 221, and a second side member 223 surrounding a second space between the third side 221 and the fourth side 222. A second housing 220 including;
a first display 531 disposed from at least a portion of the first side 211 to at least a portion of the third side 221;
sensor circuit 540; and
Comprising a processor 550 operatively connected to the first display 531 and the sensor circuit 540,
The processor 550,
Displaying first information of a first application on the first display 531,
In response to an input for executing a second application, displaying second information of the second application and first information of the first application in a multi-window on the first display 531,
Obtaining sensor information through the sensor circuit 540,
Based on the obtained sensor information, if it is confirmed that user interaction is detected on the second side 212 or the fourth side 222, information on the type of user interaction and the location where the user interaction was detected is provided. Check,
Based on the type of user interaction and the location information where the user interaction was detected, changing the display attribute of at least one of the first information of the first application and the second information of the second application, and
An electronic device configured to display at least one of the first information and the second information on the first display 531 based on the changed display properties.
상기 프로세서(550)는,
상기 획득된 센서 정보에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 및
상기 보정된 센서 데이터들에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하도록 설정된 전자 장치.According to claim 1,
The processor 550,
Based on the obtained sensor information, correct the sensor data of the detected user interaction, and
An electronic device configured to confirm the type of user interaction and location information where the user interaction was detected, based on the corrected sensor data.
상기 프로세서(550)는,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 상기 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 상기 윈도우의 배열 중 적어도 하나를 포함하는 상기 표시 속성을 변경하도록 설정된 전자 장치.The method of claim 1 or 2,
The processor 550,
The first display 531 for displaying at least one of first information of the first application and second information of the second application based on the type of user interaction and the location information at which the user interaction was detected. An electronic device configured to change the display properties including at least one of a size of a window in a display area and an arrangement of the window.
상기 제2 하우징(220)의 내부 공간에서 상기 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)를 더 포함하고,
상기 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함하는 전자 장치.The method according to any one of claims 1 to 3,
It further includes a second display 533 arranged to be at least partially visible from the outside through the fourth surface 222 in the inner space of the second housing 220,
The sensor circuit 540 is an electronic device including at least one of an inertial sensor 541 and a grip sensor 543.
상기 센서 정보는, 상기 관성 센서(541)를 통해 획득되는 제1 센서 정보, 상기 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 상기 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함하는 전자 장치.According to claim 4,
The sensor information includes first sensor information obtained through the inertial sensor 541, second sensor information obtained through the grip sensor 543, and a touch circuit of the second display 533. An electronic device including at least one of third sensor information.
상기 제1 센서 정보는, 상기 전자 장치(501)의 자세와 관련된 센서 정보 및 상기 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함하고, 및
상기 제2 센서 정보는, 상기 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함하는 전자 장치.According to claim 5,
The first sensor information includes at least one of sensor information related to the posture of the electronic device 501 and sensor information related to the movement of the electronic device 501, and
The second sensor information includes at least one of a grip state and a grip pattern of the electronic device 501.
상기 제3 센서 정보는, 상기 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함하는 전자 장치.The method of claim 5 or 6,
The third sensor information includes touch information obtained through a touch circuit of the second display 533.
상기 프로세서(550)는,
상기 제1 센서 정보, 상기 제2 센서 정보, 및 상기 제3 센서 정보 중 적어도 하나에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하도록 설정된 전자 장치.According to any one of claims 5 to 7,
The processor 550,
An electronic device configured to correct sensor data of the detected user interaction based on at least one of the first sensor information, the second sensor information, and the third sensor information.
메모리(520)를 더 포함하고,
상기 프로세서(550)는,
상기 센서 회로(540)를 통해 획득되는 센서 정보 및 상기 센서 정보에 기반하여 확인된 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 상기 메모리(520)에 누적하여 저장하고,
상기 저장된 센서 정보 및 상기 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하고, 및
상기 학습에 의해 생성된 모델에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하도록 설정된 전자 장치.According to claim 1,
Further comprising a memory 520,
The processor 550,
Accumulating and storing sensor information acquired through the sensor circuit 540, the type of user interaction confirmed based on the sensor information, and location information where the user interaction is detected in the memory 520,
Learning the stored sensor information and the type of user interaction based on the sensor information and the location information where the user interaction is detected using artificial intelligence, and
An electronic device configured to confirm the type of user interaction and location information where the user interaction was detected, based on the model generated through the learning.
무선 통신 회로(510)를 더 포함하고,
상기 프로세서(550)는,
상기 센서 회로(540)를 통해 획득되는 센서 정보를 상기 무선 통신 회로(510)를 통해 서버에 전송하고, 및
상기 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 확인하도록 설정된 전자 장치.According to claim 1,
Further comprising a wireless communication circuit 510,
The processor 550,
Transmitting sensor information obtained through the sensor circuit 540 to a server through the wireless communication circuit 510, and
An electronic device configured to receive a learning model learned through machine learning by artificial intelligence from the server and confirm the type of user interaction and location information where the user interaction is detected.
제1 어플리케이션의 제1 정보를 제1 디스플레이(531)에 표시하는 동작;
제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이(531)에 표시하는 동작;
센서 회로(540)를 통해 센서 정보를 획득하는 동작;
상기 획득된 센서 정보에 기반하여, 상기 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작;
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작; 및
상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이(531)에 표시하는 동작을 포함하는 방법.In the screen control method according to user interaction of the electronic device 501,
An operation of displaying first information of a first application on the first display 531;
In response to an input for executing a second application, displaying second information of the second application and first information of the first application in a multi-window on the first display 531;
Obtaining sensor information through the sensor circuit 540;
Based on the acquired sensor information, if it is confirmed that user interaction is detected on the second side 212 or the fourth side 222 of the electronic device 501, the type of user interaction and the user interaction are determined. An operation to check detected location information;
changing a display attribute of at least one of first information of the first application and second information of the second application based on the type of the user interaction and the location information at which the user interaction was detected; and
A method comprising displaying at least one of the first information and the second information on the first display 531 based on the changed display properties.
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은,
상기 획득된 센서 정보에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작; 및
상기 보정된 센서 데이터들에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함하는 방법.According to claim 11,
The operation of confirming the type of user interaction and the location information where the user interaction was detected,
An operation of correcting sensor data of the detected user interaction based on the acquired sensor information; and
Based on the corrected sensor data, the method includes confirming the type of user interaction and location information where the user interaction was detected.
상기 적어도 하나의 표시 속성을 변경하는 동작은,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 상기 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 상기 윈도우의 배열 중 적어도 하나를 포함하는 상기 표시 속성을 변경하는 동작을 포함하는 방법.The method of claim 11 or 12,
The operation of changing the at least one display property includes:
The first display 531 for displaying at least one of first information of the first application and second information of the second application based on the type of user interaction and the location information at which the user interaction was detected. A method comprising changing the display properties including at least one of a size of a window in a display area and an arrangement of the window.
상기 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함하는 방법.The method according to any one of claims 11 to 13,
The sensor circuit 540 includes at least one of an inertial sensor 541 and a grip sensor 543.
상기 센서 정보는, 상기 관성 센서(541)를 통해 획득되는 제1 센서 정보, 상기 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 상기 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함하는 방법.According to claim 14,
The sensor information includes first sensor information acquired through the inertial sensor 541, second sensor information acquired through the grip sensor 543, and at least partially from the outside through the fourth surface 222. A method including at least one of third sensor information acquired through a touch circuit of a second display 533 that is arranged to be visible.
상기 제1 센서 정보는, 상기 전자 장치(501)의 자세와 관련된 센서 정보 및 상기 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함하고, 및
상기 제2 센서 정보는, 상기 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함하는 방법.According to claim 15,
The first sensor information includes at least one of sensor information related to the posture of the electronic device 501 and sensor information related to the movement of the electronic device 501, and
The second sensor information includes at least one of a grip state and a grip pattern of the electronic device 501.
상기 제3 센서 정보는, 상기 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함하는 방법.The method of claim 15 or 16,
The third sensor information includes touch information obtained through a touch circuit of the second display (533).
상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작은,
상기 제1 센서 정보, 상기 제2 센서 정보, 및 상기 제3 센서 정보 중 적어도 하나에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작을 포함하는 방법.The method according to any one of claims 15 to 17,
The operation of correcting the sensor data of the detected user interaction is,
A method comprising correcting sensor data of the detected user interaction based on at least one of the first sensor information, the second sensor information, and the third sensor information.
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은,
상기 센서 회로(540)를 통해 획득되는 센서 정보 및 상기 센서 정보에 기반하여 확인된 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 메모리(520)에 누적하여 저장하는 동작;
상기 저장된 센서 정보 및 상기 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하는 동작; 및
상기 학습에 의해 생성된 모델에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함하는 방법.According to claim 11,
The operation of confirming the type of user interaction and the location information where the user interaction was detected,
Accumulating and storing sensor information acquired through the sensor circuit 540, the type of user interaction confirmed based on the sensor information, and location information where the user interaction is detected in the memory 520;
An operation of learning the stored sensor information, a type of user interaction based on the sensor information, and location information where user interaction is detected using an artificial intelligence method; and
A method comprising confirming the type of user interaction and location information where the user interaction was detected, based on the model generated by the learning.
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은,
상기 센서 회로(540)를 통해 획득되는 센서 정보를 무선 통신 회로(510)를 통해 서버에 전송하는 동작; 및
상기 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 확인하는 동작을 포함하는 방법.According to claim 11,
The operation of confirming the type of user interaction and the location information where the user interaction was detected,
An operation of transmitting sensor information obtained through the sensor circuit 540 to a server through a wireless communication circuit 510; and
A method comprising receiving a learning model learned through machine learning by artificial intelligence from the server and confirming the type of user interaction and location information where the user interaction is detected.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2023/014270 WO2024080611A1 (en) | 2022-10-11 | 2023-09-20 | Electronic device and method for controlling screen according to user interaction by using same |
US18/384,236 US20240121335A1 (en) | 2022-10-11 | 2023-10-26 | Electronic device and method for controlling screen according to user interaction using the same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220130033 | 2022-10-11 | ||
KR20220130033 | 2022-10-11 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240050225A true KR20240050225A (en) | 2024-04-18 |
Family
ID=90844504
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220179504A KR20240050225A (en) | 2022-10-11 | 2022-12-20 | Electronic device and method for controlling screen according to user interaction using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240050225A (en) |
-
2022
- 2022-12-20 KR KR1020220179504A patent/KR20240050225A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102247663B1 (en) | Method of controlling display and electronic device supporting the same | |
KR20220008742A (en) | Electronic apparatus and method with a flexible display | |
KR20220079379A (en) | Electronic device including stretchable display | |
KR20220083093A (en) | Electronic device and method for controlling display direction according to changing of folding state | |
KR20220017078A (en) | Foldable electronic device for controlling screen rotation and operating method thereof | |
US20230122806A1 (en) | Electronic device for moving position of visual object located in folding area and method for controlling same | |
EP4286979A1 (en) | Electronic device comprising speaker structure | |
KR20240050225A (en) | Electronic device and method for controlling screen according to user interaction using the same | |
KR20220077363A (en) | Electronic device including air vent | |
US20240121335A1 (en) | Electronic device and method for controlling screen according to user interaction using the same | |
KR20220118196A (en) | Call function control method and electronic device supporting the same | |
KR20220026774A (en) | Electronic device for adjusting position of external device and operating method thereof | |
EP4372519A1 (en) | Electronic device and method for detecting whether cover unit is attached thereto | |
KR20240021081A (en) | Electronic device and method for displaying screen according to changing of folding state using the same | |
US20240172852A1 (en) | Cover of electronic device | |
AU2022211949B2 (en) | Electronic device comprising flexible display, and method for controlling same | |
EP4358074A1 (en) | Flexible display and electronic device comprising same | |
EP4366284A1 (en) | Electronic device comprising fixing member | |
KR20240043038A (en) | Electronic device and method for hovering in folded state | |
KR20230149180A (en) | Foldable electronic device and method for recognizing open/closed state using a hole sensor in the same | |
KR20230165645A (en) | Electronic device for identifying motion based on accleration sensors and method thereof | |
KR20220158943A (en) | Electronic device including shielding member | |
KR20240037794A (en) | Electronic device comprising fixing member | |
KR20230022084A (en) | Cover of electronic device | |
KR20240004080A (en) | Electronic device including a connector module and method of operating the same |