KR20240050225A - Electronic device and method for controlling screen according to user interaction using the same - Google Patents

Electronic device and method for controlling screen according to user interaction using the same Download PDF

Info

Publication number
KR20240050225A
KR20240050225A KR1020220179504A KR20220179504A KR20240050225A KR 20240050225 A KR20240050225 A KR 20240050225A KR 1020220179504 A KR1020220179504 A KR 1020220179504A KR 20220179504 A KR20220179504 A KR 20220179504A KR 20240050225 A KR20240050225 A KR 20240050225A
Authority
KR
South Korea
Prior art keywords
sensor
user interaction
information
electronic device
display
Prior art date
Application number
KR1020220179504A
Other languages
Korean (ko)
Inventor
경승현
김상헌
이광탁
임연욱
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to PCT/KR2023/014270 priority Critical patent/WO2024080611A1/en
Priority to US18/384,236 priority patent/US20240121335A1/en
Publication of KR20240050225A publication Critical patent/KR20240050225A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0206Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings
    • H04M1/0208Portable telephones comprising a plurality of mechanically joined movable body parts, e.g. hinged housings characterized by the relative motions of the body parts
    • H04M1/0214Foldable telephones, i.e. with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • H04M1/0216Foldable in one direction, i.e. using a one degree of freedom hinge
    • H04M1/0218The hinge comprising input and/or output user interface means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • H04M1/0268Details of the structure or mounting of specific components for a display module assembly including a flexible display panel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04102Flexible digitiser, i.e. constructional details for allowing the whole digitising part of a device to be flexed or rolled like a sheet of paper
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Environmental & Geological Engineering (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 개시의 다양한 실시예들에 따르면, 전자 장치는, 제1 면, 상기 제1 면과 반대 방향으로 향하는 제2 면, 및 상기 제1 면과 상기 제2 면 사이의 제1 공간을 둘러싸는 제1 측면 부재를 포함하는 제1 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 힌지 구조를 이용하여 상기 제1 하우징과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 상기 제1 면과 동일한 방향을 향하는 제3 면, 상기 제3 면과 반대 방향을 향하는 제4 면, 및 상기 제3 면과 상기 제4 면 사이의 제2 공간을 둘러싸는 제2 측면 부재를 포함하는 제2 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 면의 적어도 일부로부터 상기 제3 면의 적어도 일부에 배치되는 제1 디스플레이를 포함할 수 있다. 일 실시예에서, 전자 장치는, 센서 회로를 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 디스플레이 및 상기 센서 회로와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에서, 상기 프로세서는, 제1 어플리케이션의 제1 정보를 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 센서 회로를 통해 센서 정보를 획득할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 획득된 센서 정보에 기반하여, 상기 제2 면 또는 상기 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시할 수 있다.
본 문서에 개시된 다양한 실시예들 이외의 다른 다양한 실시예들이 가능할 수 있다.
According to various embodiments of the present disclosure, an electronic device includes a first surface, a second surface facing in an opposite direction to the first surface, and a second surface surrounding the first space between the first surface and the second surface. It may include a first housing including a side member. In one embodiment, the electronic device is foldably connected to the first housing based on a folding axis using a hinge structure, and in the unfolded state, a third side facing the same direction as the first side, the third side It may include a second housing including a fourth side facing in the opposite direction, and a second side member surrounding a second space between the third side and the fourth side. In one embodiment, the electronic device may include a first display disposed from at least part of the first side to at least part of the third side. In one embodiment, the electronic device may include a sensor circuit. In one embodiment, the electronic device may include a processor operatively connected to the first display and the sensor circuit. In one embodiment, the processor may display first information of the first application on the first display. In one embodiment, the processor may display second information of the second application and first information of the first application in a multi-window on the first display in response to an input for executing a second application. . In one embodiment, the processor may obtain sensor information through the sensor circuit. In one embodiment, when it is confirmed that user interaction is detected on the second side or the fourth side based on the obtained sensor information, the processor determines the type of user interaction and the detected user interaction. You can check location information. In one embodiment, the processor displays at least one display property of first information of the first application and second information of the second application, based on the type of the user interaction and the location information at which the user interaction was detected. can be changed. In one embodiment, the processor may display at least one of the first information and the second information on the first display based on the changed display properties.
Various other embodiments other than those disclosed in this document may be possible.

Description

전자 장치 및 이를 이용한 사용자 인터랙션에 따른 화면 제어 방법 {ELECTRONIC DEVICE AND METHOD FOR CONTROLLING SCREEN ACCORDING TO USER INTERACTION USING THE SAME}Screen control method according to electronic device and user interaction using the same {ELECTRONIC DEVICE AND METHOD FOR CONTROLLING SCREEN ACCORDING TO USER INTERACTION USING THE SAME}

본 개시의 실시예들은 전자 장치 및 이를 이용한 사용자 인터랙션에 따른 화면 제어 방법에 관한 것이다.Embodiments of the present disclosure relate to an electronic device and a screen control method according to user interaction using the same.

최근, 전자 장치는 장방형 형태의 획일적인 형상에서 벗어나, 다양한 형상으로 변모되어 가고 있다. 예를 들어, 전자 장치는 전자 장치의 휴대성 및 사용성을 만족시키기 위해 디스플레이의 크기를 조절할 수 있는 변형 가능한 구조를 가질 수 있다. 변형 가능한 구조를 가지는 전자 장치는 적어도 두 개의 하우징들이 서로에 대하여 접히거나 펼쳐지는 방식으로 동작하는 폴더블(foldable) 전자 장치 또는 슬라이더블(slidable) 전자 장치를 포함할 수 있다.Recently, electronic devices are moving away from the uniform rectangular shape and are being transformed into various shapes. For example, an electronic device may have a deformable structure that can adjust the size of the display to satisfy the portability and usability of the electronic device. An electronic device having a deformable structure may include a foldable electronic device or a slideable electronic device in which at least two housings operate in a manner in which at least two housings are folded or unfolded relative to each other.

예를 들어, 전자 장치는 적어도 두 개의 하우징들이 서로에 대하여 접히거나 펼쳐짐에 따라 조절되는 디스플레이를 통해 복수의 어플리케이션들의 화면을 제공할 수 있다. 특히, 전자 장치는 디스플레이를 통해 하나의 표시 영역에서 복수의 어플리케이션들의 정보들을 동시에 표시할 수 있는 멀티 윈도우 기능을 제공할 수 있다. 즉, 전자 장치는 디스플레이를 복수의 영역들로 분할하고, 분할된 영역에 동시에 실행 중인 복수의 어플리케이션들의 정보들을 표시할 수 있다.For example, an electronic device may provide screens of a plurality of applications through a display that is adjusted as at least two housings are folded or unfolded relative to each other. In particular, an electronic device can provide a multi-window function that can simultaneously display information from a plurality of applications in one display area through a display. That is, the electronic device can divide the display into a plurality of areas and display information about multiple applications running simultaneously in the divided areas.

전자 장치는 디스플레이를 통해 표시되는 복수의 어플리케이션들의 정보들을 제어하기 위한 방안을 필요로 한다.Electronic devices require a method for controlling information on multiple applications displayed through a display.

본 개시의 일 실시예에 따른 전자 장치는, 복수의 어플리케이션들의 정보들이 디스플레이에 표시되는 중에 센서 회로를 통해 전자 장치의 후면에서의 사용자 인터랙션이 검출되면, 전자 장치의 상태와 사용자 인터랙션의 정보(예: 사용자 인터랙션 타입 정보 및/또는 사용자 인터랙션이 검출된 위치 정보)를 확인할 수 있다. 전자 장치는, 확인된 전자 장치의 상태와 사용자 인터랙션의 정보에 기반하여, 복수의 어플리케이션들의 정보들 중 적어도 하나의 표시 속성을 변경하고, 변경된 표시 속성에 기반하여 적어도 하나의 어플리케이션의 정보를 디스플레이에 표시할 수 있다.The electronic device according to an embodiment of the present disclosure detects user interaction on the back of the electronic device through a sensor circuit while information on a plurality of applications is displayed on the display, and detects the status of the electronic device and information on the user interaction (e.g. : You can check user interaction type information and/or location information where user interaction was detected. The electronic device changes the display attribute of at least one of the information of the plurality of applications based on the confirmed status of the electronic device and information about the user interaction, and displays the information of the at least one application on the display based on the changed display attribute. It can be displayed.

본 개시의 일 실시예에 따른 전자 장치는, 제1 면, 상기 제1 면과 반대 방향으로 향하는 제2 면, 및 상기 제1 면과 상기 제2 면 사이의 제1 공간을 둘러싸는 제1 측면 부재를 포함하는 제1 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 힌지 구조를 이용하여 상기 제1 하우징과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 상기 제1 면과 동일한 방향을 향하는 제3 면, 상기 제3 면과 반대 방향을 향하는 제4 면, 및 상기 제3 면과 상기 제4 면 사이의 제2 공간을 둘러싸는 제2 측면 부재를 포함하는 제2 하우징을 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 면의 적어도 일부로부터 상기 제3 면의 적어도 일부에 배치되는 제1 디스플레이를 포함할 수 있다. 일 실시예에서, 전자 장치는, 센서 회로를 포함할 수 있다. 일 실시예에서, 전자 장치는, 상기 제1 디스플레이 및 상기 센서 회로와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에서, 상기 프로세서는, 제1 어플리케이션의 제1 정보를 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 센서 회로를 통해 센서 정보를 획득할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 획득된 센서 정보에 기반하여, 상기 제2 면 또는 상기 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 일 실시예에서, 상기 프로세서는, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시할 수 있다.An electronic device according to an embodiment of the present disclosure includes a first side, a second side facing in a direction opposite to the first side, and a first side surrounding the first space between the first side and the second side. It may include a first housing including a member. In one embodiment, the electronic device is foldably connected to the first housing based on a folding axis using a hinge structure, and in the unfolded state, a third side facing the same direction as the first side, the third side It may include a second housing including a fourth side facing in the opposite direction, and a second side member surrounding a second space between the third side and the fourth side. In one embodiment, the electronic device may include a first display disposed from at least part of the first side to at least part of the third side. In one embodiment, the electronic device may include a sensor circuit. In one embodiment, the electronic device may include a processor operatively connected to the first display and the sensor circuit. In one embodiment, the processor may display first information of the first application on the first display. In one embodiment, the processor may display second information of the second application and first information of the first application in a multi-window on the first display in response to an input for executing the second application. . In one embodiment, the processor may obtain sensor information through the sensor circuit. In one embodiment, when it is confirmed that user interaction is detected on the second side or the fourth side based on the obtained sensor information, the processor determines the type of user interaction and the detected user interaction. You can check location information. In one embodiment, the processor displays at least one display attribute of first information of the first application and second information of the second application, based on the type of the user interaction and the location information at which the user interaction was detected. can be changed. In one embodiment, the processor may display at least one of the first information and the second information on the first display based on the changed display properties.

본 개시의 일 실시예에 따른 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 제1 어플리케이션의 제1 정보를 제1 디스플레이에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 센서 회로를 통해 센서 정보를 획득하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 상기 획득된 센서 정보에 기반하여, 상기 전자 장치의 제2 면 또는 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작을 포함할 수 있다. 일 실시예에서, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법은, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시하는 동작을 포함할 수 있다.A screen control method according to user interaction of an electronic device according to an embodiment of the present disclosure may include displaying first information of a first application on a first display. In one embodiment, a screen control method according to user interaction of an electronic device includes displaying second information of the second application and first information of the first application in a multi-window in response to an input for executing a second application. It may include an operation of displaying information on the first display. In one embodiment, a screen control method based on user interaction of an electronic device may include acquiring sensor information through a sensor circuit. In one embodiment, the screen control method according to user interaction of the electronic device includes, when it is confirmed that user interaction on the second or fourth side of the electronic device is detected based on the obtained sensor information, the user It may include checking the type of interaction and location information where the user interaction was detected. In one embodiment, a screen control method according to user interaction of an electronic device includes first information of the first application and first information of the second application based on the type of the user interaction and location information at which the user interaction was detected. It may include an operation to change the display attribute of at least one of the two pieces of information. In one embodiment, a screen control method according to user interaction of an electronic device includes displaying at least one of the first information and the second information on the first display based on the changed display properties. can do.

본 개시의 일 실시예에 따르면, 하나 이상의 프로그램을 저장하는 비일시적인 컴퓨터 판독가능 저장 매체(또는, 컴퓨터 프로그램 제품(product))가 기술될 수 있다. 일 실시예에 따른 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 제1 어플리케이션의 제1 정보를 제1 디스플레이에 표시하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 전자 장치의 프로세서에 의해 실행될 시, 제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이에 표시하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 센서 회로를 통해 센서 정보를 획득하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 상기 획득된 센서 정보에 기반하여, 상기 전자 장치의 제2 면 또는 제4 면에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 명령어를 포함할 수 있다. 하나 이상의 프로그램들은, 상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이에 표시하는 명령어를 포함할 수 있다.According to one embodiment of the present disclosure, a non-transitory computer-readable storage medium (or computer program product) storing one or more programs may be described. One or more programs according to an embodiment may include instructions that, when executed by a processor of an electronic device, display first information of the first application on the first display. One or more programs, when executed by a processor of an electronic device, in response to an input for executing a second application, displaying second information of the second application and first information of the first application in a multi-window. It can include commands displayed in . One or more programs may include instructions for obtaining sensor information through a sensor circuit. When it is confirmed that user interaction is detected on the second or fourth side of the electronic device based on the acquired sensor information, the one or more programs provide information on the type of user interaction and the location where the user interaction was detected. It may include a command to check. The one or more programs include instructions for changing the display attribute of at least one of first information of the first application and second information of the second application based on the type of user interaction and location information where the user interaction was detected. may include. One or more programs may include instructions for displaying at least one of the first information and the second information on the first display based on the changed display properties.

본 개시의 일 실시예에 따른 전자 장치는, 디스플레이를 이용한 직접적인 사용자 입력(예: 터치 입력) 외, 전자 장치의 후면에서 검출되는 사용자 인터랙션에 기반하여 디스플레이에 표시된 어플리케이션의 정보의 표시 속성을 변경하여 표시함으로써, 사용자에게 편리한 사용성을 제공할 수 있다.An electronic device according to an embodiment of the present disclosure changes the display properties of information of an application displayed on the display based on user interaction detected on the back of the electronic device in addition to direct user input (e.g., touch input) using the display. By displaying it, convenient usability can be provided to the user.

도 1은, 본 개시의 일 실시예에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a 및 도 2b는, 본 개시의 일 실시예에 따른, 전자 장치(예: 폴더블 전자 장치)의 펼침(unfolding) 상태를 전면 및 후면에서 바라본 도면이다.
도 3a 및 도 3b는, 본 개시의 일 실시예에 따른, 전자 장치의 접힘(folding) 상태를 전면 및 후면에서 바라본 도면이다.
도 4는, 본 개시의 일 실시예에 따른, 전자 장치의 분리 사시도를 개략적으로 나타내는 도면이다.
도 5는, 본 개시의 일 실시예에 따른, 전자 장치를 도시한 블록도이다.
도 6a는, 본 개시의 일 실시예에 따른, 전자 장치의 사용자 인터랙션에 따른 화면 제어 방법을 설명하기 위한 흐름도이다.
도 6b는, 본 개시의 일 실시예에 따른, 전술한 도 6a의 640동작을 설명하기 위한 흐름도이다.
도 7a는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서 검출될 수 있는 사용자 인터랙션을 설명하기 위한 도면이다.
도 7b 및 도 7c는, 본 개시의 일 실시예에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 도면이다.
도 8은, 본 개시의 일 실시예에 따른, 전자 장치의 상태에 기반하여, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 9a 및 도 9b는, 본 개시의 일 실시예에 따른, 관성 센서를 통해 획득되는 센서 정보를 이용하여 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 10a 및 도 10b는, 본 개시의 일 실시예에 따른, 도 7b의 리샘플링부의 동작을 설명하기 위한 도면이다.
도 11은, 본 개시의 일 실시예에 따른, 도 7b의 슬로핑부의 동작을 설명하기 위한 도면이다.
도 12는, 본 개시의 일 실시예에 따른, 도 7b의 피크 식별부의 동작을 설명하기 위한 도면이다.
도 13은, 본 개시의 일 실시예에 따른, 도 7b의 클러스터 생성부의 동작을 설명하기 위한 도면이다.
도 14는, 본 개시의 일 실시예에 따른, 인공지능 모델의 동작을 설명하기 위한 도면이다.
도 15a 및 도 15b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 16은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 17은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 18은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 19는, 본 개시의 일 실시예에 따른, 전자 장치의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 20은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 21a 및 도 21b는, 본 개시의 일 실시예에 따른, 전자 장치의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 22는, 본 개시의 일 실시예에 따른, 전자 장치의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 23은, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서 복수의 어플리케이션들의 정보들을 표시하는 방법을 설명하기 위한 도면이다.
도 24는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서 검출되는 사용자 인터랙션을 설명하기 위한 도면이다.
도 25는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 26은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 27은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 28a 및 도 28b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 29a 및 도 29b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 30은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 31은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 32는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 33은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 34a 및 도 34b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 35a는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서, 전자 장치의 전면을 도시한 평면도이다.
도 35b는, 본 개시의 일 실시예에 따른, 전자 장치가 펼침 상태에서, 전자 장치의 후면을 도시한 평면도이다.
도 36a는, 본 개시의 일 실시예에 따른, 전자 장치의 접힘 상태(folding state)를 도시한 사시도이다.
도 36b는, 본 개시의 일 실시예에 따른, 전자 장치의 중간 상태(intermediate state)를 도시한 사시도이다.
도 37은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면이다.
도 38은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 39는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 40a 및 도 40b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면이다.
도 41은, 본 개시의 일 실시예에 따른, 전자 장치의 다양한 폼 팩터(form factor)를 설명하기 위한 도면이다.
도 42는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따른 기능을 설정하는 방법을 설명하기 위한 도면이다.
1 is a block diagram of an electronic device in a network environment, according to an embodiment of the present disclosure.
FIGS. 2A and 2B are front and rear views of an unfolding state of an electronic device (eg, a foldable electronic device) according to an embodiment of the present disclosure.
3A and 3B are diagrams showing a folded state of an electronic device viewed from the front and rear, according to an embodiment of the present disclosure.
FIG. 4 is a diagram schematically showing an exploded perspective view of an electronic device according to an embodiment of the present disclosure.
Figure 5 is a block diagram illustrating an electronic device according to an embodiment of the present disclosure.
FIG. 6A is a flowchart illustrating a screen control method according to user interaction of an electronic device, according to an embodiment of the present disclosure.
FIG. 6B is a flowchart for explaining operation 640 of FIG. 6A described above, according to an embodiment of the present disclosure.
FIG. 7A is a diagram illustrating user interaction that can be detected when the electronic device is in an unfolded state, according to an embodiment of the present disclosure.
7B and 7C are diagrams for explaining a method for detecting user interaction according to an embodiment of the present disclosure.
FIG. 8 is a diagram illustrating a method of correcting sensor data of user interaction based on the state of an electronic device, according to an embodiment of the present disclosure.
FIGS. 9A and 9B are diagrams for explaining a method of correcting sensor data of user interaction using sensor information acquired through an inertial sensor, according to an embodiment of the present disclosure.
FIGS. 10A and 10B are diagrams for explaining the operation of the resampling unit of FIG. 7B according to an embodiment of the present disclosure.
FIG. 11 is a diagram for explaining the operation of the sloping unit of FIG. 7B according to an embodiment of the present disclosure.
FIG. 12 is a diagram for explaining the operation of the peak identification unit of FIG. 7B according to an embodiment of the present disclosure.
FIG. 13 is a diagram for explaining the operation of the cluster generator of FIG. 7B according to an embodiment of the present disclosure.
Figure 14 is a diagram for explaining the operation of an artificial intelligence model according to an embodiment of the present disclosure.
FIGS. 15A and 15B are diagrams for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 16 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 17 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 18 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 19 is a diagram for explaining a method of correcting sensor data of user interaction according to the grip of an electronic device, according to an embodiment of the present disclosure.
FIG. 20 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIGS. 21A and 21B are diagrams for explaining a method of correcting sensor data of user interaction according to the grip of an electronic device, according to an embodiment of the present disclosure.
FIG. 22 is a diagram for explaining a method of correcting sensor data of user interaction according to the grip of an electronic device, according to an embodiment of the present disclosure.
FIG. 23 is a diagram illustrating a method of displaying information on a plurality of applications in an unfolded state of an electronic device, according to an embodiment of the present disclosure.
FIG. 24 is a diagram illustrating user interaction detected when the electronic device is in an unfolded state, according to an embodiment of the present disclosure.
FIG. 25 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 26 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 27 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIGS. 28A and 28B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIGS. 29A and 29B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 30 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 31 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 32 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 33 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIGS. 34A and 34B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 35A is a plan view showing the front of the electronic device in an unfolded state, according to an embodiment of the present disclosure.
FIG. 35B is a plan view illustrating the rear of the electronic device in an unfolded state, according to an embodiment of the present disclosure.
Figure 36A is a perspective view showing a folding state of an electronic device, according to an embodiment of the present disclosure.
Figure 36b is a perspective view showing an intermediate state of an electronic device, according to an embodiment of the present disclosure.
FIG. 37 is a diagram for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.
FIG. 38 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 39 is a diagram for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
40A and 40B are diagrams for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.
FIG. 41 is a diagram for explaining various form factors of an electronic device according to an embodiment of the present disclosure.
FIG. 42 is a diagram for explaining a method of setting a function according to user interaction, according to an embodiment of the present disclosure.

도 1은, 본 개시의 일 실시예에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다.1 is a block diagram of an electronic device 101 in a network environment 100, according to an embodiment of the present disclosure.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (e.g., a short-range wireless communication network) or a second network 199. It is possible to communicate with at least one of the electronic device 104 or the server 108 through (e.g., a long-distance wireless communication network). According to one embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to one embodiment, the electronic device 101 includes a processor 120, a memory 130, an input module 150, an audio output module 155, a display module 160, an audio module 170, and a sensor module ( 176), interface 177, connection terminal 178, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196 , or may include an antenna module 197. In some embodiments, at least one of these components (eg, the connection terminal 178) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components (e.g., sensor module 176, camera module 180, or antenna module 197) are integrated into one component (e.g., display module 160). It can be.

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (e.g., program 140) to operate at least one other component (e.g., hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and various data processing or operations can be performed. According to one embodiment, as at least part of data processing or computation, the processor 120 stores commands or data received from another component (e.g., sensor module 176 or communication module 190) in volatile memory 132. The commands or data stored in the volatile memory 132 can be processed, and the resulting data can be stored in the non-volatile memory 134. According to one embodiment, the processor 120 includes a main processor 121 (e.g., a central processing unit or an application processor) or an auxiliary processor 123 that can operate independently or together (e.g., a graphics processing unit, a neural network processing unit ( It may include a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor). For example, if the electronic device 101 includes a main processor 121 and a auxiliary processor 123, the auxiliary processor 123 may be set to use lower power than the main processor 121 or be specialized for a designated function. You can. The auxiliary processor 123 may be implemented separately from the main processor 121 or as part of it.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor 123 may, for example, act on behalf of the main processor 121 while the main processor 121 is in an inactive (e.g., sleep) state, or while the main processor 121 is in an active (e.g., application execution) state. ), together with the main processor 121, at least one of the components of the electronic device 101 (e.g., the display module 160, the sensor module 176, or the communication module 190) At least some of the functions or states related to can be controlled. According to one embodiment, coprocessor 123 (e.g., image signal processor or communication processor) may be implemented as part of another functionally related component (e.g., camera module 180 or communication module 190). there is. According to one embodiment, the auxiliary processor 123 (eg, neural network processing device) may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning. For example, such learning may be performed in the electronic device 101 itself on which the artificial intelligence model is performed, or may be performed through a separate server (e.g., server 108). Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited. An artificial intelligence model may include multiple artificial neural network layers. Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above. In addition to hardware structures, artificial intelligence models may additionally or alternatively include software structures.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176) of the electronic device 101. Data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto. Memory 130 may include volatile memory 132 or non-volatile memory 134.

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144, or application 146.

입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.The input module 150 may receive commands or data to be used in a component of the electronic device 101 (e.g., the processor 120) from outside the electronic device 101 (e.g., a user). The input module 150 may include, for example, a microphone, mouse, keyboard, keys (eg, buttons), or digital pen (eg, stylus pen).

음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output module 155 may output sound signals to the outside of the electronic device 101. The sound output module 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker or as part of it.

디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module 160 can visually provide information to the outside of the electronic device 101 (eg, a user). The display module 160 may include, for example, a display, a hologram device, or a projector, and a control circuit for controlling the device. According to one embodiment, the display module 160 may include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of force generated by the touch.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module 170 can convert sound into an electrical signal or, conversely, convert an electrical signal into sound. According to one embodiment, the audio module 170 acquires sound through the input module 150, the sound output module 155, or an external electronic device (e.g., directly or wirelessly connected to the electronic device 101). Sound may be output through the electronic device 102 (e.g., speaker or headphone).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 detects the operating state (e.g., power or temperature) of the electronic device 101 or the external environmental state (e.g., user state) and generates an electrical signal or data value corresponding to the detected state. can do. According to one embodiment, the sensor module 176 includes, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, humidity sensor, or light sensor.

인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support one or more designated protocols that can be used to connect the electronic device 101 directly or wirelessly with an external electronic device (eg, the electronic device 102). According to one embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.

연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to one embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 can convert electrical signals into mechanical stimulation (e.g., vibration or movement) or electrical stimulation that the user can perceive through tactile or kinesthetic senses. According to one embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 can capture still images and moving images. According to one embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 can manage power supplied to the electronic device 101. According to one embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to one embodiment, the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. Communication module 190 is configured to provide a direct (e.g., wired) communication channel or wireless communication channel between electronic device 101 and an external electronic device (e.g., electronic device 102, electronic device 104, or server 108). It can support establishment and communication through established communication channels. Communication module 190 operates independently of processor 120 (e.g., an application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module 190 is a wireless communication module 192 (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (e.g. : LAN (local area network) communication module, or power line communication module) may be included. Among these communication modules, the corresponding communication module is a first network 198 (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network 199 (e.g., legacy It may communicate with an external electronic device 104 through a telecommunication network such as a cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., LAN or WAN). These various types of communication modules may be integrated into one component (e.g., a single chip) or may be implemented as a plurality of separate components (e.g., multiple chips). The wireless communication module 192 uses subscriber information (e.g., International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 to communicate within a communication network such as the first network 198 or the second network 199. The electronic device 101 can be confirmed or authenticated.

무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module 192 may support 5G networks after 4G networks and next-generation communication technologies, for example, NR access technology (new radio access technology). NR access technology provides high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), minimization of terminal power and access to multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low latency). -latency communications)) can be supported. The wireless communication module 192 may support a high frequency band (eg, mmWave band), for example, to achieve a high data rate. The wireless communication module 192 uses various technologies to secure performance in high frequency bands, for example, beamforming, massive array multiple-input and multiple-output (MIMO), and full-dimensional multiplexing. It can support technologies such as input/output (FD-MIMO: full dimensional MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module 192 may support various requirements specified in the electronic device 101, an external electronic device (e.g., electronic device 104), or a network system (e.g., second network 199). According to one embodiment, the wireless communication module 192 supports Peak data rate (e.g., 20 Gbps or more) for realizing eMBB, loss coverage (e.g., 164 dB or less) for realizing mmTC, or U-plane latency (e.g., 164 dB or less) for realizing URLLC. Example: Downlink (DL) and uplink (UL) each of 0.5 ms or less, or round trip 1 ms or less) can be supported.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB(printed circuit board)) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit or receive signals or power to or from the outside (eg, an external electronic device). According to one embodiment, the antenna module 197 may include an antenna including a radiator made of a conductor or a conductive pattern formed on a substrate (eg, printed circuit board (PCB)). According to one embodiment, the antenna module 197 may include a plurality of antennas (eg, an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, connected to the plurality of antennas by the communication module 190. can be selected. Signals or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna. According to some embodiments, in addition to the radiator, other components (eg, radio frequency integrated circuit (RFIC)) may be additionally formed as part of the antenna module 197.

다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module 197 may form a mmWave antenna module. According to one embodiment, a mmWave antenna module includes a printed circuit board, an RFIC disposed on or adjacent to a first side (e.g., bottom side) of the printed circuit board and capable of supporting a designated high frequency band (e.g., mmWave band); And a plurality of antennas (e.g., array antennas) disposed on or adjacent to the second side (e.g., top or side) of the printed circuit board and capable of transmitting or receiving signals in the designated high frequency band. can do.

상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( (e.g. commands or data) can be exchanged with each other.

일 실시예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.According to one embodiment, commands or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the external electronic devices 102 or 104 may be of the same or different type as the electronic device 101. According to one embodiment, all or part of the operations performed in the electronic device 101 may be executed in one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device 101 does not execute the function or service on its own. Alternatively, or additionally, one or more external electronic devices may be requested to perform at least part of the function or service. One or more external electronic devices that have received the request may execute at least part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device 101. The electronic device 101 may process the result as is or additionally and provide it as at least part of a response to the request. For this purpose, for example, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology can be used. The electronic device 101 may provide an ultra-low latency service using, for example, distributed computing or mobile edge computing. In another embodiment, the external electronic device 104 may include an Internet of Things (IoT) device. Server 108 may be an intelligent server using machine learning and/or neural networks. According to one embodiment, the external electronic device 104 or server 108 may be included in the second network 199. The electronic device 101 may be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.

도 2a 및 도 2b는, 본 개시의 일 실시예에 따른, 전자 장치(예: 폴더블 전자 장치)의 펼침(unfolding) 상태를 전면 및 후면에서 바라본 도면이다. 도 3a 및 도 3b는, 본 개시의 일 실시예에 따른, 전자 장치의 접힘(folding) 상태를 전면 및 후면에서 바라본 도면이다.FIGS. 2A and 2B are front and rear views of an unfolding state of an electronic device (eg, a foldable electronic device) according to an embodiment of the present disclosure. 3A and 3B are diagrams showing a folded state of an electronic device viewed from the front and rear, according to an embodiment of the present disclosure.

다양한 실시예들에 따르면, 도 1에 개시된 실시예들은 도 2a 내지 도 3b에 개시된 실시예들에 포함될 수 있다. 예를 들어, 도 2a 내지 도 3b에 개시된 전자 장치(200)는 도 1에 개시된 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 안테나 모듈(197), 및/또는 가입자 식별 모듈(196)을 포함할 수 있다. 도 2a 내지 도 3b에 개시된 전자 장치는 폴더블 전자 장치(200)를 포함할 수 있다. According to various embodiments, the embodiments disclosed in FIG. 1 may be included in the embodiments disclosed in FIGS. 2A to 3B. For example, the electronic device 200 disclosed in FIGS. 2A to 3B includes the processor 120, memory 130, input module 150, audio output module 155, display module 160, and Audio module 170, sensor module 176, interface 177, connection terminal 178, haptic module 179, camera module 180, antenna module 197, and/or subscriber identification module 196. may include. The electronic device disclosed in FIGS. 2A to 3B may include a foldable electronic device 200.

도 2a 내지 도 3b를 참조하면, 본 개시의 다양한 실시예에 따른 전자 장치(200)(예: 폴더블 전자 장치)는, 서로에 대하여 접힘 가능하도록 힌지 장치(예: 도 4의 힌지 플레이트(320))(예: 힌지 모듈)를 통해 폴딩 축(A)을 기준으로 회동 가능하게 결합되는 한 쌍의 하우징들(210, 220)(예: 폴더블 하우징 구조), 한 쌍의 하우징들(210, 220)을 통해 배치되는 플렉서블(flexible) 디스플레이(230)(예: 제1 디스플레이, 폴더블(foldable) 디스플레이 또는 메인 디스플레이), 및/또는 제2 하우징(220)을 통해 배치된 서브 디스플레이(300)(예: 제2 디스플레이)를 포함할 수 있다. 2A to 3B, electronic devices 200 (e.g., foldable electronic devices) according to various embodiments of the present disclosure include a hinge device (e.g., the hinge plate 320 of FIG. 4) so that they can be folded relative to each other. ))) (e.g., a hinge module), a pair of housings (210, 220) (e.g., a foldable housing structure), a pair of housings (210, A flexible display 230 (e.g., a first display, a foldable display, or a main display) disposed through 220), and/or a sub-display 300 disposed through the second housing 220. (e.g., a second display) may be included.

다양한 실시예들에 따르면, 힌지 장치(예: 도 4의 힌지 플레이트(320))의 적어도 일부는 제1 하우징(210) 및 제2 하우징(220)을 통해 외부로부터 보이지 않도록 배치되고, 펼침 상태에서, 접힘 가능한 부분을 커버하는 힌지 커버(310)(예: 힌지 하우징)를 통해 외부로부터 보이지 않게 배치될 수 있다. 본 문서에서, 플렉서블 디스플레이(230)가 배치된 면은 전자 장치(200)의 전면으로 정의될 수 있고, 전면의 반대면은 전자 장치(200)의 후면으로 정의될 수 있다. 상기 전면 및 후면 사이의 공간을 둘러싸는 면은 전자 장치(200)의 측면으로 정의될 수 있다.According to various embodiments, at least a portion of the hinge device (e.g., the hinge plate 320 in FIG. 4) is disposed so as not to be visible from the outside through the first housing 210 and the second housing 220, and is displayed in the unfolded state. , It can be arranged to be invisible from the outside through a hinge cover 310 (e.g., hinge housing) that covers the foldable portion. In this document, the side on which the flexible display 230 is placed may be defined as the front of the electronic device 200, and the side opposite to the front may be defined as the back of the electronic device 200. The surface surrounding the space between the front and back may be defined as the side of the electronic device 200.

다양한 실시예들에 따르면, 한 쌍의 하우징들(210, 220)은 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해 서로에 대하여 폴딩 가능하게 배치되는 제1 하우징(210) 및 제2 하우징(220)을 포함할 수 있다. 한 쌍의 하우징들(210, 220)은 도 2a 내지 도 3b에 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수도 있다. 제1 하우징(210) 및 제2 하우징(220)은 폴딩 축(A)을 기준으로 양측에 배치되고, 폴딩 축(A)에 대하여 전체적으로 대칭인 형상을 가질 수 있다. 어떤 실시예에 따르면, 제1 하우징(210) 및 제2 하우징(220)은 폴딩 축(A)을 기준으로 비대칭으로 접힐 수도 있다. 제1 하우징(210) 및 제2 하우징(220)은 전자 장치(200)가 펼침 상태, 접힘 상태, 또는 중간 상태(intermediate state)인지의 여부에 따라 서로 이루는 각도나 거리가 서로 달라질 수 있다. According to various embodiments, a pair of housings 210 and 220 includes a first housing 210 and a second housing arranged to be foldable relative to each other through a hinge device (e.g., the hinge plate 320 of FIG. 4). 2 It may include a housing 220. The pair of housings 210 and 220 is not limited to the shape and combination shown in FIGS. 2A and 3B, and may be implemented by combining and/or combining other shapes or parts. The first housing 210 and the second housing 220 are disposed on both sides of the folding axis A, and may have an overall symmetrical shape with respect to the folding axis A. According to some embodiments, the first housing 210 and the second housing 220 may be folded asymmetrically with respect to the folding axis A. The angle or distance between the first housing 210 and the second housing 220 may be different from each other depending on whether the electronic device 200 is in an unfolded state, a folded state, or an intermediate state.

다양한 실시예들에 따르면, 제1 하우징(210)은 전자 장치(200)의 펼침 상태에서, 힌지 장치(예: 도 4의 힌지 플레이트(320))에 연결되며, 전자 장치(200)의 전면을 향하도록 배치된 제1 면(211), 제1 면(211)의 반대 방향을 향하는 제2 면(212), 및/또는 제1 면(211)과 제2 면(212) 사이의 제1 공간(2101)의 적어도 일부를 둘러싸는 제1 측면 부재(213)를 포함할 수 있다. 한 실시예에 따르면, 제1 측면 부재(213)는 제1 방향(예: x축 방향)을 따라 제1 길이를 갖는 제1 측면(213a), 제1 측면(213a)으로부터 실질적으로 수직한 방향(예: -y축 방향)을 따라 제1 길이보다 긴 제2 길이를 갖도록 연장된 제2 측면(213c), 및 제2 측면(213c)으로부터 제1 측면(213a)과 실질적으로 평행하게 연장되고 제1 길이를 갖는 제3 측면(213b)을 포함할 수 있다.According to various embodiments, the first housing 210 is connected to a hinge device (e.g., the hinge plate 320 of FIG. 4) in the unfolded state of the electronic device 200, and covers the front of the electronic device 200. The first side 211 arranged to face, the second side 212 facing in the opposite direction of the first side 211, and/or the first space between the first side 211 and the second side 212 It may include a first side member 213 surrounding at least a portion of 2101. According to one embodiment, the first side member 213 includes a first side 213a having a first length along a first direction (e.g., x-axis direction), and a direction substantially perpendicular to the first side 213a. a second side 213c extending along (e.g. -y-axis direction) to have a second length longer than the first length, and extending substantially parallel to the first side 213a from the second side 213c; It may include a third side 213b having a first length.

다양한 실시예들에 따르면, 제2 하우징(220)은 전자 장치(200)의 펼침 상태에서, 힌지 장치(예: 도 4의 힌지 플레이트(320))와 연결되며, 전자 장치(200)의 전면을 향하도록 배치된 제3 면(221), 제3 면(221)의 반대 방향을 향하는 제4 면(222), 및/또는 제3 면(221)과 제4 면(222) 사이의 제2 공간(2201)의 적어도 일부를 둘러싸는 제2 측면 부재(223)를 포함할 수 있다. 한 실시예에 따르면, 제2 측면 부재(223)는 제1 방향(예: x축 방향)을 따라 제1 길이를 갖는 제4 측면(223a), 제4 측면(223a)으로부터 실질적으로 수직한 방향(예: -y축 방향)을 따라 제1 길이보다 긴 제2 길이를 갖도록 연장된 제5 측면(223c), 및 제5 측면(223c)으로부터 제4 측면(223a)과 실질적으로 평행하게 연장되고 제1 길이를 갖는 제6 측면(223b)을 포함할 수 있다.According to various embodiments, the second housing 220 is connected to a hinge device (e.g., the hinge plate 320 of FIG. 4) in the unfolded state of the electronic device 200, and covers the front of the electronic device 200. A third side 221 arranged to face, a fourth side 222 facing in the opposite direction of the third side 221, and/or a second space between the third side 221 and the fourth side 222. It may include a second side member 223 surrounding at least a portion of 2201 . According to one embodiment, the second side member 223 has a fourth side 223a having a first length along a first direction (e.g., x-axis direction), and a direction substantially perpendicular to the fourth side 223a. a fifth side 223c extending along the -y axis direction to have a second length longer than the first length, and extending substantially parallel to the fourth side 223a from the fifth side 223c; It may include a sixth side 223b having a first length.

다양한 실시예들에 따르면, 제1 면(211)은, 펼침 상태에서 제3 면(221)과 실질적으로 동일한 방향을 향하고, 접힘 상태에서 제3 면(221)과 마주보도록 적어도 부분적으로 대면될 수 있다.According to various embodiments, the first side 211 may face substantially the same direction as the third side 221 in the unfolded state, and may be at least partially facing the third side 221 in the folded state. there is.

다양한 실시예들에 따르면, 전자 장치(200)는 제1 하우징(210) 및 제2 하우징(220)의 구조적 결합을 통해 플렉서블 디스플레이(230)를 수용하도록 형성된 리세스(201)를 포함할 수도 있다. 리세스(201)는 플렉서블 디스플레이(230)와 실질적으로 동일한 크기를 가질 수 있다. According to various embodiments, the electronic device 200 may include a recess 201 formed to accommodate the flexible display 230 through structural coupling of the first housing 210 and the second housing 220. . The recess 201 may have substantially the same size as the flexible display 230.

다양한 실시예들에 따르면, 힌지 커버(310)(예: 힌지 하우징)는, 제1 하우징(210) 및 제2 하우징(220) 사이에 배치될 수 있다. 힌지 커버(310)는 힌지 장치(예: 도 4의 힌지 플레이트(320))의 일부(예: 적어도 하나의 힌지 모듈)를 가리도록 배치될 수 있다. 힌지 커버(310)는, 전자 장치(200)의 펼침 상태, 접힘 상태, 또는 중간 상태에 따라, 제1 하우징(210) 및 제2 하우징(220)의 일부에 의해 가려지거나, 외부로 노출될 수 있다. According to various embodiments, the hinge cover 310 (eg, hinge housing) may be disposed between the first housing 210 and the second housing 220. The hinge cover 310 may be arranged to cover a portion (eg, at least one hinge module) of the hinge device (eg, the hinge plate 320 in FIG. 4). The hinge cover 310 may be covered by a portion of the first housing 210 and the second housing 220 or exposed to the outside depending on the unfolded state, the folded state, or the intermediate state of the electronic device 200. there is.

다양한 실시예들에 따르면, 전자 장치(200)가 펼침 상태인 경우, 힌지 커버(310)의 적어도 일부는 제1 하우징(210) 및 제2 하우징(220)에 의해 가려져 실질적으로 노출되지 않을 수 있다. 전자 장치(200)가 접힘 상태인 경우, 힌지 커버(310)의 적어도 일부는 제1 하우징(210) 및 제2 하우징(220) 사이에서 외부로 노출될 수 있다. 제1 하우징(210) 및 제2 하우징(220)이 소정의 각도를 이루는(folded with a certain angle) 중간 상태인 경우, 힌지 커버(310)는 제1 하우징(210) 및 제2 하우징(220) 사이에서 전자 장치(200)의 외부로 적어도 부분적으로 노출될 수 있다. 예를 들어, 힌지 커버(310)가 외부로 노출되는 영역은 완전히 접힌 상태보다 적을 수 있다. 힌지 커버(310)는 적어도 부분적으로 곡면을 포함할 수 있다. According to various embodiments, when the electronic device 200 is in an unfolded state, at least a portion of the hinge cover 310 may be covered by the first housing 210 and the second housing 220 and may not be substantially exposed. . When the electronic device 200 is in a folded state, at least a portion of the hinge cover 310 may be exposed to the outside between the first housing 210 and the second housing 220. When the first housing 210 and the second housing 220 are in an intermediate state where they are folded with a certain angle, the hinge cover 310 is folded with the first housing 210 and the second housing 220. It may be at least partially exposed to the outside of the electronic device 200. For example, the area of the hinge cover 310 exposed to the outside may be smaller than when it is fully folded. The hinge cover 310 may at least partially include a curved surface.

다양한 실시예들에 따르면, 전자 장치(200)가 펼침 상태(예: 도 2a 및 도 2b의 상태)인 경우, 제1 하우징(210) 및 제2 하우징(220)은 약 180도의 각도를 이루고, 플렉서블 디스플레이(230)의 제1 영역(230a), 제2 영역(230b), 및 폴딩 영역(230c)은 동일 평면을 이루며, 실질적으로 동일 방향(예: z축 방향)을 향하도록 배치될 수 있다. According to various embodiments, when the electronic device 200 is in an unfolded state (e.g., the state of FIGS. 2A and 2B), the first housing 210 and the second housing 220 form an angle of about 180 degrees, The first area 230a, the second area 230b, and the folding area 230c of the flexible display 230 form the same plane and may be arranged to face substantially the same direction (e.g., z-axis direction). .

다양한 실시예들에 따르면, 전자 장치(200)가 접힘 상태(예: 도 3a 및 도 3b의 상태)인 경우, 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)은 서로 마주보게 배치될 수 있다. 이 경우, 플렉서블 디스플레이(230)의 제1 영역(230a) 및 제2 영역(230b)은 폴딩 영역(230c)을 통해, 서로 좁은 각도(예: 0도~약 10도 범위)를 형성하고, 서로 마주보도록 배치될 수도 있다. 다른 실시예에서, 전자 장치(200)가 접힘 상태인 경우, 제1 하우징(210)은 제2 하우징(220)에 대하여 약 360도의 각도로 회동하여 제2 면(212) 및 제4 면(222)이 마주보도록 반대로 접힐 수도 있다(예: out folding 방식).According to various embodiments, when the electronic device 200 is in a folded state (e.g., the state of FIGS. 3A and 3B), the first side 211 of the first housing 210 and the second housing 220 The third sides 221 may be arranged to face each other. In this case, the first area 230a and the second area 230b of the flexible display 230 form a narrow angle (e.g., in the range of 0 degrees to about 10 degrees) with each other through the folding area 230c. They can also be arranged to face each other. In another embodiment, when the electronic device 200 is in a folded state, the first housing 210 rotates at an angle of about 360 degrees with respect to the second housing 220 to form the second side 212 and the fourth side 222. ) can also be folded in the opposite direction so that they face each other (e.g. out folding method).

다양한 실시예들에 따르면, 폴딩 영역(230c)은 적어도 일부가 소정의 곡률을 가지는 곡형으로 변형될 수 있다. 전자 장치(200)가 중간 상태인 경우, 제1 하우징(210) 및 제2 하우징(220)은 서로 소정의 각도(a certain angle)로 배치될 수 있다. 이 경우, 플렉서블 디스플레이(230)의 제1 영역(230a)과 제2 영역(230b)은 접힘 상태보다 크고, 펼침 상태보다 작은 각도를 형성할 수 있으며, 폴딩 영역(230c)의 곡률은 접힘 상태인 경우보다 작을 수 있고, 펼침 상태보다 클 수 있다.According to various embodiments, at least a portion of the folding area 230c may be transformed into a curved shape with a predetermined curvature. When the electronic device 200 is in an intermediate state, the first housing 210 and the second housing 220 may be disposed at a certain angle to each other. In this case, the first area 230a and the second area 230b of the flexible display 230 may form an angle that is larger than that in the folded state and smaller than that in the unfolded state, and the curvature of the folding area 230c is similar to that in the folded state. It can be smaller than the case and larger than the expanded state.

다양한 실시예들에 따르면, 제1 하우징(210) 및 제2 하우징(220)은, 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해, 접힘 상태에서 펼침 상태 사이의 지정된 폴딩 각도에서 멈출 수 있는 각도를 형성할 수 있다(예: free stop 기능). 어떤 실시예에서, 제1 하우징(210) 및 제2 하우징(220)은, 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해, 지정된 변곡 각도를 기준으로, 펼쳐지는 방향 또는 접히는 방향으로, 가압 받으면서 지속적으로 동작될 수도 있다.According to various embodiments, the first housing 210 and the second housing 220 are folded at a specified folding angle between a folded state and an unfolded state through a hinge device (e.g., hinge plate 320 in FIG. 4). A stopping angle can be formed (e.g. free stop function). In some embodiments, the first housing 210 and the second housing 220 are unfolded or folded in an unfolding or folding direction based on a specified inflection angle through a hinge device (e.g., hinge plate 320 in FIG. 4). Therefore, it can be operated continuously while being pressurized.

다양한 실시예들에 따르면, 전자 장치(200)는, 제1 하우징(210) 및/또는 제2 하우징(220)에 배치되는 적어도 하나의 디스플레이(예: 플렉서블 디스플레이(230), 서브 디스플레이(300)), 입력 장치(215), 음향 출력 장치(227, 228), 센서 모듈(217a, 217b, 226), 카메라 모듈(216a, 216b, 225), 키 입력 장치(219), 인디케이터(미도시 됨), 또는 커넥터 포트(229) 중 적어도 하나를 포함할 수 있다. 어떤 실시예에서, 전자 장치(200)는, 상술한 구성 요소들 중 적어도 하나를 생략하거나 적어도 하나의 다른 구성 요소를 추가적으로 포함할 수 있다.According to various embodiments, the electronic device 200 includes at least one display (e.g., flexible display 230, sub-display 300) disposed in the first housing 210 and/or the second housing 220. ), input device 215, audio output device (227, 228), sensor module (217a, 217b, 226), camera module (216a, 216b, 225), key input device (219), indicator (not shown) , or it may include at least one of the connector ports 229. In some embodiments, the electronic device 200 may omit at least one of the above-described components or may additionally include at least one other component.

다양한 실시예들에 따르면, 적어도 하나의 디스플레이(예: 플렉서블 디스플레이(230), 서브 디스플레이(300))는, 제1 하우징(210)의 제1 면(211)으로부터 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해 제2 하우징(220)의 제3 면(221)의 지지를 받도록 배치되는 플렉서블 디스플레이(230)(예: 제1 디스플레이) 및 제2 하우징(220)의 내부 공간에서 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 서브 디스플레이(300)(예: 제2 디스플레이)를 포함할 수 있다. 어떤 실시예에서, 서브 디스플레이(300)는 제1 하우징(210)의 내부 공간에서 제2 면(212)을 통해 외부로부터 보일 수 있게 배치될 수도 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)는, 전자 장치(200)의 펼침 상태에서 주로 사용될 수 있으며, 서브 디스플레이(300)는, 전자 장치(200)의 접힘 상태에서 주로 사용될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 중간 상태의 경우, 제1 하우징(210) 및 제2 하우징(220)의 폴딩 각도에 기반하여 플렉서블 디스플레이(230) 및/또는 서브 디스플레이(300)를 사용 가능하게 제어할 수도 있다.According to various embodiments, at least one display (e.g., flexible display 230, sub-display 300) is connected to a hinge device (e.g., of FIG. 4) from the first side 211 of the first housing 210. In the internal space of the flexible display 230 (e.g., the first display) and the second housing 220, which are disposed to be supported by the third side 221 of the second housing 220 through the hinge plate 320) It may include a sub-display 300 (eg, a second display) disposed to be at least partially visible from the outside through the fourth surface 222. In some embodiments, the sub-display 300 may be arranged to be visible from the outside through the second surface 212 in the internal space of the first housing 210. According to one embodiment, the flexible display 230 can be mainly used in the unfolded state of the electronic device 200, and the sub-display 300 can be mainly used in the folded state of the electronic device 200. According to one embodiment, in the intermediate state, the electronic device 200 displays the flexible display 230 and/or the sub-display 300 based on the folding angles of the first housing 210 and the second housing 220. You can also control its availability.

다양한 실시예들에 따르면, 플렉서블 디스플레이(230)는, 한 쌍의 하우징들(210, 220)에 의해 형성된 수용 공간에 배치될 수 있다. 예를 들어, 플렉서블 디스플레이(230)는 한 쌍의 하우징들(210, 220)에 의해 형성되는 리세스(recess)(201)에 배치될 수 있으며, 펼침 상태에서, 전자 장치(200)의 전면의 실질적으로 대부분을 차지하도록 배치될 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)는, 적어도 일부 영역이 평면 또는 곡면으로 변형될 수 있다. 플렉서블 디스플레이(230)는 제1 하우징(210)과 대면하는 제1 영역(230a), 제2 하우징(220)과 대면하는 제2 영역(230b), 및 제1 영역(230a)과 제2 영역(230b)을 연결하고, 힌지 장치(예: 도 4의 힌지 플레이트(320))와 대면하는 폴딩 영역(230c)을 포함할 수 있다. 일 실시예에 따르면, 플렉서블 디스플레이(230)의 영역 구분은 한 쌍의 하우징(210, 220) 및 힌지 장치(예: 도 4의 힌지 플레이트(320))에 의한 예시적인 물리적 구분일 뿐, 실질적으로 한 쌍의 하우징(210, 220) 및 힌지 장치(예: 도 4의 힌지 플레이트(320))를 통해 플렉서블 디스플레이(230)는 이음매 없는(seamless), 하나의 전체 화면으로 표시될 수 있다. 제1 영역(230a) 및 제2 영역(230b)은 폴딩 영역(230c)을 기준으로 전체적으로 대칭인 형상을 가지거나, 부분적으로 비대칭 형상을 가질 수 있다. According to various embodiments, the flexible display 230 may be disposed in an accommodation space formed by a pair of housings 210 and 220. For example, the flexible display 230 may be placed in a recess 201 formed by a pair of housings 210 and 220 and, in an unfolded state, may be positioned on the front of the electronic device 200. It can be arranged to occupy practically most of the space. According to one embodiment, at least some areas of the flexible display 230 may be transformed into a flat or curved surface. The flexible display 230 includes a first area 230a facing the first housing 210, a second area 230b facing the second housing 220, and a first area 230a and a second area ( 230b) and may include a folding area 230c facing a hinge device (eg, the hinge plate 320 of FIG. 4). According to one embodiment, the area division of the flexible display 230 is only an exemplary physical division by a pair of housings 210 and 220 and a hinge device (e.g., the hinge plate 320 in FIG. 4), and is actually divided into two regions. Through a pair of housings 210 and 220 and a hinge device (eg, hinge plate 320 in FIG. 4), the flexible display 230 can be displayed as a seamless, single entire screen. The first area 230a and the second area 230b may have an overall symmetrical shape or a partially asymmetrical shape with respect to the folding area 230c.

다양한 실시예들에 따르면, 전자 장치(200)는 제1 하우징(210)의 제2 면(212)에 배치되는 제1 후면 커버(240) 및 제2 하우징(220)의 제4 면(222)에 배치되는 제2 후면 커버(250)를 포함할 수 있다. 어떤 실시예에서, 제1 후면 커버(240)의 적어도 일부는 제1 측면 부재(213)와 일체로 형성될 수도 있다. 어떤 실시예에서, 제2 후면 커버(250)의 적어도 일부는 제2 측면 부재(223)와 일체로 형성될 수도 있다. 일 실시예에 따르면, 제1 후면 커버(240) 및 제2 후면 커버(250) 중 적어도 하나는 실질적으로 투명한 플레이트(예: 다양한 코팅 레이어들을 포함하는 글라스 플레이트, 또는 폴리머 플레이트) 또는 불투명한 플레이트로 형성될 수 있다. According to various embodiments, the electronic device 200 includes a first rear cover 240 disposed on the second side 212 of the first housing 210 and a fourth side 222 of the second housing 220. It may include a second rear cover 250 disposed on. In some embodiments, at least a portion of the first rear cover 240 may be formed integrally with the first side member 213. In some embodiments, at least a portion of the second rear cover 250 may be formed integrally with the second side member 223. According to one embodiment, at least one of the first back cover 240 and the second back cover 250 is a substantially transparent plate (e.g., a glass plate including various coating layers, or a polymer plate) or an opaque plate. can be formed.

다양한 실시예들에 따르면, 제1 후면 커버(240)는, 예를 들어, 코팅 또는 착색된 유리, 세라믹, 폴리머, 금속(예: 알루미늄, 스테인레스 스틸(STS), 또는 마그네슘), 또는 상기 물질들 중 적어도 둘의 조합과 같은, 불투명한 플레이트에 의하여 형성될 수 있다. 제2 후면 커버(250)는, 예를 들어, 글래스 또는 폴리머와 같은, 실질적으로 투명한 플레이트를 통해 형성될 수 있다. 이 경우, 제2 디스플레이(300)는 제2 하우징(220)의 내부 공간에서, 제2 후면 커버(250)를 통해 외부로부터 보일 수 있게 배치될 수 있다. According to various embodiments, the first back cover 240 may be, for example, coated or colored glass, ceramic, polymer, metal (e.g., aluminum, stainless steel (STS), or magnesium), or any of the foregoing materials. It can be formed by an opaque plate, such as a combination of at least two of them. The second back cover 250 may be formed through a substantially transparent plate, for example glass or polymer. In this case, the second display 300 may be arranged in the inner space of the second housing 220 to be visible from the outside through the second rear cover 250.

다양한 실시예들에 따르면, 입력 장치(215)는, 마이크를 포함할 수 있다. 어떤 실시예에서, 입력 장치(215)는 소리의 방향을 감지할 수 있도록 배치되는 복수 개의 마이크들을 포함할 수 있다. According to various embodiments, the input device 215 may include a microphone. In some embodiments, input device 215 may include a plurality of microphones arranged to detect the direction of sound.

다양한 실시예들에 따르면, 음향 출력 장치(227, 228)는 스피커들을 포함할 수 있다. 일 실시예에 따르면, 음향 출력 장치(227, 228)는, 제2 하우징(220)의 제4 면(222)을 통해 배치되는 통화용 리시버(227) 및 제2 하우징(220)의 제2 측면 부재(223)의 적어도 일부를 통해 배치되는 외부 스피커(228)를 포함할 수 있다. 어떤 실시예에서, 입력 장치(215), 음향 출력 장치(227, 228), 및 커넥터 포트(229)는 제1 하우징(210) 및/또는 제2 하우징(220)의 공간들에 배치되고, 제1 하우징(210) 및/또는 제2 하우징(220)에 형성된 적어도 하나의 홀을 통하여 외부 환경에 노출될 수 있다. 어떤 실시예에서, 제1 하우징(210) 및/또는 제2 하우징(220)에 형성된 홀들은 입력 장치(215) 및 음향 출력 장치(227, 228)를 위하여 공용으로 사용될 수 있다. 어떤 실시예에서, 음향 출력 장치(227, 228)는 제1 하우징(210) 및/또는 제2 하우징(220)에 형성된 홀이 배제된 채, 동작되는 스피커(예: 피에조 스피커)를 포함할 수도 있다.According to various embodiments, the sound output devices 227 and 228 may include speakers. According to one embodiment, the sound output devices 227 and 228 include a call receiver 227 disposed through the fourth side 222 of the second housing 220 and the second side of the second housing 220. It may include an external speaker 228 disposed through at least a portion of the member 223. In some embodiments, the input device 215, the audio output devices 227, 228, and the connector port 229 are disposed in spaces of the first housing 210 and/or the second housing 220, and It may be exposed to the external environment through at least one hole formed in the first housing 210 and/or the second housing 220. In some embodiments, the holes formed in the first housing 210 and/or the second housing 220 may be commonly used for the input device 215 and the audio output devices 227 and 228. In some embodiments, the sound output devices 227 and 228 may include speakers (e.g., piezo speakers) that operate without the holes formed in the first housing 210 and/or the second housing 220. there is.

다양한 실시예들에 따르면, 카메라 모듈(216a, 216b, 225)은, 제1 하우징(210)의 제1 면(211)에 배치되는 제1 카메라 모듈(216a), 제1 하우징(210)의 제2 면(212)에 배치되는 제2 카메라 모듈(216b), 및/또는 제2 하우징(220)의 제4 면(222)에 배치되는 제3 카메라 모듈(225)을 포함할 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제2 카메라 모듈(216b) 근처에 배치되는 플래시(218)를 포함할 수 있다. 플래시(218)는, 예를 들어, 발광 다이오드 또는 제논 램프(xenon lamp)를 포함할 수 있다. 일 실시예에 따르면, 카메라 모듈들(216a, 216b, 225)은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 어떤 실시예에서, 카메라 모듈들(216a, 216b, 225) 중 적어도 하나의 카메라 모듈은 2개 이상의 렌즈들(예: 광각 및 망원 렌즈) 및 이미지 센서들을 포함하고, 제1 하우징(210) 및/또는 제2 하우징(220)의 어느 한 면에 함께 배치될 수도 있다.According to various embodiments, the camera modules 216a, 216b, and 225 include a first camera module 216a disposed on the first surface 211 of the first housing 210, and a first camera module 216a disposed on the first surface 211 of the first housing 210. It may include a second camera module 216b disposed on the second side 212, and/or a third camera module 225 disposed on the fourth side 222 of the second housing 220. According to one embodiment, the electronic device 200 may include a flash 218 disposed near the second camera module 216b. Flash 218 may include, for example, a light emitting diode or a xenon lamp. According to one embodiment, the camera modules 216a, 216b, and 225 may include one or more lenses, an image sensor, and/or an image signal processor. In some embodiments, at least one of the camera modules 216a, 216b, 225 includes two or more lenses (e.g., wide-angle and telephoto lenses) and image sensors, and includes a first housing 210 and/ Alternatively, they may be placed together on one side of the second housing 220.

다양한 실시예들에 따르면, 센서 모듈(217a, 217b, 226)은, 전자 장치(200)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(217a, 217b, 226)은, 제1 하우징(210)의 제1 면(211)에 배치되는 제1 센서 모듈(217a), 제1 하우징(210)의 제2 면(212)에 배치되는 제2 센서 모듈(217b), 및/또는 제2 하우징(220)의 제4 면(222)에 배치되는 제3 센서 모듈(226)을 포함할 수 있다. 어떤 실시예에서, 센서 모듈(217a, 217b, 226)은 제스처 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 조도 센서, 초음파 센서, 홍채 인식 센서, 또는 거리 검출 센서(예: TOF(time of flight) 센서 또는 LiDAR(light detection and ranging)) 중 적어도 하나를 포함할 수 있다. According to various embodiments, the sensor modules 217a, 217b, and 226 may generate electrical signals or data values corresponding to the internal operating state of the electronic device 200 or the external environmental state. According to one embodiment, the sensor modules 217a, 217b, and 226 include a first sensor module 217a disposed on the first surface 211 of the first housing 210, and a second sensor module 217a disposed on the first surface 211 of the first housing 210. It may include a second sensor module 217b disposed on the surface 212, and/or a third sensor module 226 disposed on the fourth surface 222 of the second housing 220. In some embodiments, the sensor modules 217a, 217b, and 226 may include a gesture sensor, a grip sensor, a color sensor, an infrared (IR) sensor, an illumination sensor, an ultrasonic sensor, an iris recognition sensor, or a distance detection sensor (e.g., a time-of-flight (TOF) sensor. of flight sensor or LiDAR (light detection and ranging).

다양한 실시예들에 따르면, 전자 장치(200)는, 도시되지 않은 센서 모듈, 예를 들어, 기압 센서, 마그네틱 센서, 생체 센서, 온도 센서, 습도 센서, 또는 지문 인식 센서 중 적어도 하나를 더 포함할 수 있다. 어떤 실시예에서, 지문 인식 센서는 제1 하우징(210)의 제1 측면 부재(213) 및/또는 제2 하우징(220)의 제2 측면 부재(223) 중 적어도 하나의 측면 부재를 통해 배치될 수도 있다.According to various embodiments, the electronic device 200 may further include at least one of a sensor module not shown, for example, an air pressure sensor, a magnetic sensor, a biometric sensor, a temperature sensor, a humidity sensor, or a fingerprint recognition sensor. You can. In some embodiments, the fingerprint recognition sensor may be disposed through at least one of the first side member 213 of the first housing 210 and/or the second side member 223 of the second housing 220. It may be possible.

다양한 실시예들에 따르면, 키 입력 장치(219)는, 제1 하우징(210)의 제1 측면 부재(213)를 통해 외부로 노출되도록 배치될 수 있다. 어떤 실시예에서, 키 입력 장치(219)는 제2 하우징(220)의 제2 측면 부재(223)를 통해 외부로 노출되도록 배치될 수도 있다. 어떤 실시예에서, 전자 장치(200)는 키 입력 장치(219)들 중 일부 또는 전부를 포함하지 않을 수 있고, 포함되지 않은 키 입력 장치(219)는 적어도 하나의 디스플레이(230, 300) 상에 소프트 키와 같은 다른 형태로 구현될 수 있다. 다른 실시예에서, 키 입력 장치(219)는 적어도 하나의 디스플레이(230, 300)에 포함된 압력 센서를 이용하여 구현될 수 있다.According to various embodiments, the key input device 219 may be arranged to be exposed to the outside through the first side member 213 of the first housing 210. In some embodiments, the key input device 219 may be disposed to be exposed to the outside through the second side member 223 of the second housing 220. In some embodiments, the electronic device 200 may not include some or all of the key input devices 219, and the key input devices 219 that are not included may be displayed on at least one display 230 or 300. It can be implemented in other forms, such as soft keys. In another embodiment, the key input device 219 may be implemented using a pressure sensor included in at least one display 230 or 300.

다양한 실시예들에 따르면, 커넥터 포트(229)는, 외부 전자 장치(예: 도 1a의 외부 전자 장치(102, 104, 108))와 전력 및/또는 데이터를 송수신하기 위한 커넥터(예: USB 커넥터 또는 IF 모듈(interface connector port 모듈))를 포함할 수 있다. 어떤 실시예에서, 커넥터 포트(229)는 외부 전자 장치와 오디오 신호를 송수신하기 위한 기능을 함께 수행하거나, 오디오 신호의 송수신 기능을 수행하기 위한 별도의 커넥터 포트(예: 이어잭 홀)를 더 포함할 수도 있다.According to various embodiments, the connector port 229 is a connector (e.g., a USB connector) for transmitting and receiving power and/or data with an external electronic device (e.g., the external electronic devices 102, 104, and 108 of FIG. 1A). Alternatively, it may include an IF module (interface connector port module). In some embodiments, the connector port 229 performs a function for transmitting and receiving audio signals with an external electronic device, or further includes a separate connector port (e.g., an ear jack hole) for performing a function for transmitting and receiving audio signals. You may.

다양한 실시예들에 따르면, 카메라 모듈들(216a, 216b, 225) 중 적어도 하나의 카메라 모듈(216a, 225), 센서 모듈들(217a, 217b, 226) 중 적어도 하나의 센서 모듈(217a, 226), 및/또는 인디케이터는 적어도 하나의 디스플레이(230, 300)를 통해 노출되도록 배치될 수 있다. 예를 들어, 적어도 하나의 카메라 모듈(216a, 225), 적어도 하나의 센서 모듈(217a, 226), 및/또는 인디케이터는 적어도 하나의 하우징(210, 220)의 내부 공간에서, 적어도 하나의 디스플레이(230, 300)의 활성화 영역(display area) 아래에 배치되고, 커버 부재(예: 플렉서블 디스플레이(230)의 윈도우층(미도시 됨) 및/또는 제2 후면 커버(250))까지 천공된 오프닝 또는 투명 영역을 통해 외부 환경과 접할 수 있도록 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 디스플레이(230, 300)와 적어도 하나의 카메라 모듈(216a, 225)이 대면하는 영역은 컨텐츠를 표시하는 영역의 일부로서 일정 투과율을 갖는 투과 영역으로 형성될 수 있다. 일 실시예에 따르면, 투과 영역은 약 5%~약 20% 범위의 투과율을 갖도록 형성될 수 있다. 투과 영역은 이미지 센서로 결상되어 화상을 생성하기 위한 광이 통과하는 적어도 하나의 카메라 모듈(216a, 225)의 유효 영역(예: 화각 영역)과 중첩되는 영역을 포함할 수 있다. 예를 들어, 적어도 하나의 디스플레이(230, 300)의 투과 영역은 주변 보다 픽셀의 밀도가 낮은 영역을 포함할 수 있다. 예를 들어, 투과 영역은 오프닝을 대체할 수 있다. 예를 들어, 적어도 하나의 카메라 모듈(216a, 225)은 언더 디스플레이 카메라(UDC, under display camera) 또는 언더 패널 카메라(UPC, under panel camera)를 포함할 수 있다. 다른 실시예에서, 일부 카메라 모듈 또는 센서 모듈(217a, 226)은 디스플레이를 통해 시각적으로 노출되지 않고 그 기능을 수행하도록 배치될 수도 있다. 예를 들어, 적어도 하나의 디스플레이(230, 300)(예: 디스플레이 패널) 아래에 배치된 카메라 모듈(216a, 225) 및/또는 센서 모듈(217a, 226)과 대면하는 영역은, UDC(under display camera) 구조로써, 천공된 오프닝이 불필요할 수도 있다.According to various embodiments, at least one camera module 216a, 225 among the camera modules 216a, 216b, and 225, and at least one sensor module 217a, 226 among the sensor modules 217a, 217b, and 226. , and/or the indicator may be arranged to be exposed through at least one display (230, 300). For example, at least one camera module (216a, 225), at least one sensor module (217a, 226), and/or an indicator are displayed in the inner space of at least one housing (210, 220), at least one display ( 230, 300), an opening disposed below the active area (display area) and perforated up to the cover member (e.g., the window layer (not shown) of the flexible display 230 and/or the second rear cover 250) or It can be placed so that it can come into contact with the external environment through a transparent area. According to one embodiment, the area where at least one display (230, 300) and at least one camera module (216a, 225) face each other may be formed as a transparent area with a certain transmittance as part of the area for displaying content. . According to one embodiment, the transparent area may be formed to have a transmittance ranging from about 5% to about 20%. The transmission area may include an area overlapping an effective area (eg, field of view area) of at least one camera module 216a or 225 through which light for generating an image is formed by the image sensor. For example, the transmission area of at least one of the displays 230 and 300 may include an area with a lower pixel density than the surrounding area. For example, a transparent area can replace an opening. For example, at least one camera module 216a, 225 may include an under display camera (UDC) or an under panel camera (UPC). In another embodiment, some camera modules or sensor modules 217a and 226 may be arranged to perform their function without being visually exposed through the display. For example, the area facing the camera modules 216a, 225 and/or sensor modules 217a, 226 disposed below at least one display 230, 300 (e.g., display panel) is an under display (UDC). camera structure, a perforated opening may be unnecessary.

도 4는, 본 개시의 일 실시예에 따른, 전자 장치의 분리 사시도를 개략적으로 나타내는 도면이다.FIG. 4 is a diagram schematically showing an exploded perspective view of an electronic device according to an embodiment of the present disclosure.

도 4를 참조하면, 전자 장치(200)는 플렉서블 디스플레이(230)(예: 제1 디스플레이), 서브 디스플레이(300)(예: 제2 디스플레이), 힌지 플레이트(320), 한 쌍의 지지 부재들(예: 제1 지지 부재(261), 제2 지지 부재(262)), 적어도 하나의 기판(270)(예: 인쇄 회로 기판(PCB, printed circuit board)), 제1 하우징(210), 제2 하우징(220), 제1 후면 커버(240), 및/또는 제2 후면 커버(250)를 포함할 수 있다. Referring to FIG. 4, the electronic device 200 includes a flexible display 230 (e.g., a first display), a sub-display 300 (e.g., a second display), a hinge plate 320, and a pair of support members. (e.g., first support member 261, second support member 262), at least one substrate 270 (e.g., printed circuit board (PCB)), first housing 210, 2 It may include a housing 220, a first rear cover 240, and/or a second rear cover 250.

다양한 실시예들에 따르면, 플렉서블 디스플레이(230)는 디스플레이 패널(430)(예: 플렉서블 디스플레이 패널), 디스플레이 패널(430)의 하부(예: -z축 방향)에 배치된 지지 플레이트(450), 및 지지 플레이트(450)의 하부(예: -z축 방향)에 배치된 한 쌍의 메탈 플레이트들(461, 462)을 포함할 수 있다. According to various embodiments, the flexible display 230 includes a display panel 430 (e.g., a flexible display panel), a support plate 450 disposed below the display panel 430 (e.g., in the -z-axis direction), And it may include a pair of metal plates 461 and 462 disposed below the support plate 450 (eg, -z-axis direction).

다양한 실시예들에 따르면, 디스플레이 패널(430)은 플렉서블 디스플레이(230)의 제1 영역(예: 도 2a의 제1 영역(230a))과 대응하는 제1 패널 영역(430a), 제1 패널 영역(430a)으로부터 연장되고, 플렉서블 디스플레이(230)의 제2 영역(예: 도 2a의 제2 영역(230b))과 대응하는 제2 패널 영역(430b), 및 제1 패널 영역(430a)과 제2 패널 영역(430b)을 연결하고, 플렉서블 디스플레이(230)의 폴딩 영역(예: 도 2a의 폴딩 영역(230c))과 대응하는 제3 패널 영역(430c))을 포함할 수 있다. According to various embodiments, the display panel 430 includes a first panel area 430a corresponding to a first area of the flexible display 230 (e.g., the first area 230a in FIG. 2A), and a first panel area. A second panel area 430b extending from 430a and corresponding to the second area of the flexible display 230 (e.g., the second area 230b in FIG. 2A), and the first panel area 430a and the second panel area 430b It may connect the two panel areas 430b and include a third panel area 430c corresponding to the folding area of the flexible display 230 (e.g., the folding area 230c in FIG. 2A).

다양한 실시예들에 따르면, 지지 플레이트(450)는 디스플레이 패널(430)과 한 쌍의 지지 부재들(261, 262) 사이에 배치되고, 제1 패널 영역(430a) 및 제2 패널 영역(430b)을 위한 평면형 지지 구조 및 제3 패널 영역(430c)에 굴곡성에 도움을 주기 위한 굴곡 가능 구조를 제공하기 위한 소재 및 형상을 갖도록 형성될 수 있다. 일 실시예에 따르면, 지지 플레이트(450)는 도전성 소재(예: 금속) 또는 비도전성 소재(예: 폴리머 또는 FRP(fiber reinforced plastics))로 형성될 수 있다. 일 실시예에 따르면, 한 쌍의 메탈 플레이트들(461, 462)은, 지지 플레이트(450)와 한 쌍의 지지 부재들(261, 262) 사이에서, 제1 패널 영역(430a) 및 제3 패널 영역(430c)의 적어도 일부와 대응하도록 배치된 제1 메탈 플레이트(461) 및 제2 패널 영역(430b) 및 제3 패널 영역(430c)의 적어도 일부와 대응하도록 배치된 제2 메탈 플레이트(462)를 포함할 수 있다. 일 실시예에 따르면, 한 쌍의 메탈 플레이트들(461, 462)은 금속 소재(예: SUS)로 형성됨으로써, 플렉서블 디스플레이(230)를 위한 그라운드 연결 구조 및 강성 보강에 도움을 줄 수 있다.According to various embodiments, the support plate 450 is disposed between the display panel 430 and a pair of support members 261 and 262, and includes a first panel area 430a and a second panel area 430b. It may be formed to have a material and shape to provide a planar support structure for and a bendable structure to help with flexibility in the third panel area 430c. According to one embodiment, the support plate 450 may be formed of a conductive material (eg, metal) or a non-conductive material (eg, polymer or fiber reinforced plastics (FRP)). According to one embodiment, the pair of metal plates 461 and 462 is between the support plate 450 and the pair of support members 261 and 262, to form the first panel area 430a and the third panel. A first metal plate 461 disposed to correspond to at least a portion of the region 430c and a second metal plate 462 disposed to correspond to at least a portion of the second panel region 430b and the third panel region 430c. may include. According to one embodiment, the pair of metal plates 461 and 462 are made of a metal material (eg, SUS), thereby helping to strengthen the ground connection structure and rigidity of the flexible display 230.

다양한 실시예들에 따르면, 서브 디스플레이(300)는 제2 하우징(220)과 제2 후면 커버(250) 사이의 공간에 배치될 수 있다. 일 실시예에 따르면, 서브 디스플레이(300)는 제2 하우징(220)과 제2 후면 커버(250) 사이의 공간에서, 제2 후면 커버(250)의 실질적으로 전체 면적을 통해 외부로부터 보일 수 있게 배치될 수 있다.According to various embodiments, the sub-display 300 may be disposed in the space between the second housing 220 and the second rear cover 250. According to one embodiment, the sub-display 300 is visible from the outside through substantially the entire area of the second rear cover 250 in the space between the second housing 220 and the second rear cover 250. can be placed.

다양한 실시예들에 따르면, 제1 지지 부재(261)의 적어도 일부는 힌지 플레이트(320)를 통해 제2 지지 부재(262)와 접힘 가능하게 결합될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제1 지지 부재(261)의 적어도 일부로부터 힌지 플레이트(320)를 가로질러, 제2 지지 부재(262)의 일부까지 배치되는 적어도 하나의 배선 부재(263)(예: 연성 회로 기판(FPCB; flexible printed circuit board))를 포함할 수 있다. 일 실시예에 따르면, 제1 지지 부재(261)는 제1 측면 부재(213)로부터 연장되거나, 제1 측면 부재(213)와 구조적으로 결합되는 방식으로 배치될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제1 지지 부재(261)와 제1 후면 커버(240)를 통해 제공된 제1 공간(예: 도 2a의 제1 공간(2101))을 포함할 수 있다. According to various embodiments, at least a portion of the first support member 261 may be foldably coupled to the second support member 262 through the hinge plate 320. According to one embodiment, the electronic device 200 includes at least one wiring member disposed from at least a portion of the first support member 261 across the hinge plate 320 to a portion of the second support member 262. 263) (e.g., flexible printed circuit board (FPCB)). According to one embodiment, the first support member 261 may be arranged to extend from the first side member 213 or to be structurally coupled to the first side member 213. According to one embodiment, the electronic device 200 may include a first space (e.g., first space 2101 in FIG. 2A) provided through the first support member 261 and the first rear cover 240. there is.

다양한 실시예들에 따르면, 제1 하우징(210)(예: 제1 하우징 구조)은 제1 측면 부재(213), 제1 지지 부재(261), 및 제1 후면 커버(240)의 결합을 통해 구성될 수 있다. 일 실시예에 따르면, 제2 지지 부재(262)는 제2 측면 부재(223)로부터 연장되거나, 제2 측면 부재(223)와 구조적으로 결합되는 방식으로 배치될 수 있다. 일 실시예에 따르면, 전자 장치(200)는 제2 지지 부재(262)와 제2 후면 커버(250)를 통해 제공된 제2 공간(예: 도 2a의 제2 공간(2201))을 포함할 수 있다. According to various embodiments, the first housing 210 (e.g., a first housing structure) is formed through a combination of the first side member 213, the first support member 261, and the first rear cover 240. It can be configured. According to one embodiment, the second support member 262 may be arranged to extend from the second side member 223 or to be structurally coupled to the second side member 223. According to one embodiment, the electronic device 200 may include a second space (e.g., the second space 2201 in FIG. 2A) provided through the second support member 262 and the second rear cover 250. there is.

다양한 실시예들에 따르면, 제2 하우징(220)(예: 제2 하우징 구조)은 제2 측면 부재(223), 제2 지지 부재(262), 및 제2 후면 커버(250)의 결합을 통해 구성될 수 있다. 일 실시예에 따르면, 적어도 하나의 배선 부재(263) 및/또는 힌지 플레이트(320)의 적어도 일부는 한 쌍의 지지 부재들(261, 262)의 적어도 일부를 통해 지지 받도록 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 배선 부재(263)는 제1 지지 부재(261)와 제2 지지 부재(262)를 가로지르는 방향(예: x축 방향)으로 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 배선 부재(263)는 폴딩 축(예: y축 또는 도 2a의 폴딩 축(A))에 실질적으로 수직한 방향(예: x축 방향)으로 배치될 수 있다.According to various embodiments, the second housing 220 (e.g., a second housing structure) is formed through a combination of the second side member 223, the second support member 262, and the second rear cover 250. It can be configured. According to one embodiment, at least one wiring member 263 and/or at least a portion of the hinge plate 320 may be arranged to be supported by at least a portion of a pair of support members 261 and 262. According to one embodiment, at least one wiring member 263 may be disposed in a direction (eg, x-axis direction) crossing the first support member 261 and the second support member 262. According to one embodiment, the at least one wiring member 263 may be disposed in a direction (e.g., x-axis direction) substantially perpendicular to the folding axis (e.g., y-axis or folding axis A in FIG. 2A). .

다양한 실시예들에 따르면, 적어도 하나의 기판(270)은, 제1 공간(2101)에 배치된 제1 기판(271) 및 제2 공간(2201)에 배치된 제2 기판(272)을 포함할 수 있다. 일 실시예에 따르면, 제1 기판(271)과 제2 기판(272)은 전자 장치(200)의 다양한 기능을 구현하기 위하여 배치되는 적어도 하나의 전자 부품들을 포함할 수 있다. 일 실시예에 따르면, 제1 기판(271)과 제2 기판(272)은 적어도 하나의 배선 부재(263)를 통해 전기적으로 연결될 수 있다.According to various embodiments, the at least one substrate 270 may include a first substrate 271 disposed in the first space 2101 and a second substrate 272 disposed in the second space 2201. You can. According to one embodiment, the first substrate 271 and the second substrate 272 may include at least one electronic component disposed to implement various functions of the electronic device 200. According to one embodiment, the first substrate 271 and the second substrate 272 may be electrically connected through at least one wiring member 263.

다양한 실시예들에 따르면, 전자 장치(200)는 적어도 하나의 배터리(291, 292)를 포함할 수 있다. 일 실시예에 따르면, 적어도 하나의 배터리(291, 292)는 제1 하우징(210)의 제1 공간(2101)에 배치되고, 제1 기판(271)과 전기적으로 연결된 제1 배터리(291) 및 제2 하우징(220)의 제2 공간(2201)에 배치되고, 제2 기판(272)과 전기적으로 연결된 제2 배터리(292)를 포함할 수 있다. 일 실시예에 따르면, 제1 지지 부재(261) 및 제2 지지 부재(262)는 제1 배터리(291) 및 제2 배터리(292)를 위한 적어도 하나의 스웰링 홀을 더 포함할 수 있다. According to various embodiments, the electronic device 200 may include at least one battery 291 and 292. According to one embodiment, at least one battery 291, 292 is disposed in the first space 2101 of the first housing 210, and the first battery 291 is electrically connected to the first substrate 271 and It may include a second battery 292 disposed in the second space 2201 of the second housing 220 and electrically connected to the second substrate 272. According to one embodiment, the first support member 261 and the second support member 262 may further include at least one swelling hole for the first battery 291 and the second battery 292.

다양한 실시예들에 따르면, 제1 하우징(210)은 제1 회전 지지면(214)을 포함할 수 있고, 제2 하우징(220)은 제1 회전 지지면(214)에 대응되는 제2 회전 지지면(224)을 포함할 수 있다. 일 실시예에 따르면, 제1 회전 지지면(214)과 제2 회전 지지면(224)은 힌지 커버(310)의 곡형의 외면과 대응되는 곡면을 포함할 수 있다. 일 실시예에 따르면, 제1 회전 지지면(214)과 제2 회전 지지면(224)은 전자 장치(200)가 펼침 상태인 경우, 힌지 커버(310)를 커버함으로써, 힌지 커버(310)를 전자 장치(200)의 후면으로 노출시키지 않거나 일부만 노출시킬 수 있다. 일 실시예에 따르면, 제1 회전 지지면(214)과 제2 회전 지지면(224)은 전자 장치(200)가 접힘 상태인 경우, 힌지 커버(310)의 곡형이 외면을 따라 회전하여 힌지 커버(310)를 전자 장치(200)의 후면으로 적어도 일부 노출시킬 수 있다.According to various embodiments, the first housing 210 may include a first rotation support surface 214, and the second housing 220 may include a second rotation support surface corresponding to the first rotation support surface 214. It may include cotton 224. According to one embodiment, the first rotation support surface 214 and the second rotation support surface 224 may include a curved surface corresponding to the curved outer surface of the hinge cover 310. According to one embodiment, the first rotation support surface 214 and the second rotation support surface 224 cover the hinge cover 310 when the electronic device 200 is in an unfolded state, thereby covering the hinge cover 310. It may not be exposed to the rear of the electronic device 200, or only a portion of it may be exposed. According to one embodiment, when the electronic device 200 is in a folded state, the first rotation support surface 214 and the second rotation support surface 224 rotate along the outer surface of the hinge cover 310 to form the hinge cover. At least part of 310 may be exposed to the rear of the electronic device 200.

다양한 실시예들에 따르면, 전자 장치(200)는 제1 공간(2101)에 배치된 적어도 하나의 안테나(276)를 포함할 수 있다. 일 실시예에 따르면, 적어도 하나의 안테나(276)는 제1 공간(2101)에서, 제1 배터리(291)와 제1 후면 커버(240) 사이에 배치될 수 있다. 일 실시예에 따르면, 적어도 하나의 안테나(276)는, 예를 들어, NFC(near field communication) 안테나, 무선 충전 안테나, 및/또는 MST(magnetic secure transmission) 안테나를 포함할 수 있다. 일 실시예에 따르면, 적어도 하나의 안테나(276)는, 예를 들어, 외부 장치와 근거리 통신을 하거나, 충전에 필요한 전력을 무선으로 송수신 할 수 있다. 어떤 실시예에서, 제1 측면 부재(213) 또는 제2 측면 부재(223)의 적어도 일부, 및/또는 제1 지지 부재(261)와 제2 지지 부재(262)의 일부 또는 그 조합에 의하여 안테나 구조가 형성될 수 있다.According to various embodiments, the electronic device 200 may include at least one antenna 276 disposed in the first space 2101. According to one embodiment, at least one antenna 276 may be disposed between the first battery 291 and the first rear cover 240 in the first space 2101. According to one embodiment, the at least one antenna 276 may include, for example, a near field communication (NFC) antenna, a wireless charging antenna, and/or a magnetic secure transmission (MST) antenna. According to one embodiment, at least one antenna 276 may, for example, perform short-distance communication with an external device or wirelessly transmit and receive power required for charging. In some embodiments, the antenna is provided by at least a portion of the first side member 213 or the second side member 223 and/or a portion of the first support member 261 and the second support member 262 or a combination thereof. A structure can be formed.

다양한 실시예들에 따르면, 전자 장치(200)는 제1 공간(2101) 및/또는 제2 공간(2201)에 배치된 적어도 하나의 전자 부품 어셈블리(274, 275) 및/또는 추가적인 지지 부재들(273, 277)을 더 포함할 수도 있다. 예를 들어, 적어도 하나의 전자 부품 어셈블리(274, 275)는 인터페이스 커넥터 포트 어셈블리(274) 또는 스피커 어셈블리(275)를 포함할 수 있다.According to various embodiments, the electronic device 200 includes at least one electronic component assembly 274, 275 and/or additional support members disposed in the first space 2101 and/or the second space 2201. 273, 277) may be further included. For example, at least one electronic component assembly 274 or 275 may include an interface connector port assembly 274 or a speaker assembly 275.

도 5는, 본 개시의 일 실시예에 따른, 전자 장치(501)를 도시한 블록도(500)이다.FIG. 5 is a block diagram 500 illustrating an electronic device 501 according to an embodiment of the present disclosure.

도 5를 참조하면, 전자 장치(501)(예: 도 1의 전자 장치(101), 도 2a 내지 도 4의 전자 장치(200))는 무선 통신 회로(510)(예: 도 1의 통신 모듈(190)), 메모리(520)(예: 도 1의 메모리(130)), 디스플레이(530)(예: 도 1의 디스플레이 모듈(160), 도 2a 내지 도 4의 디스플레이(230, 300)), 센서 회로(540)(예: 도 1의 센서 모듈(176)), 및/또는 프로세서(550)(예: 도 1의 프로세서(120))를 포함할 수 있다.Referring to FIG. 5, the electronic device 501 (e.g., the electronic device 101 of FIG. 1 and the electronic device 200 of FIGS. 2A to 4) includes a wireless communication circuit 510 (e.g., the communication module of FIG. 1). (190)), memory 520 (e.g., memory 130 in FIG. 1), display 530 (e.g., display module 160 in FIG. 1, displays 230, 300 in FIGS. 2A to 4) , a sensor circuit 540 (e.g., sensor module 176 of FIG. 1), and/or a processor 550 (e.g., processor 120 of FIG. 1).

본 개시의 일 실시예에 따르면, 무선 통신 회로(510)(예: 도 1의 통신 모듈(190))는 외부 전자 장치(예: 도 1의 전자 장치(102))와 통신 채널을 설립하고, 외부 전자 장치와 다양한 데이터를 송수신하도록 지원할 수 있다.According to one embodiment of the present disclosure, the wireless communication circuit 510 (e.g., communication module 190 of FIG. 1) establishes a communication channel with an external electronic device (e.g., electronic device 102 of FIG. 1), It can support sending and receiving various data with external electronic devices.

일 실시예에서, 무선 통신 회로(510)는 프로세서(550)의 제어 하에, 센서 회로(540)를 통해 획득되는 센서 데이터들을 서버(예: 도 1의 서버(108))(예: 지능형 서버)에 전송하고, 서버로부터 인공지능에 의해 머신 러닝(machine learning) 학습으로 학습된 학습 모델을 수신할 수 있다.In one embodiment, the wireless communication circuit 510, under the control of the processor 550, sends sensor data acquired through the sensor circuit 540 to a server (e.g., server 108 of FIG. 1) (e.g., an intelligent server). You can transmit it to and receive a learning model learned through machine learning using artificial intelligence from the server.

본 개시의 일 실시예에 따르면, 메모리(520)(예: 도 1의 메모리(130))는 전자 장치(501)의 프로세서(550)의 처리 및 제어를 위한 프로그램(예: 도 1의 프로그램(140)), 운영 체제(operating system, OS)(예: 도 1의 운영 체제(142)), 다양한 어플리케이션, 및/또는 입/출력 데이터를 저장하는 기능을 수행하며, 전자 장치(501)의 전반적인 동작을 제어하는 프로그램을 저장할 수 있다. 메모리(520)는 프로세서(550)에 의해 수행될 수 있는 다양한 인스트럭션들(instructions)을 저장할 수 있다.According to an embodiment of the present disclosure, the memory 520 (e.g., the memory 130 of FIG. 1) includes a program (e.g., the program of FIG. 1) for processing and control of the processor 550 of the electronic device 501. 140)), an operating system (OS) (e.g., the operating system 142 of FIG. 1), various applications, and/or performs a function of storing input/output data, and manages the overall operation of the electronic device 501. Programs that control operations can be stored. The memory 520 can store various instructions that can be performed by the processor 550.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 전자 장치(501)의 제1 하우징(210)과 제2 하우징(220) 간의 각도 변화에 기반하여, 전자 장치(501)의 상태(예: 펼침 상태 또는 접힘 상태)를 검출하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520 is stored in the electronic device 501 based on a change in the angle between the first housing 210 and the second housing 220 of the electronic device 501, under the control of the processor 550. Instructions for detecting states (e.g., unfolded or collapsed) can be stored.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 센서 회로(540)에 포함된 적어도 하나의 센서, 예를 들어, 관성 센서(541) 및/또는 그립 센서(543)를 통해 획득(또는 측정)된 센서 정보에 기반하여, 전자 장치(501)의 상태를 검출하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, memory 520, under control of processor 550, via at least one sensor included in sensor circuit 540, for example, inertial sensor 541 and/or grip sensor 543. Based on the acquired (or measured) sensor information, instructions for detecting the state of the electronic device 501 may be stored.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 관성 센서(541) 및/또는 그립 센서(543)를 통해 획득(또는 측정)된 센서 정보에 기반하여, 전자 장치(501)의 후면(예: 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))에서의 사용자 인터랙션을 검출하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520, under the control of the processor 550, operates the electronic device 501 based on sensor information acquired (or measured) through the inertial sensor 541 and/or the grip sensor 543. The rear side (e.g., the second side (e.g., the second side 212 of FIG. 2b) of the first housing (e.g., the first housing 210 of FIG. 2a) or the second side of the second housing (e.g., the second side of FIG. 2a) Instructions for detecting user interaction on the fourth side of the housing 220 (eg, the fourth side 222 in FIG. 2B) may be stored.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 관성 센서(541) 및/또는 그립 센서(543)를 통해 획득(또는 측정)된 센서 정보에 기반하여, 전자 장치(501)의 후면에서 검출되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 결정(또는 확인, 또는 식별)하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520, under the control of the processor 550, operates the electronic device 501 based on sensor information acquired (or measured) through the inertial sensor 541 and/or the grip sensor 543. Instructions for determining (or confirming or identifying) the type of user interaction detected on the back of the and/or location information where the user interaction was detected may be stored.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 센서 회로(540)를 통해 획득되는 센서 데이터들 및 센서 데이터들에 기반하여 결정(또는 확인)되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 누적하여 저장할 수 있다. 메모리(520)는 프로세서(550)의 제어 하에, 저장된 센서 정보 및 이에 기반한 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하고, 학습된 모델을 생성하기 위한 인스트럭션들을 저장할 수 있다. 메모리(520)는 프로세서(550)의 제어 하에, 학습된 모델에 기반하여, 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 결정(또는 확인, 또는 식별)하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520, under the control of the processor 550, sensor data acquired through the sensor circuit 540 and the type of user interaction determined (or confirmed) based on the sensor data and/or Location information where user interaction is detected can be accumulated and stored. The memory 520, under the control of the processor 550, learns the stored sensor information and the type of user interaction based on it and/or the location information where the user interaction is detected using artificial intelligence, and provides instructions for creating a learned model. You can save it. The memory 520 may store instructions for determining (or confirming or identifying) the type of user interaction and/or location information where the user interaction is detected, based on the learned model, under the control of the processor 550. .

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 센서 회로(540)를 통해 획득되는 센서 데이터들을 무선 통신 회로(510)를 통해 서버(예: 지능형 서버)에 전송하고, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여, 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 결정(또는 확인, 또는 식별)하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520, under the control of the processor 550, transmits sensor data acquired through the sensor circuit 540 to a server (e.g., an intelligent server) through the wireless communication circuit 510, and the server A learning model learned through machine learning learning by artificial intelligence may be received from and instructions for determining (or confirming or identifying) the type of user interaction and/or location information where the user interaction is detected may be stored.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 결정(또는 확인, 또는 식별)된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보에 기반하여, 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시된 적어도 하나의 어플리케이션의 정보의 표시 속성을 변경하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520, under the control of the processor 550, displays the display 530 ( For example, instructions for changing the display properties of information of at least one application displayed on the first display 531 or the second display 533 may be stored.

일 실시예에서, 메모리(520)는 프로세서(550)의 제어 하에, 변경된 표시 속성에 기반하여, 적어도 하나의 어플리케이션의 정보를 표시하기 위한 인스트럭션들을 저장할 수 있다.In one embodiment, the memory 520 may store instructions for displaying information about at least one application based on changed display properties under the control of the processor 550.

본 개시의 일 실시예에 따르면, 디스플레이(530)(예: 도 1의 디스플레이 모듈(160), 도 2a 내지 도 4의 디스플레이(230, 300))는 터치 패널(미도시)을 포함하는 일체형으로 구성되어, 프로세서(550)의 제어 하에 영상을 표시할 수 있다.According to an embodiment of the present disclosure, the display 530 (e.g., the display module 160 in FIG. 1 and the displays 230 and 300 in FIGS. 2A to 4) is integrated into a unit including a touch panel (not shown). configured, an image can be displayed under the control of the processor 550.

일 실시예에서, 디스플레이(530)는 제1 디스플레이(531)(예: 도 2a의 제1 디스플레이(230)) 및 제2 디스플레이(533)(예: 도 2b의 제2 디스플레이(300))를 포함할 수 있다. 일 실시예에서, 제1 디스플레이(531)는 프로세서(550)의 제어 하에, 전자 장치(501)가 펼침 상태에서 활성화되고, 전자 장치(501)가 접힘 상태에서 비활성화될 수 있다. 제2 디스플레이(533)는 프로세서(550)의 제어 하에, 전자 장치(501)가 접힘 상태에서 활성화되고, 전자 장치(501)가 펼침 상태에서 비활성화될 수 있다.In one embodiment, the display 530 includes a first display 531 (e.g., first display 230 in Figure 2A) and a second display 533 (e.g., second display 300 in Figure 2b). It can be included. In one embodiment, the first display 531 may be activated when the electronic device 501 is in an unfolded state and deactivated when the electronic device 501 is in a folded state, under the control of the processor 550. Under the control of the processor 550, the second display 533 may be activated when the electronic device 501 is in a folded state and may be deactivated when the electronic device 501 is in an unfolded state.

일 실시예에서, 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))는 프로세서(550)의 제어 하에, 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 변경된 표시 속성에 기반하여, 적어도 하나의 어플리케이션의 정보를 표시할 수 있다.In one embodiment, the display 530 (e.g., the first display 531 or the second display 533), under the control of the processor 550, changes the type of user interaction and the location information where the user interaction was detected. Based on the display properties, information about at least one application can be displayed.

본 개시의 일 실시예에 따르면, 센서 회로(540)(예: 도 1의 센서 모듈(176))는 물리량을 계측하거나 전자 장치(501)의 작동 상태를 검출하여, 이에 대응하는 전기적 신호 또는 데이터 값을 생성할 수 있다.According to an embodiment of the present disclosure, the sensor circuit 540 (e.g., the sensor module 176 in FIG. 1) measures a physical quantity or detects the operating state of the electronic device 501 and generates an electrical signal or data corresponding thereto. A value can be created.

일 실시예에서, 센서 회로(540)는, 관성 센서(541) 및/또는 그립 센서(543)를 포함할 수 있다.In one embodiment, the sensor circuit 540 may include an inertial sensor 541 and/or a grip sensor 543.

일 실시예에서, 관성 센서(541)는 6축 센서(예: 지자기 센서, 가속도 센서, 및/또는 자이로 센서)를 포함할 수 있다. 관성 센서(541)는 전자 장치(501)의 자세를 결정하기 위한 센서 정보(예: x축, y축, 및/또는 z축의 센서 정보(예: 가속도 값, 각속도 값))를 획득(또는 측정)하고, 이를 프로세서(550)에 전달할 수 있다.In one embodiment, the inertial sensor 541 may include a six-axis sensor (e.g., a geomagnetic sensor, an acceleration sensor, and/or a gyro sensor). The inertial sensor 541 acquires (or measures) sensor information (e.g., sensor information on the x-axis, y-axis, and/or z-axis (e.g., acceleration value, angular velocity value)) for determining the attitude of the electronic device 501. ) and can be transmitted to the processor 550.

일 실시예에서, 관성 센서(541)는 제1 하우징(210)의 내부 공간에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다. 예를 들어, 관성 센서(541)는 제2 하우징(220)의 내부 공간에 배치될 수 있다. 다른 예를 들어, 관성 센서(541)가 2개 이상의 관성 센서를 포함하는 경우, 적어도 하나의 관성 센서는 제1 하우징(210)의 내부 공간에 배치되고, 적어도 하나의 다른 관성 센서는 제2 하우징(220)의 내부 공간에 배치될 수도 있다.In one embodiment, the inertial sensor 541 may be disposed in the internal space of the first housing 210. However, it is not limited to this. For example, the inertial sensor 541 may be placed in the inner space of the second housing 220. For another example, when the inertial sensor 541 includes two or more inertial sensors, at least one inertial sensor is disposed in the inner space of the first housing 210, and at least one other inertial sensor is located in the second housing. It may be placed in the inner space of (220).

일 실시예에서, 그립 센서(543)는 전자 장치(501)의 그립 상태를 검출할 수 있다. 예를 들어, 그립 센서(543)는 전자 장치(501)가 한 손(예: 왼손 또는 오른손)으로 그립된 상태인지 또는 양 손으로 그립된 상태인지 여부를 검출할 수 있다. 일 실시예에서, 그립 센서(543)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the grip sensor 543 may detect the grip state of the electronic device 501. For example, the grip sensor 543 may detect whether the electronic device 501 is gripped with one hand (eg, left or right hand) or with both hands. In one embodiment, the grip sensor 543 may be disposed on a portion of the second side 213c of the first housing 210 and/or a portion of the fifth side 223c of the second housing 220. there is. However, it is not limited to this.

본 개시의 일 실시예에 따르면, 프로세서(550)는 예를 들어, 마이크로 컨트롤러 유닛(micro controller unit, MCU)을 포함할 수 있고, 운영 체제(OS) 또는 임베디드 소프트웨어 프로그램을 구동하여 프로세서(550)에 연결된 다수의 하드웨어 구성요소들을 제어할 수 있다. 프로세서(550)는, 예를 들어, 메모리(520)에 저장된 인스트럭션들(예: 도 1의 프로그램(140))에 따라 다수의 하드웨어 구성요소들을 제어할 수 있다.According to an embodiment of the present disclosure, the processor 550 may include, for example, a micro controller unit (MCU), and runs an operating system (OS) or embedded software program to operate the processor 550. You can control multiple hardware components connected to . The processor 550 may control a plurality of hardware components according to instructions (eg, program 140 of FIG. 1) stored in the memory 520.

일 실시예에서, 프로세서(550)는 복수의 어플리케이션들의 정보들을 멀티 윈도우로 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시할 수 있다. 예를 들어, 프로세서(550)는 전자 장치(501)가 펼침 상태 또는 접힘 상태인 경우, 활성화된 제1 디스플레이(531) 또는 제2 디스플레이(533)의 표시 영역을 복수의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 각 영역에 어플리케이션의 정보를 표시하도록 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))를 제어할 수 있다.In one embodiment, the processor 550 may display information about a plurality of applications on the display 530 (eg, the first display 531 or the second display 533) as a multi-window. For example, when the electronic device 501 is in an unfolded or folded state, the processor 550 may divide the display area of the activated first display 531 or the second display 533 into a plurality of regions. there is. The processor 550 may control the display 530 (eg, the first display 531 or the second display 533) to display application information in each divided area.

일 실시예에서, 프로세서(550)는 센서 회로(540), 예를 들어, 관성 센서(541) 및/또는 그립 센서(543)를 통해 센서 정보를 획득할 수 있다. 또한, 프로세서(550)는 터치 센서(예: 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 획득할 수 있다. 프로세서(550)는 획득된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는지 여부를 확인할 수 있다. 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출된 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 예를 들어, 프로세서(550)는 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 보정된 센서 데이터들에 기반하여 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, processor 550 may obtain sensor information through sensor circuit 540, for example, inertial sensor 541 and/or grip sensor 543. Additionally, the processor 550 may further obtain sensor information obtained through a touch sensor (eg, a touch sensor of the second display 533). The processor 550 may check whether user interaction is detected on the second side 212 or the fourth side 222 of the electronic device 501 based on the acquired sensor information. When it is confirmed that user interaction is detected on the second side 212 or the fourth side 222 of the electronic device 501, the processor 550 can check the type of user interaction and the location information where the user interaction was detected. there is. For example, the processor 550 corrects the sensor data of the detected user interaction based on the acquired sensor information, and determines the type of user interaction and the location information where the user interaction was detected based on the corrected sensor data. You can.

일 실시예에서, 프로세서(550)는 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 예를 들어, 표시 속성은, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보를 표시하기 위한 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))의 표시 영역 내 윈도우의 크기 및 윈도우 내 배열 중 적어도 하나를 포함할 수 있다. 프로세서(550)는 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시할 수 있다.In one embodiment, the processor 550 may change the display attribute of at least one of the first information of the first application and the second information of the second application based on the type of user interaction and the location information where the user interaction was detected. there is. For example, the display property refers to the display 530 (e.g., the first display 531 or the second display 533) for displaying the first information of the first application and the second information of the second application. It may include at least one of the size of the window within the area and the arrangement within the window. The processor 550 may display at least one of the first information and the second information on the display 530 (e.g., the first display 531 or the second display 533) based on the changed display properties. there is.

본 개시의 일 실시예에 따른 전자 장치(501)는, 제1 면(211), 제1 면(211)과 반대 방향으로 향하는 제2 면(212), 및 제1 면(211)과 제2 면(212) 사이의 제1 공간을 둘러싸는 제1 측면 부재(213)를 포함하는 제1 하우징(210)을 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 힌지 구조(예: 힌지 플레이트(320))를 이용하여 제1 하우징(210)과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 제1 면(211)과 동일한 방향을 향하는 제3 면(221), 제3 면(221)과 반대 방향을 향하는 제4 면(222), 및 제3 면(221)과 제4 면(222) 사이의 제2 공간을 둘러싸는 제2 측면 부재(223)를 포함하는 제2 하우징(220)을 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 제1 면(211)의 적어도 일부로부터 제3 면(221)의 적어도 일부에 배치되는 제1 디스플레이(531)를 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 센서 회로(540)를 포함할 수 있다. 일 실시예에서, 전자 장치(501)는, 제1 디스플레이(531) 및 센서 회로(540)와 작동적으로 연결된 프로세서(550)를 포함할 수 있다. 일 실시예에서, 프로세서(550)는, 제1 어플리케이션의 제1 정보를 제1 디스플레이(531)에 표시할 수 있다. 일 실시예에서, 프로세서(550)는, 제2 어플리케이션을 실행하는 입력에 응답하여, 제2 어플리케이션의 제2 정보와 제1 어플리케이션의 제1 정보를 멀티 윈도우로 제1 디스플레이(531)에 표시할 수 있다. 일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 센서 정보를 획득할 수 있다. 일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득된 센서 정보에 기반하여, 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. 일 실시예에서, 프로세서(550)는, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다. 일 실시예에서, 프로세서(550)는, 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 제1 디스플레이(531)에 표시할 수 있다.The electronic device 501 according to an embodiment of the present disclosure includes a first side 211, a second side 212 facing in the opposite direction to the first side 211, and a first side 211 and a second side. It may include a first housing 210 including a first side member 213 surrounding a first space between the surfaces 212 . In one embodiment, the electronic device 501 is foldably connected to the first housing 210 based on the folding axis using a hinge structure (e.g., hinge plate 320), and in the unfolded state, the first side A third face 221 facing the same direction as 211, a fourth face 222 facing the opposite direction from the third face 221, and a third face 222 between the third face 221 and the fourth face 222. It may include a second housing 220 including a second side member 223 surrounding the second space. In one embodiment, the electronic device 501 may include a first display 531 disposed from at least a portion of the first side 211 to at least a portion of the third side 221 . In one embodiment, the electronic device 501 may include a sensor circuit 540. In one embodiment, the electronic device 501 may include a processor 550 operatively connected to the first display 531 and the sensor circuit 540. In one embodiment, the processor 550 may display first information of the first application on the first display 531. In one embodiment, the processor 550 displays the second information of the second application and the first information of the first application in multi-window on the first display 531 in response to an input for executing the second application. You can. In one embodiment, the processor 550 may obtain sensor information through the sensor circuit 540. In one embodiment, when the processor 550 determines that user interaction on the second side 212 or the fourth side 222 is detected based on sensor information obtained through the sensor circuit 540, You can check the type of user interaction and the location information where the user interaction was detected. In one embodiment, the processor 550 changes the display attribute of at least one of the first information of the first application and the second information of the second application based on the type of user interaction and the location information where the user interaction was detected. You can. In one embodiment, the processor 550 may display at least one of first information and second information on the first display 531 based on changed display properties.

일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다. 일 실시예에서, 프로세서(550)는, 보정된 센서 데이터들에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the processor 550 may correct sensor data of detected user interaction based on sensor information acquired through the sensor circuit 540. In one embodiment, the processor 550 may check the type of user interaction and location information where the user interaction was detected based on the corrected sensor data.

일 실시예에서, 프로세서(550)는, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 윈도우의 배열 중 적어도 하나를 포함하는 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 is configured to display at least one of the first information of the first application and the second information of the second application, based on the type of user interaction and the location information at which the user interaction was detected. 1 Display properties including at least one of the size and arrangement of windows within the display area of the display 531 can be changed.

일 실시예에서, 전자 장치(501)는, 제2 하우징(220)의 내부 공간에서 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)를 더 포함할 수 있다.In one embodiment, the electronic device 501 may further include a second display 533 disposed to be at least partially visible from the outside through the fourth surface 222 in the inner space of the second housing 220. You can.

일 실시예에서, 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함할 수 있다.In one embodiment, the sensor circuit 540 may include at least one of an inertial sensor 541 and a grip sensor 543.

일 실시예에서, 센서 회로(540)를 통해 획득되는 센서 정보는, 관성 센서(541)를 통해 획득되는 제1 센서 정보, 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the sensor information acquired through the sensor circuit 540 includes first sensor information obtained through the inertial sensor 541, second sensor information obtained through the grip sensor 543, and second display information. It may include at least one of third sensor information obtained through the touch circuit of 533.

일 실시예에서, 제1 센서 정보는, 전자 장치(501)의 자세와 관련된 센서 정보 및 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the first sensor information may include at least one of sensor information related to the posture of the electronic device 501 and sensor information related to the movement of the electronic device 501.

일 실시예에서, 제2 센서 정보는, 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함할 수 있다.In one embodiment, the second sensor information may include at least one of the grip state and grip pattern of the electronic device 501.

일 실시예에서, 제3 센서 정보는, 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함할 수 있다.In one embodiment, the third sensor information may include touch information acquired through the touch circuit of the second display 533.

일 실시예에서, 프로세서(550)는, 제1 센서 정보, 제2 센서 정보, 및 제3 센서 정보 중 적어도 하나에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the processor 550 may correct sensor data of detected user interaction based on at least one of first sensor information, second sensor information, and third sensor information.

일 실시예에서, 전자 장치(501)는 메모리(520)를 더 포함할 수 있다.In one embodiment, the electronic device 501 may further include a memory 520.

일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득되는 센서 정보 및 센서 정보에 기반하여 확인된 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 메모리(520)에 누적하여 저장할 수 있다. 일 실시예에서, 프로세서(550)는, 저장된 센서 정보 및 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습할 수 있다. 일 실시예에서, 프로세서(550)는, 학습에 의해 생성된 모델에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the processor 550 accumulates sensor information acquired through the sensor circuit 540, the type of user interaction identified based on the sensor information, and the location information where the user interaction is detected in the memory 520. You can save it. In one embodiment, the processor 550 may learn the stored sensor information, the type of user interaction based on the sensor information, and the location information where the user interaction is detected using artificial intelligence. In one embodiment, the processor 550 may check the type of user interaction and the location information where the user interaction was detected based on the model generated through learning.

일 실시예에서, 전자 장치(501)는 무선 통신 회로(510)를 더 포함할 수 있다.In one embodiment, the electronic device 501 may further include a wireless communication circuit 510.

일 실시예에서, 프로세서(550)는, 센서 회로(540)를 통해 획득되는 센서 정보를 무선 통신 회로(510)를 통해 서버에 전송할 수 있다. 일 실시예에서, 프로세서(550)는, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 확인할 수 있다.In one embodiment, the processor 550 may transmit sensor information obtained through the sensor circuit 540 to a server through the wireless communication circuit 510. In one embodiment, the processor 550 may receive a learning model learned through machine learning using artificial intelligence from a server and check the type of user interaction and location information where the user interaction is detected.

도 6a는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 사용자 인터랙션에 따른 화면 제어 방법을 설명하기 위한 흐름도(600)이다.FIG. 6A is a flowchart 600 for explaining a screen control method according to user interaction of the electronic device 501, according to an embodiment of the present disclosure.

도 6a를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 610동작에서, 제1 어플리케이션의 제1 정보를 디스플레이(예: 도 5의 디스플레이(530))에 표시할 수 있다.Referring to FIG. 6A, in operation 610, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) displays first information of the first application (e.g., It can be displayed on the display 530 of FIG. 5.

일 실시예에서, 전자 장치(501)는 펼침 상태(예: 도 2a 및 도 2b의 상태) 또는 접힘 상태(예: 도 3a 및 도 3b의 상태)일 수 있다.In one embodiment, the electronic device 501 may be in an unfolded state (e.g., the state in FIGS. 2A and 2B) or a folded state (e.g., the state in FIGS. 3A and 3B).

일 실시예에서, 전자 장치(501)가 펼침 상태인 경우, 제1 어플리케이션의 제1 정보는 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시될 수 있다. 예를 들어, 전자 장치(501)가 펼침 상태인 경우, 한 쌍의 하우징(예: 도 2a의 제1 하우징(210) 및 제2 하우징(220))에 의해 형성된 공간에 배치되는 제1 디스플레이(531)는 활성화될 수 있으며, 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222)) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))는 비활성화될 수 있다. 제1 디스플레이(531)는 제1 크기를 가질 수 있으며, 제2 디스플레이(533)는 제1 크기보다 상대적으로 작은 제2 크기를 가질 수 있다.In one embodiment, when the electronic device 501 is in an unfolded state, first information about the first application may be displayed on the first display (eg, the first display 531 in FIG. 5). For example, when the electronic device 501 is in an unfolded state, a first display (e.g., the first display 501) disposed in the space formed by a pair of housings (e.g., the first housing 210 and the second housing 220 in FIG. 2A) 531) can be activated and displays a second display (e.g., the second display 533 in FIG. 5) disposed on the fourth side of the second housing 220 (e.g., the fourth side 222 in FIG. 2B). ) can be disabled. The first display 531 may have a first size, and the second display 533 may have a second size that is relatively smaller than the first size.

일 실시예에서, 전자 장치(501)가 접힘 상태인 경우, 제1 어플리케이션의 제1 정보는 제2 디스플레이(533)에 표시될 수 있다. 예를 들어, 전자 장치(501)가 접힘 상태인 경우, 제2 디스플레이(533)는 활성화될 수 있으며, 제1 디스플레이(531)는 비활성화될 수 있다.In one embodiment, when the electronic device 501 is in a folded state, first information about the first application may be displayed on the second display 533. For example, when the electronic device 501 is in a folded state, the second display 533 may be activated and the first display 531 may be deactivated.

일 실시예에서, 프로세서(550)는 620동작에서, 제2 어플리케이션을 실행하는 입력에 응답하여, 제2 어플리케이션의 제2 정보와 제1 어플리케이션의 제1 정보를 멀티 윈도우로 디스플레이(530)(예: 제1 디스플레이(531) 또는 제2 디스플레이(533))에 표시할 수 있다.In one embodiment, in operation 620, the processor 550 displays second information of the second application and first information of the first application in a multi-window 530 (e.g., in response to an input for executing the second application). : Can be displayed on the first display 531 or the second display 533).

예를 들어, 프로세서(550)는 전자 장치(501)가 펼침 상태 또는 접힘 상태인 경우, 활성화된 제1 디스플레이(531) 또는 제2 디스플레이(533)의 표시 영역을 복수의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 각 영역에 제1 어플리케이션의 제1 정보와 제2 어플리케이션의 제2 정보를 표시하도록 제1 디스플레이(531) 또는 제2 디스플레이(533)를 제어할 수 있다.For example, when the electronic device 501 is in an unfolded or folded state, the processor 550 may divide the display area of the activated first display 531 or the second display 533 into a plurality of regions. there is. The processor 550 may control the first display 531 or the second display 533 to display first information of the first application and second information of the second application in each divided area.

일 실시예에서, 프로세서(550)는 630동작에서, 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 640동작에서, 획득된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(예: 도 2b의 제2 면(212)) 또는 제4 면(예: 도 2b의 제4 면(222))에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the processor 550 may acquire sensor information through a sensor circuit (eg, the sensor circuit 540 of FIG. 5) in operation 630. In operation 640, the processor 550 detects the second side (e.g., the second side 212 in FIG. 2B) or the fourth side (e.g., the second side 212 in FIG. 2B) of the electronic device 501 based on the acquired sensor information. If it is confirmed that user interaction is detected on side 4 (222), the type of user interaction and location information where the user interaction was detected can be confirmed.

일 실시예에서, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541))를 포함할 수 있다. 관성 센서(541)는 제1 하우징(210)의 내부 공간에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5). The inertial sensor 541 may be disposed in the internal space of the first housing 210. However, it is not limited to this.

일 실시예에서, 프로세서(550)는 관성 센서(541)를 통해 전자 장치(501)의 자세와 관련된 센서 정보 및/또는 움직임과 관련된 센서 정보를 획득할 수 있다. 전자 장치(501)의 자세와 관련된 센서 정보 및/또는 움직임과 관련된 센서 정보는, 특정 축(예: x축, y축, 및/또는 z축)을 기준으로 측정되는 센서 값 예를 들어, 가속도 값 및/또는 각속도 값을 포함할 수 있다. 프로세서(550)는 관성 센서(541)를 통해 획득되는 전자 장치(501)의 자세와 관련된 센서 정보 및/또는 움직임과 관련된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션이 검출되는지 여부를 확인할 수 있다.In one embodiment, the processor 550 may obtain sensor information related to the posture and/or sensor information related to the movement of the electronic device 501 through the inertial sensor 541. Sensor information related to the posture and/or movement of the electronic device 501 may include sensor values measured relative to a specific axis (e.g., x-axis, y-axis, and/or z-axis), such as acceleration. value and/or angular velocity value. The processor 550 operates on the second side 212 of the electronic device 501 or It is possible to check whether user interaction is detected on the fourth side 222.

이에 한정하는 것은 아니며, 센서 회로(540)는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 그립 센서(543)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.It is not limited to this, and the sensor circuit 540 may include a grip sensor (eg, the grip sensor 543 in FIG. 5). The grip sensor 543 may be disposed in a partial area of the second side 213c of the first housing 210 and/or a partial area of the fifth side 223c of the second housing 220. However, it is not limited to this.

일 실시예에서, 프로세서(550)는 그립 센서(543)를 통해 획득되는 센서 정보에 기반하여, 그립 상태(예: 한 손(예: 왼손 또는 오른손)에 의한 그립 상태 또는 양 손에 의한 그립 상태)를 확인할 수 있다. 프로세서(550)는 확인된 그립 상태에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222) 중 사용자 인터랙션이 검출되는 위치 정보를 추정(또는 예측)할 수 있다.In one embodiment, the processor 550 determines the grip state (e.g., a grip state with one hand (e.g., left or right hand) or a grip state with both hands) based on sensor information acquired through the grip sensor 543. ) can be confirmed. The processor 550 may estimate (or predict) location information where user interaction is detected among the second side 212 or the fourth side 222 of the electronic device 501 based on the confirmed grip state.

이에 한정하는 것은 아니며, 프로세서(550)는 제4 면(222)에 배치된 제2 디스플레이(533)에서 검출되는 터치 입력에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222) 중 사용자 인터랙션이 검출되는 위치 정보를 추정(또는 예측)할 수 있다.It is not limited to this, and the processor 550 displays the second or fourth side 212 of the electronic device 501 based on the touch input detected on the second display 533 disposed on the fourth side 222. Location information on the surface 222 where user interaction is detected can be estimated (or predicted).

일 실시예에서, 프로세서(550)는 650동작에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, in operation 650, the processor 550 displays at least one of first information of the first application and second information of the second application, based on the type of user interaction and the location information at which the user interaction was detected. Properties can be changed.

일 실시예에서, 표시 속성은, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보를 표시하기 위한 디스플레이(530)의 표시 영역 내 윈도우의 크기 및 윈도우 내 배열 중 적어도 하나를 포함할 수 있다.In one embodiment, the display properties may include at least one of the size of a window and an arrangement within the window in the display area of the display 530 for displaying the first information of the first application and the second information of the second application. there is.

일 실시예에서, 프로세서(550)는 660동작에서, 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 디스플레이(530)에 표시할 수 있다.In one embodiment, the processor 550 may display at least one of the first information and the second information on the display 530 in operation 660, based on the changed display attribute.

도 6b는, 본 개시의 일 실시예에 따른, 전술한 도 6a의 640동작을 설명하기 위한 흐름도이다.FIG. 6B is a flowchart for explaining operation 640 of FIG. 6A described above, according to an embodiment of the present disclosure.

도 6b를 참조하면, 프로세서(550)는 641동작에서, 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.Referring to FIG. 6B, the processor 550 may correct sensor data of detected user interaction based on the acquired sensor information in operation 641.

일 실시예에서, 전자 장치(501)는 센서 회로(540) 예를 들어, 관성 센서(541) 및/또는 그립 센서(543)를 포함할 수 있다. 또한, 전자 장치(501)는 터치 센서를 포함하는 디스플레이(530)를 포함할 수 있다. 프로세서(550)는 관성 센서(541)를 통해 획득되는 센서 정보, 그립 센서(543)를 통해 획득되는 센서 정보, 및/또는 제2 디스플레이(533)를 통해 획득되는 터치 정보에 기반하여 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the electronic device 501 may include a sensor circuit 540, for example, an inertial sensor 541 and/or a grip sensor 543. Additionally, the electronic device 501 may include a display 530 that includes a touch sensor. The processor 550 detects the user based on sensor information acquired through the inertial sensor 541, sensor information acquired through the grip sensor 543, and/or touch information obtained through the second display 533. Interaction sensor data can be corrected.

일 실시예에서, 프로세서(550)는 643동작에서, 보정된 센서 데이터들에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the processor 550 may check the type of user interaction and location information where the user interaction was detected based on the corrected sensor data in operation 643.

전술한 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작과 관련하여, 후술하는 도 7a 내지 도 22에서 다양한 실시예들이 설명될 것이다.In relation to the operation of correcting the sensor data of the detected user interaction described above, various embodiments will be described in FIGS. 7A to 22 described later.

도 7a는, 본 개시의 일 실시예에 따른, 전자 장치(501)가 펼침 상태에서 검출될 수 있는 사용자 인터랙션을 설명하기 위한 도면(700)이다.FIG. 7A is a diagram 700 illustrating a user interaction that can be detected when the electronic device 501 is in an unfolded state, according to an embodiment of the present disclosure.

도 7a를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 제1 하우징(예: 도 2a의 제1 하우징(210)) 및 제2 하우징(예: 도 2a의 및 제2 하우징(220))을 포함할 수 있다.Referring to FIG. 7A, the electronic device (e.g., the electronic device 501 in FIG. 5) includes a first housing (e.g., the first housing 210 in FIG. 2a) and a second housing (e.g., the first and second housings in FIG. 2a). It may include a housing 220).

일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득된 센서 정보에 기반하여, 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212))의 적어도 일부 영역 및/또는 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222))의 적어도 일부 영역에서 사용자 인터랙션을 검출할 수 있다.In one embodiment, the processor (e.g., processor 550 of FIG. 5) detects the first housing 210 based on sensor information acquired through a sensor circuit (e.g., sensor circuit 540 of FIG. 5). In at least a portion of the second side (e.g., the second side 212 in FIG. 2B) and/or in at least a portion of the fourth side of the second housing 220 (e.g., the fourth side 222 in FIG. 2B) User interaction can be detected.

일 실시예에서, 사용자 인터랙션은, 더블 탭(double tap) 또는 트리플 탭(triple tap)을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, user interaction may include a double tap or triple tap. However, it is not limited to this.

일 실시예에서, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541))를 포함할 수 있다. 일 실시예에서, 관성 센서(541)는 제1 하우징(210)의 내부 공간에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5). In one embodiment, the inertial sensor 541 may be disposed in the internal space of the first housing 210. However, it is not limited to this.

일 실시예에서, 관성 센서(541)는 6축 센서(예: 지자기 센서, 가속도 센서, 및/또는 자이로 센서)를 포함할 수 있다. 관성 센서(541)는 전자 장치(501)의 움직임과 관련된 센서 정보(예: x축, y축, 및/또는 z축의 센서 정보(예: 가속도 값, 각속도 값))를 획득(또는 측정)하고, 이를 프로세서(550)에 전달할 수 있다. 프로세서(550)는 관성 센서(541)를 통해 획득된 센서 정보에 기반하여, 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)에서의 사용자 인터랙션을 검출하고, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다.In one embodiment, the inertial sensor 541 may include a six-axis sensor (e.g., a geomagnetic sensor, an acceleration sensor, and/or a gyro sensor). The inertial sensor 541 acquires (or measures) sensor information related to the movement of the electronic device 501 (e.g., sensor information in the x-axis, y-axis, and/or z-axis (e.g., acceleration value, angular velocity value)), and , this can be transmitted to the processor 550. The processor 550 operates on the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 based on sensor information acquired through the inertial sensor 541. User interaction can be detected, and the type of user interaction detected and/or location information where the user interaction was detected can be confirmed.

일 실시예에서, 프로세서(550)는 제1 하우징(210)의 제2 면(212)을 적어도 하나의 영역으로 설정하고, 제2 하우징(220)의 제4 면(222)을 적어도 하나의 다른 영역으로 설정할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 설정된 적어도 하나의 영역(예: 제2 면(212) 또는 제4 면(222))에서 사용자 인터랙션을 검출할 수 있다.In one embodiment, the processor 550 sets the second side 212 of the first housing 210 to at least one region and sets the fourth side 222 of the second housing 220 to at least one other region. Can be set to area. The processor 550 may detect user interaction in at least one set area (e.g., the second side 212 or the fourth side 222) based on sensor information acquired through the sensor circuit 540. .

예를 들어, 참조번호 <710> 및 <715>에 도시된 바와 같이, 프로세서(550)는 제2 하우징(220)의 제4 면(222)을 두 개의 영역 예를 들어 제1 영역(예: 제2 하우징(220)의 제4 면(222)의 상측 영역) 및 제2 영역(예: 제2 하우징(220)의 제4 면(222)의 하측 영역)으로 설정할 수 있다. 프로세서(550)는 제1 영역 및 제2 영역으로 구분된 제4 면(222)에서의 사용자 인터랙션(711, 716)을 검출할 수 있다.For example, as shown in reference numerals <710> and <715>, the processor 550 divides the fourth surface 222 of the second housing 220 into two regions, for example, a first region (e.g. It can be set as an upper area of the fourth surface 222 of the second housing 220) and a second area (eg, a lower area of the fourth surface 222 of the second housing 220). The processor 550 may detect user interactions 711 and 716 on the fourth side 222 divided into a first area and a second area.

다른 예를 들어, 참조번호 <720> 및 <725>에 도시된 바와 같이, 프로세서(550)는 제1 하우징(210)의 제2 면(212)을 두 개의 영역 예를 들어 제3 영역(예: 제1 하우징(210)의 제2 면(212)의 상측 영역) 및 제4 영역(예: 제1 하우징(210)의 제2 면(212)의 하측 영역)으로 설정할 수 있다. 프로세서(550)는 제3 영역 및 제4 영역으로 구분된 제2 면(212)에서의 사용자 인터랙션(721, 726)을 검출할 수 있다.For another example, as shown in reference numerals <720> and <725>, the processor 550 divides the second surface 212 of the first housing 210 into two regions, for example, a third region (e.g. : Can be set to the upper area of the second surface 212 of the first housing 210) and the fourth area (e.g., the lower area of the second surface 212 of the first housing 210). The processor 550 may detect user interactions 721 and 726 on the second side 212 divided into the third area and the fourth area.

다양한 실시예들에서, 프로세서(550)는 사용자 인터랙션이 검출되는 위치(예: 제1 영역, 제2 영역, 제3 영역, 또는 제4 영역) 및/또는 각 위치(예: 제1 영역, 제2 영역, 제3 영역, 또는 제4 영역)에서 검출되는 사용자 인터랙션의 타입(예: 더블 탭 또는 트리플 탭)에 기반하여, 상이한 기능을 수행할 수 있다.In various embodiments, processor 550 determines the location at which user interaction is detected (e.g., first area, second area, third area, or fourth area) and/or each location (e.g., first area, third area, or fourth area). Depending on the type of user interaction (e.g., double tap or triple tap) detected in the second area, third area, or fourth area, different functions may be performed.

다양한 실시예들에서, 프로세서(550)는 사용자 인터랙션이 검출되는 경우, 센서 회로(540)를 통해 획득된 센서 정보와 이에 기반하여 확인된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보가 메모리(예: 도 5의 메모리(520))에 누적되어 저장될 수 있다. 프로세서(550)는 메모리(520)에 저장된 센서 정보 및 이에 기반한 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습할 수 있다. 프로세서(550)는 학습된 학습 모델에 기반하여 획득된 센서 정보에 대응하는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 확인할 수 있다. 이와 관련하여, 후술하는 도 7b 내지 도 22에서 다양한 실시예들이 설명될 것이다.In various embodiments, when user interaction is detected, the processor 550 may include sensor information acquired through the sensor circuit 540, the type of user interaction confirmed based thereon, and/or location information where the user interaction is detected. It may be accumulated and stored in memory (e.g., memory 520 in FIG. 5). The processor 550 may learn the sensor information stored in the memory 520, the type of user interaction based thereon, and/or the location information where the user interaction is detected using artificial intelligence. The processor 550 may check the type of user interaction corresponding to the sensor information obtained based on the learned learning model and/or location information where the user interaction is detected. In this regard, various embodiments will be described in FIGS. 7B to 22 described later.

도 7b 및 도 7c는, 본 개시의 일 실시예에 따른, 사용자 인터랙션을 검출하는 방법을 설명하기 위한 도면(700)이다.FIGS. 7B and 7C are diagrams 700 for explaining a method for detecting user interaction according to an embodiment of the present disclosure.

도 7b 및 도 7c를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 센서 정보 처리부(730), 데이터 증강부(755)(data augmentation), 및/또는 인공지능 모델(775)을 포함할 수 있다.7B and 7C, a processor (e.g., processor 550 of FIG. 5) includes a sensor information processing unit 730, a data augmentation unit 755, and/or an artificial intelligence model 775. It can be included.

일 실시예에 따라, 전술한 프로세서(550)에 포함된 센서 정보 처리부(730), 데이터 증강부(755)(data augmentation), 및/또는 인공지능 모델(775)은 하드웨어 모듈(예: 회로(circuitry))로 프로세서(550)에 포함되거나, 및/또는 프로세서(550)에 의해 실행될 수 있는 하나 이상의 인스트럭션들을 포함하는 소프트웨어로서 구현될 수 있다.According to one embodiment, the sensor information processing unit 730, data augmentation unit 755 (data augmentation), and/or artificial intelligence model 775 included in the above-described processor 550 are hardware modules (e.g., circuits ( circuitry), may be included in the processor 550, and/or may be implemented as software that includes one or more instructions that can be executed by the processor 550.

일 실시예에서, 센서 정보 처리부(730)는 잡음 제거부(735), 피크(peak) 식별부(740), 및/또는 클러스터 생성부(745)를 포함할 수 있다.In one embodiment, the sensor information processing unit 730 may include a noise removal unit 735, a peak identification unit 740, and/or a cluster creation unit 745.

일 실시예에서, 잡음 제거부(735)는 리샘플링부(resampling)(736), 슬로핑부(sloping)(737), 및/또는 필터링부(filtering)(738)를 포함할 수 있다.In one embodiment, the noise removal unit 735 may include a resampling unit 736, a sloping unit 737, and/or a filtering unit 738.

일 실시예에서, 잡음 제거부(735)의 리샘플링부(736)는 특정 시간 간격으로 센서 회로(540) 예를 들어, 관성 센서(541)를 통해 획득되는 센서 값들(예: x축, y축, 및 z축의 센서 데이터(예: 가속도 값들 및/또는 각도 값들))을 균일하게 보정할 수 있다.In one embodiment, the resampling unit 736 of the noise removal unit 735 collects sensor values (e.g., x-axis, y-axis) acquired through the sensor circuit 540, for example, the inertial sensor 541, at specific time intervals. , and z-axis sensor data (e.g., acceleration values and/or angle values)) may be uniformly corrected.

일 실시예에서, 잡음 제거부(735)의 슬로핑부(737)는 리샘플링부(736)를 통해 균일하게 보정된 센서 값들의 기울기 값을 산출하고, 산출된 기울기 값에 기반하여, 센서 값들에서 급격한 변화를 식별할 수 있다.In one embodiment, the sloping unit 737 of the noise removal unit 735 calculates the slope value of the sensor values that are uniformly corrected through the resampling unit 736, and based on the calculated slope value, the sloping unit 737 of the noise removal unit 735 calculates the slope value of the sensor values that are uniformly corrected. Changes can be identified.

일 실시예에서, 잡음 제거부(735)의 필터링부(738)는 센서 값들과 기울기 값을 저역 통과 필터(low-pass filter; LPF)로 통과시킬 수 있다. 저역 통과 필터로 통과된 센서 값들과 기울기 값은 고역 통과 필터(high-pass filter; HPF)를 통과할 수 있다. 센서 값들이 고역 통과 필터를 통과함에 따라 센서 값들 및 기울기 값에서 노이즈가 제거되어, 센서 값들의 피크 값은 정확하게 획득될 수 있다.In one embodiment, the filtering unit 738 of the noise removal unit 735 may pass the sensor values and slope values through a low-pass filter (LPF). Sensor values and slope values passed through a low-pass filter may pass through a high-pass filter (HPF). As the sensor values pass through the high-pass filter, noise is removed from the sensor values and slope values, so that the peak value of the sensor values can be accurately obtained.

일 실시예에서, 피크(peak) 식별부(740)는 피크 검출부(peak detection)(741) 및/또는 피크 필터링부(peak filtering)(742)를 포함할 수 있다.In one embodiment, the peak identification unit 740 may include a peak detection unit 741 and/or a peak filtering unit 742.

일 실시예에서, 피크 검출부(741)는 필터링부(738)를 통해 고역 통과 필터를 통과한 센서 값들(예: 필터링된 센서 값들)에 기반하여, 피크 값들을 검출할 수 있다.In one embodiment, the peak detection unit 741 may detect peak values based on sensor values (eg, filtered sensor values) that have passed a high-pass filter through the filtering unit 738.

일 실시예에서, 피크 필터링부(742)는 피크 검출부(741)를 통해 검출된 피크 값들 중 지정된 피크 값보다 작은 피크 값들을 제거(또는 삭제)할 수 있다.In one embodiment, the peak filtering unit 742 may remove (or delete) peak values that are smaller than a specified peak value among the peak values detected through the peak detection unit 741.

일 실시예에서, 클러스터 생성부(745)는 피크 필터링부(742)에 의해 필터링된 피크 값들 중 가장 높은 피크 값을 포함하는 지정된 개수의 센서 값들을 하나의 클러스터(cluster)(750)로 생성할 수 있다.In one embodiment, the cluster generator 745 generates a specified number of sensor values including the highest peak value among the peak values filtered by the peak filtering unit 742 as one cluster (750). You can.

일 실시예에서, 데이터 증강부(755)(data augmentation)는 생성된 클러스터(750)에 기반하여, 데이터 양을 증강시킬 수 있다. 증강된 데이터는 하나의 클러스터(760)로 생성될 수 있다. 일 실시예에서, 학습에 사용될 수 있는 충분한 양의 데이터 세트(765)를 생성하기 위해, 데이터 증강부(755)는 생성된 클러스터(750)에 기반하여 데이터 양을 증강시킬 수 있다.In one embodiment, the data augmentation unit 755 (data augmentation) may augment the amount of data based on the generated cluster 750. Augmented data may be generated as one cluster 760. In one embodiment, to generate a sufficient amount of data set 765 that can be used for learning, the data augmentation unit 755 may augment the amount of data based on the generated clusters 750.

일 실시예에서, 증강된 데이터를 포함하는 하나의 클러스터(760)에 기반하여, 데이터 세트(765)가 생성될 수 있다. 생성된 데이터 세트(765)는 인공지능 모델(775)에 의해 학습될 수 있다.In one embodiment, a data set 765 may be created based on one cluster 760 containing augmented data. The generated data set 765 can be learned by an artificial intelligence model 775.

일 실시예에서, 인공지능 모델(775)은 생성된 데이터 세트(765)를 이용하여 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 학습하고, 학습된 모델(780)을 생성할 수 있다. 인공지능 모델(775)은, 뉴럴 네트워크 모델(neural network model)(776)을 포함할 수 있다. 이에 한정하는 것은 아니다.In one embodiment, the artificial intelligence model 775 can use the generated data set 765 to learn the type of user interaction and/or location information where the user interaction is detected and generate the learned model 780. there is. The artificial intelligence model 775 may include a neural network model 776. It is not limited to this.

다양한 실시예들에서, 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 데이터들에 기반하여 결정(또는 확인)되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 학습하고, 학습된 모델(780)을 생성하는 것으로 설명하였으나, 이에 한정하는 것은 아니다. 예를 들어, 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 데이터들을 무선 통신 회로(예: 도 5의 무선 통신 회로(510))를 통해 서버(예: 지능형 서버)에 전송하고, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 확인(또는 식별, 또는 결정)할 수도 있다.In various embodiments, the processor 550 learns the type of user interaction and/or the location at which the user interaction is detected, which is determined (or confirmed) based on sensor data acquired through the sensor circuit 540, and learns Although it has been described as generating the model 780, it is not limited to this. For example, the processor 550 transmits sensor data acquired through the sensor circuit 540 to a server (e.g., an intelligent server) through a wireless communication circuit (e.g., the wireless communication circuit 510 of FIG. 5), A learning model learned through machine learning learning by artificial intelligence may be received from the server to confirm (or identify, or determine) the type of user interaction and/or the location where the user interaction is detected.

도 8은, 본 개시의 일 실시예에 따른, 전자 장치(501)의 상태에 기반하여, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(800)이다.FIG. 8 is a diagram 800 for explaining a method of correcting sensor data of user interaction based on the state of the electronic device 501, according to an embodiment of the present disclosure.

도 8을 참조하면, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득되는 센서 정보에 기반하여, 전자 장치(예: 도 5의 전자 장치(501))의 상태(예: 펼침 상태(예: 도 2a 및 도 2b의 상태), 접힘 상태(예: 도 3a 및 도 3b의 상태), 또는 중간 상태) 및/또는 상태 전환(예: 펼침 상태에서 접힘 상태로의 전환 또는 접힘 상태에서 펼침 상태로의 전환)을 확인할 수 있다. 예를 들어, 센서 회로(540)는 홀 센서(미도시) 및/또는 관성 센서(예: 도 5의 관성 센서(541))를 포함할 수 있다.Referring to FIG. 8, a processor (e.g., processor 550 in FIG. 5) processes an electronic device (e.g., processor 550 in FIG. 5) based on sensor information acquired through a sensor circuit (e.g., sensor circuit 540 in FIG. 5). state (e.g., an unfolded state (e.g., the state in FIGS. 2A and 2B), a folded state (e.g., the state in FIGS. 3A and 3B), or an intermediate state) and/or state transition ( For example, you can check the transition from the unfolded state to the collapsed state or the transition from the collapsed state to the unfolded state. For example, the sensor circuit 540 may include a Hall sensor (not shown) and/or an inertial sensor (eg, the inertial sensor 541 in FIG. 5 ).

일 실시예에서, 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)인 경우, 제1 하우징(예: 도 2a의 제1 하우징(210)) 및 제2 하우징(예: 도 2a의 제2 하우징(220))은 약 180도의 각도를 이룰 수 있다.In one embodiment, when the electronic device 501 is in an unfolded state (e.g., the state in FIGS. 2A and 2B), the first housing (e.g., the first housing 210 in FIG. 2A) and the second housing (e.g., the state in FIGS. 2A and 2B). The second housing 220 in FIG. 2A may form an angle of approximately 180 degrees.

일 실시예에서, 전자 장치(501)가 접힘 상태(예: 도 3a 및 도 3b의 상태)인 경우, 제1 하우징(210)의 제1 면(예: 도 2a의 제1 면(211)) 및 제2 하우징(220)의 제3 면(예: 도 2a의 제3 면(221))은 서로 좁은 각도(예: 약 0도~약 10도 범위)를 형성하고, 서로 마주보도록 배치될 수도 있다.In one embodiment, when the electronic device 501 is in a folded state (e.g., the state in FIGS. 3A and 3B), the first side of the first housing 210 (e.g., the first side 211 in FIG. 2A) and the third side of the second housing 220 (e.g., the third side 221 in FIG. 2A) forms a narrow angle (e.g., in the range of about 0 degrees to about 10 degrees) with each other and may be arranged to face each other. there is.

일 실시예에서, 전자 장치(501)가 소정의 각도를 이루는 중간 상태인 경우, 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)은 약 80도~약 130도의 각도를 이룰 수 있다.In one embodiment, when the electronic device 501 is in an intermediate state forming a predetermined angle, the first surface 211 of the first housing 210 and the third surface 221 of the second housing 220 are approximately An angle of 80 degrees to about 130 degrees can be achieved.

다양한 실시예들에 따른 참조번호 <810>은, 전자 장치(501)가 접힘 상태에서 펼침 상태로의 전환(815)을 도시한 도면이다. 예를 들어, 프로세서(550)는 전자 장치(501)의 접힘 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 0도~약 10도를 이루는 상태)에서 중간 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 80도~약 130도를 이루는 상태), 또는 펼침 상태(예: 제1 하우징(210) 및 제2 하우징(220)이 약 180도를 이루는 상태)로의 전환을 검출할 수 있다.Reference numeral <810> according to various embodiments is a diagram illustrating a transition 815 of the electronic device 501 from a folded state to an unfolded state. For example, the processor 550 may operate in a folded state of the electronic device 501 (e.g., the first side 211 of the first housing 210 and the third side 221 of the second housing 220 are approximately 0). degrees to about 10 degrees) to an intermediate state (e.g., the first side 211 of the first housing 210 and the third side 221 of the second housing 220 are at an angle of about 80 degrees to about 130 degrees. A change to a state) or an unfolded state (for example, a state in which the first housing 210 and the second housing 220 form an angle of about 180 degrees) can be detected.

다양한 실시예들에 따른 참조번호 <850>은 전자 장치(501)가 펼침 상태에서 접힘 상태로의 전환(855)을 도시한 도면이다. 예를 들어, 프로세서(550)는 전자 장치(501)의 펼침 상태(예: 약 180도를 이루는 상태)에서, 중간 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 80도~약 130도를 이루는 상태) 또는 접힘 상태(예: 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 약 0도~약 10도를 이루는 상태)로의 전환을 검출할 수 있다.Reference numeral <850> according to various embodiments is a diagram illustrating a transition 855 of the electronic device 501 from an unfolded state to a folded state. For example, the processor 550 operates in an unfolded state (e.g., at about 180 degrees) of the electronic device 501, in an intermediate state (e.g., on the first side 211 and the second side of the first housing 210). The third side 221 of the housing 220 is in an angle of about 80 degrees to about 130 degrees) or in a folded state (e.g., the first side 211 of the first housing 210 and the second housing 220 are in a folded state). A transition to a state in which the third side 221 ranges from about 0 degrees to about 10 degrees can be detected.

일 실시예에서, 프로세서(550)는 전자 장치(501)의 상태 전환에 기반하여, 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제3 면(221)이 특정 각도(820)(예: 약 75도~약 115도)를 이루는 경우, 센서 회로(540)를 통해 획득되는 센서 데이터들을 보정할 수 있다. 센서 회로(540)를 통해 획득되는 전자 장치(501)의 상태에 따른 센서 데이터들을 보정함으로써, 전자 장치(501)의 상태에 따른 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 정확하게 식별할 수 있다.In one embodiment, the processor 550 controls the first side 211 of the first housing 210 and the third side 221 of the second housing 220 based on the state transition of the electronic device 501. When a specific angle 820 (e.g., about 75 degrees to about 115 degrees) is achieved, sensor data acquired through the sensor circuit 540 can be corrected. By correcting sensor data according to the state of the electronic device 501 obtained through the sensor circuit 540, it is possible to accurately identify the type of user interaction and/or the location where the user interaction is detected according to the state of the electronic device 501. You can.

도 9a 및 도 9b는, 본 개시의 일 실시예에 따른, 관성 센서(541)를 통해 획득되는 센서 정보를 이용하여 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(900, 950)이다.FIGS. 9A and 9B are diagrams 900 and 950 for explaining a method of correcting sensor data of user interaction using sensor information acquired through the inertial sensor 541 according to an embodiment of the present disclosure. .

다양한 실시예들에 따른 도 9a는, 관성 센서(예: 도 5의 관성 센서(541))를 통해 획득되는 센서 정보 예를 들어, x축, y축, 및 z축의 가속도 값을 나타낸 제1 그래프(900)이다. 도 9b는, 관성 센서(541)를 통해 획득되는 센서 정보 예를 들어, x축, y축, 및 z축의 각도 값을 나타낸 제2 그래프(950)이다.FIG. 9A according to various embodiments is a first graph showing sensor information acquired through an inertial sensor (e.g., the inertial sensor 541 of FIG. 5), for example, acceleration values of the x-axis, y-axis, and z-axis. It is (900). FIG. 9B is a second graph 950 showing sensor information acquired through the inertial sensor 541, such as angle values of the x-axis, y-axis, and z-axis.

도 9a를 참조하면, 일 실시예에 따른 제1 그래프(900)에서 x축은 시간(901)을 의미하고, y축은 가속도 값(m/s2)(905)을 의미할 수 있다.Referring to FIG. 9A, in the first graph 900 according to one embodiment, the x-axis may indicate time 901, and the y-axis may indicate an acceleration value (m/s2) 905.

일 실시예에서, 참조번호 <910>, <920>, 및 <930>은, 전자 장치(예: 도 5의 전자 장치(501))의 움직임에 따른, 제1 하우징(예: 도 2a의 제1 하우징(210))의 x축(예: 좌/우 움직임), y축(예: 앞/뒤 움직임), 및 z축(예: 상/하 움직임)의 가속도 값(911, 921, 931)과 제2 하우징(예: 도 2a의 제2 하우징(220))의 x축(예: 좌/우 움직임), y축(예: 앞/뒤 움직임), 및 z축(예: 상/하 움직임)의 가속도 값(913, 923, 933)을 나타낸 그래프이다.In one embodiment, reference numerals <910>, <920>, and <930> refer to the first housing (e.g., the first housing (e.g., the electronic device 501 of FIG. 2A) according to the movement of the electronic device (e.g., the electronic device 501 of FIG. 5). 1 Acceleration values (911, 921, 931) of the x-axis (e.g., left/right movement), y-axis (e.g., forward/backward movement), and z-axis (e.g., up/down movement) of the housing 210) And the ) This is a graph showing the acceleration values (913, 923, 933).

다양한 실시예들에서, 프로세서(550)는, 참조번호 <910>, <920>, 및 <930>에서 살펴본 바와 같이, 전자 장치(501)의 움직임에 대한 제1 하우징(210) 및 제2 하우징(220)의 가속도 값에 기반하여, 전자 장치(501)의 후면 예를 들어, 제2 면(예: 도 2b의 제2 면(212)) 또는 제4 면(예: 도 2b의 제4 면(222))에서 사용자 인터랙션이 검출되었는지 여부를 확인(또는 결정)할 수 있다.In various embodiments, the processor 550 includes a first housing 210 and a second housing for movement of the electronic device 501, as described above with reference numerals <910>, <920>, and <930>. Based on the acceleration value of 220, the rear surface of the electronic device 501, for example, the second side (e.g., the second side 212 in FIG. 2B) or the fourth side (e.g., the fourth side in FIG. 2B) At (222)), it is possible to check (or determine) whether user interaction has been detected.

도 9b를 참조하면, 제2 그래프(950)에서 x축은 시간(951)을 의미하고, y축은 각속도 값(rad/s)(953)을 의미할 수 있다.Referring to FIG. 9B, in the second graph 950, the x-axis may represent time 951, and the y-axis may represent the angular velocity value (rad/s) 953.

일 실시예에서, 참조번호 <960>, <970>, 및 <980>은, 전자 장치(501)의 움직임에 따른, 제1 하우징(예: 도 2a의 제1 하우징(210))의 x축, y축, 및 z축의 각속도 값(961, 971, 981)과 제2 하우징(예: 도 2a의 제2 하우징(220))의 x축, y축, 및 z축의 각속도 값(963, 973, 983)을 나타낸 그래프이다.In one embodiment, reference numerals <960>, <970>, and <980> represent the x-axis of the first housing (e.g., the first housing 210 in FIG. 2A) according to the movement of the electronic device 501. , angular velocity values 961, 971, 981 of the y-axis, and z-axes, and angular velocity values 963, 973 of the x-axis, y-axis, and z-axis of the second housing (e.g., the second housing 220 in FIG. 2A). This is a graph showing 983).

다양한 실시예들에서, 프로세서(550)는, 참조번호 <960>, <970>, 및 <980>에서 살펴본 바와 같이, 전자 장치(501)의 움직임에 대한 제1 하우징(210) 및 제2 하우징(220)의 각속도 값에 기반하여, 전자 장치(501)의 자세, 예를 들어, 수평 정도를 확인하여, 전자 장치(501)의 후면, 예를 들어, 제2 면(212) 또는 제4 면(222)에 검출된 사용자 인터랙션이 의도된 사용자 입력인지 여부를 결정(또는 식별, 또는 확인, 또는 추정)할 수 있다.In various embodiments, the processor 550 includes a first housing 210 and a second housing for movement of the electronic device 501, as described above with reference numerals <960>, <970>, and <980>. Based on the angular velocity value of 220, the posture of the electronic device 501, e.g., horizontality, is confirmed, and the rear, e.g., second side 212 or fourth side of the electronic device 501 It may be determined (or identified, confirmed, or estimated) whether the user interaction detected at 222 is an intended user input.

도 10a 및 도 10b는, 본 개시의 일 실시예에 따른, 도 7b의 리샘플링부(736)의 동작을 설명하기 위한 도면(1000, 1050)이다.FIGS. 10A and 10B are diagrams 1000 and 1050 for explaining the operation of the resampling unit 736 of FIG. 7B according to an embodiment of the present disclosure.

도 10a를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540)), 예를 들어, 관성 센서(예: 도 5의 관성 센서(541))를 통해 특정 축(예: x축, y축, 및/또는 z축)을 기준으로 측정되는 센서 값 예를 들어, 가속도 값 및/또는 각속도 값을 획득할 수 있다.Referring to FIG. 10A, a processor (e.g., processor 550 of FIG. 5) may include a sensor circuit (e.g., sensor circuit 540 of FIG. 5), e.g., an inertial sensor (e.g., inertial sensor 541 of FIG. 5). )), sensor values measured based on a specific axis (e.g., x-axis, y-axis, and/or z-axis), for example, acceleration value and/or angular velocity value, can be obtained.

일 실시예에서, 프로세서(550)(예: 리샘플링부(736))는 특정 시간 동안 관성 센서(541)를 통해 획득되는, 특정 축을 기준으로 측정된 가속도 값 및/또는 각속도 값을 균일하게 보정할 수 있다.In one embodiment, the processor 550 (e.g., the resampling unit 736) uniformly corrects the acceleration value and/or angular velocity value measured based on a specific axis, which is acquired through the inertial sensor 541 during a specific time. You can.

일 실시예에서, 프로세서(550)는 특정 시간 동안(예: T0(1005)~T3(1010)) 관성 센서(541) 예를 들어, 가속도 센서 및/또는 자이로 센서를 통해 센서 데이터를 획득할 수 있다. 예를 들어, 가속도 센서를 통해 제1 센서 데이터(1015)(예: Ax1, Ay1, Az1), 제3 센서 데이터(1025)(예: Ax2, Ay2, Az2), 제4 센서 데이터(1030)(예: Ax3, Ay3, Az3)를 획득하고, 자이로 센서를 통해 제2 센서 데이터(1020)(예: Gx1, Gy1, Gz1) 및 제5 센서 데이터(1035)(예: Gx2, Gy2, Gz2)를 획득할 수 있다.In one embodiment, the processor 550 may acquire sensor data through an inertial sensor 541, such as an acceleration sensor and/or a gyro sensor, during a specific time period (e.g., T0 (1005) to T3 (1010)). there is. For example, through an acceleration sensor, first sensor data 1015 (e.g., Ax1, Ay1, Az1), third sensor data 1025 (e.g., Ax2, Ay2, Az2), and fourth sensor data 1030 ( For example, Ax3, Ay3, Az3) is acquired, and the second sensor data 1020 (for example, Gx1, Gy1, Gz1) and the fifth sensor data 1035 (for example, Gx2, Gy2, Gz2) are obtained through the gyro sensor. It can be obtained.

일 실시예에서, 프로세서(550)(예: 리샘플링부(736))는 특정 시간 동안 관성 센서(541)를 통해 획득된 제1 센서 데이터(1015)(예: Ax1, Ay1, Az1), 제2 센서 데이터(1020)(예: Gx1, Gy1, Gz1), 제3 센서 데이터(1025)(예: Ax2, Ay2, Az2), 제4 센서 데이터(1030)(예: Ax3, Ay3, Az3), 및 제5 센서 데이터(1035)(예: Gx2, Gy2, Gz2)를 균일하게 보정할 수 있다.In one embodiment, the processor 550 (e.g., the resampling unit 736) collects the first sensor data 1015 (e.g., Ax1, Ay1, and Az1) acquired through the inertial sensor 541 for a specific time, and the second Sensor data 1020 (e.g., Gx1, Gy1, Gz1), third sensor data 1025 (e.g., Ax2, Ay2, Az2), fourth sensor data 1030 (e.g., Ax3, Ay3, Az3), and The fifth sensor data 1035 (eg, Gx2, Gy2, Gz2) can be uniformly corrected.

예를 들어, 도 10b를 참조하면, 참조번호 <1060>은, 관성 센서(541), 예를 들어, 가속도 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: z축을 기준으로 측정된 가속도 값들)을 도시한 제1 그래프(1071) 및 자이로 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: x축을 기준으로 측정된 각속도 값들)을 도시한 제2 그래프(1073)를 도시한 것이다. For example, referring to FIG. 10B, reference numeral <1060> indicates sensor values (e.g., acceleration values measured based on the z-axis) acquired at specified time intervals through an inertial sensor 541, for example, an acceleration sensor. ) and a second graph 1073 showing sensor values (e.g., angular velocity values measured based on the x-axis) obtained at specified time intervals through a gyro sensor.

참조번호 <1060>에 따른 제1 그래프(1071) 및 제2 그래프(1073)에서 x축은 시간(1061)을 의미하고, y축은 센서 값(1063)(예: 가속도 값 또는 각속도 값)을 의미할 수 있다.In the first graph 1071 and the second graph 1073 according to reference number <1060>, the x-axis means time 1061, and the y-axis means sensor value 1063 (e.g., acceleration value or angular velocity value). You can.

일 실시예에서, 참조번호 <1080>은, 참조번호 <1060>에 따른 가속도 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: z축을 기준으로 측정된 가속도 값들)을 리샘플링한 제3 그래프(1091) 및 자이로 센서를 통해 지정된 시간 간격으로 획득된 센서 값들(예: x축을 기준으로 측정된 각속도 값들)을 리샘플링한 제4 그래프(1093)를 도시한 것이다. In one embodiment, reference number <1080> represents a third graph (e.g., acceleration values measured based on the z-axis) resampled sensor values obtained at specified time intervals through an acceleration sensor according to reference number <1060>. 1091) and a fourth graph 1093 that resamples sensor values (e.g., angular velocity values measured based on the x-axis) obtained at specified time intervals through a gyro sensor.

참조번호 <1080>에 따른 제3 그래프(1091) 및 제4 그래프(1093)에서 x축은 시간(1081)을 의미하고, y축은 센서 값(1083)(예: 가속도 값 또는 각속도 값)을 의미할 수 있다.In the third graph 1091 and fourth graph 1093 according to reference number <1080>, the x-axis means time (1081), and the y-axis means sensor value (1083) (e.g., acceleration value or angular velocity value). You can.

다양한 실시예들에서, 리샘플링부(736)는 가속도 센서 및/또는 자이로 센서를 통해 획득되는 센서 값들이 균일한 센서 값들을 가지도록 보정(1090)할 수 있다.In various embodiments, the resampling unit 736 may correct (1090) sensor values obtained through an acceleration sensor and/or a gyro sensor to have uniform sensor values.

다양한 실시예들에서, 프로세서(550)는 전술한 보정된 균일한 센서 값들을 이용하여, 후술하는 도 11의 동작을 수행할 수 있다.In various embodiments, the processor 550 may perform the operation of FIG. 11, described below, using the above-described corrected uniform sensor values.

도 11은, 본 개시의 일 실시예에 따른, 도 7b의 슬로핑부(737)의 동작을 설명하기 위한 도면(1100)이다.FIG. 11 is a diagram 1100 for explaining the operation of the sloping unit 737 of FIG. 7B according to an embodiment of the present disclosure.

도 11을 참조하면, 참조번호 <1110>은, 전술한 도 10b의 리샘플링 동작을 통해 보정된 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1091)를 도시한 것이다. 참조번호 <1150>은 슬로핑 동작을 통해 전자 장치(501)의 움직임에 따른 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1151)를 도시한 것이다.Referring to FIG. 11 , reference number <1110> illustrates a graph 1091 showing acceleration values (e.g., acceleration values measured based on the z-axis) corrected through the resampling operation of FIG. 10b described above. Reference number <1150> illustrates a graph 1151 representing acceleration values (e.g., acceleration values measured based on the z-axis) according to the movement of the electronic device 501 through a sloping operation.

일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 하기 <수학식 1>에 기반하여, 센서 값들의 기울기 값(m)을 산출할 수 있다. 예를 들어, 프로세서(550)는 슬로핑부(예: 도 7b의 슬로핑부(737))를 통해 일정 시간(예: x축) 동안 얼마나 가속(예: y축)하였는지 여부를 확인하여, 센서 값들의 기울기 값(m)을 산출할 수 있다. 프로세서(550)는 산출된 기울기 값(m)에 기반하여, 센서 값들의 급격한 변화를 식별할 수 있다. 다시 말해, 프로세서(550)는 시간에 대해 가속도가 급격하게 변화되었는지 여부를 확인할 수 있다.In one embodiment, a processor (e.g., processor 550 of FIG. 5) may calculate the slope value (m) of the sensor values based on Equation 1 below. For example, the processor 550 determines how much acceleration (e.g., y-axis) was accelerated during a certain period of time (e.g., x-axis) through a sloping unit (e.g., sloping unit 737 in FIG. 7B), The slope value (m) can be calculated. The processor 550 may identify sudden changes in sensor values based on the calculated slope value (m). In other words, the processor 550 can check whether the acceleration has changed rapidly with respect to time.

Figure pat00001
Figure pat00001

전술한 기울기(m)를 산출한 후, 프로세서(550)는 센서 값들과 산출된 기울기 값(m)을 필터링부(예: 도 7b의 필터링부(738))를 통해 필터링한 후, 후술하는 도 12의 동작을 수행할 수 있다.After calculating the above-described slope (m), the processor 550 filters the sensor values and the calculated slope value (m) through a filtering unit (e.g., the filtering unit 738 in FIG. 7B), and then filters the sensor values and the calculated slope value (m) through a filtering unit (e.g., the filtering unit 738 in FIG. 7B). 12 operations can be performed.

도 12는, 본 개시의 일 실시예에 따른, 도 7b의 피크 식별부(740)의 동작을 설명하기 위한 도면(1200)이다.FIG. 12 is a diagram 1200 for explaining the operation of the peak identification unit 740 of FIG. 7B according to an embodiment of the present disclosure.

도 12를 참조하면, 참조번호 <1210>은, 피크 검출부(예: 도 7b의 피크 검출부(741))를 통해 검출된 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1211)를 도시한 것이다. 참조번호 <1250>은 피크 필터링부(예: 도 7b의 피크 필터링부(742))를 통해 필터링된 가속도 값들(예: z축을 기준으로 측정된 가속도 값들)을 나타내는 그래프(1211)를 도시한 것이다.Referring to FIG. 12, reference number <1210> is a graph 1211 representing acceleration values (e.g., acceleration values measured based on the z-axis) detected through a peak detection unit (e.g., peak detection unit 741 in FIG. 7B). ) is shown. Reference number <1250> shows a graph 1211 representing acceleration values (e.g., acceleration values measured based on the z-axis) filtered through a peak filtering unit (e.g., peak filtering unit 742 in FIG. 7B). .

일 실시예에 따른 참조번호 <1210> 및 <1250>에서 x축은 시간(1201)을 나타내고, y축은 가속도 값들의 표준편차(1203)를 나타낼 수 있다.In reference numbers <1210> and <1250> according to one embodiment, the x-axis may represent time (1201), and the y-axis may represent the standard deviation (1203) of acceleration values.

일 실시예에서, 프로세서(550)(예: 피크 검출부(741))는 참조번호 <1210>에 따른 그래프(1211)에서 가속도 값들의 피크 값들을 식별할 수 있다. 예를 들어, 식별된 피크 값들은, 제1 피크 값(1261), 제2 피크 값(1263), 제3 피크 값(1265), 제4 피크 값(1267), 제5 피크 값(1269), 제6 피크 값(1271), 및 제7 피크 값(1273)을 포함할 수 있다. In one embodiment, the processor 550 (e.g., peak detection unit 741) may identify peak values of acceleration values in the graph 1211 indicated by reference number <1210>. For example, the identified peak values include the first peak value (1261), the second peak value (1263), the third peak value (1265), the fourth peak value (1267), the fifth peak value (1269), It may include a sixth peak value (1271) and a seventh peak value (1273).

일 실시예에서, 프로세서(550)(예: 피크 필터링부(742))는 필터(예: 고역 통과 필터)를 통해 중력 가속도 성분을 제거할 수 있다. 예를 들어, 프로세서(550)(예: 피크 필터링부(742))는, 참조번호 <1250>에 도시된 바와 같이, 식별된 피크 값들 예를 들어, 피크 값들은 제1 피크 값(1261), 제2 피크 값(1263), 제3 피크 값(1265), 제4 피크 값(1267), 제5 피크 값(1269), 제6 피크 값(1271), 및 제7 피크 값(1273) 중 지정된 피크 값(1251)보다 작거나 및/또는 지정된 피크 값(1251)을 기준으로 지정된 범위(예: +0.2) 내 포함되는 피크 값들(예: 제2 피크 값(1263), 제3 피크 값(1265), 제4 피크 값(1267), 제6 피크 값(1271), 및 제7 피크 값(1273))을 제거(또는 삭제)할 수 있다.In one embodiment, the processor 550 (eg, peak filtering unit 742) may remove the gravitational acceleration component through a filter (eg, high-pass filter). For example, the processor 550 (e.g., peak filtering unit 742), as shown in reference numeral <1250>, selects the identified peak values, for example, the peak values are the first peak value 1261, designated among the second peak value (1263), the third peak value (1265), the fourth peak value (1267), the fifth peak value (1269), the sixth peak value (1271), and the seventh peak value (1273). Peak values that are smaller than the peak value (1251) and/or included within a specified range (e.g., +0.2) based on the specified peak value (1251) (e.g., the second peak value (1263), the third peak value (1265) ), the fourth peak value (1267), the sixth peak value (1271), and the seventh peak value (1273)) can be removed (or deleted).

도 13은, 본 개시의 일 실시예에 따른, 도 7b의 클러스터 생성부(745)의 동작을 설명하기 위한 도면(1300)이다.FIG. 13 is a diagram 1300 for explaining the operation of the cluster generator 745 of FIG. 7B according to an embodiment of the present disclosure.

도 13을 참조하면, 프로세서(예: 도 5의 프로세서(550))(예: 클러스터 생성부(745))는 전술한 도 12에서 피크 필터링부(예: 도 7b의 피크 필터링부(742))에 의해 필터링된 피크 값들 중 가장 높은 피크 값을 포함하는 지정된 개수의 센서 값들을 하나의 클러스터(cluster)로 생성할 수 있다. 예를 들어, 프로세서(550)(예: 클러스터 생성부(745))는 가장 높은 피크 값 예를 들어, 제1 피크 값(1261)을 포함하는 지정된 개수의 센서 값들을 포함하는 제1 클러스터(1310) 및 제5 피크 값(1269)을 포함하는 지정된 개수의 센서 값들을 포함하는 제2 클러스터(1320)를 생성할 수 있다.Referring to FIG. 13, the processor (e.g., processor 550 in FIG. 5) (e.g., cluster generator 745) uses the peak filtering unit (e.g., peak filtering unit 742 in FIG. 7b) in FIG. 12 described above. A specified number of sensor values including the highest peak value among the peak values filtered by can be generated as a cluster. For example, the processor 550 (e.g., the cluster generator 745) creates a first cluster 1310 that includes a specified number of sensor values including the highest peak value, for example, the first peak value 1261. ) and a specified number of sensor values including the fifth peak value 1269 may be generated.

일 실시예에서, 프로세서(550)는 하나의 클러스터를 싱글 탭으로 식별(또는 결정)할 수 있다. 예를 들어, 프로세서(550)는 제1 클러스터(1310)는 제1 탭으로 식별할 수 있으며, 제2 클러스터(1320)는 제2 탭으로 식별할 수 있다. 프로세서(550)는 식별된 제1 탭이 검출된 시간 및 제2 탭이 검출된 시간에 기반하여, 사용자 인터랙션의 타입을 결정할 수 있다. 이와 관련하여, 후술하는 도 14에서 다양한 실시예들이 설명될 것이다.In one embodiment, processor 550 may identify (or determine) one cluster with a single tap. For example, the processor 550 may identify the first cluster 1310 as a first tab and the second cluster 1320 as a second tab. The processor 550 may determine the type of user interaction based on the time at which the identified first tap was detected and the time at which the second tap was detected. In this regard, various embodiments will be described in FIG. 14 described later.

도 14는, 본 개시의 일 실시예에 따른, 인공지능 모델(775)의 동작을 설명하기 위한 도면(1400)이다.FIG. 14 is a diagram 1400 for explaining the operation of the artificial intelligence model 775 according to an embodiment of the present disclosure.

도 14를 참조하면, 프로세서(예: 도 5의 프로세서(550))(예: 도 7b의 인공지능 모델(775))은 전술한 도 7a 내지 도 13의 동작을 통해 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득되는 센서 데이터들에 기반하여 결정(또는 확인)되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 학습하고, 학습된 모델을 생성할 수 있다. Referring to FIG. 14, a processor (e.g., processor 550 in FIG. 5) (e.g., artificial intelligence model 775 in FIG. 7b) operates a sensor circuit (e.g., FIG. 5) through the operations of FIGS. 7a to 13 described above. The type of user interaction determined (or confirmed) based on sensor data acquired through the sensor circuit 540 and/or the location information where the user interaction is detected can be learned, and a learned model can be generated.

일 실시예에서, 사용자 인터랙션의 타입은, 노 탭, 싱글 탭, 더블 탭, 및 트리플 탭을 포함할 수 있다. 또한, 사용자 인터랙션이 검출되는 위치는, 전자 장치(예: 도 5의 전자 장치(501))의 후면의 일부 영역일 수 있다. 예를 들어, 전자 장치(501)의 후면의 일부 영역은, 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))을 포함할 수 있다.In one embodiment, types of user interaction may include no tap, single tap, double tap, and triple tap. Additionally, the location where user interaction is detected may be a partial area of the rear of the electronic device (e.g., the electronic device 501 in FIG. 5). For example, some areas of the rear of the electronic device 501 may be the second side (e.g., the second side 212 of FIG. 2b) of the first housing (e.g., the first housing 210 of FIG. 2a) or It may include a fourth side (e.g., fourth side 222 of FIG. 2b) of a second housing (e.g., second housing 220 of FIG. 2a).

일 실시예에서, 프로세서(550)는 제1 탭(1410)이 검출된 시간(T1), 제2 탭(1420)이 검출된 시간(T2), 및 제3 탭(1430)이 검출된 시간(T3)을 확인할 수 있다. 예를 들어, 제1 탭(1410), 제2 탭(1420), 또는 제3 탭(1430) 각각은, 전술한 도 13에서 살펴본 피크 값에 기반하여 생성된 클러스터(예: 제1 클러스터(1310) 및 제2 클러스터(1320))에 기반한 것일 수 있다.In one embodiment, the processor 550 determines the time (T1) at which the first tap (1410) was detected, the time (T2) at which the second tap (1420) was detected, and the time (T2) at which the third tap (1430) was detected ( T3) can be checked. For example, each of the first tab 1410, the second tab 1420, and the third tab 1430 is a cluster generated based on the peak value seen in FIG. 13 (e.g., the first cluster 1310 ) and the second cluster 1320).

일 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 작고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 작은 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 트리플 탭으로 확인(또는 결정)할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the difference between the time (T3) at which the third tap (1430) was detected and the time (T2) at which the second tap (1420) was detected is less than a specified time (e.g., 500 ms), and the second tap (1420) If the detected time (T2) and the detected time (T1) of the first tap 1410 are confirmed to be less than the specified time, the processor 550 can confirm (or determine) the type of user interaction as a triple tap. there is. However, it is not limited to this.

일 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 크고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 작은 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 더블 탭으로 확인(또는 결정)할 수 있다. 다른 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 작고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 큰 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 더블 탭으로 확인(또는 결정)할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the difference between the time T3 at which the third tap 1430 was detected and the time T2 at which the second tap 1420 was detected is greater than a specified time (e.g., 500 ms), and the second tap 1420 If the detected time (T2) and the detected time (T1) of the first tap 1410 are confirmed to be less than the specified time, the processor 550 can confirm (or determine) the type of user interaction with a double tap. there is. In another embodiment, the difference between the time T3 at which the third tap 1430 was detected and the time T2 at which the second tap 1420 was detected is less than a specified time (e.g., 500 ms), and the second tap 1420 If the detected time (T2) and the detected time (T1) of the first tap 1410 are confirmed to be greater than the specified time, the processor 550 can confirm (or determine) the type of user interaction with a double tap. there is. However, it is not limited to this.

일 실시예에서, 제3 탭(1430)이 검출된 시간(T3)과 제2 탭(1420)이 검출된 시간(T2)의 차가 지정된 시간(예: 500ms)보다 크고, 제2 탭(1420)이 검출된 시간(T2)과 제1 탭(1410)이 검출된 시간(T1)이 지정된 시간보다 큰 것으로 확인되면, 프로세서(550)는 사용자 인터랙션의 타입을 싱글 탭으로 확인(또는 결정)하고, 제1 탭(1410), 제2 탭(1420), 또는 제3 탭(1430)을 무효한 입력으로 처리할 수 있다. 예를 들어, 싱글 탭의 경우 전자 장치(501)를 조작(예: 디스플레이(예: 도 5의 디스플레이(530)) 상에서의 터치 입력)하거나 또는 외부 충격(예: 전자 장치(501)를 지면에 내려놓음에 따른 충격 또는 전자 장치(501)가 놓여진 지면에 충격이 가해짐에 따른 충격)에 의해 검출될 가능성이 있고, 이는 사용자에 의한 의도된 입력이 아닐 수 있다. 이를 고려하여, 제1 탭(1410), 제2 탭(1420), 및/또는 제3 탭(1430)에 의한 사용자 인터랙션의 타입이 싱글 탭으로 확인(또는 결정)되는 경우, 프로세서(550)는 싱글 탭을 무효한 입력으로 처리할 수 있다. 다른 예를 들어, 전술한 제1 탭(1410), 제2 탭(1420), 및/또는 제3 탭(1430)에 의한 사용자 인터랙션의 타입이 더블 탭 또는 트리플 팁으로 확인(또는 결정)되는 경우, 프로세서(550)는 더블 탭 또는 트리플 탭으로서 유효한 입력으로 처리할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the difference between the time T3 at which the third tap 1430 was detected and the time T2 at which the second tap 1420 was detected is greater than a specified time (e.g., 500 ms), and the second tap 1420 If the detected time (T2) and the detected time (T1) of the first tap 1410 are confirmed to be greater than the specified time, the processor 550 confirms (or determines) the type of user interaction as a single tap, The first tap 1410, the second tap 1420, or the third tap 1430 may be treated as an invalid input. For example, in the case of a single tap, the electronic device 501 is manipulated (e.g., touch input on a display (e.g., display 530 of FIG. 5)) or an external impact (e.g., the electronic device 501 is hit on the ground). There is a possibility of detection due to a shock due to being placed down or a shock due to impact being applied to the ground on which the electronic device 501 is placed, and this may not be an intended input by the user. Considering this, when the type of user interaction by the first tab 1410, the second tab 1420, and/or the third tab 1430 is confirmed (or determined) to be a single tap, the processor 550 A single tap can be treated as invalid input. For another example, when the type of user interaction by the above-described first tap 1410, second tap 1420, and/or third tap 1430 is confirmed (or determined) as a double tap or triple tip. , the processor 550 can process a double tap or triple tap as valid input. However, it is not limited to this.

도 15a 및 도 15b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1500, 1550)이다.FIGS. 15A and 15B are diagrams 1500 and 1550 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.

도 15a 및 도 15b를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))의 자세를 확인할 수 있다.Referring to FIGS. 15A and 15B , a processor (eg, processor 550 of FIG. 5 ) may check the posture of an electronic device (eg, electronic device 501 of FIG. 5 ).

일 실시예에서, 프로세서(550)는 관성 센서(예: 도 5의 관성 센서(541))를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 자세를 확인할 수 있다.In one embodiment, the processor 550 may check the posture of the electronic device 501 based on sensor information acquired through an inertial sensor (eg, the inertial sensor 541 in FIG. 5).

일 실시예에서, 전자 장치(501)의 자세는, 참조번호 <1510> 및 <1530>에 도시된 바와 같이, 센서 회로(예: 도 5의 센서 회로(540)), 예를 들어, 관성 센서(541)가 배치된 제1 하우징(예: 도 2a의 제1 하우징(210))이 지면(예: 바닥 또는 책상)을 향하게 배치되는 상태(예: 제1 하우징(210)이 지면과 평행하게 배치되는 상태)를 포함할 수 있다. In one embodiment, the posture of the electronic device 501 is determined by a sensor circuit (e.g., the sensor circuit 540 of FIG. 5 ), e.g., an inertial sensor, as shown by reference numerals <1510> and <1530>. A state in which the first housing 541 (e.g., the first housing 210 in FIG. 2A) is disposed facing the ground (e.g., the floor or a desk) (e.g., the first housing 210 is parallel to the ground) status) may be included.

일 실시예에 따른 참조번호 <1510>은 제1 하우징(210)이 지면을 향하게 배치되는 상태에서 전자 장치(501)의 전면을 도시한 도면이고, 참조번호 <1530>은 제1 하우징(210)이 지면을 향하게 배치되는 상태에서 전자 장치(501)의 후면을 도시한 도면이다.According to one embodiment, reference number <1510> is a diagram showing the front of the electronic device 501 with the first housing 210 facing the ground, and reference number <1530> is a diagram showing the first housing 210. This diagram shows the rear of the electronic device 501 when placed facing the ground.

일 실시예에서, 참조번호 <1510> 및 <1530>을 참조하면, 제1 하우징(210)이 지면을 향하게 배치되는 상태에서, 전자 장치(501)의 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))의 일부 영역 예를 들어, 제2 영역에서 사용자 인터랙션(1535)을 검출할 수 있다. 일 실시예에서, 제2 하우징(220)의 제4 면(222)에는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))가 배치될 수 있다. 제2 하우징(220)의 제4 면(222)에 제2 디스플레이(533)가 배치됨에 따라, 사용자 인터랙션(1535)은, 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 검출될 수 있다.In one embodiment, referring to reference numerals <1510> and <1530>, in a state in which the first housing 210 is disposed facing the ground, the second housing (e.g., the second housing of FIG. 2A) of the electronic device 501 User interaction 1535 may be detected in a partial area, for example, a second area, of the fourth surface of the housing 220 (e.g., the fourth surface 222 in FIG. 2B). In one embodiment, a second display (eg, the second display 533 in FIG. 5) may be disposed on the fourth surface 222 of the second housing 220. As the second display 533 is disposed on the fourth side 222 of the second housing 220, user interaction 1535 is detected through the second display 533 disposed on the fourth side 222. It can be.

일 실시예에서, 전자 장치(501)의 자세가 참조번호 <1510> 및 <1530>의 상태에서는 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션(1535)이 검출될 확률이, 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212))에서 사용자 인터랙션이 검출될 확률보다 높을 수 있다. 이에 기반하여, 전자 장치(501)의 자세가 참조번호 <1510> 및 <1530>의 상태로 확인되면, 프로세서(550)는 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션(1535)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(1535)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the posture of the electronic device 501 is in the states of reference numerals <1510> and <1530>, user interaction 1535 may be detected through the second display 533 disposed on the fourth side 222. The probability may be higher than the probability that user interaction is detected on the second side of the first housing 210 (eg, the second side 212 in FIG. 2B). Based on this, when the posture of the electronic device 501 is confirmed to be in the states indicated by reference numerals <1510> and <1530>, the processor 550 displays the user information through the second display 533 disposed on the fourth side 222. It is estimated (or predicted) that the interaction 1535 is detected, and the sensor data of the user interaction 1535 can be corrected.

다른 실시예에서, 전자 장치(501)의 자세는, 참조번호 <1560> 및 <1570>에 도시된 바와 같이, 센서 회로(540), 예를 들어, 관성 센서(541)가 배치된 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태(예: 제1 하우징(210)이 지면과 평행하게 배치되지 않은 상태)를 포함할 수 있다.In another embodiment, the posture of the electronic device 501 is determined by the first housing in which the sensor circuit 540, for example, the inertial sensor 541, is disposed, as shown in reference numerals <1560> and <1570>. It may include a state in which the first housing 210 is not disposed to face the ground (eg, a state in which the first housing 210 is not disposed parallel to the ground).

일 실시예에 따른 참조번호 <1560>은 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태에서 전자 장치(501)의 전면을 도시한 도면이고, 참조번호 <1580>은 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태에서 전자 장치(501)의 후면을 도시한 도면이다.According to one embodiment, reference number <1560> is a diagram illustrating the front of the electronic device 501 in a state where the first housing 210 is arranged not to face the ground, and reference number <1580> is a diagram showing the front of the first housing 210. ) is a diagram showing the rear of the electronic device 501 in a state where it is arranged not to face the ground.

일 실시예에서, 참조번호 <1560> 및 <1580>을 참조하면, 제1 하우징(210)이 지면을 향하지 않도록 배치되는 상태에서, 전자 장치(501)의 제1 하우징(210)의 제2 면(212)의 일부 영역 예를 들어, 제4 영역에서 사용자 인터랙션(1535)을 검출할 수 있다. 일 실시예에서, 제1 하우징(210)의 제2 면(212)에는 제2 디스플레이(533)가 배치되지 않을 수 있으며, 이에 따라, 제2 디스플레이(533)를 통해 사용자 인터랙션(1535)이 검출되지 않을 수 있다.In one embodiment, referring to reference numerals <1560> and <1580>, the second surface of the first housing 210 of the electronic device 501 is disposed so that the first housing 210 is not facing the ground. User interaction 1535 may be detected in some areas of 212, for example, the fourth area. In one embodiment, the second display 533 may not be disposed on the second surface 212 of the first housing 210, and accordingly, user interaction 1535 is detected through the second display 533. It may not work.

일 실시예에서, 전자 장치(501)의 자세가 참조번호 <1560> 및 <1580>의 상태에서는 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션이 검출될 확률이 제2 면(212)에서 사용자 인터랙션(1535)이 검출될 확률보다 낮을 수 있다. 이에 기반하여, 전자 장치(501)의 자세가 참조번호 <1560> 및 <1580>의 상태로 확인되면, 프로세서(550)는 제2 면(212)에서 사용자 인터랙션(1535)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(1535)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the posture of the electronic device 501 is in the states of reference numerals <1560> and <1580>, the probability of detecting user interaction through the second display 533 disposed on the fourth side 222 is The probability of user interaction 1535 being detected on side 2 212 may be lower. Based on this, when the posture of the electronic device 501 is confirmed to be in the states indicated by reference numerals <1560> and <1580>, the processor 550 estimates that user interaction 1535 is detected on the second side 212 ( or prediction), and sensor data of user interaction 1535 can be corrected.

도 16은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1600)이다.FIG. 16 is a diagram 1600 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.

도 16을 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))의 자세를 확인할 수 있다. 예를 들어, 프로세서(550)는 관성 센서(예: 도 5의 관성 센서(541))를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 자세, 예를 들어, 수평 정도를 확인할 수 있다. 예를 들어, 프로세서(550)는 관성 센서(541)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 및/또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 이 지면(예: 바닥 또는 책상)을 향하게 배치되어, 지면과 수평을 유지하는 상태인지 여부를 확인할 수 있다.Referring to FIG. 16, a processor (e.g., processor 550 of FIG. 5) may check the posture of an electronic device (e.g., electronic device 501 of FIG. 5). For example, the processor 550 may check the posture of the electronic device 501, for example, the degree of horizontality, based on sensor information acquired through an inertial sensor (e.g., the inertial sensor 541 in FIG. 5). there is. For example, the processor 550 may detect the second surface of the first housing (e.g., the first housing 210 in FIG. 2A) of the electronic device 501 based on sensor information acquired through the inertial sensor 541. (e.g., the second side 212 in FIG. 2B) and/or the fourth side of the second housing (e.g., the second housing 220 in FIG. 2A) toward the ground (e.g., the floor or desk). It is possible to check whether it is placed and maintained level with the ground.

일 실시예에서, 전자 장치(501)의 자세(예: 전자 장치(501)의 수평 정도)를 확인한 후, 프로세서(550)는 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)의 그립 상태를 확인할 수 있다.In one embodiment, after confirming the posture of the electronic device 501 (e.g., the horizontal degree of the electronic device 501), the processor 550 detects the electronic device 501 through a grip sensor (e.g., the grip sensor 543 in FIG. 5). The grip state of the device 501 can be checked.

일 실시예에서, 전자 장치(501)의 그립 상태는, 참조번호 <1610>에 도시된 바와 같이, 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서, 제1 하우징(예: 도 2a의 제1 하우징(210))을 그립한 상태일 수 있다.In one embodiment, the grip state of the electronic device 501 is, as shown by reference numeral <1610>, when the electronic device 501 is in an unfolded state (e.g., the state of FIGS. 2A and 2B), the first housing (For example, the first housing 210 of FIG. 2A) may be gripped.

일 실시예에 따른 참조번호 <1610>은, 제1 하우징(210)의 제2 면(212)과 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치되지 않은 상태) 및 제1 하우징(210)을 그립한 상태에서, 전자 장치(501)의 후면을 도시한 도면이다.Reference number <1610> according to one embodiment refers to a state in which the second surface 212 of the first housing 210 and the fourth surface 222 of the second housing 220 are disposed to face the ground (e.g. This diagram shows the rear of the electronic device 501 when the electronic device 501 is not placed horizontally with the ground and the first housing 210 is gripped.

일 실시예에서, 참조번호 <1610>을 참조하면, 제1 하우징(210)의 제2 면(212)과 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치되지 않은 상태) 및 제1 하우징(210)을 그립한 상태에서, 전자 장치(501)의 제1 하우징(210)의 제2 면(212)의 일부 영역, 예를 들어, 제3 영역에서 사용자 인터랙션(1615)을 검출할 수 있다. 일 실시예에서, 제1 하우징(210)의 제2 면(212)에는 제2 디스플레이(533)가 배치되지 않을 수 있으며, 이에 따라, 제1 하우징(210)을 그립한 상태에서는 제2 디스플레이(533)를 통해 사용자 인터랙션(1615)이 검출되지 않을 수 있다.In one embodiment, referring to reference number <1610>, the second side 212 of the first housing 210 and the fourth side 222 of the second housing 220 are disposed so as not to face the ground ( Example: When the electronic device 501 is not placed horizontally with the ground) and the first housing 210 is gripped, the second side 212 of the first housing 210 of the electronic device 501 User interaction 1615 may be detected in some areas, for example, the third area. In one embodiment, the second display 533 may not be disposed on the second surface 212 of the first housing 210, and accordingly, when the first housing 210 is gripped, the second display ( User interaction 1615 may not be detected through 533).

일 실시예에서, 전자 장치(501)가 참조번호 <1610>의 상태인 경우, 제4 면(222)에 배치된 제2 디스플레이(533)를 통해 사용자 인터랙션이 검출될 확률이 제2 면(212)에서 사용자 인터랙션(1615)이 검출될 확률보다 낮을 수 있다. 이에 기반하여, 참조번호 <1610>의 상태에서, 프로세서(550)는 제2 면(212)에서 사용자 인터랙션(1615)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(1615)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the electronic device 501 is in the state of reference numeral <1610>, the probability of detecting user interaction through the second display 533 disposed on the fourth side 222 increases with the second display 533 disposed on the fourth side 222. ) may be lower than the probability that user interaction 1615 is detected. Based on this, in the state indicated by reference numeral <1610>, the processor 550 estimates (or predicts) that the user interaction 1615 is detected on the second side 212 and collects the sensor data of the user interaction 1615. It can be corrected.

다른 실시예에서, 참조번호 <1650>은, 전자 장치(501)가 접힘 상태(예: 도 3a 및 도 3b의 상태)에서, 제2 하우징(220)의 제4 면(222)이 전면을 바라보는 상태(예: 제1 하우징(210)의 제2 면(212)이 지면을 향하지 않도록 배치된 상태)이고, 전자 장치(501)를 그립한 상태일 수 있다. 참조번호 <1650>과 같은 상태에서, 프로세서(550)는 전자 장치(501)의 제1 하우징(210)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(미도시)을 검출할 수 있다.In another embodiment, reference numeral <1650> indicates that when the electronic device 501 is in a folded state (e.g., the state of FIGS. 3A and 3B), the fourth side 222 of the second housing 220 faces the front. The display may be in a viewing state (e.g., the second surface 212 of the first housing 210 is disposed not to face the ground) and the electronic device 501 may be gripped. In the state indicated by reference numeral <1650>, the processor 550 may detect user interaction (not shown) in a partial area of the second surface 212 of the first housing 210 of the electronic device 501.

일 실시예에서, 전자 장치(501)가 참조번호 <1650>의 상태에서는, 제2 하우징(220)의 제4 면(222)이 전면을 바라보는 상태에서 전자 장치(501)를 그립한 상태이기 때문에, 제2 면(212)에서 사용자 인터랙션(미도시)이 검출될 확률이 높을 수 있다. 이에 기반하여, 프로세서(550)는 전자 장치(501)가 참조번호 <1650>의 상태로 확인되면, 제2 면(212)에서 사용자 인터랙션(미도시)이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션(미도시)의 센서 데이터들을 보정할 수 있다.In one embodiment, when the electronic device 501 is in the state indicated by reference numeral <1650>, the fourth side 222 of the second housing 220 is gripped with the electronic device 501 facing the front. Therefore, there may be a high probability that user interaction (not shown) will be detected on the second side 212. Based on this, if the electronic device 501 is confirmed to be in the state indicated by reference numeral <1650>, the processor 550 estimates (or predicts) that user interaction (not shown) is detected on the second side 212, Sensor data from user interaction (not shown) can be corrected.

다양한 실시예들에서, 미도시 되었으나, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)에서, 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립한 상태로 검출할 수 있다. 이 상태에서 사용자 인터랙션이 검출되면, 프로세서(550)는 사용자 인터랙션을 유효한 입력으로 처리할 수 있다. 예를 들어, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)이지만, 제1 하우징(210) 및/또는 제2 하우징(220)을 그립한 상태임에 따라, 검출되는 사용자 인터랙션을 사용자에 의한 의도된 입력으로 결정하고, 유효한 입력으로 처리할 수 있다. 하지만 이에 한정하는 것은 아니며, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)이고, 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립한 상태에서 사용자 인터랙션이 검출되는 경우, 프로세서(550)는 사용자 인터랙션을 무효한 입력으로 처리할 수도 있다.In various embodiments, although not shown, the processor 550 is disposed so that the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 face the ground. In a state (e.g., a state in which the electronic device 501 is placed horizontally with the ground), the gripped state of the first housing 210 and/or the second housing 220 can be detected through the grip sensor 543. You can. If user interaction is detected in this state, the processor 550 may process the user interaction as a valid input. For example, the processor 550 is disposed with the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 facing the ground (e.g., electronic Although the device 501 is placed horizontally with the ground), the first housing 210 and/or the second housing 220 are gripped, so the detected user interaction is converted into the user's intended input. can be determined and processed as valid input. However, it is not limited to this, and the processor 550 is arranged with the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 facing the ground ( Example: the electronic device 501 is placed horizontally to the ground) and user interaction is detected while gripping the first housing 210 and/or the second housing 220 through the grip sensor 543. In this case, the processor 550 may process the user interaction as an invalid input.

다양한 실시예들에서, 미도시 되었으나, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하도록 배치된 상태(예: 전자 장치(501)가 지면과 수평으로 배치된 상태)에서, 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립하지 않은 상태를 검출할 수 있다. 이 상태에서 사용자 인터랙션이 검출되면, 프로세서(550)는 사용자 인터랙션을 무효한 입력으로 처리할 수 있다. 예를 들어, 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태 및 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립하지 않은 상태에서 검출되는 사용자 인터랙션은, 전자 장치(501)를 조작(예: 디스플레이(예: 도 5의 디스플레이(530)) 상에서의 터치 입력)하거나 또는 외부 충격(예: 전자 장치(501)를 지면에 내려놓음에 따른 충격 또는 전자 장치(501)가 놓여진 지면에 충격이 가해짐에 따른 충격)에 의해 검출될 수 있는 사용자에 의한 의도된 입력이 아닐 수 있다. 이에 기반하여, 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)이 지면을 향하지 않도록 배치된 상태 및 그립 센서(543)를 통해 제1 하우징(210) 및/또는 제2 하우징(220)을 그립하지 않은 상태에서 사용자 인터랙션이 검출되는 경우, 프로세서(550)는 검출되는 사용자 인터랙션을 무효한 입력으로 처리할 수 있다.In various embodiments, although not shown, the processor 550 is disposed so that the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 face the ground. Detecting a state in which the first housing 210 and/or the second housing 220 are not gripped through the grip sensor 543 in a state (e.g., the electronic device 501 is placed horizontally with the ground) can do. If user interaction is detected in this state, the processor 550 may process the user interaction as an invalid input. For example, the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 are disposed so as not to face the ground and are detected through the grip sensor 543. 1 User interaction detected while not gripping the housing 210 and/or the second housing 220 includes manipulating the electronic device 501 (e.g., on a display (e.g., display 530 in FIG. 5)). by the user, which can be detected by touch input) or by an external impact (e.g., an impact resulting from placing the electronic device 501 on the ground or an impact resulting from an impact being applied to the ground on which the electronic device 501 is placed). This may not be the intended input. Based on this, the second side 212 of the first housing 210 and/or the fourth side 222 of the second housing 220 are disposed so as not to face the ground, and the grip sensor 543 detects When user interaction is detected without gripping the first housing 210 and/or the second housing 220, the processor 550 may process the detected user interaction as an invalid input.

도 17은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1700)이다.FIG. 17 is a diagram 1700 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.

도 17을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서, 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)의 그립 상태를 확인할 수 있다.Referring to FIG. 17, when the electronic device (e.g., the electronic device 501 of FIG. 5) is in an unfolded state (e.g., the state of FIGS. 2A and 2B), a grip sensor (e.g., the grip sensor 543 of FIG. 5) The grip state of the electronic device 501 can be confirmed through .

일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 그립 센서(543)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)를 한 손으로 그립한 상태인지 또는 양 손으로 그립한 상태인지 여부에 기반하여, 검출되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 학습할 수 있다.In one embodiment, the processor (e.g., processor 550 of FIG. 5) determines whether the electronic device 501 is gripped with one hand or with both hands based on sensor information acquired through the grip sensor 543. Based on whether the user is in a grip state, the type of user interaction detected and/or the location at which the user interaction is detected may be learned.

일 실시예에서, 전자 장치(501)를 한 손으로 그립한 상태에서 전자 장치(501)의 후면에서 사용자 인터랙션이 검출되는 경우, 전자 장치(501)의 움직임에 대한 센서 값(예: 가속도 값 및/또는 각속도 값)은, 전자 장치(501)를 양 손으로 그립한 상태에서 전자 장치(501)의 후면에서 사용자 인터랙션이 검출되는 경우 전자 장치(501)의 움직임에 대한 센서 값(예: 가속도 값 및/또는 각속도 값)보다 클 수 있다.In one embodiment, when user interaction is detected on the back of the electronic device 501 while the electronic device 501 is gripped with one hand, sensor values for movement of the electronic device 501 (e.g., acceleration value and /or angular velocity value) is a sensor value (e.g., acceleration value) for the movement of the electronic device 501 when user interaction is detected from the rear of the electronic device 501 while the electronic device 501 is gripped with both hands. and/or angular velocity value).

일 실시예에서, 전자 장치(501)를 한 손으로 그립한 상태인 경우, 왼손으로 전자 장치(501)를 그립한 상태인지 또는 오른손으로 전자 장치(501)를 그립한 상태인지 여부에 따라, 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션이 검출되는 상태인지, 또는 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션이 검출되는 상태인지 여부를 추정할 수 있다.In one embodiment, when the electronic device 501 is gripped with one hand, depending on whether the electronic device 501 is gripped with the left hand or the right hand, 1 It can be estimated whether user interaction is detected on the second side 212 of the housing 210 or whether user interaction is detected on the fourth side 222 of the second housing 220.

일 실시예에서, 그립 센서(543)는 전자 장치(501)의 측면의 적어도 일부 영역에 배치될 수 있다. 예를 들어, 그립 센서(543)는 참조번호 <1710>에 도시된 바와 같이, 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711) 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713)를 포함할 수 있다.In one embodiment, the grip sensor 543 may be disposed on at least a portion of the side of the electronic device 501. For example, the grip sensor 543 is a first grip sensor 1711 and/or disposed in a partial area of the second side 213c of the first housing 210, as shown in reference number <1710>. It may include a second grip sensor 1713 disposed in a partial area of the fifth side 223c of the second housing 220.

일 실시예에서, 참조번호 <1710>에 도시된 바와 같이, 프로세서(550)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711) 및/또는 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713)를 통해 전자 장치(501)를 양 손(1701, 1703)으로 그립한 상태로 확인할 수 있다. 예를 들어, 제1 그립 센서(1711) 및 제2 그립 센서(1713)를 통해 전자 장치(501)를 양 손(1701, 1703)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212) 및/또는 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션(1615)이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, as shown in reference numeral <1710>, the processor 550 includes a first grip sensor 1711 and/or disposed in a portion of the second side 213c of the first housing 210. Through the second grip sensor 1713 disposed in a portion of the fifth side 223c of the second housing 220, it can be confirmed that the electronic device 501 is gripped with both hands 1701 and 1703. For example, when it is confirmed that the electronic device 501 is gripped with both hands 1701 and 1703 through the first grip sensor 1711 and the second grip sensor 1713, the processor 550 is stored in the first housing. It is assumed (or predicted) that user interaction 1615 is detected on the second side 212 of 210 and/or the fourth side 222 of second housing 220, and sensor data of the detected user interaction can be corrected.

다른 실시예에서, 참조번호 <1730>에 도시된 바와 같이, 프로세서(550)는 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인할 수 있다. 예를 들어, 제1 그립 센서(1711)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션(1615)이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In another embodiment, as shown in reference numeral <1730>, the processor 550 receives electronic information through the first grip sensor 1711 disposed in a portion of the second side 213c of the first housing 210. The device 501 can be checked by gripping it with one hand 1703. For example, when it is confirmed that the electronic device 501 is gripped with one hand 1703 through the first grip sensor 1711, the processor 550 is connected to the second side 212 of the first housing 210. It is estimated (or predicted) that user interaction 1615 is detected, and sensor data of the detected user interaction can be corrected.

도 18은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1800)이다.FIG. 18 is a diagram 1800 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.

도 18을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))가 접힘 상태(예: 도 3a 및 도 3b의 상태)에서, 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)의 그립 상태를 확인할 수 있다.Referring to FIG. 18, when the electronic device (e.g., the electronic device 501 of FIG. 5) is in a folded state (e.g., the state of FIGS. 3A and 3B), the grip sensor (e.g., the grip sensor 543 of FIG. 5) The grip state of the electronic device 501 can be confirmed through .

일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 그립 센서(543)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)를 한 손으로 그립한 상태인지 또는 양 손으로 그립한 상태인지 여부에 기반하여, 검출되는 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치를 추정할 수 있다.In one embodiment, the processor (e.g., processor 550 of FIG. 5) determines whether the electronic device 501 is gripped with one hand or with both hands based on sensor information acquired through the grip sensor 543. Based on whether the user is in a grip state, the type of user interaction to be detected and/or the location at which the user interaction is detected may be estimated.

예를 들어, 프로세서(550)는 전자 장치(501)가 접힘 상태에서, 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인할 수 있다. 예를 들어, 전자 장치(501)가 접힘 상태에서, 제2 그립 센서(1713)를 통해 전자 장치(501)를 한 손(1703)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.For example, when the electronic device 501 is in a folded state, the processor 550 detects the electronic device ( 501) can be checked by gripping it with one hand (1703). For example, when the electronic device 501 is in a folded state and the electronic device 501 is confirmed to be gripped with one hand 1703 through the second grip sensor 1713, the processor 550 is stored in the first housing. It is estimated (or predicted) that user interaction is detected on the second side 212 of 210, and sensor data of the detected user interaction can be corrected.

도 19는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(1900)이다.FIG. 19 is a diagram 1900 for explaining a method of correcting sensor data of user interaction according to the grip of the electronic device 501, according to an embodiment of the present disclosure.

도 19를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))의 그립 상태를 확인할 수 있다. 예를 들어, 프로세서(550)는 그립 센서(예: 도 5의 그립 센서(543))를 통해 전자 장치(501)를 한 손(예: 왼손 또는 오른손)으로 그립한 상태인지 또는 양 손으로 그립한 상태인지 여부를 확인할 수 있다.Referring to FIG. 19, a processor (e.g., processor 550 of FIG. 5) may check the grip state of an electronic device (e.g., electronic device 501 of FIG. 5). For example, the processor 550 determines whether the electronic device 501 is gripped with one hand (e.g., left or right hand) or with both hands through a grip sensor (e.g., grip sensor 543 in FIG. 5). You can check whether the status is correct or not.

일 실시예에서, 프로세서(550)는 엄지기부(1910) 및/또는 터치 정보에 기반하여, 사용자 인터랙션을 검출할 수 있다. 예를 들어, 프로세서(550)는 그립 센서(543) 및/또는 제1 디스플레이(예: 도 5의 제1 디스플레이(531))의 터치 센서를 통해 오른손(1901)의 엄지기부(1910)가 제1 디스플레이(531)의 일부 영역에 접촉된 것으로 확인되는 것에 기반하여, 전자 장치(501)를 오른손(1901)으로 그립한 상태에서 오른손(1901)으로 이용하여 전자 장치(501)를 조작하는 것으로 확인할 수 있다.In one embodiment, processor 550 may detect user interaction based on thumb base 1910 and/or touch information. For example, the processor 550 may detect the thumb base 1910 of the right hand 1901 through the grip sensor 543 and/or the touch sensor of the first display (e.g., the first display 531 in FIG. 5). 1 Based on confirmation that some areas of the display 531 are in contact, it can be confirmed that the electronic device 501 is operated using the right hand 1901 while gripping the electronic device 501 with the right hand 1901. You can.

일 실시예에서, 전자 장치(501)를 한 손으로 조작하는 경우, 양손으로 조작하는 경우보다 전자 장치(501)의 가속도 값 및/또는 각속도 값의 변화량이 클 수 있다. 이에 기반하여, 전자 장치(501)가 펼침 상태에서 한 손으로 조작 시에 전자 장치(501)의 후면에서 사용자 인터랙션이 검출되는 경우 또한, 전자 장치(501)의 움직임은 전자 장치(501)를 양 손으로 조작하는 경우의 움직임보다 클 수 있다. 상기와 같은 점을 고려하여, 프로세서(550)는 한 손으로 전자 장치(501)를 조작하는 상태로 확인되면, 전자 장치(501)의 후면(예: 제1 하우징(예: 도 2a의 제1 하우징(210))의 제2 면(예: 도 2b의 제2 면(212)) 또는 제2 하우징(예: 도 2a의 제2 하우징(220))의 제4 면(예: 도 2b의 제4 면(222))에서의 사용자 인터랙션을 정확하게 인식하기 위해, 센서 회로(예: 도 5의 센서 회로(540))를 통해 획득되는 센서 데이터들을 보정할 수 있다.In one embodiment, when the electronic device 501 is operated with one hand, the amount of change in the acceleration value and/or angular velocity value of the electronic device 501 may be greater than when the electronic device 501 is operated with both hands. Based on this, when user interaction is detected on the back of the electronic device 501 when the electronic device 501 is operated with one hand in the unfolded state, the movement of the electronic device 501 moves the electronic device 501 in both directions. The movement can be greater than when operated by hand. In consideration of the above, when the processor 550 confirms that the electronic device 501 is being operated with one hand, the processor 550 operates on the rear side (e.g., the first housing (e.g., the first housing in FIG. 2A) of the electronic device 501. The second side of the housing 210 (e.g., the second side 212 in FIG. 2b) or the fourth side of the second housing (e.g., the second housing 220 in FIG. 2a) (e.g., the second side 212 in FIG. 2b) In order to accurately recognize user interaction on the four sides 222), sensor data acquired through a sensor circuit (eg, sensor circuit 540 of FIG. 5) can be corrected.

일 실시예에서, 전자 장치(501)를 오른손(1901)으로 그립한 상태에서, 오른손(1901)에 의해 전자 장치(501)의 후면의 제1 영역(1920) 및 제2 영역(1930)에서 사용자 인터랙션을 검출하기 용이할 수 있으나, 제3 영역(1940)에서는 사용자 인터랙션을 검출하기 어려울 수 있다. 이에 기반하여, 전자 장치(501)가 펼침 상태에서, 전자 장치(501)를 오른손(1901)으로 그립한 상태로 확인되면, 프로세서(550)는 제1 하우징(210)의 제2 면(212)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 검출되는 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, while gripping the electronic device 501 with the right hand 1901, the user moves the right hand 1901 to the first area 1920 and the second area 1930 on the back of the electronic device 501. Although it may be easy to detect interaction, it may be difficult to detect user interaction in the third area 1940. Based on this, when the electronic device 501 is in an unfolded state and the electronic device 501 is confirmed to be gripped with the right hand 1901, the processor 550 is positioned on the second side 212 of the first housing 210. It can be estimated (or predicted) that user interaction is detected, and sensor data of the detected user interaction can be corrected.

도 20은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(2000)이다. FIG. 20 is a diagram 2000 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.

도 20의 참조번호 <2010>을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 펼침 상태에서, 사용자의 한 손(2015)(예: 왼손)에 의해 그립된 상태일 수 있다. 예를 들어, 전자 장치(501)는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)인 경우, 한 쌍의 하우징(예: 도 2a의 제1 하우징(210) 및 제2 하우징(220))에 의해 형성된 공간에 배치되는 제1 디스플레이(예: 도 5의 제1 디스플레이(531))와 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222)) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))를 포함할 수 있다.Referring to reference number <2010> in FIG. 20, the electronic device (e.g., the electronic device 501 in FIG. 5) may be gripped by one hand 2015 (e.g., the left hand) of the user in the unfolded state. there is. For example, when the electronic device 501 is in an unfolded state (e.g., the state of FIGS. 2A and 2B), the electronic device 501 is configured to include a pair of housings (e.g., the first housing 210 of FIG. 2A and the second housing 210 of FIG. 2A). 2 A first display (e.g., the first display 531 in FIG. 5) disposed in the space formed by the housing 220) and a fourth side (e.g., the fourth side in FIG. 2b) of the second housing 220. 222)) may include a second display (eg, the second display 533 in FIG. 5) disposed on the display.

일 실시예에서, 프로세서(550)는 전자 장치(501)가 펼침 상태에서 제1 디스플레이(531) 및/또는 제2 디스플레이(533)에서의 터치 입력이 검출되는 것에 기반하여, 사용자 인터랙션이 검출될 영역을 추정(또는 예측)할 수 있다.In one embodiment, the processor 550 detects user interaction based on detecting a touch input on the first display 531 and/or the second display 533 while the electronic device 501 is in an unfolded state. The area can be estimated (or predicted).

예를 들어, 프로세서(550)는 참조번호 <2050>에 도시된 바와 같이, 제1 디스플레이(531)의 복수의 영역들(예: 제1 영역 내지 제6 영역) 중 제4 영역에서 엄지에 의한 터치 입력(2051)이 검출되고, 참조번호 <2030>에 도시된 바와 같이, 제2 디스플레이(533)의 특정 영역(2035)에서 검지 및/또는 중지에 의한 터치 입력이 검출될 수 있다.For example, as shown in reference numeral <2050>, the processor 550 operates with a thumb in a fourth area among a plurality of areas (e.g., first to sixth areas) of the first display 531. A touch input 2051 is detected, and as shown by reference number <2030>, a touch input using the index finger and/or middle finger may be detected in a specific area 2035 of the second display 533.

일 실시예에서, 참조번호 <2050> 및 <2030>에 도시된 바와 같이, 제1 디스플레이(531)의 복수의 영역들(예: 제1 영역 내지 제6 영역) 중 제4 영역에서 엄지에 의한 터치 입력(2051)이 검출되고, 제2 디스플레이(533)의 특정 영역(2035) 검지 및/또는 중지에 의한 터치 입력이 검출되는 경우, 프로세서(550)는 제2 디스플레이(533)가 배치된 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, as shown in reference numerals <2050> and <2030>, a thumb is pressed in a fourth area among a plurality of areas (e.g., first to sixth areas) of the first display 531. When the touch input 2051 is detected and the touch input by detecting and/or stopping the specific area 2035 of the second display 533 is detected, the processor 550 2 It is estimated (or predicted) that user interaction is detected on the fourth surface 222 of the housing 220, and sensor data of the user interaction can be corrected.

도 21a 및 도 21b는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(2100, 2150)이다.FIGS. 21A and 21B are diagrams 2100 and 2150 for explaining a method of correcting sensor data of user interaction according to the grip of the electronic device 501, according to an embodiment of the present disclosure.

도 21a를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 펼침 상태에서, 사용자의 양 손(2110, 2120)에 의해 그립된 상태일 수 있다. 예를 들어, 왼손(2110)은 전자 장치(501)의 측면(예: 도 2a의 제2 하우징(220)의 제5 측면(223c))을 그립한 상태일 수 있다. 또한, 오른손(2120)은 전자 장치(501)의 측면(예: 도 2a의 제1 하우징(210)의 제2 측면(213c))을 그립한 상태로, 제1 디스플레이(예: 도 5의 제1 디스플레이(531))의 복수의 영역들(예: 제1 영역(2131), 제2 영역(2133), 제3 영역(2135), 및 제4 영역(2137)) 중 제4 영역(2137)에서 오른손(2120)의 엄지에 의한 터치 입력이 검출될 수 있다.Referring to FIG. 21A , the electronic device (e.g., the electronic device 501 of FIG. 5 ) may be in an unfolded state and gripped by both hands 2110 and 2120 of the user. For example, the left hand 2110 may be gripping the side of the electronic device 501 (eg, the fifth side 223c of the second housing 220 in FIG. 2A). Additionally, the right hand 2120 grips the side of the electronic device 501 (e.g., the second side 213c of the first housing 210 in FIG. 2A) and displays the first display (e.g., the second side 213c in FIG. 5). 1 The fourth area 2137 among a plurality of areas (e.g., the first area 2131, the second area 2133, the third area 2135, and the fourth area 2137) of the display 531) A touch input by the thumb of the right hand 2120 may be detected.

일 실시예에서, 오른손(2120)의 엄지에 의한 제4 영역(2137)에서 터치 입력이 검출되는 경우, 전자 장치(501)의 후면에서 오른손(2120)의 다른 손가락에 의해 사용자 인터랙션이 검출될 가능성이 높을 수 있다. 이를 고려하여, 오른손(2120)의 엄지에 의한 제4 영역(2137)에서 터치 입력이 검출되는 경우, 프로세서(550)는 제2 영역(2133)에 대응하는 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212))의 영역(2140)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, when a touch input is detected in the fourth area 2137 by the thumb of the right hand 2120, there is a possibility that user interaction is detected by another finger of the right hand 2120 on the back of the electronic device 501. This can be high. Considering this, when a touch input is detected in the fourth area 2137 by the thumb of the right hand 2120, the processor 550 moves the second surface of the first housing 210 corresponding to the second area 2133. It is estimated (or predicted) that user interaction is detected in the area 2140 (e.g., the second side 212 in FIG. 2B), and sensor data of the user interaction can be corrected.

이에 한정하는 것은 아니며, 도 21b를 참조하면, 전자 장치(501)는 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222)) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))를 포함할 수 있다.It is not limited thereto, and referring to FIG. 21B, the electronic device 501 includes a second display (e.g., the fourth side 222 of FIG. 2b) disposed on the fourth side of the second housing 220. : May include the second display 533 in FIG. 5).

일 실시예에서, 프로세서(550)는 전자 장치(501)가 펼침 상태에서 전면에 배치된 제1 디스플레이(531) 및/또는 제2 디스플레이(533)에서의 터치 입력이 검출되는 것에 기반하여, 사용자 인터랙션이 검출될 영역을 추정(또는 예측)할 수 있다. 예를 들어, 오른손(2120)의 엄지에 의한 제4 영역(2137)에서 터치 입력이 검출되고, 전자 장치(501)의 후면 예를 들어, 제2 디스플레이(533)에서 왼손(2110)에 의해 사용자 인터랙션이 검출되는 경우, 프로세서(550)는 제2 디스플레이(533)가 배치된 제2 하우징(220)의 제4 면(222)의 영역(2160)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the processor 550 detects a touch input on the first display 531 and/or the second display 533 disposed on the front when the electronic device 501 is unfolded, The area where interaction will be detected can be estimated (or predicted). For example, a touch input is detected in the fourth area 2137 by the thumb of the right hand 2120, and a touch input is detected by the user's left hand 2110 on the rear, for example, second display 533 of the electronic device 501. When interaction is detected, the processor 550 estimates (or predicts) that user interaction is detected in the area 2160 of the fourth side 222 of the second housing 220 where the second display 533 is disposed. And sensor data of user interaction can be corrected.

도 22는, 본 개시의 일 실시예에 따른, 전자 장치(501)의 그립에 따른 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(2200)이다.FIG. 22 is a diagram 2200 for explaining a method of correcting sensor data of user interaction according to the grip of the electronic device 501, according to an embodiment of the present disclosure.

도 22를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 펼침 상태에서, 사용자의 한 손(2210)(예: 왼손)에 의해 그립된 상태일 수 있다. 예를 들어, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)의 측면에 배치된 그립 센서(예: 도 17의 제1 하우징(210)의 제2 측면(213c)의 일부 영역에 배치된 제1 그립 센서(1711) 및 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713))를 통해 전자 장치(501)가 양 손에 의해 그립된 상태인지 또는 한 손에 의해 그립된 상태인지 여부를 확인할 수 있다.Referring to FIG. 22 , the electronic device (e.g., the electronic device 501 of FIG. 5 ) may be gripped by one hand 2210 (e.g., the left hand) of the user in an unfolded state. For example, the processor (e.g., processor 550 in FIG. 5) may be configured to use a grip sensor disposed on the side of the electronic device 501 (e.g., a portion of the second side 213c of the first housing 210 in FIG. 17). The electronic device 501 is placed on both hands through the first grip sensor 1711 disposed in the region and the second grip sensor 1713 disposed in a partial region of the fifth side 223c of the second housing 220. You can check whether it is gripped by one hand or one hand.

일 실시예에서, 전자 장치(501)의 측면에 배치된 그립 센서(예: 제2 하우징(220)의 제5 측면(223c)의 일부 영역에 배치된 제2 그립 센서(1713))를 통해 전자 장치(501)를 한 손(2210)으로 그립한 상태로 확인되면, 한 손(2210)에 의해 전자 장치(501)를 파지된 패턴을 확인하여 사용자 인터랙션이 검출되는 전자 장치(501)의 후면(예: 제2 면(예: 도 2b의 제2 면(212)) 및/또는 제4 면(예: 도 2b의 제4 면(222)))의 영역을 추정(또는 예측)할 수 있다.In one embodiment, the electronic device 501 uses a grip sensor disposed on a side of the electronic device 501 (e.g., a second grip sensor 1713 disposed in a partial area of the fifth side 223c of the second housing 220). When it is confirmed that the device 501 is gripped with one hand 2210, the pattern of holding the electronic device 501 by one hand 2210 is confirmed, and the rear side of the electronic device 501 where user interaction is detected ( Example: The area of the second surface (eg, the second surface 212 in FIG. 2B) and/or the fourth surface (eg, the fourth surface 222 in FIG. 2B) can be estimated (or predicted).

예를 들어, 전자 장치(501)를 한 손(2210)으로 그립한 상태에서, 전자 장치(501)의 제4 면(222) 상에 배치되는 제2 디스플레이(예: 도 5의 제2 디스플레이(533))를 통해 손가락에 의해 터치 입력이 검출되는 경우, 프로세서(550)는 제2 디스플레이(533)가 배치된 제2 하우징(220)의 제4 면(222)에서 사용자 인터랙션이 검출되는 것으로 추정(또는 예측)하고, 사용자 인터랙션의 센서 데이터들을 보정할 수 있다. For example, while gripping the electronic device 501 with one hand 2210, a second display (e.g., the second display in FIG. 5) disposed on the fourth side 222 of the electronic device 501 When a touch input by a finger is detected through 533)), the processor 550 estimates that user interaction is detected on the fourth surface 222 of the second housing 220 where the second display 533 is disposed. (or predict) and correct sensor data of user interaction.

다양한 실시예들에 따른 도 7a 내지 도 22에서 살펴본 바와 같이, 전자 장치(501)의 상태(예: 전자 장치(501)의 자세, 전자 장치(501)의 움직임, 및/또는 전자 장치(501)의 그립 상태)에 따른 사용자 인터랙션의 센서 데이터들을 보정함으로써, 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출되는 위치 정보를 정확하게 결정할 수 있다.7A to 22 according to various embodiments, the state of the electronic device 501 (e.g., the posture of the electronic device 501, the movement of the electronic device 501, and/or the electronic device 501 By correcting the sensor data of the user interaction according to the grip state), the type of user interaction and/or location information where the user interaction is detected can be accurately determined.

도 23은, 본 개시의 일 실시예에 따른, 전자 장치(501)가 펼침 상태에서 복수의 어플리케이션들의 정보들을 표시하는 방법을 설명하기 위한 도면(2300)이다.FIG. 23 is a diagram 2300 for explaining a method of displaying information on a plurality of applications in an unfolded state of the electronic device 501, according to an embodiment of the present disclosure.

도 23을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서 복수의 어플리케이션들의 정보들을 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시할 수 있다.Referring to FIG. 23, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) operates when the electronic device 501 is in an unfolded state (e.g., FIGS. 2A and 2B). In the state), information on a plurality of applications may be displayed on the first display (eg, the first display 531 in FIG. 5).

다양한 실시예들에 따른 도 23에서 복수의 어플리케이션들 예컨대, 3개의 어플리케이션들의 실행으로 이에 대한 3개의 정보들을, 3개의 영역으로 분할된 제1 디스플레이(531)의 각 영역에 표시하는 것으로 가정하여 설명하도록 한다. 이에 한정하는 것은 아니며, 3개를 초과하는 어플리케이션이 실행되는 경우, 프로세서(550)는 제1 디스플레이(531)를 3개를 초과하는 개수의 영역으로 분할하고, 각 영역에 각 어플리케이션의 정보를 표시할 수 있다.In FIG. 23 according to various embodiments, the description will be made on the assumption that the execution of a plurality of applications, for example, three applications, displays three pieces of information about them in each region of the first display 531 divided into three regions. Let's do it. It is not limited to this, and when more than three applications are executed, the processor 550 divides the first display 531 into more than three areas and displays information about each application in each area. can do.

예컨대, 프로세서(550)는 참조번호 <2310>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시할 수 있다.For example, the processor 550 displays the first information 2311 of application A in the first area (e.g., left area) of the three areas of the first display 531, as shown in reference numeral <2310>. display, display the second information 2312 of application B in the second area (e.g., upper right area), and display the third information 2313 of application C in the third area (e.g., lower right area). You can.

다른 예를 들어, 프로세서(550)는 참조번호 <2320>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제2 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시하고, 제3 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시할 수 있다.For another example, the processor 550 displays the second information of application B in the first area (e.g., upper left area) of the three areas of the first display 531, as shown in reference numeral <2320>. (2312) is displayed, the third information 2313 of application C is displayed in the second area (e.g., lower left area), and the first information 2311 of application A is displayed in the third area (e.g., right area). can be displayed.

또 다른 예를 들어, 프로세서(550)는 참조번호 <2330>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시하고, 제2 영역(예: 하측 좌측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제3 영역(예: 하측 우측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시할 수 있다.For another example, the processor 550 displays first information of application A in the first area (e.g., upper area) of the three areas of the first display 531, as shown in reference numeral <2330>. (2311) is displayed, the second information 2312 of application B is displayed in the second area (e.g., lower left area), and the third information 2313 of application C is displayed in the third area (e.g., lower right area). ) can be displayed.

또 다른 예를 들어, 프로세서(550)는 참조번호 <2340>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 좌측 영역)에 어플리케이션 B의 제2 정보(2312)를 표시하고, 제2 영역(예: 상측 우측 영역)에 어플리케이션 C의 제3 정보(2313)를 표시하고, 제3 영역(예: 하측 영역)에 어플리케이션 A의 제1 정보(2311)를 표시할 수 있다.For another example, as shown in reference numeral <2340>, the processor 550 displays the second part of application B in the first area (e.g., upper left area) of the three areas of the first display 531. Information 2312 is displayed, third information 2313 of application C is displayed in the second area (e.g., upper right area), and first information 2311 of application A is displayed in the third area (e.g., lower area). ) can be displayed.

다양한 실시예들에 따른 도 23의 참조번호 <2310>, <2320>, <2330>, 및 <2340>은 하나의 실시예로, 이에 한정하는 것은 아니며, 각 영역에 배치되는 어플리케이션의 정보는 달라질 수 있다.Reference numbers <2310>, <2320>, <2330>, and <2340> in FIG. 23 according to various embodiments are one embodiment and are not limited thereto, and information on applications placed in each area may vary. You can.

다양한 실시예들에서, 프로세서(550)는 어플리케이션이 실행되는 것에 기반하여, 실행된 어플리케이션의 정보가 표시되는 제1 디스플레이(531)의 영역에 대한 정보(예: 배열 정보)를 저장할 수 있다.In various embodiments, the processor 550 may store information (eg, arrangement information) about an area of the first display 531 where information about the executed application is displayed, based on the execution of the application.

도 24는, 본 개시의 일 실시예에 따른, 전자 장치(501)가 펼침 상태에서 검출되는 사용자 인터랙션을 설명하기 위한 도면(2400)이다.FIG. 24 is a diagram 2400 for explaining user interaction detected when the electronic device 501 is in an unfolded state, according to an embodiment of the present disclosure.

도 24를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))는 제1 하우징(예: 도 2a의 제1 하우징(210)) 및 제2 하우징(예: 도 2a의 및 제2 하우징(220))을 포함할 수 있다.Referring to FIG. 24, the electronic device (e.g., the electronic device 501 in FIG. 5) includes a first housing (e.g., the first housing 210 in FIG. 2a) and a second housing (e.g., the first and second housings in FIG. 2a). It may include a housing 220).

일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540)) 및/또는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보에 기반하여, 제1 하우징(210)의 제2 면(예: 도 2b의 제2 면(212)) 및/또는 제2 하우징(220)의 제4 면(예: 도 2b의 제4 면(222))에서 사용자 인터랙션이 검출되는 위치를 확인할 수 있다.In one embodiment, a processor (e.g., processor 550 of FIG. 5) may use a sensor circuit (e.g., sensor circuit 540 of FIG. 5) and/or a touch sensor (e.g., a second display (e.g., the second display of FIG. 5). 2 Based on sensor information acquired through the touch sensor of the display 533), the second surface of the first housing 210 (e.g., the second surface 212 in FIG. 2B) and/or the second housing 220 ), the position where user interaction is detected can be confirmed on the fourth side (e.g., the fourth side 222 in FIG. 2B).

일 실시예에서, 사용자 인터랙션은, 더블 탭 또는 트리플 탭을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, user interaction may include a double tap or triple tap. However, it is not limited to this.

일 실시예에서, 프로세서(550)는 제1 하우징(210)의 제2 면(212)을 제1 영역으로 설정하고, 제2 하우징(220)의 제4 면(222)을 제2 영역으로 설정할 수 있다. 프로세서(550)는 설정된 제1 영역(예: 제2 면(212)) 또는 제2 영역(예: 제4 면(222))에서 사용자 인터랙션을 검출할 수 있다.In one embodiment, the processor 550 sets the second side 212 of the first housing 210 as the first area and sets the fourth side 222 of the second housing 220 as the second area. You can. The processor 550 may detect user interaction in the set first area (eg, second side 212) or second area (eg, fourth side 222).

예를 들어, 참조번호 <2410>에 도시된 바와 같이, 프로세서(550)는 제1 영역(예: 제1 하우징(210)의 제2 면(212))에서 사용자 인터랙션(2411)을 검출할 수 있다. 다른 예를 들어, 참조번호 <2420>에 도시된 바와 같이, 프로세서(550)는 제2 영역(예: 제2 하우징(220)의 제4 면(222))에서 사용자 인터랙션(2421)을 검출할 수 있다.For example, as shown in reference numeral <2410>, the processor 550 may detect user interaction 2411 in the first area (e.g., the second side 212 of the first housing 210). there is. For another example, as shown in reference numeral <2420>, the processor 550 may detect user interaction 2421 in the second area (e.g., the fourth side 222 of the second housing 220). You can.

일 실시예에서, 프로세서(550)는 제1 영역 또는 제2 영역에서 사용자 인터랙션이 검출되는 것에 기반하여, 검출된 사용자 인터랙션에 매핑된 기능을 수행할 수 있다.In one embodiment, the processor 550 may perform a function mapped to the detected user interaction based on the user interaction being detected in the first area or the second area.

다양한 실시예들에 따른 참조번호 <2410> 및 <2420>에서 사용자 인터랙션이 검출되는 영역을 2개의 영역으로 설정한 것으로 설명하였으나, 이에 한정하는 것은 아니다. 예를 들어, 사용자 인터랙션이 검출되는 영역을 5개의 영역으로 설정할 수 있다. 예를 들어, 프로세서(550)는 제1 하우징(210)의 제2 면(212)의 일부 영역(예: 상측 영역)을 제1 영역으로 설정하고, 제2 면(212)의 다른 일부 영역(예: 하측 영역)을 제2 영역으로 설정할 수 있다. 프로세서(550)는 제2 하우징(220)의 제4 면(222)의 일부 영역(예: 상측 영역)을 제3 영역으로 설정하고, 제4 면(222)의 다른 일부 영역(예: 하측 영역)을 제4 영역으로 설정할 수 있다. 프로세서(550)는 제2 면(212)의 일부 영역과 제4 면(222)의 일부 영역(예: 힌지 영역(310))을 제5 영역으로 설정할 수 있다. 프로세서(550)는 설정된 제1 영역, 제2 영역, 제3 영역, 제4 영역, 또는 제5 영역에서 사용자 인터랙션을 검출할 수 있다.In reference numerals <2410> and <2420> according to various embodiments, it has been described that the area where user interaction is detected is set to two areas, but it is not limited thereto. For example, the areas where user interaction is detected can be set to five areas. For example, the processor 550 sets a partial area (e.g., upper area) of the second surface 212 of the first housing 210 as the first area, and another partial area of the second surface 212 ( Example: lower area) can be set as the second area. The processor 550 sets a part of the fourth surface 222 of the second housing 220 (e.g., the upper area) as the third area, and sets another part of the fourth surface 222 (e.g., the lower area) as the third area. ) can be set as the fourth area. The processor 550 may set a partial area of the second surface 212 and a partial area of the fourth surface 222 (eg, hinge area 310) as the fifth area. The processor 550 may detect user interaction in the set first area, second area, third area, fourth area, or fifth area.

예를 들어, 참조번호 <2430>에 도시된 바와 같이, 프로세서(550)는 제1 영역(예: 제4 면(222)의 상측 영역)에서 사용자 인터랙션(2431)을 검출할 수 있다. 다른 예를 들어, 참조번호 <2440>에 도시된 바와 같이, 프로세서(550)는 제2 영역(예: 제4 면(222)의 하측 영역)에서 사용자 인터랙션(2441)을 검출할 수 있다. 또 다른 예를 들어, 참조번호 <2450>에 도시된 바와 같이, 프로세서(550)는 제3 영역(예: 제2 면(212)의 상측 영역)에서 사용자 인터랙션(2451)을 검출할 수 있다. 또 다른 예를 들어, 참조번호 <2460>에 도시된 바와 같이, 프로세서(550)는 제4 영역(예: 제2 면(212)의 하측 영역)에서 사용자 인터랙션(2461)을 검출할 수 있다. 또 다른 예를 들어, 참조번호 <2470>에 도시된 바와 같이, 프로세서(550)는 제5 영역(예: 제2 면(212)의 일부 영역과 제4 면(222)의 일부 영역(예: 힌지 영역(310)))에서 사용자 인터랙션(2471)을 검출할 수 있다.For example, as shown in reference numeral <2430>, the processor 550 may detect user interaction 2431 in the first area (eg, the upper area of the fourth side 222). For another example, as shown in reference numeral <2440>, the processor 550 may detect user interaction 2441 in the second area (eg, the lower area of the fourth surface 222). For another example, as shown in reference numeral <2450>, the processor 550 may detect user interaction 2451 in the third area (eg, the upper area of the second surface 212). For another example, as shown in reference numeral <2460>, the processor 550 may detect user interaction 2461 in the fourth area (eg, the lower area of the second surface 212). For another example, as shown in reference numeral <2470>, the processor 550 operates on a fifth region (e.g., a partial region of the second side 212 and a partial region of the fourth side 222 (e.g., User interaction 2471 can be detected in the hinge area 310).

다양한 실시예들에 따른 영역(예: 제1 영역, 제2 영역, 제3 영역, 제4 영역, 및/또는 제5 영역)은 제1 디스플레이(예: 도 5의 제1 디스플레이(531)) 또는 제2 디스플레이(533)에 표시되는 정보의 개수(또는 윈도우의 개수)에 기반하여 설정될 수 있다.The area (e.g., the first area, the second area, the third area, the fourth area, and/or the fifth area) according to various embodiments is the first display (e.g., the first display 531 in FIG. 5). Alternatively, it may be set based on the number of information (or number of windows) displayed on the second display 533.

도 25는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2500)이다.FIG. 25 is a diagram 2500 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 25를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서 복수의 어플리케이션들의 정보들을 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2510>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.Referring to FIG. 25, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) operates when the electronic device 501 is in an unfolded state (e.g., FIGS. 2A and 2B). In the state), information on a plurality of applications may be displayed on the first display (eg, the first display 531 in FIG. 5). For example, as shown in reference numeral <2510>, the processor 550 displays the first information 2511 of application A in the first area (e.g., left area) of the three areas of the first display 531. ) is displayed, the second information 2512 of application B is displayed in the second area (e.g., upper right area), and the third information 2513 of application C is displayed in the third area (e.g., lower right area). It can be displayed.

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the processor 550 may obtain sensor information through a sensor circuit (eg, sensor circuit 540 of FIG. 5). For example, the sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g., grip sensor 543 in FIG. 5). It is not limited to this, and the sensor information may further include sensor information acquired through a touch sensor (eg, a touch sensor of the second display (eg, the touch sensor of the second display 533 in FIG. 5)).

일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 displays the second side 212 or User interaction can be detected on the fourth side 222. The processor 550 may check the type of user interaction detected and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 참조번호 <2510> 및 <2520>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2515)을 검출할 수 있다. 예를 들어, 참조번호 <2510> 및 <2520>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다. In one embodiment, the processor 550 may detect user interaction 2515 in a portion of the second side 212 of the electronic device 501, as shown by reference numerals <2510> and <2520>. there is. For example, some areas of the second surface 212 shown at reference numerals <2510> and <2520> are the second area of the first display 531 (e.g., the second information 2512 of application B). It may be an area corresponding to the displayed area).

일 실시예에서, 프로세서(550)는 참조번호 <2530> 및 <2540>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2535)을 검출할 수 있다. 예를 들어, 참조번호 <2530> 및 <2540>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제3 영역(예: 어플리케이션 C의 제3 정보(2513)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the processor 550 may detect user interaction 2535 in a portion of the second side 212 of the electronic device 501, as shown by reference numerals <2530> and <2540>. there is. For example, some areas of the second surface 212 shown at reference numerals <2530> and <2540> are the third area of the first display 531 (e.g., the third information 2513 of application C). It may be an area corresponding to the displayed area).

일 실시예에서, 프로세서(550)는 참조번호 <2550> 및 <2560>에 도시된 바와 같이, 전자 장치(501)의 제4 면(222)의 일부 영역에서 사용자 인터랙션(2555)을 검출할 수 있다. 예를 들어, 참조번호 <2550> 및 <2560>에 도시된 제4 면(222)의 일부 영역은, 제1 디스플레이(531)의 제1 영역(예: 어플리케이션 A의 제1 정보(2511)를 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the processor 550 may detect user interaction 2555 in a partial area of the fourth side 222 of the electronic device 501, as shown by reference numerals <2550> and <2560>. there is. For example, some areas of the fourth surface 222 shown at reference numerals <2550> and <2560> display the first area of the first display 531 (e.g., the first information 2511 of application A). It may be an area corresponding to the displayed area).

일 실시예에서, 프로세서(550)는 사용자 인터랙션(2515, 2535, 2555)의 타입 및 사용자 인터랙션(2515, 2535, 2555)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다. In one embodiment, the processor 550 generates first information 2511 of the first application based on the type of user interaction 2515, 2535, and 2555 and the location information where the user interaction 2515, 2535, and 2555 was detected. , the display properties of at least one of the second information 2512 of the second application and the third information 2513 of the third application can be changed.

전술한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경하여 표시하는 실시예와 관련하여, 후술하는 도 27 및 도 34b에서 다양한 실시예들이 설명될 것이다.Based on the above-described type of user interaction and location information where the user interaction was detected, first information 2511 of the first application, second information 2512 of the second application, and third information 2513 of the third application ), various embodiments will be described in FIGS. 27 and 34B described later with respect to an embodiment of displaying by changing at least one display attribute.

도 26은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2600)이다.FIG. 26 is a diagram 2600 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 26을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 전자 장치(501)가 펼침 상태(예: 도 2a 및 도 2b의 상태)에서 복수의 어플리케이션들의 정보들을 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2610>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.Referring to FIG. 26, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) operates when the electronic device 501 is in an unfolded state (e.g., FIGS. 2A and 2B). In the state), information on a plurality of applications may be displayed on the first display (eg, the first display 531 in FIG. 5). For example, as shown in reference numeral <2610>, the processor 550 displays the first information 2511 of application A in the first area (e.g., left area) of the three areas of the first display 531. ) is displayed, the second information 2512 of application B is displayed in the second area (e.g., upper right area), and the third information 2513 of application C is displayed in the third area (e.g., lower right area). It can be displayed.

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the processor 550 may obtain sensor information through a sensor circuit (eg, sensor circuit 540 of FIG. 5). For example, the sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g., grip sensor 543 in FIG. 5). It is not limited to this, and the sensor information may further include sensor information acquired through a touch sensor (eg, a touch sensor of the second display (eg, the touch sensor of the second display 533 in FIG. 5)).

일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 displays the second side 212 or User interaction can be detected on the fourth side 222. The processor 550 may check the type of user interaction detected and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 참조번호 <2610> 및 <2620>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2615)을 검출할 수 있다. 예를 들어, 참조번호 <2610> 및 <2620>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the processor 550 may detect user interaction 2615 in a portion of the second side 212 of the electronic device 501, as shown by reference numerals <2610> and <2620>. there is. For example, some areas of the second surface 212 shown at reference numerals <2610> and <2620> are the second area of the first display 531 (e.g., the second information 2512 of application B). It may be an area corresponding to the displayed area).

일 실시예에서, 프로세서(550)는 사용자 인터랙션(2615)의 타입 및 사용자 인터랙션(2615)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 generates first information 2511 of the first application and second information of the second application based on the type of user interaction 2615 and the location information where the user interaction 2615 was detected. The display attribute of at least one of (2512) and third information (2513) of the third application can be changed.

일 실시예에서, 표시 속성은, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보를 표시하기 위한 디스플레이(530)의 표시 영역 내 윈도우의 크기 및 윈도우 내 배열 중 적어도 하나를 포함할 수 있다.In one embodiment, the display properties may include at least one of the size of a window and an arrangement within the window in the display area of the display 530 for displaying the first information of the first application and the second information of the second application. there is.

다양한 실시예들에 따른 도 26에서, 사용자 인터랙션(2615)의 타입은 더블 탭으로 가정하고, 더블 탭에 매핑된 기능이 어플리케이션을 종료하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 하지만 이에 한정하는 것은 아니며, 더블 탭에 매핑된 기능으로, 화면 회전 기능, 풀 스크린으로 표시하는 기능, 또는 어플리케이션 재실행 기능을 포함할 수 있다.In FIG. 26 according to various embodiments, the type of user interaction 2615 is assumed to be a double tap, and the function mapped to the double tap is set to a function to terminate the application. However, it is not limited to this, and functions mapped to double tap may include a screen rotation function, a full screen display function, or an application re-run function.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(2615)이 검출된 위치 정보에 기반하여, 사용자 인터랙션(2615)이 검출된 위치에 대응하는 제1 디스플레이(531)에 표시된 어플리케이션을 확인하고, 어플리케이션을 종료할 수 있다. 예를 들어, 프로세서(550)는 더블 탭(2615)이 검출된 위치에 대응하는 제1 디스플레이(531)에 표시된 어플리케이션 B를 종료하고, 참조번호 <2650>에 도시된 바와 같이, 제1 디스플레이(531)의 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 C의 제2 정보(2513)를 표시할 수 있다.In one embodiment, the processor 550 checks the application displayed on the first display 531 corresponding to the location where the user interaction 2615 was detected, based on the location information where the user interaction 2615 was detected, and selects the application. can be terminated. For example, the processor 550 terminates application B displayed on the first display 531 corresponding to the position where the double tap 2615 was detected, and, as shown in reference numeral <2650>, the first display ( 531), the first information 2511 of application A may be displayed in the first area (e.g., left area), and the second information 2513 of application C may be displayed in the second area (e.g., right area). .

도 27은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2700)이다.FIG. 27 is a diagram 2700 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

다양한 실시예들에 따른 도 27의 참조번호 <2710>, <2720>, 및 <2730>은 전술한 도 26의 참조번호 <2610>, <2620>, 및 <2650>과 동일하므로, 이에 대한 상세한 설명은 도 26의 설명으로 대신할 수 있다.Reference numbers <2710>, <2720>, and <2730> of FIG. 27 according to various embodiments are the same as reference numbers <2610>, <2620>, and <2650> of FIG. 26 described above, so detailed The description can be replaced with the description of FIG. 26.

도 27을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <2710>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시한 상태에서, 전자 장치(501)의 제2 면(212)의 일부 영역에서 제1 사용자 인터랙션(2715)을 검출할 수 있다. 예를 들어, 참조번호 <2710> 및 <2720>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다.Referring to FIG. 27, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) displays the first display 531, as shown by reference numeral <2710>. ), the first information 2511 of application A is displayed in the first area (e.g., left area), and the second information 2512 of application B is displayed in the second area (e.g., upper right area). is displayed, and the third information 2513 of application C is displayed in the third area (e.g., lower right area), and the first user interaction occurs in a partial area of the second side 212 of the electronic device 501. (2715) can be detected. For example, some areas of the second surface 212 shown at reference numerals <2710> and <2720> are the second area of the first display 531 (e.g., the second information 2512 of application B). It may be an area corresponding to the displayed area).

일 실시예에서, 프로세서(550)는 제1 사용자 인터랙션(2715)의 타입 및 제1 사용자 인터랙션(2715)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 제3 어플리케이션의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 stores the first information 2511 of the first application and the second application based on the type of the first user interaction 2715 and the location information where the first user interaction 2715 was detected. The display attribute of at least one of the second information 2512 of and the third information 2513 of the third application can be changed.

다양한 실시예들에 따른 도 27에서, 제1 사용자 인터랙션(2715)의 타입은 더블 탭으로 가정하고, 더블 탭에 매핑된 기능이 어플리케이션을 종료하는 기능으로 설정된 것으로 가정하여 설명하도록 한다.In FIG. 27 according to various embodiments, the type of the first user interaction 2715 is assumed to be a double tap, and the function mapped to the double tap is set to a function to terminate the application.

일 실시예에서, 프로세서(550)는 제1 사용자 인터랙션(2715)이 검출된 위치 정보에 기반하여, 제1 사용자 인터랙션(2715)이 검출된 위치에 대응하는 제1 디스플레이(531)에 표시된 어플리케이션 B를 종료하고, 참조번호 <2730>에 도시된 바와 같이, 제1 디스플레이(531)의 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 C의 제2 정보(2513)를 표시할 수 있다.In one embodiment, the processor 550 displays application B on the first display 531 corresponding to the location where the first user interaction 2715 was detected, based on location information where the first user interaction 2715 was detected. ends, and as shown in reference number <2730>, the first information 2511 of application A is displayed in the first area (e.g., left area) of the first display 531, and the first information 2511 of application A is displayed in the second area (e.g., left area). : Right area) can display the second information 2513 of application C.

일 실시예에서, 프로세서(550)는 참조번호 <2730> 및 <2740>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 제2 사용자 인터랙션(2735)을 검출할 수 있다. 예를 들어, 참조번호 <2730> 및 <2740>에 도시된 제2 면(212)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 B의 제2 정보(2512)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the processor 550 detects a second user interaction 2735 in a portion of the second side 212 of the electronic device 501, as shown by reference numerals <2730> and <2740>. can do. For example, some areas of the second surface 212 shown at reference numerals <2730> and <2740> are the second area of the first display 531 (e.g., the second information 2512 of application B). It may be an area corresponding to the displayed area).

다양한 실시예들에 따른 도 27에서, 제2 사용자 인터랙션(2735)의 타입은 트리플 탭으로 가정하고, 트리플 탭에 매핑된 기능이 종료된 어플리케이션을 재실행하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 하지만 이에 한정하는 것은 아니며, 트리플 탭에 매핑된 기능으로, 화면 회전 기능, 풀 스크린으로 표시하는 기능, 또는 어플리케이션 변경 기능을 포함할 수 있다.In FIG. 27 according to various embodiments, it is assumed that the type of the second user interaction 2735 is a triple tap, and the function mapped to the triple tap is set to a function of re-running a terminated application. However, it is not limited to this, and functions mapped to the triple tab may include a screen rotation function, a full screen display function, or an application change function.

일 실시예에서, 프로세서(550)는 제2 사용자 인터랙션(2735)이 검출되는 것에 기반하여, 종료하였던 어플리케이션 B를 재실행하고, 참조번호 <2750>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 재실행한 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the processor 550 re-executes application B that was terminated based on the detection of the second user interaction 2735, and, as shown by reference numeral <2750>, displays the first display 531. Among the three areas, the first information 2511 of application A is displayed in the first area (e.g. the left area), and the second information 2512 of the re-executed application B is displayed in the second area (e.g. the upper right area). may be displayed, and third information 2513 of application C may be displayed in the third area (e.g., lower right area).

도 28a 및 도 28b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2800)이다.FIGS. 28A and 28B are diagrams 2800 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 28a 및 도 28b를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <2810>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.28A and 28B, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) is a first processor, as shown by reference numeral <2810>. Among the three areas of the display 531, the first information 2511 of application A is displayed in the first area (e.g., left area), and the second information 2511 of application B is displayed in the second area (e.g., upper right area). (2512) may be displayed, and third information 2513 of application C may be displayed in the third area (e.g., lower right area).

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the processor 550 may obtain sensor information through a sensor circuit (eg, sensor circuit 540 of FIG. 5). For example, the sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g., grip sensor 543 in FIG. 5). It is not limited to this, and the sensor information may further include sensor information acquired through a touch sensor (eg, a touch sensor of the second display (eg, the touch sensor of the second display 533 in FIG. 5)).

일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션(2821)을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션(2821)의 타입 및/또는 사용자 인터랙션(2821)이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 displays the second side 212 or User interaction 2821 can be detected on the fourth side 222. The processor 550 may check the type of user interaction 2821 detected and/or location information where the user interaction 2821 was detected.

일 실시예에서, 프로세서(550)는 참조번호 <2815>에 도시된 바와 같이, 전자 장치(501)의 제4 면(222)의 일부 영역에서 왼손(2501)에 의한 사용자 인터랙션(2821)을 검출할 수 있다. 예를 들어, 참조번호 <2815>에 도시된 제4 면(222)의 일부 영역은, 제1 디스플레이(531)의 제2 영역(예: 어플리케이션 A의 제1 정보(2511)가 표시되는 영역)에 대응하는 영역일 수 있다.In one embodiment, the processor 550 detects user interaction 2821 by the left hand 2501 in a partial area of the fourth side 222 of the electronic device 501, as shown by reference numeral <2815>. can do. For example, a partial area of the fourth side 222 shown at reference number <2815> is the second area of the first display 531 (e.g., an area where the first information 2511 of application A is displayed) It may be an area corresponding to .

일 실시예에서, 프로세서(550)는 사용자 인터랙션(2821)의 타입 및 사용자 인터랙션(2821)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 generates first information 2511 of the first application and second information of the second application based on the type of user interaction 2821 and the location information where the user interaction 2821 was detected. The display attribute of at least one of (2512) and third information (2513) of application C can be changed.

다양한 실시예들에 따른 도 28a 및 도 28b에서, 사용자 인터랙션(2821)의 타입은 트리플 탭으로 가정하여 설명하도록 한다. 또한, 제2 하우징(220)의 제4 면(222)에서 트리플 탭(2821)이 검출되는 경우에 매핑된 기능은 제1 방향으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 또한, 제1 하우징(210)의 제2 면(212)에서 트리플 탭(2821)이 검출되는 경우에 매핑된 기능은 제2 방향(예: 제1 방향과 반대 방향)으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다.In FIGS. 28A and 28B according to various embodiments, the type of user interaction 2821 will be described assuming a triple tap. Additionally, when a triple tab 2821 is detected on the fourth surface 222 of the second housing 220, the mapped function will be described assuming that the function is set to display the window by rotating it in the first direction. In addition, when the triple tap 2821 is detected on the second surface 212 of the first housing 210, the mapped function is displayed by rotating the window in the second direction (e.g., the direction opposite to the first direction). This will be explained assuming that it is set as a function.

일 실시예에서, 프로세서(550)는 제2 하우징(220)의 제4 면(222)에서 트리플 탭(2821)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2823)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 참조번호 <2820>에 도시된 바와 같이, 프로세서(550)는 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 하측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the processor 550 rotates the window in the first direction (2823) based on the triple tap (2821) being detected on the fourth side (222) of the second housing (220), First information 2511 of the application, second information 2512 of the second application, and third information 2513 of application C can be displayed. For example, as shown in reference numeral <2820>, the processor 550 displays first information 2511 of application A in the first area (e.g., upper area) of the three areas of the first display 531. ), display the second information 2512 of application B in the second area (e.g., lower right area), and display the third information 2513 of application C in the third area (e.g., lower left area). It can be displayed.

일 실시예에서, 프로세서(550)는 참조번호 <2825>에 도시된 바와 같이, 제2 하우징(220)의 제4 면(222)에서 왼손(2501)에 의한 트리플 탭(2831)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2823)하여 어플리케이션들의 정보들을 표시할 수 있다. 예컨대, 프로세서(550)는 참조번호 <2830>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the processor 550 detects a triple tap 2831 by the left hand 2501 on the fourth side 222 of the second housing 220, as shown by reference numeral <2825>. Based on this, information about applications can be displayed by rotating the window in the first direction (2823). For example, as shown in reference numeral <2830>, the processor 550 stores the third information 2513 of application C in the first area (e.g., upper left area) of the three areas of the first display 531. Display, display the second information 2512 of application B in the second area (e.g. right area), and display the first information 2511 of application A in the third area (e.g. lower left area). You can.

일 실시예에서, 프로세서(550)는 참조번호 <2835>에 도시된 바와 같이, 제2 하우징(220)의 제4 면(222)에서 왼손(2501)에 의한 트리플 탭(2841)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2823)하여 어플리케이션들의 정보들을 표시할 수 있다. 예컨대, 프로세서(550)는 참조번호 <2840>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제3 영역(예: 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the processor 550 detects a triple tap 2841 by the left hand 2501 on the fourth side 222 of the second housing 220, as shown by reference numeral <2835>. Based on this, information about applications can be displayed by rotating the window in the first direction (2823). For example, as shown in reference numeral <2840>, the processor 550 displays the second information 2512 of application B in the first area (e.g., upper left area) of the three areas of the first display 531. , the third information 2513 of application C is displayed in the second area (e.g., upper right area), and the first information 2511 of application A is displayed in the third area (e.g., lower area). You can.

일 실시예에서, 프로세서(550)는 참조번호 <2845>에 도시된 바와 같이, 제1 하우징(210)의 제2 면(212)에서 오른손(2503)에 의한 트리플 탭(2851)이 검출되는 것에 기반하여, 제2 방향으로 윈도우를 회전(2853)하여 어플리케이션들의 정보들을 표시할 수 있다. 예컨대, 프로세서(550)는 참조번호 <2850>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the processor 550 detects a triple tap 2851 by the right hand 2503 on the second side 212 of the first housing 210, as shown by reference numeral <2845>. Based on this, information about applications can be displayed by rotating the window in the second direction (2853). For example, as shown in reference numeral <2850>, the processor 550 displays the third information 2513 of application C in the first area (e.g., upper left area) of the three areas of the first display 531. Display, display the second information 2512 of application B in the second area (e.g. right area), and display the first information 2511 of application A in the third area (e.g. lower left area). You can.

도 29a 및 도 29b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(2900)이다.FIGS. 29A and 29B are diagrams 2900 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 29a 및 도 29b를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <2910>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 우측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.Referring to FIGS. 29A and 29B, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) has a first processor, as shown in reference numeral <2910>. Among the three areas of the display 531, the first information 2511 of application A is displayed in the first area (e.g., left area), and the second information 2511 of application B is displayed in the second area (e.g., upper right area). (2512) may be displayed, and third information 2513 of application C may be displayed in the third area (e.g., lower right area).

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the processor 550 may obtain sensor information through a sensor circuit (eg, sensor circuit 540 of FIG. 5). For example, the sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g., grip sensor 543 in FIG. 5). It is not limited to this, and the sensor information may further include sensor information acquired through a touch sensor (eg, a touch sensor of the second display (eg, the touch sensor of the second display 533 in FIG. 5)).

일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 displays the second side 212 or User interaction can be detected on the fourth side 222. The processor 550 may check the type of user interaction detected and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 참조번호 <2917>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(2915)을 검출할 수 있다.In one embodiment, the processor 550 may detect user interaction 2915 in a partial area of the second side 212 of the electronic device 501, as shown by reference number <2917>.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(2915)의 타입 및 사용자 인터랙션(2915)이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513) 중 적어도 하나의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 generates first information 2511 of the first application and second information of the second application based on the type of user interaction 2915 and the location information where the user interaction 2915 was detected. The display attribute of at least one of (2512) and third information (2513) of application C can be changed.

다양한 실시예들에 따른 도 29a 및 도 29b에서, 사용자 인터랙션(2915)의 타입은 더블 탭 또는 트리플 탭으로 가정하고, 제1 하우징(210)의 제2 면(212)에서 더블 탭 또는 트리플 탭이 검출되는 것에 기반하여, 상이한 기능을 수행하는 것으로 가정하여 설명하도록 한다. 예를 들어, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 경우에 매핑된 기능은 제1 방향으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다. 또한, 제1 하우징(210)의 제2 면(212)에서 트리플 탭이 검출되는 경우에 매핑된 기능은 제2 방향(예: 제1 방향과 반대 방향)으로 윈도우를 회전하여 표시하는 기능으로 설정된 것으로 가정하여 설명하도록 한다.29A and 29B according to various embodiments, the type of user interaction 2915 is assumed to be a double tap or triple tap, and the double tap or triple tap is on the second side 212 of the first housing 210. Based on what is detected, the description will be made assuming that different functions are performed. For example, when a double tap is detected on the second surface 212 of the first housing 210, the mapped function will be described assuming that the function is set to display the window by rotating it in the first direction. In addition, when a triple tap is detected on the second surface 212 of the first housing 210, the mapped function is set to a function of rotating and displaying the window in the second direction (e.g., the direction opposite to the first direction). Let us explain by assuming that it is.

일 실시예에서, 프로세서(550)는 참조번호 <2917>에 도시된 바와 같이 제1 하우징(210)의 제2 면(212)에서 더블 탭(2915)이 검출되는 것에 기반하여, 제1 방향으로 윈도우를 회전(2921)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2920>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 하측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the processor 550 moves in a first direction based on detection of a double tap 2915 on the second side 212 of the first housing 210, as shown in reference numeral <2917>. The window can be rotated (2921) to display first information (2511) of the first application, second information (2512) of the second application, and third information (2513) of application C. For example, as shown in reference numeral <2920>, the processor 550 displays the first information 2511 of application A in the first area (e.g., upper area) of the three areas of the first display 531. ), display the second information 2512 of application B in the second area (e.g., lower right area), and display the third information 2513 of application C in the third area (e.g., lower left area). It can be displayed.

일 실시예에서, 프로세서(550)는 참조번호 <2927>에 도시된 바와 같이, 제1 하우징(210)의 제2 면(212)에서 더블 탭(2925)이 검출되는 것에 기반하여, 제1 방향으로 윈도우(예: 어플리케이션의 정보가 표시된 윈도우)를 회전(2931)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2930>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시할 수 있다.In one embodiment, the processor 550 selects the first direction based on detection of a double tap 2925 on the second side 212 of the first housing 210, as shown by reference numeral <2927>. By rotating the window (e.g., a window displaying application information) (2931), first information (2511) of the first application, second information (2512) of the second application, and third information (2513) of application C ) can be displayed. For example, as shown in reference numeral <2930>, the processor 550 displays the third information of application C (e.g., the upper left area) of the three areas of the first display 531. 2513), the second information 2512 of application B is displayed in the second area (e.g., right area), and the first information 2511 of application A is displayed in the third area (e.g., lower left area). It can be displayed.

일 실시예에서, 프로세서(550)는 참조번호 <2937>에 도시된 바와 같이, 제1 하우징(210)의 제2 면(212)에서 트리플 탭(2935)이 검출되는 것에 기반하여, 제2 방향으로 윈도우를 회전(2941)하여, 제1 어플리케이션의 제1 정보(2511), 제2 어플리케이션의 제2 정보(2512), 및 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다. 예를 들어, 프로세서(550)는 참조번호 <2940>에 도시된 바와 같이, 제1 디스플레이(531)의 3개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(2511)를 표시하고, 제2 영역(예: 우측 하측 영역)에 어플리케이션 B의 제2 정보(2512)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 C의 제3 정보(2513)를 표시할 수 있다.In one embodiment, the processor 550 selects the second direction based on the triple tap 2935 being detected on the second side 212 of the first housing 210, as shown by reference numeral <2937>. By rotating the window 2941, the first information 2511 of the first application, the second information 2512 of the second application, and the third information 2513 of application C can be displayed. For example, as shown in reference numeral <2940>, the processor 550 displays the first information 2511 of application A in the first area (e.g., upper area) of the three areas of the first display 531. ), display the second information 2512 of application B in the second area (e.g., lower right area), and display the third information 2513 of application C in the third area (e.g., lower left area). It can be displayed.

도 30은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3000)이다.FIG. 30 is a diagram 3000 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 30을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3010>에 도시된 바와 같이, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)를 표시할 수 있다.Referring to FIG. 30, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) displays the first display 531, as shown by reference numeral <3010>. ) can display the first information 3015 of application A.

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다. 이에 한정하는 것은 아니며, 센서 정보는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 획득된 센서 정보를 더 포함할 수 있다.In one embodiment, the processor 550 may obtain sensor information through a sensor circuit (eg, sensor circuit 540 of FIG. 5). For example, the sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g., grip sensor 543 in FIG. 5). It is not limited to this, and the sensor information may further include sensor information acquired through a touch sensor (eg, a touch sensor of the second display (eg, the touch sensor of the second display 533 in FIG. 5)).

일 실시예에서, 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 determines the grip state of the electronic device 501 and the second surface ( 212) or user interaction can be detected on the fourth side 222. The processor 550 may check the grip state of the electronic device 501, the type of detected user interaction, and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 전자 장치(501)가 양 손(2501, 2503)으로 그립된 상태에서 참조번호 <3025>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3020)을 검출할 수 있다.In one embodiment, the processor 550 operates on the second side 212 of the electronic device 501, as shown in reference numeral <3025>, while the electronic device 501 is gripped with both hands 2501 and 2503. ) User interaction 3020 can be detected in some areas of ).

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3020)의 타입 및 사용자 인터랙션(3020)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 displays the first information 3015 of application A on the first display 531 based on the type of user interaction 3020 and the location information where the user interaction 3020 was detected. Properties can be changed.

다양한 실시예들에 따른 도 30에서, 사용자 인터랙션(3020)의 타입은 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.30 according to various embodiments, the type of user interaction 3020 is a double tap, and based on the double tap being detected on the second side 212 of the first housing 210, the first display 531 ) will be explained assuming that the display area is divided into a plurality of areas and then a plurality of information is displayed.

일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3020)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3030>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 리스트(3035)를 표시할 수 있다. 어플리케이션 리스트(3035)는 사용자에 의해 자주 사용된 적어도 하나의 어플리케이션을 포함할 수 있다.In one embodiment, based on detecting a double tap 3020 on the second side 212 of the first housing 210, the processor 550 displays the first display, as shown at 3030. The display area 531 can be divided into two areas. The processor 550 displays the first information 3015 of application A in the first area (e.g., left area) of the two divided areas, and the application list 3035 in the second area (e.g., right area). can be displayed. The application list 3035 may include at least one application frequently used by the user.

일 실시예에서, 프로세서(550)는 더블 탭(3020)이 검출된 제2 면(212)에 대응하는 제1 디스플레이(531)의 영역(예: 제2 영역(예: 우측 영역))에 새롭게 실행되는 정보들(예: 어플리케이션 리스트(3035))을 표시할 수 있다.In one embodiment, the processor 550 creates a new area (e.g., the second area (e.g., right area)) of the first display 531 corresponding to the second side 212 where the double tap 3020 was detected. Executing information (e.g., application list 3035) can be displayed.

다른 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3020)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3050>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시하고, 제2 영역(예: 하측 영역)에 어플리케이션 리스트(3035)를 표시할 수 있다.In another embodiment, based on detecting a double tap 3020 on the second side 212 of the first housing 210, the processor 550 displays the first display, as shown at 3050 . The display area 531 can be divided into two areas. The processor 550 displays the first information 3015 of application A in the first area (e.g., upper area) of the two divided areas, and the application list 3035 in the second area (e.g., lower area). can be displayed.

도 31은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3100)이다.FIG. 31 is a diagram 3100 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

다양한 실시예들에 따른 도 31의 참조번호 <3110>은 전술한 도 30의 참조번호 <3010>과 동일하므로, 이에 대한 상세한 설명은 도 30의 설명으로 대신할 수 있다.Since the reference number <3110> of FIG. 31 according to various embodiments is the same as the reference number <3010> of FIG. 30 described above, the detailed description thereof can be replaced with the description of FIG. 30.

도 31을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3110>에 도시된 바와 같이, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)를 표시한 상태에서, 센서 회로(예: 도 5의 센서 회로(540))(예: 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543)) 및/또는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 획득할 수 있다. Referring to FIG. 31, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) displays the first display 531, as shown by reference numeral <3110>. ), with the first information 3015 of application A displayed on the sensor circuit (e.g., sensor circuit 540 in FIG. 5) (e.g., inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/ Alternatively, sensor information may be obtained through a grip sensor (e.g., grip sensor 543 in FIG. 5) and/or a touch sensor (e.g., touch sensor of a second display (e.g., touch sensor of the second display 533 in FIG. 5)) there is.

일 실시예에서, 프로세서(550)는 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 may detect the grip state and user interaction on the second side 212 or the fourth side 222 of the electronic device 501 based on the acquired sensor information. The processor 550 may check the grip state of the electronic device 501, the type of detected user interaction, and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 전자 장치(501)가 양 손(2501, 2503)으로 그립된 상태에서 참조번호 <3125>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3120)을 검출할 수 있다.In one embodiment, the processor 550 operates on the second side 212 of the electronic device 501, as shown by reference numeral <3125>, while the electronic device 501 is gripped with both hands 2501 and 2503. ) User interaction 3120 can be detected in some areas of ).

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3120)의 타입 및 사용자 인터랙션(3120)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 displays the first information 3015 of application A on the first display 531 based on the type of user interaction 3120 and the location information where the user interaction 3120 was detected. Properties can be changed.

다양한 실시예들에 따른 도 31에서는, 사용자 인터랙션의 타입이 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.31 according to various embodiments, the type of user interaction is a double tap, and based on the double tap being detected on the second side 212 of the first housing 210, the display on the first display 531 The explanation will be made assuming that the area is divided into a plurality of areas and then a plurality of information is displayed.

일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3120)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3150>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시하고, 제2 영역(예: 우측 영역)에 홈스크린 화면(3155)을 표시할 수 있다.In one embodiment, based on detecting a double tap 3120 on the second side 212 of the first housing 210, the processor 550 displays the first display, as shown at 3150 . The display area 531 can be divided into two areas. The processor 550 displays the first information 3015 of application A in the first area (e.g., left area) of the two divided areas, and displays the home screen screen 3155 in the second area (e.g., right area). ) can be displayed.

일 실시예에서, 프로세서(550)는 더블 탭(3020)이 검출된 제2 면(212)에 대응하는 제1 디스플레이(531)의 영역(예: 제2 영역(예: 우측 영역))에 새롭게 실행되는 정보들(예: 홈스크린 화면(3155))을 표시할 수 있다.In one embodiment, the processor 550 creates a new area (e.g., the second area (e.g., right area)) of the first display 531 corresponding to the second side 212 where the double tap 3020 was detected. Executable information (e.g., home screen screen 3155) can be displayed.

도 32는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3200)이다.FIG. 32 is a diagram 3200 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

다양한 실시예들에 따른 도 32의 참조번호 <3210>은 전술한 도 30의 참조번호 <3010>과 동일하므로, 이에 대한 상세한 설명은 도 30의 설명으로 대신할 수 있다.Since the reference number <3210> of FIG. 32 according to various embodiments is the same as the reference number <3010> of FIG. 30 described above, the detailed description thereof can be replaced with the description of FIG. 30.

도 32를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3210>에 도시된 바와 같이, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)를 표시한 상태에서, 센서 회로(예: 도 5의 센서 회로(540))(예: 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543)) 및/또는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 획득할 수 있다. Referring to FIG. 32, the processor (e.g., processor 550 of FIG. 5) of the electronic device (e.g., electronic device 501 of FIG. 5) displays the first display 531, as shown by reference numeral <3210>. ), with the first information 3015 of application A displayed on the sensor circuit (e.g., sensor circuit 540 in FIG. 5) (e.g., inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/ Alternatively, sensor information may be obtained through a grip sensor (e.g., grip sensor 543 in FIG. 5) and/or a touch sensor (e.g., touch sensor of a second display (e.g., touch sensor of the second display 533 in FIG. 5)) there is.

일 실시예에서, 프로세서(550)는 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 may detect the grip state and user interaction on the second side 212 or the fourth side 222 of the electronic device 501 based on the acquired sensor information. The processor 550 may check the grip state of the electronic device 501, the type of detected user interaction, and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 전자 장치(501)가 양 손(2501, 2503)으로 그립된 상태에서 참조번호 <3230>에 도시된 바와 같이, 전자 장치(501)의 제4 면(222)의 일부 영역에서 사용자 인터랙션(3220)을 검출할 수 있다.In one embodiment, the processor 550 operates on the fourth side 222 of the electronic device 501, as shown by reference numeral <3230>, while the electronic device 501 is gripped with both hands 2501 and 2503. ) User interaction 3220 can be detected in some areas of ).

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3220)의 타입 및 사용자 인터랙션(3220)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 어플리케이션 A의 제1 정보(3015)의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 displays the first information 3015 of application A on the first display 531 based on the type of user interaction 3220 and the location information where the user interaction 3220 was detected. Properties can be changed.

다양한 실시예들에 따른 도 32에서는, 사용자 인터랙션의 타입이 더블 탭이고, 제2 하우징(220)의 제4 면(222)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.In FIG. 32 according to various embodiments, the type of user interaction is a double tap, and based on the double tap being detected on the fourth side 222 of the second housing 220, the display on the first display 531 The explanation will be made assuming that the area is divided into a plurality of areas and then a plurality of information is displayed.

일 실시예에서, 제2 하우징(220)의 제4 면(222)에서 더블 탭(3220)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3250>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 2개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 2개의 영역들 중 제1 영역(예: 좌측 영역)에 어플리케이션 리스트(3255)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3015)를 표시할 수 있다.In one embodiment, based on the double tap 3220 being detected on the fourth side 222 of the second housing 220, the processor 550 displays the first display, as shown at 3250 . The display area 531 can be divided into two areas. The processor 550 displays the application list 3255 in the first area (e.g., left area) of the two divided areas, and first information 3015 of application A in the second area (e.g., right area). can be displayed.

일 실시예에서, 프로세서(550)는 더블 탭(3020)이 검출된 제4 면(222)에 대응하는 제1 디스플레이(531)의 영역(예: 제1 영역(예: 좌측 영역))에 새롭게 실행되는 정보들(예: 어플리케이션 리스트(3255))을 표시할 수 있다.In one embodiment, the processor 550 creates a new area (e.g., first area (e.g., left area)) of the first display 531 corresponding to the fourth side 222 where the double tap 3020 was detected. Executed information (e.g., application list 3255) can be displayed.

도 33은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3300)이다.FIG. 33 is a diagram 3300 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 33을 참조하면, 전자 장치(예: 도 5의 전자 장치(501))의 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3310>에 도시된 바와 같이, 제1 영역(예: 좌측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시할 수 있다. Referring to FIG. 33, a processor (e.g., processor 550 of FIG. 5) of an electronic device (e.g., electronic device 501 of FIG. 5) operates in a first area (e.g., as shown by reference numeral <3310>). : The second information 3313 of application B may be displayed in the left area), and the first information 3311 of application A may be displayed in the second area (e.g., right area).

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 이에 한정하는 것은 아니며, 프로세서(550)는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 더 획득할 수 있다. 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 may include sensor circuitry (e.g., sensor circuit 540 of Figure 5), such as an inertial sensor (e.g., inertial sensor 541 of Figure 5) and/or a grip sensor (e.g., Sensor information can be obtained through the grip sensor 543 in FIG. 5. It is not limited to this, and the processor 550 may further obtain sensor information through a touch sensor (e.g., a touch sensor of the second display (e.g., the touch sensor of the second display 533 in FIG. 5). Processor 550) Based on sensor information acquired through the sensor circuit 540 and/or the touch sensor of the second display 533, the grip state and the second side 212 or the fourth side 222 of the electronic device 501 The processor 550 may check the grip state of the electronic device 501, the type of detected user interaction, and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 참조번호 <3320>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3315)을 검출할 수 있다.In one embodiment, the processor 550 may detect user interaction 3315 in a partial area of the second side 212 of the electronic device 501, as shown by reference numeral <3320>.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3315)의 타입 및 사용자 인터랙션(3315)이 검출된 위치 정보에 기반하여, 제1 디스플레이(531)에 표시된 어플리케이션 B의 제2 정보(3313) 및 어플리케이션 A의 제1 정보(3311)의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 displays second information 3313 and The display properties of the first information 3311 of application A can be changed.

다양한 실시예들에 따른 도 33에서는, 사용자 인터랙션의 타입이 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 제1 디스플레이(531)의 표시 영역을 복수의 영역들로 분할한 후, 복수의 정보들을 표시하는 것으로 가정하여 설명하도록 한다.In FIG. 33 according to various embodiments, the type of user interaction is a double tap, and based on the double tap being detected on the second side 212 of the first housing 210, the display on the first display 531 The explanation will be made assuming that the area is divided into a plurality of areas and then a plurality of information is displayed.

일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3315)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3330>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 3개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 상측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시하고, 제3 영역(예: 하측 영역)에 어플리케이션 리스트(3331)를 표시할 수 있다.In one embodiment, based on detecting a double tap 3315 on the second side 212 of the first housing 210, the processor 550 displays the first display, as shown at 3330 . The display area of 531 can be divided into three areas. The processor 550 displays the second information 3313 of application B in the first area (e.g., upper left area) of the three divided areas, and displays the second information 3313 of application A in the second area (e.g., upper right area). First information 3311 may be displayed, and an application list 3331 may be displayed in the third area (e.g., lower area).

이에 한정하는 것은 아니며, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3315)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3350>에 도시된 바와 같이, 제1 디스플레이(531)의 표시 영역을 3개의 영역들로 분할할 수 있다. 프로세서(550)는 분할된 3개의 영역들 중 제1 영역(예: 좌측 상측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시하고, 제3 영역(예: 좌측 하측 영역)에 어플리케이션 리스트(3331)를 표시할 수도 있다.It is not limited to this, and based on the double tap 3315 being detected on the second surface 212 of the first housing 210, the processor 550, as shown in reference numeral <3350>, The display area of the display 531 can be divided into three areas. The processor 550 displays the second information 3313 of application B in the first area (e.g., upper left area) of the three divided areas, and the second information 3313 of application A in the second area (e.g., right area). 1 information 3311 may be displayed, and an application list 3331 may be displayed in the third area (e.g., lower left area).

도 34a 및 도 34b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3400, 3450)이다.FIGS. 34A and 34B are diagrams 3400 and 3450 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 34a 및 도 34b를 참조하면, 전자 장치(예: 도 5의 전자 장치(501))가 접힘 상태에서, 프로세서(예: 도 5의 프로세서(550))는 참조번호 <3410>에 도시된 바와 같이, 제2 디스플레이(예: 도 5의 제2 디스플레이(533))의 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시할 수 있다. Referring to FIGS. 34A and 34B, when the electronic device (e.g., the electronic device 501 of FIG. 5) is in a folded state, the processor (e.g., the processor 550 of FIG. 5) operates as shown by reference numeral <3410>. Likewise, the first information 3311 of application A is displayed in the first area (e.g., upper area) of the second display (e.g., second display 533 in FIG. 5), and the first information 3311 of application A is displayed in the second area (e.g., right area). ) can display the second information 3313 of application B.

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 이에 한정하는 것은 아니며, 프로세서(550)는 터치 센서(예: 제2 디스플레이(예: 도 5의 제2 디스플레이(533)의 터치 센서)를 통해 센서 정보를 더 획득할 수 있다. 프로세서(550)는 센서 회로(540) 및/또는 제2 디스플레이(533)의 터치 센서를 통해 획득되는 센서 정보에 기반하여, 전자 장치(501)의 그립 상태와 제2 면(212) 또는 제4 면(222)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(501)의 그립 상태, 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 may include sensor circuitry (e.g., sensor circuit 540 of Figure 5), such as an inertial sensor (e.g., inertial sensor 541 of Figure 5) and/or a grip sensor (e.g., Sensor information can be obtained through the grip sensor 543 in FIG. 5. It is not limited to this, and the processor 550 may further obtain sensor information through a touch sensor (e.g., a touch sensor of the second display (e.g., the touch sensor of the second display 533 in FIG. 5). Processor 550) Based on sensor information acquired through the sensor circuit 540 and/or the touch sensor of the second display 533, the grip state and the second side 212 or the fourth side 222 of the electronic device 501 The processor 550 may check the grip state of the electronic device 501, the type of detected user interaction, and/or location information where the user interaction was detected.

일 실시예에서, 프로세서(550)는 참조번호 <3420>에 도시된 바와 같이, 전자 장치(501)의 제2 면(212)의 일부 영역에서 사용자 인터랙션(3425)을 검출할 수 있다.In one embodiment, the processor 550 may detect user interaction 3425 in a partial area of the second side 212 of the electronic device 501, as shown by reference numeral <3420>.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3425)의 타입 및 사용자 인터랙션(3425)이 검출된 위치 정보에 기반하여, 제2 디스플레이(533)에 표시된 어플리케이션 A의 제1 정보(3311) 및/또는 어플리케이션 B의 제2 정보(3313)의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 displays first information 3311 of application A displayed on the second display 533 and /Or, the display properties of the second information 3313 of application B can be changed.

다양한 실시예들에 따른 도 34a 및 도 34b에서, 사용자 인터랙션(3425)의 타입은 더블 탭이고, 제1 하우징(210)의 제2 면(212)에서 더블 탭이 검출되는 것에 기반하여, 표시 위치를 변경(예: 윈도우를 변경)하거나, 또는 더블 탭이 검출된 위치에 대응하는 제2 디스플레이(533)에 표시된 어플리케이션을 종료하는 것으로 가정하여 설명하도록 한다.34A and 34B according to various embodiments, the type of user interaction 3425 is a double tap, and based on the double tap being detected on the second side 212 of the first housing 210, the display location The explanation will be made assuming that the application displayed on the second display 533 corresponding to the position where the double tap was detected is changed (e.g., window changed) or terminated.

일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3425)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3460>에 도시된 바와 같이, 제2 디스플레이(예: 도 5의 제2 디스플레이(533))의 제1 영역(예: 상측 영역)에 어플리케이션 B의 제2 정보(3313)를 표시하고, 제2 영역(예: 우측 영역)에 어플리케이션 A의 제1 정보(3311)를 표시할 수 있다. In one embodiment, based on detecting a double tap 3425 on the second side 212 of the first housing 210, the processor 550 generates a second display, as shown at 3460 . The second information 3313 of application B is displayed in the first area (e.g., upper area) of the second display 533 in FIG. 5, and the second information 3313 of application A is displayed in the second area (e.g., right area). First information 3311 can be displayed.

일 실시예에서, 제1 하우징(210)의 제2 면(212)에서 더블 탭(3425)이 검출되는 것에 기반하여, 프로세서(550)는 더블 탭(3425)이 검출된 위치에 대응하는 제2 디스플레이(533)에 표시된 어플리케이션 A를 종료하고, 참조번호 <3470>에 도시된 바와 같이, 제2 디스플레이(533)에 어플리케이션 B의 제2 정보(3313)를 표시할 수 있다.In one embodiment, based on the double tap 3425 being detected on the second side 212 of the first housing 210, the processor 550 generates a second tap corresponding to the location where the double tap 3425 was detected. Application A displayed on the display 533 may be terminated, and second information 3313 of application B may be displayed on the second display 533, as shown in reference number <3470>.

도 35a는, 본 개시의 일 실시예에 따른, 전자 장치(3500)가 펼침 상태에서, 전자 장치(3500)의 전면을 도시한 평면도이다. 도 35b는, 본 개시의 일 실시예에 따른, 전자 장치(3500)가 펼침 상태에서, 전자 장치(3500)의 후면을 도시한 평면도이다.FIG. 35A is a plan view showing the front of the electronic device 3500 when the electronic device 3500 is unfolded, according to an embodiment of the present disclosure. FIG. 35B is a plan view illustrating the rear of the electronic device 3500 when the electronic device 3500 is unfolded, according to an embodiment of the present disclosure.

도 36a는, 본 개시의 일 실시예에 따른, 전자 장치(3500)의 접힘 상태(folding state)를 도시한 사시도이다. 도 36b는, 본 개시의 일 실시예에 따른, 전자 장치(3500)의 중간 상태(intermediate state)를 도시한 사시도이다.FIG. 36A is a perspective view showing the folding state of the electronic device 3500 according to an embodiment of the present disclosure. FIG. 36B is a perspective view illustrating an intermediate state of the electronic device 3500 according to an embodiment of the present disclosure.

도 35a 내지 도 36b에 도시된 전자 장치(3500)는, 도 1에 도시된 전자 장치(101), 도 2a 내지 도 4에 도시된 전자 장치(200), 또는 도 5에 도시된 전자 장치(501)와 적어도 일부가 유사하거나, 다른 실시예를 포함할 수 있다.The electronic device 3500 shown in FIGS. 35A to 36B is the electronic device 101 shown in FIG. 1, the electronic device 200 shown in FIGS. 2A to 4, or the electronic device 501 shown in FIG. 5. ), or may include different embodiments.

도 35a는, 다양한 실시예들에 따른 펼침 상태에서, 전자 장치(3500)의 전면을 도시한 평면도이다. 도 35b는, 다양한 실시예들에 따른, 펼침 상태에서, 전자 장치(3500)의 후면을 도시한 평면도이다.FIG. 35A is a plan view illustrating the front of the electronic device 3500 in an unfolded state according to various embodiments. FIG. 35B is a plan view illustrating the rear of the electronic device 3500 in an unfolded state, according to various embodiments.

도 36a는, 다양한 실시예들에 따른, 접힘 상태(folding state)를 도시한 전자 장치(3500)의 사시도이다. 도 36b는, 다양한 실시예들에 따른, 중간 상태(intermediate state)를 도시한 전자 장치(3500)의 사시도이다.FIG. 36A is a perspective view of an electronic device 3500 illustrating a folding state, according to various embodiments. FIG. 36B is a perspective view of an electronic device 3500 illustrating an intermediate state, according to various embodiments.

도 35a 내지 도 36b를 참고하면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))(예: 도 4의 힌지 플레이트(320))를 기준으로 서로에 대하여 마주보며 접히도록 회동 가능하게 결합되는 한 쌍의 하우징(3510, 3520)(예: 폴더블 하우징)(예: 도 2a의 제1 하우징(210) 및 제2 하우징(220))을 포함할 수 있다. 어떤 실시예에서, 힌지 구조(예: 도 35a의 힌지 구조(3540))(예: 도 4의 힌지 구조(350))는 x축 방향으로 배치되거나, y축 방향으로 배치될 수 있다. 어떤 실시예에서, 힌지 구조(예: 도 35a의 힌지 구조(3540))는 동일한 방향 또는 서로 다른 방향으로 폴딩되도록 2개 이상 배치될 수도 있다. 한 실시예에 따르면, 전자 장치(3500)는 한 쌍의 하우징(3510, 3520)에 의해 형성된 영역에 배치되는 플렉서블 디스플레이(3530)(예: 폴더블 디스플레이)(예: 도 2a의 제1 디스플레이(230), 도 5의 제1 디스플레이(531))를 포함할 수 있다. 한 실시예에 따르면, 제1 하우징(3510)과 제2 하우징(3520)은 폴딩 축(축 B)을 중심으로 양측에 배치되고, 폴딩 축(축 B)에 대하여 실질적으로 대칭인 형상을 가질 수 있다. 한 실시예에 따르면, 제1 하우징(3510) 및 제2 하우징(3520)은 전자 장치(3500)의 상태가 펼침 상태(flat state 또는 unfolding state)인지, 접힘 상태(folding state)인지, 또는 중간 상태(intermediate state)인지의 여부에 따라 서로 이루는 각도나 거리가 달라질 수 있다. 35A to 36B, the electronic devices 3500 are folded facing each other based on a hinge structure (e.g., the hinge structure 3540 in FIG. 35a) (e.g., the hinge plate 320 in FIG. 4). It may include a pair of housings 3510 and 3520 (e.g., a foldable housing) (e.g., the first housing 210 and the second housing 220 of FIG. 2A) that are rotatably coupled to each other. In some embodiments, the hinge structure (e.g., hinge structure 3540 in Figure 35A) (e.g., hinge structure 350 in Figure 4) may be arranged in the x-axis direction or may be arranged in the y-axis direction. In some embodiments, two or more hinge structures (e.g., hinge structure 3540 in Figure 35A) may be arranged to fold in the same direction or in different directions. According to one embodiment, the electronic device 3500 includes a flexible display 3530 (e.g., a foldable display) disposed in an area formed by a pair of housings 3510 and 3520 (e.g., the first display in FIG. 2A (e.g., the first display in FIG. 2A) 230) and the first display 531 of FIG. 5). According to one embodiment, the first housing 3510 and the second housing 3520 are disposed on both sides about the folding axis (axis B) and may have a shape that is substantially symmetrical with respect to the folding axis (axis B). there is. According to one embodiment, the first housing 3510 and the second housing 3520 are configured to determine whether the electronic device 3500 is in a flat state or unfolding state, a folding state, or an intermediate state. Depending on whether they are in an intermediate state, the angle or distance between them may vary.

다양한 실시예들에 따르면, 한 쌍의 하우징(3510, 3520)은 힌지 구조(예: 도 35a의 힌지 구조(3540))와 결합되는 제1 하우징(3510)(예: 제1 하우징 구조) 및 힌지 구조(예: 도 35a의 힌지 구조(3540))와 결합되는 제2 하우징(3520)(예: 제2 하우징 구조)을 포함할 수 있다. 한 실시예에 따르면, 제1 하우징(3510)은, 펼침 상태에서, 제1 방향(예: 전면 방향)(z축 방향)을 향하는 제1 면(3511) 및 제1 면(3511)과 대향되는 제2 방향(예: 후면 방향)(-z축 방향)을 향하는 제2 면(3512)을 포함할 수 있다. 한 실시예에 따르면, 제2 하우징(3520)은 펼침 상태에서, 제1 방향(z축 방향)을 향하는 제3 면(3521) 및 제2 방향(-z축 방향)을 향하는 제4 면(3522)을 포함할 수 있다. 한 실시예에 따르면, 전자 장치(3500)는, 펼침 상태에서, 제1 하우징(3510)의 제1 면(3511)과 제2 하우징(3520)의 제3 면(3521)이 실질적으로 동일한 제1 방향(z축 방향)을 향하고, 접힘 상태에서 제1 면(3511)과 제3 면(3521)이 서로 마주보는 방식으로 동작될 수 있다. 한 실시예에 따르면, 전자 장치(3500)는, 펼침 상태에서, 제1 하우징(3510)의 제2 면(3512)과 제2 하우징(3520)의 제4 면(3522)이 실질적으로 동일한 제2 방향(-z축 방향)을 향하고, 접힘 상태에서 제2 면(3512)과 제4 면(3522)이 서로 반대 방향을 향하도록 동작될 수 있다. 예를 들면, 접힘 상태에서 제2 면(3512)은 제1 방향(z축 방향)을 향할 수 있고, 제4 면(3522)은 제2 방향(-z축 방향)을 향할 수 있다.According to various embodiments, the pair of housings 3510 and 3520 includes a first housing 3510 (e.g., a first housing structure) coupled to a hinge structure (e.g., hinge structure 3540 in FIG. 35A) and a hinge. It may include a second housing 3520 (e.g., a second housing structure) coupled to a structure (e.g., a hinge structure 3540 in FIG. 35A). According to one embodiment, the first housing 3510, in the unfolded state, has a first surface 3511 facing a first direction (e.g., front direction) (z-axis direction) and a first surface 3511 opposite the first surface 3511. It may include a second surface 3512 facing a second direction (eg, back direction) (-z-axis direction). According to one embodiment, in the unfolded state, the second housing 3520 has a third side 3521 facing the first direction (z-axis direction) and a fourth side 3522 facing the second direction (-z-axis direction). ) may include. According to one embodiment, the electronic device 3500 is, in an unfolded state, a first surface 3511 of the first housing 3510 and a third surface 3521 of the second housing 3520 that are substantially the same. It may be operated in such a way that it faces the direction (z-axis direction) and the first side 3511 and the third side 3521 face each other in the folded state. According to one embodiment, the electronic device 3500, in the unfolded state, has a second surface 3512 of the first housing 3510 and a fourth surface 3522 of the second housing 3520 that are substantially the same. direction (-z-axis direction), and in the folded state, the second side 3512 and the fourth side 3522 may be operated to face opposite directions. For example, in the folded state, the second side 3512 may face a first direction (z-axis direction), and the fourth side 3522 may face a second direction (-z-axis direction).

다양한 실시예들에 따르면, 제1 하우징(3510)은 적어도 부분적으로 전자 장치(3500)의 외관을 형성하는 제1 측면 부재(3513) 및 제1 측면 부재(3513)와 결합되고, 전자 장치(3500)의 제2 면(3512)의 적어도 일부를 형성하는 제1 후면 커버(3514)를 포함할 수 있다. 한 실시예에 따르면, 제1 측면 부재(3513)는 제1 측면(3513a), 제1 측면(3513a)의 일단으로부터 연장되는 제2 측면(3513b) 및 제1 측면(3513a)의 타단으로부터 연장되는 제3 측면(3513c)을 포함할 수 있다. 한 실시예에 따르면, 제1 측면 부재(3513)는 제1 측면(3513a), 제2 측면(3513b), 및 제3 측면(3513c)을 통해 장방형(예: 정사각형 또는 직사각형) 형상으로 형성될 수 있다.According to various embodiments, the first housing 3510 is coupled to the first side member 3513 and the first side member 3513, which at least partially forms the exterior of the electronic device 3500, and the electronic device 3500 ) may include a first rear cover 3514 forming at least a portion of the second side 3512 of the device. According to one embodiment, the first side member 3513 includes a first side 3513a, a second side 3513b extending from one end of the first side 3513a, and a second side extending from the other end of the first side 3513a. It may include a third side 3513c. According to one embodiment, the first side member 3513 may be formed into a rectangular (e.g., square or rectangular) shape through the first side 3513a, the second side 3513b, and the third side 3513c. there is.

다양한 실시예들에 따르면, 제2 하우징(3520)은 적어도 부분적으로 전자 장치(3500)의 외관을 형성하는 제2 측면 부재(3523) 및 제2 측면 부재(3523)와 결합되고, 전자 장치(3500)의 제4 면(3522)의 적어도 일부를 형성하는 제2 후면 커버(3524)를 포함할 수 있다. 한 실시예에 따르면, 제2 측면 부재(3523)는 제4 측면(3523a), 제4 측면(3523a)의 일단으로부터 연장되는 제5 측면(3523b) 및 제4 측면(3523a)의 타단으로부터 연장되는 제6 측면(3523c)을 포함할 수 있다. 한 실시예에 따르면, 제2 측면 부재(3523)는 제4 측면(3523a), 제5 측면(3523b), 및 제6 측면(3523c)을 통해 장방형 형상으로 형성될 수 있다. According to various embodiments, the second housing 3520 is coupled to the second side member 3523 and the second side member 3523, which at least partially forms the exterior of the electronic device 3500, and the electronic device 3500 ) may include a second rear cover 3524 that forms at least a portion of the fourth side 3522. According to one embodiment, the second side member 3523 includes a fourth side 3523a, a fifth side 3523b extending from one end of the fourth side 3523a, and a fifth side 3523b extending from the other end of the fourth side 3523a. It may include a sixth side 3523c. According to one embodiment, the second side member 3523 may be formed into a rectangular shape through the fourth side 3523a, the fifth side 3523b, and the sixth side 3523c.

다양한 실시예들에 따르면, 한 쌍의 하우징(3510, 3520)은 도시된 형태 및 결합으로 제한되지 않으며, 다른 형상이나 부품의 조합 및/또는 결합에 의해 구현될 수 있다. 예를 들어, 어떤 실시예에서는, 제1 측면 부재(3513)는 제1 후면 커버(3514)와 일체로 형성될 수 있고, 제2 측면 부재(3523)는 제2 후면 커버(3524)와 일체로 형성될 수 있다.According to various embodiments, the pair of housings 3510 and 3520 is not limited to the shape and combination shown, and may be implemented by combining and/or combining other shapes or parts. For example, in some embodiments, the first side member 3513 may be formed integrally with the first back cover 3514, and the second side member 3523 may be formed integrally with the second back cover 3524. can be formed.

다양한 실시예들에 따르면, 플렉서블 디스플레이(3530)는 제1 하우징(3510)의 제1 면(3511)으로부터 힌지 구조(예: 도 35a의 힌지 구조(3540))를 가로질러 제2 하우징(3520)의 제3 면(3521)의 적어도 일부까지 연장되도록 배치될 수 있다. 예를 들어, 플렉서블 디스플레이(3530)는 실질적으로 제1 면(3511)과 대응하는 제1 부분(3530a), 제3 면(3521)과 대응하는 제2 부분(3530b), 및 제1 부분(3530a)과 제2 부분(3530b)을 연결하고, 힌지 구조(예: 도 35a의 힌지 구조(3540))와 대응하는 제3 부분(3530c)(예: 굴곡 가능 영역)을 포함할 수 있다. 한 실시예에 따르면, 전자 장치(3500)는 제1 하우징(3510)의 가장자리를 따라 결합되는 제1 보호 커버(3515)(예: 제1 보호 프레임 또는 제1 장식 부재)를 포함할 수 있다. 한 실시예에 따르면, 전자 장치(3500)는 제2 하우징(3520)의 가장자리를 따라 결합되는 제2 보호 커버(3525)(예: 제2 보호 프레임 또는 제2 장식 부재)를 포함할 수 있다. 한 실시예에 따르면, 제1 보호 커버(3515) 및/또는 제2 보호 커버(3525)는 금속 또는 폴리머 재질로 형성될 수 있다. 한 실시예에 따르면, 제1 보호 커버(3515) 및/또는 제2 보호 커버(3525)는 장식 부재(decoration member)로 사용될 수 있다. 한 실시예에 따르면, 플렉서블 디스플레이(3530)는 제1 부분(3530a)의 가장자리가 제1 하우징(3510)과 제1 보호 커버(3515) 사이에 개재되도록 위치될 수 있다. 한 실시예에 따르면, 플렉서블 디스플레이(3530)는 제2 부분(3530b)의 가장자리가 제2 하우징(3520)과 제2 보호 커버(3525) 사이에 개재되도록 위치될 수 있다. 한 실시예에 따르면, 플렉서블 디스플레이(330)는 힌지 구조(예: 도 35a의 힌지 구조(3540))와 대응되는 영역에 배치되는 보호 캡(3535)을 통해, 보호 캡(3535)에 대응되는 플렉서블 디스플레이(3530)의 가장자리가 보호되도록 위치될 수 있다. 따라서, 플렉서블 디스플레이(3530)는 실질적으로 가장자리가 외부로부터 보호될 수 있다. 한 실시예에 따르면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))를 지지하고, 전자 장치(3500)가 접힘 상태일 때, 외부로 노출되고, 펼힘 상태일 때, 제1 공간(예: 제1 하우징(3510)의 내부 공간) 및 제2 공간(예: 제2 하우징(3520)의 내부 공간)으로 인입됨으로써 외부로부터 보이지 않게 배치되는 힌지 하우징(3541)(예: 힌지 커버)을 포함할 수 있다. 어떤 실시예에서, 플렉서블 디스플레이(3530)는 제2 면(3512)의 적어도 일부로부터 제4 면(3522)의 적어도 일부까지 연장 배치될 수 있다. 이러한 경우, 전자 장치(3500)는 플렉서블 디스플레이(3530)가 외부로 노출될 수 있도록 접힐 수 있다(아웃 폴딩 방식).According to various embodiments, the flexible display 3530 is connected from the first side 3511 of the first housing 3510 across a hinge structure (e.g., the hinge structure 3540 in FIG. 35A) to the second housing 3520. It may be arranged to extend to at least a portion of the third side 3521. For example, the flexible display 3530 includes a first part 3530a substantially corresponding to the first surface 3511, a second part 3530b substantially corresponding to the third surface 3521, and a first part 3530a. ) and the second part 3530b, and may include a hinge structure (eg, the hinge structure 3540 of FIG. 35A) and a corresponding third part 3530c (eg, a bendable area). According to one embodiment, the electronic device 3500 may include a first protective cover 3515 (eg, a first protective frame or a first decorative member) coupled along an edge of the first housing 3510. According to one embodiment, the electronic device 3500 may include a second protective cover 3525 (eg, a second protective frame or a second decorative member) coupled along an edge of the second housing 3520. According to one embodiment, the first protective cover 3515 and/or the second protective cover 3525 may be formed of metal or polymer material. According to one embodiment, the first protective cover 3515 and/or the second protective cover 3525 may be used as a decoration member. According to one embodiment, the flexible display 3530 may be positioned so that the edge of the first portion 3530a is interposed between the first housing 3510 and the first protective cover 3515. According to one embodiment, the flexible display 3530 may be positioned so that the edge of the second portion 3530b is interposed between the second housing 3520 and the second protective cover 3525. According to one embodiment, the flexible display 330 has a flexible display corresponding to the protective cap 3535 through a protective cap 3535 disposed in an area corresponding to the hinge structure (e.g., the hinge structure 3540 in FIG. 35A). The edge of the display 3530 may be positioned to be protected. Accordingly, the edges of the flexible display 3530 can be substantially protected from the outside. According to one embodiment, the electronic device 3500 supports a hinge structure (e.g., the hinge structure 3540 in FIG. 35A), is exposed to the outside when the electronic device 3500 is in the folded state, and is exposed to the outside when the electronic device 3500 is in the unfolded state. , a hinge housing 3541 (e.g., disposed to be invisible from the outside by being introduced into the first space (e.g., the inner space of the first housing 3510) and the second space (e.g., the inner space of the second housing 3520) : Hinge cover) may be included. In some embodiments, the flexible display 3530 may extend from at least a portion of the second side 3512 to at least a portion of the fourth side 3522. In this case, the electronic device 3500 may be folded so that the flexible display 3530 can be exposed to the outside (out-folding method).

다양한 실시예들에 따르면, 전자 장치(3500)는 플렉서블 디스플레이(3530)와 별도로 배치되는 서브 디스플레이(3531)(예: 도 5의 제2 디스플레이(533))를 포함할 수 있다. 한 실시예에 따르면, 서브 디스플레이(3531)는 제1 하우징(3510)의 제2 면(3512)에 적어도 부분적으로 노출되도록 배치됨으로써, 접힘 상태일 경우, 플렉서블 디스플레이(3530)의 표시 기능을 대체하는, 전자 장치(3500)의 상태 정보를 표시할 수 있다. 한 실시예에 따르면, 서브 디스플레이(3531)는 제1 후면 커버(3514)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다. 어떤 실시예에서, 서브 디스플레이(3531)는 제2 하우징(3520)의 제4 면(3522)에 배치될 수도 있다. 이러한 경우, 서브 디스플레이(3531)는 제2 후면 커버(3524)의 적어도 일부 영역을 통해 외부로부터 보일 수 있게 배치될 수 있다.According to various embodiments, the electronic device 3500 may include a sub-display 3531 (eg, the second display 533 in FIG. 5) that is disposed separately from the flexible display 3530. According to one embodiment, the sub-display 3531 is disposed to be at least partially exposed to the second surface 3512 of the first housing 3510, thereby replacing the display function of the flexible display 3530 when in the folded state. , status information of the electronic device 3500 can be displayed. According to one embodiment, the sub-display 3531 may be arranged to be visible from the outside through at least a partial area of the first rear cover 3514. In some embodiments, the sub-display 3531 may be disposed on the fourth side 3522 of the second housing 3520. In this case, the sub-display 3531 may be arranged to be visible from the outside through at least a portion of the second rear cover 3524.

다양한 실시예들에 따르면, 전자 장치(3500)는 입력 장치(3503)(예: 마이크), 음향 출력 장치(3501, 3502), 센서 모듈(3504), 카메라 장치(3505, 3508), 키 입력 장치(3506), 또는 커넥터 포트(3507) 중 적어도 하나를 포함할 수 있다. 도시된 실시예에서, 입력 장치(3503)(예: 마이크), 음향 출력 장치(3501, 3502), 센서 모듈(3504), 카메라 장치(3505, 3508), 키 입력 장치(3506), 또는 커넥터 포트(3507)는 제1 하우징(3510) 또는 제2 하우징(3520)에 형성된 홀 또는 형상을 지칭하고 있으나, 전자 장치(3500)의 내부에 배치되고, 홀 또는 형상을 통해 동작하는 실질적인 전자 부품(예: 입력 장치, 음향 출력 장치, 센서 모듈, 또는 카메라 장치)를 포함하도록 정의될 수 있다.According to various embodiments, the electronic device 3500 includes an input device 3503 (e.g., a microphone), an audio output device 3501 and 3502, a sensor module 3504, a camera device 3505 and 3508, and a key input device. It may include at least one of 3506, or connector port 3507. In the illustrated embodiment, an input device 3503 (e.g., a microphone), an audio output device 3501, 3502, a sensor module 3504, a camera device 3505, 3508, a key input device 3506, or a connector port. 3507 refers to a hole or shape formed in the first housing 3510 or the second housing 3520, but is disposed inside the electronic device 3500 and operates through the hole or shape. : can be defined to include an input device, audio output device, sensor module, or camera device).

다양한 실시예들에 따른 입력 장치(3503)(예: 마이크), 음향 출력 장치(3501, 3502), 센서 모듈(3504), 카메라 장치(3505, 3508), 플래시(3509), 키 입력 장치(3506), 또는 커넥터 포트(3507)는, 전술한 도 2a 및 도 2b의 전자 장치(200)의 입력 장치(215), 음향 출력 장치(227, 228), 센서 모듈(217a, 217b, 226), 카메라 모듈(216a, 216b, 225), 플래시(218), 키 입력 장치(219), 또는 커넥터 포트(229)와 동일하므로, 이에 대한 설명은 생략하기로 한다.Input device 3503 (e.g., microphone), audio output device 3501, 3502, sensor module 3504, camera device 3505, 3508, flash 3509, key input device 3506 according to various embodiments. ), or the connector port 3507 is an input device 215, an audio output device 227, 228, a sensor module 217a, 217b, 226, and a camera of the electronic device 200 of FIGS. 2A and 2B described above. Since it is the same as the modules 216a, 216b, 225, flash 218, key input device 219, or connector port 229, description thereof will be omitted.

도 36b를 참조하면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))를 통해 중간 상태(intermediate state)를 유지하도록 동작될 수도 있다. 이러한 경우, 전자 장치(3500)는 제1 면(3511)과 대응하는 디스플레이 영역과, 제3 면(3521)과 대응하는 디스플레이 영역에 서로 다른 컨텐츠가 표시되도록 플렉서블 디스플레이(3530)를 제어할 수도 있다. 한 실시예에 따르면, 전자 장치(3500)는 힌지 구조(예: 도 35a의 힌지 구조(3540))를 통해 일정 변곡 각도(예: 중간 상태일 때, 제1 하우징(3510)과 제2 하우징(3520) 사이의 각도)를 기준으로 실질적으로 펼침 상태(예: 도 35a의 펼침 상태) 및/또는 실질적으로 접힘 상태(예: 도 36a의 접힘 상태)로 동작될 수 있다. 예를 들어, 전자 장치(3500)는, 힌지 구조(예: 도 35a의 힌지 구조(3540))을 통해, 일정 변곡 각도로 펼쳐진 상태에서, 펼쳐지는 방향(D 방향)으로 가압력이 제공될 경우, 펼침 상태(예: 도 35a의 펼침 상태)로 천이되도록 동작될 수 있다. 예를 들어, 전자 장치(3500)는, 힌지 구조(예: 도 35a의 힌지 구조(3540))을 통해, 일정 변곡 각도로 펼쳐진 상태에서, 접히려는 방향(C 방향)으로 가압력이 제공될 경우, 닫힘 상태(예: 도 36a의 접힘 상태)로 천이되도록 동작될 수 있다. 한 실시예에서, 전자 장치(3500)는, 힌지 구조(예: 도 35a의 힌지 구조(3540))을 통해 다양한 각도에서 펼쳐진 상태(미도시)를 유지하도록 동작될 수도 있다.Referring to FIG. 36B, the electronic device 3500 may be operated to maintain an intermediate state through a hinge structure (eg, the hinge structure 3540 of FIG. 35A). In this case, the electronic device 3500 may control the flexible display 3530 to display different content on the display area corresponding to the first side 3511 and the display area corresponding to the third side 3521. . According to one embodiment, the electronic device 3500 holds the first housing 3510 and the second housing ( 3520), it may be operated in a substantially unfolded state (e.g., the unfolded state in FIG. 35A) and/or in a substantially folded state (e.g., the folded state in FIG. 36A). For example, when the electronic device 3500 is unfolded at a certain inflection angle and a pressing force is provided in the unfolding direction (direction D) through a hinge structure (e.g., the hinge structure 3540 in FIG. 35A), It may be operated to transition to an unfolded state (e.g., the unfolded state of FIG. 35A). For example, when the electronic device 3500 is unfolded at a certain inflection angle and a pressing force is provided in the direction in which it is to be folded (C direction) through a hinge structure (e.g., the hinge structure 3540 in FIG. 35A) , may be operated to transition to a closed state (e.g., a folded state in FIG. 36A). In one embodiment, the electronic device 3500 may be operated to maintain the unfolded state (not shown) at various angles through a hinge structure (e.g., the hinge structure 3540 of FIG. 35A).

도 37은, 본 개시의 일 실시예에 따른, 사용자 인터랙션의 센서 데이터들을 보정하는 방법을 설명하기 위한 도면(3700)이다.FIG. 37 is a diagram 3700 for explaining a method of correcting sensor data of user interaction according to an embodiment of the present disclosure.

도 37을 참조하면, 전자 장치(예: 도 35a의 전자 장치(3500))가 펼침 상태(예: 도 35a 및 도 35b의 상태)에서, 센서 회로(예: 도 5의 센서 회로(540))를 통해 센서 정보를 획득할 수 있다. 예를 들어, 센서 회로(540)는 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 포함할 수 있다.Referring to FIG. 37, when the electronic device (e.g., the electronic device 3500 of FIG. 35A) is in an unfolded state (e.g., the state of FIGS. 35A and 35B), the sensor circuit (e.g., the sensor circuit 540 of FIG. 5) Sensor information can be obtained through . For example, the sensor circuit 540 may include an inertial sensor (e.g., inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g., grip sensor 543 in FIG. 5).

일 실시예에서, 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 그립 상태 및/또는 전자 장치(3500)의 후면(예: 제2 면(3512) 또는 제4 면(3522))에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 검출된 사용자 인터랙션의 타입 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 determines the grip state of the electronic device 3500 and/or the rear (e.g., second side) of the electronic device 3500 based on sensor information acquired through the sensor circuit 540. User interaction can be detected in 3512) or the fourth side 3522). The processor 550 may check the type of user interaction detected and/or location information where the user interaction was detected.

일 실시예에서, 관성 센서(541)는 전자 장치(3500)의 제1 하우징(3510)의 내부 공간에 배치될 수 있다. 프로세서(예: 도 5의 프로세서(550))는 관성 센서(541)를 통해 전자 장치(3500)의 자세와 관련된 정보 및/또는 전자 장치(3500)의 움직임과 관련된 센서 정보를 획득할 수 있다. In one embodiment, the inertial sensor 541 may be disposed in the interior space of the first housing 3510 of the electronic device 3500. A processor (e.g., processor 550 of FIG. 5 ) may obtain information related to the posture of the electronic device 3500 and/or sensor information related to the movement of the electronic device 3500 through the inertial sensor 541 .

일 실시예에서, 그립 센서(543)는 전자 장치(3500)의 측면의 적어도 일부 영역에 배치될 수 있다. 예를 들어, 그립 센서(543)는 제1 하우징(3510)의 제3 측면(3513c)의 일부 영역 및 제2 하우징(3520)의 제6 측면(3523c)의 일부 영역에 배치된 제1 그립 센서(3711)와 제2 하우징(3520)의 제4 면(3522)의 일부 영역에 배치된 제2 그립 센서(3751)를 포함할 수 있다.In one embodiment, the grip sensor 543 may be disposed on at least a portion of the side of the electronic device 3500. For example, the grip sensor 543 is a first grip sensor disposed in a partial area of the third side 3513c of the first housing 3510 and a partial area of the sixth side 3523c of the second housing 3520. It may include (3711) and a second grip sensor (3751) disposed in a partial area of the fourth surface (3522) of the second housing (3520).

일 실시예에서, 프로세서(550)는 관성 센서(541), 제1 그립 센서(3711), 및/또는 제2 그립 센서(3751)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 그립 상태, 검출된 사용자 인터랙션의 타입, 및/또는 사용자 인터랙션이 검출된 위치 정보를 추정(또는 예측)하고, 검출된 사용자 인터랙션의 센서 데이터들을 보정할 수 있다.In one embodiment, the processor 550 operates the electronic device 3500 based on sensor information acquired through the inertial sensor 541, the first grip sensor 3711, and/or the second grip sensor 3751. The grip state, the type of detected user interaction, and/or the location information where the user interaction was detected may be estimated (or predicted), and sensor data of the detected user interaction may be corrected.

도 38은, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3800)이다.FIG. 38 is a diagram 3800 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 38을 참조하면, 참조번호 <3810>에 도시된 바와 같이, 전자 장치(예: 도 35a의 전자 장치(3500))는 중간 상태(예; 도 36b의 상태)에서, 제1 디스플레이(예: 도 35a의 제1 디스플레이(3530))에 카메라 어플리케이션의 화면을 표시하는 상태일 수 있다.Referring to FIG. 38, as shown by reference numeral <3810>, an electronic device (e.g., the electronic device 3500 in FIG. 35A) displays a first display (e.g., the state in FIG. 36B) in an intermediate state (e.g., the state in FIG. 36b). The screen of the camera application may be displayed on the first display 3530 of FIG. 35A.

일 실시예에서, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(3500)의 제1 디스플레이(3530)의 제1 영역(예: 상측 영역)에 카메라(예: 도 35a 및 도 35b의 카메라 장치(3505, 3508))를 통해 획득되는 프리뷰 이미지(3815)를 표시하고, 제2 영역(예: 하측 영역)에 카메라 기능을 제어하기 위한 적어도 하나의 아이템을 포함하는 화면(3820)을 표시할 수 있다. In one embodiment, a processor (e.g., processor 550 of FIG. 5) displays a camera (e.g., FIGS. 35A and 35B) in a first area (e.g., upper area) of the first display 3530 of the electronic device 3500. A screen 3820 that displays a preview image 3815 acquired through the camera devices 3505 and 3508) and includes at least one item for controlling the camera function in a second area (e.g., lower area). It can be displayed.

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 전자 장치(3500)의 그립 상태와 제2 면(3512) 또는 제4 면(3522)에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 및/또는 전자 장치(3500)의 그립 상태에 기반하여 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 보정된 센서 데이터들에 기반하여, 검출된 사용자 인터랙션의 타입, 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 may include sensor circuitry (e.g., sensor circuit 540 of Figure 5), such as an inertial sensor (e.g., inertial sensor 541 of Figure 5) and/or a grip sensor (e.g., Sensor information can be obtained through the grip sensor 543 in FIG. 5. Based on the sensor information acquired through the sensor circuit 540, the processor 550 controls the posture of the electronic device 3500, the movement of the electronic device 3500, the grip state of the electronic device 3500, and the second surface 3512. ) or user interaction can be detected on the fourth side 3522. The processor 550 corrects sensor data of user interaction detected based on the posture of the electronic device 3500, the movement of the electronic device 3500, and/or the grip state of the electronic device 3500, and corrects the sensor data. Based on these, the type of user interaction detected and/or location information where the user interaction was detected can be confirmed.

일 실시예에서, 프로세서(550)는 참조번호 <3830>에 도시된 바와 같이, 전자 장치(3500)의 제2 면(3512)의 일부 영역에서 사용자 인터랙션(3835)을 검출할 수 있다.In one embodiment, the processor 550 may detect user interaction 3835 in a partial area of the second side 3512 of the electronic device 3500, as shown by reference numeral <3830>.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3835)의 타입 및 사용자 인터랙션(3835)이 검출된 위치 정보에 기반하여, 제1 디스플레이(3530)에 표시된 카메라 어플리케이션 화면의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 may change the display properties of the camera application screen displayed on the first display 3530 based on the type of user interaction 3835 and the location information where the user interaction 3835 was detected. .

다양한 실시예들에 따른 도 38에서, 사용자 인터랙션(3835)의 타입은 더블 탭으로 가정하고, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭이 검출되는 것에 기반하여, 표시 영역(예: 윈도우)을 변경하는 것으로 가정하여 설명하도록 한다.38 according to various embodiments, it is assumed that the type of user interaction 3835 is a double tap, and based on the double tap being detected on the second side 3512 of the first housing 3510, the display area ( (Example: Windows) will be explained assuming that the window is being changed.

일 실시예에서, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭(3835)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3850>에 도시된 바와 같이, 제1 디스플레이(3530)의 제1 영역(예: 상측 영역)에 카메라 기능을 제어하기 위한 적어도 하나의 아이템을 포함하는 화면(3820)을 표시하고, 제2 영역(예: 하측 영역)에 카메라(예: 도 35a 및 도 35b의 카메라 장치(3505, 3508))를 통해 획득되는 프리뷰 이미지(3815)을 표시할 수 있다. In one embodiment, based on detecting a double tap 3835 on the second side 3512 of the first housing 3510, the processor 550 displays the first display, as shown at 3850 . A screen 3820 including at least one item for controlling a camera function is displayed in a first area (e.g., upper area) of 3530, and a camera (e.g., A preview image 3815 acquired through the camera devices 3505 and 3508 of FIGS. 35A and 35B may be displayed.

도 39는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(3900)이다.FIG. 39 is a diagram 3900 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

도 39를 참조하면, 참조번호 <3910>에 도시된 바와 같이, 전자 장치(예: 도 35a의 전자 장치(3500))가 펼침 상태(예: 도 35a 및 도 35b의 상태)에서, 제1 디스플레이(예: 도 35a의 제1 디스플레이(3530))의 제1 영역(예: 상측 영역)에 어플리케이션 A의 제1 정보(3815)를 표시하고, 제2 영역(예: 하측 영역)에 어플리케이션 B의 제2 정보(3820)를 표시할 수 있다.Referring to FIG. 39, as shown by reference number <3910>, when the electronic device (e.g., the electronic device 3500 in FIG. 35A) is in an unfolded state (e.g., the state in FIGS. 35A and 35B), the first display The first information 3815 of application A is displayed in the first area (e.g., upper area) of the first display 3530 in FIG. 35A, and the first information 3815 of application B is displayed in the second area (e.g., lower area). Second information 3820 can be displayed.

일 실시예에서, 프로세서(550)는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 전자 장치(3500)의 그립 상태와 제2 면(예: 도 35b의 제2 면(3512)) 또는 제4 면(예: 도 35b의 제4 면(3522))에서 사용자 인터랙션을 검출할 수 있다. 프로세서(550)는 전자 장치(3500)의 자세, 전자 장치(3500)의 움직임, 및/또는 전자 장치(3500)의 그립 상태에 기반하여 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 보정된 센서 데이터들에 기반하여 검출된 사용자 인터랙션의 타입, 및/또는 사용자 인터랙션이 검출된 위치 정보를 확인할 수 있다. In one embodiment, the processor 550 may include sensor circuitry (e.g., sensor circuit 540 of Figure 5), such as an inertial sensor (e.g., inertial sensor 541 of Figure 5) and/or a grip sensor (e.g., Sensor information can be obtained through the grip sensor 543 in FIG. 5. Based on the sensor information acquired through the sensor circuit 540, the processor 550 controls the posture of the electronic device 3500, the movement of the electronic device 3500, the grip state of the electronic device 3500, and the second side (e.g. : User interaction can be detected on the second side 3512 in FIG. 35B) or the fourth side (e.g., the fourth side 3522 in FIG. 35B). The processor 550 corrects sensor data of user interaction detected based on the posture of the electronic device 3500, the movement of the electronic device 3500, and/or the grip state of the electronic device 3500, and corrects the sensor data. Based on these, the type of user interaction detected and/or location information where the user interaction was detected can be confirmed.

일 실시예에서, 프로세서(550)는 참조번호 <3920>에 도시된 바와 같이, 전자 장치(3500)의 제2 면(3512)의 일부 영역에서 사용자 인터랙션(3925)을 검출할 수 있다.In one embodiment, the processor 550 may detect user interaction 3925 in a partial area of the second side 3512 of the electronic device 3500, as shown by reference numeral <3920>.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(3925)의 타입 및 사용자 인터랙션(3925)이 검출된 위치 정보에 기반하여, 제1 디스플레이(3530)에 표시된 어플리케이션의 표시 속성을 변경할 수 있다.In one embodiment, the processor 550 may change the display properties of the application displayed on the first display 3530 based on the type of user interaction 3925 and location information where the user interaction 3925 was detected.

다양한 실시예들에 따른 도 39에서, 사용자 인터랙션(3925)의 타입은 더블 탭 또는 트리플 탭이고, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭 또는 트리플 탭이 검출되는 것에 기반하여, 어플리케이션의 정보가 표시되는 영역의 크기를 조정하는 것으로 가정하여 설명하도록 한다.39 according to various embodiments, the type of user interaction 3925 is a double tap or triple tap, and based on the double tap or triple tap being detected on the second side 3512 of the first housing 3510 , This will be explained assuming that the size of the area where application information is displayed is adjusted.

일 실시예에서, 제1 하우징(3510)의 제2 면(3512)에서 더블 탭(3925)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3930>에 도시된 바와 같이, 어플리케이션 A의 제1 정보(3815)를 표시하는 제1 영역(예: 상측 영역)의 크기를 제1 크기보다 작은 제2 크기로 조정하고, 어플리케이션 B의 제2 정보(3820)를 표시하는 제2 영역(예: 하측 영역)의 크기를 제1 크기보다 큰 제3 크기로 조정(3835)할 수 있다.In one embodiment, based on the double tap 3925 being detected on the second side 3512 of the first housing 3510, the processor 550, as shown by reference numeral <3930>, The size of the first area (e.g., upper area) displaying the first information 3815 is adjusted to a second size smaller than the first size, and the second area (e.g., upper area) displaying the second information 3820 of application B is adjusted to a second size smaller than the first size. : lower area) can be adjusted to a third size larger than the first size (3835).

일 실시예에서, 참조번호 <3940>에 도시된 바와 같이, 제1 하우징(3510)의 제2 면(3512)에서 트리플 탭(3945)이 검출되는 것에 기반하여, 프로세서(550)는 참조번호 <3950>에 도시된 바와 같이, 어플리케이션 A의 제1 정보(3815)를 표시하는 제1 영역(예: 상측 영역)의 크기를 제2 크기보다 큰 제1 크기로 조정하고, 어플리케이션 B의 제2 정보(3820)를 표시하는 제2 영역(예: 하측 영역)의 크기를 제3 크기보다 작은 제1 크기로 조정(3855)할 수 있다.In one embodiment, based on detection of a triple tap 3945 on the second side 3512 of the first housing 3510, as shown at <3940>, the processor 550 operates at <3940>. 3950>, the size of the first area (e.g., upper area) displaying the first information 3815 of application A is adjusted to a first size larger than the second size, and the second information 3815 of application B is adjusted to a first size larger than the second size. The size of the second area (e.g., lower area) displaying 3820 may be adjusted to a first size smaller than the third size (3855).

다양한 실시예들에 따른 도 2a 내지 도 39에서, 전자 장치를 폴더블 전자 장치(200, 3500)로 설명하였으나, 이에 한정하는 것은 아니다. 예를 들어, 전자 장치는 슬라이더블 전자 장치를 포함할 수 있다. 이와 관련하여, 후술하는 도 40a 및 도 40b에서 다양한 실시예들에 설명될 것이다.2A to 39 according to various embodiments, the electronic devices are described as foldable electronic devices 200 and 3500, but the electronic devices are not limited thereto. For example, the electronic device may include a slideable electronic device. In this regard, various embodiments will be described in FIGS. 40A and 40B described later.

도 40a 및 도 40b는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따라 화면을 제어하는 방법을 설명하기 위한 도면(4000, 4050)이다.FIGS. 40A and 40B are diagrams 4000 and 4050 for explaining a method of controlling a screen according to user interaction, according to an embodiment of the present disclosure.

다양한 실시예들에 따른 도 40a 및 도 40b에 도시된 전자 장치는 슬라이더블 전자 장치일 수 있다.The electronic devices shown in FIGS. 40A and 40B according to various embodiments may be slideable electronic devices.

도 40a 내지 도 40b에 도시된 전자 장치(4001)는, 도 1에 도시된 전자 장치(101), 도 2a 내지 도 4에 도시된 전자 장치(200), 도 5에 도시된 전자 장치(501), 또는 도 35a 내지 도 36b에 도시된 전자 장치(3500)와 적어도 일부가 유사하거나, 다른 실시예를 포함할 수 있다.The electronic device 4001 shown in FIGS. 40A to 40B includes the electronic device 101 shown in FIG. 1, the electronic device 200 shown in FIGS. 2A to 4, and the electronic device 501 shown in FIG. 5. , or may be at least partially similar to the electronic device 3500 shown in FIGS. 35A to 36B, or may include a different embodiment.

도 40a 및 도 40b를 참조하면, 전자 장치(4001)는 제1 하우징(4003)(예: 제1 하우징 구조, 이동부, 또는 슬라이드 하우징), 제1 하우징(4003)과 지정된 방향(예: ±y축 방향)으로 슬라이딩 가능하게 결합된 제2 하우징(4005)(예: 제2 하우징 구조, 고정부, 또는 베이스 하우징), 및 제1 하우징(4003)과 제2 하우징(4005)의 적어도 일부를 통해 지지받도록 배치된 플렉서블 디스플레이(flexible display)(4007)(예: expandable display 또는 stretchable display)를 포함할 수 있다. 한 실시예에 따르면, 전자 장치(4001)는 사용자에 의해 파지된 제2 하우징(4005)을 기준으로, 제1 하우징(4003)이 제1 방향(예: y축 방향)으로 인출되거나(slide-out), 제1 방향(예: y축 방향)과 반대인, 제2 방향(예: - y축 방향)으로 인입되도록(slide-in) 구성될 수 있다.Referring to FIGS. 40A and 40B, the electronic device 4001 includes a first housing 4003 (e.g., a first housing structure, a moving part, or a slide housing), and a direction (e.g., ± a second housing 4005 (e.g., a second housing structure, a fixing part, or a base housing) slidably coupled in the y-axis direction, and at least a portion of the first housing 4003 and the second housing 4005. It may include a flexible display 4007 (eg, expandable display or stretchable display) arranged to be supported through the display. According to one embodiment, the electronic device 4001 has the first housing 4003 pulled out in a first direction (e.g., y-axis direction) or (slide- out), and may be configured to slide in in a second direction (e.g., -y-axis direction), which is opposite to the first direction (e.g., y-axis direction).

일 실시예에서, 전자 장치(4001)는 참조번호 <4010>에 도시된 바와 같이, 인입 상태(slide-in state)일 수 있다. 예를 들어, 인입 상태는, 제1 하우징(4003)이 제2 하우징(4005)의 내부 공간에 인입된 상태를 의미할 수 있다.In one embodiment, the electronic device 4001 may be in a slide-in state, as shown by reference numeral <4010>. For example, the retracted state may mean a state in which the first housing 4003 is retracted into the internal space of the second housing 4005.

일 실시예에서, 전자 장치(4001)가 인입된 상태에서, 프로세서(예: 도 5의 프로세서(550))는 센서 회로(예: 도 5의 센서 회로(540)) 예를 들어, 관성 센서(예: 도 5의 관성 센서(541)) 및/또는 그립 센서(예: 도 5의 그립 센서(543))를 통해 센서 정보를 획득할 수 있다. 프로세서(550)는 센서 회로(540)를 통해 획득되는 센서 정보에 기반하여, 전자 장치(4001)의 그립 상태와 후면(4009)에서 사용자 인터랙션(4011)을 검출할 수 있다. 프로세서(550)는 전자 장치(4001)의 자세, 전자 장치(4001)의 움직임, 전자 장치(4001)의 그립 상태, 검출된 사용자 인터랙션(4011)의 타입, 및/또는 사용자 인터랙션(4011)이 검출된 위치 정보를 확인할 수 있다. In one embodiment, with the electronic device 4001 inserted, the processor (e.g., the processor 550 of FIG. 5) uses a sensor circuit (e.g., the sensor circuit 540 of FIG. 5), for example, an inertial sensor ( Sensor information may be obtained through an inertial sensor 541 in FIG. 5) and/or a grip sensor (e.g. grip sensor 543 in FIG. 5). The processor 550 may detect the grip state and user interaction 4011 on the back 4009 of the electronic device 4001 based on sensor information acquired through the sensor circuit 540. The processor 550 determines the posture of the electronic device 4001, the movement of the electronic device 4001, the grip state of the electronic device 4001, the type of user interaction 4011 detected, and/or the user interaction 4011 is detected. You can check the location information.

일 실시예에서, 프로세서(550)는 사용자 인터랙션(4011)의 타입 및 사용자 인터랙션(4011)이 검출된 위치 정보에 기반하여, 전자 장치(4001)의 상태를 변경할 수 있다.In one embodiment, the processor 550 may change the state of the electronic device 4001 based on the type of user interaction 4011 and location information where the user interaction 4011 was detected.

다양한 실시예들에 따른 도 40a 및 도 40b에서, 사용자 인터랙션(4011)의 타입은 더블 탭 또는 트리플 탭이고, 전자 장치(4001)의 후면(4009)에서 더블 탭 또는 트리플 탭이 검출되는 것에 기반하여, 전자 장치(4001)의 상태를 인입 상태에서 인출 상태(slide-out state)로 변경하거나, 또는 인출 상태에서 인입 상태로 변경하는 것으로 가정하여 설명하도록 한다. 하지만 이에 한정하는 것은 아니며, 사용자 인터랙션의 타입에 따라 수행될 수 있는 기능은 어플리케이션 종료 기능, 어플리케이션 재실행 기능, 화면 회전 기능, 풀 스크린으로 표시하는 기능, 어플리케이션 변경 기능, 또는 팝업창 표시 기능을 포함할 수 있다.40A and 40B according to various embodiments, the type of user interaction 4011 is a double tap or triple tap, and based on the double tap or triple tap being detected on the back 4009 of the electronic device 4001 , the description will be made assuming that the state of the electronic device 4001 is changed from the slide-out state to the slide-out state, or from the slide-out state to the slide-out state. However, it is not limited to this, and functions that can be performed depending on the type of user interaction may include an application termination function, an application relaunch function, a screen rotation function, a full screen display function, an application change function, or a pop-up window display function. there is.

일 실시예에서, 전자 장치(4001)의 후면(4009)에서 더블 탭(4011)이 검출되는 것에 기반하여, 프로세서(550)는 전자 장치(4001)를 인출 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 더블 탭(4011)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로부터 지정된 방향(예: y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4013)하도록 할 수 있다. 이에 따라, 참조번호 <4020>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 확장)될 수 있다.In one embodiment, based on a double tap 4011 being detected on the back 4009 of the electronic device 4001, the processor 550 may change the electronic device 4001 to the drawing state. For example, based on a double tap 4011 being detected on the rear 4009 of the electronic device 4001, the processor 550 moves from the second housing 4005 along a specified direction (e.g., y-axis direction). The first housing 4003 can be moved 4013 in a sliding manner. Accordingly, as shown by reference number <4020>, the display area of the flexible display 4007 may be varied (eg, expanded).

일 실시예에서, 프로세서(550)는 참조번호 <4020>에 도시된 바와 같이, 전자 장치(4001)의 후면(4009)에서 더블 탭(4021)이 검출되는 것에 기반하여, 전자 장치(4001)를 인출 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 더블 탭(4021)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로부터 지정된 방향(예: y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4023)하도록 할 수 있다. 이에 따라, 참조번호 <4030>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 확장)될 수 있다. In one embodiment, the processor 550 operates the electronic device 4001 based on detection of a double tap 4021 on the rear 4009 of the electronic device 4001, as shown by reference numeral <4020>. You can change it to withdrawal status. For example, based on a double tap 4021 being detected on the rear 4009 of the electronic device 4001, the processor 550 moves from the second housing 4005 along a specified direction (e.g., y-axis direction). The first housing 4003 can be moved 4023 in a sliding manner. Accordingly, as shown in reference numeral <4030>, the display area of the flexible display 4007 may be varied (eg, expanded).

일 실시예에서, 프로세서(550)는 참조번호 <4040>에 도시된 바와 같이, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4041)이 검출되는 것에 기반하여, 프로세서(550)는 전자 장치(4001)를 인입 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4041)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로 지정된 방향(예: -y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4043)하도록 할 수 있다. 이에 따라, 참조번호 <4050>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 축소)될 수 있다.In one embodiment, the processor 550, as shown by reference numeral <4040>, based on detecting a triple tap 4041 on the rear 4009 of the electronic device 4001, the processor 550 detects the electronic device 4001. Device 4001 can be changed to the lead-in state. For example, based on the triple tap 4041 being detected on the rear 4009 of the electronic device 4001, the processor 550 moves the second housing 4005 in a specified direction (e.g., -y-axis direction). Accordingly, the first housing 4003 can be moved 4043 in a sliding manner. Accordingly, as shown by reference number <4050>, the display area of the flexible display 4007 may be varied (eg, reduced).

일 실시예에서, 프로세서(550)는 참조번호 <4050>에 도시된 바와 같이, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4051)이 검출되는 것에 기반하여, 전자 장치(4001)를 인입 상태로 변경할 수 있다. 예를 들어, 전자 장치(4001)의 후면(4009)에서 트리플 탭(4051)이 검출되는 것에 기반하여, 프로세서(550)는 제2 하우징(4005)으로부터 지정된 방향(예: -y축 방향)을 따라 제1 하우징(4003)이 슬라이딩 방식으로 이동(4053)하도록 할 수 있다. 이에 따라, 참조번호 <4060>에 도시된 바와 같이, 플렉서블 디스플레이(4007)의 표시 면적은 가변(예: 축소)될 수 있다.In one embodiment, the processor 550 operates the electronic device 4001 based on detection of a triple tap 4051 on the rear 4009 of the electronic device 4001, as shown by reference numeral <4050>. It can be changed to the lead-in state. For example, based on the triple tap 4051 being detected on the rear 4009 of the electronic device 4001, the processor 550 moves in a specified direction (e.g., -y-axis direction) from the second housing 4005. Accordingly, the first housing 4003 can be moved 4053 in a sliding manner. Accordingly, as shown in reference numeral <4060>, the display area of the flexible display 4007 may be varied (eg, reduced).

도 41은, 본 개시의 일 실시예에 따른, 전자 장치(501)의 다양한 폼 팩터(form factor)를 설명하기 위한 도면(4100)이다.FIG. 41 is a diagram 4100 for explaining various form factors of the electronic device 501 according to an embodiment of the present disclosure.

다양한 실시예들에 따른 도 41은, 다양한 디스플레이 형태에 가지는 전자 장치(예: 도 5의 전자 장치(501))의 다양한 폼 팩터(form factor)의 예를 나타낸 도면이다.FIG. 41 according to various embodiments is a diagram illustrating examples of various form factors of an electronic device (eg, the electronic device 501 of FIG. 5) having various display types.

일 실시예에서, 전자 장치(501)는 폴더블(foldable)(4105 내지 4155)과 같은 다양한 폼 팩터를 포함할 수 있다.In one embodiment, the electronic device 501 may include various form factors, such as foldable (4105 to 4155).

일 실시예에서, 도 41에 도시된 바와 같이, 전자 장치(501)는 다양한 형태로 구현될 수 있고, 전자 장치(501)의 구현 형태에 따라 디스플레이(예: 도 5의 디스플레이(530))가 다양한 방식으로 제공될 수 있다. In one embodiment, as shown in FIG. 41, the electronic device 501 may be implemented in various forms, and depending on the implementation form of the electronic device 501, a display (e.g., display 530 of FIG. 5) may be implemented in various forms. It can be provided in a variety of ways.

일 실시예에서, 전자 장치(501)(예: 폴더블 전자 장치(4105 내지 4155))는 디스플레이(예: 도 5의 디스플레이(530))의 서로 다른 두 영역을 실질적으로 마주보게 또는 서로 반대 방향을 향하는(opposite to) 방향으로 접힘이 가능한 전자 장치를 의미할 수 있다. 일반적으로, 휴대 상태에서 전자 장치(501)(예: 폴더블 전자 장치(4105 내지 4155)의 디스플레이(예: 도 5의 디스플레이(530))는 서로 다른 두 영역이 마주보는 상태로 또는 대향하는 방향으로 접혀지고, 실제 사용 상태에서 사용자는 디스플레이를 펼쳐 서로 다른 두 영역이 실질적으로 평판 형태를 이루게 할 수 있다.In one embodiment, the electronic device 501 (e.g., foldable electronic devices 4105 to 4155) has two different areas of the display (e.g., display 530 of FIG. 5) substantially facing each other or in opposite directions. It may refer to an electronic device that can be folded in a direction facing (opposite to). Generally, in a portable state, the display of the electronic device 501 (e.g., the foldable electronic device 4105 to 4155 (e.g., the display 530 in FIG. 5) has two different areas facing each other or in opposing directions. It is folded, and in actual use, the user can unfold the display so that the two different areas practically form a flat panel.

일 실시예에서, 전자 장치(501)(예: 폴더블 장치(4105 내지 4155))는 하나의 폴딩 축에 기반하여 2개의 디스플레이 면(예: 제1 디스플레이 면 및 제2 디스플레이 면)을 포함하는 폼 팩터(예: 4115) 및/또는 적어도 2개의 폴딩 축에 기반하여 적어도 3개의 디스플레이 면(예: 제1 디스플레이 면, 제2 디스플레이 면 및 제3 디스플레이 면)을 포함하는 폼 팩터(예: 4105, 4110, 4120, 4125, 4130, 4135, 4140, 4145, 4150, 4155)를 포함할 수 있다.In one embodiment, the electronic device 501 (e.g., foldable devices 4105 to 4155) includes two display surfaces (e.g., a first display surface and a second display surface) based on one folding axis. A form factor (e.g., 4115) and/or a form factor that includes at least three display faces (e.g., a first display face, a second display face, and a third display face) based on at least two folding axes (e.g., 4105) , 4110, 4120, 4125, 4130, 4135, 4140, 4145, 4150, 4155).

다양한 실시예들이 이에 한정되는 것은 아니며, 전자 장치(501)가 가질 수 있는 폴딩 축들의 수는 제한하지 않는다. 일 실시예에 따르면, 전자 장치(501)는 구현 형태에 따라 디스플레이(예: 도 5의 디스플레이(530))가 다양한 방식(예: 인-폴딩(in-folding), 아웃-폴딩(out-folding), 또는 인/아웃 폴딩)으로 폴딩 또는 언폴딩 될 수 있다.The various embodiments are not limited to this, and the number of folding axes that the electronic device 501 can have is not limited. According to one embodiment, the electronic device 501 displays (e.g., the display 530 of FIG. 5) depending on the implementation type in various ways (e.g., in-folding, out-folding). ), or in/out folding).

도 42는, 본 개시의 일 실시예에 따른, 사용자 인터랙션에 따른 기능을 설정하는 방법을 설명하기 위한 도면(4200)이다.FIG. 42 is a diagram 4200 for explaining a method of setting a function according to user interaction, according to an embodiment of the present disclosure.

도 42를 참조하면, 프로세서(예: 도 5의 프로세서(550))는 전자 장치(예: 도 5의 전자 장치(501))가 펼침 상태에서, 사용자 인터랙션에 따른 기능을 설정하기 위한 입력을 검출할 수 있다. 예를 들어, 사용자 인터랙션에 따른 기능을 설정하기 위한 입력은, 사용자 인터랙션에 따른 기능을 설정할 수 있는 아이템을 선택하는 입력 및/또는 지정된 입력(예: 지정된 제스처 또는 사용자 인터랙션에 따른 기능을 설정하기 위해 매핑된 지정된 입력 모듈(예: 도 1의 입력 모듈(150))에서 검출되는 입력)을 포함할 수 있다.Referring to FIG. 42, the processor (e.g., processor 550 of FIG. 5) detects an input for setting a function according to user interaction while the electronic device (e.g., electronic device 501 of FIG. 5) is in an unfolded state. can do. For example, the input for setting a function according to user interaction includes an input for selecting an item that can set a function according to user interaction and/or a designated input (e.g., to set a function according to a specified gesture or user interaction) It may include a mapped specified input module (e.g., input detected from the input module 150 of FIG. 1).

일 실시예에서, 사용자 인터랙션에 따른 기능을 설정하기 위한 입력을 검출하는 것에 기반하여, 프로세서(550)는 참조번호 <4210>에 도시된 바와 같이, 제1 디스플레이(예: 도 5의 제1 디스플레이(531))에 사용자 인터랙션에 따른 기능을 설정하기 위한 제1 화면(또는 제1 사용자 인터페이스)을 표시할 수 있다. 제1 화면은, 더블 탭에 따른 기능을 설정할 수 있는 제1 아이템(4211)과 트리플 탭에 따른 기능을 설정할 수 있는 제2 아이템(4213)을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다. 예를 들어, 프로세서(550)는 더블 탭 또는 트리플 탭 외 다른 사용자 인터랙션에 따른 기능을 설정할 수 있는 아이템을 더 표시할 수 있다.In one embodiment, based on detecting an input for setting a function according to user interaction, the processor 550 displays the first display (e.g., the first display in FIG. 5 ), as shown by reference numeral <4210>. A first screen (or first user interface) for setting functions according to user interaction may be displayed at (531)). The first screen may include a first item 4211 that can set a function according to a double tap and a second item 4213 that can set a function according to a triple tap. However, it is not limited to this. For example, the processor 550 may display additional items that can set functions according to user interactions other than double tap or triple tap.

일 실시예에서, 프로세서(550)는 제1 화면에서 제1 아이템(4211) 또는 제2 아이템(4213)을 선택하는 입력을 검출할 수 있다. 제1 아이템(4211) 또는 제2 아이템(4213) 중 하나를 선택하는 입력을 검출하는 것에 기반하여, 프로세서(550)는 참조번호 <4250>에 도시된 바와 같이, 설정할 수 있는 기능들의 리스트를 포함하는 제2 화면(또는 제2 사용자 인터페이스)를 표시할 수 있다. 예를 들어, 기능들의 리스트는, 기능을 설정하지 않은 메뉴(4251), 윈도우 닫기 기능(4252), 윈도우 복원 기능(4253), 풀 스크린 표시 기능(4254), 손전등 켜기 기능(4255), 자동 회전 켜기 기능(4256), 모든 음소거 켜기 기능(4257), 윈도우 회전 기능(4258), 및/또는 앱 실행 기능(4259)을 포함할 수 있다. 하지만 이에 한정하는 것은 아니다.In one embodiment, the processor 550 may detect an input for selecting the first item 4211 or the second item 4213 on the first screen. Based on detecting an input that selects either the first item 4211 or the second item 4213, the processor 550 includes a list of functions that can be set, as shown by reference numeral <4250>. A second screen (or second user interface) may be displayed. For example, the list of functions includes menu with no function set (4251), window closing function (4252), window restoration function (4253), full screen display function (4254), flashlight on function (4255), and auto rotation. It may include a turn on function 4256, a turn on all mutes function 4257, a window rotation function 4258, and/or an app launch function 4259. However, it is not limited to this.

다양한 실시예들에 따른 전자 장치(501)는 제1 디스플레이(531) 또는 제2 디스플레이(533)를 이용한 직접적인 사용자 입력(예: 터치 입력) 외, 전자 장치(501)의 후면에서 검출되는 사용자 인터랙션에 기반하여 디스플레이에 표시된 어플리케이션의 정보의 표시 속성을 변경하여 표시함으로써, 사용자에게 편리한 사용성을 제공할 수 있다.The electronic device 501 according to various embodiments includes direct user input (e.g., touch input) using the first display 531 or the second display 533, as well as user interaction detected from the rear of the electronic device 501. Based on this, it is possible to provide convenient usability to the user by changing and displaying the display properties of the information of the application displayed on the display.

본 개시의 일 실시예에 따른 전자 장치(501)의 사용자 인터랙션에 따른 화면 제어 방법은, 제1 어플리케이션의 제1 정보를 제1 디스플레이(531)에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 제2 어플리케이션을 실행하는 입력에 응답하여, 제2 어플리케이션의 제2 정보와 제1 어플리케이션의 제1 정보를 멀티 윈도우로 제1 디스플레이(531)에 표시하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 센서 회로(540)를 통해 센서 정보를 획득하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 센서 회로(540)를 통해 획득된 센서 정보에 기반하여, 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션에 따른 화면 제어 방법은, 변경된 표시 속성에 기반하여, 제1 정보 및 제2 정보 중 적어도 하나의 정보를 제1 디스플레이(531)에 표시하는 동작을 포함할 수 있다.A screen control method according to user interaction of the electronic device 501 according to an embodiment of the present disclosure may include displaying first information of the first application on the first display 531. In one embodiment, the screen control method according to user interaction includes displaying the second information of the second application and the first information of the first application in a multi-window in response to an input for executing a second application. It may include actions displayed in . In one embodiment, a screen control method based on user interaction may include acquiring sensor information through the sensor circuit 540. In one embodiment, a screen control method according to user interaction is performed on the second side 212 or the fourth side 222 of the electronic device 501 based on sensor information acquired through the sensor circuit 540. If it is confirmed that user interaction is detected, the operation may include checking the type of user interaction and the location information where the user interaction was detected. In one embodiment, a screen control method according to user interaction includes displaying at least one of first information of a first application and second information of a second application, based on the type of user interaction and location information where the user interaction was detected. Can include actions that change properties. In one embodiment, a screen control method according to user interaction may include displaying at least one of first information and second information on the first display 531 based on changed display properties.

일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 획득된 센서 정보에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 보정된 센서 데이터들에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다.In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected may include correcting sensor data of the detected user interaction based on the obtained sensor information. In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected includes confirming the type of user interaction and the location information where the user interaction was detected based on the corrected sensor data. can do.

일 실시예에서, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작은, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보에 기반하여, 제1 어플리케이션의 제1 정보 및 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 윈도우의 배열 중 적어도 하나를 포함하는 표시 속성을 변경하는 동작을 포함할 수 있다.In one embodiment, the operation of changing the display attribute of at least one of the first information of the first application and the second information of the second application is based on the type of user interaction and location information at which the user interaction was detected, An operation of changing display properties including at least one of the size and arrangement of windows in the display area of the first display 531 for displaying at least one of the first information of the application and the second information of the second application. It can be included.

일 실시예에서, 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함할 수 있다.In one embodiment, the sensor circuit 540 may include at least one of an inertial sensor 541 and a grip sensor 543.

일 실시예에서, 센서 회로(540)를 통해 획득되는 센서 정보는, 관성 센서(541)를 통해 획득되는 제1 센서 정보, 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the sensor information acquired through the sensor circuit 540 includes first sensor information obtained through the inertial sensor 541, second sensor information obtained through the grip sensor 543, and fourth surface It may include at least one of third sensor information acquired through a touch circuit of the second display 533 that is disposed to be at least partially visible from the outside through 222 .

일 실시예에서, 제1 센서 정보는, 전자 장치(501)의 자세와 관련된 센서 정보 및 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함할 수 있다.In one embodiment, the first sensor information may include at least one of sensor information related to the posture of the electronic device 501 and sensor information related to the movement of the electronic device 501.

일 실시예에서, 제2 센서 정보는, 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함할 수 있다.In one embodiment, the second sensor information may include at least one of the grip state and grip pattern of the electronic device 501.

일 실시예에서, 제3 센서 정보는, 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함할 수 있다.In one embodiment, the third sensor information may include touch information acquired through the touch circuit of the second display 533.

일 실시예에서, 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작은, 제1 센서 정보, 제2 센서 정보, 및 제3 센서 정보 중 적어도 하나에 기반하여, 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작을 포함할 수 있다.In one embodiment, the operation of correcting the sensor data of the detected user interaction includes correcting the sensor data of the detected user interaction based on at least one of first sensor information, second sensor information, and third sensor information. Can include actions.

일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 센서 회로(540)를 통해 획득되는 센서 정보 및 센서 정보에 기반하여 확인된 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 메모리(520)에 누적하여 저장하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 저장된 센서 정보 및 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 학습에 의해 생성된 모델에 기반하여, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함할 수 있다.In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected includes sensor information acquired through the sensor circuit 540 and the type of user interaction and user interaction confirmed based on the sensor information. An operation of accumulating and storing the detected location information in the memory 520 may be included. In one embodiment, the operation of checking the type of user interaction and the location information where the user interaction is detected includes learning the stored sensor information and the location information where the user interaction is detected based on the stored sensor information using an artificial intelligence method. Can include actions. In one embodiment, the operation of checking the type of user interaction and the location information where the user interaction was detected includes checking the type of user interaction and the location information where the user interaction was detected based on the model generated by learning. It can be included.

일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 센서 회로(540)를 통해 획득되는 센서 정보를 무선 통신 회로(510)를 통해 서버에 전송하는 동작을 포함할 수 있다. 일 실시예에서, 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은, 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 확인하는 동작을 포함할 수 있다.In one embodiment, the operation of confirming the type of user interaction and the location information where the user interaction was detected includes transmitting sensor information obtained through the sensor circuit 540 to a server through the wireless communication circuit 510. can do. In one embodiment, the operation of checking the type of user interaction and the location information where the user interaction was detected is performed by receiving a learning model learned through machine learning learning by artificial intelligence from a server and detecting the type of user interaction and the location information where the user interaction was detected. It may include an operation to check location information.

본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be of various types. Electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliances. Electronic devices according to embodiments of this document are not limited to the above-described devices.

본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the above items, unless the relevant context clearly indicates otherwise. As used herein, “A or B”, “at least one of A and B”, “at least one of A or B”, “A, B or C”, “at least one of A, B and C”, and “A Each of phrases such as “at least one of , B, or C” may include any one of the items listed together in the corresponding phrase, or any possible combination thereof. Terms such as "first", "second", or "first" or "second" may be used simply to distinguish one element from another, and may be used to distinguish such elements in other respects, such as importance or order) is not limited. One (e.g. first) component is said to be "coupled" or "connected" to another (e.g. second) component, with or without the terms "functionally" or "communicatively". When mentioned, it means that any of the components can be connected to the other components directly (e.g. wired), wirelessly, or through a third component.

본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in various embodiments of this document may include a unit implemented in hardware, software, or firmware, and is interchangeable with terms such as logic, logic block, component, or circuit, for example. It can be used as A module may be an integrated part or a minimum unit of the parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).

본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document are one or more instructions stored in a storage medium (e.g., built-in memory 136 or external memory 138) that can be read by a machine (e.g., electronic device 101). It may be implemented as software (e.g., program 140) including these. For example, a processor (e.g., processor 120) of a device (e.g., electronic device 101) may call at least one command among one or more commands stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to the at least one instruction called. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium. There is no distinction between temporary storage cases.

일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store TM ) or on two user devices (e.g. It can be distributed (e.g. downloaded or uploaded) directly between smart phones) or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as the memory of a manufacturer's server, an application store's server, or a relay server.

다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., module or program) of the above-described components may include a single or plural entity, and some of the plurality of entities may be separately placed in other components. there is. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, or omitted. Alternatively, one or more other operations may be added.

210: 제1 하우징 220: 제2 하우징
320: 힌지 모듈 501: 전자 장치
510: 무선 통신 회로 520: 메모리
530: 디스플레이 531: 제1 디스플레이
533: 제2 디스플레이 540: 센서 회로
541: 관성 센서 543: 그립 센서
550: 프로세서
210: first housing 220: second housing
320: Hinge module 501: Electronic device
510: wireless communication circuit 520: memory
530: display 531: first display
533: second display 540: sensor circuit
541: Inertial sensor 543: Grip sensor
550: processor

Claims (20)

전자 장치(501)에 있어서,
제1 면(211), 상기 제1 면(211)과 반대 방향으로 향하는 제2 면(212), 및 상기 제1 면(211)과 상기 제2 면(212) 사이의 제1 공간을 둘러싸는 제1 측면 부재(213)를 포함하는 제1 하우징(210);
힌지 구조(320)를 이용하여 상기 제1 하우징(210)과 폴딩축을 기준으로 접힘 가능하게 연결되고, 펼침 상태에서, 상기 제1 면(211)과 동일한 방향을 향하는 제3 면(221), 상기 제3 면(221)과 반대 방향을 향하는 제4 면(222), 및 상기 제3 면(221)과 상기 제4 면(222) 사이의 제2 공간을 둘러싸는 제2 측면 부재(223)을 포함하는 제2 하우징(220);
상기 제1 면(211)의 적어도 일부로부터 상기 제3 면(221)의 적어도 일부에 배치되는 제1 디스플레이(531);
센서 회로(540); 및
상기 제1 디스플레이(531) 및 상기 센서 회로(540)와 작동적으로 연결된 프로세서(550)를 포함하고,
상기 프로세서(550)는,
제1 어플리케이션의 제1 정보를 상기 제1 디스플레이(531)에 표시하고,
제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이(531)에 표시하고,
상기 센서 회로(540)를 통해 센서 정보를 획득하고,
상기 획득된 센서 정보에 기반하여, 상기 제2 면(212) 또는 상기 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하고,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하고, 및
상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이(531)에 표시하도록 설정된 전자 장치.
In the electronic device 501,
surrounding a first face 211, a second face 212 facing in the opposite direction to the first face 211, and a first space between the first face 211 and the second face 212. A first housing 210 including a first side member 213;
A third surface 221 that is foldably connected to the first housing 210 using a hinge structure 320 and faces the same direction as the first surface 211 in the unfolded state, a fourth side 222 facing in the opposite direction to the third side 221, and a second side member 223 surrounding a second space between the third side 221 and the fourth side 222. A second housing 220 including;
a first display 531 disposed from at least a portion of the first side 211 to at least a portion of the third side 221;
sensor circuit 540; and
Comprising a processor 550 operatively connected to the first display 531 and the sensor circuit 540,
The processor 550,
Displaying first information of a first application on the first display 531,
In response to an input for executing a second application, displaying second information of the second application and first information of the first application in a multi-window on the first display 531,
Obtaining sensor information through the sensor circuit 540,
Based on the obtained sensor information, if it is confirmed that user interaction is detected on the second side 212 or the fourth side 222, information on the type of user interaction and the location where the user interaction was detected is provided. Check,
Based on the type of user interaction and the location information where the user interaction was detected, changing the display attribute of at least one of the first information of the first application and the second information of the second application, and
An electronic device configured to display at least one of the first information and the second information on the first display 531 based on the changed display properties.
제 1 항에 있어서,
상기 프로세서(550)는,
상기 획득된 센서 정보에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하고, 및
상기 보정된 센서 데이터들에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하도록 설정된 전자 장치.
According to claim 1,
The processor 550,
Based on the obtained sensor information, correct the sensor data of the detected user interaction, and
An electronic device configured to confirm the type of user interaction and location information where the user interaction was detected, based on the corrected sensor data.
제 1 항 또는 제 2 항에 있어서,
상기 프로세서(550)는,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 상기 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 상기 윈도우의 배열 중 적어도 하나를 포함하는 상기 표시 속성을 변경하도록 설정된 전자 장치.
The method of claim 1 or 2,
The processor 550,
The first display 531 for displaying at least one of first information of the first application and second information of the second application based on the type of user interaction and the location information at which the user interaction was detected. An electronic device configured to change the display properties including at least one of a size of a window in a display area and an arrangement of the window.
제 1 항 내지 제 3 항 중 어느 한 항에 있어서,
상기 제2 하우징(220)의 내부 공간에서 상기 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)를 더 포함하고,
상기 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함하는 전자 장치.
The method according to any one of claims 1 to 3,
It further includes a second display 533 arranged to be at least partially visible from the outside through the fourth surface 222 in the inner space of the second housing 220,
The sensor circuit 540 is an electronic device including at least one of an inertial sensor 541 and a grip sensor 543.
제 4 항에 있어서,
상기 센서 정보는, 상기 관성 센서(541)를 통해 획득되는 제1 센서 정보, 상기 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 상기 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함하는 전자 장치.
According to claim 4,
The sensor information includes first sensor information obtained through the inertial sensor 541, second sensor information obtained through the grip sensor 543, and a touch circuit of the second display 533. An electronic device including at least one of third sensor information.
제 5 항에 있어서,
상기 제1 센서 정보는, 상기 전자 장치(501)의 자세와 관련된 센서 정보 및 상기 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함하고, 및
상기 제2 센서 정보는, 상기 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함하는 전자 장치.
According to claim 5,
The first sensor information includes at least one of sensor information related to the posture of the electronic device 501 and sensor information related to the movement of the electronic device 501, and
The second sensor information includes at least one of a grip state and a grip pattern of the electronic device 501.
제 5 항 또는 제 6 항에 있어서,
상기 제3 센서 정보는, 상기 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함하는 전자 장치.
The method of claim 5 or 6,
The third sensor information includes touch information obtained through a touch circuit of the second display 533.
제 5 항 내지 제 7 항 중 어느 한 항에 있어서,
상기 프로세서(550)는,
상기 제1 센서 정보, 상기 제2 센서 정보, 및 상기 제3 센서 정보 중 적어도 하나에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하도록 설정된 전자 장치.
According to any one of claims 5 to 7,
The processor 550,
An electronic device configured to correct sensor data of the detected user interaction based on at least one of the first sensor information, the second sensor information, and the third sensor information.
제 1 항에 있어서,
메모리(520)를 더 포함하고,
상기 프로세서(550)는,
상기 센서 회로(540)를 통해 획득되는 센서 정보 및 상기 센서 정보에 기반하여 확인된 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 상기 메모리(520)에 누적하여 저장하고,
상기 저장된 센서 정보 및 상기 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하고, 및
상기 학습에 의해 생성된 모델에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하도록 설정된 전자 장치.
According to claim 1,
Further comprising a memory 520,
The processor 550,
Accumulating and storing sensor information acquired through the sensor circuit 540, the type of user interaction confirmed based on the sensor information, and location information where the user interaction is detected in the memory 520,
Learning the stored sensor information and the type of user interaction based on the sensor information and the location information where the user interaction is detected using artificial intelligence, and
An electronic device configured to confirm the type of user interaction and location information where the user interaction was detected, based on the model generated through the learning.
제 1 항에 있어서,
무선 통신 회로(510)를 더 포함하고,
상기 프로세서(550)는,
상기 센서 회로(540)를 통해 획득되는 센서 정보를 상기 무선 통신 회로(510)를 통해 서버에 전송하고, 및
상기 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 확인하도록 설정된 전자 장치.
According to claim 1,
Further comprising a wireless communication circuit 510,
The processor 550,
Transmitting sensor information obtained through the sensor circuit 540 to a server through the wireless communication circuit 510, and
An electronic device configured to receive a learning model learned through machine learning by artificial intelligence from the server and confirm the type of user interaction and location information where the user interaction is detected.
전자 장치(501)의 사용자 인터랙션에 따른 화면 제어 방법에 있어서,
제1 어플리케이션의 제1 정보를 제1 디스플레이(531)에 표시하는 동작;
제2 어플리케이션을 실행하는 입력에 응답하여, 상기 제2 어플리케이션의 제2 정보와 상기 제1 어플리케이션의 제1 정보를 멀티 윈도우로 상기 제1 디스플레이(531)에 표시하는 동작;
센서 회로(540)를 통해 센서 정보를 획득하는 동작;
상기 획득된 센서 정보에 기반하여, 상기 전자 장치(501)의 제2 면(212) 또는 제4 면(222)에서의 사용자 인터랙션이 검출되는 것으로 확인되면, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작;
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나의 표시 속성을 변경하는 동작; 및
상기 변경된 표시 속성에 기반하여, 상기 제1 정보 및 상기 제2 정보 중 적어도 하나의 정보를 상기 제1 디스플레이(531)에 표시하는 동작을 포함하는 방법.
In the screen control method according to user interaction of the electronic device 501,
An operation of displaying first information of a first application on the first display 531;
In response to an input for executing a second application, displaying second information of the second application and first information of the first application in a multi-window on the first display 531;
Obtaining sensor information through the sensor circuit 540;
Based on the acquired sensor information, if it is confirmed that user interaction is detected on the second side 212 or the fourth side 222 of the electronic device 501, the type of user interaction and the user interaction are determined. An operation to check detected location information;
changing a display attribute of at least one of first information of the first application and second information of the second application based on the type of the user interaction and the location information at which the user interaction was detected; and
A method comprising displaying at least one of the first information and the second information on the first display 531 based on the changed display properties.
제 11 항에 있어서,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은,
상기 획득된 센서 정보에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작; 및
상기 보정된 센서 데이터들에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함하는 방법.
According to claim 11,
The operation of confirming the type of user interaction and the location information where the user interaction was detected,
An operation of correcting sensor data of the detected user interaction based on the acquired sensor information; and
Based on the corrected sensor data, the method includes confirming the type of user interaction and location information where the user interaction was detected.
제 11 항 또는 제 12 항에 있어서,
상기 적어도 하나의 표시 속성을 변경하는 동작은,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보에 기반하여, 상기 제1 어플리케이션의 제1 정보 및 상기 제2 어플리케이션의 제2 정보 중 적어도 하나를 표시하기 위한 상기 제1 디스플레이(531)의 표시 영역 내 윈도우의 크기 및 상기 윈도우의 배열 중 적어도 하나를 포함하는 상기 표시 속성을 변경하는 동작을 포함하는 방법.
The method of claim 11 or 12,
The operation of changing the at least one display property includes:
The first display 531 for displaying at least one of first information of the first application and second information of the second application based on the type of user interaction and the location information at which the user interaction was detected. A method comprising changing the display properties including at least one of a size of a window in a display area and an arrangement of the window.
제 11 항 내지 제 13 항 중 어느 한 항에 있어서,
상기 센서 회로(540)는, 관성 센서(541) 및 그립 센서(543) 중 적어도 하나를 포함하는 방법.
The method according to any one of claims 11 to 13,
The sensor circuit 540 includes at least one of an inertial sensor 541 and a grip sensor 543.
제 14 항에 있어서,
상기 센서 정보는, 상기 관성 센서(541)를 통해 획득되는 제1 센서 정보, 상기 그립 센서(543)를 통해 획득되는 제2 센서 정보, 및 상기 제4 면(222)을 통해 적어도 부분적으로 외부로부터 보일 수 있게 배치되는 제2 디스플레이(533)의 터치 회로를 통해 획득되는 제3 센서 정보 중 적어도 하나를 포함하는 방법.
According to claim 14,
The sensor information includes first sensor information acquired through the inertial sensor 541, second sensor information acquired through the grip sensor 543, and at least partially from the outside through the fourth surface 222. A method including at least one of third sensor information acquired through a touch circuit of a second display 533 that is arranged to be visible.
제 15 항에 있어서,
상기 제1 센서 정보는, 상기 전자 장치(501)의 자세와 관련된 센서 정보 및 상기 전자 장치(501)의 움직임과 관련된 센서 정보 중 적어도 하나를 포함하고, 및
상기 제2 센서 정보는, 상기 전자 장치(501)의 그립 상태 및 그립 패턴 중 적어도 하나를 포함하는 방법.
According to claim 15,
The first sensor information includes at least one of sensor information related to the posture of the electronic device 501 and sensor information related to the movement of the electronic device 501, and
The second sensor information includes at least one of a grip state and a grip pattern of the electronic device 501.
제 15 항 또는 제 16 항에 있어서,
상기 제3 센서 정보는, 상기 제2 디스플레이(533)의 터치 회로를 통해 획득되는 터치 정보를 포함하는 방법.
The method of claim 15 or 16,
The third sensor information includes touch information obtained through a touch circuit of the second display (533).
제 15 항 내지 제 17 항 중 어느 한 항에 있어서,
상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작은,
상기 제1 센서 정보, 상기 제2 센서 정보, 및 상기 제3 센서 정보 중 적어도 하나에 기반하여, 상기 검출된 사용자 인터랙션의 센서 데이터들을 보정하는 동작을 포함하는 방법.
The method according to any one of claims 15 to 17,
The operation of correcting the sensor data of the detected user interaction is,
A method comprising correcting sensor data of the detected user interaction based on at least one of the first sensor information, the second sensor information, and the third sensor information.
제 11 항에 있어서,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은,
상기 센서 회로(540)를 통해 획득되는 센서 정보 및 상기 센서 정보에 기반하여 확인된 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 메모리(520)에 누적하여 저장하는 동작;
상기 저장된 센서 정보 및 상기 센서 정보에 기반한 사용자 인터랙션의 타입 및 사용자 인터랙션이 검출되는 위치 정보를 인공지능 방식으로 학습하는 동작; 및
상기 학습에 의해 생성된 모델에 기반하여, 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작을 포함하는 방법.
According to claim 11,
The operation of confirming the type of user interaction and the location information where the user interaction was detected,
Accumulating and storing sensor information acquired through the sensor circuit 540, the type of user interaction confirmed based on the sensor information, and location information where the user interaction is detected in the memory 520;
An operation of learning the stored sensor information, a type of user interaction based on the sensor information, and location information where user interaction is detected using an artificial intelligence method; and
A method comprising confirming the type of user interaction and location information where the user interaction was detected, based on the model generated by the learning.
제 11 항에 있어서,
상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출된 위치 정보를 확인하는 동작은,
상기 센서 회로(540)를 통해 획득되는 센서 정보를 무선 통신 회로(510)를 통해 서버에 전송하는 동작; 및
상기 서버로부터 인공지능에 의해 머신러닝 학습으로 학습된 학습 모델을 수신하여 상기 사용자 인터랙션의 타입 및 상기 사용자 인터랙션이 검출되는 위치 정보를 확인하는 동작을 포함하는 방법.
According to claim 11,
The operation of confirming the type of user interaction and the location information where the user interaction was detected,
An operation of transmitting sensor information obtained through the sensor circuit 540 to a server through a wireless communication circuit 510; and
A method comprising receiving a learning model learned through machine learning by artificial intelligence from the server and confirming the type of user interaction and location information where the user interaction is detected.
KR1020220179504A 2022-10-11 2022-12-20 Electronic device and method for controlling screen according to user interaction using the same KR20240050225A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/KR2023/014270 WO2024080611A1 (en) 2022-10-11 2023-09-20 Electronic device and method for controlling screen according to user interaction by using same
US18/384,236 US20240121335A1 (en) 2022-10-11 2023-10-26 Electronic device and method for controlling screen according to user interaction using the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220130033 2022-10-11
KR20220130033 2022-10-11

Publications (1)

Publication Number Publication Date
KR20240050225A true KR20240050225A (en) 2024-04-18

Family

ID=90844504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220179504A KR20240050225A (en) 2022-10-11 2022-12-20 Electronic device and method for controlling screen according to user interaction using the same

Country Status (1)

Country Link
KR (1) KR20240050225A (en)

Similar Documents

Publication Publication Date Title
KR102247663B1 (en) Method of controlling display and electronic device supporting the same
KR20220008742A (en) Electronic apparatus and method with a flexible display
KR20220079379A (en) Electronic device including stretchable display
KR20220083093A (en) Electronic device and method for controlling display direction according to changing of folding state
KR20220017078A (en) Foldable electronic device for controlling screen rotation and operating method thereof
US20230122806A1 (en) Electronic device for moving position of visual object located in folding area and method for controlling same
EP4286979A1 (en) Electronic device comprising speaker structure
KR20240050225A (en) Electronic device and method for controlling screen according to user interaction using the same
KR20220077363A (en) Electronic device including air vent
US20240121335A1 (en) Electronic device and method for controlling screen according to user interaction using the same
KR20220118196A (en) Call function control method and electronic device supporting the same
KR20220026774A (en) Electronic device for adjusting position of external device and operating method thereof
EP4372519A1 (en) Electronic device and method for detecting whether cover unit is attached thereto
KR20240021081A (en) Electronic device and method for displaying screen according to changing of folding state using the same
US20240172852A1 (en) Cover of electronic device
AU2022211949B2 (en) Electronic device comprising flexible display, and method for controlling same
EP4358074A1 (en) Flexible display and electronic device comprising same
EP4366284A1 (en) Electronic device comprising fixing member
KR20240043038A (en) Electronic device and method for hovering in folded state
KR20230149180A (en) Foldable electronic device and method for recognizing open/closed state using a hole sensor in the same
KR20230165645A (en) Electronic device for identifying motion based on accleration sensors and method thereof
KR20220158943A (en) Electronic device including shielding member
KR20240037794A (en) Electronic device comprising fixing member
KR20230022084A (en) Cover of electronic device
KR20240004080A (en) Electronic device including a connector module and method of operating the same