KR20210046475A - Foldable electronic device and method for driving speech recognition funtion in the same - Google Patents

Foldable electronic device and method for driving speech recognition funtion in the same Download PDF

Info

Publication number
KR20210046475A
KR20210046475A KR1020190130214A KR20190130214A KR20210046475A KR 20210046475 A KR20210046475 A KR 20210046475A KR 1020190130214 A KR1020190130214 A KR 1020190130214A KR 20190130214 A KR20190130214 A KR 20190130214A KR 20210046475 A KR20210046475 A KR 20210046475A
Authority
KR
South Korea
Prior art keywords
app
display
electronic device
processor
context
Prior art date
Application number
KR1020190130214A
Other languages
Korean (ko)
Inventor
오영학
정진영
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020190130214A priority Critical patent/KR20210046475A/en
Priority to PCT/KR2020/014170 priority patent/WO2021075909A1/en
Publication of KR20210046475A publication Critical patent/KR20210046475A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1641Details related to the display arrangement, including those related to the mounting of the display in the housing the display being formed by a plurality of foldable display components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1688Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being integrated loudspeakers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1431Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display using a single graphics controller
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Abstract

According to various embodiments, provided is a foldable electronic device, which includes: a first housing formed of a first surface and a third surface opposite to the first surface; a second housing formed of a second surface extending from the first surface and a fourth surface opposite to the second surface; a first display formed on the first surface and the second surface; a second display disposed on at least a part of the third surface; a memory; and a processor, wherein the memory can store instructions which, when executed, cause the processor to execute an intelligent application in response to a folding event of the first housing and the second housing while displaying an execution screen of at least one application on at least one of the first display and the second display, analyze an application state and context of an application screen on the basis of execution information of an application displayed on at least one of the first display and the second display, and output at least one of a voice recognition guidance message and a voice mode item including a context item designated in relation to the displayed application. According to the present invention, user convenience can be increased by assisting the user to more easily utilize a function optimized for the activity of the user.

Description

전자 장치 및 이의 음성 인식 기능 구동 방법{FOLDABLE ELECTRONIC DEVICE AND METHOD FOR DRIVING SPEECH RECOGNITION FUNTION IN THE SAME}Electronic device and its voice recognition function driving method {FOLDABLE ELECTRONIC DEVICE AND METHOD FOR DRIVING SPEECH RECOGNITION FUNTION IN THE SAME}

본 발명의 다양한 실시예는 전자 장치 및 이의 음성 인식 기능 구동 방법에 관한 것이다. Various embodiments of the present invention relate to an electronic device and a method of driving a voice recognition function thereof.

디스플레이는, 대형의 전자 장치뿐만 아니라 소형, 휴대용 전자 장치에 포함될 수 있다. 전자 장치는 디스플레이를 확장하거나, 디스플레이의 활용도를 개선시키기 위한 구조로 진화되고 있다. 전자 장치는 변형 가능한 플렉서블 디스플레이를 포함하고, 접히거나 펼쳐질 수 있는 방식으로 동작하는 폴더블 전자 장치가 출시되고 있다. The display may be included in not only large electronic devices but also small and portable electronic devices. Electronic devices are evolving into structures for expanding displays or improving display utilization. Electronic devices include a deformable flexible display, and foldable electronic devices that operate in a foldable or unfoldable manner are being released.

최근에는 전자 장치 음성 인식 기능이 적용되고 있으며, 다양한 입력 방식으로 음성 인식 기능을 실행하여 전자 장치의 다양한 기능을 실행할 수 있도록 구현하고 있다. Recently, a voice recognition function of an electronic device has been applied, and various functions of an electronic device are implemented by executing the voice recognition function through various input methods.

전자 장치는 지정된 입력 이벤트가 검출되는 경우, 음성 인식 기능(또는 어플리케이션 프로그램)을 활성화하고 사용자의 음성 입력을 대기할 수 있다. 그러나, 음성 인식 기능이 활성화된 시점에서의 최초 동작은 전자 장치에서 실행 중인 기능과 관계없이, 디폴트된 동작이 일률적으로 실행되고 있다. 이에 따라 사용자는 원하는 기능을 실행하기 위해서는 단계적인 음성 명령을 발화해야 하는 문제점이 존재하고 있다. When a designated input event is detected, the electronic device may activate a voice recognition function (or application program) and wait for a user's voice input. However, the initial operation at the time when the voice recognition function is activated is uniformly executed by the default operation regardless of the function being executed in the electronic device. Accordingly, there is a problem in that the user has to utter a step-by-step voice command in order to execute a desired function.

다양한 실시예에 따르면, 폴더블 전자 장치에 있어서, 제1 면 및 상기 제1 면과 반대인 제3 면으로 형성된 제1 하우징과, 상기 제1 면으로부터 연장된 제2 면 및 상기 제2 면과 반대인 제4 면으로 형성된 제2 하우징과, 상기 제1 면 및 상기 제2 면에 형성된 제1 디스플레이와, 상기 제3 면의 적어도 일부에 배치된 제2 디스플레이와, 메모리 및 프로세서를 포함하고, 상기 메모리는, 실행 시에, 상기 프로세서가, 적어도 하나의 앱의 실행 화면을 상기 제1 디스플레이 또는 제2 디스플레이 중 적어도 하나에 표시하는 동안 상기 제1 하우징 및 제2 하우징의 폴딩 이벤트에 응답하여 지능형 앱을 실행하고, 상기 제1 디스플레이 및 제2 디스플레이 중 적어도 하나에 표시된 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 상기 표시된 앱과 관련하여 지정된 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 출력하도록 하는 인스트럭션들을 저장할 수 있다. According to various embodiments of the present disclosure, in a foldable electronic device, a first housing formed of a first surface and a third surface opposite to the first surface, a second surface extending from the first surface, and the second surface, A second housing formed with an opposite fourth surface, a first display formed on the first and second surfaces, a second display disposed on at least a portion of the third surface, a memory and a processor, The memory, upon execution, is intelligent in response to a folding event of the first housing and the second housing while the processor displays the execution screen of at least one app on at least one of the first display or the second display. A voice recognition guide including a specified context item in relation to the displayed app by running the app and analyzing the app status and context of the app screen based on the running information of the app displayed on at least one of the first display and the second display Instructions for outputting at least one of a message and a voice mode item may be stored.

다양한 실시예에 따르면, 전자 장치의 음성 인식 기능을 구동하는 방법에 있어서, 적어도 하나의 앱의 실행 화면을 상기 제1 디스플레이 또는 제2 디스플레이 중 적어도 하나에 표시하는 동작과, 제1 하우징 및 제2 하우징을 포함하는 전자 장치의 폴딩 이벤트에 응답하여 지능형 앱을 실행하는 동작과, 상기 지능형 앱에 기반하여, 상기 제1 디스플레이 및 제2 디스플레이 중 적어도 하나에 표시된 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하는 동작과 및 상기 표시된 앱과 관련된 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 출력하는 동작을 포함할 수 있다. According to various embodiments of the present disclosure, a method of driving a voice recognition function of an electronic device includes displaying an execution screen of at least one app on at least one of the first display or the second display; An operation of executing an intelligent app in response to a folding event of an electronic device including a housing, and based on the intelligent app, an app state and an app state based on execution information of the app displayed on at least one of the first display and the second display. An operation of analyzing a context of an app screen and an operation of outputting at least one of a voice recognition guide message including a context item related to the displayed app and a voice mode item.

다양한 실시예에 따르면, 전자 장치에서 실행 중인 기능 또는 디스플레이에 표시된 화면을 기반으로 앱 화면의 맥락을 분석하여 실행된 앱과 관련하여 커스커 마이징된 음성 인식 서비스를 제공함으로써 사용자의 활동(activity)에 최적화된 기능을 보다 용이하게 발화할 수 있도록 보조하여 사용자 편의성을 증대시킬 수 있다. According to various embodiments, by analyzing the context of an app screen based on a function running on an electronic device or a screen displayed on a display, and providing a customized voice recognition service in relation to the executed app, User convenience can be increased by assisting the optimized function to be more easily uttered.

도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a 내지 도2c는 다양한 실시예에 따른 전자 장치의 구조를 도시한 도면이다.
도 3은 다양한 실시예에 따른 전자 장치의 블록이다.
도 4a 및 도 4b는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 동작 방법을 도시한다.
도 5는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도 6a 및 도 6b는 다양한 실시예에 따른 전자 장치의 지능형 앱 실행을 지시하는 폴딩 이벤트의 예시들을 도시한다.
도 7a 및 도 7b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도 8a 및 도 8b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도 9a 및 도 9b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도10a 및 도 10b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도 11a 및 도 11b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도 12는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 동작 방법을 도시한다.
도 13a 및 도 13b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
도 14는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 동작 방법을 도시한다.
도 15는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다.
1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
2A to 2C are diagrams illustrating a structure of an electronic device according to various embodiments of the present disclosure.
3 is a block diagram of an electronic device according to various embodiments of the present disclosure.
4A and 4B are diagrams illustrating a method of operating voice recognition of a foldable electronic device according to various embodiments.
5 illustrates an embodiment of driving a voice recognition function of a foldable electronic device according to various embodiments of the present disclosure.
6A and 6B illustrate examples of folding events instructing execution of an intelligent app by an electronic device according to various embodiments of the present disclosure.
7A and 7B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.
8A and 8B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.
9A and 9B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.
10A and 10B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.
11A and 11B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.
12 is a diagram illustrating a method of operating voice recognition of a foldable electronic device according to various embodiments of the present disclosure.
13A and 13B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.
14 illustrates a method of operating voice recognition of a foldable electronic device according to various embodiments of the present disclosure.
15 illustrates an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 1은 다양한 실시 예들에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.

도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성 요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 이 구성 요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드(embedded)된 채 구현될 수 있다.Referring to FIG. 1, in a network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, a short-range wireless communication network), or a second network 199 It is possible to communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to an embodiment, the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module ( 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, or antenna module 197 ) Can be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180) may be omitted or one or more other components may be added to the electronic device 101. In some embodiments, some of these components may be implemented as a single integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).

프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성 요소(예: 하드웨어 또는 소프트웨어 구성 요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시 예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성 요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(volatile memory)(132)에 로드(load)하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(non-volatile memory)(134)에 저장할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치(CPU, central processing unit) 또는 어플리케이션 프로세서(AP, application processor)), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치(GPU, graphic processing unit), 이미지 시그널 프로세서(ISP, image signal processor), 센서 허브 프로세서(sensor hub processor), 또는 커뮤니케이션 프로세서(CP, communication processor))를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor 120, for example, executes software (eg, a program 140) to implement at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120. It can be controlled and can perform various data processing or operations. According to an embodiment, as at least part of data processing or operation, the processor 120 may convert commands or data received from other components (for example, the sensor module 176 or the communication module 190) into a volatile memory. ) 132, process commands or data stored in the volatile memory 132, and store result data in a non-volatile memory 134. According to an embodiment, the processor 120 is a main processor 121 (for example, a central processing unit (CPU) or an application processor (AP)), and a coprocessor that can be operated independently or together with the main processor 121 123 (eg, a graphic processing unit (GPU), an image signal processor (ISP), a sensor hub processor, or a communication processor (CP)). I can. Additionally or alternatively, the coprocessor 123 may be set to use lower power than the main processor 121 or to be specialized for a designated function. The secondary processor 123 may be implemented separately from the main processor 121 or as a part thereof.

보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(inactive)(예: 슬립(sleep)) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(active)(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성 요소들 중 적어도 하나의 구성 요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))과 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. The coprocessor 123 is, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 While in the active (eg, application execution) state, together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176) ), or at least some of the functions or states related to the communication module 190). According to an embodiment, the coprocessor 123 (eg, an image signal processor or a communication processor) may be implemented as a part of other functionally related components (eg, the camera module 180 or the communication module 190). have.

메모리(130)는, 전자 장치(101)의 적어도 하나의 구성 요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory 130 may store various types of data used by at least one component of the electronic device 101 (eg, the processor 120 or the sensor module 176 ). The data may include, for example, software (eg, the program 140) and input data or output data for commands related thereto. The memory 130 may include a volatile memory 132 or a nonvolatile memory 134.

프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(OS, operating system)(142), 미들 웨어(middleware)(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 may be stored as software in the memory 130, and may include, for example, an operating system (OS) 142, a middleware 144, or an application 146. have.

입력 장치(150)는, 전자 장치(101)의 구성 요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜) 등을 포함할 수 있다. The input device 150 may receive a command or data to be used for a component of the electronic device 101 (eg, the processor 120) from outside (eg, a user) of the electronic device 101. The input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).

음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커(speaker) 또는 리시버(receiver)를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시 예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The sound output device 155 may output an sound signal to the outside of the electronic device 101. The sound output device 155 may include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to an embodiment, the receiver may be implemented separately from or as a part of the speaker.

표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시 예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서(pressure sensor))를 포함할 수 있다. The display device 160 may visually provide information to the outside of the electronic device 101 (eg, a user). The display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the device. According to an embodiment, the display device 160 includes a touch circuitry set to sense a touch, or a sensor circuit set to measure the strength of a force generated by the touch (for example, a pressure sensor). It may include.

오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 may convert sound into an electrical signal, or conversely, may convert an electrical signal into sound. According to an embodiment, the audio module 170 acquires sound through the input device 150, the sound output device 155, or an external electronic device (for example, an external electronic device directly or wirelessly connected to the electronic device 101). Sound can be output through the electronic device 102) (for example, a speaker or headphones).

센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시 예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서(gesture sensor), 자이로 센서(gyro sensor), 기압 센서(barometer sensor), 마그네틱 센서(magnetic sensor), 가속도 센서(acceleration sensor), 그립 센서(grip sensor), 근접 센서(proximity sensor), 컬러 센서(color sensor)(예: RGB(red, green, blue) 센서), IR(infrared) 센서, 생체 센서(biometric sensor), 온도 센서(temperature sensor), 습도 센서(humidity sensor), 또는 조도 센서(illuminance sensor) 등을 포함할 수 있다. The sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101, or an external environmental state (eg, a user state), and generates an electrical signal or data value corresponding to the detected state. can do. According to an embodiment, the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometer sensor, a magnetic sensor, and an acceleration sensor. ), grip sensor, proximity sensor, color sensor (e.g. RGB (red, green, blue) sensor), IR (infrared) sensor, biometric sensor, temperature It may include a temperature sensor, a humidity sensor, or an illumination sensor.

인터페이스(177)는 전자 장치(101)의 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜(protocol)들을 지원할 수 있다. 일 실시 예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD(secure digital) 카드 인터페이스, 또는 오디오 인터페이스 등을 포함할 수 있다.The interface 177 may support one or more designated protocols that may be used to connect directly or wirelessly to an external electronic device (eg, the electronic device 102) of the electronic device 101. According to an embodiment, the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, a secure digital (SD) card interface, or an audio interface.

연결 단자(connection terminal)(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시 예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터) 등을 포함할 수 있다.The connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102). According to an embodiment, the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).

햅틱 모듈(haptic module)(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시 예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터(motor), 압전 소자(piezoelectric element), 또는 전기 자극 장치(electrical stimulation device) 등을 포함할 수 있다.The haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that a user can perceive through tactile or motor sensations. According to an embodiment, the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.

카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module 180 may capture a still image and a video. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.

전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시 예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module 188 may manage power supplied to the electronic device 101. According to an embodiment, the power management module 188 may be implemented as at least a part of, for example, a power management integrated circuit (PMIC).

배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시 예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지(fuel cell)를 포함할 수 있다.The battery 189 may supply power to at least one component of the electronic device 101. According to an embodiment, the battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.

통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제1 네트워크(198)(예: 블루투스, Wi-Fi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN(wide area network))와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. The communication module 190 includes a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It is possible to support establishment and communication through the established communication channel. The communication module 190 operates independently of the processor 120 (eg, an application processor) and may include one or more communication processors supporting direct (eg, wired) communication or wireless communication. According to an embodiment, the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg : A local area network (LAN) communication module, or a power line communication module) may be included. Among these communication modules, a corresponding communication module is a first network 198 (for example, a short-range communication network such as Bluetooth, Wi-Fi direct or IrDA (infrared data association)) or a second network 199 (for example, a cellular network, the Internet). Or, it is possible to communicate with an external electronic device through a computer network (for example, a telecommunication network such as a LAN or a wide area network (WAN)). These various types of communication modules may be integrated into one component (eg, a single chip), or may be implemented as a plurality of separate components (eg, multiple chips).

무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI, international mobile subscriber identity))를 이용하여 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다. The wireless communication module 192 uses the subscriber information (eg, international mobile subscriber identity (IMSI)) stored in the subscriber identification module 196 to communicate with the first network 198 or the second network 199. The electronic device 101 can be identified and authenticated within the same communication network.

안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일 실시 예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제1 네트워크(198) 또는 제2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시 예에 따르면, 방사체 이외에 다른 부품(예: RFIC)가 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.The antenna module 197 may transmit a signal or power to the outside (eg, an external electronic device) or receive from the outside. According to an embodiment, the antenna module 197 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern. According to an embodiment, the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is, for example, provided by the communication module 190 from the plurality of antennas. Can be chosen. The signal or power may be transmitted or received between the communication module 190 and an external electronic device through the at least one selected antenna. According to some embodiments, other components (eg, RFIC) other than the radiator may be additionally formed as part of the antenna module 197.

상기 구성 요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고, 신호(예: 명령 또는 데이터)를 상호 간에 교환할 수 있다.At least some of the components are connected to each other through a communication method (e.g., bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI))) between peripheral devices, and signal (E.g. commands or data) can be exchanged with each other.

일 실시 예에 따르면, 명령 또는 데이터는 제2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104) 간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. According to an embodiment, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.

일 실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104 또는 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들(102, 104)에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들(102, 104)은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅(cloud computing), 분산 컴퓨팅(distributed computing), 또는 클라이언트-서버 컴퓨팅(client-server computing) 기술이 이용될 수 있다.According to an embodiment, all or part of the operations executed by the electronic device 101 may be executed by one or more of the external electronic devices 102, 104, or 108. For example, when the electronic device 101 needs to perform a function or service automatically or in response to a request from a user or another device, the electronic device 101 In addition or in addition, a request may be made to the one or more external electronic devices 102 and 104 to perform the function or at least part of the service. The one or more external electronic devices 102 and 104 that have received the request execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the execution result to the electronic device 101. I can deliver. The electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request. For this, for example, cloud computing, distributed computing, or client-server computing technology may be used.

본 문서에 개시된 다양한 실시 예들에 따른 전자 장치(101)는 다양한 형태의 장치가 될 수 있다. 전자 장치(101)는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치(wearable device), 가전 장치 또는 폴더블 전자 장치를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치(101)는 전술한 기기들에 한정되지 않는다. The electronic device 101 according to various embodiments disclosed in this document may be a device of various types. The electronic device 101 may include, for example, a portable communication device (eg, a smartphone), a portable multimedia device, a portable medical device, a camera, a wearable device, a home appliance device, or a foldable electronic device. . The electronic device 101 according to the exemplary embodiment of the present document is not limited to the above-described devices.

도 2a 내지 도2c는 다양한 실시예에 따른 전자 장치의 구조를 도시한 도면이다. 2A to 2C are diagrams illustrating a structure of an electronic device according to various embodiments of the present disclosure.

도 2a 내지 도2c를 참조하면, 다양한 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))는 접거나, 또는 펼칠 수 있는 플렉서블 디스플레이를 포함하거나, 또는 힌지 기반의 경첩 구조로 두 개의 디스플레이를 접거나, 또는 펼칠 수 있는 폴더블 전자 장치로 구현될 수 있다. 2A to 2C, an electronic device (eg, the electronic device 101 of FIG. 1) according to various embodiments includes a flexible display that can be folded or unfolded, or has a hinge-based hinge structure. It may be implemented as a foldable electronic device that can fold or unfold the two displays.

일 실시예에 따르면, 전자 장치(101)는 제1 면(211) 및 제3 면(213)을 포함하는 제1 하우징(housing)(210) 및 제2 면(221) 및 제4 면(223)을 포함하는 제2 하우징(220)을 포함할 수 있다. 제1 하우징(210)의 제1 면(211) 및 제2 하우징(220)의 제2 면(221)은 전자 장치(101)의 프론트(front) 방향(2001) 일 경우, 제1 하우징(210)의 제3 면(213) 및 제2 하우징(220)의 제4 면(223)은 전자 장치(101)의 리어(rear) 방향(2003)을 나타낼 수 있다.According to an embodiment, the electronic device 101 includes a first housing 210 and a second surface 221 and a fourth surface 223 including a first surface 211 and a third surface 213. It may include a second housing 220 including ). When the first surface 211 of the first housing 210 and the second surface 221 of the second housing 220 are in the front direction 2001 of the electronic device 101, the first housing 210 The third surface 213 of) and the fourth surface 223 of the second housing 220 may represent a rear direction 2003 of the electronic device 101.

제1 하우징(210)과 제2 하우징(220)은 폴딩 축(예: A축)을 중심으로 양측에 배치되고, 폴딩 축에 대하여 전체적으로 대칭인 형상을 가질 수 있다. 예를 들어, 전자 장치(101)가 도 2a 도시된 바와 같이, 열린 상태일 경우 프론트 방향(2001))에서, 제1 하우징(210)은 폴딩 축을 기준으로 전자 장치(101)의 왼쪽이고, 제2 하우징(220)은 전자 장치(101)의 오른쪽일 수 있다. 제1 하우징(210)과 제2 하우징(220)은 서로에 대하여 접히도록 설계될 수 있다. 예를 들어, 제1 하우징(210)과 제2 하우징(220) 사이에는 힌지 구조(260)가 형성되어, 전자 장치(101)의 프론트 방향(2001)이 접힐 수 있다. The first housing 210 and the second housing 220 are disposed on both sides around a folding axis (eg, A axis), and may have a shape that is generally symmetric with respect to the folding axis. For example, as shown in FIG. 2A, when the electronic device 101 is in an open state, in the front direction 2001), the first housing 210 is to the left of the electronic device 101 with respect to the folding axis. 2 The housing 220 may be the right side of the electronic device 101. The first housing 210 and the second housing 220 may be designed to be folded with respect to each other. For example, a hinge structure 260 is formed between the first housing 210 and the second housing 220 so that the front direction 2001 of the electronic device 101 may be folded.

전자 장치(101)가 프론트 방향(2001)으로 접히는 방식은 인 폴딩(in-folding) 방식으로 이해될 수 있다. 이와 반대로, 전자 장치(101)가 리어 방향(2003)으로 접히는 방식은 아웃 폴딩(out-folding) 방식으로 이해될 수 있다. 이하, 인 폴딩(in-folding) 방식으로 구현된 전자 장치(101)를 기반으로 설명하기로 하나, 이에 한정하지 않으며, 아웃 폴딩(out-folding) 방식으로 구현된 전자 장치(101)에도 동일하게 적용될 수 있다. A method in which the electronic device 101 is folded in the front direction 2001 may be understood as an in-folding method. Conversely, a method in which the electronic device 101 is folded in the rear direction 2003 may be understood as an out-folding method. Hereinafter, a description will be made based on the electronic device 101 implemented in an in-folding method, but the description is not limited thereto, and the same applies to the electronic device 101 implemented in an out-folding method. Can be applied.

제1 하우징(210) 및 제2 하우징(220)은 전자 장치(101)의 상태가 열린(또는 열림) 상태, 닫힌(또는 닫힘) 상태 또는 중간 상태인지 여부에 따라 서로 이루는 각도나 거리가 달라질 수 있다. The angle or distance between the first housing 210 and the second housing 220 may vary depending on whether the electronic device 101 is in an open (or open) state, a closed (or closed) state, or an intermediate state. have.

도 2a는 열린 상태에서 전자 장치(101)의 프런트 방향(2001)과 리어 방향(2003)을 나타낼 수 있다. 2A illustrates a front direction 2001 and a rear direction 2003 of the electronic device 101 in an open state.

상기 열린 상태는 오픈 상태(open state), 플랫(또는 평평한) 상태(flat state), 또는 언폴딩 상태(unfolding state, unfolded state)를 의미할 수 있다(예: 도 2a). 상기 열린 상태는 제1 하우징(210)과 제2 하우징(220)이 나란히 배치된 상태로서, 전자 장치(101)가 완전히 펼쳐진 상태를 의미할 수 있다. 상기 열린 상태는 제1 하우징(210)과 제2 하우징(220) 간의 각도가 설정된 각도 이상을 이루는 상태를 의미할 수 있다. 예를 들어, 설정된 각도는 180도일 수 있으나, 설계자의 의도에 따라서 변경이 가능할 수 있다. 전자 장치(101)가 열린 상태인 경우, 제 1 하우징(210)과 제 2 하우징(220)은 평면 구조를 형성할 수 있다.The open state may mean an open state, a flat (or flat) state, or an unfolding state, unfolded state (eg, FIG. 2A ). The open state is a state in which the first housing 210 and the second housing 220 are arranged side by side, and may mean a state in which the electronic device 101 is fully unfolded. The open state may mean a state in which an angle between the first housing 210 and the second housing 220 is equal to or greater than a set angle. For example, the set angle may be 180 degrees, but may be changed according to the intention of the designer. When the electronic device 101 is in an open state, the first housing 210 and the second housing 220 may form a planar structure.

상기 닫힌 상태는 클로즈 상태(close state), 폴딩 상태(folded state, folding state)를 의미할 수 있다(예: 도 2b). 상기 닫힌 상태는 제1 하우징(210)과 제2 하우징(220)이 서로 마주보게 배치된 상태로서, 전자 장치(101)가 완전히 접혀진 상태를 의미할 수 있다. 상기 닫힌 상태는 제1 하우징(210)과 제2 하우징(220) 간의 각도가 설정된 각도(예: 0도 ~ 5도) 이하를 이루는 상태를 의미할 수 있다. 상기 닫힌 상태는 제1 하우징(210)의 제1 면(211)과 제2 하우징(220)의 제2 면(221)이 서로 마주볼 수 있다. The closed state may mean a closed state or a folded state (eg, FIG. 2B). The closed state is a state in which the first housing 210 and the second housing 220 are disposed to face each other, and may mean a state in which the electronic device 101 is completely folded. The closed state may mean a state in which an angle between the first housing 210 and the second housing 220 is equal to or less than a set angle (eg, 0 degrees to 5 degrees). In the closed state, the first surface 211 of the first housing 210 and the second surface 221 of the second housing 220 may face each other.

상기 중간 상태(intermediate state)는 제1 하우징(210)과 제2 하우징(220)이 일정 각도로 배치된 상태로서, 전자 장치(101)가 상기 열린 상태 또는 상기 닫힌 상태가 아닐 수 있다. 상기 중간 상태는 제1 하우징(210)의 제1 면(211)과 제2 하우징(220)의 제2 면(221)이 일정 각도(예: 6 도 ~ 179도) 범위를 이루는 상태를 의미할 수 있다. The intermediate state is a state in which the first housing 210 and the second housing 220 are disposed at a predetermined angle, and the electronic device 101 may not be the open state or the closed state. The intermediate state means a state in which the first surface 211 of the first housing 210 and the second surface 221 of the second housing 220 form a range of a certain angle (eg, 6 degrees to 179 degrees). I can.

전자 장치(101)는 제1 면(211) 및 제2 면(221)에 제1 디스플레이(230)(예: 메인 디스플레이)(예: 도 1의 표시 장치(160))를 형성할 수 있다. 제1 디스플레이(230)는 제1 하우징(210)의 제1 면(211)과 제2 하우징(220)의 제2 면에 전체적으로 형성될 수 있다. The electronic device 101 may form a first display 230 (eg, a main display) (eg, the display device 160 of FIG. 1) on the first surface 211 and the second surface 221. The first display 230 may be entirely formed on the first surface 211 of the first housing 210 and the second surface of the second housing 220.

제1 디스플레이(230)는 적어도 일부 영역이 평면 또는 곡면으로 변형될 수 있는 플렉서블 디스플레이를 의미할 수 있다. 제1 디스플레이(230)는 폴딩 축(예: A축)을 기준으로 좌, 우로 접혀질 수 있다. 일 실시예에 따르면, 제1 디스플레이(230)는 제1 면(211)에 대응하여 제1 표시 영역 또는 제2 면(221)에 대응하여 제2 표시 영역을 포함할 수 있다. 다른 실시예에 따르면, 제1 디스플레이(230)는 복수의 어플리케이션(이하, 앱) 실행된 경우, 실행된 앱의 수에 따라서 2분할 영역, 3분할 영역 또는 4분할 영역을 포함할 수 있다. The first display 230 may refer to a flexible display in which at least a partial area may be transformed into a flat or curved surface. The first display 230 may be folded left or right based on a folding axis (eg, A axis). According to an embodiment, the first display 230 may include a first display area corresponding to the first surface 211 or a second display area corresponding to the second surface 221. According to another embodiment, when a plurality of applications (hereinafter, apps) are executed, the first display 230 may include a two-part area, a three-part area, or a four-part area according to the number of executed apps.

전자 장치(101)는 제2 면(221)에 제1 카메라(214)를 배치할 수 있다. 도면에서는 제1 카메라(214)가 하나인 것으로 도시하고 있지만, 제1 카메라(214)는 복수 개로 형성될 수도 있다. 도면에서는 제1 카메라(214)가 제2 면(221)에 배치되는 것으로 도시하고 있지만, 제1 카메라(214)는 제1 면(211)에 형성될 수도 있다. The electronic device 101 may arrange the first camera 214 on the second surface 221. In the drawing, the first camera 214 is shown as one, but the first camera 214 may be formed in plural. Although the drawing shows that the first camera 214 is disposed on the second surface 221, the first camera 214 may be formed on the first surface 211.

전자 장치(101)는 제1 디스플레이(230)가 배치된 방향과 반대 방향 일부에 제2 디스플레이(240)(예: 서브 디스플레이, 커버 디스플레이)(예: 도 1의 표시 장치(160))를 형성할 수 있다. 제2 디스플레이(240)는 전자 장치(101)의 제3 면(213)의 적어도 일부에 형성될 수 있다. 전자 장치(101)는 전자 장치(210)의 후면(250)에 복수의 제2 카메라들(예: 215, 217, 219, 225)를 포함할 수 있다. 복수의 제2 카메라들(예: 215, 217, 219, 225)은 성능(예: 화각, 해상도)이 동일하거나, 상이할 수 있다. 전자 장치(101)는 제4 면(223)에 센서 영역(241)을 더 포함할 수 있다. 센서 영역(241)에는 도 1의 센서 모듈(176)과 유사하게, 적외선 센서, 지문 센서, 또는 조도 센서가 배치될 수 있다.The electronic device 101 forms a second display 240 (eg, a sub-display, a cover display) (eg, the display device 160 of FIG. 1) in a part of the direction opposite to the direction in which the first display 230 is disposed. can do. The second display 240 may be formed on at least a part of the third surface 213 of the electronic device 101. The electronic device 101 may include a plurality of second cameras (eg, 215, 217, 219, 225) on the rear surface 250 of the electronic device 210. The plurality of second cameras (eg, 215, 217, 219, 225) may have the same performance (eg, angle of view, resolution) or different. The electronic device 101 may further include a sensor area 241 on the fourth surface 223. Similar to the sensor module 176 of FIG. 1, an infrared sensor, a fingerprint sensor, or an illuminance sensor may be disposed in the sensor area 241.

일 실시예에 따르면, 전자 장치(101)가 열린 상태(예: 도 2a)에서 제1 디스플레이(230)는 온(on)(또는 활성화)되고, 제2 디스플레이(240)는 오프(off)(또는 비활성화)될 수 있다. 예를 들어, 제1 디스플레이(230)가 온된 상태에서 일정한 시간(예: 5초, 10초, 1분) 동안 사용자 입력(예: 터치, 버튼 선택)이 검출되지 않는 경우, 전자 장치(101)는 제1 디스플레이(230)를 오프시킬 수 있다. 다른 예를 들어, 제2 디스플레이(240)가 오프된 상태에서 제2 디스플레이(240)에서 사용자 입력(예: 터치, 버튼 선택)이 검출되는 경우, 전자 장치(101)는 제2 디스플레이(240)를 온시킬 수 있다. 또 다른 예를 들어, 제2 디스플레이(240)가 온되면, 제1 디스플레이(230)는 오프될 수 있다. 전자 장치(101)는 제2 디스플레이(240)가 온되더라도, 일정한 시간 동안 제1 디스플레이(230)를 온 상태로 유지한 후, 일정한 시간이 경과한 후에도 제1 디스플레이(230) 상에 사용자 입력이 검출되지 않는 경우, 제1 디스플레이(230)를 오프시킬 수 있다. According to an embodiment, when the electronic device 101 is open (eg, FIG. 2A ), the first display 230 is turned on (or activated), and the second display 240 is turned off ( Or deactivated). For example, when a user input (eg, touch, button selection) is not detected for a certain period of time (eg, 5 seconds, 10 seconds, 1 minute) while the first display 230 is turned on, the electronic device 101 May turn off the first display 230. For another example, when a user input (eg, touch, button selection) is detected in the second display 240 while the second display 240 is turned off, the electronic device 101 Can be turned on. For another example, when the second display 240 is turned on, the first display 230 may be turned off. Even if the second display 240 is turned on, the electronic device 101 maintains the first display 230 in the on state for a certain period of time, and the user input is not displayed on the first display 230 even after a certain period of time has elapsed. If not detected, the first display 230 may be turned off.

일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))는 폴딩 축(예: A축)을 중심으로 힌지 구조(260)가 형성되어, 전자 장치(101)가 닫힌 상태일 수 있다. 도 2b는 전자 장치(101)가 닫힌 상태에서의 제1 방향(2005)과 제2 방향(2007)을 나타낼 수 있다. 일 실시예들에 따르면, 전자 장치(101)가 닫힌 상태에서는 제1 디스플레이(230)는 오프되고, 제2 디스플레이(240)는 온될 수 있다. 제2 디스플레이(240)가 온된 상태에서 일정한 시간 동안 사용자 입력이 검출되지 않는 경우, 전자 장치(101)는 제2 디스플레이(240)를 오프시킬 수 있다. 전자 장치(101)가 닫힌 상태이고, 제2 디스플레이(240)가 오프된 경우, 전자 장치(101)에 설정된 입력 신호가 검출되는 경우 전자 장치(101)는 제2 디스플레이(240)를 온시킬 수 있다. 전자 장치(101)가 닫힌 상태이고, 제2 디스플레이(240)가 오프된 후, 제2 디스플레이(240) 상에 사용자 입력이 검출되는 경우, 전자 장치(101)는 제2 디스플레이(240)를 온 시킬 수 있다.In the electronic device (eg, the electronic device 101 of FIG. 1) according to an embodiment, a hinge structure 260 is formed around a folding axis (eg, A-axis), so that the electronic device 101 may be in a closed state. have. 2B may show the first direction 2005 and the second direction 2007 when the electronic device 101 is closed. According to exemplary embodiments, when the electronic device 101 is closed, the first display 230 may be turned off and the second display 240 may be turned on. When a user input is not detected for a certain period of time while the second display 240 is turned on, the electronic device 101 may turn off the second display 240. When the electronic device 101 is in a closed state and the second display 240 is turned off, the electronic device 101 may turn on the second display 240 when an input signal set in the electronic device 101 is detected. have. After the electronic device 101 is in a closed state and the second display 240 is turned off, when a user input is detected on the second display 240, the electronic device 101 turns on the second display 240. I can make it.

도 3은 다양한 실시예에 따른 전자 장치의 블록도이다. 3 is a block diagram of an electronic device according to various embodiments of the present disclosure.

도 3을 참조하면, 다양한 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101))는 제 1 디스플레이(310)(예: 도 2a의 제 1 디스플레이(230)), 제 2 디스플레이(320)(예: 도 2a의 제 2 디스플레이(240)), 프로세서(330) (예: 도 1의 프로세서(120)), 센서 모듈(340))(예: 도 1의 센서 모듈(176)), 통신 모듈(350) (예: 도 1의 통신 모듈(190)), 및 메모리(360)(예: 도 1의 메모리(130))을 포함할 수 있다. Referring to FIG. 3, an electronic device (eg, the electronic device 101 of FIG. 1) according to various embodiments includes a first display 310 (eg, the first display 230 of FIG. 2A) and a second display ( 320) (e.g., the second display 240 of FIG. 2A), the processor 330 (e.g., the processor 120 of FIG. 1), the sensor module 340) (e.g., the sensor module 176 of FIG. 1) , A communication module 350 (eg, the communication module 190 of FIG. 1), and a memory 360 (eg, the memory 130 of FIG. 1).

일 실시예에 따르면, 제 1 디스플레이(310) 및 제2 디스플레이(320)는 프로세서(330)의 제어 하에, 앱(또는, 어플리케이션 프로그램(application program))의 실행 화면 또는 그래픽 사용자 인터페이스(graphic user interface)(GUI)를 표시할 수 있다. 예를 들어, 제 1 디스플레이(310)는 플렉서블 소재로 구현된 플렉서블 디스플레이일 수 있다. 제 1 디스플레이(310)는 전자 장치(101)가 폴딩 축(예: 도 2a의 A축)을 중심으로 접혀지는 경우(예: 닫힌 상태) 동작을 종료하고, 폴딩 축을 중심으로 펼쳐지는 경우(예: 열린 상태) 동작할 수 있다. 이와 반대로, 제 2 디스플레이(320)는 전자 장치(101)가 폴딩 축을 중심으로 접혀지는 경우(예: 닫힌 상태), 동작하고, 폴딩 축을 중심으로 펼쳐지는 경우(예: 열린 상태), 동작을 종료할 수 있다.According to an embodiment, the first display 310 and the second display 320 are under the control of the processor 330, an execution screen of an app (or an application program) or a graphic user interface. ) (GUI) can be displayed. For example, the first display 310 may be a flexible display made of a flexible material. The first display 310 terminates the operation when the electronic device 101 is folded around a folding axis (eg, A axis in FIG. 2A) (eg, in a closed state), and unfolds around the folding axis (eg. : Open state) can be operated. Conversely, when the electronic device 101 is folded around a folding axis (eg, closed), operates, and unfolds around a folding axis (eg, opened), the second display 320 terminates the operation. can do.

일 실시예에 따르면, 센서 모듈(340)은 제 1 하우징(예: 도 2의 210)과 제 2 하우징(예: 도 2의 220)의 형태(shape) 변화(예: 폴딩 및 언폴딩)에 따른 폴딩 각도, 폴딩 타입, 거치 방향 및 사용자의 시선 중 적어도 하나를 감지할 수 있다. 센서 모듈(340)은 전자 장치(101)의 폴딩 각도를 측정할 수 있다. 폴딩 각도는 전자 장치(101)가 폴딩 축을 기준으로 제1 하우징 (210)과 제2 하우징(220)이 이루는 각도를 의미할 수 있다. 일 실시예에 따르면, 센서 모듈(340)은 전자 장치(101)의 어느 일 측(예: 폴딩 축, 제1 또는 제2 하우징 끝단, 제1 또는 제2 디스플레이 하단(예: 패널 아래(under panel)), 또는 베젤)에 위치할 수 있다. According to an embodiment, the sensor module 340 is applied to changes in shape (eg, folding and unfolding) of the first housing (eg, 210 in FIG. 2) and the second housing (eg, 220 in FIG. 2 ). At least one of a folding angle according to a folding angle, a folding type, a mounting direction, and a user's gaze may be detected. The sensor module 340 may measure the folding angle of the electronic device 101. The folding angle may mean an angle formed by the electronic device 101 between the first housing 210 and the second housing 220 with respect to the folding axis. According to an embodiment, the sensor module 340 may be configured on one side of the electronic device 101 (eg, a folding shaft, an end of the first or second housing, and a bottom of the first or second display (eg, under the panel). )), or bezel).

일 실시예에 따르면, 통신 모듈(350)는 외부 장치와 연결되어 데이터를 송수신하도록 구성될 수 있다. According to an embodiment, the communication module 350 may be configured to transmit and receive data by being connected to an external device.

일 실시예에 따르면, 메모리(360)는 지능형 앱 및 복수의 앱들을 포함할 수 있다. 지능형 앱은 음성 입력을 처리하기 위한 프레임워크(framework)(또는, 솔루션 프로그램)를 구성할 수 있다. 복수의 앱들 각각은 지정된 기능을 수행하기 위한 복수의 동작들을 포함할 수 있다. 일 실시 예에 따르면, 복수의 앱들은 프로세서(330)에 의해 실행되어 복수의 동작들 중 적어도 일부를 순차적으로 실행할 수 있다. According to an embodiment, the memory 360 may include an intelligent app and a plurality of apps. The intelligent app may constitute a framework (or solution program) for processing voice input. Each of the plurality of apps may include a plurality of operations for performing a specified function. According to an embodiment, a plurality of apps may be executed by the processor 330 to sequentially execute at least some of the plurality of operations.

일 실시예에 따르면, 프로세서(330)는 전자 장치(101)의 전반적인 동작을 제어할 수 있다. 프로세서(330)는 메모리(360)에 저장된 프로그램을 실행시켜 지정된 기능을 수행할 수 있다. 프로세서(330)는 지능형 앱에 기반하여 음성 입력을 처리하기 위한 동작을 수행할 수 있다. According to an embodiment, the processor 330 may control the overall operation of the electronic device 101. The processor 330 may execute a program stored in the memory 360 to perform a designated function. The processor 330 may perform an operation for processing a voice input based on the intelligent app.

일 실시예에 따르면, 프로세서(330)는 제1 하우징 (예: 도 2의 210)과 제2 하우징(예: 도 2의 220)의 형태(shape) 변화(예: 폴딩 및 언폴딩)에 기반하여 음성 입력을 처리하기 위한 지능형 앱을 실행할 수 있다. 예를 들어, 프로세서(330)는 제1 하우징 (예: 도 2의 210)과 제2 하우징(예: 도 2의 220)의 폴딩 각도가 지정된 조건을 만족하는 경우 지능형 앱을 실행할 수 있다. 다른 예를 들어, 지능형 앱을 실행하기 위한 지정된 조건은 제1 하우징 (예: 도 2의 210)과 제2 하우징(예: 도 2의 220)의 폴딩 각도가 지정된 범위 내에서 지정된 시간 동안 유지되는 조건을 포함할 수 있다. 지정된 조건은 설계자의 의도에 따라서 변경이 가능할 수 있다. According to an embodiment, the processor 330 is based on a shape change (eg, folding and unfolding) of a first housing (eg, 210 in FIG. 2) and a second housing (eg, 220 in FIG. 2). This allows you to run intelligent apps to process voice input. For example, the processor 330 may execute an intelligent app when the folding angles of the first housing (eg, 210 of FIG. 2) and the second housing (eg, 220 of FIG. 2) satisfy a specified condition. As another example, the specified condition for running the intelligent app is that the folding angle of the first housing (e.g., 210 in Fig. 2) and the second housing (e.g., 220 in Fig. 2) are maintained for a specified time within a specified range. May contain conditions. The specified conditions can be changed according to the intention of the designer.

일 실시예에 따르면, 프로세서(330)는 적어도 하나의 앱이 실행되어 제1 디스플레이(310) 또는 제2 디스플레이(320)에 표시되는 동안 음성 입력을 처리하기 위한 지능형 앱을 실행할 수 있다. 예를 들어, 프로세서(330)는 스케줄 앱을 실행한 상태에서 제1 하우징 (예: 도 2의 210)과 제2 하우징(예: 도 2의 220)의 형태(shape) 변화 또는 폴딩 이벤트에 응답하여 지능형 앱을 실행할 수 있다. According to an embodiment, the processor 330 may execute an intelligent app for processing a voice input while at least one app is being executed and displayed on the first display 310 or the second display 320. For example, the processor 330 responds to a change in shape or a folding event of the first housing (eg, 210 in FIG. 2) and the second housing (eg, 220 in FIG. 2) while executing the schedule app. So you can run intelligent apps.

일 실시예에 따르면, 프로세서(330)는 어느 하나의 디스플레이에 실행 중인 앱의 실행 정보(또는 앱 데이터)를 기반으로 앱의 상태 및 앱 화면의 맥락을 분석할 수 있다. 프로세서(330)는사용자가 현재 어떤 앱을 실행하고 있는지, 앱에서 어떤 페이지를 표시하고 있는지를 분석하여 사용자의 활동(activity)와 관련된 의도를 이해하여 실행 중인 앱과 관련된 의미 있는 컨택스트 아이템을 지정할 수 있다. 프로세서(330)은 실행 중인 앱 과 관련된 컨택스트 기반의음성 인식 모드로 지능형 앱을 실행할 수 있다. 앱의 실행 정보는 앱의 종류, 페이지 넘버, 실행 화면 정보, 실행 기능 정보, 앱과 관련된 메타 데이터 중 적어도 하나를 포함할 수 있다. 일 실시예에 따르면, 프로세서(330)는 어느 하나의 디스플레이에 표시 중인 앱의 실행 정보를 API를 통해 지능형 앱으로 전달할 수 있다.According to an embodiment, the processor 330 may analyze a state of an app and a context of an app screen based on execution information (or app data) of an app being executed on any one display. The processor 330 analyzes which app the user is currently running and which page the app is displaying, understands the intention related to the user's activity, and designates a meaningful context item related to the running app. I can. The processor 330 may execute the intelligent app in a context-based voice recognition mode related to the running app. The execution information of the app may include at least one of the type of the app, page number, execution screen information, execution function information, and metadata related to the app. According to an embodiment, the processor 330 may transmit execution information of an app being displayed on any one display to an intelligent app through an API.

프로세서(330)는 지능형 앱에 기반하여 제1 디스플레이(310) 또는 제2 디스플레이(320)에 표시 중인 앱의 실행 정보를 확인하고, 앱의 상태를 분석할 수 있다. 예를 들어, 프로세서(330)는 앱 식별 정보(app_ID)를 통해 앱을 식별하고, 앱과 관련된 태스크(task)(또는 기능)를 확인하고, 어떤 페이지를 표시하고 있는 중인지를 확인할 수 있다. 프로세서(330)는 현재 표시된 앱 페이지에 포함된 데이터를 확인하고, 현재 표시된 앱 페이지에 사용자의 입력 데이터가 포함되어 있는지 여부를 확인할 수 있다. The processor 330 may check execution information of the app being displayed on the first display 310 or the second display 320 based on the intelligent app, and analyze the state of the app. For example, the processor 330 may identify an app through app identification information (app_ID), check a task (or function) related to the app, and check which page is being displayed. The processor 330 may check data included in the currently displayed app page, and check whether the currently displayed app page includes user input data.

프로세서(330)는 앱 화면의 맥락을 분석하여 의미 있는 컨택스트 아이템을 지정할 수 있다. 컨택스트 아이템은 지능형 파라미터로 설정될 수 있다. The processor 330 may analyze the context of the app screen and designate a meaningful context item. The context item can be set with intelligent parameters.

프로세서(330)는 의미 있는 컨택스트 아이템을 포함한 음성 인식 안내 메시지를 생성할 수 있다. 프로세서(330)는 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 제1 디스플레이(310), 제2 디스플레이(320) 및 스피커 중 적어도 하나를 통해 출력할 수 있다. The processor 330 may generate a voice recognition guide message including a meaningful context item. The processor 330 may output at least one of a voice recognition guide message including a context item and a voice mode item through at least one of the first display 310, the second display 320, and a speaker.

일 실시예에 따르면, 프로세서(330)는 센서 모듈(340)로부터 센서 정보를 획득하고, 제1 하우징(310) 및 제2 하우징(320)의 폴딩 타입, 전자 장치(101)의 거치 방향, 사용자의 시선 정보 중 적어도 하나를 확인할 수 있다. 프로세서(330)는 센서 정보를 기반으로 상기 음성 인식 안내 메시지 및 음성 모드 객체 중 적어도 하나를 출력할 디스플레이를 결정할 수 있다. According to an embodiment, the processor 330 acquires sensor information from the sensor module 340, the folding type of the first housing 310 and the second housing 320, the mounting direction of the electronic device 101, and the user At least one of the gaze information of can be checked. The processor 330 may determine a display to output at least one of the voice recognition guide message and the voice mode object based on sensor information.

일 실시예에 따르면, 프로세서(330)는 복수의 앱 실행에 기반하여, 제1 디스플레이(310)(또는 제2 디스플레이(320))를 분할하고 분할 영역들에 각각의 앱 실행 화면을 표시하도록 제어할 수 있다. 프로세서(330)는 제1 디스플레이(310)의 영역이 분할된 경우 지능형 앱 실행에 기반하여 분할 영역들 중 컨택스트 아이템을 지정하기 위한 분할 위치를 설정할 수 있다. 분할 위치는 설계자의 의도 또는 사용자 설정에 따라 변경이 될 수 있다. 프로세서(330)는 분할 영역들 중 컨택스트 아이템을 지정하기 위한 분할 위치가 설정되지 않는 경우, 제1 디스플레이(310)에 앱 선택을 요청하는 사용자 인터페이스를 표시할 수 있다. 프로세서(330)는 사용자 입력에 의해 선택된 분할 영역에 실행 중인 앱의 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정할 수 있다. According to an embodiment, the processor 330 divides the first display 310 (or the second display 320) based on execution of a plurality of apps, and controls to display respective app execution screens in the divided regions. can do. When the area of the first display 310 is divided, the processor 330 may set a divided position for designating a context item among divided areas based on execution of an intelligent app. The split position can be changed according to the designer's intention or user setting. The processor 330 may display a user interface for requesting an app selection on the first display 310 when a divided location for designating a context item among the divided areas is not set. The processor 330 may designate a context item by analyzing a state of an app running in a divided area selected by a user input and a context of an app screen.

일 실시예에 따르면, 프로세서(330)는 지능형 앱이 실행되면 마이크를 활성화하고, 활성화된 마이크를 통해 음성 인식 서비스를 요청하는 사용자의 발화를 수신할 수 있다. 프로세서(330)는 지능형 앱에 기반하여 사용자 발화를 처리하고, 사용자 발화에 대응하여 컨택스트 아이템과 관련된 기능을 수행하도록 하는 태스크(또는 동작)를 구성할 수 있다. 지능형 앱은 프로세서(330)의 제어 하에, 사용자 발화 또는 음성 입력에 대응하는 태스크를 수행하기 위한 플랜을 구성할 수 있다. 프로세서(330)는 구성된 태스크를 수행하고 태스크 수행 중임을 알림하는 정보를 제1 디스플레이(310) 또는 제2 디스플레이(320)에 출력하거나 스피커를 통해 출력할 수 있다. According to an embodiment, when the intelligent app is executed, the processor 330 may activate a microphone and receive a user's utterance requesting a voice recognition service through the activated microphone. The processor 330 may configure a task (or operation) to process a user utterance based on an intelligent app and perform a function related to a context item in response to the user utterance. The intelligent app may configure a plan for performing a task corresponding to a user utterance or voice input under the control of the processor 330. The processor 330 performs the configured task and outputs information notifying that the task is being performed on the first display 310 or the second display 320 or through a speaker.

도 4a 및 도 4b는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 기능 실행 방법을 도시한다. 4A and 4B illustrate a method of executing a voice recognition function of a foldable electronic device according to various embodiments.

도 4a 및 도 4b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 3의 330)는, 410 동작에서 적어도 하나의 앱을 실행할 수 있다. Referring to FIGS. 4A and 4B, according to an embodiment, a processor (eg, 330 of FIG. 3) of the electronic device 101 may execute at least one app in operation 410.

일 실시예에 따르면, 프로세서(330)는 사용자 요청 또는 기 설정된 이벤트에 응답하여 전자 장치(101)에 설치되거나 저장된 적어도 하나의 앱을 실행할 수 있다. 적어도 하나의 앱은 연락처 앱, 스케줄 앱, 갤러리 앱, 지도 앱, 네비게이션 앱, 음악 앱, 인터넷 브라우저 앱 중 적어도 하나를 포함할 수 있으나, 이에 한정하는 것은 아니다.According to an embodiment, the processor 330 may execute at least one app installed or stored in the electronic device 101 in response to a user request or a preset event. The at least one app may include at least one of a contact app, a schedule app, a gallery app, a map app, a navigation app, a music app, and an internet browser app, but is not limited thereto.

일 실시예에 따르면, 프로세서(330)는 제1 디스플레이(310) 및 제2 디스플레이(320) 중 적어도 하나에 실행되는 앱(app)(또는, 어플리케이션 프로그램(application program))의 실행 화면 또는 그래픽 사용자 인터페이스(graphic user interface)(GUI)를 표시할 수 있다. According to an embodiment, the processor 330 is an execution screen or graphic user of an app (or application program) executed on at least one of the first display 310 and the second display 320. Display a graphic user interface (GUI).

예를 들어, 프로세서(330)는 전자 장치(101)가 열린 상태(예: 2b )에서 제 1 디스플레이(310)에 앱 실행 화면을 표시할 수 있다. 또는, 프로세서(330)는 전자 장치(101)가 닫힌 상태(예: 도 2b)에서 제2 디스플레이(320)에 앱 실행 화면을 표시할 수 있다. For example, the processor 330 may display an app execution screen on the first display 310 while the electronic device 101 is open (for example, 2b ). Alternatively, the processor 330 may display an app execution screen on the second display 320 when the electronic device 101 is closed (eg, FIG. 2B ).

다른 예를 들어, 프로세서(330)는 전자 장치(101)가 열린 상태(예: 2b)에서 복수의 앱이 실행된 경우, 제 1 디스플레이(310)의 표시 영역을 분할하고 분할 영역 각각에 앱 실행 화면을 표시할 수 있다. For another example, when a plurality of apps are executed while the electronic device 101 is open (for example, 2b), the processor 330 divides the display area of the first display 310 and executes the app in each of the divided areas. The screen can be displayed.

420 동작에서, 프로세서(330)는 적어도 하나의 앱의 실행 화면을 상기 제1 디스플레이 또는 제2 디스플레이 중 적어도 하나에 표시하는 동안 지능형 앱 실행을 지시하는 폴딩 이벤트를 검출할 수 있다. 420 In operation, the processor 330 may detect a folding event instructing the execution of an intelligent app while displaying the execution screen of at least one app on at least one of the first display or the second display.

일 실시예에 따르면, 폴딩 이벤트는 제1 하우징 (예: 도 2의 210)과 제2 하우징(예: 도 2의 220)의 폴딩 각도가 제1 상태에서 지정된 제2 상태로 변형되는 이벤트일 수 있다. 예를 들어, 제1 형상은 도 3a와 같이 디스플레이들이 열린 상태 또는 도 3d와 같이 디스플레이들이 닫힌 상태 중 적어도 하나일 수 있다. 제2 상태는 설정된 소정의 각도를 이루는(folded with a certain angle) 중간 상태(intermediate state)일 수 있다. 또 다른 예에 따르면, 폴딩 이벤트는 폴딩 각도가 제1 상태에서 제2 상태로 변형된 후 설정된 일정 시간이 경과되는 이벤트일 수 있다. According to an embodiment, the folding event may be an event in which the folding angle of the first housing (eg, 210 in FIG. 2) and the second housing (eg, 220 in FIG. 2) is transformed from the first state to a designated second state. have. For example, the first shape may be at least one of an open state as shown in FIG. 3A or a state in which the displays are closed as illustrated in FIG. 3D. The second state may be an intermediate state that is folded with a certain angle. According to another example, the folding event may be an event in which a set predetermined time elapses after the folding angle is changed from the first state to the second state.

430동작에서, 프로세서(330)는 폴딩 이벤트에 응답하여 지능형 앱을 실행할 수 있다. 일 실시예에 따르면, 지능형 앱은, 예를 들어, 빅스비(BIXBYTM), 또는 구글 어시스턴트(google assistantTM)와 같은 사용자의 발화를 처리하여 사용자 의도를 분석하고, 사용자 의도에 대응되는 기능 또는 서비스를 실행할 수 있는 음성 인식 어플리케이션을 포함할 수 있다. In operation 430, the processor 330 may execute the intelligent app in response to the folding event. According to an embodiment, the intelligent app analyzes user intention by processing the user's utterance, such as, for example, BIXBYTM, or goog l e assistantTM, and a function corresponding to the user intention, or It may include a speech recognition application capable of executing a service.

440동작에서, 프로세서(330)는 폴딩 이벤트 검출에 응답하는 지능형 앱의 실행에 기반하여 디스플레이(예: 제1 디스플레이(310) 또는 제2 디스플레이(320))에서 표시된 앱의 상태를 분석 할 수 있다. In operation 440, the processor 330 may analyze the state of the app displayed on the display (eg, the first display 310 or the second display 320) based on the execution of the intelligent app in response to the detection of the folding event. .

일 실시예에 따르면, 프로세서(330)는 포어 그라운드(foreground) 또는 최상위 계층에서 실행 중인 앱의 실행 정보를 기반으로 앱의 상태를 분석할 수 있다. 앱의 실행 정보는 앱 식별정보, 실행 화면(예; 페이지) 정보, 실행 기능 정보, 앱과 관련된 메타 데이터 중 적어도 하나를 포함할 수 있으나, 이에 한정하는 것은 아니며, 실행 화면과 관련된 모든 정보를 포함할 수 있다. According to an embodiment, the processor 330 may analyze a state of an app based on execution information of an app running in a foreground or a top layer. The execution information of the app may include at least one of app identification information, execution screen (eg, page) information, execution function information, and metadata related to the app, but is not limited thereto, and includes all information related to the execution screen. can do.

일 실시예에 따르면, 프로세서(330)는 앱의 실행 정보를 기반으로 디스플레이에 표시 중인 앱의 종류, 실행 중인 기능, 페이지 넘버 및/또는 실행 화면에 포함된 데이터를 확인하여 사용자의 활동(activity)과 관련된 앱의 상태를 분석할 수 있다. 예를 들어, 프로세서(330)는 디스플레이에 특정인의 연락처 화면을 표시하고 있는 경우, 연락처 앱(contact app)을 식별하고, 연락서 앱(contact app)에서 특정인 페이지(page)가 표시 중임을 확인하여 앱의 상태를 분석할 수 있다. According to an embodiment, the processor 330 executes an app Based on the information, it is possible to analyze the status of the app related to the user's activity by checking the type of the app being displayed on the display, the function being executed, the page number and/or the data included in the execution screen. For example, if the processor 330 is displaying the contact screen of a specific person on the display, the processor 330 identifies the contact app and confirms that the specific person page is being displayed in the contact app. You can analyze the state of the app.

450 동작에서, 프로세서(330)는 앱 화면의 맥락을 분석하여 디스플레이에 표시된 앱과 관련하여 의미 있는 컨택스트 아이템을 지정할 수 있다. 컨택스트(context) 아이템은 지능형 앱의 파라미터에 대응될 수 있으며, 사용자에 의해 보거나(viewed), 판독되거나 또는 생성되는 내용(content)을 의미할 수 있다. 예를 들어, 프로세서(330)는 연락처 앱(contact app)의 특정인 페이지가 표시된 화면으로부터 특정인 정보를 확인하고 특정인과 call 기능과의 연관성에 대한 앱 화면의 맥락을 분석하여 특정인 정보를 컨택스트 아이템으로 지정할 수 있다. 이는 예시일 뿐이며, 경우에 따라 컨택스트 아이템은 변경될 수 있다. In operation 450, the processor 330 may analyze the context of the app screen and designate a meaningful context item in relation to the app displayed on the display. The context item may correspond to a parameter of an intelligent app, and may mean content that is viewed, read, or created by a user. For example, the processor 330 checks the specific person information from the screen on which the specific person page of the contact app is displayed, analyzes the context of the app screen for the association between the specific person and the call function, and converts the specific person information as a context item. Can be specified. This is only an example, and the context item may be changed in some cases.

일 실시예에 따르면, 프로세서(330)는 디스플레이에 표시된 앱의 실행 정보를 획득할 수 없는 경우, 디스플레이에 표시된 앱의 실행 화면을 캡쳐하고, 화면 양식 구조의 데이터 필드에 포함된 데이터(예: 이름, 이메일, 주소 등)를 획득하여 앱의 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정 수 있다. 다른 실시예에 따르면, 프로세서(330)는, 앱 실행 화면을 캡쳐하고 화면 정보에 매핑된 메타데이터(예: 위치 정보)를 획득할 수 있다. 프로세서(330)는 캡쳐된 실행 화면으로부터 획득한 데이터를 기반으로 앱의 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정할 수 있다. 일 실시예에 따르면, 프로세서(330)는 앱의 실행 정보를 API(application programming interface)를 통해 지능형 앱으로 전달할 수 있다. 예를 들어, 440 동작 내지 460 동작은 지능형 앱에 기반하여 실행하는 동작일 수 있으나, 이에 한정하지 않으며, 프로세서(330)가 앱 화면의 맥락을 분석한 후, 컨택스트 아이템 정보를 지능형 앱으로 제공할 수 도 있다. According to an embodiment, when the processor 330 cannot obtain the execution information of the app displayed on the display, the processor 330 captures the execution screen of the app displayed on the display, and data included in the data field of the screen form structure (for example, the name , Email, address, etc.), and analyzes the status of the app and the context of the app screen to designate a context item. According to another embodiment, the processor 330 may capture an app execution screen and obtain metadata (eg, location information) mapped to the screen information. The processor 330 may designate a context item by analyzing the state of the app and the context of the app screen based on data acquired from the captured execution screen. According to an embodiment, the processor 330 may transmit application execution information to an intelligent app through an application programming interface (API). For example, operations 440 to 460 may be operations executed based on an intelligent app, but are not limited thereto, and after the processor 330 analyzes the context of the app screen, the context item information is provided to the intelligent app. You may.

460동작에서, 프로세서(330)는 앱과 관련된 컨택스트 아이템을 포함하는 음성 인식 안내 메시지 및 음성 인식 모드 아이템 중 적어도 하나를 디스플레이 및 스피커 중 적어도 하나를 통해 출력할 수 있다. 예를 들어, 프로세서(330)는 "Green"에 대응하는 연락처 화면으로부터 사용자가 "Green" 과 연락하고자 하는 의도를 분석하고, "Green"과 관련된 기능 또는 서비스를 실행할 수 있도록 "Green" (예: 컨택스트 아이템)을 포함한 음성 인식 안내 메시지를 출력할 수 있다. In operation 460, the processor 330 may output at least one of a voice recognition guide message including a context item related to the app and a voice recognition mode item through at least one of a display and a speaker. For example, the processor 330 analyzes the intention of the user to contact "Green" from the contact screen corresponding to "Green", and "Green" (eg: A voice recognition guide message including a context item) can be output.

일 실시예에 따르면, 프로세서(330)는 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 포함한 음성 인식 사용자 인터페이스를 디스플레이에 표시할 수 있다. 예를 들어, 프로세서(330)는 음성 인식 사용자 인터페이스로 전환하여 표시하거나 앱 실행 화면에 팝업 형태로 음성 인식 사용자 인터페이스를 출력할 수 있다. According to an embodiment, the processor 330 may display a voice recognition user interface including at least one of a voice recognition guide message and a voice mode item on the display. For example, the processor 330 may switch to and display a voice recognition user interface, or may output a voice recognition user interface in the form of a pop-up on an app execution screen.

다른 실시예에 따르면, 프로세서(330)는 컨택스트 아이템을 포함하는 음성 인식 안내 메시지에 대응하는 안내 음성을 스피커를 통해 출력할 수 있다. According to another embodiment, the processor 330 may output a guide voice corresponding to a voice recognition guide message including a context item through a speaker.

사용자는 디스플레이 또는 스피커를 통해 지능형 앱이 실행됐음을 인지할 수 있으며, 컨택스트 아이템과 관련된 기능을 실행하기 위한 음성 명령을 보다 직접적으로 발화할 수 있다. The user can recognize that the intelligent app has been executed through the display or speaker, and can more directly utter a voice command to execute a function related to a context item.

다른 실시예에 따르면, 프로세서(330)는 도 의 420 동작을 수행하고, 도 4b에 도시된 바와 같이 A 동작으로 진행할 수도 있다. 프로세서(330)는 420동작과 같이 폴딩 이벤트를 검출한 후, 435 동작으로 진행하여 전자 장치(101)의 폴딩 타입을 확인할 수 있다. 프로세서(435)는 적어도 하나의 센서 정보를 기반으로 제1 하우징(210)과 제2 하우징(210)의 폴딩 각도를 측정하여 전자 장치(101)가 인 폴딩 상태인 지 아웃 폴딩 상태인지 여부를 판단할 수 있다. According to another embodiment, the processor 330 may perform operation 420 of FIG. and proceed to operation A as shown in FIG. 4B. After detecting the folding event in operation 420, the processor 330 may proceed to operation 435 to check the folding type of the electronic device 101. The processor 435 determines whether the electronic device 101 is in the in-folding state or the out-folding state by measuring the folding angles of the first housing 210 and the second housing 210 based on at least one sensor information. can do.

445동작에서, 프로세서(330)는 센서 정보를 기반으로 전자 장치(101)의 거치 방향 및 사용자의 시선 정보를 확인할 수 있다. 예를 들어, 프로세서(330)는 전자 장치(101)가 가로 모드 인지 세로 모드인지를 판단할 수 있다. 또한, 프로세서(330)는 센서 정보를 기반으로 사용자가 바라보고 있는 디스플레이 위치를 판단할 수 있다. In operation 445, the processor 330 may check the mounting direction of the electronic device 101 and gaze information of the user based on the sensor information. For example, the processor 330 may determine whether the electronic device 101 is in a landscape mode or a portrait mode. In addition, the processor 330 may determine the display position viewed by the user based on the sensor information.

455 동작에서, 프로세서(330)는 폴딩 타입, 거치 방향 및 사용자의 위치 중 적어도 하나를 기반으로 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 출력할 디스플레이를 결정할 수 있다. 이후 프로세서(330)는 B로 진행하여 460 동작과 같이, 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 결정된 디스플레이에 출력할 수 있다. In operation 455, the processor 330 may determine a display to output at least one of a voice recognition guide message and a voice mode item based on at least one of a folding type, a mounting direction, and a user's location. Thereafter, the processor 330 may proceed to B and output at least one of a voice recognition guide message including a context item and a voice mode item to the determined display in operation 460.

도 5는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다. 5 illustrates an embodiment of driving a voice recognition function of a foldable electronic device according to various embodiments of the present disclosure.

도 5를 참조하면, 다양한 실시예에 따르면, 전자 장치(101)는 앱이 실행된 상태에서 지정된 폴딩 이벤트에 응답하여 실행된 앱과 관련하여 사용자 의도가 반영된 컨택스트 기반의 지능형 앱을 실행할 수 있다. Referring to FIG. 5, according to various embodiments, the electronic device 101 may execute a context-based intelligent app in which a user intention is reflected in relation to an executed app in response to a designated folding event while the app is being executed. .

일 실시예에 따르면, 사용자는 5001에 도시된 바와 같이, 제1 하우징 (510)과 제2 하우징(520)이 열린 상태에서 제1 디스플레이(530)에 연락처 앱을 실행하기 위한 인터렉션(interacton)을 수행할 수 있다. 전자 장치(101)의 프로세서(예: 도 3의 프로세서(330))는 사용자 인터렉션에 응답하여 제1 디스플레이(530)에 앱 실행 화면(535)을 표시할 수 있다. According to an embodiment, as shown in 5001, the user makes an interaction for executing a contact app on the first display 530 in a state where the first housing 510 and the second housing 520 are open. You can do it. The processor of the electronic device 101 (eg, the processor 330 of FIG. 3) may display the app execution screen 535 on the first display 530 in response to a user interaction.

또는, 프로세서(330)는, 도 2에 도시된 바와 같이, 제1 하우징 (510)과 제2 하우징(520)이 닫힌 상태에서 사용자 인터렉션에 응답하여 제2 디스플레이(540)에 연락처 앱 실행 화면(545)을 표시할 수 도 있다. 예를 들어, 앱 실행 화면(535,545)은, 연락처 중 특정 상대방 "Green" 과 관련된 화면일 수 있다. Alternatively, as shown in FIG. 2, the processor 330 displays a contact app execution screen on the second display 540 in response to a user interaction while the first housing 510 and the second housing 520 are closed. 545). For example, the app execution screens 535 and 545 may be screens related to a specific counterpart "Green" among contacts.

프로세서(330)는 연락처 중 특정 상대방 "Green" 과 관련된 화면이 표시된 상태에서 지능형 앱 실행을 지시하는 폴딩 이벤트를 수신할 수 있다. The processor 330 may receive a folding event instructing the execution of an intelligent app while a screen related to a specific counterpart "Green" among contacts is displayed.

프로세서(330)는 폴딩 이벤트에 응답하여 5003에 도시된 바와 같이, 앱 실행 화면(535,545)과 관련된 컨택스트 아이템(예: Green)을 포함한 음성 인식 사용자 인터페이스(550)를 제2 디스플레이(540)에 출력할 수 있다. 예를 들어, 프로세서(330)는 앱 실행 정보를 기반으로 현재 실행 화면에 대한 사용자의 의도를 분석하여 "Green" 을 컨택스트 아이템으로 지정하고, "Green" 을 포함한 음성 인식 안내 메시지(551) (예: " what do you want to do with Green?" )를 제2 디스플레이(540)에 표시할 수 있다. 도 5의 예시는 제2 디스플레이(540)에 음성 인식 사용자 인터페이스(550)를 표시하는 것으로 설명하였으나, 프로세서(330)는 설정 또는 주변 환경에 따라 상기 음성 모드 아이템을 포함한 사용자 인터페이스를 제2 디스플레이(540)에 표시하고, "Green" 을 포함한 음성 인식 안내 메시지(551) 는 스피커를 출력할 수도 있다. In response to the folding event, the processor 330 displays a voice recognition user interface 550 including a context item (eg, Green) related to the app execution screens 535 and 545 on the second display 540 as shown in 5003. Can be printed. For example, the processor 330 analyzes the user's intention for the current execution screen based on the app execution information, designates "Green" as a context item, and a voice recognition guide message 551 including "Green" ( For example, "what do you want to do with Green?") may be displayed on the second display 540. Although the example of FIG. 5 has been described as displaying the voice recognition user interface 550 on the second display 540, the processor 330 displays the user interface including the voice mode item according to the setting or surrounding environment. The voice recognition guide message 551 displayed at 540 and including “Green” may output a speaker.

일 실시예에 따르면, 프로세서(330)는 음성 인식 안내 메시지는 디폴트된 메시지 폼(form)을 기반으로 음성 인식 안내 메시지를 생성할 수 있다. 예를 들어, 디폴트된 메시지 폼이 "what do you want to do with blank?" 일 경우, 프로세서(330)는 blank 위치에 컨택스트 아이템을 포함할 수 있다. 디폴트된 메시지 폼(form)은 앱 종류에 따라 변경될 수 있다. According to an embodiment, the processor 330 may generate a voice recognition guide message based on a default message form for the voice recognition guide message. For example, the default message form is "what do you want to do with blank?" In this case, the processor 330 may include a context item in a blank position. The default message form can be changed according to the type of app.

도 6a 및 도 6b는 다양한 실시예에 따른 전자 장치의 지능형 앱 실행을 지시하는 폴딩 이벤트의 예시들을 도시한다. 6A and 6B illustrate examples of a folding event instructing the execution of an intelligent app by an electronic device according to various embodiments of the present disclosure.

도 6a 및 도 6b를 참조하면, 일 실시예에 따르면, 전자 장치(101)는 제1 하우징(예: 도 2의 210) 및 제2 하우징(예: 도 2의 220) 이 열린 상태에서 도 6001에 도시된 바와 같이 다양한 변형 타입(A-1 및 A-2, B-1, C-1 및 C-2)로 변경된 폴딩 이벤트에 응답하여 실행된 앱과 관련된 컨택스트 기반의 지능형 앱을 실행할 수 있다. 6A and 6B, according to an embodiment, the electronic device 101 is shown in FIG. 6001 when the first housing (eg, 210 in FIG. 2) and the second housing (eg, 220 in FIG. 2) are open. As shown in, it is possible to execute a context-based intelligent app related to the executed app in response to the folding event changed to various transformation types (A-1 and A-2, B-1, C-1 and C-2). have.

일 예를 들어, A-1 및 A-2는 열린 상태에서 제1 하우징과 제2 하우징의 폴딩 각도가 설정된 각도 이하인 상태(예: 인 폴딩 상태)일 수 있다. 전자 장치(101)는 열린 상태에서 A-1 또는 A-2로 변경된 폴딩 이벤트에 응답하여 제2 디스플레이(예: 도 2의 240) 에 음성 인식 사용자 인터페이스를 표시할 수 있다. 이하, 전자 장치(101)가 폴딩 이벤트에 응답하여 음성 인식 사용자 인터페이스를 표시하는 예시를 설명하나, 전자 장치(101)는 폴딩 이벤트에 응답하여 컨택스트 아이템을 포함한 음성 인식 안내 메시지를 출력할 수도 있다. For example, A-1 and A-2 may be in a state in which a folding angle between the first housing and the second housing is less than or equal to a set angle (eg, in-folding state) in an open state. The electronic device 101 may display the voice recognition user interface on the second display (eg, 240 of FIG. 2) in response to the folding event changed to A-1 or A-2 in the open state. Hereinafter, an example in which the electronic device 101 displays a voice recognition user interface in response to a folding event will be described, but the electronic device 101 may output a voice recognition guide message including a context item in response to the folding event. .

다른 예를 들어, B-1은 열린 상태에서 폴딩 각도가 수직인 상태일 수 있다. 전자 장치(101)는 B-1으로 변경된 폴딩 이벤트에 응답하여 제1 디스플레이(예: 도 2의 230) 에 음성 인식 사용자 인터페이스를 표시할 수 있다. For another example, the B-1 may be in a state in which the folding angle is vertical in the open state. The electronic device 101 may display a voice recognition user interface on the first display (eg, 230 of FIG. 2) in response to the folding event changed to B-1.

또 다른 예를 들어, C-1 및 C-2는 열린 상태에서 제1 하우징과 제2 하우징의 폴딩 각도가 설정된 각도 이상인 상태(예: 아웃 폴딩 상태)일 수 있다. 전자 장치(101)는 열린 상태에서 C-1 또는 C-2로 변경된 조건에 응답하여 제1 디스플레이 중 어느 하나의 표시 영역에 음성 인식 사용자 인터페이스를 표시할 수 있다. For another example, C-1 and C-2 may be in a state in which a folding angle between the first housing and the second housing is greater than or equal to a set angle (eg, an out-folding state) in an open state. The electronic device 101 may display the voice recognition user interface on any one of the first displays in response to a condition changed to C-1 or C-2 in the open state.

일 실시예에 따르면, 전자 장치(101)는 제1 하우징 및 제2 하우징이 닫힌 상태에서 도 6002시된 바와 같이 다양한 변형 타입(D-1 및 D-2, E-1, F-1 및 F-2)로 변경된 폴딩 이벤트에 응답하여 실행된 앱과 관련된 컨택스트 기반의 지능형 앱을 실행할 수 있다.According to an embodiment, the electronic device 101 has various deformation types (D-1 and D-2, E-1, F-1 and F-) as shown in FIG. 6002 when the first housing and the second housing are closed. In response to the folding event changed to 2), a context-based intelligent app related to the executed app can be executed.

D-1 및 D-2는 닫힌 상태에서 제1 하우징과 제2 하우징의 폴딩 각도가 설정된 각도 이하인 상태(예: 인 폴딩 상태)일 수 있으며, 전자 장치(101)는 열린 상태에서 D-1 또는 D-2로 변경된 조건에 응답하여 제2 디스플레이에 음성 인식 사용자 인터페이스를 표시할 수 있다. D-1 and D-2 may be in a state in which the folding angle of the first housing and the second housing is less than or equal to a set angle (eg, in-folding state) in the closed state, and the electronic device 101 is D-1 or In response to the condition changed to D-2, the voice recognition user interface may be displayed on the second display.

E-1은 닫힌 상태에서 폴딩 각도가 수직인 상태일 수 있으며, 전자 장치(101)는 E-1으로 변경된 조건에 응답하여 제1 디스플레이에 음성 인식 사용자 인터페이스를 표시할 수 있다. E-1 may be in a state in which the folding angle is vertical in the closed state, and the electronic device 101 may display the voice recognition user interface on the first display in response to the condition changed to E-1.

F-1 및 F-2는 닫힌 상태에서 제1 하우징과 제2 하우징의 폴딩 각도가 설정된 각도 이상인 상태(예: 아웃 폴딩 상태)일 수 있으며, 전자 장치(101)는 열린 상태에서 F-1 또는 F-2로 변경된 조건에 응답하여 제1 디스플레이 중 어느 하나의 표시 영역에 음성 인식 사용자 인터페이스를 표시할 수 있다. F-1 and F-2 may be in a state in which the folding angle of the first housing and the second housing is greater than or equal to a set angle (eg, out-folding state) in the closed state, and the electronic device 101 In response to the condition changed to F-2, the voice recognition user interface may be displayed on any one display area of the first display.

도 7a 및 도 7b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다. 7A and 7B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 7a 및 도 7b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 3의 프로세서(330))는 연락처 앱을 실행할 수 있다. 프로세서(330)는 제1 하우징(710) 및 제2 하우징(720)이 열린 상태에서 7001에 도시된 바와 같이 제1 디스플레이(730)에 연락처 앱의 실행 화면(735)을 표시하거나 7002에 도시된 바와 같이, 닫힌 상태에서 제2 디스플레이(740)에 연락처 앱의 실행 화면(745)을 표시할 수 있다. 앱의 실행 화면(735,745)는 제1 디스플레이(730) 또는 제2 디스플레이(740)의 사이즈에 대응하여 표시 데이터가 가변 될 수 있다. Referring to FIGS. 7A and 7B, according to an embodiment, a processor of the electronic device 101 (eg, the processor 330 of FIG. 3) may execute a contact app. The processor 330 displays the execution screen 735 of the contact app on the first display 730 as shown in 7001 with the first housing 710 and the second housing 720 open, or the execution screen 735 shown in 7002. As shown, in the closed state, the execution screen 745 of the contact app may be displayed on the second display 740. In the execution screens 735 and 745 of the app, display data may vary according to the size of the first display 730 or the second display 740.

사용자는 전자 장치(101)(예: 터치 스크린 또는 입력 장치)와 인터렉션 (interaction)하여 저장된 연락처 중 green의 연락처 화면으로 이동시킬 수 있다. 사용자는 green의 연락처 화면이 표시된 상태에서 도 6a 또는 6b에 도시된 형태로 전자 장치(101)의 폴딩 각도를 조절할 수 있다. The user may interact with the electronic device 101 (eg, a touch screen or an input device) to move to a green contact screen among stored contacts. The user may adjust the folding angle of the electronic device 101 in the form shown in FIG. 6A or 6B while the green contact screen is displayed.

프로세서(330)는, 폴딩 이벤트에 응답하여 지능형 앱을 실행(또는 활성화) 할 수 있다. 프로세서(330)는, 실행 중인 앱의 실행 정보를 기반으로 앱의 상태 및 앱 화면의 맥락을 분석하여 앱 실행 화면(735,745)으로부터 컨택스트 아이템(775) 예를 들어, "green"를 지정할 수 있다. The processor 330 may execute (or activate) an intelligent app in response to a folding event. The processor 330 may designate a context item 775, for example, "green" from the app execution screens 735 and 745 by analyzing the status of the app and the context of the app screen based on execution information of the running app. .

프로세서(330)는 7003에 도시된 바와 같이, green 을 포함한 음성 인식 사용자 인터페이스(750)를 디스플레이(예: 제1 디스플레이(730) 또는 제2 디스플레이(740) 중 적어도 하나)에 출력할 수 있다. As illustrated in 7003, the processor 330 may output a voice recognition user interface 750 including green on a display (eg, at least one of the first display 730 or the second display 740 ).

음성 인식 사용자 인터페이스(750)는 음성 인식 안내 메시지(751) (예: " what do you want to do with Green?" ) 및 음성 모드 아이템(753)를 포함할 수 있으나, 경우에 따라 음성 인식 안내 메시지(751)는 스피커를 통해 음성 신호로 출력될 수도 있다. The voice recognition user interface 750 may include a voice recognition guide message 751 (for example, “what do you want to do with Green?”) and a voice mode item 753, but in some cases, the voice recognition guide message 751 may be output as an audio signal through a speaker.

사용자는 컨택스트 아이템(775)을 직관적으로 확인함으로써, 컨택스트 아이템과 관련된 음성 명령을 보다 직접적으로 발화할 수 있다. 예를 들어, 사용자는 "green"과 관련된 전자 장치의 기능을 수행하기 위해 음성 입력을 발화 할 수 있다.By intuitively checking the context item 775, the user can more directly utter a voice command related to the context item. For example, the user may utter a voice input to perform a function of an electronic device related to “green”.

일 실시 예에 따르면, 프로세서(330)는 7004-1에 도시된 바와 같이, 사용자로부터 "green"에게 텍스트를 전송하라는 발화(예: text her as I miss you)(760)를 수신하는 경우, 사용자의 음성 신호를 처리하여 "green"에게 텍스트 메시지(예: I miss you)를 전송할 수 있다. According to an embodiment, as shown in 7004-1, when the processor 330 receives an utterance (eg, text her as I miss you) 760 from a user to transmit text to “green”, the user A text message (eg, I miss you) may be transmitted to “green” by processing the voice signal of.

프로세서(330)는 태스크를 수행하기 위한 동작(operation)과 관련된 알림 정보를 음성 인식 사용자 인터페이스(750)에 출력할 수 있다. 예를 들어, 프로세서(330)는 태스크를 수행하기 전에 사용자 발화에 대응하는 음성 입력 아이템(761)를 디스플레이에 출력할 수 있다. 또는, 프로세서(330)는 스피커를 통해 태스크 수행 중임을 안내하는 정보(762)를 음성 신호로 출력할 수 있다. 사용자는 알림 정보의 출력에 따라 입력한 발화가 전자 장치(101)에 의해 올바르게 인식되었는지 여부를 확인할 수 있다. The processor 330 may output notification information related to an operation for performing a task to the voice recognition user interface 750. For example, the processor 330 may output a voice input item 761 corresponding to a user utterance on the display before performing the task. Alternatively, the processor 330 may output information 762 guiding that a task is being performed through a speaker as an audio signal. The user may check whether the input speech is correctly recognized by the electronic device 101 according to the output of the notification information.

다른 실시예에 따르면, 프로세서(330)는 7004-2에 도시된 바와 같이, 사용자로부터 전화 연결 하라는 발화(예: call her) (770)를 수신하는 경우, "green"에게 전화 연결을 수행할 수 있다. 프로세서(330)는 전화 연결 태스크에 대한 알림 정보 또는 전화 연결 화면(771)을 디스플레이에 출력할 수 있으며, 및/ 또는 스피커를 통해 전화 연결 중임을 안내하는 음성 정보(772)를 출력할 수 있다. According to another embodiment, as shown in 7004-2, when the processor 330 receives an utterance (eg, call her) 770 from the user to connect the phone, the processor 330 may perform a phone connection to “green”. have. The processor 330 may output notification information about a phone connection task or a phone connection screen 771 on the display, and/or output voice information 772 indicating that a phone connection is in progress through a speaker.

또 다른 실시예에 따르면, 프로세서(330)는 7004-3에 도시된 바와 같이, 사용자로부터 화상 통화 연결 하라는 발화(예: video call her) (780)를 수신하는 경우, "green"에게 비디오 전화 연결을 수행할 수 있다. 프로세서(330)는 비디오 전화 연결 태스크에 대한 알림 정보(781)를 디스플레이에 출력할 수 있으며, 및 또는 스피커를 통해 비디오 전화 연결 중임을 안내하는 음성 정보(782)를 출력할 수 있다. According to another embodiment, as shown in 7004-3, when the processor 330 receives an utterance (eg, video call her) 780 from a user to connect a video call, the processor 330 connects a video call to “green”. You can do it. The processor 330 may output notification information 781 for the video call connection task on the display, and may output voice information 782 indicating that the video call connection is in progress through a speaker.

도 8a 및 도 8b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다. 8A and 8B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 8a 및 도 8b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 3의 프로세서(330))는 갤러리 앱을 실행할 수 있다. 프로세서(330)는 제1 하우징(810) 및 제2 하우징(820)의 폴딩 이벤트에 응답하여 8001에 도시된 바와 같이, 열린 상태에서 제1 디스플레이(830)에 갤러리 앱의 실행 화면(835)을 표시할 수 있다. 또는, 프로세서(330)는 8002에 도시된 바와 같이, 닫힌 상태에서 제2 디스플레이(840)에 갤러리 앱의 실행 화면(845)을 표시할 수 있다. 앱의 실행 화면(835,845)는 제1 디스플레이(830) 또는 제2 디스플레이(840)의 사이즈에 대응하여 정보의 표시가 가변 될 수 있다. Referring to FIGS. 8A and 8B, according to an embodiment, a processor of the electronic device 101 (eg, the processor 330 of FIG. 3) may execute a gallery app. The processor 330 displays the execution screen 835 of the gallery app on the first display 830 in an open state, as shown in 8001 in response to the folding event of the first housing 810 and the second housing 820. Can be displayed. Alternatively, as shown in 8002, the processor 330 may display the execution screen 845 of the gallery app on the second display 840 in a closed state. The display of information on the execution screens 835 and 845 of the app may vary according to the size of the first display 830 or the second display 840.

사용자는 갤러리 앱 실행 화면이 표시된 상태에서 도 6a 또는 6b에 도시된 형태로 전자 장치(101)의 폴딩 각도를 조절할 수 있다. The user may adjust the folding angle of the electronic device 101 in the form shown in FIG. 6A or 6B while the gallery app execution screen is displayed.

프로세서(330)는, 폴딩 이벤트에 응답하여 실행된 지능형 앱에 기반하여 갤러리 앱의 실행 정보를 기반으로 앱의 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템(875) 예를 들어, "trip to Spain"를 지정할 수 있다. 프로세서(330)는 8003에 도시된 바와 같이, "trip to Spain"을 포함한 음성 인식 사용자 인터페이스(850)를 디스플레이(예: 제1 디스플레이(830) 또는 제2 디스플레이(840) 중 적어도 하나)에 출력할 수 있다. 갤러리 앱과 관련된 음성 인식 사용자 인터페이스(850)는 음성 인식 안내 메시지(851) (예: what do you want to do with this trip to Spain story? ) 및 음성 모드 아이템(853)을 포함할 수 있다. The processor 330 analyzes the state of the app and the context of the app screen based on the execution information of the gallery app based on the intelligent app executed in response to the folding event, and the context item 875, for example, "trip to Spain" can be specified. As shown in 8003, the processor 330 outputs a voice recognition user interface 850 including "trip to Spain" to a display (eg, at least one of the first display 830 or the second display 840) can do. The voice recognition user interface 850 related to the gallery app may include a voice recognition guide message 851 (eg, what do you want to do with this trip to Spain story?) and a voice mode item 853.

또 다른 실시예에 따르면, 프로세서(330)는 앱 화면의 맥락 분석을 통해 갤러리 앱과 연동하여 실행될 수 있는 기능을 제안할 수 있으며, 제안 기능에 대한 안내 정보(852)(예: share with your family?)를 음성 인식 사용자 인터페이스(850)에 포함하여 출력할 수 있다. According to another embodiment, the processor 330 may propose a function that can be executed in conjunction with the gallery app through context analysis of the app screen, and guide information 852 about the proposed function (eg, share with your family). ?) may be included in the voice recognition user interface 850 and output.

사용자는, "trip to Spain"과 관련된 기능을 수행하기 위해 음성을 발화할 수 있다. The user can utter a voice to perform a function related to "trip to Spain".

일 실시 예에 따르면, 프로세서(330)는 8004-1에 도시된 바와 같이, 사용자로부터 슬라이드 쇼 보기라는 발화(예: start slide show (860)를 수신하는 경우, 슬라이드 쇼에 대한 실행 화면(861)를 디스플레이에 출력할 수 있다. 또는, 프로세서(330)는 스피커를 통해 태스크 수행 중임을 안내하는 정보(862)를 음성으로 출력할 수 있다. According to an embodiment, as shown in 8004-1, when the processor 330 receives an utterance of viewing a slide show (eg, start slide show 860) from a user, the execution screen 861 for the slide show Alternatively, the processor 330 may output information 862 guiding that a task is being performed through a speaker as a voice.

다른 실시예에 따르면, 프로세서(330)는 8004-2에 도시된 바와 같이, 사용자로부터 특정인과 공유하라는 발화(예: share with green) (870)를 수신하는 경우, "green"에게 표시된 이미지를 통해 공유(예: 전송)할 수 있다. 프로세서(330)는 공유 태스크에 대한 알림 정보(871)를 디스플레이에 출력하거나 스피커를 통해 전화 연결 중임을 안내하는 음성 정보(872)를 출력할 수 있다. According to another embodiment, as shown in 8004-2, when the processor 330 receives an utterance (eg, share with green) 870 from a user to share with a specific person, the processor 330 You can share (e.g. transfer). The processor 330 may output notification information 871 about the sharing task on a display or output voice information 872 indicating that a phone connection is being made through a speaker.

또 다른 실시예에 따르면, 프로세서(330)는 8004-3에 도시된 바와 같이, 사용자로부터 제안 기능에 대한 답변 발화 (예: yes) (880)를 수신하거나, 8004-3에 도시된 바와 같이 가족에게 공유하는 발화 (예: share with my family) (890)를 수신하는 경우, 가족에서 표시된 이미지를 통해 공유(예: 전송)할 수 있다. 프로세서(330)는 공유 태스크에 대한 알림 정보(881,891)를 디스플레이에 출력하거나 가족과 공유 중임을 안내하는 음성 정보(882,892)를 출력할 수 있다. According to another embodiment, as shown in 8004-3, the processor 330 receives an answer speech (eg, yes) 880 for a suggested function from a user, or a family member as shown in 8004-3. If you receive an utterance (e.g., share with my family) (890) shared with my family, you can share (e.g., send) through the image displayed by the family. The processor 330 may output notification information 881,891 about the sharing task on a display or output voice information 882,892 indicating that sharing with a family member is being performed.

도 9a및 도 9b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능 구동 하는 예시를 나타낸다. 9A and 9B illustrate examples of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 9a 및 도 9b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 3의 프로세서(330))는 제1 하우징(910) 및 제2 하우징(920)의 폴딩 상태에 따라 9001에 도시된 바와 같이, 열린 상태에서 제1 디스플레이(930)에 지도 앱의 실행 화면(935)을 표시하거나 9002에 도시된 바와 같이, 닫힌 상태에서 제2 디스플레이(940)에 지도 앱의 실행 화면(945)을 표시할 수 있다. 프로세서(330)는 앱 실행 정보를 기반으로 캘리포니아의 지도화면이 표시된 상태임을 인지할 수 있다. 9A and 9B, according to an embodiment, the processor of the electronic device 101 (for example, the processor 330 of FIG. 3) is in a folded state of the first housing 910 and the second housing 920. Depending on, as shown in 9001, the execution screen 935 of the map app is displayed on the first display 930 in an open state, or as shown in 9002, the map app is displayed on the second display 940 in the closed state. The execution screen 945 may be displayed. The processor 330 may recognize that the map screen of California is displayed based on the app execution information.

사용자는 지도 앱 실행 화면이 표시된 상태에서 도 6a 또는 6b에 도시된 형태로 전자 장치(101)의 폴딩 각도를 조절할 수 있다. The user may adjust the folding angle of the electronic device 101 in the form shown in FIG. 6A or 6B while the map app execution screen is displayed.

프로세서(330)는, 폴딩 이벤트에 응답하여 지능형 앱을 실행(또는 활성화) 할 수 있다. 프로세서(330)는, 갤러리 앱의 실행 정보를 기반으로 앱의 상태 및 앱 화면의 맥락을 분석하여 앱의 실행 화면으로부터 컨택스트 아이템(975) 예를 들어, "California"를 지정할 수 있다. 프로세서(330)는, 음성 인식 안내 메시지(951) (예: what do you want to do in California?) 및 음성 모드 아이템(953)을 포함한 음성 인식 사용자 인터페이스(950)를 디스플레이(예: 제1 디스플레이(930) 또는 제2 디스플레이(940) 중 적어도 하나)에 출력할 수 있다. The processor 330 may execute (or activate) an intelligent app in response to a folding event. The processor 330 may analyze the status of the app and the context of the app screen based on the execution information of the gallery app, and designate a context item 975, for example, "California" from the execution screen of the app. The processor 330 displays a voice recognition user interface 950 including a voice recognition guide message 951 (eg, what do you want to do in California?) and a voice mode item 953 (eg, a first display). 930 or at least one of the second display 940).

사용자는 "California"과 관련된 기능을 수행하기 위해 음성을 발화할 수 있다. The user can utter a voice to perform functions related to "California".

일 실시 예를 들어, 프로세서(330)는 9004-1에 도시된 바와 같이, 사용자로부터 카페 추천이라는 발화(예: recommend a good cafe)(960)를 수신하는 경우, 사용자의 발화에 따른 태스크를 수행하여 캘리포니아 주변에 위치한 카페들 중 추천 카페 정보를 제공할 수 있다. 프로세서(330)는 9004-2에 도시된 바와 같이 추천 카페 정보(961)를 디스플레이에 출력하거나 스피커를 통해 추천 카페에 대해 안내하는 정보(962)를 음성으로 출력할 수 있다. For example, as shown in 9004-1, the processor 330 performs a task according to the user's utterance when receiving a cafe recommendation utterance (eg, recommend a good cafe) 960 from the user. Therefore, it is possible to provide information on recommended cafes among cafes located around California. As shown in 9004-2, the processor 330 may output recommended cafe information 961 on a display or may output information 962 guiding a recommended cafe through a speaker as a voice.

다른 실시예에 따르면, 프로세서(330)는 9004-2에 도시된 바와 같이, 사용자로부터 카페 음료 주문하라는 발화(예: order 1 Americano at nearest Starbucks) (970)를 수신하는 경우, 가장 가까운 스타벅스를 검색하고, 스타벅스 마켓을 통해 음료를 주문하는 태스크를 수행할 수 있다. 프로세서(330)는 주문 태스크에 대한 알림 정보(971)를 디스플레이에 출력하거나 스피커를 통해 전화 연결 중임을 안내하는 음성 정보(972)를 출력할 수 있다. According to another embodiment, as shown in 9004-2, when the processor 330 receives an utterance (eg, order 1 Americano at nearest Starbucks) 970 from a user to order a cafe drink, as shown in 9004-2, the processor 330 You can perform the task of searching and ordering drinks through the Starbucks Market. The processor 330 may output notification information 971 for an order task on a display or voice information 972 indicating that a phone connection is being made through a speaker.

도 10a및 도 10b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능 구동 하는 예시를 나타낸다. 10A and 10B illustrate examples of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 10a 및 도 10b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 3의 프로세서(330))는 제1 하우징(1010) 및 제2 하우징(1020)의 폴딩 상태에 따라 10001에 도시된 바와 같이, 열린 상태에서 제1 디스플레이(1030)에 인터넷 브라우저의 실행 화면(1035)을 표시하거나 10002에 도시된 바와 같이, 닫힌 상태에서 제2 디스플레이(1040)에 지도 앱의 실행 화면(1045)을 표시할 수 있다. 프로세서(330)는 앱 실행 정보를 기반으로 인터넷 브라우저에서 "스타트 게임"이 검색된 상태임을 인지할 수 있다. 10A and 10B, according to an embodiment, the processor of the electronic device 101 (for example, the processor 330 of FIG. 3) is in a folded state of the first housing 1010 and the second housing 1020. Depending on, as shown in 10001, the execution screen 1035 of the Internet browser is displayed on the first display 1030 in the open state, or as shown in 10002, the map app is displayed on the second display 1040 in the closed state. The execution screen 1045 may be displayed. The processor 330 may recognize that a "start game" has been searched for in an internet browser based on the app execution information.

프로세서(330)는, 도 6a 또는 6b에 도시된 폴딩 이벤트에 응답하여 10003에 도시된 바와 같이, 컨택스트 아이템(1075) 예를 들어, "스타트 게임"을 포함한 음성 인식 사용자 인터페이스(1050)를 디스플레이(예: 제1 디스플레이(1030) 또는 제2 디스플레이(1040) 중 적어도 하나)에 출력할 수 있다. 음성 인식 사용자 인터페이스(1050)는 음성 인식 안내 메시지(1051) (예: what do you want to do in start game?) 및 음성 모드 아이템(1053)을 포함할 수 있다. 또한, 프로세서(330)는 컨택스트 분석을 통해 스타트 게임과 관련하여 실행될 수 있는 기능(예: 영화 예매)을 제안할 수 있으며, 제안 기능에 대한 안내 정보(1052)(예: RESERVE A FASTEST TICKET?)를 음성 인식 사용자 인터페이스(1050)에 포함하여 출력할 수 있다. The processor 330 displays a voice recognition user interface 1050 including a context item 1075, for example, a "start game", as shown at 10003 in response to the folding event shown in FIG. 6A or 6B. (Eg, at least one of the first display 1030 or the second display 1040). The voice recognition user interface 1050 may include a voice recognition guide message 1051 (eg, what do you want to do in start game?) and a voice mode item 1053. In addition, the processor 330 may propose a function that can be executed in relation to the start game (eg, movie reservation) through context analysis, and guide information 1052 on the proposed function (eg, RESERVE A FASTEST TICKET? ) May be included in the voice recognition user interface 1050 and output.

사용자는 "스타트 게임"과 관련된 기능을 수행하기 위해 다양한 음성을 발화할 수 있다. The user can utter various voices to perform functions related to the "start game".

일 실시 예를 따르면, 프로세서(330)는 10004-1에 도시된 바와 같이, 사용자로부터 영화 예매하라는 발화(예: RESERVE A FASTEST TICKET) 또는 예매 승인 발화(예: YES)(1060)를 수신하는 경우, 사용자의 발화에 따라 영화 영화 예매 태스크를 수행할 수 있다. 프로세서(330)는 10004-2에 도시된 바와 같이 가장 빠른 시간에 스타트 게임 영화를 예매한 정보(1061)를 음성 인식 사용자 인터페이스(1050)에 출력하거나 스피커를 통해 영화 예매를 안내하는 정보(1062)를 음성으로 출력할 수 있다. According to an embodiment, as shown in 10004-1, the processor 330 receives an utterance (for example, RESERVE A FASTEST TICKET) or an utterance for approval of reservation (for example, YES) 1060 from a user, as shown in 10004-1. , A movie movie reservation task may be performed according to the user's speech. As shown in 10004-2, the processor 330 outputs information 1061 of the start game movie reservation at the earliest time to the voice recognition user interface 1050 or information 1062 guiding the movie reservation through a speaker. Can be output by voice.

다른 실시예에 따르면, 프로세서(330)는 10004-2에 도시된 바와 같이, 사용자로부터 리마인더 추가하라는 발화(예: order 1 Americano at nearest Starbucks) (1070)를 수신하는 경우, 앱 실행 화면에 대한 맥락분석을 통해 스마트 게임 영화에 대한 개봉 예정일을 확인하고, 개봉 예정일에 알림되도록 리마인더를 생성하는 태스크를 수행할 수 있다. 프로세서(330)는 리마인더 생성에 대한 알림 정보(1071)를 음성 인식 사용자 인터페이스(1050)에 출력하거나 스피커를 통해 리마인더 생성을 안내하는 음성 정보(1072)를 출력할 수 있다. According to another embodiment, as shown in 10004-2, when the processor 330 receives an utterance to add a reminder (eg, order 1 Americano at nearest Starbucks) 1070 from the user, the context for the app execution screen Through the analysis, a task of generating a reminder to check the scheduled release date of the smart game movie and to be notified on the scheduled release date may be performed. The processor 330 may output the notification information 1071 regarding the creation of the reminder to the voice recognition user interface 1050 or output the voice information 1072 guiding the generation of the reminder through a speaker.

도 11a및 도 11b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능 구동 하는 예시를 나타낸다. 11A and 11B illustrate examples of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 11a 및 도 11b를 참조하면, 일 실시예에 따르면, 전자 장치(101)의 프로세서(예: 도 3의 프로세서(330))는 제1 하우징(1110) 및 제2 하우징(1120)의 폴딩 상태에 따라 11001에 도시된 바와 같이, 열린 상태에서 제1 디스플레이(1130)에 뮤직 앱의 실행 화면(1135)을 표시하거나 11002에 도시된 바와 같이, 닫힌 상태에서 제2 디스플레이(1140)에 뮤직 앱의 실행 화면(1145)을 표시할 수 있다. 11A and 11B, according to an embodiment, the processor of the electronic device 101 (eg, the processor 330 of FIG. 3) is in a folded state of the first housing 1110 and the second housing 1120. Depending on, as shown in 11001, the execution screen 1135 of the music app is displayed on the first display 1130 in the open state, or the music app is displayed on the second display 1140 in the closed state, as shown in 11002. The execution screen 1145 may be displayed.

사용자가 도 6a 또는 6b에 도시된 형태로 전자 장치(101)의 폴딩 각도를 조절한 경우 프로세서(330)는, 폴딩 상태의 변경에 따라 음성 인식 앱을 실행(또는 활성화) 할 수 있다. When the user adjusts the folding angle of the electronic device 101 in the form shown in FIG. 6A or 6B, the processor 330 may execute (or activate) the voice recognition app according to a change in the folding state.

프로세서(330)는 뮤직 앱의 실행 화면의 맥락 분석을 통해 지정된 컨택스트 아이템(1175) 예를 들어, "LIPA"를 포함한 음성 인식 안내 메시지(1151) (예: what do you want to do with Lipa?) 및 음성 모드 아이템(1153)을 포함한 음성 인식 사용자 인터페이스(1150)를 11003에 도시된 바와 같이 디스플레이(예: 제1 디스플레이(1130) 또는 제2 디스플레이(1140) 중 적어도 하나)에 출력할 수 있다. The processor 330 includes a context item 1175 designated through context analysis of the execution screen of the music app, for example, a voice recognition guide message 1151 including “LIPA” (eg, what do you want to do with Lipa? ) And the voice mode item 1153 may be output to a display (eg, at least one of the first display 1130 or the second display 1140) as shown in 11003. .

사용자는 "Lipa"과 관련된 기능을 수행하기 위해 다양한 음성을 발화할 수 있다. The user can utter various voices to perform functions related to “Lipa”.

일 실시 예를 따르면, 프로세서(330)는 11004-1에 도시된 바와 같이, 사용자로부터 재생이라는 발화(예: Play)(1160)를 수신하는 경우, 사용자의 발화에 따라 Lipa와 관련된 음원을 재생하는 태스크를 수행할 수 있다. 프로세서(330)는 1004-2에 도시된 바와 같이 음원 재생 정보(1161)를 디스플레이에 출력하거나 스피커를 통해 음원 재생 중임을 안내하는 정보(1162)를 음성으로 출력할 수 있다. According to an embodiment, as shown in 11004-1, the processor 330 plays back a sound source related to Lipa according to the user's utterance when receiving an utterance (eg, Play) 1160 called playback from the user. Can perform tasks. As shown in 1004-2, the processor 330 may output sound source reproduction information 1161 to a display or may output information 1162 guiding that a sound source is being reproduced through a speaker as a voice.

다른 실시예에 따르면, 프로세서(330)는 11004-2에 도시된 바와 같이, 사용자로부터 "마지막 앨범 보여줘" 라는 발화(예: show her latest album) (1170)를 수신하는 경우, 앱 화면에 대한 맥락 분석을 통해Lipa에 대한 마지막 앨범을 검색하고 앨범 리스트를 제공하는 태스크를 수행할 수 있다. 프로세서(330)는 앨범 정보(1171)를 디스플레이에 출력하거나 스피커를 통해 앨범 제공을 안내하는 음성 정보(1172)를 출력할 수 있다. According to another embodiment, as shown in 11004-2, when the processor 330 receives an utterance (for example, show her latest album) 1170 from the user, as shown in 11004-2, the context for the app screen Through the analysis, you can perform the task of retrieving the last album for Lipa and providing an album list. The processor 330 may output the album information 1171 to a display or output voice information 1172 guiding the provision of an album through a speaker.

다른 실시예에 따르면, 프로세서(330)는 11004-2에 도시된 바와 같이, 사용자로부터 "그녀 얘기를 알려줘" 라는 발화(예: tell me about her stories) (1180)를 수신하는 경우, Lipa와 관련 정보를 검색하고, 검색된 Lipa 정보를 제공하는 태스크를 수행할 수 있다. 프로세서(330)는 Lipa를 설명하는 라디오 방송 재생을 실행하고 라디오 실행 정보(1181)를 디스플레이에 출력하거나 스피커를 통해 라디오 재생을 안내하는 음성 정보(1182)를 출력할 수 있다. According to another embodiment, as shown in 11004-2, when the processor 330 receives an utterance (for example, tell me about her stories) 1180 from the user, "tell me about her stories", it is related to Lipa. It is possible to perform a task of searching for information and providing the searched Lipa information. The processor 330 may play a radio broadcast describing Lipa and output the radio execution information 1181 to a display, or may output audio information 1182 guiding radio play through a speaker.

도 12a 및 도 12b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다. 12A and 12B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 12a 및 도 12b를 참조하면, 일 실시예에 따른 전자 장치의 프로세서(예: 도 3의 프로세서(330))는 1210 동작에서 지능형 앱 실행을 지시하는 폴딩 이벤트에 응답하여 지능형 음성 인식 앱을 실행할 수 있다. 이하, 1220 동작 내지 1270동작은 지능형 앱에 기반한 동작들일 수 있다.12A and 12B, a processor of an electronic device according to an embodiment (eg, the processor 330 of FIG. 3) executes an intelligent speech recognition app in response to a folding event instructing the execution of the intelligent app in operation 1210. I can. Hereinafter, operations 1220 to 1270 may be operations based on an intelligent app.

1220동작에서, 프로세서(330)는, 디스플레이(예: 제1 디스플레이 또는 제2 디스플레이 중 적어도 하나)에 표시된 화면이 대기화면인지 여부를 판단할 수 있다. 1230 동작에서, 프로세서(330)는 대기화면이 표시된 경우 지능형 앱에 기반하여 기본 음성 인식 모드로 동작할 수 있다. 예를 들어, 기본 음성 안내 모드는, 디폴트된 음성 인식 안내 메시지를 제공하는 모드일 수 있다. In operation 1220, the processor 330 may determine whether a screen displayed on a display (eg, at least one of a first display or a second display) is an idle screen. In operation 1230, when the idle screen is displayed, the processor 330 may operate in a basic voice recognition mode based on the intelligent app. For example, the basic voice guidance mode may be a mode that provides a default voice recognition guide message.

1240 동작에서, 프로세서(330)는 지능형 음성 인식 앱이 기본 안내 모드로 동작하는 중 음성 입력을 수신할 수 있다. 1250 동작에서 프로세서(330)는 음성 입력을 기반으로 사운드 발생 지점이 기 설정된 거리 이내에 존재하는지를 결정할 수 있다. 예를 들어, 프로세서(330)는 수신된 음성 신호의 세기 또는 센서 정보(예: 이미지 센서)를 기반으로 사용자의 위치를 인지하고, 사용자의 위치에 대응하는 사운드 발생 지점을 확인할 수 있다. In operation 1240, the processor 330 may receive a voice input while the intelligent voice recognition app is operating in a basic guide mode. In operation 1250, the processor 330 may determine whether the sound generation point exists within a preset distance based on the voice input. For example, the processor 330 may recognize the user's location based on the intensity of the received voice signal or sensor information (eg, an image sensor), and check a sound generation point corresponding to the user's location.

1260 동작에서, 프로세서(330)는 사운드 발생 지점이 기 설정된 거리 이내에 존재하는 경우, 음성 입력에 대응하는 태스크를 수행하는 음성 안내의 사운드가 감소되도록 조절할 수 있다. 1265 동작에서, 프로세서(330)는 사운드 발생 지점이 기 설정된 거리를 벗어난 경우 음성 입력에 대응하는 태스크를 수행하는 음성 안내의 사운드가 증가되도록 조절할 수 있다. 예를 들어, 전자 장치는 사용자가 근접 거리에 존재하는지 여부에 따라 안내 정보를 제공하는 음성 사운드의 출력 세기를 조절할 수 있다. In operation 1260, when the sound generation point exists within a preset distance, the processor 330 may adjust the sound of the voice guidance for performing a task corresponding to the voice input to be reduced. In operation 1265, the processor 330 may adjust the sound of the voice guidance for performing a task corresponding to the voice input to increase when the sound generation point is out of a preset distance. For example, the electronic device may adjust the output intensity of the voice sound providing guidance information according to whether the user is in a close distance.

한편, 1225 동작에서, 디스플레이에 표시된 화면이 대기 화면이 아닐 경우, 프로세서(330)는 앱 실행 화면이 디스플레이에 표시된 것으로 확인할 수 있다. 1270 동작에서, 프로세서(330)는 디스플레이에 앱 실행 화면이 표시된 경우, 실행 중인 앱과 관련된 컨택스트 기반의 음성 인식 모드로 동작할 수 있다. 예를 들어, 프로세서(330)는 디스플레이에 표시된 앱의 실행 정보를 기반으로 앱 상태를 분석하고, 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정하고, 컨택스트 아이템이 지능형 앱의 파라미터로 이용되도록 제어할 수 있다. 이하, 구체적인 컨택스트 기반의 음성 인식 모드는 도 4a 및 도 4b에서 설명하였으므로 생략하기로 한다. 이후 프로세서(330)는 1240 동작으로 진행할 수 있다. Meanwhile, in operation 1225, if the screen displayed on the display is not the standby screen, the processor 330 may determine that the app execution screen is displayed on the display. In operation 1270, when the app execution screen is displayed on the display, the processor 330 may operate in a context-based speech recognition mode related to the running app. For example, the processor 330 analyzes the app state based on the execution information of the app displayed on the display, analyzes the context of the app screen to designate a context item, and allows the context item to be used as a parameter of an intelligent app. Can be controlled. Hereinafter, a specific context-based speech recognition mode has been described in FIGS. 4A and 4B, and thus will be omitted. Thereafter, the processor 330 may proceed to operation 1240.

도 13a 및 도 13b는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다. 13A and 13B illustrate an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 13a 및 도 13b를 참조하면, 다양한 실시예에 따른 전자 장치의 프로세서(예: 도 3의 330)는 13001에 도시된 바와 같이, 제1 하우징 (1310)과 제2 하우징(1320)이 열린 상태에서 대기 화면(1335)를 제1 디스플레이(1330)에 표시하거나, 13002에 도시된 바와 같이, 닫힌 상태에서 대기 화면(1345)을 제2 디스플레이(1340)에 표시할 수 있다. 13A and 13B, a processor (eg, 330 in FIG. 3) of an electronic device according to various embodiments of the present disclosure is in a state in which the first housing 1310 and the second housing 1320 are open, as shown in 13001. In, the standby screen 1335 may be displayed on the first display 1330, or as shown in 13002, the standby screen 1345 may be displayed on the second display 1340 in a closed state.

프로세서(330)는 폴딩 이벤트에 응답하여 13003에 도시된 바와 같이, 기본 음성 인식 모드에 대응하는 사용자 인터페이스(1350)을 디스플레이(예: 제1 디스플레이(1330) 또는 제2 디스플레이(1340) 중 적어도 하나)에 출력할 수 있다. 기본 음성 인식 모드에 대응하는 사용자 인터페이스(1350)는 디폴트된 음성 인식 안내 메시지(1351) 및 음성 모드 아이템(1353) 포함할 수 있으나, 경우에 따라 음성 인식 안내 메시지(1351)를 스피커를 통해 출력할 수도 있다. In response to the folding event, the processor 330 displays a user interface 1350 corresponding to the basic voice recognition mode (for example, at least one of the first display 1330 or the second display 1340), as shown in 13003. ) Can be printed. The user interface 1350 corresponding to the basic voice recognition mode may include a default voice recognition guide message 1351 and a voice mode item 1352, but in some cases, the voice recognition guide message 1351 may be output through a speaker. May be.

사용자는 전자 장치의 음성 인식 서비스를 요청하는 음성 입력 (1360)(예: how is the weather today?)을 발화할 수 있다. 프로세서(330)는 사용자 인터페이스(1350)에 음성 입력에 대응하는 텍스트(1361)를 출력할 수 있다. 프로세서(330)는 사용자의 음성 입력에 대응하는 날씨 검색 태스크를 수행하고 날씨 정보(1370)를 디스플레이에 출력할 수 있다. 또한, 프로세서(330)는 날씨와 관련된 정보를 안내하는 음성(1371)을 스피커를 통해 출력할 수도 있다. The user may utter a voice input 1360 (eg, how is the weather today?) requesting a voice recognition service of the electronic device. The processor 330 may output text 1361 corresponding to the voice input to the user interface 1350. The processor 330 may perform a weather search task corresponding to a user's voice input and output weather information 1370 to the display. In addition, the processor 330 may output a voice 1371 guiding information related to weather through a speaker.

도 14는 다양한 실시예에 따른 폴더블 전자 장치의 음성 인식 동작 방법을 도시한다. 14 illustrates a method of operating voice recognition of a foldable electronic device according to various embodiments of the present disclosure.

도 14를 참조하면, 다양한 실시예에 따른 전자 장치의 프로세서(예: 도 3의 330)는 1410 동작에서 복수의 앱을 실행할 수 있다. 프로세서(330)는 복수의 앱 실행에 따라 디스플레이의 표시 영역을 분할하여 각 앱 실행 화면을 각각 표시할 수 있다. Referring to FIG. 14, a processor (eg, 330 of FIG. 3) of an electronic device according to various embodiments may execute a plurality of apps in operation 1410. The processor 330 may display each app execution screen by dividing the display area of the display according to the execution of a plurality of apps.

1420 동작에서, 프로세서(330)는 복수의 앱이 실행된 상태에서 지능형 인식 앱 실행을 지시하는 폴딩 이벤트를 검출할 수 있다. 1430 동작에서 프로세서(330)는 컨택스트 아이템을 지정하기 위해 설정된 위치가 존재하는지 여부를 결정할 수 있다. 1440 동작에서, 프로세서(330)는 설정된 위치가 존재하는 경우, 폴딩 이벤트에 응답하여 설정된 위치에서 실행중인 앱의 실행 정보를 확인할 수 있다. 프로세서(330)는 설정된 위치에서 실행중인 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정할 수 있다. In operation 1420, the processor 330 may detect a folding event instructing the execution of an intelligent recognition app in a state in which a plurality of apps are executed. In operation 1430, the processor 330 may determine whether a location set to designate a context item exists. In operation 1440, if the set location exists, the processor 330 may check execution information of the app running at the set location in response to the folding event. The processor 330 may designate a context item by analyzing an app state and a context of an app screen based on execution information of an app running at a set location.

1450 동작에서, 프로세서(330)는 컨택스트 아이템을 지정하기 위해 설정된 위치가 존재하지 않는 경우, 앱 화면의 맥락 분석을 위해 사용자 선택을 요청하는 안내를 디스플레이에 출력할 수 잇다. In operation 1450, when there is no location set to designate a context item, the processor 330 may output a guide requesting a user selection for context analysis of the app screen on the display.

1455 동작에서, 프로세서(330)는 사용자 선택을 수신할 수 있다. 1460 동작에서 선택된 위치에서 실행중인 앱의 실행 정보를 확인할 수 있다. 프로세서는 선택된 위치에서 실행 중인 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정할 수 있다. In operation 1455, the processor 330 may receive a user selection. You can check the execution information of the app running in the location selected in operation 1460. The processor may designate a context item by analyzing the app status and the context of the app screen based on the execution information of the app running in the selected location.

1470 동작에서, 프로세서(330)는 컨택스트 기반의 음성 인식 모드로 동작할 수 있다. 컨택스트 기반의 음성 인식 모드는 도 4a 및 도 4b에서 실행되는 동작들을 포함할 수 있다.In operation 1470, the processor 330 may operate in a context-based speech recognition mode. The context-based speech recognition mode may include operations executed in FIGS. 4A and 4B.

도 15는 다양한 실시예에 따른 전자 장치의 음성 인식 기능을 구동하는 실시예를 도시한다. 15 illustrates an embodiment of driving a voice recognition function of an electronic device according to various embodiments of the present disclosure.

도 15를 참조하면, 다양한 실시예에 따른 전자 장치의 프로세서(예: 도 3의 330)는 15001에 도시된 바와 같이, 제1 하우징 (1510)과 제2 하우징(1520)이 열린 상태에서 제1 디스플레이(1530)에 복수의 앱 실행 화면을 표시할 수 있다. 예를 들어, 3개의 앱이 실행된 경우, 프로세서(330)는 제1 영역(1535), 제2 영역(1356) 및 제3 영역(1537)으로 분할하여 각 앱의 실행 화면을 출력할 수 있다. Referring to FIG. 15, a processor (eg, 330 in FIG. 3) of an electronic device according to various embodiments of the present disclosure includes a first housing 1510 and a second housing 1520 in an open state as illustrated in 15001. A plurality of application execution screens may be displayed on the display 1530. For example, when three apps are executed, the processor 330 may divide into a first area 1535, a second area 1356, and a third area 1537 to output an execution screen of each app. .

일 실시예에 따르면, 프로세서(330)는 복수의 앱 실행 화면이 실행된 상태에서 컨택스트 아이템을 지정을 위한 위치가 제1 영역(1535)으로 설정된 경우, 폴딩 이벤트에 응답하여 제1 영역(1535)에서 실행중인 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템을 지정할 수 있다. According to an embodiment, when a location for designating a context item is set as the first area 1535 while a plurality of app execution screens are being executed, the processor 330 responds to the folding event to the first area 1535. ), you can designate a context item by analyzing the app status and context of the app screen based on the running information of the app running in ).

다른 실시예에 따르면, 복수의 앱 실행 화면이 실행된 상태에서 컨택스트 아이템을 위한 지정된 위치가 존재하지 않는 경우, 프로세서(330)는 폴딩 이벤트에 응답하여 15002에 도시된 바와 같이 컨택스트 분석을 위해 사용자 선택을 요청하는 안내 정보(1547)를 디스플레이에 표시할 수 있다. 예를 들어, 프로세서(330)는 제1 영역 제2 영역 및 제3 영역을 구분하는 표시 아이템을 각각 출력할 수 있으나, 15002에 도시된 화면으로 한정하지 않으며, 다양한 형태로 사용자 선택을 요청하는 사용자 인터페이스를 표시할 수 있다. According to another embodiment, when a designated location for a context item does not exist in a state in which a plurality of app execution screens are executed, the processor 330 responds to the folding event for context analysis as shown in 15002. Guide information 1547 for requesting user selection may be displayed on the display. For example, the processor 330 may output a display item that separates the first area, the second area and the third area, but is not limited to the screen shown in 15002, and a user who requests user selection in various forms Interface can be displayed.

예를 들어, 사용자가 제2 영역을 선택하는 경우, 프로세서(330)는 제2 영역에서 실행 중인 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 컨택스트 아이템(예: Lipa)를 지정하고 15003에 도시된 바와 같이 lipa가 포함된 음성 인식 사용자 인터페이스를 화면에 표시할 수 있다. 음성 인식 사용자 인터페이스는 lipa가 포함된 음성 인식 안내 메시지 및 음성 모드 아이템을 포함할 수 있다. 예를 들어, 음성 인식 사용자 인터페이스는 폴딩 이벤트에 응답하여 제1 디스플레이의 전체 화면으로 출력될 수 있으나, 이에 한정하는 것은 아니다. For example, when the user selects the second area, the processor 330 analyzes the app status and the context of the app screen based on the execution information of the app running in the second area to provide a context item (eg, Lipa). And display a voice recognition user interface including lipa on the screen as shown in 15003. The voice recognition user interface may include a voice recognition guide message including lipa and a voice mode item. For example, the voice recognition user interface may be output as a full screen of the first display in response to a folding event, but is not limited thereto.

본 문서의 다양한 실시 예들은 기기(machine)(예: 전자 장치(101))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들(instructions)을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러(compiler) 생성된 코드 또는 인터프리터(interpreter)에 의해 실행될 수 있는 코드(code)를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document include one or more stored in a storage medium (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, electronic device 101). It may be implemented as software (eg, program 140) including instructions. For example, the processor (eg, the processor 120) of the device (eg, the electronic device 101) may call and execute at least one command among one or more commands stored from a storage medium. This enables the device to be operated to perform at least one function according to the at least one command invoked. The one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here,'non-transient' only means that the storage medium is a tangible device and does not contain a signal (e.g., electromagnetic waves). It does not distinguish between temporary storage cases.

일 실시 예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: CD-ROM, compact disc read only memory)의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to an embodiment, a method according to various embodiments disclosed in the present document may be provided by being included in a computer program product. Computer program products can be traded between sellers and buyers as commodities. The computer program product is distributed in the form of a device-readable storage medium (e.g., CD-ROM, compact disc read only memory), or through an application store (e.g., Play Store TM ) or two user devices (e.g. : It can be distributed (e.g., downloaded or uploaded) directly between smartphones) or online. In the case of online distribution, at least a part of the computer program product may be temporarily stored or temporarily generated in a storage medium that can be read by a device such as a server of a manufacturer, a server of an application store, or a memory of a relay server.

다양한 실시 예들에 따르면, 상기 기술한 구성 요소들의 각각의 구성 요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시 예들에 따르면, 전술한 해당 구성 요소들 중 하나 이상의 구성 요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성 요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성 요소들(예: 모듈 또는 프로그램)은 하나의 구성 요소로 통합될 수 있다. 이런 경우, 통합된 구성 요소는 상기 복수의 구성 요소들 각각의 구성 요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성 요소들 중 해당 구성 요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따르면, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱(heuristic)하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a singular number or a plurality of entities. According to various embodiments, one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of constituent elements (eg, a module or program) may be integrated into one constituent element. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar to that performed by the corresponding component among the plurality of components prior to the integration. . According to various embodiments, operations performed by a module, program, or other component are sequentially, parallel, repeatedly, or heuristically executed, or one or more of the operations are executed in a different order, or , Omitted, or one or more other operations may be added.

101: 전자 장치
210: 제1 하우징
220: 제2 하우징
230,310: 제1 디스플레이
240: 320: 제2 디스플레이
330: 프로세서
340: 센서 모듈
350: 통신 모듈
101: electronic device
210: first housing
220: second housing
230,310: first display
240: 320: second display
330: processor
340: sensor module
350: communication module

Claims (20)

폴더블 전자 장치에 있어서,
제1 면 및 상기 제1 면과 반대인 제3 면으로 형성된 제1 하우징;
상기 제1 면으로부터 연장된 제2 면 및 상기 제2 면과 반대인 제4 면으로 형성된 제2 하우징;
상기 제1 면 및 상기 제2 면에 형성된 제1 디스플레이;
상기 제3 면의 적어도 일부에 배치된 제2 디스플레이;
메모리; 및
프로세서를 포함하고,
상기 메모리는, 실행 시에, 상기 프로세서가,
적어도 하나의 앱의 실행 화면을 상기 제1 디스플레이 또는 제2 디스플레이 중 적어도 하나에 표시하는 동안 상기 제1 하우징 및 제2 하우징의 폴딩 이벤트에 응답하여 지능형 앱을 실행하고, 상기 제1 디스플레이 및 제2 디스플레이 중 적어도 하나에 표시된 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 상기 표시된 앱과 관련하여 지정된 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 출력하도록 하는 인스트럭션들을 저장하는 전자 장치.
In the foldable electronic device,
A first housing formed with a first surface and a third surface opposite to the first surface;
A second housing formed with a second surface extending from the first surface and a fourth surface opposite to the second surface;
A first display formed on the first and second surfaces;
A second display disposed on at least a portion of the third surface;
Memory; And
Including a processor,
The memory, when executed, the processor,
While displaying the execution screen of at least one app on at least one of the first display or the second display, the intelligent app is executed in response to a folding event of the first housing and the second housing, and the first display and the second display Analyzing the app status and the context of the app screen based on the execution information of the app displayed on at least one of the displays to output at least one of a voice recognition guide message and a voice mode item including a specified context item in relation to the displayed app An electronic device that stores instructions.
제1항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 제 1 하우징 및 제2 하우징이 열린 상태에서 상기 제1 디스플레이에 실행된 상기 적어도 하나의 앱의 실행 화면을 표시하고, 상기 제1 하우징 및 제2 하우징의 폴딩 각도가 지정된 각도로 변형되는 상기 폴딩 이벤트에 응답하여 상기 제1 디스플레이에 표시된 앱과 관련된 컨택스트 아이템을 지정하도록 하는 전자 장치.
The method of claim 1,
The instructions, the processor,
The folding in which the execution screen of the at least one app executed on the first display is displayed while the first and second housings are open, and the folding angles of the first and second housings are deformed to a specified angle. An electronic device configured to designate a context item related to an app displayed on the first display in response to an event.
제1항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 제1 하우징 및 제2 하우징이 닫힌 상태에서 상기 제2 디스플레이에 실행된 적어도 하나의 앱의 실행 화면을 표시하고, 상기 제1 하우징 및 제2 하우징의 폴딩 각도가 지정된 각도로 변형되는 상기 폴딩 이벤트에 응답하여 상기 제2 디스플레이에 표시된 앱과 관련된 컨택스트 아이템을 지정하도록 하는 전자 장치.
The method of claim 1,
The instructions, the processor,
The folding event in which an execution screen of at least one app executed on the second display is displayed while the first and second housings are closed, and the folding angles of the first and second housings are deformed to a specified angle. In response to, an electronic device configured to designate a context item related to an app displayed on the second display.
제1항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 폴딩 이벤트에 응답하여 상기 제1 디스플레이 또는 제2 디스플레이의 포어 그라운드 또는 최상위 계층에서 실행 중인 앱의 실행 정보를 상기 지능형 앱으로 전달하도록 하는 전자 장치.
The method of claim 1,
The instructions, the processor,
In response to the folding event, an electronic device configured to transmit execution information of an app running in a foreground or a top layer of the first display or the second display to the intelligent app.
제1항에 있어서,
상기 앱의 실행 정보는 앱의 식별 정보, 실행 화면 또는 페이지 정보, 실행 기능 정보, 앱과 관련된 메타 데이터, 앱과 관련된 사용자 입력 데이터 중 적어도 하나를 포함하는 전자 장치.
The method of claim 1,
The application execution information includes at least one of identification information of the app, execution screen or page information, execution function information, metadata related to the app, and user input data related to the app.
제5항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 지능형 앱에 기반하여 상기 앱의 실행 정보를 기반으로 제1 디스플레이 또는 제2 디스플레이에 표시 중인 앱의 상태를 분석하고, 앱 화면의 맥락을 분석하여 상기 컨택스트 아이템을 지정하고, 상기 컨택스트 아이템을 지능형 앱의 파라미터로 설정하여 상기 컨택스트 아이템을 포함하는 음성 인식 안내 메시지를 생성하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 5,
The instructions, the processor,
Based on the intelligent app, the state of the app being displayed on the first display or the second display is analyzed based on the execution information of the app, the context of the app screen is analyzed to designate the context item, and the context item The electronic device further comprises instructions for generating a voice recognition guide message including the context item by setting as a parameter of an intelligent app.
제6항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 지능형 앱에 기반하여 상기 앱의 실행 정보를 획득할 수 없는 경우, 상기 제1 디스플레이 또는 제2 디스플레이에 표시 중인 앱의 실행 화면을 캡쳐하고, 상기 캡쳐된 앱의 실행 화면과 관련된 적어도 하나의 텍스트 또는 메타 데이터를 획득하여 상기 컨택스트 아이템을 지정하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 6,
The instructions, the processor,
When the execution information of the app cannot be obtained based on the intelligent app, the execution screen of the app being displayed on the first display or the second display is captured, and at least one text related to the execution screen of the captured app Or instructions for obtaining metadata to designate the context item.
제1항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 지능형 앱에 기반하여 상기 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 포함한 음성 인식 사용자 인터페이스를 상기 적어도 하나의 앱의 실행 화면이 표시된 어느 하나의 디스플레이에 표시하도록 하는 전자 장치.
The method of claim 1,
The instructions, the processor,
An electronic device configured to display a voice recognition user interface including at least one of a voice recognition guide message including the context item and a voice mode item on a display on which an execution screen of the at least one app is displayed, based on the intelligent app .
제1항에 있어서,
스피커를 더 포함하고,
상기 인스트럭션들은, 상기 프로세서가,
상기 지능형 앱에 기반하여 상기 음성 모드 아이템을 포함한 사용자 인터페이스를 상기 적어도 하나의 앱의 실행 화면이 표시된 어느 하나의 디스플레이에 표시하고, 상기 컨택스트 아이템을 포함한 음성 인식 안내 메시지를 상기 스피커를 출력하도록 하는 전자 장치.
The method of claim 1,
Including more speakers,
The instructions, the processor,
Displaying a user interface including the voice mode item on the display of the execution screen of the at least one app based on the intelligent app, and outputting a voice recognition guide message including the context item to the speaker Electronic device.
제1항에 있어서,
적어도 하나의 센서를 더 포함하고,
상기 인스트럭션들은, 상기 프로세서가,
상기 적어도 하나의 센서로부터 획득한 센서 정보를 기반으로 상기 제1 하우징 및 제2 하우징의 폴딩 타입, 상기 전자 장치의 거치 방향, 사용자의 시선 정보를 기반으로 상기 음성 인식 안내 메시지 및 음성 모드 객체 중 적어도 하나를 출력할 디스플레이를 결정하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 1,
Further comprising at least one sensor,
The instructions, the processor,
At least one of the voice recognition guide message and the voice mode object based on the folding type of the first housing and the second housing, the mounting direction of the electronic device, and gaze information of the user based on sensor information obtained from the at least one sensor. The electronic device further comprising instructions for determining a display to output one.
제1항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
복수의 앱 실행에 기반하여, 상기 제1 디스플레이를 분할하여 분할 영역들에 각각의 앱 실행 화면을 표시하는 동안 상기 지능형 앱 실행 시 상기 컨택스트 아이템을 지정할 분할 위치가 설정된 경우, 상기 설정된 분할 위치에서 표시중인 앱의 실행 정보를 기반으로 앱의 상태 및 앱 화면의 맥락을 분석하여 상기 컨택스트 아이템을 지정하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 1,
The instructions, the processor,
Based on the execution of a plurality of apps, when a split location to designate the context item when executing the intelligent app is set while the first display is split and each app execution screen is displayed in split regions, at the set split location The electronic device further comprising instructions for designating the context item by analyzing the status of the app and the context of the app screen based on execution information of the displayed app.
제11항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 지능형 앱 실행 시 상기 컨택스트 아이템을 지정할 분할 위치가 설정되지 않은 경우, 어느 하나에 대한 앱 선택을 요청하는 사용자 인터페이스를 상기 제1 디스플레이에 표시하고, 사용자 선택 입력에 기반하여 상기 분할 영역들 중 선택된 앱의 실행 화면으로부터 상기 컨택스트 아이템을 지정하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 11,
The instructions, the processor,
When a split location to designate the context item is not set when executing the intelligent app, a user interface for requesting an app selection for any one is displayed on the first display, and among the split areas based on a user selection input. The electronic device further comprising instructions for designating the context item from an execution screen of the selected app.
제11항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 제1 디스플레이 또는 상기 제2 디스플레이에 대기 화면을 표시하는 동안 상기 제1 하우징 및 제2 하우징의 폴딩 이벤트에 응답하여 지능형 앱을 실행하는 경우, 디폴트된 음성 인식 안내 메시지를 출력하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 11,
The instructions, the processor,
Further instructions for outputting a default voice recognition guide message when an intelligent app is executed in response to a folding event of the first housing and the second housing while the standby screen is displayed on the first display or the second display. Electronic device comprising.
제11항에 있어서,
마이크를 더 포함하고,
상기 인스트럭션들은, 상기 프로세서가,
상기 지능형 앱이 실행되면 상기 마이크를 활성화하고, 상기 활성화된 마이크를 통해 획득한 사용자 발화를 기반으로 상기 컨택스트 아이템과 관련된 기능을 수행하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 11,
Include more microphones,
The instructions, the processor,
The electronic device further comprises instructions for activating the microphone when the intelligent app is executed, and performing a function related to the context item based on a user utterance acquired through the activated microphone.
제14항에 있어서,
상기 인스트럭션들은, 상기 프로세서가,
상기 활성화된 마이크를 통해 획득한 사용자 발화 지점과 상기 전자 장치 사이의 거리를 기반으로 상기 컨택스트 아이템과 관련된 기능이 수행 중임을 안내하는 사운드를 조절하도록 하는 인스트럭션들을 더 포함하는 전자 장치.
The method of claim 14,
The instructions, the processor,
The electronic device further comprises instructions for adjusting a sound indicating that a function related to the context item is being performed based on a distance between the user's speech point acquired through the activated microphone and the electronic device.
전자 장치의 음성 인식 기능을 구동하는 방법에 있어서,
적어도 하나의 앱의 실행 화면을 상기 제1 디스플레이 또는 제2 디스플레이 중 적어도 하나에 표시하는 동작;
제1 하우징 및 제2 하우징을 포함하는 전자 장치의 폴딩 이벤트에 응답하여 지능형 앱을 실행하는 동작;
상기 지능형 앱에 기반하여, 상기 제1 디스플레이 및 제2 디스플레이 중 적어도 하나에 표시된 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하는 동작; 및
상기 표시된 앱과 관련된 컨택스트 아이템을 포함한 음성 인식 안내 메시지 및 음성 모드 아이템 중 적어도 하나를 출력하는 동작을 포함하는 방법.
In a method of driving a voice recognition function of an electronic device,
Displaying an execution screen of at least one app on at least one of the first display and the second display;
Executing an intelligent app in response to a folding event of an electronic device including the first housing and the second housing;
Analyzing an app status and a context of an app screen based on the intelligent app, based on execution information of the app displayed on at least one of the first display and the second display; And
And outputting at least one of a voice recognition guide message and a voice mode item including a context item related to the displayed app.
제16항에 있어서,
상기 앱 상태 및 앱 화면의 맥락을 분석하는 동작은,
상기 제1 디스플레이 또는 제2 디스플레이에 표시 중인 앱의 실행 화면으로부터 상기 컨택스트 아이템을 지정하는 동작;
상기 컨택스트 아이템을 지능형 앱의 파라미터로 설정하는 동작; 및
상기 컨택스트 아이템을 포함하는 음성 인식 안내 메시지를 생성하는 동작을 더 포함하는 방법.
The method of claim 16,
The operation of analyzing the app state and the context of the app screen,
Designating the context item from an execution screen of an app being displayed on the first display or the second display;
Setting the context item as a parameter of an intelligent app; And
The method further comprising generating a voice recognition guidance message including the context item.
제16항에 있어서,
상기 앱 상태 및 앱 화면의 맥락을 분석하는 동작은,
상기 지능형 앱에 기반하여 상기 앱의 실행 정보를 획득할 수 없는 경우, 상기 제1 디스플레이 또는 제2 디스플레이에 표시 중인 앱의 실행 화면을 캡쳐하는 동작;
상기 캡쳐된 앱의 실행 화면과 관련된 적어도 하나의 텍스트 또는 메타 데이터를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 상기 컨택스트 아이템을 지정하는 동작 및
상기 컨택스트 아이템을 포함하는 음성 인식 안내 메시지를 생성하는 동작을 더 포함하는 방법.
The method of claim 16,
The operation of analyzing the app state and the context of the app screen,
Capturing an execution screen of the app being displayed on the first display or the second display when the execution information of the app cannot be obtained based on the intelligent app;
An operation of designating the context item by analyzing an app status and a context of the app screen based on at least one text or metadata related to the captured app execution screen, and
The method further comprising generating a voice recognition guidance message including the context item.
제16항에 있어서,
상기 앱 상태 및 앱 화면의 맥락을 분석하는 동작은,
복수의 앱 실행에 기반하여, 상기 제1 디스플레이를 분할하여 분할 영역들에 각각의 앱 실행 화면을 표시하는 동안 상기 지능형 앱 실행 시 상기 컨택스트 아이템을 지정할 분할 위치가 설정된 경우, 상기 설정된 분할 위치에서 표시중인 앱의 실행 정보를 선택하여 앱 상태 및 앱 화면의 맥락을 분석하여 상기 컨택스트 아이템을 지정하는 동작을 더 포함하는 방법.
The method of claim 16,
The operation of analyzing the app state and the context of the app screen,
Based on the execution of a plurality of apps, when a split location to designate the context item when executing the intelligent app is set while the first display is split and each app execution screen is displayed in split regions, at the set split location The method further comprising an operation of selecting the execution information of the displayed app, analyzing the app state and the context of the app screen, and designating the context item.
제16항에 있어서,
상기 앱 상태 및 앱 화면의 맥락을 분석하는 동작은
복수의 앱 실행에 기반하여, 상기 제1 디스플레이를 분할하여 분할 영역들에 각각의 앱 실행 화면을 표시하는 동안 상기 지능형 앱 실행 시 상기 컨택스트 아이템을 지정할 분할 위치가 설정되지 않은 경우 앱 선택을 요청하는 사용자 인터페이스를 표시하는 동작;
사용자 선택 입력을 수신하는 동작; 및
상기 사용자 선택 입력에 대응하여 상기 분할 영역들 중 선택된 앱의 실행 정보를 기반으로 앱 상태 및 앱 화면의 맥락을 분석하여 상기 컨택스트 아이템을 지정하는 동작을 더 포함하는 방법.

The method of claim 16,
The operation of analyzing the app state and the context of the app screen
Based on the execution of a plurality of apps, while the first display is divided to display respective app execution screens in divided areas, when the intelligent app is executed, requesting an app selection when a divided location to designate the context item is not set. Displaying a user interface;
Receiving a user selection input; And
The method further comprising an operation of designating the context item by analyzing an app state and a context of an app screen based on execution information of an app selected from among the divided regions in response to the user selection input.

KR1020190130214A 2019-10-18 2019-10-18 Foldable electronic device and method for driving speech recognition funtion in the same KR20210046475A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020190130214A KR20210046475A (en) 2019-10-18 2019-10-18 Foldable electronic device and method for driving speech recognition funtion in the same
PCT/KR2020/014170 WO2021075909A1 (en) 2019-10-18 2020-10-16 Electronic device and method for driving voice recognition function thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190130214A KR20210046475A (en) 2019-10-18 2019-10-18 Foldable electronic device and method for driving speech recognition funtion in the same

Publications (1)

Publication Number Publication Date
KR20210046475A true KR20210046475A (en) 2021-04-28

Family

ID=75537978

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190130214A KR20210046475A (en) 2019-10-18 2019-10-18 Foldable electronic device and method for driving speech recognition funtion in the same

Country Status (2)

Country Link
KR (1) KR20210046475A (en)
WO (1) WO2021075909A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5698203B2 (en) * 2011-09-30 2015-04-08 アップル インコーポレイテッド Using context information to facilitate virtual assistant command processing
KR20150135038A (en) * 2014-05-23 2015-12-02 삼성전자주식회사 Foldable electronic apparatus, and method for controlling the same
KR20160075206A (en) * 2014-12-19 2016-06-29 엘지전자 주식회사 Mobile terminal
US11204787B2 (en) * 2017-01-09 2021-12-21 Apple Inc. Application integration with a digital assistant
KR20180130672A (en) * 2017-05-30 2018-12-10 현대자동차주식회사 Apparatus, system, vehicle and method for initiating conversation based on situation

Also Published As

Publication number Publication date
WO2021075909A1 (en) 2021-04-22

Similar Documents

Publication Publication Date Title
KR20200067567A (en) Electronic device for performing operation based on status information of the electronic device and a method for the same
US20210042132A1 (en) Electronic device and screen sharing method using same
CN112689820A (en) Electronic device for controlling application according to folding angle and method thereof
KR20190001822A (en) An electronic apparatus using two display device and method for operating a screen in the same
KR102492560B1 (en) Electronic device and method for controlling input thereof
US10733959B2 (en) Method for configuring input interface and electronic device using same
US20190227703A1 (en) Electronic device for controlling a plurality of applications
KR20200129584A (en) Foldable apparatus and method for controlling photographing using a plurality of cameras
US11481174B2 (en) Electronic device and method for controlling and operating foldable display
KR20210044025A (en) Electronic device and method processing pop-up window using multi-window thereof
KR20190031870A (en) The Foldable Electronic Device supporting the Multi-Windows
KR20200011869A (en) Method and Apparatus for Establishing Device Connection
US11457151B2 (en) Method of obtaining a user-selected angle of view from among a plurality of angles of view of respective cameras and electronic device supporting the same
KR20200132008A (en) Electronic device and method of providing notification thereof
KR20200045241A (en) foldable Electronic Device and the method for Displaying Plurality of Pages of Contents thereof
KR20210040701A (en) Electronic device for synchronizing modification of screen between screens and method for the same
KR20220000270A (en) Electronic device including flexible display
KR20210017282A (en) Electronic device for providing camera preview image and operating method thereof
KR20190043015A (en) An electronic device having a plurality of displays and control method
US10936095B2 (en) Electronic device for executing various functions based on signal received from electric pen
KR20200078122A (en) Portable electronic device and method for expanding space in main body of the same
KR20210140949A (en) Foldable electronic device and control method for displaying notification
US11940850B2 (en) Electronic device for providing function execution screen and operation method therefor
KR20210082910A (en) Electronic device including flexible display and method of operating the same
US11556354B2 (en) Context-based user-personalized configuration method and device