KR20230059692A - Electronic device and method for providing user interface by using biometrics - Google Patents
Electronic device and method for providing user interface by using biometrics Download PDFInfo
- Publication number
- KR20230059692A KR20230059692A KR1020220035992A KR20220035992A KR20230059692A KR 20230059692 A KR20230059692 A KR 20230059692A KR 1020220035992 A KR1020220035992 A KR 1020220035992A KR 20220035992 A KR20220035992 A KR 20220035992A KR 20230059692 A KR20230059692 A KR 20230059692A
- Authority
- KR
- South Korea
- Prior art keywords
- input
- state
- electronic device
- display
- processor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 21
- 230000004044 response Effects 0.000 claims abstract description 19
- 230000033001 locomotion Effects 0.000 claims description 80
- 230000009467 reduction Effects 0.000 claims description 43
- 230000004913 activation Effects 0.000 claims description 24
- 230000002779 inactivation Effects 0.000 claims description 19
- 230000008602 contraction Effects 0.000 claims description 5
- 230000006870 function Effects 0.000 description 283
- 238000010586 diagram Methods 0.000 description 61
- 238000004891 communication Methods 0.000 description 56
- 230000001815 facial effect Effects 0.000 description 20
- 238000012545 processing Methods 0.000 description 15
- 238000005516 engineering process Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000001960 triggered effect Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 239000000446 fuel Substances 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000026058 directional locomotion Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 229910052755 nonmetal Inorganic materials 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1615—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
- G06F1/1624—Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with sliding enclosures, e.g. sliding keyboard or display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1637—Details related to the display arrangement, including those related to the mounting of the display in the housing
- G06F1/1652—Details related to the display arrangement, including those related to the mounting of the display in the housing the display being flexible, e.g. mimicking a sheet of paper, or rollable
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F1/00—Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
- G06F1/16—Constructional details or arrangements
- G06F1/1613—Constructional details or arrangements for portable computers
- G06F1/1633—Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
- G06F1/1684—Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- Computer Security & Cryptography (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Ophthalmology & Optometry (AREA)
- Mathematical Physics (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
본 개시의 다양한 실시예들은 전자 장치에서 사용자 인터페이스에 관한 것이다.Various embodiments of the present disclosure relate to a user interface in an electronic device.
스마트폰, 태블릿 PC, 스마트 와치와 같은 휴대용 전자 장치의 사용이 보편화되면서, 휴대성과 사용의 편의성에 대한 사용자 요구가 증가하고 있다. 전자 장치는 시각적 정보를 출력하는 출력 장치이면서, 기계적인 입력 장치(예: 버튼식 입력 장치)를 대체하는 터치 스크린 디스플레이를 제공할 수 있으며, 다양한 센서를 장착할 수 있다. 예를 들면, 전자 장치는 유연성을 가진(flexible) 디스플레이, 예를 들어, 접힐 수 있는(foldable) 또는 말릴 수 있는(rollable) 디스플레이를 포함할 수 있다. 또한 최근 전자 장치는 지문 센서, 안면 인식 센서, 홍채 센서를 포함하는 센서 모듈(또는 생체 인식 센서)을 포함하도록 구현될 수 있다.As the use of portable electronic devices such as smart phones, tablet PCs, and smart watches has become common, user demands for portability and ease of use are increasing. The electronic device is an output device that outputs visual information, may provide a touch screen display that replaces a mechanical input device (eg, a button-type input device), and may be equipped with various sensors. For example, the electronic device may include a flexible display, for example, a foldable or rollable display. In addition, recent electronic devices may be implemented to include a sensor module (or biometric sensor) including a fingerprint sensor, a face recognition sensor, and an iris sensor.
전자 장치에서 생체 인식은 사용자 인증을 위해 이용될 수 있으며, 생체 인식을 위한 입력을 수신하여 사용자 인증을 수행할 수 있다. 예를 들면, 전자 장치는 어플리케이션 실행 중 사용자 인증이 요구되면 생체 인식을 위한 입력을 수신하여 어플리케이션에서 요구되는 사용자 인증을 수행할 수 있다. 그러나 사용자 인증 먼저 수행 후 복수의 기능들 중 사용자 인증 성공 후 이용 가능한 기능을 실행하는 것이 필요할 수 있다. In an electronic device, biometrics may be used for user authentication, and user authentication may be performed by receiving an input for biometrics. For example, when user authentication is requested while an application is running, the electronic device may receive an input for biometric recognition and perform user authentication required by the application. However, it may be necessary to perform user authentication first and then execute a function available after successful user authentication among a plurality of functions.
전자 장치에서 사용자 인증 후 사용자 인증과 연계하여 이용할 수 있는 기능들은 다양할 수 있다. 통상적으로 사용자 인증은 생체 인식을 위한 입력을 수신하여 사용자 인증을 수행하기만 할 뿐, 사용자 인증 후 이용할 수 있는 기능을 선택하는 입력을 사용자가 빠르고 쉽게 하지 못할 수 있다.Functions that can be used in connection with user authentication after user authentication in an electronic device may vary. In general, user authentication only performs user authentication by receiving an input for biometrics, and the user may not be able to quickly and easily input an input for selecting a usable function after user authentication.
다양한 실시예에 따르면 생체 인식을 위한 제1 입력을 통해 사용자 인증 성공 시 제1 입력이 유지되는 동안 사용자의 제2 입력을 통해 이용 가능한 기능을 표시하고 사용자가 제1 입력을 유지하면서 제2 입력을 수행한 경우 상기 기능을 빠르게 수행하도록 할 수 있는 전자 장치 및 전자 장치에서 생체 인식 기능을 이용한 사용자 인터페이스 방법을 제공할 수 있다.According to various embodiments, when user authentication is successful through the first input for biometrics, functions available through the second input of the user are displayed while the first input is maintained, and the user receives the second input while maintaining the first input. When performed, it is possible to provide an electronic device capable of quickly performing the function and a user interface method using a biometric function in the electronic device.
다양한 실시예에 따르면 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행 상태))에서 생체 인식을 위한 제1 입력을 통해 사용자 인증 성공 시 제1 입력이 유지되는 동안 사용자의 제2 입력을 통해 제1 상태를 제1 상태와 연관된 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 또는 지정된 어플리케이션 활성화(또는 실행 상태))가 되도록 하는 기능(또는 아이콘)을 표시하고, 사용자가 제1 입력을 유지하면서 제2 입력을 수행한 경우 제1 상태가 제2 상태로 되도록 하는 기능을 빠르게 수행하도록 할 수 있는 전자 장치 및 전자 장치에서 생체 인식 기능을 이용한 사용자 인터페이스 방법을 제공할 수 있다.According to various embodiments, when user authentication is successful through a first input for biometric recognition in a first state (eg, locked state, unlocked state, display extended state, display reduced state, or designated application inactive (or non-executed state)) While the first input is maintained, the first state is changed through a second input of the user to a second state associated with the first state (eg, an unlock state, a locked state, a display reduced state, a display extended state, or a designated application activation (or execution) state)), and when a user performs a second input while maintaining a first input, an electronic device capable of quickly performing a function that causes the first state to become the second state and a user interface method using a biometric function in an electronic device.
본 개시의 일 실시예에 따르면, 전자 장치는 하우징, 플렉서블 디스플레이, 적어도 하나의 생체 인식 센서를 포함하는 센서 모듈, 및 상기 플렉서블 디스플레이, 및 상기 센서 모듈과 작동적으로 연결된 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하고, 상기 생체 정보 인식을 위한 제1 입력에 기반하여 사용자 인증을 수행하고, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 지정된 기능을 나타내는 정보를 상기 플렉서블 디스플레이에 표시하고, 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 지정된 기능을 수행하도록 설정될 수 있다.According to one embodiment of the present disclosure, an electronic device includes a housing, a flexible display, a sensor module including at least one biometric sensor, and at least one processor operatively connected to the flexible display and the sensor module, , The at least one processor receives a first input for biometric information recognition through the at least one biometric sensor, performs user authentication based on the first input for biometric information recognition, and performs user authentication. Based on success, a second input is received while the first input is maintained, information indicating at least one designated function that can be requested to be executed is displayed on the flexible display, and the second input is received while the first input is maintained. It can be set to perform a designated function based on input reception.
본 개시의 일 실시예에 따르면, 전자 장치에서 생체 인식을 이용한 사용자 인터페이스 방법은, 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하는 동작, 상기 생체 정보 인식을 위한 제1 입력에 기반하여 사용자 인증을 수행하는 동작, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 지정된 기능을 나타내는 정보를 플렉서블 디스플레이에 표시하는 동작, 및 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 지정된 기능을 수행하는 동작을 포함할 수 있다.According to an embodiment of the present disclosure, a user interface method using biometrics in an electronic device includes an operation of receiving a first input for biometric information recognition through at least one biometric sensor, and a first input for recognizing the biometric information. Operation of performing user authentication based on an input, displaying information indicating at least one designated function that can be requested to be executed by receiving a second input while maintaining the first input based on the success of the user authentication, on a flexible display and performing a designated function based on reception of the second input in a state in which the first input is maintained.
본 개시의 일 실시예에 따르면, 명령들을 저장하고 있는 비휘발성 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하는 동작, 상기 생체 정보 인식을 위한 제1 입력에 기반하여 사용자 인증을 수행하는 동작, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 지정된 기능을 나타내는 정보를 플렉서블 디스플레이에 표시하는 동작, 및 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 지정된 기능을 수행하는 동작을 포함할 수 있다.According to one embodiment of the present disclosure, in a non-volatile storage medium storing instructions, the instructions are set to cause the at least one processor to perform at least one operation when executed by at least one processor, The at least one operation may include receiving a first input for biometric information recognition through at least one biometric sensor, performing user authentication based on the first input for biometric information recognition, and successful user authentication. Based on the operation of receiving a second input while maintaining the first input and displaying information indicating at least one designated function that can be requested to be executed on a flexible display, and maintaining the first input, It may include an operation of performing a designated function based on input reception.
본 개시의 다양한 실시예에 따르면 생체 인식을 위한 제1 입력을 통해 사용자 인증 성공 시 제1 입력이 유지되는 동안 사용자의 제2 입력을 통해 이용 가능한 기능을 표시하고 사용자가 제1 입력을 유지하면서 제2 입력을 수행한 경우 상기 기능을 빠르게 수행하도록 하여 사용자 인증과 특정 기능이 연속적으로 신속하게 이루어지도록 함으로써 사용자에게 편리함을 줄 수 있다.According to various embodiments of the present disclosure, when user authentication is successful through a first input for biometrics, a function available through a second input of the user is displayed while the first input is maintained, and a second input is maintained while the user maintains the first input. When 2 inputs are performed, the above function is performed quickly, so that user authentication and a specific function are performed continuously and quickly, thereby providing convenience to the user.
본 개시의 다양한 실시예에 따르면 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행 상태)에서 생체 인식을 위한 제1 입력을 통해 사용자 인증 성공 시 제1 입력이 유지되는 동안 사용자의 제2 입력을 통해 제1 상태를 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 또는 지정된 어플리케이션 활성화(또는 실행 상태))가 되도록 하는 기능(또는 아이콘)을 표시하고, 사용자가 제1 입력을 유지하면서 제2 입력을 수행한 경우 제1 상태가 제2 상태로 되도록 하는 기능을 빠르게 수행하도록 함으로써, 사용자 인증을 통해 제1 상태를 신속하게 제2 상태가 되도록 할 수 있다.According to various embodiments of the present disclosure, user authentication through a first input for biometric recognition in a first state (eg, locked state, unlocked state, display extended state, display reduced state, or designated application inactive (or non-executed state)) In case of success, the first state is changed to a second state (eg, unlocked state, locked state, display reduced state, display expanded state, or designated application activation (or running state)) through a second input of the user while the first input is maintained. By displaying a function (or icon) that causes the first state to be quickly performed when the user performs the second input while maintaining the first input, the first state becomes the second state, so that the first state through user authentication is displayed. The state can quickly become the second state.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtainable in the present disclosure are not limited to the effects mentioned above, and other effects not mentioned may be clearly understood by those skilled in the art from the description below. will be.
도 1은 일 실시예에 따른 네트워크 환경 내의 전자 장치의 블록도이다.
도 2a는 일 실시예에 따른 플렉서블 디스플레이의 제2 디스플레이 영역이 제2 하우징에 수납된 상태를 나타내는 도면이다.
도 2b는 일 실시예에 따른 플렉서블 디스플레이의 제2 디스플레이 영역이 제2 하우징의 외부로 노출된 상태를 나타내는 도면이다.
도 3은 일 실시예에 따른 전자 장치의 블록도이다.
도 4는 일 실시예에 따른 전자 장치에서 생체 정보 인식을 이용한 사용자 인터페이스 제공 동작을 나타낸 흐름도이다.
도 5는 일 실시예에 따른 전자 장치에서 생체 정보 인식을 위한 제1 입력이 이미 실행중인 사용자 인증 관련 어플리케이션에 의해 요구된 입력인지 여부에 따른 사용자 인터페이스 제공 동작을 나타낸 흐름도이다.
도 6은 일 실시예에 따른 디스플레이 축소 및 락 상태에서 지문 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 지정된 기능을 표시하는 예를 나타낸 도면이다.
도 7a는 일 실시예에 따른 적어도 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 7b는 일 실시예에 따른 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 7c는 일 실시예에 따른 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우 틸트 업 상태를 나타내는 인디케이션의 예를 나타낸 도면이다.
도 8a는 일 실시예에 따른 적어도 하나의 지정된 기능을 나타내는 정보가 표시된 상태에서 지문 인식을 위한 제1 입력으로부터 스와이프 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 8b는 일 실시예에 따른 적어도 하나의 지정된 기능을 나타내는 정보가 표시된 상태에서 지문 인식을 위한 제1 입력으로부터 스와이프 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 9a는 일 실시예에 따른 디스플레이 확장 및 락 상태에서 지문 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 지정된 기능을 표시하는 예를 나타낸 도면이다.
도 9b는 일 실시예에 따른 지문 인식을 위한 제1 입력을 유지하면서 적어도 하나의 지정된 기능을 나타내는 정보 표시 중 제2 입력 수신에 기반하여 선택된 기능을 수행하는 예를 나타낸 도면이다.
도 10은 일 실시예에 따른 안면 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 지정된 기능을 표시하는 예를 나타낸 도면이다.
도 11a는 일 실시예에 따른 적어도 안면 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 11b는 일 실시예에 따른 안면 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 12는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 지정된 기능을 표시하는 예를 나타낸 도면이다.
도 13a는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 13b는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 13c는 일 실시예에 따른 적어도 홍채 인식을 위한 제1 입력을 유지하면서 상방향 홍채 움직임에 대응된 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 13d는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 하방향 홍채 움직임에 대응된 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 14는 일 실시예에 따른 오브젝트를 포함하는 제1 화면 표시 상태에서 지문 인식을 위한 제1 입력을 유지하면서 제2 입력 수신을 통해 실행 요청 가능한 적어도 하나의 지정된 기능을 표시하는 예를 나타낸 도면이다.
도 15는 일 실시예에 따른 지문 인식을 위한 제1 입력이 이미 실행중인 사용자 인증 관련 어플리케이션에 의해 요구된 입력인 경우의 화면 예를 나타낸 도면이다.
도 16은 일 실시예에 따른 생체 인식 입력을 위한 어플리케이션을 호출하는 예를 나타낸 도면이다.
도 17a는 일 실시예에 따른 지문 인식을 위한 제1 입력을 물리적인 키를 이용하여 수신하는 경우의 예를 나타낸 도면이다.
도 17b는 일 실시예에 따른 물리적인 키 상에 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 17c는 일 실시예에 따른 물리적인 키 상에 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 18a는 일 실시예에 따른 적어도 하나의 지정된 기능을 나타내는 정보를 물리적인 키의 근접한 위치에 표시하는 예를 나타낸 도면이다.
도 18b는 일 실시예에 따른 물리적인 키 상의 지문 인식을 위한 제1 입력으로부터 스와이프 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 18c는 일 실시예에 따른 물리적인 키 상의 지문 인식을 위한 제1 입력으로부터 스와이프 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다.
도 19는 일 실시예에 따른 물리적인 키 상의 지문 인식을 위한 제1 입력이 이미 실행중인 사용자 인증 관련 어플리케이션에 의해 요구된 입력인 경우의 화면 예를 나타낸 도면이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.1 is a block diagram of an electronic device in a network environment according to an embodiment.
2A is a diagram illustrating a state in which a second display area of a flexible display according to an exemplary embodiment is accommodated in a second housing.
2B is a diagram illustrating a state in which a second display area of a flexible display according to an exemplary embodiment is exposed to the outside of a second housing.
3 is a block diagram of an electronic device according to an exemplary embodiment.
4 is a flowchart illustrating an operation of providing a user interface using biometric information recognition in an electronic device according to an exemplary embodiment.
5 is a flowchart illustrating an operation of providing a user interface according to whether a first input for recognizing biometric information is an input requested by an application related to user authentication that is already running in an electronic device according to an embodiment.
6 is a diagram illustrating an example of displaying at least one designated function that can be requested to be executed using a second input while maintaining a first input for fingerprint recognition in a display collapsed and locked state according to an exemplary embodiment.
7A is a diagram illustrating a case of receiving a second input for tilting up an electronic device while maintaining at least a first input for fingerprint recognition according to an embodiment.
7B is a diagram illustrating a case in which a second input for tilting down an electronic device is received while maintaining a first input for fingerprint recognition according to an exemplary embodiment.
7C is a diagram illustrating an example of an indication indicating a tilt-up state when a second input for tilting up an electronic device is received while maintaining a first input according to an embodiment.
8A is a diagram illustrating a case in which a second input for swiping up from a first input for fingerprint recognition is received in a state in which information representing at least one designated function is displayed according to an exemplary embodiment.
8B is a diagram illustrating a case in which a second input for swiping down from a first input for fingerprint recognition is received in a state in which information indicating at least one designated function is displayed according to an exemplary embodiment.
9A is a diagram illustrating an example of displaying at least one designated function that can be requested to be executed using a second input while maintaining a first input for fingerprint recognition in a display extended and locked state according to an exemplary embodiment.
9B is a diagram illustrating an example of performing a function selected based on reception of a second input among displaying information indicating at least one designated function while maintaining a first input for fingerprint recognition according to an exemplary embodiment.
10 is a diagram illustrating an example of displaying at least one designated function that can be requested to be executed using a second input while maintaining a first input for face recognition according to an exemplary embodiment.
11A is a diagram illustrating a case of receiving a second input for tilting up an electronic device while maintaining at least a first input for face recognition according to an embodiment.
11B is a diagram illustrating a case in which a second input for tilting down an electronic device is received while maintaining a first input for face recognition according to an embodiment.
12 is a diagram illustrating an example of displaying at least one designated function that can be requested to be executed using a second input while maintaining a first input for iris recognition, according to an exemplary embodiment.
13A is a diagram illustrating a case in which a second input for tilting up an electronic device is received while maintaining a first input for iris recognition according to an exemplary embodiment.
13B is a diagram illustrating a case of receiving a second input for tilting down an electronic device while maintaining a first input for iris recognition according to an embodiment.
13C is a diagram illustrating a case of receiving a second input corresponding to an upward iris movement while maintaining at least a first input for iris recognition according to an embodiment.
13D is a diagram illustrating a case of receiving a second input corresponding to a downward iris motion while maintaining a first input for iris recognition according to an exemplary embodiment.
14 is a diagram illustrating an example of displaying at least one designated function that can be requested to be executed through receiving a second input while maintaining a first input for fingerprint recognition in a first screen display state including an object according to an exemplary embodiment; .
15 is a diagram showing an example of a screen when a first input for fingerprint recognition is an input requested by an application related to user authentication that is already running according to an embodiment.
16 is a diagram illustrating an example of calling an application for biometric input according to an embodiment.
17A is a diagram illustrating an example of receiving a first input for fingerprint recognition using a physical key, according to an embodiment.
17B is a diagram illustrating a case in which a second input for tilting up an electronic device is received while maintaining a first input for fingerprint recognition on a physical key according to an embodiment.
17C is a diagram illustrating a case in which a second input for tilting down an electronic device is received while maintaining a first input for fingerprint recognition on a physical key according to an embodiment.
18A is a diagram illustrating an example of displaying information indicating at least one designated function at a location adjacent to a physical key, according to an embodiment.
18B is a diagram illustrating a case of receiving a second input of swiping up from a first input for fingerprint recognition on a physical key according to an embodiment.
18C is a diagram illustrating a case of receiving a second input of swiping down from a first input for fingerprint recognition on a physical key according to an embodiment.
19 is a diagram illustrating an example of a screen when a first input for fingerprint recognition on a physical key is an input requested by an application related to user authentication that is already running, according to an embodiment.
In connection with the description of the drawings, the same or similar reference numerals may be used for the same or similar elements.
본 문서에서 사용된 용어들은 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 다른 실시예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명의 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 일반적으로 사용되는 사전에 정의된 용어들은 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미를 가지는 것으로 해석될 수 있으며, 본 문서에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 문서에서 정의된 용어일지라도 본 발명의 실시예들을 배제하도록 해석될 수 없다.Terms used in this document are only used to describe a specific embodiment, and may not be intended to limit the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly dictates otherwise. All terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by a person of ordinary skill in the art of the present invention. Terms defined in commonly used dictionaries may be interpreted as having the same or similar meanings as those in the context of the related art, and unless explicitly defined in this document, they are not interpreted in ideal or excessively formal meanings. . In some cases, even terms defined in this document cannot be interpreted to exclude embodiments of the present invention.
도 1은 일 실시예에 따른 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 1 is a block diagram of an
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.Referring to FIG. 1 , in a
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다. The
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일 실시예에 따르면, 무선 통신 모듈(192)은 1eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
The
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일 실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the components are connected to each other through a communication method between peripheral devices (eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)) and signal ( e.g. commands or data) can be exchanged with each other.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to an embodiment, commands or data may be transmitted or received between the
전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 다른 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일 실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.The
도 2a는 일 실시예에 따른 플렉서블 디스플레이의 제2 디스플레이 영역이 제2 하우징에 수납된 상태를 나타내는 도면이다. 도 2b는 일 실시예에 따른 플렉서블 디스플레이의 제2 디스플레이 영역이 제2 하우징의 외부로 노출된 상태를 나타내는 도면이다. 2A is a diagram illustrating a state in which a second display area of a flexible display according to an exemplary embodiment is accommodated in a second housing. 2B is a diagram illustrating a state in which a second display area of a flexible display according to an exemplary embodiment is exposed to the outside of a second housing.
도 2a 및 도 2b는 전자 장치(101)의 전면에서 바라볼 때, 플렉서블 디스플레이(203) 우측 방향으로 확장되는 구조를 나타낸 것이다. 도 2a에 도시된 상태는 제2 하우징(202)에 대하여 제1 하우징(201)이 폐쇄(closed)된 것으로 정의될 수 있으며, 도 2b에 도시된 상태는 제2 하우징(202)에 대하여 제1 하우징(201)이 개방(open)된 것으로 정의될 수 있다. 실시예에 따라, "닫힌 상태(closed state)" 또는 "열린 상태(opened state)"는 전자 장치가 폐쇄되거나 열린 상태로 정의될 수 있다.2A and 2B show a structure extending to the right of the
도 2a 및 도 2b를 참조하면, 전자 장치(101)는 하우징(201, 202)을 포함할 수 있다. 하우징(201, 202)은 제2 하우징(202), 및 제2 하우징(202)에 대하여 이동 가능하게 배치된 제1 하우징(201)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에서 제2 하우징(202)이 제1 하우징(201) 상에서 슬라이드 이동 가능하게 배치된 구조로 해석될 수 있다. 일 실시예에 따르면, 제1 하우징(201)은 제2 하우징(202)을 기준으로 도시된 방향, 예를 들어, 화살표(①)로 지시된 방향으로 일정 거리만큼 왕복 운동이 가능하게 배치될 수 있다. 도 2a 및 도 2b의 전자 장치(101)의 구성은 도 1의 전자 장치(101)의 구성과 전부 또는 일부가 동일할 수 있다.Referring to FIGS. 2A and 2B , the
일 실시예에 따르면, 제1 하우징(201)은, 예를 들면, 제1 구조물, 슬라이드부 또는 슬라이드 하우징으로 칭해질 수 있으며, 제2 하우징(202) 상에서 왕복 운동 가능하게 배치될 수 있다. 일 실시예에 따르면, 제1 하우징(201)은 회로기판이나 배터리와 같은 각종 전기, 전자 부품을 수용할 수 있다. 제2 하우징(202)은, 예를 들면, 제2 구조물, 메인부 또는 메인 하우징으로 칭해질 수 있으며, 제1 하우징(201)의 이동을 가이드할 수 있다. 디스플레이(203)의 일부분(예: 제1 디스플레이 영역(A1))은 제1 하우징(201)에 안착될 수 있다. 일 실시예에 따르면, 디스플레이(203)의 다른 일부분(예: 제2 디스플레이 영역(A2))은, 제1 하우징(201)이 제2 하우징(202)에 대하여 이동(예: 슬라이드 이동)함에 따라, 제2 하우징(202)의 내부로 수납(예: 슬라이드-인(slide-in) 동작)되거나, 제2 하우징(202)의 외부로 노출(예: 슬라이드-아웃(slide-out) 동작)될 수 있다. 일 실시예에 따르면, 제1 하우징(201) 내에는 모터, 스피커, 심소켓 및/또는 메인 회로기판과 전기적으로 연결된 서브 회로기판이 배치될 수 있다. 제2 하우징(202) 내에는 AP(application processor), CP(communication processor)와 같은 전기 부품들이 장착된 메인 회로기판이 배치될 수 있다. According to one embodiment, the
일 실시예에 따르면, 제1 하우징(201)은 제1 플레이트(211)(예: 슬라이드 플레이트)를 포함할 수 있다. 상기 제1 플레이트(211)는 제1 플레이트(211)의 적어도 일부분을 형성하는 제1 면(예: 도 2b의 제1 면(F1)) 및 제1 면(F1)의 반대 방향을 향하는 제2 면(F2)을 포함할 수 있다. 일 실시예에 따르면, 제1 플레이트(211)는 디스플레이(203)의 적어도 일부(예: 제1 디스플레이 영역(A1))를 지지할 수 있다. 일 실시예에 따르면, 제1 하우징(201)은 제1 플레이트(211), 제1 플레이트(211)에서 연장된 제1-1 측벽(211a), 제1-1 측벽(211a)과 제1 플레이트(211)에서 연장된 제1-2 측벽(211b) 및 제1-1 측벽(211a)과 제1 플레이트(211)에서 연장되고, 제1-2 측벽(211b)에 평행한 제1-3 측벽(211c)을 포함할 수 있다.According to one embodiment, the
일 실시예에 따르면, 제2 하우징(202)은 제2 플레이트(221, 메인 케이스), 제2 플레이트(221)에서 연장된 제2-1 측벽(221a), 제2-1 측벽(221a)과 제2 플레이트(221)에서 연장된 제2-2 측벽(221b) 및 제2-1 측벽(221a)과 제2 플레이트(221)에서 연장되고, 제2-2 측벽(221b)에 평행한 제2-3 측벽(221c)을 포함할 수 있다. 일 실시예에 따르면, 제2-2 측벽(221b)과 제2-3 측벽(221c)은 제2-1 측벽(221a)과 수직하게 형성될 수 있다. 일 실시예에 따르면, 제2 플레이트(221), 제2-1 측벽(221a), 제2-2 측벽(221b) 및 제2-3 측벽(221c)은 제1 하우징(201)의 적어도 일부를 수용하도록(또는 감싸도록) 일측(예: 전면(front face))이 열린 형상으로 형성될 수 있다. 예를 들어, 제1 하우징(201)은 적어도 부분적으로 감싸지는 상태로 제2 하우징(202)에 결합되고, 제2 하우징(202)의 안내를 받으면서 제1 면(F1) 또는 제2 면(F2)과 평행한 방향, 예를 들어, 화살표 ①방향으로 슬라이드 이동할 수 있다. 일 실시예에 따르면, 제2 플레이트(221), 제2-1 측벽(221a), 제2-2 측벽(221b) 및/또는 제2-3 측벽(221c)은 일체형으로 형성될 수 있다. 다른 실시예에 따르면, 제2 플레이트(221), 제2-1 측벽(221a), 제2-2 측벽(221b) 및/또는 제2-3 측벽(221c)은 별개의 하우징으로 형성되어 결합 또는 조립될 수 있다.According to one embodiment, the
일 실시예에 따르면, 제2 플레이트(221) 및/또는 제2-1 측벽(221a)는 플렉서블 디스플레이(203)의 적어도 일부를 덮을 수 있다. 예를 들어, 플렉서블 디스플레이(203)의 적어도 일부는 제2 하우징(202)의 내부로 수납될 수 있으며, 제2 플레이트(221) 및/또는 제2-1 측벽(221a)는 제2 하우징(202)의 내부로 수납된 플렉서블 디스플레이(203)의 일부를 덮을 수 있다.According to an embodiment, the
다양한 실시예에 따르면, 제1 하우징(201)은 제2-2 측벽(221b) 또는 제2-3 측벽(221c)에 평행한 제1 방향(예: ① 방향)으로 제2 하우징(202)에 대하여 개방 상태 및 폐쇄 상태로 이동 가능하며, 제1 하우징(201)은 폐쇄 상태에서 제2-1 측벽(221a)으로부터 제1 거리에 위치하고, 개방 상태에서 제2-1 측벽(221a)으로부터 제1 거리보다 큰 제2 거리에 위치하도록 이동할 수 있다. 어떤 실시예에서, 폐쇄 상태일 때, 제1 하우징(201)은 제2-1 측벽(221a)의 일부분을 둘러쌀 수 있다.According to various embodiments, the
일 실시예에 따르면, 전자 장치(101)는 디스플레이(203), 키 입력 장치(241), 커넥터 홀(243), 오디오 모듈(247a, 247b) 또는 카메라 모듈(249a, 249b)을 포함할 수 있다. 도시되지는 않지만, 전자 장치(101)는 인디케이터(예: LED 장치) 또는 각종 센서 모듈을 더 포함할 수 있다. 도 2a 및 도 2b의 디스플레이(203), 오디오 모듈(247a, 247b), 및 카메라 모듈(249a, 249b) 구성은 도 1의 디스플레이 모듈(160), 오디오 모듈(170), 및 카메라 모듈(180)의 구성과 전부 또는 일부가 동일할 수 있다.According to an embodiment, the
다양한 실시예에 따르면, 디스플레이(203)는 제1 디스플레이 영역(A1) 및 제2 디스플레이 영역(A2)을 포함할 수 있다. 일 실시예에 따르면, 제1 디스플레이 영역(A1)은 제1 하우징(201) 상에 배치될 수 있다. 예를 들어, 제1 디스플레이 영역(A1)은 실질적으로 제1 면(F1)의 적어도 일부를 가로질러 연장되어 제1 면(F1) 상에 배치될 수 있다. 제2 디스플레이 영역(A2)은 제1 디스플레이 영역(A1)으로부터 연장되며, 제1 하우징(201)의 슬라이드 이동에 따라 제2 하우징(202)(예: 구조물)의 내부로 삽입 또는 수납되거나, 상기 제2 하우징(202)의 외부로 노출될 수 있다. According to various embodiments, the
다양한 실시예들에 따르면, 제2 디스플레이 영역(A2)은 실질적으로 제1 하우징(201)의 일 영역의 안내를 받으면서 이동하여 상기 제2 하우징(202)의 내부, 또는 제1 하우징(201)과 제2 하우징(202)의 사이에 형성된 공간로 수납되거나 외부로 노출될 수 있다. 일 실시예에 따르면, 제2 디스플레이 영역(A2)은 제1 하우징(201)의 제1 방향(예: 화살표 ①로 지시된 방향)으로의 슬라이드 이동에 기초하여 이동할 수 있다. 예컨대, 제1 하우징(201)이 슬라이드 이동하는 동안 제2 디스플레이 영역(A2)의 일부분이 제1 하우징(201)의 굴곡면에 대응하는 위치에서 곡면 형태로 변형될 수 있다. According to various embodiments, the second display area A2 is substantially moved while being guided by one area of the
다양한 실시예에 따르면, 제1 플레이트(211)(예: 슬라이드 플레이트)의 상부에서 바라볼 때, 제1 하우징(201)이 폐쇄 상태에서 개방 상태로 이동하면, 제2 디스플레이 영역(A2)은 점차 제2 하우징(202)의 외부로 노출되면서 제1 디스플레이 영역(A1)과 함께 실질적으로 평면을 형성할 수 있다. 디스플레이(203)는 터치 감지 회로, 터치의 세기(압력)을 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 스타일러스 펜을 검출하는 디지타이저와 결합되거나 인접하여 배치될 수 있다. 일 실시예에서, 제2 디스플레이 영역(A2)은 적어도 부분적으로 제2 하우징(202)의 내부로 수납될 수 있으며, 도 2a에 도시된 상태(예: 폐쇄 상태)에서도 제2 디스플레이 영역(A2)의 일부는 시각적으로 외부로 노출될 수 있다. 일 실시예에 따르면, 폐쇄 상태 또는 개방 상태와 무관하게, 노출된 제2 디스플레이 영역(A2)의 일부는 제1 하우징의 일부 상에 위치될 수 있으며, 제2 디스플레이 영역(A2)의 일부는 곡면 형태를 유지할 수 있다.According to various embodiments, when the
일 실시예에 따르면, 전자 장치(101)는 적어도 하나의 힌지 구조(미도시)를 포함할 수 있다. 힌지 구조는 제1 하우징(201)과 제2 하우징(202)을 연결할 수 있다. 예를 들어, 힌지 구조는 제1 플레이트(211) 및 제2 플레이트(221)와 연결될 수 있다. 한 실시예에 따르면, 힌지 구조는 제1 하우징(201)의 슬라이드 이동을 가이드 하기 위한 구동력을 제1 하우징(201)으로 전달할 수 있다. 예를 들어, 힌지 구조는 탄성이 있는 재료(예: 스프링)를 포함하고, 제1 하우징(201)의 슬라이드 이동에 기초하여, 제1 방향(예: 도 2b의 ① 방향)으로 탄성력을 제공할 수 있다. 일 실시예에 따르면, 힌지 구조는 제외될 수 있다. According to an embodiment, the
일 실시예에 따르면, 키 입력 장치(241)는 제1 하우징(201)의 일 영역에 위치할 수 있다. 외관과 사용 상태에 따라, 도시된 키 입력 장치(241)가 생략되거나, 추가의 키 입력 장치(들)을 포함하도록 전자 장치(101)가 설계될 수 있다. 일 실시예에 따르면, 전자 장치(101)는 도시되지 않은 키 입력 장치, 예를 들면, 홈 키 버튼, 또는 홈 키 버튼 주변에 배치되는 터치 패드를 포함할 수 있다. 다른 실시예에 따르면, 키 입력 장치(241)의 적어도 일부는 제2 하우징(202)의 제2-1 측벽(221a), 제2-2 측벽(221b) 또는 제2-3 측벽(221c)상에 배치될 수 있다. According to one embodiment, the
다양한 실시예에 따르면, 커넥터 홀(243)은, 실시예에 따라 생략될 수 있으며, 외부 전자 장치와 전력 및/또는 데이터를 송수신하기 위한 커넥터(예: USB 커넥터)를 수용할 수 있다. 도시되지 않지만, 전자 장치(101)는 복수의 커넥터 홀(243)을 포함할 수 있으며, 복수의 커넥터 홀(243) 중 일부는 외부 전자 장치와 오디오 신호를 송수신하기 위한 커넥터 홀로서 기능할 수 있다. 도시된 실시예에서, 커넥터 홀(243)은 제2-3 측벽(221c)에 배치되어 있지만, 본 발명이 이에 한정되지 않으며, 커넥터 홀(243) 또는 도시되지 않은 커넥터 홀이 제2-1 측벽(221a) 또는 제2-2 측벽(221b)에 배치될 수 있다. According to various embodiments, the
다양한 실시예에 따르면, 오디오 모듈(247a, 247b)은 적어도 하나의 스피커 홀(247a), 또는 적어도 하나의 마이크 홀(247b)을 포함할 수 있다. 스피커 홀(247a) 중 하나는 음성 통화용 리시버 홀로서 제공될 수 있으며, 다른 하나는 외부 스피커 홀로서 제공될 수 있다. 전자 장치(101)는 소리를 획득하기 위한 마이크를 포함하고, 상기 마이크는 마이크 홀(247b)을 통하여 전자 장치(101)의 외부의 소리를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 소리의 방향을 감지하기 위하여 복수 개의 마이크를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 스피커 홀(247a)과 마이크 홀(247b)이 하나의 홀로 구현된 오디오 모듈을 포함하거나, 스피커 홀(247a)이 제외된 스피커를 포함될 수 있다(예: 피에조 스피커). According to various embodiments, the
다양한 실시예들에 따르면, 카메라 모듈(249a, 249b)은 제1 카메라 모듈(249a) 및 제2 카메라 모듈(249b)를 포함할 수 있다. 제2 카메라 모듈(249b)은 제1 하우징(201)에 위치하고, 디스플레이(203)의 제1 디스플레이 영역(A1)과는 반대 방향에서 피사체를 촬영할 수 있다. 전자 장치(101)는 복수의 카메라 모듈(249a, 249b)을 포함할 수 있다. 예를 들어, 전자 장치(101)는 광각 카메라, 망원 카메라 또는 접사 카메라 중 적어도 하나를 포함할 수 있으며, 실시예에 따라, 적외선 프로젝터 및/또는 적외선 수신기를 포함함으로써 피사체까지의 거리를 측정할 수 있다. 카메라 모듈(249a, 249b)은 하나 또는 복수의 렌즈들, 이미지 센서, 및/또는 이미지 시그널 프로세서를 포함할 수 있다. 제1 카메라 모듈(249a)은 디스플레이(203)와 같은 방향을 향하도록 배치될 수 있다. 예를 들어, 제1 카메라 모듈(249a)은 제1 디스플레이 영역(A1)의 주위 또는 디스플레이(203)와 중첩하는 영역에 배치될 수 있으며, 디스플레이(203)와 중첩하는 영역에 배치된 경우 디스플레이(203)를 투과하여 피사체를 촬영할 수 있다. According to various embodiments, the
다양한 실시예에 따르면, 전자 장치(101)의 인디케이터(미도시)는 제1 하우징(201) 또는 제2 하우징(202)에 배치될 수 있으며, 발광 다이오드를 포함함으로써 전자 장치(101)의 상태 정보를 시각적인 신호로 제공할 수 있다. 전자 장치(101)의 센서 모듈(미도시)은, 전자 장치(101)의 내부의 작동 상태, 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈은, 예를 들어, 근접 센서, 지문 센서 또는 생체 센서(예: 홍채/안면 인식 센서 또는 HRM 센서)를 포함할 수 있다. 다른 실시예에서, 센서 모듈, 예를 들어, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 컬러 센서, IR(infrared) 센서, 온도 센서, 습도 센서, 또는 조도 센서 중 적어도 하나를 더 포함할 수 있다. 일 실시예에 따르면, 제1 하우징(201)은 제1 플레이트(211) 및 슬라이드 커버(미도시)를 포함할 수 있다. 제1 플레이트(211) 및 슬라이드 커버(미도시)는 제2 하우징(202)에 장착(예: 적어도 일부가 연결)되고, 제2 하우징(202)의 안내를 받으면서 일 방향(예: 도 2b의 화살표 ① 방향)으로 직선 왕복 운동할 수 있다. 일 실시예에 따르면, 제1 플레이트(211)는 디스플레이(203)를 지지할 수 있다. 예를 들면, 제1 플레이트(211)는 제1 면(F1)을 포함하고, 디스플레이(203)의 제1 디스플레이 영역(A1)은 실질적으로 제1 면(F1)에 위치하여 평판 형태로 유지될 수 있다. 슬라이드 커버는 제1 플레이트(211)에 위치한 디스플레이(203)를 보호할 수 있다. 예를 들어, 디스플레이(203)의 적어도 일부는 제1 플레이트(211) 및 슬라이드 커버 사이에 위치할 수 있다. 일 실시예에 따르면, 제1 플레이트(211) 및 슬라이드 커버는 금속 재질 및/또는 비금속(예: 폴리머) 재질로 형성될 수 있다. 일 실시예에 따르면, 제1 플레이트(211)는 전자 장치(101)의 부품들 중 적어도 일부 (예: 도 1의 배터리(189), 모터(미도시), 및 랙(미도시)를 수용할 수 있다. 다양한 실시예에 따르면, 제2 하우징(202)에는 적어도 하나 또는 복수의 기판이 수용될 수 있다. 예를 들면, 제2 하우징(202)에는 회로 기판(또는 메인 회로 기판)(미도시)이 포함될 수 있으며, 메인 회로 기판에는 프로세서, 메모리, 및/또는 인터페이스가 장착될 수 있다. 프로세서는, 예를 들어, 중앙처리장치, 어플리케이션 프로세서, 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서 중 하나 또는 그 이상을 포함할 수 있다. 다양한 실시예에 따르면, 회로 기판은, 가요성 인쇄 회로 기판 유형의 무선 주파수 케이블(flexible printed circuit board type radio frequency cable, FRC)을 포함할 수 있다. 예를 들어, 회로 기판은 제2 플레이트(221)의 적어도 일부에 배치될 수 있고, 안테나 모듈(예: 도 1의 안테나 모듈(197)) 및 통신 모듈(예: 도 1의 통신 모듈(190))과 전기적으로 연결될 수 있다.According to various embodiments, an indicator (not shown) of the
일 실시예에 따르면, 메모리는, 예를 들어, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다. According to one embodiment, the memory may include, for example, volatile memory or non-volatile memory.
일 실시예에 따르면, 인터페이스는, 예를 들어, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 및/또는 오디오 인터페이스를 포함할 수 있다. 인터페이스는, 예를 들어, 전자 장치(101)를 외부 전자 장치와 전기적 또는 물리적으로 연결시킬 수 있으며, USB 커넥터, SD 카드/MMC 커넥터, 또는 오디오 커넥터를 포함할 수 있다.According to one embodiment, the interface may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, and/or an audio interface. For example, the interface may electrically or physically connect the
일 실시예에 따르면, 전자 장치(101)는 제2 하우징(202) 내에서 회로 기판과 이격된 별도의 서브 회로기판을 더 포함할 수 있다. 서브 회로기판은 배터리 또는 스피커 및/또는 심소켓과 같이, 전자 장치(101)의 단부 영역에 배치된 전기 부품들과 전기적으로 연결되어, 신호 및 전력을 전달할 수 있다.According to an embodiment, the
일 실시예에 따르면, 배터리는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 또는 재충전 가능한 2차 전지, 또는 연료 전지를 포함할 수 있다. 배터리의 적어도 일부는, 예를 들어, 회로 기판과 실질적으로 동일 평면 상에 배치될 수 있다. 배터리는 전자 장치(101) 내부에 일체로 배치될 수 있고, 전자 장치(101)와 탈부착 가능하게 배치될 수도 있다.According to one embodiment, the battery is a device for supplying power to at least one component of the
일 실시예에 따르면, 전자 장치(101)는 제2 하우징(202)(예: 제2 플레이트(221)) 상에 배치되고, 제1 하우징(201)(예: 제1 플레이트(211))의 슬라이드 운동을 안내하기 위한 랙(미도시) 및 상기 랙을 따라 회전 이동하기 위한 기어(미도시)에 구동력을 전달하기 위한 모터(미도시)를 포함할 수 있다. According to an embodiment, the
도 3는 일 실시예에 따른 전자 장치의 블록도이다. 3 is a block diagram of an electronic device according to an exemplary embodiment.
도 3을 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101))는 적어도 하나의 프로세서(320), 메모리(330), 플렉서블 디스플레이(360), 슬라이드 구동부(365), 센서 모듈(376), 카메라 모듈(380) 및/또는 통신 모듈(390)을 포함할 수 있다. 일 실시예에 따른 전자 장치(401)는 이에 한정되지 않고 다양한 구성 요소들을 더 포함하여 구성 또는 상기 구성들 중 일부를 제외하여 구성될 수 있다. 일 실시예에 따른 전자 장치(301)는 도 1에 도시된 전자 장치(101)의 전부 또는 일부를 더 포함할 수 있다.Referring to FIG. 3 , an electronic device 301 (eg, the
일 실시예에 따른 플렉서블 디스플레이(360)(예: 도 1의 디스플레이(160) 또는 도 2a 내지 도 2b의 디스플레이(203))(이하 디스플레이라고도 함)는 터치 스크린의 형태로 구현될 수 있다. 디스플레이(460)는 터치 스크린 형태로 입력 모듈과 함께 구현되는 경우, 사용자의 터치 동작에 따라 발생되는 다양한 정보들을 표시할 수 있다. 일 실시예에 따르면, 디스플레이(360)의 슬라이드 인 또는 아웃 동작 시 말릴 수 있도록(rollable) 구성될 수 있다. 일 실시예에 따르면, 디스플레이(360)의 슬라이드 인 또는 아웃 동작에 기반하여 디스플레이(360)는 디스플레이(360)에 의한 화면이 확장되는 확장 상태가 되거나 디스플레이(360)에 의한 화면이 축소되는 축소 상태가 될 수 있다. 예를 들면, 디스플레이(360)는 제1 하우징(201) 및/또는 제2 하우징(202)에 대하여 제1 방향(슬라이드 아웃 방향)으로 이동함으로써 제1 하우징(201) 및/또는 제2 하우징(202)의 내부로부터 적어도 일부(예: A2)가 전자 장치(101)의 전면으로 노출되는 확장 상태(예: 부분 확장 상태 또는 전체 확장 상태)가 되고, 제1 하우징(201) 및/또는 제2 하우징(202)에 대하여 제1 방향에서 제1 방향의 반대인 제2 방향(예: 슬라이드 인 방향)으로 이동함으로써 적어도 일부(예: A2)가 전자 장치(101)의 전면으로 노출되지 않는 축소 상태가 될 수 있다.The flexible display 360 (eg, the
일 실시예에 따른 슬라이드 구동부(365)는 모터, 기어, 및/또는 랙을 포함할 수 있고, 모터, 기어, 및/또는 랙을 통해 디스플레이(360)(예: 제1 하우징(201)(또는 디스플레이(203)의 적어도 일부(예: A2))가 슬라이드 인 또는 아웃되도록 할 수 있다. 일 실시예에 따르면 모터는 전력(또는 전류)를 제공받아 구동되어 모터에 연결된 기어에 구동력을 전달할 수 있다. 일 실시예에 따른 모터는 디스플레이(360)의 슬라이드 인 또는 아웃 시의 반발력에 기반하여는 지정된 추력(힘)(예: 약 3 kgf의 힘)을 제공하도록 구현될 수 있으며, 상기 지정된 힘의 제공을 위해 모터는 지정된 직경(예: 약 6.2T 이상)을 가질 수 있다. 일 실시예에 따른 기어는 모터로부터의 구동력에 기반하여 랙과 연동하여 디스플레이(360)가 슬라이드 인 또는 아웃되도록 할 수 있다.The
일 실시예에 따른 센서 모듈(376)(예: 도 1의 센서 모듈(176))은 적어도 하나의 생체 인식 센서 및 자이로 센서를 포함할 수 있다. 일 실시예에 따르면 적어도 하나의 생체 인식 센서는 지문 센서, 안면 인식 센서, 및/또는 홍채 인식 센서를 포함할 수 있다. 일 실시예에 따른 지문 센서는 사용자의 손가락 터치에 의한 지문을 센싱하고 지문 센싱 정보를 프로세서(320)에 제공할 수 있다. 일 실시예에 따른 안면 인식 센서는 카메라 모듈(380)을 이용하여 획득된 얼굴 이미지와 뎁스 센서를 이용하여 획득된 뎁스 정보를 이용하여 얼굴을 인식하고 얼굴 인식 정보를 프로세서(320)에 제공할 수 있다. 일 실시예에 따른 홍채 인식 센서는 카메라 모듈(380)을 이용하여 획득된 눈 이미지와 IR 센서를 이용하여 획득된 IR 이미지를 이용하여 홍채를 인식하고 홍채 인식 정보를 프로세서(320)에 제공할 수 있다. 일 실시예에 따른 자이로 센서는 전자 장치(301)의 전면이 수평면과 일치하도록 수평이 된 상태에서 수평 상태를 기준으로 전면의 일부(상부, 하부, 좌측부, 또는 우측부)가 위(+z) 방향 또는 아래(-z) 방향으로 움직인 각도에 따른 틸트 업, 틸트 다운, 틸트 레프트, 틸트 라이트 정보를 프로세서(320)에 제공할 수 있다. The sensor module 376 (eg, the
일 실시예에 따른 카메라 모듈(380)은 촬영을 수행할 수 있으며, 촬영된 얼굴 이미지 또는 눈 이미지(또는 홍채 이미지)를 센서 모듈(376)의 안면 인식 센서, 홍채 인식 센서 또는 프로세서(320)에 제공할 수 있다.The
일 실시예에 따른 통신 모듈(390)(예: 도 1의 통신 모듈(190))은 적어도 하나의 프로세서(320)의 제어에 기반하여 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크(예: NR 접속 기술(new radio access technology)), 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. The communication module 390 (eg, the
일 실시예에 따른 적어도 하나의 프로세서(320)(예: 도 1의 프로세서(120))는 전자 장치(301)에 포함된 구성 요소들의 전반적인 동작을 제어할 수 있다. At least one processor 320 (eg, the
일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력을 획득(또는 수신)할 수 있다. 예를 들면, 생체 정보 인식은 지문 인식, 안면 인식, 홍채 인식, 또는 이외 다른 생체 정보를 이용한 인식을 포함할 수 있다. 예를 들면, 생체 정보 인식을 위한 제1 입력은 지문 센서에 대응된 입력 영역(예: 디스플레이 영역 내에 배치된 지문 입력 영역 또는 물리적인 키(예: 사이드 키, 뒤로가기 키, 프론트 키(홈 버튼), 또는 기타 다른 키 상의 영역)을 통한 지문 입력, 안면 인식 센서를 통한 얼굴 입력, 또는 홍채 센서를 통한 홍채 입력을 포함할 수 있다.The
일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력이 이미 실행중인 사용자 인증 관련 어플리케이션(예: 페이먼트 어플리케이션)에 의해 요구된 입력인지 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력이 이미 실행중인 사용자 인증 관련 어플리케이션에 의해 요구된 입력인 경우 사용자 인증 관련 어플리케이션의 프로세스를 통해 사용자 인증(예: 제2 사용자 인증)을 수행할 수 있다. 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력이 이미 실행중인 사용자 인증 관련 어플리케이션에 의해 요구된 입력이 아닌 경우 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별하고 제1 상태에서 제1 상태와 연관된 사용자 인증(예: 제1 사용자 인증)을 수행할 수 있다. 예를 들면, 제1 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태 중 적어도 하나의 상태를 포함할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 지문 센서를 통해 입력된 지문을 인식하고 인식된 지문을 미리 등록된 사용자의 지문과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 안면 인식 센서를 통해 얼굴을 인식하고 인식된 얼굴을 미리 등록된 사용자의 얼굴과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 홍채 인식 센서를 통해 홍채를 인식하고 인식된 홍채와 미리 등록된 사용자의 홍채를 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. The
일 실시예에 따른 프로세서(320)는 제1 상태와 연관된 사용자 인증 성공에 기반하여 상기 제1 입력을 유지하면서 제2 입력(예: 추가 입력)을 이용하여 실행 요청 가능한(또는 트리거 가능한) 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)를 포함하는 사용자 인터페이스(예: 팝업 윈도우)를 표시할 수 있다. 예를 들면, 프로세서(320)는 제1 상태와 연관된 사용자 인증 성공에 기반하여 제1 입력이 유지되는 동안 제1 입력을 입력받는 입력부와 근접한 위치(또는 제1 입력을 수신하는 입력 영역을 포함하거나 제1 입력을 수신하는 입력 영역과 근접한 영역)에 적어도 하나의 메뉴를 포함하는 팝업 윈도우를 표시할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되지 않는 경우 팝업 윈도우의 표시를 중단할 수 있다. 예를 들면, 팝업 윈도우에는 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘이 표시될 수 있고, 각 숏 컷 메뉴 또는 기능 아이콘에 대응된 기능을 실행하기 위한 제2 입력(예: 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)에 대한 안내(가이드 또는 설명) 정보가 더 표시될 수 있다. 예를 들면, 적어도 하나의 메뉴에 대응된기능은 전자 장치(301)의 상태가 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태)에서 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 지정된 어플리케이션 활성화(또는 실행) 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행) 상태)가 되도록 하는 기능일 수 있다. 예를 들면, 제1 상태가 락 상태인 경우 제2 상태는 언락 상태일 수 있고, 제1 상태가 디스플레이 축소 상태인 경우 제2 상태는 디스플레이 확장 상태일 수 있고, 제1 상태가 디스플레이 확장 상태인 경우 제2 상태는 디스플레이 축소 상태일 수 있고, 제1 상태가 지정된 어플리케이션 비활성화(비실행) 상태인 경우 제2 상태는 지정된 어플리케이션 활성화(실행) 상태일 수 있다. 예를 들면, 지정된 어플리케이션은 전화 어플리케이션, 카메라 어플리케이션, 문자 어플리케이션, 또는 이외 다른 전자 장치에서 실행 가능한 어플리케이션일 수 있다.The
일 실시예에 따른 프로세서(320)는 제1 입력 기반의 사용자 인증 성공 후 제1 입력이 유지되는 상태에서 제2 입력 수신에 기반하여 사용자 인터페이스에 포함된 메뉴를 선택하고 선택된 메뉴에 대응된 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 락 상태에서 생체 인식을 위한 제1 입력(지문 입력, 얼굴 입력, 또는 홍채 입력)에 기반하여 사용자 인증 성공 후 제1 입력이 유지되는 상태에서 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 언락 메뉴(또는 언락 아이콘)를 선택하고 선택된 언락 메뉴에 대응된 언락 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 디스플레이 축소(또는 확장) 상태에서 생체 인식을 위한 제1 입력(지문 입력, 얼굴 입력, 또는 홍채 입력)에 기반하여 사용자 인증 성공 후 제1 입력이 유지되는 상태에서 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 슬라이드 구동부(365)를 통해 디스플레이 확장(또는 축소) 메뉴(또는 아이콘)를 선택하고 선택된 메뉴에 대응된 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 지정된 어플리케이션의 비활성화(비실행)(또는 활성화(실행)) 상태에서 생체 인식을 위한 제1 입력(지문 입력, 얼굴 입력, 또는 홍채 입력)에 기반하여 사용자 인증 성공 후, 제1 입력이 유지되는 상태에서 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 지정된 어플리케이션을 활성화(실행)(또는 비활성화(비실행))하기 위한 메뉴를 선택하고 선택된 메뉴에 대응하는 기능을 수행할 수 있다. After successful user authentication based on the first input, the
일 실시예에 따른 메모리(330)는 어플리케이션 프로그램 및 데이터를 저장할 수 있다. 예를 들어, 메모리(330)는 전자 장치(301)의 프로세서(320)의 동작과 연관된 어플리케이션(기능 또는 프로그램)을 저장할 수 있다. 일 실시예에 따른 메모리(330)는 기능 동작에 사용되는 프로그램(예: 도 1의 프로그램(140))을 비롯하여, 프로그램(140) 실행 중에 발생되는 다양한 데이터를 저장할 수 있다. 상기 메모리(330)는 크게 프로그램 영역(140)과 데이터 영역(미도시)을 포함할 수 있다. 상기 프로그램 영역(140)은 전자 장치(301)를 부팅시키는 운영체제(OS)(예: 도 1의 운영 체제(142))와 같은 전자 장치(301)의 구동을 위한 관련된 프로그램 정보들을 저장할 수 있다. 상기 데이터 영역(미도시)은 다양한 실시예에 따라 송신 및/또는 수신된 데이터 및 생성된 데이터를 저장할 수 있다. 또한, 상기 메모리(330)는 플래시 메모리(flash memory), 하드디스크(hard disk), 멀티미디어 카드 마이크로(multimedia card micro) 타입의 메모리(예를 들어, secure digital(SD) 또는 extreme digital(XD) 메모리), 램(RAM), 롬(ROM) 중의 적어도 하나의 저장매체를 포함하여 구성될 수 있다. The
일 실시예에 따르면, 전자 장치(301)는 도 3에 도시된 구성에 한정되지 않고 다양한 구성 요소들을 더 포함하여 구성될 수 있다. 일 실시예에 따르면, 전자 장치(301)는 이미지 처리 모듈(미도시)을 더 포함할 수 있다. 이미지 처리 모듈은 프로세서(320)의 제어에 기반하여 2D 또는 3D 이미지 처리 및/또는 렌더링 동작을 수행할 수 있다. According to an embodiment, the
상술한 일 실시예에서는 상기 도 3의 전자 장치(301)를 통해 전자 장치의 주요 구성 요소에 대해 설명하였다. 그러나 다양한 실시예에서는 상기 도 3을 통해 도시된 구성 요소가 모두 필수 구성 요소인 것은 아니며, 도시된 구성 요소보다 많은 구성 요소에 의해 전자 장치(301)가 구현될 수도 있고, 그 보다 적은 구성 요소에 의해 전자 장치(301)가 구현될 수도 있다.In the above-described embodiment, the main components of the electronic device have been described through the
다양한 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101), 도 2a 및 도 2b의 전자 장치(201), 또는 도 3의 전자 장치(301))는 하우징(예: 도 2a 및 도 2b의 제1 하우징(201)및/또는 제2 하우징(202)), 플렉서블 디스플레이(예: 도 1의 디스플레이(160), 도 2의 디스플레이(203), 또는 도 3의 플렉서블 디스플레이(360)), 적어도 하나의 생체 인식 센서를 포함하는 센서 모듈(예: 도 1의 센서 모듈(176) 또는 도 3의 센서 모듈(376), 및 상기 플렉서블 디스플레이, 및 상기 센서 모듈과 작동적으로 연결된 적어도 하나의 프로세서(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))를 포함하고, 상기 적어도 하나의 프로세서는, 상기 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하고, 상기 제1 입력에 응답하여 상기 제1 입력이 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인지 여부를 식별하고, 상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력이 아닌 것에 응답하여 상기 전자 장치의 상태와 연관된 사용자 인증을 수행하고, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 상기 플렉서블 디스플레이에 표시하고, 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 상기 사용자 인터페이스를 이용하여 선택된 메뉴에 대응된 기능을 수행하도록 설정될 수 있다.According to various embodiments, an electronic device (eg, the
다양한 실시예에 따르면, 상기 전자 장치의 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화 상태, 또는 지정된 어플리케이션 활성화 상태 중 하나를 포함할 수 있다.According to various embodiments, the state of the electronic device may include one of a locked state, an unlocked state, a display expansion state, a display reduction state, a designated application inactivation state, and a designated application activation state.
다양한 실시예에 따르면, 상기 전자 장치는 상기 플렉서블 디스플레이를 확장 방향 또는 축소 방향으로 슬라이드 이동시키는 슬라이드 구동부(예: 도 3의 슬라이드 구동부(365))를 더 포함하고, 상기 플렉서블 디스플레이는, 상기 슬라이드 구동부에 의해 상기 하우징에 대하여 확장방향 또는 축소방향으로 이동함으로써 상기 하우징의 내부로부터 적어도 일부가 상기 전자 장치의 전면으로 노출되는 확장 상태가 되거나 상기 적어도 일부가 상기 전자 장치의 전면으로 노출되지 않는 축소 상태가 되고, 상기 적어도 하나의 프로세서는, 상기 전자 장치의 상태가 상기 디스플레이 축소 상태인 경우 상기 디스플레이 축소 상태를 상기 디스플레이 확장 상태가 되도록 하는 디스플레이 확장 메뉴를 포함하는 상기 사용자 인터페이스를 표시하고, 상기 전자 장치의 상태가 상기 디스플레이 확장 상태인 경우 상기 디스플레이 확장 상태를 상기 디스플레이 축소 상태가 되도록 하는 디스플레이 축소 메뉴를 포함하는 상기 사용자 인터페이스를 표시하도록 설정될 수 있다.According to various embodiments, the electronic device further includes a slide driving unit (eg, the
다양한 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 전자 장치의 상태가 상기 락 상태인 경우 상기 락 상태를 언락 상태가 되도록 하는 언락 메뉴를 포함하는 상기 사용자 인터페이스를 표시하도록 설정될 수 있다.According to various embodiments, when the state of the electronic device is in the locked state, the at least one processor may be set to display the user interface including an unlock menu for turning the locked state into an unlocked state.
다양한 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 전자 장치의 상태가 상기 지정된 어플리케이션 비실행 상태인 경우, 상기 지정된 어플리케이션 비실행 상태를 상기 지정된 어플리케이션 실행 상태가 되도록 하는 지정된 어플리케이션 실행 메뉴를 포함하는 상기 사용자 인터페이스를 표시하도록 설정될 수 있다.According to various embodiments, the at least one processor includes a designated application execution menu that changes the designated application non-execution state to the designated application execution state when the state of the electronic device is the designated application non-execution state. It can be set to display the user interface.
다양한 실시예에 따르면, 상기 적어도 하나의 생체 인식 센서는 지문 센서를 포함하고 상기 생체 정보 인식을 위한 제1 입력은 지문 입력을 포함할 수 있다.According to various embodiments, the at least one biometric sensor may include a fingerprint sensor, and the first input for recognizing the biometric information may include a fingerprint input.
다양한 실시예에 따르면, 상기 적어도 하나의 생체 인식 센서는 안면 인식 센서를 포함하고 상기 생체 정보 인식을 위한 제1 입력은 얼굴 입력을 포함할 수 있다.According to various embodiments, the at least one biometric sensor may include a face recognition sensor, and the first input for recognizing the biometric information may include a face input.
다양한 실시예에 따르면, 상기 적어도 하나의 생체 인식 센서는 홍채 센서를 포함하고 상기 생체 정보 인식을 위한 제1 입력은 홍채 입력을 포함할 수 있다.According to various embodiments, the at least one biometric sensor may include an iris sensor, and the first input for recognizing the biometric information may include an iris input.
다양한 실시예에 따르면, 상기 제2 입력은 전자 장치의 적어도 일부의 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍태의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.According to various embodiments, the second input is a tilt up, down, left, or right input of at least a part of the electronic device, a swipe up, down, left, or right input, or an upper, lower, left, or right input of a face to be recognized. Alternatively, it may include right direction motion input or up, down, left, or right motion input of the iris to be recognized.
다양한 실시예에 따르면, 상기 적어도 하나의 프로세서는, 상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인 것에 응답하여, 상기 제1 입력을 기반으로 상기 실행중인 어플리케이션에서의 사용자 인증을 수행하도록 설정될 수 있다.According to various embodiments, the at least one processor performs user authentication in the running application based on the first input in response to the first input being an input related to user authentication in the running application. can be set to do so.
도 4는 일 실시예에 따른 전자 장치에서 생체 정보 인식을 이용한 사용자 인터페이스 제공 동작을 나타낸 흐름도이다.4 is a flowchart illustrating an operation of providing a user interface using biometric information recognition in an electronic device according to an exemplary embodiment.
도 4를 참조하면, 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 3의 전자 장치(301))의 프로세서(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 410 내지 440 동작들 중 적어도 하나의 동작을 수행할 수 있다.Referring to FIG. 4 , a processor (eg, the
410 동작에서, 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력을 획득(또는 수신)할 수 있다. 예를 들면, 생체 정보 인식은 지문 인식, 안면 인식, 홍채 인식, 또는 이외 다른 생체 정보를 이용한 인식을 포함할 수 있다. 예를 들면, 생체 정보 인식을 위한 제1 입력은 지문 센서에 대응된 입력 영역(예: 디스플레이 영역 내에 배치된 지문 입력 영역 또는 물리적인 키(예: 사이드 키, 뒤로 가기 키, 프론트 키(홈 버튼), 또는 기타 다른 키 상의 입력 영역)를 통한 지문 입력, 안면 인식 센서를 통한 안면 입력, 또는 홍채 센서를 통한 홍채 입력을 포함할 수 있다.In
420 동작에서, 일 실시예에 따른 프로세서(320)는 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별하고, 제1 상태와 연관된 사용자 인증(예: 제1 사용자 인증)을 수행할 수 있다. 예를 들면, 제1 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태를 포함할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 지문 센서를 통해 입력된 지문을 인식하고 인식된 지문을 미리 등록된 사용자의 지문과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 안면 인식 센서를 통해 입력된 얼굴 이미지를 인식하고 인식된 얼굴을 미리 등록된 사용자의 얼굴과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 홍채 인식 센서를 통해 입력된 홍채 이미지를 인식하고 인식된 홍채와 미리 등록된 사용자의 홍채를 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. In
430 동작에서, 일 실시예에 따른 프로세서(320)는 사용자 인증 성공에 기반하여 제1 입력을 유지하면서 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청 가능한(또는 트리거 가능한) 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시할 수 있다. 예를 들면, 프로세서(320) 사용자 인증 성공에 기반하여 제1 입력이 유지되는 동안 디스플레이 영역 중 제1 입력을 수신하는 입력 영역과 근접한 위치(또는 제1 입력을 수신하는 입력 영역을 포함하거나 제1 입력을 수신하는 입력 영역과 근접한 영역)에 적어도 하나의 메뉴를 포함하는 사용자 인터페이스로서 팝업 윈도우를 표시할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되지 않는 경우 팝업 윈도우의 표시를 중단할 수 있다. 예를 들면, 팝업 윈도우에는 하나 또는 복수의 숏 컷 메뉴 또는 지정된 기능 아이콘이 표시될 수 있고, 각 지정된 기능을 실행하기 위한 제2 입력(예: 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업. 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)에 대한 안내(또는 가이드 또는 설명) 정보가 더 표시될 수 있다. 예를 들면, 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘은 전자 장치(301)의 상태가 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태)에서 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 지정된 어플리케이션 활성화(또는 실행) 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행) 상태)가 되도록 하는 기능에 대응된 숏 컷 메뉴 또는 기능 아이콘을 포함할 수 있다. 예를 들면, 제1 상태가 락 상태인 경우 제2 상태는 언락 상태일 수 있고, 제1 상태가 디스플레이 축소 상태인 경우 제2 상태는 디스플레이 확장 상태일 수 있고, 제1 상태가 디스플레이 확장 상태인 경우 제2 상태는 디스플레이 축소 상태일 수 있고, 제1 상태가 지정된 어플리케이션 비활성화(비실행) 상태인 경우 제2 상태는 지정된 어플리케이션 활성화(실행) 상태일 수 있다. 예를 들면, 지정된 어플리케이션은 전화 어플리케이션, 카메라 어플리케이션, 문자 어플리케이션, 또는 이외 다른 전자 장치에서 실행 가능한 어플리케이션일 수 있다.In
440 동작에서, 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 제2 입력 수신에 기반하여 사용자 인터페이스에 포함된 메뉴를 선택하고 선택된 메뉴에 대응된 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 락 상태에서 제1 입력(지문(또는 지문 정보) 입력, 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채(또는 홍채 정보) 입력) 유지 중 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 언락 메뉴를 선택하고, 선택된 언락 메뉴에 대응된 언락 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 디스플레이 축소(또는 확장) 상태에서 제1 입력(지문(또는 지문 정보) 입력, 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채(또는 홍채 정보) 입력) 유지 중 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 슬라이드 구동부(365)를 통해 디스플레이 확장(또는 축소) 메뉴를 선택하고, 선택된 메뉴에 대응된 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 지정된 어플리케이션을 비활성화(비실행)(또는 활성화(실행)) 상태에서 제1 입력(지문 입력, 얼굴 입력, 또는 홍채 입력)이 유지되는 상태에서 제1 입력(지문(또는 지문 정보) 입력, 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채(또는 홍채 정보) 입력) 유지 중 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 지정된 어플리케이션을 활성화(실행)(또는 비활성화(비실행)) 메뉴를 선택하고 선택된 메뉴에 대응된 기능을 수행할 수 있다. In
다양한 실시예에 따르면, 전자 장치(예: 도 1의 전자 장치(101), 도 2a 및 도 2b의 전자 장치(201), 또는 도 3의 전자 장치(301)) 에서 생체 인식을 이용한 사용자 인터페이스 방법은 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하는 동작, 상기 제1 입력에 응답하여 상기 제1 입력이 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인지 여부를 식별하는 동작, 상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력이 아닌 것에 응답하여 상기 전자 장치의 상태와 연관된 사용자 인증을 수행하는 동작, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 디스플레이에 표시하는 동작. 및 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 상기 사용자 인터페이스를 이용하여 선택된 메뉴에 대응된 기능을 수행하는 동작을 포함할 수 있다.According to various embodiments, a user interface method using biometrics in an electronic device (eg, the
다양한 실시예에 따르면, 상기 방법에서, 상기 전자 장치의 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화 상태, 또는 지정된 어플리케이션 활성화 상태 중 하나를 포함할 수 있다.According to various embodiments, in the method, the state of the electronic device may include one of a locked state, an unlocked state, a display extended state, a display reduced state, a designated application inactive state, or a designated application activated state.
다양한 실시예에 따르면, 상기 방법은 According to various embodiments, the method
상기 전자 장치의 상태가 상기 디스플레이 축소 상태인 경우, 상기 디스플레이 축소 상태를 상기 디스플레이 확장 상태가 되도록 하기 위한 디스플레이 확장 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작, 및 상기 전자 장치의 상태가 상기 디스플레이 확장 상태인 경우 상기 디스플레이 확장 상태를 상기 디스플레이 축소 상태가 되도록 하기 위한 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작을 포함할 수 있다.displaying the user interface including a display expansion menu for changing the display reduction state to the display expansion state when the state of the electronic device is the display expansion state, and the electronic device state is the display expansion state state, an operation of displaying the user interface including a menu for changing the display expansion state to the display reduction state.
다양한 실시예에 따르면, 상기 방법은 상기 전자 장치의 상태가 상기 락 상태인 경우 상기 락 상태를 언락 상태가 되도록 하기 위한 언락 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작을 포함할 수 있다.According to various embodiments, the method may include an operation of displaying the user interface including an unlock menu for turning the locked state into an unlocked state when the state of the electronic device is the locked state.
다양한 실시예에 따르면, 상기 방법은 상기 전자 장치의 상태가 상기 지정된 어플리케이션 비실행 상태인 경우, 상기 지정된 어플리케이션 비실행 상태를 상기 지정된 어플리케이션 실행 상태가 되도록 하기 위한 지정된 어플리케이션 실행 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작 포함할 수 있다.According to various embodiments of the present disclosure, the user interface including a designated application execution menu for turning the designated application non-execution state into the designated application execution state when the state of the electronic device is the designated application non-execution state. Can include an operation to display.
다양한 실시예에 따르면, 상기 방법에서 상기 생체 정보 인식을 위한 제1 입력은 지문 입력을 포함하고, 지문 센서를 이용하여 상기 지문 입력을 인식하여 상기 사용자 인증을 수행할 수 있다.According to various embodiments, the first input for recognizing the biometric information may include a fingerprint input, and the user authentication may be performed by recognizing the fingerprint input using a fingerprint sensor.
다양한 실시예에 따르면, 상기 방법에서, 상기 생체 정보 인식을 위한 제1 입력은 얼굴 입력을 포함하고, 안면 인식 센서를 이용하여 상기 얼굴 입력을 인식하여 상기 사용자 인증을 수행할 수 있다.According to various embodiments, in the method, the first input for recognizing the biometric information may include a face input, and the user authentication may be performed by recognizing the face input using a face recognition sensor.
다양한 실시예에 따르면, 상기 방법에서 상기 생체 정보 인식을 위한 제1 입력은 홍채 입력을 포함하고, 홍채 인식 센서를 이용하여 상기 홍채 입력을 인식하여 상기 사용자 인증을 수행할 수 있다.According to various embodiments, the first input for recognizing the biometric information in the method may include an iris input, and the user authentication may be performed by recognizing the iris input using an iris recognition sensor.
다양한 실시예에 따르면, 상기 제2 입력은 전자 장치의 적어도 일부의 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.According to various embodiments, the second input is a tilt up, down, left, or right input of at least a part of the electronic device, a swipe up, down, left, or right input, or an upper, lower, left, or right input of a face to be recognized. Alternatively, it may include a rightward motion input or an up, down, left, or right motion input of an iris to be recognized.
도 5는 일 실시예에 따른 전자 장치에서 생체 정보 인식을 위한 제1 입력이 이미 실행중인 어플리케이션에서 사용자 인증과 연관된 입력인지 여부에 따른 사용자 인터페이스 제공 동작을 나타낸 흐름도이다.5 is a flowchart illustrating an operation of providing a user interface according to whether a first input for recognizing biometric information is an input related to user authentication in an already running application in an electronic device according to an embodiment.
도 5를 참조하면, 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101) 또는 도 3의 전자 장치(301))의 프로세서(예: 도 1의 프로세서(120) 또는 도 3의 프로세서(320))는 510 내지 570 동작들 중 적어도 하나의 동작을 수행할 수 있다.Referring to FIG. 5 , a processor (eg, the
510 동작에서, 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력을 획득(또는 수신)할 수 있다. 예를 들면, 생체 정보 인식은 지문 인식, 안면 인식, 홍채 인식, 또는 이외 다른 생체 정보를 이용한 인식을 포함할 수 있다. 예를 들면, 생체 정보 인식을 위한 제1 입력은 지문 센서에 대응된 입력 영역(예: 디스플레이 영역 내에 배치된 지문 입력 영역 또는 물리적인 키(예: 사이드 키, 뒤로 가기 키, 프론트 키(홈 버튼), 또는 기타 다른 키 상의 영역)을 통한 지문(지분 정보) 입력, 안면 인식 센서를 통한 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채 센서를 통한 홍채(홍채 정보 또는 홍채 이미지) 입력을 포함할 수 있다.In operation 510, the
520 동작에서, 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력이 실행중인 어플리케이션에서의 사용자 인증(예: 로그인 또는 결제 또는 다른 인증 기능) 과 연관된 입력인지 식별할 수 있다. 예를 들면, 생체 정보 인식을 위한 제1 입력이 실행중인 페이먼트 어플리케이션에서 사용자 인증 요구(또는 생체 인식 요구)에 기반한 사용자 인증과 연관된 입력인지 식별할 수 있다. 일 실시예에 따르면, 프로세서(320)는 어플리케이션 실행 중 생체 정보 인식을 위한 제1 입력이 실행중인 어플리케이션에서의 사용자 인증을 위한 것인지 숏 컷(또는 메뉴 또는 기능) 수행을 위한 것인지 식별할 수 있다. 예를 들면, 프로세서(320)는 실행중인 어플리케이션에 의해 자동으로 생체 인식 인터페이스(예: 지문 센서, 안면 인식 센서, 홍채 센서 또는 이외 다른 생체 인식 센서(또는 모듈))가 활성화되고 생체 인식 인터페이스를 통해 생체 정보 인식을 위한 제1 입력이 수행되는 경우 사용자 인증 목적인 것으로 식별할 수 있다. 예를 들면, 프로세서(320)는 실행중인 어플리케이션의 동작과 관계없이 사용자가 직접 생체 인식 인터페이스를 활성화시키거나 인터랙션하는 입력이 수행되는 경우 숏 컷(short cut) 수행 목적인 것으로 식별할 수 있다. 예를 들면, 프로세서(320)는 락 상태에서 사용자가 생체 인식 인터페이스를 활성화시키거나 인터랙션하는 입력이 수행되는 경우 숏 컷 수행을 위한 숏 컷 인터페이스(예: 숏 컷 메뉴 또는 숏 컷 입력 화면)를 제공하고 언락 동작을 숏 컷 인터페이스를 통해 수행하도록 할 수 있다.In
530 동작에서, 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력이 실행중인 어플리케이션에서의 사용자 인증(예: 로그인 또는 결제 또는 다른 인증 기능)과 연관된 입력인 경우 제1 입력을 기반으로 실행중인 어플리케이션과 연관된 사용자 인증(예: 제2 사용자 인증)을 수행할 수 있다. 예를 들면, 프로세서(320)는 지문 센서를 통해 입력된 지문을 인식하고 인식된 지문을 미리 등록된 사용자의 지문과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공을 식별)할 수 있다. 예를 들면, 프로세서(320)는 안면 인식 센서를 통해 얼굴을 인식하고 인식된 얼굴을 미리 등록된 사용자의 얼굴과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 예를 들면, 프로세서(320)는 홍채 인식 센서를 통해 홍채를 인식하고 인식된 홍채와 미리 등록된 사용자의 홍채를 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. In
540 동작에서, 일 실시예에 따른 프로세서(320)는 제2 사용자 인증 성공에 기반하여 실행중인 어플리케이션에서의 사용자 인증 관련 해당 기능(예: 페이먼트 어플리케이션의 페이 기능)을 수행할 수 있다. In operation 540, the
550 동작에서, 일 실시예에 따른 프로세서(320)는 생체 정보 인식을 위한 제1 입력이 이미 실행중인 어플리케이션에서의 사용자 인증(예: 로그인 또는 결제 또는 다른 인증 기능)과 연관된 입력이 아닌 경우 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별하고 제1 상태에서 제1 상태와 연관된 사용자 인증(예: 제1 사용자 인증)을 수행할 수 있다. 예를 들면, 제1 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태를 포함할 수 있다. 예를 들면, 프로세서(320)는 디스플레이 확장 또는 축소 상태의 경우, 메모리(330)에 저장된 코드 상의 기기 상태 값(예: 0 == 축소, 1 == 확장)을 기반으로 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별할 수 있다. 예를 들면, 제1 사용자 인증은 제2 사용자 인증 방식과 유사할 수 있다.In
560 동작에서, 일 실시예에 따른 프로세서(320)는 제1 상태와 연관된 제1 사용자 인증 성공에 기반하여 제1 입력을 유지하면서 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여(또는 수신하여) 실행 요청 가능한(또는 트리거 가능한) 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)를 표시할 수 있다. 예를 들면, 프로세서(320) 제1 사용자 인증 성공에 기반하여 제1 입력이 유지되는 동안 디스플레이 영역 중 제1 입력 영역과 근접한 위치(또는 제1 입력을 수신하는 입력 영역을 포함하거나 제1 입력을 수신하는 입력 영역과 근접한 영역)에 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)를 포함하는 사용자 인터페이스(예: 팝업 윈도우)를 표시할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되지 않는 경우 팝업 윈도우의 표시를 중단할 수 있다. 예를 들면, 팝업 윈도우에는 하나 또는 복수의 지정된 기능들 각각에 대응된 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)가 표시될 수 있고, 각 지정된 기능을 실행하기 위한 제2 입력(예: 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 스와이프 다운, 스와이프 레프트 또는 스와이프 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)에 대한 안내(또는 가이드 또는 설명) 정보가 더 표시될 수 있다. 예를 들면, 적어도 하나의 지정된 기능은 전자 장치(301)의 상태가 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태)에서 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 지정된 어플리케이션 활성화(또는 실행) 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행) 상태)가 되도록 하는 기능을 포함할 수 있다. 예를 들면, 제1 상태가 락 상태인 경우 제2 상태는 언락 상태일 수 있고, 제1 상태가 디스플레이 축소 상태인 경우 제2 상태는 디스플레이 확장 상태일 수 있고, 제1 상태가 디스플레이 확장 상태인 경우 제2 상태는 디스플레이 축소 상태일 수 있고, 제1 상태가 지정된 어플리케이션 비활성화(비실행) 상태인 경우 제2 상태는 지정된 어플리케이션 활성화(실행) 상태일 수 있다. 예를 들면, 지정된 어플리케이션은 전화 어플리케이션, 카메라 어플리케이션, 문자 어플리케이션, 또는 이외 다른 전자 장치에서 실행 가능한 어플리케이션일 수 있다.In
570 동작에서, 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 제2 입력 수신에 기반하여 선택된 메뉴에 대응된 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 락 상태에서 제1 입력(지문(또는 지문 정보) 입력, 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채(또는 홍채 정보) 입력) 유지 중 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 선택된 언락 메뉴에 대응된 언락 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 디스플레이 축소(또는 확장) 상태에서 제1 입력(지문(또는 지문 정보) 입력, 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채(또는 홍채 정보) 입력) 유지 중 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 디스플레이 확장(또는 축소) 메뉴를 선택하고 선택된 메뉴에 대응하여 슬라이드 구동부(365)를 통해 디스플레이 확장(또는 축소) 기능을 수행할 수 있다. 예를 들면, 프로세서(320)는 지정된 어플리케이션을 비활성화(비실행)(또는 활성화(실행)) 상태에서 제1 입력(지문 입력, 얼굴 입력, 또는 홍채 입력)이 유지되는 상태에서 제1 입력(지문(또는 지문 정보) 입력, 얼굴(얼굴 정보 또는 얼굴 이미지) 입력, 또는 홍채(또는 홍채 정보) 입력) 유지 중 제2 입력(틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트, 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)의 수신에 기반하여 어플리케이션 메뉴를 선택하고 지정된 어플리케이션을 활성화(실행)(또는 비활성화(비실행))하는 기능을 수행할 수 있다. In
도 6은 일 실시예에 따른 디스플레이 축소 상태에서 지문 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 지정된 기능을 표시하는 예를 나타낸 도면이다.6 is a diagram illustrating an example of displaying at least one designated function that can be requested to be executed using a second input while maintaining a first input for fingerprint recognition in a display reduced state according to an exemplary embodiment.
도 6을 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 디스플레이 축소 상태에서 축소된 디스플레이(360)에 현재 상태에 대응된 스크린(예: any screen)을 표시중일 수 있다. 예를 들면, 프로세서(320)는 어플리케이션 실행 중인 경우 실행 중인 어플리케이션 화면 표시중이거나, 홈 화면 상태인 경우 홈 화면 표시중이거나, 락 상태인 경우 락 스크린을 표시중이거나, 대기 상태인 경우 대기 상태임을 표시중일 수 있다. 이외에도 프로세서(320)는 전자 장치(301)의 현재 상태에 따른 다양한 화면을 표시중일 수 있다.Referring to FIG. 6 , a processor (eg, the processor of FIG. 1 (eg, the
일 실시예에 따른 전자 장치(301)의 프로세서(320)는 축소된 디스플레이 상태에서 디스플레이(360)의 적어도 일 영역(예: 지문 입력 영역)(361)을 통해 지문 인식을 위한 제1 입력(예: 터치 입력 또는 롱 터치 입력)을 수신할 수 있다. 일 실시예에 따른 프로세서(320)는 지문 인식을 위한 제1 입력이 실행중인(이미 실행중인) 어플리케이션에서의 사용자 인증(예: 로그인 또는 결제 또는 다른 인증 기능)과 연관된 입력인지 여부를 식별할 수 있다. 예를 들면, 지문 인식을 위한 제1 입력이 실행중인 어플리케이션(예: 페이먼트 어플리케이션)에서 사용자 인증 요구(또는 지문 인식 요구)에 기반한 사용자 인증과 연관된 입력인지 여부를 식별할 수 있다. 예를 들면, 프로세서(320)는 지문 인식을 위한 제1 입력이 실행 중인 어플리케이션과 연관된 사용자 인증을 위한 것이 아니면(실행중인 컨텐츠 == NOT Authentication) 숏 컷 수행을 위한 것으로 식별할 수 있다. 예를 들면, 프로세서(320)는 실행중인 어플리케이션에서 사용자 인증을 위해 지문 인식을 위한 제1 입력이 수행되는 경우 실행중인 어플리케이션과 연관된 사용자 인증 목적인 것으로 식별할 수 있다. 예를 들면, 프로세서(320)는 실행중인 어플리케이션의 동작과 관계없이 사용자가 직접 지문 센서를 활성화시키거나 지문 센서와 인터랙션하는 입력이 수행되는 경우 숏 컷(short cut) 수행 목적인 것으로 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 지문 인식을 위한 제1 입력이 실행중인 어플리케이션에서의 사용자 인증(예: 로그인 또는 결제 또는 다른 인증 기능)과 연관된 입력이 아닌 경우 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별할 수 있다. 예를 들면, 제1 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태를 포함할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 상태와 연관된 제1 사용자 인증을 수행하고 제1 사용자 인증 성공에 기반하여 제1 입력을 유지하면서(Hold) 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여(또는 수신하여) 실행 요청 가능한(또는 트리거 가능한) 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)를 포함하는 사용자 인터페이스(예: 팝업 윈도우)(610)를 표시할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지(Hold)되지 않는 경우 팝업 윈도우(610)의 표시를 중단할 수 있다. 예를 들면, 팝업 윈도우(610)에는 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)(예: 61, 63, 65, 67)가 표시될 수 있다. 예를 들면, 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)(예: 61, 63, 65, 67)는 디스플레이 축소 상태를 디스플레이 확장 상태로 되도록 하는 디스플레이 확장 기능 아이콘(61) 및 락 상태를 언락 상태로 되도록 하는 언락 기능 아이콘(63)을 포함할 수 있으며, 카메라 기능(또는 어플리케이션) 아이콘(65), 전화 기능(또는 어플리케이션) 아이콘(67) 및/또는 이외 다른 기능(또는 어플리케이션) 아이콘을 더 포함할 수 있다. 예를 들면, 프로세서(320)는 사용자 인터페이스(예: 팝업 윈도우)(610)를 지문 입력 영역(361)과 근접한 위치의 영역(또는 지문 입력 영역(361)을 포함하는 영역)에 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지(Hold_되지 않는 경우 사용자 인터페이스(예: 팝업 윈도우)(610)의 표시를 중단할 수 있다. 예를 들면, 디스플레이 확장 기능 아이콘(61), 언락 기능 아이콘(63), 카메라 기능(또는 어플리케이션) 아이콘(65), 또는 전화 기능(또는 어플리케이션) 아이콘(67)은 각각 제1 입력이 유지되는 상태에서 추가로 입력되는 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청되도록 선택될 수 있다. 예를 들면, 제2 입력은 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.The
도 7a는 일 실시예에 따른 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 7b는 일 실시예에 따른 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 7A is a diagram illustrating a case in which a second input for tilting up an electronic device is received while maintaining a first input for fingerprint recognition according to an exemplary embodiment. 7B is a diagram illustrating a case in which a second input for tilting down an electronic device is received while maintaining a first input for fingerprint recognition according to an embodiment.
도 7a를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 제1 입력에 기반한 지문 인식을 통한 사용자 인증 성공에 기반하여 제1 입력이 유지되는 상태에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)를 포함하는 사용자 인터페이스(예: 팝업 윈도우)(710)를 표시할 수 있다. 예를 들면, 제1 입력이 유지되는 상태에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴(예: 숏 컷 메뉴 또는 기능 아이콘)는 디스플레이 축소 상태를 디스플레이 확장 상태로 되도록 하는 디스플레이 확장 기능 아이콘(71) 및 락 상태를 언락 상태로 되도록 하는 언락 기능 아이콘(73)을 포함할 수 있으며, 카메라 기능(또는 어플리케이션) 아이콘(75), 전화 기능(또는 어플리케이션) 아이콘(77) 및/또는 이외 다른 기능(또는 어플리케이션) 아이콘을 더 포함하거나 일부 아이콘을 덜 포함할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력 유지 중 자이로 센서를 통해 전자 장치(301)(전자 장치(301)의 하부)를 +Z방향으로 지정된 각도 이상 틸트 업(tilt upward)하는(또는 전자 장치(301)의 하부를 전자 장치(301)의 상부보다 위로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)를 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력이 수신되면 디스플레이 확장 기능 아이콘(71)의 실행 요청을 식별할 수 있다. 예를 들면, 디스플레이 확장 기능 아이콘(71)은 현재 전자 장치가 디스플레이 축소 상태인 것을 나타내는 모양의 아이콘일 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(71)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 7A , a processor (eg, the processor of FIG. 1 (eg, the
도 7b를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력 유지 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는(또는 전자 장치(301)의 하부를 전자 장치(301)의 상부보다 아래로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는 제2 입력이 수신되면 언락 기능 아이콘(73)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(73)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 7B , while holding a first input, the
상기 도 7a 및 도 7b에서는 틸트 업 및 틸트 다운 입력의 예를 들어 설명하였으나, 틸트 레프트(left) 또는 라이트(right) 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 -X방향으로 지정된 각도 이상 틸트 라이트(tilt right)하는(또는 전자 장치(301)의 우측부를 전자 장치(301)의 좌측부보다 오른쪽로 기울이는) 제2 입력이 수신되면 카메라 기능 아이콘(75)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(75)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 +X방향으로 지정된 각도 이상 틸트 레프트(tilt left)하는(또는 전자 장치(301)의 좌측부를 전자 장치(301)의 우측부보다 왼쪽으로 기울이는) 제2 입력이 수신되면 통화 기능 아이콘(77)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(77)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. Although the tilt-up and tilt-down inputs have been described in FIGS. 7A and 7B as an example, the function can be performed in the same way for a tilt left or right input and its corresponding icon, of course. . For example, the
도 7c는 일 실시예에 따른 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우 틸트 업 상태를 나타내는 인디케이션의 예를 나타낸 도면이다. 7C is a diagram illustrating an example of an indication indicating a tilt-up state when a second input for tilting up an electronic device is received while maintaining a first input according to an exemplary embodiment;
도 7c를 참조하면, 일 실시예에 따른 프로세서(320)는 전자 장치(301)(또는 전자 장치(301)의 하부)를 +Z 방향으로 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력이 수신됨에 따라 전자 장치(301) 틸트 업 상태(또는 틸트 업 정도 또는 틸트 업 각도)에 기반하여 틸트 업 상태를 나타내는 인디케이션(750)을 표시할 수 있다. 예를 들면, 인디케이션(750)은 사용자가 틸트 업 정도를 식별할 수 있도록 할 수 있다. 예를 들면, 인디케이션(750)은 음영 처리된 원 모양일 수 있으며, 각 방향(상 방향, 하 방향, 좌 방향, 또는 우 방향)으로의 기울기에 따라 이동되면서 표시될 수 있다. 일 실시예에 따른 프로세서(320)는 전자 장치(301)의 틸트 업 각도가 지정된 각도(예: 기능 아이콘 선택을 위한 기준 또는 임계 각도)가 되거나 지정된 각도 이상이 되면 인디케이션을 기능 아이콘(예: 디스플레이 확장 기능 아이콘(71))의 위치에 고정시켜 표시할 수 있다. Referring to FIG. 7C , the
상기 도 7c에서는 틸트 업 상태와 디스플레이 확장 기능 아이콘(71)을 일예를 들어 설명하였으나, 틸트 다운 상태, 틸트 레프트 또는 라이트 상태 각각과 그 대응된 아이콘에 대해서도 인디케이션이 같은 방식으로 표시될 수 있음은 물론이다.Although the tilt-up state and the display
도 8a는 일 실시예에 따른 적어도 하나의 메뉴를 포함하는 사용자 인터페이스가 표시된 상태에서 지문 인식을 위한 제1 입력으로부터 스와이프 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 8b는 일 실시예에 따른 적어도 하나의 메뉴를 포함하는 사용자 인터페이스가 표시된 상태에서 지문 인식을 위한 제1 입력으로부터 스와이프 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 8A is a diagram illustrating a case in which a second input for swiping up from a first input for fingerprint recognition is received while a user interface including at least one menu is displayed according to an exemplary embodiment. 8B is a diagram illustrating a case in which a second input for swiping down from a first input for fingerprint recognition is received while a user interface including at least one menu is displayed according to an exemplary embodiment.
도 8a를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(710)가 표시된 상태에서 제1 입력 유지 중 제1 입력으로부터 스와이프 업(swipe up)하는 제2 입력이 수신되는지 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력으로부터 제1 방향(예: 디스플레이 확장 기능 아이콘(71) 방향)으로 스와이프 업 하는 제2 입력이 수신되면 디스플레이 확장 기능 아이콘(71)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(71)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 8A , a processor (eg, the processor of FIG. 1 (eg, the
도 8b를 참조하면, 일 실시예에 따른 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(710)가 표시된 상태에서 제1 입력 유지 중 제1 입력으로부터 스와이프 다운(swipe down)하는 제2 입력이 수신되는지 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력으로부터 제2 방향(예: 언락 기능 아이콘(73) 방향)으로 스와이프 다운 하는 제2 입력이 수신되면 언락 기능 아이콘(73)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(73)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 8B , the
도 9a는 일 실시예에 따른 디스플레이 확장 및 락 상태에서 지문 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시하는 예를 나타낸 도면이다. 9A is a diagram illustrating an example of displaying a user interface including at least one menu that can be requested to be executed using a second input while maintaining a first input for fingerprint recognition in a display extended and locked state according to an exemplary embodiment; .
도 9a를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 디스플레이 확장 및 락 상태에서 확장된 디스플레이(360)에 락 스크린(lock screen)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 확장된 디스플레이(360)에 락 스크린이 표시된 상태에서 디스플레이(360)의 적어도 일 영역(예: 지문 입력 영역)(361)을 통해 지문 인식을 위한 제1 입력(예: 터치 입력 또는 롱 터치 입력)을 수신할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 제1 상태(예: 현재 상태)로서 디스플레이 확장 및 락 상태를 식별하고 디스플레이 확장 및 락 상태에서 지문 센서를 통해 제1 입력에 대응하는 지문을 인식하고 인식된 지문을 이용하여 사용자 인증을 수행할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 제1 입력에 기반한 지문 인식을 통한 사용자 인증 성공에 기반하여 제1 입력이 유지되는 상태에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(910)를 표시할 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(910)는 팝업 윈도우(또는 팝업 메뉴) 타입일 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(910)는 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘(91, 93, 95 및/또는 97)을 포함할 수 있다. 예를 들면, 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘은 디스플레이 확장 상태를 디스플레이 축소 상태로 되도록 하는 디스플레이 축소 기능 아이콘(91), 락 상태를 언락 상태로 되도록 하는 언락 기능 아이콘(93)을 포함할 수 있으며, 카메라 기능(또는 어플리케이션) 아이콘(95), 전화 기능(또는 어플리케이션) 아이콘(97) 및/또는 이외 다른 기능(또는 어플리케이션) 아이콘을 더 포함할 수 있다. 예를 들면, 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(910)를 지문 입력 영역(361)과 근접한 위치의 영역(또는 지문 입력 영역(361)을 포함하는 영역)에 표시할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되지 않는 경우 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(910)의 표시를 중단할 수 있다. 예를 들면, 디스플레이 축소 기능 아이콘(91), 언락 기능 아이콘(93), 카메라 기능(또는 어플리케이션) 아이콘(95), 또는 전화 기능(또는 어플리케이션) 아이콘(97)은 각각 제1 입력이 유지되는 상태에서 추가로 입력되는 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청되도록 선택될 수 있다. 예를 들면, 제2 입력은 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.Referring to FIG. 9A , a processor (eg, the processor of FIG. 1 (eg, the
도 9b는 일 실시예에 따른 지문 인식을 위한 제1 입력을 유지하면서 적어도 하나의 메뉴를 포함하는 사용자 인터페이스표시 중 제2 입력 수신에 기반하여 선택된 기능을 수행하는 예를 나타낸 도면이다.9B is a diagram illustrating an example of performing a function selected based on reception of a second input among displaying a user interface including at least one menu while maintaining a first input for fingerprint recognition according to an exemplary embodiment.
도 9b를 참조하면, 일 실시예에 따른 프로세서(320)는 디스플레이 확장 및 락 상태에서 제1 입력을 유지하면서 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(910) 표시 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z 방향으로 지정된 각도 이상 틸트 업(tilt upward)하는(또는 전자 장치(301)의 하부를 위로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우 틸트 업 각도에 따라 틸트 업 상태를 나타내는 인디케이션(950)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)를 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력이 수신되면 디스플레이 축소 기능 아이콘(91)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 축소 기능 아이콘(91)의 실행 요청 식별에 기반하여 디스플레이 축소 기능(reduce)을 수행할 수 있다. Referring to FIG. 9B , a
상기 도 9b에서는 틸트 업 입력의 예를 들어 설명하였으나, 틸트 다운, 틸트 레프트(left), 또는 라이트(right) 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 지정된 각도 이상 틸트 다운(tilt down)하는(또는 전자 장치(301)의 하부를 아래로 기울이는) 제2 입력이 수신되면 언락 기능 아이콘(93)의 실행 요청을 식별할 수 있고, 언락 기능 아이콘(93)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 -X 방향으로 지정된 각도 이상 틸트 레프트(tilt left)하는(또는 전자 장치(301)의 우측부를 전자 장치(301)의 왼쪽으로 기울이는) 제2 입력이 수신되면 카메라 기능 아이콘(95)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(95)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 +X 방향으로 지정된 각도 이상 틸트 라이트(tilt right))하는(또는 전자 장치(301)의 우측부를 전자 장치(301)의 오른쪽으로 기울이는) 제2 입력이 수신되면 통화 기능 아이콘(97)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(97)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. Although the tilt-up input has been described in FIG. 9B as an example, it goes without saying that functions can be performed in the same way for tilt-down, tilt left, or right inputs and their corresponding icons. For example, the
도 10은 일 실시예에 따른 안면 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시하는 예를 나타낸 도면이다.10 is a diagram illustrating an example of displaying a user interface including at least one menu that can be requested to be executed using a second input while maintaining a first input for face recognition according to an exemplary embodiment.
도 10을 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 디스플레이 축소 및 락 상태에서 축소된 디스플레이(360)에 락 스크린(lock screen)을 표시할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 축소된 디스플레이에 락 스크린이 표시된 상태에서 카메라 모듈(380)을 통해 얼굴 이미지를 수신하여 디스플레이(360)의 적어도 일 영역(예: 얼굴 인식 영역)(362)을 통해 표시하면서 안면 인식 센서를 통해 안면 인식을 수행할 수 있다. 일 실시예에 따르면 프로세서(320)는 얼굴 인식을 위한 얼굴 인식 영역(362) 및 수신된 얼굴 이미지 표시 없이 안면 인식을 수행할 수도 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 제1 상태(예: 현재 상태)로서 디스플레이 축소 및 락 상태를 식별하고 디스플레이 축소 및 락 상태에서 안면 인식 센서를 통해 제1 입력에 대응하는 얼굴을 인식하고 인식된 얼굴 정보를 이용하여 사용자 인증을 수행할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 제1 입력에 기반한 얼굴 인식을 통한 사용자 인증 성공(face recognition)에 기반하여 제1 입력이 유지되는 상태에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010)를 표시할 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010)는 팝업 윈도우(또는 팝업 메뉴) 타입일 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010)는 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘(또는 지정된 기능 아이콘)을 포함할 수 있다. 예를 들면, 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘은 디스플레이 축소 상태를 디스플레이 확장 상태로 되도록 하는 디스플레이 확장 기능 아이콘(1011) 및 락 상태를 언락 상태로 되도록 하는 언락 기능 아이콘(1013)을 포함할 수 있으며, 카메라 기능(또는 어플리케이션) 아이콘(1015), 전화 기능(또는 어플리케이션) 아이콘(1017) 및/또는 이외 다른 기능(또는 어플리케이션) 아이콘을 더 포함하거나, 일부 아이콘을 덜 포함할 수 있다. 예를 들면, 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스 (1010)를 얼굴 인식 영역(362)과 근접한 위치의 영역(또는 얼굴 인식 영역(362)과 중첩되는 영역)에 표시하거나 얼굴 인식 영역(362)이 표시되지 않은 상태에서 얼굴 인식 영역(362)의 위치와 관계없는 지정된 위치에 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되지 않는 경우 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010)의 표시를 중단할 수 있다. 예를 들면, 디스플레이 확장 기능 아이콘(1011), 언락 기능 아이콘(1013), 카메라 기능(또는 어플리케이션) 아이콘(1015), 또는 전화 기능(또는 어플리케이션) 아이콘(1017)은 각각 제1 입력이 유지되는 상태에서 추가로 입력되는 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청되도록 선택될 수 있다. 예를 들면, 제2 입력은 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.Referring to FIG. 10 , a processor (eg, the processor of FIG. 1 (eg, the
도 11a는 일 실시예에 따른 안면 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 11b는 일 실시예에 따른 안면 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 11A is a diagram illustrating a case in which a second input for tilting up an electronic device is received while maintaining a first input for face recognition according to an embodiment. 11B is a diagram illustrating a case in which a second input for tilting down an electronic device is received while maintaining a first input for face recognition according to an embodiment.
도 11a를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z 방향으로 지정된 각도 이상 틸트 업(tilt upward)하는(또는 전자 장치(301)의 하부를 위로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 유지하면서 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z 방향으로 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력을 수신하는 경우 틸트 업 각도에 따라 틸트 업 상태를 나타내는 인디케이션(1050)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)를 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력이 수신되면 디스플레이 확장 기능 아이콘(1011)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(1011)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 11A , the
도 11b를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 지정된 각도 이상 틸트 다운(tilt downward) 하는(또는 전자 장치(301)의 하부를 아래로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 유지하면서 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 지정된 각도 이상 틸트 다운(tilt downward) 하는 제2 입력을 수신하는 경우 틸트 다운 각도에 따라 틸트 다운 상태를 나타내는 인디케이션(1050)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는 제2 입력이 수신되면 언락 기능 아이콘(1013)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(1013)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 11B , the
상기 도 11a 및 도 11b에서는 틸트 업 및 틸트 다운 입력의 예를 들어 설명하였으나, 틸트 레프트(left) 또는 라이트(right) 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 안면 인식 기반의 사용자 인증 성공 후 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 -X 방향으로 지정된 각도 이상 틸트 레프트(tilt left)하는(또는 전자 장치(301)의 우측부를 왼쪽으로 기울이는) 제2 입력이 수신되면 카메라 기능 아이콘(1015)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(1015)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 안면 인식 기반의 사용자 인증 성공 후 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 전자 장치(301)(예: 전자 장치(301)의 우측부)를 +X 방향으로 지정된 각도 이상 틸트 라이트(tilt right)하는(또는 전자 장치(301)의 우측부를 오른쪽으로 기울이는) 제2 입력이 수신되면 통화 기능 아이콘(1017)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(1017)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. Although the tilt-up and tilt-down inputs have been described in FIGS. 11A and 11B as examples, it goes without saying that the function can be performed in the same way for a tilt left or right input and its corresponding icon. . For example, the
도 11c는 일 실시예에 따른 적어도 안면 인식을 위한 제1 입력을 유지하면서 상 방향 얼굴 움직임(move face upward)에 대응된 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 11d는 일 실시예에 따른 안면 인식을 위한 제1 입력을 유지하면서 하 방향 얼굴 움직임(move face downward) 제2 입력을 수신하는 경우를 나타낸 도면이다. 11C is a diagram illustrating a case in which a second input corresponding to a move face upward is received while maintaining at least a first input for face recognition according to an embodiment. 11D is a diagram illustrating a case of receiving a second input of a move face downward while maintaining a first input for face recognition, according to an exemplary embodiment.
도 11c를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 안면 인식 센서를 통해 얼굴 움직임의 방향(예: 상, 하, 좌, 또는 우 방향)을 식별하고 식별된 얼굴 움직임의 방향을 제2 입력으로 획득(또는 수신)할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 상 방향 얼굴 움직임(move face upward)이 식별되는 경우 상 방향으로의 얼굴 움직임 정도 또는 각도에 따라 상 방향 얼굴 움직임 상태를 나타내는 인디케이션(1050)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 상 방향 얼굴 움직임(move face upward)에 대응된 제2 입력이 수신됨에 기반하여 디스플레이 확장 기능 아이콘(1011)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(1011)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 11C , the
도 11d를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 하 방향 얼굴 움직임(move face downward)에 대응된 제2 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 하 방향 얼굴 움직임(move face downward)이 식별되는 경우 하 방향으로의 얼굴 움직임 정도 또는 각도에 따라 하 방향 얼굴 움직임 상태를 나타내는 인디케이션(1050)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 하 방향 얼굴 움직임에 대응된 제2 입력이 수신됨에 기반하여 언락 기능 아이콘(1013)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(1013)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 11D , the
상기 도 11c 및 도 11d에서는 상 방향 또는 하 방향 얼굴 움직임에 대응된 제2 입력의 예를 들어 설명하였으나, 좌 방향 또는 우 방향 얼굴 움직임에 대응된 제2 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 좌 방향 얼굴 움직임(move face left)에 대응된 제2 입력이 수신되면 카메라 기능 아이콘(1015)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(1015)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 안면 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1010) 표시 중 우 방향 얼굴 움직임(move face right)에 대응된 제2 입력이 수신되면 통화 기능 아이콘(1017)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(1017)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. In FIGS. 11C and 11D, the second input corresponding to the upward or downward facial movement has been described as an example, but the second input corresponding to the leftward or rightward facial movement and the icon corresponding thereto are also described in the same manner. It goes without saying that the function can be performed. For example, the
도 12는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시하는 예를 나타낸 도면이다.12 is a diagram illustrating an example of displaying a user interface including at least one menu that can be requested to be executed using a second input while maintaining a first input for iris recognition, according to an exemplary embodiment.
도 12를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 디스플레이 축소 및 락 상태에서 축소된 디스플레이(360)에 락 스크린(lock screen)을 표시할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 축소된 디스플레이에 락 스크린이 표시된 상태에서 카메라 모듈(380)(또는 홍채 센서)를 통해 홍채 이미지를 수신하여 디스플레이(360)의 적어도 일 영역(예: 홍채 인식 영역)(363)을 통해 표시하면서 홍채 인식을 수행할 수 있다. 일 실시예에 따르면 프로세서(320)는 홍채 인식 영역(363) 및 수신된 홍채 이미지 표시 없이 홍채 인식을 수행할 수도 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 제1 상태(예: 현재 상태)로서 디스플레이 축소 및 락 상태를 식별하고 디스플레이 축소 및 락 상태에서 홍채 인식 센서를 통해 제1 입력에 대응하는 홍채를 인식하고 인식된 홍채를 이용하여 사용자 인증을 수행할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 제1 입력에 기반한 홍채 인식을 통한 사용자 인증 성공(iris recognition)에 기반하여 제1 입력이 유지되는 상태에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210)를 표시할 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210)는 팝업 윈도우(또는 팝업 메뉴) 타입일 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210)는 적어도 하나의 숏컷 메뉴 또는 기능 아이콘(또는 지정된 기능 아이콘)을 포함할 수 있다. 예를 들면, 적어도 하나의 숏컷 메뉴 또는 기능 아이콘은 디스플레이 축소 상태를 디스플레이 확장 상태로 되도록 하는 디스플레이 확장 기능 아이콘(1211) 및 락 상태를 언락 상태로 되도록 하는 언락 기능 아이콘(1213)을 포함할 수 있으며, 카메라 기능(또는 어플리케이션) 아이콘(1215), 전화 기능(또는 어플리케이션) 아이콘(1217) 및/또는 이외 다른 기능(또는 어플리케이션) 아이콘을 더 포함하거나 일부 아이콘을 덜 포함할 수 있다. 예를 들면, 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210)를 홍채 인식 영역(363)과 근접한 위치의 영역(또는 홍채 인식 영역(363)과 중첩되는 영역)에 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되지 않는 경우 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210)의 표시를 중단할 수 있다. 예를 들면, 디스플레이 확장 기능 아이콘(1211), 언락 기능 아이콘(1213), 카메라 기능(또는 어플리케이션) 아이콘(1215), 또는 전화 기능(또는 어플리케이션) 아이콘(1217)은 각각 제1 입력이 유지되는 상태에서 추가로 입력되는 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청되도록 선택될 수 있다. 예를 들면, 제2 입력은 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.Referring to FIG. 12 , a processor (eg, the processor of FIG. 1 (eg, the
도 13a는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 13b는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 13A is a diagram illustrating a case in which a second input for tilting up an electronic device is received while maintaining a first input for iris recognition according to an exemplary embodiment. 13B is a diagram illustrating a case of receiving a second input for tilting down an electronic device while maintaining a first input for iris recognition according to an embodiment.
도 13a를 참조하면, 일 실시예에 따른 프로세서(230)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z 방향으로 지정된 각도 이상 틸트 업(tilt upward)하는(또는 전자 장치(301)의 하부를 위로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z 방향으로 틸트 업하는 제2 입력을 수신하는 경우 틸트 업 각도에 따라 틸트 업 상태를 나타내는 인디케이션(1250)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z 방향으로 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력이 수신되면 디스플레이 확장 기능 아이콘(1211)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(1211)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 13A , the processor 230 according to an embodiment is displaying a
도 13b를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는(또는 전자 장치(301)의 하부를 아래로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 틸트 다운하는 제2 입력을 수신하는 경우 틸트 다운 각도에 따라 틸트 다운 상태를 나타내는 인디케이션(1250)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 전자 장치(301)를 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z 방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는 제2 입력이 수신되면 언락 기능 아이콘(1213)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(1213)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 13B , the
상기 도 13a 및 도 13b에서는 틸트 업 및 틸트 다운 입력의 예를 들어 설명하였으나, 틸트 레프트(left) 또는 틸트 라이트(right) 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 홍채 인식 기반의 사용자 인증 성공 후 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 -X 방향으로 지정된 각도 이상 틸트 레프트(tilt left)하는(또는 전자 장치(301)의 우측부를 왼쪽으로 기울이는) 제2 입력이 수신되면 카메라 기능 아이콘(1215)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(1215)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 홍채 인식 기반의 사용자 인증 성공 후 적어도 하나의 지정된 기능을 나타내는 정보(1210) 표시 중 전자 장치(301)(예: 전자 장치(301)의 우측부)를 +X 방향으로 지정된 각도 이상 틸트 라이트(tilt right)하는(또는 전자 장치(301)의 우측부를 오른쪽으로 기울이는) 제2 입력이 수신되면 통화 기능 아이콘(1217)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(1217)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. Although the tilt-up and tilt-down inputs have been described in FIGS. 13A and 13B, the function can be performed in the same way for a tilt left or tilt right input and its corresponding icon, of course. am. For example, the
도 13c는 일 실시예에 따른 적어도 홍채 인식을 위한 제1 입력을 유지하면서 상 방향 홍채 움직임(move iris upward)에 대응된 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 13d는 일 실시예에 따른 홍채 인식을 위한 제1 입력을 유지하면서 하 방향 홍채 움직임(move iris downward) 제2 입력을 수신하는 경우를 나타낸 도면이다. 13C is a diagram illustrating a case in which a second input corresponding to an iris movement upward is received while at least a first input for iris recognition is maintained according to an embodiment. 13D is a diagram illustrating a case in which a second input for moving an iris downward is received while maintaining a first input for iris recognition according to an exemplary embodiment.
도 13c를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 홍채 인식 센서를 통해 홍채(또는 눈동자) 움직임의 방향(예: 상, 하, 좌, 또는 우 방향)을 식별하고 식별된 홍채 움직임의 방향을 제2 입력으로 획득(또는 수신)할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 상 방향 홍채 움직임(move iris upward)이 식별되는 경우 상 방향으로의 홍채 움직임 정도 또는 각도에 따라 상 방향 홍채 움직임 상태를 나타내는 인디케이션(1250)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 상 방향 홍채 움직임(move iris upward)에 대응된 제2 입력이 수신됨에 기반하여 디스플레이 확장 기능 아이콘(1211)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(1211)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 13C , the
도 13d를 참조하면, 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 하 방향 홍채 움직임(move iris downward)에 대응된 제2 입력을 수신할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 하 방향 홍채 움직임(move iris downward)이 식별되는 경우 하 방향으로의 홍채 움직임 정도 또는 각도에 따라 하방향 홍채 움직임 상태를 나타내는 인디케이션(1250)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 하방향 얼굴 움직임에 대응된 제2 입력이 수신됨에 기반하여 언락 기능 아이콘(1213)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(1213)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 13D , the
상기 도 13c 및 도 13d에서는 상 방향 또는 하 방향 홍채 움직임에 대응된 제2 입력의 예를 들어 설명하였으나, 좌 방향 또는 우 방향 홍채 움직임에 대응된 제2 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 좌 방향 홍채 움직임(move iris left)에 대응된 제2 입력이 수신되면 카메라 기능 아이콘(1215)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(1215)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 제1 입력을 이용한 홍채 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1210) 표시 중 우 방향 홍채 움직임(move iris right)에 대응된 제2 입력이 수신되면 통화 기능 아이콘(1217)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(1217)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. In FIGS. 13C and 13D, the second input corresponding to the upward or downward iris movement has been described as an example, but the second input corresponding to the left or right iris movement and the icon corresponding to the iris movement are performed in the same manner. It goes without saying that the function can be performed. For example, the
도 14는 일 실시예에 따른 오브젝트를 포함하는 제1 화면 표시 상태에서 지문 인식을 위한 제1 입력을 유지하면서 제2 입력 수신을 통해 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시하는 예를 나타낸 도면이다.14 is an example of displaying a user interface including at least one menu that can be requested to be executed through receiving a second input while maintaining a first input for fingerprint recognition in a first screen display state including an object according to an embodiment; is a drawing showing
도 14를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 오브젝트(1405)를 포함하는 제1 화면(1400)(예: 사진을 포함하는 사진 어플리케이션 화면) 표시 중 지문 인식 영역(361)을 통해 지문 인식을 위한 제1 입력을 수신할 수 있다. 일 실시예에 따른 오브젝트(1405)(예: 사진)는 오브젝트(1405)에 대한 롱 프레스 입력에 기반하여 오브젝트 연관 기능(예: 사진 선택 기능)을 호출할 수 있는 오브젝트일 수 있다. 일 실시예에 따른 프로세서(320)는 지문 인식을 위한 제1 입력 수신 시 지문 인식 영역(361)과 오브젝트(1405)가 오버랩되는 경우 오브젝트 연관 기능을 지문 인식을 위한 제1 입력을 유지하면서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴(또는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스)로 지정(또는 선택 또는 식별)할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1410) 표시 시 오브젝트 연관 기능 아이콘(1415)을 함께 표시할 수 있다. 예를 들면, 프로세서(320)는 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘(예: 디스플레이 확장 기능 아이콘(1411), 락 상태를 언락 상태로 되도록 하는 언락 기능 아이콘(1413), 및 전화 기능(또는 어플리케이션) 아이콘(1417))에 오브젝트 연관 기능 아이콘(1415)이 추가로 표시되도록 하거나, 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘 중 하나 대신 (지정된 위치에 또는 임의의 위치에) 오브젝트 연관 기능 아이콘(1415)이 표시되도록 할 수 있다. Referring to FIG. 14 , a processor (eg, the processor of FIG. 1 ) of an electronic device 301 (eg, the
일 실시예에 따른 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1410) 표시 중 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 -X 방향으로 지정된 각도 이상 틸트 레프트(tilt left)하는(또는 전자 장치(301)의 우측부를 왼쪽으로 기울이는) 제2 입력이 수신되면 오브젝트 연관 기능(1415)의 실행 요청을 식별할 수 있다. 예를 들면, 오브젝트 연관 기능은 체크 박스를 이용한 사진 선택 기능일 수 있다. 일 실시예에 따른, 프로세서(320)는 오브젝트 연관 기능(1415)의 실행 요청 식별에 기반하여 사진 선택 기능을 실행하고 사진 선택 기능 실행에 따른 화면을 표시할 수 있다.
도 15는 일 실시예에 따른 지문 인식을 위한 제1 입력이 이미 실행중인 어플리케이션에서 사용자 인증과 연관된 입력인 경우의 화면 예를 나타낸 도면이다.15 is a diagram showing an example of a screen when a first input for fingerprint recognition is an input related to user authentication in an already running application according to an embodiment.
도 15를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 지문 인식 영역(361)을 통해 지문 인식을 위한 제1 입력 수신 시 상기 제1 입력이 이미 실행중인 어플리케이션에서 사용자 인증(예: 페이 인증 화면(pay authentification screen)(1500))과 연관된 입력인지 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 지문 인식을 위한 제1 입력이 이미 실행중인 어플리케이션에서 사용자 인증(1500)과 연관된 입력인 경우 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시하지 않고, 실행 중인 어플리케이션의 플로우에 따르는 사용자 인증을 수행할 수 있다. 일 실시예에 따른 프로세서(320)는 이미 실행중인 어플리케이션에서의 사용자 인증을 통한 사용자 인증 완료에 기반하여 디스플레이(360)에 사용자 인증 완료 화면(예: 페이 인증 완료(pay completed) 화면(1530))을 표시할 수 있다.Referring to FIG. 15 , a processor (eg, the processor of FIG. 1 (eg, the
도 16은 일 실시예에 따른 생체 인식 입력을 위한 어플리케이션을 호출하는 예를 나타낸 도면이다.16 is a diagram illustrating an example of calling an application for biometric input according to an embodiment.
도 16을 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 전자 장치(301)의 후면(예: 도 2a의 플레이트 221(또는 메인 케이스))을 탭(또는 터치 또는 더블탭)하여 생체 정보 인식을 위한 어플리케이션을 호출(또는 실행)할 수 있다. Referring to FIG. 16 , a processor (eg, the processor of FIG. 1 (eg, the
예를 들면, 프로세서(320)는 전자 장치(301)의 후면이 더블 탭된 경우 안면 인식을 위한 어플리케이션을 실행하고, 안면 인식 영역(362)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 안면 인식 영역(362) 표시된 상태에서 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별하고, 제1 상태와 연관된 사용자 인증(예: 제1 사용자 인증)을 수행할 수 있다. 예를 들면, 제1 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태를 포함할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 안면 인식 센서를 통해 입력된 얼굴 이미지를 인식하고 인식된 얼굴을 미리 등록된 사용자의 얼굴과 비교하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 일 실시예에 따른 프로세서(320)는 사용자 인증 성공에 기반하여 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청 가능한(또는 트리거 가능한) 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(예: 팝업 윈도우)를 표시할 수 있다. 예를 들면, 팝업 윈도우에는 하나 또는 복수의 숏 컷 메뉴 또는 기능 아이콘이 표시될 수 있고, 각 지정된 기능을 실행하기 위한 제2 입력(예: 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력)에 대한 안내(또는 가이드 또는 설명) 정보가 더 표시될 수 있다. 예를 들면, 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘은 전자 장치(301)의 상태가 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태)에서 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 지정된 어플리케이션 활성화(또는 실행) 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행) 상태)가 되도록 하는 기능을 포함할 수 있다. 예를 들면, 제1 상태가 락 상태인 경우 제2 상태는 언락 상태일 수 있고, 제1 상태가 디스플레이 축소 상태인 경우 제2 상태는 디스플레이 확장 상태일 수 있고, 제1 상태가 디스플레이 확장 상태인 경우 제2 상태는 디스플레이 축소 상태일 수 있고, 제1 상태가 지정된 어플리케이션 비활성화(비실행) 상태인 경우 제2 상태는 지정된 어플리케이션 활성화(실행) 상태일 수 있다. 예를 들면, 지정된 어플리케이션은 전화 어플리케이션, 카메라 어플리케이션, 문자 어플리케이션, 또는 이외 다른 전자 장치에서 실행 가능한 어플리케이션일 수 있다.For example, when the back of the
다른 예를 들면, 프로세서(320)는 전자 장치(301)의 후면이 더블 탭된 경우 홍채 인식을 위한 어플리케이션을 실행하고, 홍채 인식 영역(363)을 표시할 수 있다. 상기 실시예에서는 전자 장치(301)의 후면을 더블탭하는 예를 들어 설명하였으나, 생체 정보 인식을 위한 어플리케이션을 호출하기 위한 방식은 후면 더블탭 외에 다양한 제스쳐가 더 이용될 수 있다.For another example, when the back of the
일 실시예에 따른 프로세서(320)는 홍채 인식 영역(363) 표시된 상태에서 전자 장치(301)의 제1 상태(또는 현재 상태)를 식별하고, 제1 상태와 연관된 사용자 인증(예: 제1 사용자 인증)을 수행할 수 있다. 예를 들면, 제1 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태를 포함할 수 있다. 예를 들면, 프로세서(320)는 제1 상태에서 홍채 인식 센서를 통해 입력된 홍채 이미지를 인식하여 사용자 인증을 수행(또는 사용자 인증 성공 식별)할 수 있다. 일 실시예에 따른 프로세서(320)는 사용자 인증 성공에 기반하여 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청 가능한(또는 트리거 가능한) 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(예: 팝업 윈도우)를 표시할 수 있다. 예를 들면, 팝업 윈도우에는 하나 또는 복수의 숏 컷 메뉴 또는 기능 아이콘이 표시될 수 있고, 각 지정된 기능을 실행하기 위한 제2 입력(예: 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력)에 대한 안내(또는 가이드 또는 설명) 정보가 더 표시될 수 있다. 예를 들면, 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘은 전자 장치(301)의 상태가 제1 상태(예: 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화(또는 비실행) 상태, 또는 지정된 어플리케이션 활성화(또는 실행) 상태)에서 제2 상태(예: 언락 상태, 락 상태, 디스플레이 축소 상태, 디스플레이 확장 상태, 지정된 어플리케이션 활성화(또는 실행) 상태, 또는 지정된 어플리케이션 비활성화(또는 비실행) 상태)가 되도록 하는 기능을 포함할 수 있다. 예를 들면, 제1 상태가 락 상태인 경우 제2 상태는 언락 상태일 수 있고, 제1 상태가 디스플레이 축소 상태인 경우 제2 상태는 디스플레이 확장 상태일 수 있고, 제1 상태가 디스플레이 확장 상태인 경우 제2 상태는 디스플레이 축소 상태일 수 있고, 제1 상태가 지정된 어플리케이션 비활성화(비실행) 상태인 경우 제2 상태는 지정된 어플리케이션 활성화(실행) 상태일 수 있다. 예를 들면, 지정된 어플리케이션은 전화 어플리케이션, 카메라 어플리케이션, 문자 어플리케이션, 또는 이외 다른 전자 장치에서 실행 가능한 어플리케이션일 수 있다.상기 도 16의 설명에서는 생체 정보 인식을 위한 어플리케이션을 호출(또는 실행)하는 예를 더블 탭으로 설명하였지만, 더블 탭 대신 버튼(예: 측면 버튼) 두번 누르기 또는 버튼 길게 누르기 등의 다른 입력 동작에 의해 생체 정보 인식을 위한 어플리케이션이 호출(또는 실행)될 수도 있음은 물론이다.The
도 17a는 일 실시예에 따른 지문 인식을 위한 제1 입력을 물리적인 키를 이용하여 수신하는 경우의 예를 나타낸 도면이다.17A is a diagram illustrating an example of receiving a first input for fingerprint recognition using a physical key, according to an embodiment.
도 17a를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 디스플레이 축소 상태에서 축소된 디스플레이(360)에 현재 상태에 대응된 스크린(예: any screen)을 표시할 수 있다. 예를 들면, 프로세서(320)는 어플리케이션 실행 중인 경우 실행 중인 어플리케이션 화면 표시 중이거나, 홈 화면 상태인 경우 홈 화면 표시 중이거나, 락 상태인 경우 락 스크린을 표시 중이거나, 대기 상태인 경우 대기 상태임을 표시 중일 수 있다. 이외에도 프로세서(320)는 전자 장치(301)의 현재 상태에 따른 다양한 화면을 표시 중일 수 있다.Referring to FIG. 17A , a processor (eg, the processor of FIG. 1 (eg, the
일 실시예에 따른 전자 장치(301)의 프로세서(320)는 축소된 디스플레이 상태에서 전자 장치(301)의 적어도 일측(예: 측면)에 구비된 물리적인 키(1741)(예: 도 2의 키입력 장치(241))를 통해 지문 인식을 위한 제1 입력(예: 터치 입력 또는 롱 터치 입력)을 수신할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 전자 장치(301)의 제1 상태(예: 현재 상태)로서 디스플레이 축소 상태를 식별하고 디스플레이 축소 상태에서 지문 센서를 통해 제1 입력에 대응하는 지문을 인식하고 인식된 지문을 이용하여 사용자 인증을 수행할 수 있다. 일 실시예에 따른 전자 장치(301)의 프로세서(320)는 제1 입력에 기반한 지문 인식을 통한 사용자 인증 성공에 기반하여 제1 입력이 유지되는 상태(Hold)에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710)를 표시할 수 있다. 예를 들면, 적어도 하나의 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710)는 팝업 윈도우(또는 팝업 메뉴) 타입일 수 있다. 예를 들면, 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710)는 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘(또는 지정된 기능 아이콘)을 포함할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되지 않는 경우 적어도 하나의 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710)의 표시를 중단할 수 있다. 예를 들면, 디스플레이 확장 기능 아이콘(1711), 언락 기능 아이콘(1713), 카메라 기능(또는 어플리케이션) 아이콘(1715), 또는 전화 기능(또는 어플리케이션) 아이콘(1717)은 각각 제1 입력이 유지되는 상태에서 추가로 입력되는 제2 입력(예: 추가 입력 또는 제1 입력과 다른 타입의 입력)을 이용하여 실행 요청되도록 선택될 수 있다. 예를 들면, 제2 입력은 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채(또는 눈)의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함할 수 있다.The
도 17b는 일 실시예에 따른 물리적인 키 상에 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 17c는 일 실시예에 따른 물리적인 키 상에 지문 인식을 위한 제1 입력을 유지하면서 전자 장치를 틸트 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 17B is a diagram illustrating a case in which a second input for tilting up an electronic device is received while maintaining a first input for fingerprint recognition on a physical key according to an embodiment. 17C is a diagram illustrating a case in which a second input for tilting down an electronic device is received while maintaining a first input for fingerprint recognition on a physical key according to an embodiment.
도 17b를 참조하면, 일 실시예에 따른 프로세서(230)는 디스플레이 축소 및 락 상태에서 물리적인 키(예: 측면 키) 상에 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 자이로 센서를 통해 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z방향으로 지정된 각도 이상 틸트 업(tilt upward)하는 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z방향으로 틸트 업하는 제2 입력을 수신하는 경우 틸트 업 각도에 따라 틸트 업 상태를 나타내는 인디케이션(1750)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 전자 장치(301)를 전자 장치(301)(예: 전자 장치(301)의 하부)를 +Z방향으로 지정된 각도 이상 틸트 업(tilt upward)하는(또는 전자 장치(301)의 하부를 위로 기울이는) 제2 입력이 수신되면 디스플레이 확장 기능 아이콘(1711)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(1711)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 17B , the processor 230 according to an exemplary embodiment maintains the first input after successful user authentication through fingerprint recognition using the first input on a physical key (eg, side key) in the display reduction and lock state. While displaying the
도 17c를 참조하면, 일 실시예에 따른 프로세서(320)는 디스플레이 축소 및 락 상태에서 물리적인 키(1741) 상의 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 자이로 센서를 통해 전자 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는(또는 전자 장치(301)의 하부를 아래로 기울이는) 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z방향으로 틸트 다운하는 제2 입력을 수신하는 경우 틸트 다운 각도에 따라 틸트 다운되는 상태를 나타내는 인디케이션(1750)을 표시할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 전자 장치(301)(예: 전자 장치(301)의 하부)를 -Z방향으로 지정된 각도 이상 틸트 다운(tilt downward)하는 제2 입력이 수신되면 언락 기능 아이콘(1713)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(1713)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 17C , the
상기 도 17b 및 도 17c에서는 틸트 업 및 틸트 다운 입력의 예를 들어 설명하였으나, 틸트 레프트(left) 또는 라이트(right) 입력과 그 대응된 아이콘에 대해서도 같은 방식으로 기능이 수행될 수 있음은 물론이다. 예를 들면, 프로세서(320)는 물리적인 키(1741) 상의 제1 입력을 이용한 지문 인식 기반의 사용자 인증 성공 후 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 제1 입력이 유지되는 상태에서 전자 장치(301)(예: 전자 장치(301)의 우측부)를 -X 방향으로 지정된 각도 이상 틸트 레프트(tilt left)하는(또는 전자 장치(301)의 우측부를 왼쪽으로 기울이는) 제2 입력이 수신되면 카메라 기능 아이콘(1715)의 실행 요청을 식별할 수 있고, 카메라 기능 아이콘(1715)의 실행 요청 식별에 기반하여 카메라 기능(또는 어플리케이션)을 실행할 수 있다. 예를 들면, 프로세서(320)는 물리적인 키(1741) 상의 제1 입력을 이용한 지문 인식 기반의 사용자 인증 성공 후 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1710) 표시 중 전자 장치(301)를 전자 장치(301)(예: 전자 장치(301)의 우측부)를 +X 방향으로 지정된 각도 이상 틸트 라이트(tilt right)하는(또는 전자 장치(301)의 우측부를 오른쪽으로 기울이는) 제2 입력이 수신되면 통화 기능 아이콘(1717)의 실행 요청을 식별할 수 있고, 통화 기능 아이콘(1717)의 실행 요청 식별에 기반하여 통화 기능(또는 어플리케이션)을 실행할 수 있다. Although the tilt-up and tilt-down inputs have been described in FIGS. 17B and 17C as examples, it goes without saying that the function can be performed in the same way for a tilt left or right input and its corresponding icon. . For example, the
도 18a는 일 실시예에 따른 적어도 하나의 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 물리적인 키의 근접한 위치에 표시하는 예를 나타낸 도면이다.18A is a diagram illustrating an example of displaying a user interface including at least one menu at a location adjacent to a physical key, according to an embodiment.
도 18a를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 제1 입력에 기반한 지문 인식을 통한 사용자 인증 성공에 기반하여 제1 입력이 유지되는 상태(Hold)에서 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810)를 물리적인 키(1741)의 근접한 위치에 표시할 수 있다. Referring to FIG. 18A , a processor (eg, the processor of FIG. 1 (eg, the
예를 들면, 적어도 하나의 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810)는 슬라이딩 바 타입일 수 있다. 예를 들면, 적어도 하나의 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810)는 적어도 하나의 숏 컷 메뉴 또는 기능 아이콘(1811, 1813)을 포함할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력이 유지되지 않는 경우 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810)의 표시를 중단할 수 있다. 예를 들면, 디스플레이 확장 기능 아이콘(1811), 언락 기능 아이콘(1813)은 각각 제1 입력이 유지되는 상태에서 추가로 입력되는 제2 입력(예: 스와이프 업 또는 다운 입력)을 이용하여 실행 요청되도록 선택될 수 있다.For example, the
도 18b는 일 실시예에 따른 물리적인 키 상의 지문 인식을 위한 제1 입력으로부터 스와이프 업하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 도 18c는 일 실시예에 따른 물리적인 키 상의 지문 인식을 위한 제1 입력으로부터 스와이프 다운하는 제2 입력을 수신하는 경우를 나타낸 도면이다. 18B is a diagram illustrating a case of receiving a second input of swiping up from a first input for fingerprint recognition on a physical key according to an embodiment. 18C is a diagram illustrating a case of receiving a second input of swiping down from a first input for fingerprint recognition on a physical key according to an embodiment.
도 18b를 참조하면, 일 실시예에 따른 프로세서(230)는 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810) 표시 중 스와이프 업하는 제2 입력을 수신하는 경우 디스플레이 확장 기능 아이콘(1811)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 디스플레이 확장 기능 아이콘(1811)의 실행 요청 식별에 기반하여 디스플레이 확장 기능(extend)을 수행할 수 있다. Referring to FIG. 18B , the processor 230 according to an embodiment is displaying a
도 18c를 참조하면, 일 실시예에 따른 프로세서(320)는 물리적인 키(1741) 상의 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810) 표시 중 스와이프 다운하는 제2 입력의 수신을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 제1 입력을 이용한 지문 인식을 통해 사용자 인증 성공 후 제1 입력 유지에 기반하여 적어도 하나의 메뉴를 포함하는 사용자 인터페이스(1810) 표시 중 전자 장치(301)를 스와이프 다운하는 제2 입력이 수신되면 언락 기능 아이콘(1813)의 실행 요청을 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 언락 기능 아이콘(1813)의 실행 요청 식별에 기반하여 언락 기능(unlock)을 수행할 수 있다. Referring to FIG. 18C, the
도 19는 일 실시예에 따른 물리적인 키 상의 지문 인식을 위한 제1 입력이 이미 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인 경우의 화면 예를 나타낸 도면이다.19 is a diagram showing an example of a screen when a first input for fingerprint recognition on a physical key is an input related to user authentication in an already running application, according to an embodiment.
도 19를 참조하면, 일 실시예에 따른 전자 장치(301)(예: 도 1의 전자 장치(101), 또는 도 2a 및 2b의 전자 장치(201))의 프로세서(예: 도 1의 프로세서(120), 또는 도 3의 프로세서(320))는 물리적인 키(1741)를 통해 지문 인식을 위한 제1 입력 수신 시 상기 제1 입력이 이미 실행중인 어플리케이션의 사용자 인증(예: 페이 인증 화면(pay authentification screen)(1900))과 연관된 입력인지 식별할 수 있다. 일 실시예에 따른 프로세서(320)는 지문 인식을 위한 제1 입력이 이미 실행중인 어플리케이션의 사용자 인증(1900)과 연관된 입력인 경우 제2 입력을 이용하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 표시하지 않고, 실행중인 어플리케이션의 사용자 인증을 수행할 수 있다. 일 실시예에 따른 프로세서(320)는 이미 실행중인 어플리케이션의 사용자 인증 완료에 기반하여 디스플레이(360)에 사용자 인증 완료 화면(예: 페이 인증 완료(pay completed)(1903))을 표시할 수 있다.Referring to FIG. 19 , a processor (eg, the processor of FIG. 1 (eg, the
본 문서에 개시된 다양한 실시예에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 개시의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments disclosed in this document may be devices of various types. The electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present disclosure is not limited to the aforementioned devices.
본 개시의 다양한 실시예 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.Various embodiments of the present disclosure and terms used therein are not intended to limit the technical features described in this document to specific embodiments, but should be understood to include various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, like reference numbers may be used for like or related elements. The singular form of a noun corresponding to an item may include one item or a plurality of items, unless the relevant context clearly dictates otherwise. In this document, "A or B", "at least one of A and B", "at least one of A or B," "A, B or C," "at least one of A, B and C," and "A Each of the phrases such as "at least one of , B, or C" may include any one of the items listed together in that phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "secondary" may simply be used to distinguish a given component from other corresponding components, and may be used to refer to a given component in another aspect (eg, importance or order) is not limited. A (e.g., first) component is said to be "coupled" or "connected" to another (e.g., second) component, with or without the terms "functionally" or "communicatively." When mentioned, it means that the certain component may be connected to the other component directly (eg by wire), wirelessly, or through a third component.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in this document may include a unit implemented by hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrally constructed component or a minimal unit of components or a portion thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 개시의 다양한 실시예는 기기(machine)(예: 전자 장치(101))에 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present disclosure provide one or more stored in a storage medium (eg,
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in this document may be included and provided in a computer program product. Computer program products may be traded between sellers and buyers as commodities. A computer program product is distributed in the form of a device-readable storage medium (e.g. compact disc read only memory (CD-ROM)), or through an application store (e.g. Play Store™) or on two user devices (e.g. It can be distributed (eg downloaded or uploaded) online, directly between smartphones. In the case of online distribution, at least part of the computer program product may be temporarily stored or temporarily created in a device-readable storage medium such as a manufacturer's server, an application store server, or a relay server's memory.
다양한 실시예에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the above-described components may include a single entity or a plurality of entities. According to various embodiments, one or more components or operations among the aforementioned corresponding components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, a plurality of components (eg modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each of the plurality of components identically or similarly to those performed by a corresponding component of the plurality of components prior to the integration. . According to various embodiments, operations performed by modules, programs, or other components are executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations are executed in a different order, omitted, or , or one or more other operations may be added.
다양한 실시예에 따르면, 명령들을 저장하고 있는 비휘발성 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은, 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하는 동작, 상기 제1 입력에 응답하여 상기 제1 입력이 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인지 여부를 식별하는 동작, 상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력이 아닌 것에 응답하여 상기 전자 장치의 상태와 연관된 사용자 인증을 수행하는 동작, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 디스플레이에 표시하는 동작, 및 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 상기 사용자 인터페이스를 이용하여 선택된 메뉴에 대응된 기능을 수행하는 동작을 포함할 수 있다.According to various embodiments, in a non-volatile storage medium storing instructions, the instructions are set to cause the at least one processor to perform at least one operation when executed by at least one processor, and the at least one The operation includes receiving a first input for recognizing biometric information through at least one biometric sensor, and identifying whether the first input is an input related to user authentication in an application being executed in response to the first input. operation of performing user authentication related to the state of the electronic device in response to the first input not being an input related to user authentication in the running application, and based on the success of the user authentication, the first input An operation of receiving a second input in a maintained state and displaying a user interface including at least one menu that can be requested to be executed on a display, and based on the reception of the second input in a state in which the first input is maintained, the user interface It may include an operation of performing a function corresponding to the selected menu using .
그리고 본 명세서와 도면에 발명된 본 발명의 실시예들은 본 발명의 실시예에 따른 기술 내용을 쉽게 설명하고 본 발명의 실시예의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 발명의 실시예의 범위를 한정하고자 하는 것은 아니다. 따라서 본 발명의 다양한 실시예의 범위는 여기에 발명된 실시예들 이외에도 본 발명의 다양한 실시예의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 발명의 다양한 실시예의 범위에 포함되는 것으로 해석되어야 한다.In addition, the embodiments of the present invention described in the present specification and drawings are only presented as specific examples to easily explain the technical content according to the embodiments of the present invention and help understanding of the embodiments of the present invention, and the scope of the embodiments of the present invention is not intended to limit Therefore, the scope of various embodiments of the present invention should be construed as including all changes or modified forms derived based on the technical spirit of various embodiments of the present invention in addition to the embodiments disclosed herein are included in the scope of various embodiments of the present invention. do.
Claims (20)
하우징;
플렉서블 디스플레이;
적어도 하나의 생체 인식 센서를 포함하는 센서 모듈; 및
상기 플렉서블 디스플레이, 및 상기 센서 모듈과 작동적으로 연결된 적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는,
상기 적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하고, 상기 제1 입력에 응답하여 상기 제1 입력이 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인지 여부를 식별하고, 상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력이 아닌 것에 응답하여 상기 전자 장치의 상태와 연관된 사용자 인증을 수행하고, 상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 상기 플렉서블 디스플레이에 표시하고, 상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 상기 사용자 인터페이스를 이용하여 선택된 메뉴에 대응된 기능을 수행하도록 설정된 전자 장치.
In electronic devices,
housing;
flexible display;
a sensor module including at least one biometric sensor; and
including at least one processor operatively connected to the flexible display and the sensor module;
The at least one processor,
Receiving a first input for recognizing biometric information through the at least one biometric sensor, identifying whether the first input is an input related to user authentication in an application being executed in response to the first input, Performing user authentication associated with the state of the electronic device in response to the first input not being an input related to user authentication in the running application, and maintaining the first input based on the success of the user authentication; 2 Receiving an input to display a user interface including at least one menu that can be requested to be executed is displayed on the flexible display, and a menu selected using the user interface based on receiving the second input while the first input is maintained An electronic device set to perform a function corresponding to
상기 전자 장치의 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화 상태, 또는 지정된 어플리케이션 활성화 상태 중 하나를 포함하는 전자 장치.
According to claim 1,
The state of the electronic device includes one of a locked state, an unlocked state, a display expansion state, a display reduction state, a designated application inactivation state, or a designated application activation state.
상기 플렉서블 디스플레이를 확장 방향 또는 축소 방향으로 슬라이드 이동시키는 슬라이드 구동부를 더 포함하고,
상기 플렉서블 디스플레이는,
상기 슬라이드 구동부에 의해 상기 하우징에 대하여 확장방향 또는 축소방향으로 이동함으로써 상기 하우징의 내부로부터 적어도 일부가 상기 전자 장치의 전면으로 노출되는 확장 상태가 되거나 상기 적어도 일부가 상기 전자 장치의 전면으로 노출되지 않는 축소 상태가 되고,
상기 적어도 하나의 프로세서는,
상기 전자 장치의 상태가 상기 디스플레이 축소 상태인 경우 상기 디스플레이 축소 상태를 상기 디스플레이 확장 상태가 되도록 하는 디스플레이 확장 메뉴를 포함하는 상기 사용자 인터페이스를 표시하고,
상기 전자 장치의 상태가 상기 디스플레이 확장 상태인 경우 상기 디스플레이 확장 상태를 상기 디스플레이 축소 상태가 되도록 하는 디스플레이 축소 메뉴를 포함하는 상기 사용자 인터페이스를 표시하도록 설정된 전자 장치.
According to claim 2,
Further comprising a slide driving unit for sliding and moving the flexible display in an expansion direction or a contraction direction;
The flexible display,
By moving in the expansion direction or the contraction direction with respect to the housing by the slide driving unit, at least a portion of the inside of the housing is exposed to the front of the electronic device, or at least a portion of the housing is not exposed to the front of the electronic device. become reduced,
The at least one processor,
When the state of the electronic device is the display reduction state, displaying the user interface including a display expansion menu for changing the display reduction state to the display expansion state;
The electronic device configured to display the user interface including a display reduction menu that changes the display expansion state to the display reduction state when the state of the electronic device is the display expansion state.
상기 적어도 하나의 프로세서는,
상기 전자 장치의 상태가 상기 락 상태인 경우 상기 락 상태를 언락 상태가 되도록 하는 언락 메뉴를 포함하는 상기 사용자 인터페이스를 표시하도록 설정된 전자 장치.
According to claim 2,
The at least one processor,
The electronic device configured to display the user interface including an unlock menu that changes the locked state to an unlocked state when the state of the electronic device is the locked state.
상기 적어도 하나의 프로세서는,
상기 전자 장치의 상태가 상기 지정된 어플리케이션 비실행 상태인 경우, 상기 지정된 어플리케이션 비실행 상태를 상기 지정된 어플리케이션 실행 상태가 되도록 하는 지정된 어플리케이션 실행 메뉴를 포함하는 상기 사용자 인터페이스를 표시하도록 설정된 전자 장치.
According to claim 2,
The at least one processor,
When the state of the electronic device is the designated application non-execution state, the electronic device configured to display the user interface including a designated application execution menu that changes the designated application non-execution state to the designated application execution state.
상기 적어도 하나의 생체 인식 센서는 지문 센서를 포함하고 상기 생체 정보 인식을 위한 제1 입력은 지문 입력을 포함하는 전자 장치.
According to claim 1,
The electronic device of claim 1 , wherein the at least one biometric sensor includes a fingerprint sensor, and the first input for recognizing the biometric information includes a fingerprint input.
상기 적어도 하나의 생체 인식 센서는 안면 인식 센서를 포함하고 상기 생체 정보 인식을 위한 제1 입력은 얼굴 입력을 포함하는 전자 장치.
According to claim 1,
The electronic device of claim 1 , wherein the at least one biometric sensor includes a face recognition sensor, and the first input for recognizing the biometric information includes a face input.
상기 적어도 하나의 생체 인식 센서는 홍채 센서를 포함하고 상기 생체 정보 인식을 위한 제1 입력은 홍채 입력을 포함하는 전자 장치.
According to claim 1,
The electronic device of claim 1 , wherein the at least one biometric sensor includes an iris sensor, and the first input for recognizing the biometric information includes an iris input.
상기 제2 입력은 전자 장치의 적어도 일부의 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업, 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함하는 전자 장치.
According to claim 1,
The second input may include a tilt up, down, left, or right input of at least a part of the electronic device, a swipe up, down, left, or right input, an up, down, left, or right movement input of a face to be recognized, or an iris recognition electronic device including a movement input of an iris in an up, down, left, or right direction.
상기 적어도 하나의 프로세서는,
상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인 것에 응답하여, 상기 제1 입력을 기반으로 상기 실행중인 어플리케이션에서의 사용자 인증을 수행하도록 설정된 전자 장치.
According to claim 1,
The at least one processor,
An electronic device configured to perform user authentication in the running application based on the first input in response to the first input being an input related to user authentication in the running application.
적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하는 동작;
상기 제1 입력에 응답하여 상기 제1 입력이 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인지 여부를 식별하는 동작;
상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력이 아닌 것에 응답하여 상기 전자 장치의 상태와 연관된 사용자 인증을 수행하는 동작;
상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 디스플레이에 표시하는 동작; 및
상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 상기 사용자 인터페이스를 이용하여 선택된 메뉴에 대응된 기능을 수행하는 동작을 포함하는 방법.
In the user interface method using biometrics in an electronic device,
receiving a first input for biometric information recognition through at least one biometric sensor;
identifying whether or not the first input is an input associated with user authentication in an application being executed in response to the first input;
performing user authentication associated with a state of the electronic device in response to the first input not being an input associated with user authentication in the running application;
displaying a user interface including at least one menu requestable for execution by receiving a second input while maintaining the first input based on the user authentication success; and
and performing a function corresponding to a menu selected using the user interface based on reception of the second input while the first input is maintained.
상기 전자 장치의 상태는 락 상태, 언락 상태, 디스플레이 확장 상태, 디스플레이 축소 상태, 지정된 어플리케이션 비활성화 상태, 또는 지정된 어플리케이션 활성화 상태 중 하나를 포함하는 전자 장치.
According to claim 11,
The state of the electronic device includes one of a locked state, an unlocked state, a display expansion state, a display reduction state, a designated application inactivation state, or a designated application activation state.
상기 전자 장치의 상태가 상기 디스플레이 축소 상태인 경우, 상기 디스플레이 축소 상태를 상기 디스플레이 확장 상태가 되도록 하기 위한 디스플레이 확장 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작; 및
상기 전자 장치의 상태가 상기 디스플레이 확장 상태인 경우 상기 디스플레이 확장 상태를 상기 디스플레이 축소 상태가 되도록 하기 위한 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작을 포함하는 방법.
According to claim 12,
displaying the user interface including a display expansion menu for changing the display reduction state to the display expansion state when the state of the electronic device is the display reduction state; and
and displaying the user interface including a menu for changing the display extended state to the display reduced state when the state of the electronic device is the display extended state.
상기 전자 장치의 상태가 상기 락 상태인 경우 상기 락 상태를 언락 상태가 되도록 하기 위한 언락 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작을 포함하는 방법.
According to claim 12,
and displaying the user interface including an unlock menu for turning the locked state into an unlocked state when the state of the electronic device is the locked state.
상기 전자 장치의 상태가 상기 지정된 어플리케이션 비실행 상태인 경우, 상기 지정된 어플리케이션 비실행 상태를 상기 지정된 어플리케이션 실행 상태가 되도록 하기 위한 지정된 어플리케이션 실행 메뉴를 포함하는 상기 사용자 인터페이스를 표시하는 동작 포함하는 방법.
According to claim 12,
When the state of the electronic device is the designated application non-execution state, displaying the user interface including a designated application execution menu for turning the designated application non-execution state into the designated application execution state.
상기 생체 정보 인식을 위한 제1 입력은 지문 입력을 포함하고, 지문 센서를 이용하여 상기 지문 입력을 인식하여 상기 사용자 인증을 수행하는 방법.
According to claim 11,
The first input for recognizing the biometric information includes a fingerprint input, and the user authentication is performed by recognizing the fingerprint input using a fingerprint sensor.
상기 생체 정보 인식을 위한 제1 입력은 얼굴 입력을 포함하고, 안면 인식 센서를 이용하여 상기 얼굴 입력을 인식하여 상기 사용자 인증을 수행하는 방법.
According to claim 11,
The first input for recognizing the biometric information includes a face input, and the user authentication is performed by recognizing the face input using a face recognition sensor.
상기 생체 정보 인식을 위한 제1 입력은 홍채 입력을 포함하고, 홍채 인식 센서를 이용하여 상기 홍채 입력을 인식하여 상기 사용자 인증을 수행하는 방법.
According to claim 1,
The first input for biometric information recognition includes an iris input, and the user authentication is performed by recognizing the iris input using an iris recognition sensor.
상기 제2 입력은 전자 장치의 적어도 일부의 틸트 업, 다운, 레프트, 또는 라이트 입력, 스와이프 업. 다운, 레프트 또는 라이트 입력, 안면 인식 대상 얼굴의 상, 하, 좌, 또는 우 방향 움직임 입력, 또는 홍채 인식 대상 홍채의 상, 하, 좌, 또는 우 방향 움직임 입력을 포함하는 방법.
According to claim 11,
The second input is a tilt-up, down, left, or right input or a swipe up of at least a part of the electronic device. A method including a down, left, or right input, an up, down, left, or right motion input of a face to be recognized, or an up, down, left, or right motion input of an iris to be recognized.
상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은,
적어도 하나의 생체 인식 센서를 통해 생체 정보 인식을 위한 제1 입력을 수신하는 동작;
상기 제1 입력에 응답하여 상기 제1 입력이 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력인지 여부를 식별하는 동작;
상기 제1 입력이 상기 실행중인 어플리케이션에서의 사용자 인증과 연관된 입력이 아닌 것에 응답하여 상기 전자 장치의 상태와 연관된 사용자 인증을 수행하는 동작;
상기 사용자 인증 성공에 기반하여 상기 제1 입력을 유지한 상태에서 제2 입력을 수신하여 실행 요청 가능한 적어도 하나의 메뉴를 포함하는 사용자 인터페이스를 디스플레이에 표시하는 동작; 및
상기 제1 입력이 유지되는 상태에서 상기 제2 입력 수신에 기반하여 상기 사용자 인터페이스를 이용하여 선택된 메뉴에 대응된 기능을 수행하는 동작을 포함하는 저장 매체.In a non-volatile storage medium storing instructions,
The instructions are configured to cause the at least one processor to perform at least one operation when executed by the at least one processor, the at least one operation comprising:
receiving a first input for biometric information recognition through at least one biometric sensor;
identifying whether or not the first input is an input associated with user authentication in an application being executed in response to the first input;
performing user authentication associated with a state of the electronic device in response to the first input not being an input associated with user authentication in the running application;
displaying a user interface including at least one menu requestable for execution by receiving a second input while maintaining the first input based on the user authentication success; and
and performing a function corresponding to a menu selected using the user interface based on reception of the second input while the first input is maintained.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2022/016476 WO2023075412A1 (en) | 2021-10-26 | 2022-10-26 | Electronic device, and user interface method using biometric recognition in electronic device |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20210143268 | 2021-10-26 | ||
KR1020210143268 | 2021-10-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230059692A true KR20230059692A (en) | 2023-05-03 |
Family
ID=86380410
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220035992A KR20230059692A (en) | 2021-10-26 | 2022-03-23 | Electronic device and method for providing user interface by using biometrics |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230059692A (en) |
-
2022
- 2022-03-23 KR KR1020220035992A patent/KR20230059692A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11334244B2 (en) | Electronic device and method of processing pop-up window using multi-window thereof | |
US10686971B1 (en) | Electronic device including a camera capable of being a front camera and a rear camera and an operating method thereof | |
US11983355B2 (en) | Electronic device comprising flexible display and operation method thereof | |
EP4198700A1 (en) | Electronic device providing user interface, and method therefor | |
EP4187349A1 (en) | Slidable electronic device and control method therefor | |
US20230224573A1 (en) | Method and device for photography guidance of flexible display | |
EP4266656A1 (en) | Electronic device comprising sweeper | |
KR20230059692A (en) | Electronic device and method for providing user interface by using biometrics | |
KR20220069370A (en) | Electronic device having extendable display and method for providing content thereof | |
KR20220074165A (en) | Electronic device and method for controlling user interface of flexible display | |
US20230110166A1 (en) | Electronic device including flexible display and method for controlling input area for expansion and reduction of display in the electronic device | |
EP4242823A1 (en) | Electronic device comprising flexible display, and method for operating same | |
US12032815B2 (en) | Slidable electronic device and control method therefor | |
EP4239624A1 (en) | Electronic device and electronic device operation method | |
US20230333605A1 (en) | Electronic device providing status information by changing shape of electronic device, and method for controlling the same | |
US20230247130A1 (en) | Method for providing screen by using flexible display, and electronic device supporting same | |
US20230259169A1 (en) | Electronic device comprising flexible display | |
KR20230052183A (en) | Electronic device including flexible display and method for controlling of input area for expansion and reduction of display in the electronic device | |
KR20220078423A (en) | Electronic device and method for driving slide based on multi touch | |
KR20240002451A (en) | Method and electronic device for displaying input interface | |
KR20240040580A (en) | Foldable electronic device and operation method of foldable electronic device | |
KR20230139757A (en) | Electronic device including flexible display and method for thereof | |
KR20230154724A (en) | Split screenshot creation method and electronic device thereof | |
KR20230065841A (en) | Electronic device including flexible display and method for controlling display content in the electronic device | |
KR20230149179A (en) | Electronic device including flexible display and method for thereof |