WO2019151642A1 - Apparatus and method for displaying guide information for changing fingerprint state - Google Patents

Apparatus and method for displaying guide information for changing fingerprint state Download PDF

Info

Publication number
WO2019151642A1
WO2019151642A1 PCT/KR2018/016015 KR2018016015W WO2019151642A1 WO 2019151642 A1 WO2019151642 A1 WO 2019151642A1 KR 2018016015 W KR2018016015 W KR 2018016015W WO 2019151642 A1 WO2019151642 A1 WO 2019151642A1
Authority
WO
WIPO (PCT)
Prior art keywords
fingerprint
area
image
processor
state
Prior art date
Application number
PCT/KR2018/016015
Other languages
French (fr)
Korean (ko)
Inventor
김용석
김선아
김정후
프루신스키발레리
허창룡
현석
송경훈
조치현
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2019151642A1 publication Critical patent/WO2019151642A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0414Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using force sensing means to determine a position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • Various embodiments relate to a method of recognizing a fingerprint and an electronic device thereof.
  • An electronic device such as a smart phone may store various kinds of personal information such as a phone number and authentication information (for example, a password). Accordingly, the electronic device may provide an authentication service to protect personal information stored in the electronic device from others. For example, the electronic device may provide an authentication service (eg, a biometric service) using biometric information such as an iris, a fingerprint, a face, a palm, and a vein.
  • an authentication service eg, a biometric service
  • biometric information such as an iris, a fingerprint, a face, a palm, and a vein.
  • a fingerprint input method through a display may be required by integrating a fingerprint sensor inside the display.
  • the success rate of fingerprint recognition may decrease according to the state of the fingerprint.
  • a solution may be required to increase the success rate of fingerprint recognition.
  • the fingerprint recognition state may be improved by changing the state of the fingerprint.
  • An electronic device may include a touch screen, a memory, and a processor.
  • the processor acquires a first image of a fingerprint of a user associated with the first touch input based on a first touch input detected through the touch screen, and obtains the obtained first image and the memory stored in the memory.
  • a second touch input for confirming that the state of the fingerprint corresponds to the first state based on the reference image for the fingerprint, and for changing the state of the fingerprint from the first state to the second state based on the confirmation It may be configured to display information for guiding through the touch screen.
  • An electronic device may include a touch screen, a plurality of fingerprint sensors disposed under the touch screen, and a processor.
  • the processor detects a touch input through the touch screen, determines whether the position of the detected touch input is included in the position of the plurality of fingerprint sensors, and based on the determination, the processor determines the touch input of the detected touch input. And display information guiding fingerprint input at a location.
  • a method of an electronic device obtains a first image of a fingerprint of a user associated with the first touch input based on a first touch input detected through a touch screen, and obtains the obtained first image. And confirming that the state of the fingerprint corresponds to the first state based on the reference image of the fingerprint stored in the memory, and changing the state of the fingerprint from the first state to the second state based on the confirmation. And display information for guiding a second touch input.
  • An electronic device method may detect a touch input through a touch screen, determine whether a position of the detected touch input is included in a location of a plurality of fingerprint sensors, and based on the determination, And display information guiding the fingerprint input at the location of the detected touch input.
  • the electronic device and the method according to various embodiments of the present disclosure may improve the recognition rate of the fingerprint by displaying information guiding a touch input based on the identified fingerprint state.
  • FIG. 1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 illustrates an example of a functional configuration of an electronic device according to various embodiments of the present disclosure.
  • 3A and 3B illustrate examples of fingerprint states according to various embodiments.
  • FIG. 4 illustrates an operation principle of a fingerprint sensor according to various embodiments of the present disclosure.
  • FIG. 5 illustrates an example of an operation of an electronic device for displaying information for guiding a touch input according to various embodiments of the present disclosure.
  • FIGS. 6A and 6B illustrate an example in which a fingerprint sensor is disposed in an electronic device according to various embodiments of the present disclosure.
  • FIG. 7 illustrates an example of an operation of an electronic device to acquire a first image according to various embodiments of the present disclosure.
  • FIG. 8 illustrates an example of an operation of an electronic device to determine a state of a fingerprint according to various embodiments of the present disclosure.
  • FIG 9 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
  • FIG. 10 illustrates an example of information guiding a second touch input according to various embodiments of the present disclosure.
  • FIG. 11 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
  • FIG. 12 illustrates an example of information guiding a second touch input according to various embodiments of the present disclosure.
  • FIG. 13 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
  • 14A to 14C illustrate examples of information for guiding a second touch input according to various embodiments of the present disclosure.
  • FIG. 15 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
  • 16 illustrates an example of information guiding a second touch input according to various embodiments of the present disclosure.
  • FIG. 17 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input based on a grip sensor according to various embodiments of the present disclosure.
  • 18A and 18B illustrate an example of information for guiding a second touch input based on a grip sensor according to various embodiments.
  • FIG. 19 illustrates an example of an operation of an electronic device for displaying information guiding a first touch input according to various embodiments of the present disclosure.
  • 20A and 20B illustrate an example of information for guiding a first touch input according to various embodiments.
  • the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, near field communication), or the second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through remote wireless communication.
  • the electronic device 101 may communicate with the electronic device 104 through the server 108.
  • the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module.
  • a sensor module 176 eg, fingerprint sensor, iris sensor, or illuminance sensor embedded in display device 160 (eg, display), may be It can be integrated.
  • the processor 120 may drive at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120 by driving software (eg, the program 140). It can control and perform various data processing and operations.
  • the processor 120 loads and processes the command or data received from another component (eg, the sensor module 176 or the communication module 190) into the volatile memory 132, and processes the result data in the nonvolatile memory 134.
  • the processor 120 operates independently of the main processor 121 (eg, central processing unit or application processor), and additionally or alternatively, uses less power than the main processor 121, Or a coprocessor 123 specialized for a designated function (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor).
  • the coprocessor 123 may be operated separately from the main processor 121 or embedded.
  • the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg At least one of the elements of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module) together with the main processor 121 while in the application execution state. 190) may control at least some of the functions or states associated with).
  • the coprocessor 123 e.g., image signal processor or communication processor
  • is implemented as some component of another functionally related component e.g. camera module 180 or communication module 190. Can be.
  • the memory 130 may include various data used by at least one component of the electronic device 101 (for example, the processor 120 or the sensor module 176), for example, software (for example, the program 140). ), And input data or output data for a command related thereto.
  • the memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
  • the program 140 is software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144, or an application 146.
  • the input device 150 is a device for receiving a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101.
  • a component for example, the processor 120
  • the input device 150 may include a microphone, a mouse, or a keyboard.
  • the sound output device 155 is a device for outputting sound signals to the outside of the electronic device 101.
  • the sound output device 155 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used only for receiving a call. It may include. According to one embodiment, the receiver may be formed integrally or separately from the speaker.
  • the display device 160 is a device for visually providing information to a user of the electronic device 101.
  • the display device 160 may include a display, a hologram device, a projector, and a control circuit for controlling the device.
  • the display device 160 may include a pressure sensor capable of measuring the strength of the pressure on the touch circuitry or the touch.
  • the audio module 170 may bidirectionally convert a sound and an electrical signal. According to an embodiment, the audio module 170 acquires sound through the input device 150, or an external electronic device (for example, a wired or wireless connection with the sound output device 155 or the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • an external electronic device for example, a wired or wireless connection with the sound output device 155 or the electronic device 101. Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
  • the sensor module 176 may generate an electrical signal or data value corresponding to an operating state (eg, power or temperature) inside the electronic device 101 or an external environmental state.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, Or an illumination sensor.
  • the interface 177 may support a specified protocol that may be connected to an external electronic device (for example, the electronic device 102) by wire or wirelessly.
  • the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • HDMI high definition multimedia interface
  • USB universal serial bus
  • SD card interface Secure Digital Card
  • audio interface an audio interface
  • the connection terminal 178 is a connector for physically connecting the electronic device 101 and an external electronic device (for example, the electronic device 102), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • an HDMI connector for example, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and videos. According to an embodiment of the present disclosure, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
  • the power management module 188 is a module for managing power supplied to the electronic device 101, and may be configured, for example, as at least part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 is a device for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 establishes a wired or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108), and establishes the established communication channel. It can support to perform communication through.
  • the communication module 190 may include one or more communication processors that support wired communication or wireless communication that operate independently of the processor 120 (eg, an application processor).
  • the communication module 190 may include a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, A local area network (LAN) communication module, or a power line communication module, comprising a local area network such as a first network 198 (eg, Bluetooth, WiFi direct, or infrared data association) using a corresponding communication module. Communication with an external electronic device via a communication network) or a second network 199 (eg, a telecommunication network such as a cellular network, the Internet, or a computer network (eg, a LAN or a WAN)).
  • the various types of communication modules 190 described above may be implemented as one chip or each separate chip.
  • the wireless communication module 192 may distinguish and authenticate the electronic device 101 in a communication network by using user information stored in the subscriber identification module 196.
  • the antenna module 197 may include one or more antennas for transmitting or receiving signals or power from the outside.
  • the communication module 190 (for example, the wireless communication module 192) may transmit a signal to or receive a signal from an external electronic device through an antenna suitable for a communication method.
  • peripheral devices eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)
  • GPIO general purpose input / output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199.
  • Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101.
  • all or part of operations executed in the electronic device 101 may be executed in another or a plurality of external electronic devices.
  • the electronic device 101 may instead or additionally execute the function or service by itself.
  • At least some associated functions may be requested to the external electronic device.
  • the external electronic device may execute the requested function or additional function and transmit the result to the electronic device 101.
  • the electronic device 101 may process the received result as it is or additionally to provide the requested function or service.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • Electronic devices may be various types of devices.
  • the electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
  • a portable communication device eg, a smartphone
  • a computer device e.g., a laptop, a desktop, a tablet, or a smart bracelet
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a portable medical device
  • a home appliance e.g., a portable medical device, a portable medical device, a camera, a wearable device, or a home appliance.
  • An electronic device according to an embodiment of the present disclosure is not limited to the above-described devices.
  • any (eg first) component is said to be “(functionally or communicatively)” or “connected” to another (eg second) component, the other component is said other
  • the component may be directly connected or connected through another component (eg, a third component).
  • module includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits.
  • the module may be an integrally formed part or a minimum unit or part of performing one or more functions.
  • the module may be configured as an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present disclosure may include instructions stored in a machine-readable storage media (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, a computer). It may be implemented in software (eg, program 140).
  • the device may be a device capable of calling a stored command from a storage medium and operating in accordance with the called command, and may include an electronic device (eg, the electronic device 101) according to the disclosed embodiments.
  • the processor for example, the processor 120
  • the processor may perform a function corresponding to the command directly or by using other components under the control of the processor.
  • the instructions can include code generated or executed by a compiler or interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish that the data is stored semi-permanently or temporarily on the storage medium.
  • a method may be included in a computer program product.
  • the computer program product may be traded between the seller and the buyer as a product.
  • the computer program product may be distributed online in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or through an application store (eg Play StoreTM).
  • a device-readable storage medium eg compact disc read only memory (CD-ROM)
  • an application store eg Play StoreTM
  • at least a portion of the computer program product may be stored at least temporarily on a storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
  • Each component for example, a module or a program
  • some components eg, modules or programs
  • operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some operations may be executed in a different order, omitted, or another operation may be added. Can be.
  • FIG. 2 illustrates an example of a functional configuration of an electronic device according to various embodiments of the present disclosure.
  • the functional configuration of such an electronic device may be included in the electronic device 101 shown in FIG. 1.
  • the electronic device 101 may include a display device 160, a sensor module 176, a memory 130, and a processor 120.
  • the display device 160 may output data or signals in the form of an image or an image.
  • the display device 160 may output data or a signal received from the memory 130 or the sensor module 176 in the form of an image or an image according to a control signal of the processor 120.
  • the display device 160 may display information for guiding a fingerprint input.
  • the information may include an image of a fingerprint or similar shape. For example, when it is determined that the state of the fingerprint corresponds to the first state (for example, the state in which the fingerprint is dry, the state in which the oil is low in the fingerprint), the display device 160 according to the control signal of the processor 120, Information for guiding a user's touch input may be displayed.
  • the first state may be a fingerprint for the authenticated user based on a result of the comparison of the reference image of the fingerprint and the image of the input fingerprint, with the fingerprint dry, the oil lacking or lacking in the fingerprint. Estimated, but the image for the input fingerprint does not match the reference image, the match rate between the image for the input fingerprint and the reference image is lower than a specified value, or within the image for the input fingerprint.
  • the ratio of the area caused by the floor area located in the fingerprint at may be a lower value than the ratio of the area caused by the floor area located in the fingerprint in the reference image.
  • the touch input may include a drag input.
  • the information for guiding the touch input may have a form including a first point and a second point, a plurality of objects arranged in a grid, or an arrow indicating a specific direction.
  • the display device 160 may display a graphical user interface (GUI) for interaction between the user and the electronic device 101.
  • GUI graphical user interface
  • the display device 160 may include a liquid crystal display (LCD) or an organic light emitting diode (OLED).
  • the display device 160 may receive information about a fingerprint of a user related to a touch input through a touch screen panel (TSP) module 222 that may receive a user's touch input and a user's touch input. It may be electrically or functionally coupled with the fingerprint sensor 224 to acquire.
  • TSP touch screen panel
  • the sensor module 176 may receive data for determining a context related to the inside or the outside of the electronic device 101.
  • the sensor module 176 may be configured to integrate with various sensors (eg, grip sensor, proximity sensor, geomagnetic sensor, gyro sensor, illuminance sensor, barometric pressure sensor, pressure sensor, touch sensor, or biometric sensor).
  • various sensors eg, grip sensor, proximity sensor, geomagnetic sensor, gyro sensor, illuminance sensor, barometric pressure sensor, pressure sensor, touch sensor, or biometric sensor.
  • the sensor module 176 may transmit data about an external situation related to the user to the processor 120.
  • the sensor module 176 may include a TSP module 222, a fingerprint sensor 224, and a grip sensor 226.
  • the TSP module 222 may receive data related to a user's touch input. According to various embodiments of the present disclosure, the TSP module 222 may detect a touch input of a finger and a pen. The touch input may include touch and release, drag and drop, long touch, or force touch. According to various embodiments of the present disclosure, the TSP module 222 may receive information about a location in a display where a user's touch is input and an area where the user's touch is input. According to various embodiments of the present disclosure, the TSP module 222 may map information about a location and an area where a user's touch is input to the time when the touch is input, and store the information in the memory 130.
  • a user of the electronic device 101 may contact the electronic device 101 with an ear of the user to perform a voice call.
  • the TSP module 222 maps information about the location and area of the touch input caused by the contact (e.g., the front of the display) to the time at which the contact occurred (e.g. 11:10 am), and the memory ( 130).
  • the TSP module 222 may store mapping information regarding a plurality of touch inputs. In the above-described embodiments, the TSP module 222 is described as mapping the information regarding the position and area of the touch input to the time at which the touch input occurs, but is not limited thereto. For example, the TSP module 222 may provide only the information about the position and the area where the touch input is detected to the processor 120, and the processor 120 may map the information about the acquired position and the area in time. .
  • the TSP module 222 may receive a user's touch input independently of the operation mode of the display device 160.
  • the display device 160 may operate in an off state. In the off state, power is supplied from the electronic device 101 to the display device 160, but no object is displayed, and a blank screen or a black screen on the display device 160 is displayed. black screen) may be displayed.
  • the off state may be variously referred to as an inactive state, a deactivation state, a sleep state, an inactive state, or an idle state.
  • the on state may include a state in which at least one object is displayed on the display device 160 based on data or a signal received from the processor 120.
  • the on state may be variously referred to as an active state or an activated state.
  • the electronic device 101 may operate in a mode of displaying content through a display.
  • the electronic device 101 displays at least one icon for indicating a current time, date, and a notification provided from at least one application while the processor 120 operates in the sleep state. Can be represented on the image.
  • the mode may be referred to as always on display (AOD) mode.
  • the TSP module 222 may receive a user touch input through the touch screen regardless of the on / off state of the display device 160.
  • the TSP module 222 may operate in an active state, for example, while the display device 160 operates in an off state.
  • the TSP module 222 may receive a user's touch input while the display device 160 displays the blank screen or the black screen.
  • the TSP module 222 may receive a user's touch input, for example, while the display device 160 operates in the on state.
  • the TSP module 222 may provide the processor 120 with information about the location of the received touch input on the display device 160 and the area of the received touch input.
  • the processor 120 may execute an application or change the display of the display device 160 based on the information about the touch input provided from the TSP module 222.
  • the TSP module 222 may provide the processor 120 with the received touch input and data related to the received touch input.
  • the TSP module 222 may receive a touch input while the display device 160 operates in the off state. Accordingly, the TSP module 222 controls to turn on (or change) the display device 160 to the processor 120 based on the off state of the display device 160 and the received touch input. You can send a signal.
  • the TSP module 222 may transmit data regarding the location, area, and time of the touch input to the memory 130 to store data related to the touch input.
  • the processor 120 acquires data related to the touch input from the TSP module 222 and instructs the memory 130 to store the acquired data and the obtained data in the memory 130.
  • the control signal can be transmitted.
  • the TSP module 222 may store the obtained data in the memory 130 by transmitting the obtained data to the memory 130.
  • the fingerprint sensor 224 may receive data related to a fingerprint through a user's touch input.
  • the fingerprint sensor 224 may receive data for determining whether a user associated with a touch input is an authenticated user, according to a characteristic pattern of valleys and ridges located within the user's fingerprint.
  • the fingerprint sensor 224 may be based on an optical scheme based on a difference in light reflected by a valley located in a fingerprint, and a phase difference in ultrasonic waves reflected by a floor located in the fingerprint. It may operate according to an ultrasonic method, or an electrostatic method based on the difference in dielectric constant caused by the valleys and ridges located in the fingerprint.
  • the grip sensor 226 may detect whether the electronic device 101 is held by a user and the direction of the held hand.
  • the grip sensor 226 may be configured to be integrated with a gyro sensor (not shown), a geomagnetic sensor (not shown), or a proximity sensor (not shown).
  • the electronic device 101 may detect a change in capacitance or a change in the magnetic field between the detection object and the proximity sensor through the proximity sensor.
  • the electronic device 101 uses the grip sensor 226 to allow the user to move the electronic device 101 to the left or right hand based on the magnitude of the change in the left magnetic field and the magnitude of the change in the right magnetic field of the electronic device 101. It can be identified whether it is held.
  • the grip sensor 226 may transmit information about a position of a hand of the user holding the electronic device 101 to the processor 120. For example, when the user grips the electronic device 101 with his left hand, the grip sensor 226 may transmit information indicating to the processor 120 that the electronic device 101 is gripped by the left hand. have.
  • the processor 120 may control to display an interface for fingerprint input on an area of the display device 160 where the fingerprint sensor on the left side of the plurality of fingerprint sensors is located.
  • the grip sensor 226 may transmit information indicating to the processor 120 that the electronic device 101 is gripped by the right hand. Can be.
  • the processor 120 may display an arrow figure for guiding a drag input in a left direction through the display device 160.
  • the memory 130 may correspond to the memory 130 shown in FIG. 1.
  • the memory 130 may store a command, a control command code, control data, or user data for controlling the electronic device 101.
  • the memory 130 may include an application, an operating system (OS), middleware, and a device driver.
  • the memory 130 may be stored in advance by an authenticated user and store pattern information used to release the lock state of the electronic device 101.
  • the pattern information may be information related to the order of a plurality of objects arranged in a grid.
  • the memory 130 may store information related to a touch input.
  • the memory 130 may obtain, through the processor 120, information in which the time when the touch is input is mapped to a location and an area on the display device 160 on which the user touch is input from the TSP module 222.
  • the memory 130 may provide information related to the touch input at the request of the processor 120.
  • the memory 130 may include one or more of volatile memory or non-volatile memory.
  • Volatile memory includes dynamic random access memory (DRAM), static RAM (SRAM), synchronous DRAM (SDRAM), phase-change RAM (PRAM), magnetic RAM (MRAM), persistent RAM (RRAM), ferroelectric RAM (FeRAM), and the like. It may include.
  • the nonvolatile memory may include read only memory (ROM), programmable ROM (PROM), electrically programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, and the like.
  • the memory 130 may be a non-volatile medium such as a hard disk drive (HDD), a solid state disk (SSD), an embedded multi media card (eMMC), or a universal flash storage (UFS). It may include.
  • the memory 130 may provide stored data based on a request of the processor 120 or another component (eg, the TSP module 222), or the processor 120 or the other component ( For example, data received from the TSP module 222 may be recorded and stored.
  • the memory 130 may receive information about the location, area, and time related to the touch input from the TSP module 222 according to a request of the TSP module 222.
  • the processor 120 receives, from the TSP module 222, information regarding a location, an area, and a time related to the touch input, and transmits the obtained information to the memory 130 to store the obtained information. You may.
  • the memory 130 may transmit information about the location and area of the touch input received within the closest time from the specific time to the processor 120 at the request of the processor 120.
  • the processor 120 may control the overall operation of the electronic device 101.
  • the processor 120 may read or write data in the memory 130 and execute application instruction codes stored in the memory 130.
  • the processor 120 may perform user authentication using an image of a fingerprint input through a touch input.
  • the processor 120 may receive a reference image of the fingerprint of the authenticated user from the memory 130.
  • the processor 120 may perform user authentication by performing image matching between the received reference image and the image of the input fingerprint.
  • the processor 120 may obtain a matching rate between areas corresponding to the first color and a matching rate between areas corresponding to the second color based on the image matching.
  • the processor 120 may display various information through the display device 160.
  • the processor 120 determines that the fingerprint input through the touch input corresponds to a first state (for example, a dry state of the fingerprint or a state in which the fingerprint is insufficient)
  • the processor 120 changes the state of the fingerprint from the first state to the second state.
  • the display device 160 may be controlled to display the guided information for changing the fingerprint to a state in which the fingerprint is not dry or the fingerprint is sufficiently oiled.
  • the second state is based on a state in which the fingerprint is not dry, a state in which the oil is sufficient in the fingerprint, a comparison result of the reference image for the fingerprint and the image for the input fingerprint, and the reference image and the reference image.
  • the coincidence ratio of may be greater than or equal to a predetermined value, and within the ridge area of the fingerprint, a small bone area generated when the fingerprint is dry may include a state filled with a material such as sweat or oil.
  • the processor 120 may be electrically connected to other components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the memory 130). It can be electrically connected or functionally combined or connected.
  • the processor 120 may be configured of one or more processors.
  • the processor 120 includes an application processor (AP) that controls a higher layer program such as an application or a communication processor (CP) that performs control for communication with another electronic device. can do.
  • AP application processor
  • CP communication processor
  • 3A and 3B illustrate examples of a fingerprint state according to various embodiments of the present disclosure.
  • a state of a fingerprint may correspond to a second state (eg, a state in which the fingerprint is not dry or a state in which the oil is sufficient in the fingerprint).
  • the fingerprint of the user is based on the touch surface of the touch screen 303 (for example, the display device 160 of FIG. 1), and the area of the ridge 302 corresponding to the relatively low position and the touch screen ( Based on the touch surface of 303, it may be divided into a valley 301 region corresponding to a relatively high position.
  • the floor 302 area included in the fingerprint has a relatively low position from the touch surface of the touch screen 303, and thus may be in physical contact with the touch screen 303.
  • the valley 301 region included in the fingerprint has a relatively high position from the touch surface of the touch screen 303, and thus may not be in physical contact with the touch screen 303.
  • an air layer may be formed between the area of the valley 301 located in the fingerprint and the surface of the touch screen 303. Since the area of the floor 302 located within the fingerprint is in physical contact with the touchscreen 303, no air layer may be formed between the area of the floor 302 and the surface of the touchscreen 303.
  • the processor 120 may acquire an image 310 corresponding to the second state of the fingerprint through the fingerprint sensor 224 when a user inputs a touch.
  • the image 310 corresponding to the second state includes a first area 312 indicated by a first color (eg black) and a second area 314 indicated by a second color (eg white). can do.
  • An area of the ridge 302 located in the fingerprint may correspond to the first area 312 of the image 310 corresponding to the second state.
  • An area of the valley 301 located in the fingerprint may correspond to the second area 314 of the image 310 corresponding to the second state.
  • the state of the fingerprint may correspond to a first state (eg, a state in which the fingerprint is dry and a state in which the oil is insufficient in the fingerprint).
  • a first state eg, a state in which the fingerprint is dry and a state in which the oil is insufficient in the fingerprint.
  • an area that is not in physical contact with the touch screen 303 may be generated inside the floor 302 of the fingerprint corresponding to the second state. That is, when the fingerprint corresponds to the first state, in the floor 302 region of the fingerprint, the fingerprint has a relatively high position with respect to the touch surface of the touch screen 303 and is not in physical contact with the touch screen 303.
  • a small valley 304 area may be created.
  • the small valley 304 area may include a material such as sweat or oil when the state of the fingerprint corresponds to the second state (for example, the state in which the fingerprint is not dry), and the touch screen 303 may be formed. There may be no air layer between the touch surface and the small valley 304 area.
  • the small valley 304 area may not include a material such as sweat or oil when the state of the fingerprint corresponds to the first state (eg, the state in which the fingerprint is dry). When the state of the fingerprint corresponds to the first state, an air layer may be formed between the small valley 304 area and the touch surface of the touch screen 303.
  • the processor 120 may acquire an image 320 corresponding to the first state of the fingerprint through the fingerprint sensor 224 when a user inputs a touch.
  • the image 320 corresponding to the first state includes a third area 322 indicated by a first color (eg black) and a fourth area 324 indicated by a second color (eg white). can do.
  • the fourth region 324 indicated by the second color may include the region generated by the region of the valley 301 included in the fingerprint and the region generated by the region of the small valley 304 generated according to the second state. Can be.
  • FIG. 4 illustrates an operation principle of a fingerprint sensor according to various embodiments of the present disclosure.
  • the fingerprint sensor 420 illustrated in FIG. 4 may correspond to the fingerprint sensor 224 illustrated in FIG. 2.
  • the fingerprint sensor 420 may be located at the bottom of the light emitting layer 410 of the display.
  • the fingerprint sensor 420 may be positioned under the light emitting layer 410 of the display to detect light reflected from the window glass of the display device 160 and obtain an image of the fingerprint based on the detected light. Since the fingerprint sensor 420 is not transparent, when the fingerprint sensor 420 is positioned above the light emitting layer 410 of the translucent display, the overall performance of the display may be reduced.
  • the fingerprint sensor 420 may acquire an image regarding the fingerprint by using a separate light source.
  • the fingerprint sensor 420 may be generated from a separate light source to detect light reflected from the window glass and traveling.
  • the fingerprint sensor 420 may be located at a specific location (eg, in an edge direction of the display) in order to efficiently receive light generated from a separate light source.
  • the separate light source may operate to acquire a fingerprint image for a touch input when there is no light source generated from the light emitting layer 410 of the display by operating the display device 160 in an off state or a low power mode.
  • a contact 434 region by physical contact between a window glass and a plurality of floors 431 may be generated.
  • the bone 432 area within the fingerprint may be created or destroyed depending on the state of the fingerprint. For example, when the state of the fingerprint corresponds to a second state (for example, a state in which the oil is sufficient for the fingerprint and the state in which the fingerprint is not dry), a region of the bone 432 where a material such as sweat or oil is small is formed. I can fill it. Accordingly, when the fingerprint corresponds to the second state, the small valley 432 area may not exist.
  • the bone 435 Small valleys 432 areas different from the areas may be created.
  • the valley 435 is an area that cannot be filled by a material such as sweat or oil, and may correspond to an area that always has a second color (eg, white color) when a fingerprint is input.
  • the fingerprint sensor 420 may acquire the image of the fingerprint by receiving the light of the path A and the path B reflected on the touch screen to the fingerprint sensor 420.
  • the light in path A may be light reflected and received from the area of the valleys 432 or 435 located within the window glass and fingerprint.
  • the light in path B may be light received reflected from the area of the ridge 431 located in the window glass and fingerprint.
  • Light in path A may be reflected through an air layer present between the window glass and the area of valleys 432 or 435 located within the fingerprint. Therefore, the light of the path A can be reduced in intensity small.
  • the light of the path B when the light of the path B reaches the area of the contact 434 of the window glass and the floor 431 located in the fingerprint, the light of the path B may be absorbed through the user's fingerprint. Therefore, the light of the path B reflected from the contact 434 region can be greatly reduced in the amount of light. That is, the light of the path A may be light brighter than the light of the path B.
  • the fingerprint sensor 420 receives the light of the path A and the light of the path B reflected through the plurality of air layers 433 and the contact 434 regions, and compares the two light intensity differences to obtain a fingerprint. Obtain an image for.
  • the fingerprint sensor 420 may receive the reflected light of the path A, and detect the light having the first value.
  • the fingerprint sensor 420 may receive the reflected path B light and detect light having a second brightness. Through the image processing, the fingerprint sensor 420 may recognize that the value of the brightness of the first value corresponding to the light of the reflected path A is greater than the value of the second brightness corresponding to the light of the reflected path B.
  • the fingerprint sensor 420 may receive the light of the path A reflected at the location corresponding to the valley area 432 of the fingerprint, and the path B of the path B reflected onto the location corresponding to the floor area 431 of the fingerprint. Can receive light.
  • the fingerprint sensor 224 may acquire the image 310 corresponding to the second state of the fingerprint of FIG. 3A or the image 320 corresponding to the first state of the fingerprint shown in FIG. 3B by inverting the received light. have.
  • FIG. 5 is a flowchart illustrating an electronic device for displaying information guiding a touch input according to various embodiments of the present disclosure.
  • the processor 120 may acquire a first image of a fingerprint of a user associated with a first touch input.
  • the processor 120 may display an interface for guiding a fingerprint input through the display device 160 to obtain a first image of the user's fingerprint.
  • the processor 120 may detect that the display device 160 is changed from an off state to an on state, and display an interface for guiding a fingerprint input according to the detection.
  • the interface for guiding the fingerprint input may be an image including the shape of the fingerprint or the like.
  • the interface for guiding the fingerprint input may further include text for guiding the fingerprint input (eg, “Please enter a fingerprint” or “Raise your finger”).
  • the processor 120 may acquire, via the fingerprint sensor 224, a first image of a fingerprint related to a touch input according to the interface.
  • the processor 120 may acquire a first image of a user's fingerprint through the fingerprint sensor 224 while the display device 160 operates in an off state.
  • the fingerprint sensor 224 may receive a touch input even when the display device 160 operates in the off state.
  • the processor 120 may display a graphical user interface (GUI) on an area of the display device 160 where the fingerprint sensor 224 is located while operating in the AOD mode.
  • GUI graphical user interface
  • the GUI may include a graphic object that includes the shape of a fingerprint.
  • the display device 160 may operate in a low power mode or an off state based on the AOD mode.
  • the fingerprint sensor 224 may acquire an image of a user's fingerprint through an area where the GUI is displayed while the display device 160 operates in a low power mode or an off state.
  • the fingerprint sensor 224 may perform fingerprint authentication by comparing an image of a fingerprint of an authenticated user with a first image acquired based on the received touch input.
  • the processor 120 may change the display device 160 from the off state to the on state in response to obtaining the first image by the fingerprint sensor 224. For example, when the first image and the image of the authenticated user's fingerprint match, the processor 120 determines that the fingerprint authentication is successful, and releases the lock state of the electronic device 101 and the display device 160. The off state of can be switched on. In another example, when it is determined that there is a mismatch between the first image and the image of the authenticated user's fingerprint, the processor 120 turns on the state of the display device 160 and guides the second touch input. Information may be displayed through the display device 160.
  • the processor 120 may display a graphical user interface (GUI) on an area where the fingerprint sensor 224 is located.
  • GUI graphical user interface
  • the GUI may include a graphic object that includes the shape of a fingerprint.
  • the display device 160 may operate in a low power mode or an off state based on the AOD mode.
  • the fingerprint sensor 224 may acquire an image of a user's fingerprint through an area where the GUI is displayed while the display device 160 operates in a low power mode or an off state.
  • the processor 120 may display an interface for guiding a fingerprint input.
  • the processor 120 may display an interface for guiding the fingerprint input on an area where the fingerprint sensor 224 is located. For example, when the fingerprint sensor 224 is positioned at the bottom center of the display device 160, the processor 120 may display a fingerprint-shaped image 620 at the bottom center of the display device 160.
  • the electronic device 101 may include a plurality of fingerprint sensors 620 through 660.
  • the plurality of fingerprint sensors 620 to 660 may include five fingerprint sensors.
  • the fingerprint sensor 620 may be disposed at a position corresponding to a conventional physical key or button (for example, a lower center portion of the display device 160).
  • the remaining fingerprint sensors 630 to 660 may be disposed through the remaining area except for the area where the fingerprint sensor 620 is disposed.
  • the plurality of fingerprint sensors 620 through 660 may be disposed through the entire area of the display device 160. In this case, the plurality of fingerprint sensors may be arranged such that the distance between each fingerprint sensor is the same. Since the plurality of fingerprint sensors 620 to 660 are located in the display device 160 area, the processor 120 may adaptively change the position of the interface for fingerprint input.
  • the processor 120 may identify that the state of the fingerprint corresponds to the first state, based on the obtained first image and the reference image.
  • the first state may be a fingerprint for the authenticated user based on a result of the comparison of the reference image of the fingerprint and the image of the input fingerprint, with the fingerprint dry, the oil lacking or lacking in the fingerprint. Estimated, but the image for the input fingerprint does not match the reference image, the match rate between the image for the input fingerprint and the reference image is lower than a specified value, or within the image for the input fingerprint.
  • the ratio of the area caused by the floor area positioned in the fingerprint may be lower than the ratio of the area caused by the floor area located in the fingerprint in the reference image.
  • the processor 120 may perform a comparison with the reference image to perform fingerprint authentication using the obtained first image.
  • the reference image may be stored in advance by an authenticated user of the electronic device, and may include an image of a fingerprint of an authenticated user, an image registered for setting a fingerprint registration, and an image of a fingerprint of an authorized user.
  • the processor 120 may determine whether a state of the fingerprint corresponds to the first state based on the obtained first image and the reference image. According to an embodiment of the present disclosure, the processor 120 may determine that the state of the fingerprint corresponds to the first state by determining whether the first area of the first image and the third area of the reference image are different.
  • the processor 120 may display information guiding a second touch input for changing the state of the fingerprint from the first state to the second state.
  • the second state is based on a state in which the fingerprint is not dry, a state in which the oil is sufficient in the fingerprint, a comparison result of the reference image for the fingerprint and the image for the input fingerprint, and the reference image and the reference image.
  • the coincidence ratio of may be greater than or equal to a predetermined value, or a small bone region generated when the fingerprint is dry, or when the fingerprint is dry, may be filled with a material such as sweat or oil.
  • the processor 120 may display information for guiding a touch input to change the state of the fingerprint to the second state based on detecting that the state of the fingerprint corresponds to the first state.
  • the information guiding the touch input may include a visual object such as a figure including a first point and a second point, a visual object such as a plurality of objects arranged in a grid, and a visual object such as an arrow indicating a specific direction. have.
  • the second touch input may include a drag input.
  • the user may input a touch based on the displayed information through the display device 160.
  • a material such as sweat generated by friction between the display device 160 and the fingerprint and oil present on the display device 160 may fill small valley areas in the floor area. . As the small valley areas in the ridge area are filled, the state of the fingerprint may change from the first state to the second state.
  • FIG. 7 illustrates an example of an operation of an electronic device to acquire a first image according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • Operations 701 to 705 of FIG. 7 may be related to operation 501 of FIG. 5.
  • the processor 120 may receive data from a grip sensor 226 or a pressure sensor (not shown).
  • the grip sensor 226 may obtain information related to the direction of the hand holding the electronic device 101 by comparing the magnitude of the magnetic field change in the left direction and the magnitude of the magnetic field change in the right direction.
  • the processor 120 may detect that the user grips the electronic device 101 by receiving information from the grip sensor 226. When the user grips the electronic device 101, the processor 120 transmits a control signal instructing to display the information for guiding the change from the off state of the display device 160 to the on state and the first touch input. can do.
  • processor 120 may receive data from a pressure sensor (not shown).
  • the pressure sensor (not shown) may be disposed in the lower center portion of the display device 160.
  • the pressure sensor (not shown) may correspond to a conventional physical key or button for activating the display.
  • the pressure sensor (not shown) may transmit data to the processor 120.
  • the processor 120 may transmit a control signal instructing the display device 160 to turn on the display device 160 based on data reception from a pressure sensor (not shown).
  • the processor 120 has been described as receiving data from the grip sensor 226 or a pressure sensor (not shown), but is not limited thereto.
  • the processor 120 may receive data from an illuminance sensor (not shown) based on a sudden change in illuminance value when the user removes the electronic device from a pocket (or bag) for use. Can be.
  • the processor 120 may transmit a control signal instructing to activate the display device 160 based on receiving data from an illumination sensor (not shown).
  • the processor 120 may display information guiding the first touch input.
  • the processor 120 may transmit a control signal instructing the display device 160 to display information guiding a first touch input for fingerprint authentication of the user.
  • the information guiding the first touch input may be an image including a shape of a fingerprint and a shape similar thereto.
  • the information for guiding the first touch input may further include text for guiding the fingerprint input (eg, “Please enter a fingerprint” or “Raise a finger”).
  • the display device 160 may display information guiding the first touch input based on a control signal from the processor 120. Accordingly, the first touch input for fingerprint authentication may be received in an area where the fingerprint sensor 224 is located in the display device 160.
  • the processor 120 may acquire a first image through the fingerprint sensor 224.
  • the fingerprint sensor 224 may acquire an image of the fingerprint according to the first touch input based on the difference in the intensity of light reflected by the valley area and the floor area located in the fingerprint.
  • An image of the fingerprint according to the first touch input may be referred to as a first image.
  • the fingerprint sensor 224 may acquire the first image by converting analog data about received light intensity into digital data and performing image processing.
  • FIG. 8 illustrates an example of an operation of an electronic device to determine whether a state of a fingerprint corresponds to a first state according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG.
  • Operations 801 to 805 illustrated in FIG. 8 may relate to operation 503 illustrated in FIG. 5.
  • the processor 120 may determine whether a matching ratio between the second area of the first image and the fourth area of the reference image is greater than or equal to the first threshold value. That is, the processor 120 may determine whether the regions corresponding to the valley 435 regions overlap by comparing the reference image with the first image. For example, when the second area of the first image and the fourth area of the reference image are not equal to each other by about 95% or more, the processor 120 may determine the touch input by a third party, not an authenticated user. This is because the second region of the first image is a region having a second color according to the region of the valley 435 that exists regardless of the presence of a material such as sweat or oil.
  • the processor 120 may determine that the first image is an image of a fingerprint of an authenticated user. Accordingly, the processor 120 may perform operation 803 to determine whether fingerprint authentication has failed due to the state of the fingerprint.
  • the first threshold value has been described as the same value as about 95%, but the present invention is not limited thereto.
  • the processor 120 may set the first threshold value to various values according to the security setting of the user. For example, if the user requires a high security fingerprint authentication, the first threshold may be set to about 99%.
  • the specific first threshold value is not limited thereto and may have various values.
  • the processor 120 may determine whether a match rate between the first area of the first image and the third area of the reference image is greater than or equal to a second threshold value. That is, the processor 120 may determine whether the floor 302 overlaps by comparing the reference image with the first image. For example, the processor 120 does not determine whether the state of the fingerprint corresponds to the first state or the second state when the first region of the first image and the third region of the reference image are not equal to about 70% or more. You may not. According to an embodiment of the present disclosure, the processor 120 may display information guiding the first touch input again in order to obtain specific information about the first image. In another example, the processor 120 may detect that the first area of the first image and the third area of the reference image are about 70% or more the same.
  • the processor 120 may determine that the state of the fingerprint corresponds to the first state.
  • the processor 120 may determine that the fingerprint of the authenticated user of the electronic device 101 corresponds to the first state based on the first image and the reference image. Thereafter, the processor 120 may display the information guiding the second touch input through the display device 160 to change the first state of the fingerprint to the second state.
  • FIG. 9 is a flowchart of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • Operations 901 to 909 of FIG. 9 may be related to operation 505 of FIG. 5.
  • the processor 120 may display a graphic object (eg, a figure) including a first point and a second point as information guiding the second touch input.
  • the first point and the second point may include different points located in the display device 160.
  • the first point and the second point may include different points spaced apart by a minimum distance that may be distinguished by a user's touch input.
  • the graphic object including the first point and the second point may have a shape for guiding a drag input of the user.
  • the graphic object may have various shapes (eg, star shape, circle shape, square shape, or triangle shape).
  • the processor 120 may additionally display text (eg, “draw a star on the screen for fingerprint authentication”) for guiding the drag input through the display device 160.
  • the processor 120 may display a star-shaped figure 1001 based on detecting that the state of the fingerprint corresponds to the first state.
  • the processor 120 may further display the text 1003 for guiding the drag input to improve the user's perception.
  • the processor 120 may detect a drag input including the first point and the second point.
  • the processor 120 may detect a drag input through the TSP module 222.
  • the drag input may include a first point and a second point.
  • the processor 120 may add an animation effect according to the detected drag input through the display device 160.
  • the processor 120 may further display a line 1005 that is displayed to overlap the star-shaped figure.
  • the processor 120 may determine whether a drag input is detected in the entire area where the figure is displayed.
  • the processor 120 may receive information about all areas from which the drag input is detected from the TSP module 222.
  • the processor 120 may determine whether an area in which the figure is displayed is included in an area in which the drag input is detected.
  • the processor 120 may determine that the drag input is detected along the region in which the figure is displayed.
  • the processor 120 may perform operation 907 to detect a drag input corresponding to an area where the figure is displayed and to obtain a second image of the fingerprint changed to the second state.
  • the processor 120 may determine that the drag input is not detected along the region in which the figure is displayed. The processor 120 may maintain the display of the figure through the display device 160 until a drag input is detected in the entire region where the figure is displayed.
  • the processor 120 may acquire a second image of the fingerprint through the third point.
  • the third point may correspond to an area in which the fingerprint sensor is located in the display device 160.
  • the third point may correspond to an area different from the first point and the second point.
  • the processor 120 may display information for guiding a fingerprint input on an area where the third point is located through the display device 160.
  • the information guiding the fingerprint input may be an image including the shape of the fingerprint or the like.
  • the information for guiding the fingerprint input may further include text for guiding the fingerprint input (eg, “Please enter a fingerprint” or “Raise a finger”).
  • the processor 120 may acquire a second image of the fingerprint through the fingerprint sensor 224 corresponding to the third point.
  • the second image may include an image of the fingerprint in which the state of the fingerprint is changed from the first state to the second state.
  • the second image may be an image of a fingerprint in which a small valley 304 region located in the ridge 302 region in the fingerprint is filled with a material such as sweat or oil.
  • the processor 120 may display an interface for guiding a fingerprint input on an area corresponding to the first point or the second point.
  • the processor 120 may display information for guiding a fingerprint input on an area corresponding to the first point through the display device 160. Accordingly, the processor 120 may obtain the second image by only the drag input of the user input to the displayed figure.
  • the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image.
  • the processor 120 may compare the second image and the reference image based on an image matching technique. For example, when it is determined that the fingerprints match, the processor 120 may release the lock state of the electronic device 101 based on the fingerprint authentication result. For another example, when detecting a fingerprint mismatch, the processor 120 may maintain the lock state of the electronic device 101 and display the interface for guiding the fingerprint input again based on a fingerprint authentication result. .
  • FIG. 11 illustrates an example of an operation of an electronic device displaying information guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • Operations 1101 to 1109 of FIG. 11 may be related to operation 505 of FIG. 5.
  • the processor 120 may display a plurality of objects arranged in a grid through the display device 160.
  • the plurality of objects arranged in the grid may have a shape of a circle, as shown in FIG. 12.
  • each of the plurality of objects arranged in the grid may include a star, a rectangle, a triangle, various shapes or images.
  • each of the plurality of objects arranged in the grid may have the same shape or different shapes from each other.
  • the processor 120 may display a plurality of circular objects 1201 to 1209 arranged in a grid, as shown in FIG. 12.
  • the processor 120 may display the objects of each of the plurality of objects arranged in the grid in different shapes.
  • the order of at least some of the objects to which a touch is input among the plurality of objects arranged in the grid may be used as pattern information for unlocking.
  • the processor 120 may store pattern information preset by an authenticated user through the memory 130.
  • the processor 120 may detect a second touch input input to at least some objects through the TSP module 222.
  • the processor 120 may store an order of at least some objects determined according to the second touch input as an input pattern.
  • the processor 120 may detect the trajectory 1210 of the second touch input. Accordingly, the processor 120 proceeds in the order of the object 1201, the object 1202, the object 1203, the object 1206, the object 1205, the object 1204, the object 1207, and the object 1208.
  • the second touch input can be detected.
  • the processor 120 may store the order of the objects corresponding to the trajectory 1210 of the second touch input as a pattern of the second touch input.
  • the processor 120 may display an animation effect by displaying a line on the touch area corresponding to the trajectory 1210 of the second touch input through the display device 160.
  • the processor 120 may provide animation effects to objects positioned on the trajectory 1210 of the second touch input among the plurality of objects arranged in the grid.
  • the processor 120 may change the color of the objects for which the second touch input is detected or enlarge the size of the objects. For example, the processor 120 according to the progress of the trajectory 1210 of the second touch input, the object 1202, the object 1203, the object 1206, the object 1205, the object 1204, the object ( 1207, in order of the object 1208, the size of the object to which the touch is input may be enlarged or the color may be changed. Accordingly, the user may identify in real time an area where the touch input is received, based on the trajectory 1210 of the second touch input and the animation effect applied to the plurality of objects arranged in the grid.
  • the processor 120 may determine whether the previously stored pattern and the pattern of the second touch input match. For example, when stored by an authenticated user and the pattern for unlocking the electronic device 101 and the pattern of the second touch input match, the processor 120 may display information guiding the fingerprint input. have.
  • the processor 120 may display a plurality of objects arranged in the grid through the display device 160. You can continue to display. This is because the user of the second touch input may be different from the authenticated user when the pattern is inconsistent.
  • the processor 120 may display an interface for guiding the fingerprint input based on the matching of the pre-stored pattern and the pattern of the second touch input. Accordingly, the processor 120 may release the lock state based on the matching of the pattern information for unlocking the electronic device and the matching of the reference image and the second image, thereby further enhancing security.
  • the processor 120 may acquire a second image through the fingerprint sensor 224.
  • the second image may include an image of the fingerprint input through the fingerprint sensor 224 after the drag input.
  • the fingerprint sensor 224 may acquire a second image of the fingerprint changed to the second state according to the drag input.
  • the fingerprint sensor 224 may acquire a second image according to the fingerprint input based on the matching of the pre-stored pattern and the pattern of the second touch input. For example, if the previously stored pattern and the pattern of the second touch input do not match, the fingerprint sensor 224 may not generate the second image.
  • the fingerprint sensor 224 is based on the matching of the pre-stored pattern and the pattern of the second touch input, the fingerprint sensor 224 is based on the difference between the intensity of the light having the path A and the light having the path B is reflected and received after the matching Based on the second image may be generated.
  • the fingerprint sensor 420 may receive the reflected light of the path A, and detect the light having the first value.
  • the fingerprint sensor 420 may receive the reflected path B light and detect light having a second brightness. Through the image processing, the fingerprint sensor 420 may recognize that the value of the brightness of the first value corresponding to the light of the reflected path A is greater than the value of the second brightness corresponding to the light of the reflected path B. Since the reflected path B is partially absorbed into the floor area 431 of the fingerprint in contact with the window glass, the value of the second brightness may be smaller than the value of the first brightness. Accordingly, the fingerprint sensor 420 may receive the light of the path A reflected at the location corresponding to the valley area 432 of the fingerprint, and the path B of the path B reflected onto the location corresponding to the floor area 431 of the fingerprint. Can receive light. The fingerprint sensor 224 may acquire the image 310 corresponding to the second state of the fingerprint of FIG. 3A or the image 320 corresponding to the first state of the fingerprint shown in FIG. 3B by inverting the received light. have.
  • the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1109 may correspond to operation 909 of FIG. 9.
  • FIG. 13 illustrates an example of an operation of an electronic device that displays information for guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • Operation 1301 to operation 1307 of FIG. 13 may be related to operation 505 of FIG. 5.
  • the processor 120 may check information regarding an area where a touch input is received, before detecting the first touch input.
  • the processor 120 may request information about an area related to the touch input received before the first touch input is input to the memory 130. For example, the processor 120 may determine that the state of the fingerprint corresponds to the first state based on the first image.
  • the processor 120 may read information from the memory 130 regarding the region in which the touch input is received at the closest time based on the determination.
  • the processor 120 may receive information related to an area of a touch input received within a predetermined time interval, having an area equal to or greater than a predetermined threshold value.
  • the processor 120 may receive information about an area in which a touch input is received a predetermined number of times or more within a predetermined time interval. That is, the processor 120 may check information on an area related to a touch input within a predetermined time interval from a specific time (eg, a time when the state of the fingerprint is determined to correspond to the first state).
  • the processor 120 may receive a user's touch input.
  • the user may contact the electronic device 101 with the ear of the user for a voice call.
  • a touch input may occur between the side of the user's face and the display device 160 of the electronic device 101.
  • the touch input may have an area of a predetermined size and may be received through at least a portion of the front or top of the display device 160. The at least some area may be represented by the original area 1410.
  • the TSP module 222 may map information regarding the position and area of the received touch input to the time when the touch is input and transmit the information to the memory 130.
  • the TSP module 222 may provide information regarding the location and area (eg, the original area 1410) of the touch input received on the display device 160 at a time when the touch input is received (eg, 11 am). 10 minutes).
  • the processor 120 may receive a user's touch input.
  • the processor 120 may display a virtual keyboard for inputting a user's text through the display device 160 at the bottom of the display device 160.
  • the processor 120 may receive a plurality of touch inputs input on the virtual keyboard.
  • the processor 120 may display information guiding the second touch input on the identified region.
  • the identified area may correspond to an area where a touch input is detected within a short time.
  • a material such as sweat or oil may be present in the display device 160 on the identified area.
  • the processor 120 may display information guiding the second touch input on the identified area in order to change the state of the fingerprint from the first state to the second state.
  • the information guiding the second touch input may include a figure including a first point and a second point, a plurality of objects arranged in a grid, and arrows indicating a specific direction.
  • the processor 120 displays information for guiding the second touch input through the display device 160 based on information about the location, area, and time of the touch input. can do.
  • the processor 120 detects that the state of the fingerprint corresponds to the first state, the processor 120 based on the information regarding the touch area having a large touch area received before the detection, Information for guiding a touch input may be displayed. For example, a star shape may be displayed on the display device 160 through the circle region 1410.
  • the processor 120 may provide information for guiding the second touch input through the display device 160 based on information about the location, area, and time of the touch input. I can display it. For example, when the processor 120 detects that the state of the fingerprint corresponds to the first state, the processor 120 guides the second touch input based on the information about the region where the multi-touch occurs within a predetermined time interval from the detection time. Information to be displayed can be displayed. For example, the processor 120 may display a star-shaped figure through the display device 160 and through the rectangular area 1420.
  • the processor 120 guides the second touch input through the display device 160 based on information about the location, area, and time of the touch input. Can be displayed. For example, when the processor 120 detects that the state of the fingerprint corresponds to the first state, the processor 120 identifies the touch input received through a predetermined size or more among touch inputs received within a predetermined interval from the detection time. can do. The processor 120 may identify a touch input corresponding to an area of a predetermined size or more by receiving information about a touch input previously received from the memory 130. The processor 120 may display information guiding the second touch input based on the identified touch input. For example, the processor 120 may receive information related to an area of the identified touch input from the memory 130.
  • the processor 120 may display a droplet shape on the area to guide the second touch input.
  • the processor 120 may display text for guiding the second touch input (eg, “drop water droplets for fingerprint authentication”).
  • the processor 120 may display an effect corresponding to the second touch input through the display device 160.
  • the processor 120 may not partially display the droplet shape of the region in which the touch input is received, in response to the touch input received in the region including the droplet shape. Accordingly, the user may experience the effect of deleting at least a portion of the droplet shape located on the corresponding area according to the second touch input through the display device 160.
  • the processor 120 may display a plurality of objects arranged in a grid or arrows indicating a specific direction on the identified area.
  • the processor 120 may acquire a second image through the fingerprint sensor 224.
  • the fingerprint sensor 224 may receive a touch input for fingerprint recognition after the second touch input of the user.
  • the processor 120 may display information for guiding a fingerprint input changed to a second state by a user's second touch input.
  • the processor 120 may display an image related to a fingerprint on an area of the display device 160 corresponding to the position of the fingerprint sensor 224.
  • the fingerprint sensor 224 may acquire an image of a fingerprint changed to a second state by the second touch input based on the touch input for fingerprint recognition.
  • Operation 1305 may correspond to operation 1107 of FIG. 11.
  • the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1307 may correspond to operation 1109 of FIG. 11.
  • FIG. 15 illustrates an example of an operation of an electronic device displaying information guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • Operations 1501 through 1507 of FIG. 15 may be related to operation 505 of FIG. 5.
  • the processor 120 may detect a touch input having a predetermined pressure value or more.
  • the processor 120 may receive a touch input through a predetermined area on a pressure sensor (not shown).
  • the pressure sensor (not shown) may be located at the center of the bottom of the display device 160.
  • the pressure sensor (not shown) may determine whether the received touch input is equal to or greater than a predetermined pressure value. Specifically, the pressure sensor (not shown) may acquire a specific pressure value of the touch input according to the magnitude of the change in the dielectric constant.
  • the processor 120 may display an arrow from the bottom surface toward the center of the display device 160.
  • the processor 120 may transmit a signal for controlling the display device 160 to be turned on.
  • the processor 120 may display information for guiding the second touch input.
  • the information may be an image related to an arrow indicating a specific direction.
  • the arrow may indicate that the arrow points toward the center of the display device 160 from the bottom surface of the four surfaces forming the outline of the display device 160.
  • the processor 120 may additionally display text (eg, “drag” or “drag in the direction of the arrow”) for guiding the second touch input through the display device 160.
  • the processor 120 may detect a second touch input.
  • the user may provide a second touch input based on an arrow and / or text displayed through the display device 160.
  • the second touch input may include a drag input.
  • the processor 120 may determine whether the direction of the detected touch input coincides with the displayed arrow direction.
  • the processor 120 may identify the direction of the second touch input based on the detected second touch input. For example, the processor 120 may identify the direction of the second touch input based on the difference between the coordinate at which the second touch input is applied and the coordinate at which the second touch input is released.
  • the processor 120 may determine whether the detected direction of the second touch input coincides with the direction indicated by the arrow.
  • the processor 120 may detect that the direction indicated by the arrow does not coincide with the direction of the second touch input.
  • the processor 120 may maintain the display of the arrow through the display device 160 to receive a second touch input having a direction indicated by the arrow.
  • the processor 120 may detect coincidence between the direction of the second touch input and the direction indicated by the arrow.
  • the processor 120 may display information for guiding a fingerprint input according to the match.
  • the processor 120 may display an image and text guiding a fingerprint input.
  • the processor 120 may display text (eg, “fingerprint touch”) for guiding a fingerprint input.
  • the processor 120 may display an interface (eg, a fingerprint shape or similar image) for guiding a fingerprint input.
  • the processor 120 may acquire a second image through the fingerprint sensor 224.
  • the fingerprint sensor 224 may receive a touch input for fingerprint recognition after the second touch input of the user through the fingerprint sensor 224.
  • the second image may include an image of a fingerprint in which the state of the fingerprint is changed from the first state to the second state according to the second touch input.
  • the processor 120 may display an interface (eg, a fingerprint or an image of a similar shape) that guides fingerprint input on an area of the display device 160 corresponding to the fingerprint sensor 224.
  • the processor 120 may receive a touch for fingerprint input provided from a user according to the interface. In response to the touch for fingerprint input, the fingerprint sensor 224 may obtain an image of the fingerprint changed to the second state. Operation 1509 may correspond to operation 1107 of FIG. 11.
  • the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1511 may correspond to operation 1109 of FIG. 11.
  • FIG. 17 illustrates an example of an operation of an electronic device that displays information for guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • Operations 1701 to 1707 of FIG. 17 may be related to operation 505 of FIG. 5.
  • the processor 120 may identify a direction of a hand holding the electronic device 101 through the grip sensor 226.
  • the grip sensor 226 may identify the direction of the hand holding the electronic device 101 by comparing the magnitude of the magnetic field change in the left direction and the magnitude of the magnetic field change in the right direction.
  • the processor 120 may identify that the electronic device 101 is held by the user and the direction of the hand holding the electronic device 101 based on the data received from the grip sensor 226. For example, the grip sensor 226 may identify that the grip by the left hand when the magnitude of the left magnetic field change is greater than the magnitude of the right magnetic field change.
  • the processor 120 may display information for guiding the second touch input based on the identified direction.
  • the processor 120 may identify the direction of the hand holding the electronic device 101 based on the information received from the grip sensor 226.
  • the processor 120 may adaptively display the information for guiding the second touch input according to the identified hand direction. For example, when the electronic device 101 is held by the user's left hand, the processor 120 may display an arrow pointing to the right through the display device 160. The arrow may indicate a direction from the left side to the center of the display unit 160 among the four surfaces forming the outline of the display device 160. For another example, when the electronic device 101 is gripped by the user's right hand, the processor 120 may display an arrow pointing to the left through the display device 160.
  • the arrow may indicate a direction from the right side of the four surfaces forming the outline of the display device 160 toward the center of the display device 160.
  • the processor 120 may display text ("drag to the left", “drag to the right", or “Drag") together with the arrow to guide the second touch input.
  • the processor 120 may receive a second touch input input by the arrow and / or text.
  • the processor 120 may detect the second touch input and determine whether the detected direction of the second touch input coincides with the direction indicated by the arrow.
  • the processor 120 may identify the direction of the second touch input by identifying a start coordinate and a release coordinate of the drag input. When the direction of the identified second touch input coincides with the direction indicated by the arrow, the processor 120 may display an interface for guiding the fingerprint input.
  • the processor 120 displays an interface for guiding a fingerprint input on an area corresponding to the position of the fingerprint sensor 224 through the display device 160.
  • the electronic device 101 may include a plurality of fingerprint sensors, and the plurality of fingerprint sensors may be uniformly disposed in an area of the display device 160.
  • the processor 120 may adaptively activate one of the plurality of fingerprint sensors.
  • the processor 120 may activate a fingerprint sensor located at the upper left of the display device 160.
  • the processor 120 may display an interface for guiding a fingerprint input on the area of the fingerprint sensor positioned at the upper left side through the display device 160.
  • the processor 120 may activate a fingerprint sensor located at the upper right side of the display device 160.
  • the processor 120 may display an interface for guiding a fingerprint input on the area of the fingerprint sensor positioned at the upper right side through the display device 160.
  • the interface for guiding the fingerprint input may be an image including the shape of the fingerprint and the like. Accordingly, when the user grips the electronic device 101 with his left hand, the user may input a fingerprint through a fingerprint sensor on a relatively close position instead of a fingerprint sensor on a relatively far bottom.
  • the processor 120 may acquire a second image through the fingerprint sensor 224.
  • the fingerprint sensor 224 may receive a touch input for fingerprint recognition after the second touch input of the user through the fingerprint sensor 224.
  • the second image may include an image of a fingerprint in which the state of the fingerprint is changed from the first state to the second state according to the second touch input.
  • the processor 120 may receive the second image by activating a fingerprint sensor corresponding to a holding direction of the user's electronic device 101. For example, referring to FIG. 18A, the processor 120 activates the fingerprint sensor in the upper left side of the plurality of fingerprint sensors based on information indicating that the user grips the electronic device 101 with his left hand. 2 Images can be received. For another example, referring to FIG.
  • the processor 120 activates a fingerprint sensor on the upper right side of the plurality of fingerprint sensors based on information indicating that the user has gripped the electronic device 101 with his right hand.
  • the second image may be received.
  • Operation 1705 may correspond to operation 1107 of FIG. 11.
  • the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image.
  • Operation 1707 may correspond to operation 1109 of FIG. 11.
  • FIG. 19 is a flowchart illustrating an electronic device for displaying information guiding a first touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
  • the processor 120 may detect a user's touch input while the display is in an off state.
  • the processor 120 may receive a touch input through the TSP module 222 regardless of the on / off state of the display device 160.
  • the TSP module 222 may receive a user's touch input while the display device 160 displays the blank screen or the black screen.
  • the TSP module 222 may receive a user's touch input, for example, while the display device 160 operates in the on state.
  • the TSP module 222 may provide the processor 120 with information about the location of the received touch input on the display device 160 and the area of the received touch input.
  • the processor 120 may execute an application or change the display of the display device 160 based on the information about the touch input provided from the TSP module 222.
  • the TSP module 222 may map information about a location and an area of the display device 160 where a user's touch is input to the time when the touch is input, and store the information in the memory 130. According to the user's touch input, a material such as sweat or oil may be present on the display device 160 at the location where the touch input is received.
  • the processor 120 may determine whether the location of the detected touch input is included in the location of the plurality of fingerprint sensors.
  • the processor 120 may determine whether a touch input has been received on an area corresponding to the location of at least one fingerprint sensor among the plurality of fingerprint sensors based on the information stored in the memory 130. For example, if the position of the detected touch input includes the position of at least one of the plurality of fingerprint sensors, the processor 120 may operate on the area where the fingerprint sensor is located while the display is in an off state. It may be determined that a touch input has occurred.
  • the processor 120 may detect a touch input received in the off state of the display device 160 through the TSP module 222.
  • the user may touch the area 2010 on the lower left side while the display device 160 operates in the off state.
  • the area where the touch input is detected may be the same as the area where one fingerprint sensor of the plurality of fingerprint sensors is disposed.
  • the processor 120 may determine that the region 2010 at the lower left where the touch input is detected is included in the positions 2010 to 2060 of the plurality of fingerprint sensor regions.
  • the processor 120 may not display the touch input in an area other than the area where the fingerprint sensor is located while the display is turned off. It can be determined that it has occurred.
  • the processor 120 may, via the drag input, acquire a second touch through the display device 160 to acquire other materials, such as sweat or oil, which are present in a different area from the area where the fingerprint sensor is located. Information to guide the input can be displayed.
  • the processor 120 may display information for guiding the fingerprint input at the position of the detected touch input.
  • the processor 120 may identify one fingerprint sensor based on the detected position of the touch input.
  • the identified fingerprint sensor may be a fingerprint sensor located in the area 2010 in the lower left corner.
  • the processor 120 may display information for guiding a fingerprint input on an area 2010 on the lower left side of the identified fingerprint sensor.
  • Information guiding the fingerprint input may include an image of a fingerprint or similar shape.
  • the processor 120 may acquire a fingerprint image.
  • the processor 120 may acquire a fingerprint image of the received touch input through the fingerprint sensor 224.
  • the fingerprint image may correspond to a second state (eg, a state in which the fingerprint is not dry or a state in which oil is present in the fingerprint).
  • the small valley area may acquire an oil present on the area where the fingerprint sensor is located.
  • the obtained fingerprint may correspond to the second state.
  • the processor 120 may improve the recognition rate of fingerprint recognition without displaying information for guiding a user's drag input.
  • the processor 120 may perform fingerprint authentication based on the obtained fingerprint image and the reference image. Operation 1909 may correspond to operation 1707 of FIG. 17.

Abstract

An electronic device according to various embodiments can comprise: a touch display; a fingerprint sensor formed on at least a partial region of the touch display; a memory; and a processor configured to acquire a first image of a user fingerprint, which is related to a first touch input, by using the fingerprint sensor on the basis of the first touch input, detected through the touch display, on the at least partial region, check whether a state of the fingerprint corresponds to a first state, on the basis of the acquired first image and a reference image of the fingerprint, which is stored in the memory, and display, through the touch display, information for guiding a second touch input for changing the state of the fingerprint from the first state to a second state, on the basis of the checking.

Description

지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법Apparatus and method for displaying guide information for changing fingerprint status
다양한 실시 예들은, 지문을 인식하는 방법 및 그 전자 장치(electronic device)에 관한 것이다.Various embodiments relate to a method of recognizing a fingerprint and an electronic device thereof.
스마트 폰과 같은 전자 장치는 전화번호 및 인증 정보(예: 비밀번호)와 같은 다양한 종류의 개인 정보를 저장할 수 있다. 이에 따라, 전자 장치는 타인으로부터 전자 장치에 저장된 개인 정보를 보호하기 위해 인증 서비스를 제공할 수 있다. 예를 들어, 전자 장치는 홍채, 지문, 얼굴, 손금, 정맥과 같은 생체 정보를 이용한 인증 서비스(예: 생체 인식서비스)를 제공할 수 있다.An electronic device such as a smart phone may store various kinds of personal information such as a phone number and authentication information (for example, a password). Accordingly, the electronic device may provide an authentication service to protect personal information stored in the electronic device from others. For example, the electronic device may provide an authentication service (eg, a biometric service) using biometric information such as an iris, a fingerprint, a face, a palm, and a vein.
지문을 인식하는 기술이 발달함에 따라, 물리적 버튼을 포함하는 지문 센서에 의한 지문 입력 이외에도, 디스플레이 내부에 지문 센서를 통합함으로써 디스플레이를 통한 지문 입력 방식이 요구될 수 있다. 다만, 지문 센서가 디스플레이 내부에 배치되는 경우, 지문의 상태에 따라 지문 인식의 성공률이 감소할 수 있다. 따라서, 지문 인식의 성공률을 증가시키기 위한 방안(solution)이 요구될 수 있다.As technology for recognizing fingerprints is developed, in addition to fingerprint input by a fingerprint sensor including a physical button, a fingerprint input method through a display may be required by integrating a fingerprint sensor inside the display. However, when the fingerprint sensor is disposed inside the display, the success rate of fingerprint recognition may decrease according to the state of the fingerprint. Thus, a solution may be required to increase the success rate of fingerprint recognition.
다양한 실시 예들은, 터치 입력을 가이드하는 정보를 표시함으로써, 지문의 상태를 변경시켜 지문의 인식률을 향상시킬 수 있다.According to various embodiments of the present disclosure, by displaying information guiding a touch input, the fingerprint recognition state may be improved by changing the state of the fingerprint.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 아래의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problem to be achieved in this document is not limited to the technical problem mentioned above, and other technical problems not mentioned above may be clearly understood by those skilled in the art from the following description. There will be.
다양한 실시 예들에 따른 전자 장치는, 터치스크린, 메모리, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 터치스크린을 통해 검출되는 제1 터치 입력에 기반하여, 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고, 상기 획득된 제1 이미지 및 상기 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치스크린을 통해 표시하도록 구성될 수 있다.An electronic device according to various embodiments of the present disclosure may include a touch screen, a memory, and a processor. The processor acquires a first image of a fingerprint of a user associated with the first touch input based on a first touch input detected through the touch screen, and obtains the obtained first image and the memory stored in the memory. A second touch input for confirming that the state of the fingerprint corresponds to the first state based on the reference image for the fingerprint, and for changing the state of the fingerprint from the first state to the second state based on the confirmation It may be configured to display information for guiding through the touch screen.
다양한 실시 예들에 따른 전자 장치는, 터치스크린, 상기 터치스크린 하단에 배치되는 다수의 지문 센서들, 및 프로세서를 포함할 수 있다. 상기 프로세서는, 상기 터치스크린을 통해 터치 입력을 검출하고, 상기 검출된 터치 입력의 위치가 상기 다수의 지문 센서들의 위치에 포함되는지 여부를 결정하고, 상기 결정에 기반하여, 상기 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시하도록 구성될 수 있다.An electronic device according to various embodiments of the present disclosure may include a touch screen, a plurality of fingerprint sensors disposed under the touch screen, and a processor. The processor detects a touch input through the touch screen, determines whether the position of the detected touch input is included in the position of the plurality of fingerprint sensors, and based on the determination, the processor determines the touch input of the detected touch input. And display information guiding fingerprint input at a location.
다양한 실시 예들에 따른 전자 장치의 방법은, 터치스크린을 통해 검출되는 제1 터치 입력에 기반하여, 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고, 상기 획득된 제1 이미지 및 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 표시하도록 구성될 수 있다.According to various embodiments of the present disclosure, a method of an electronic device obtains a first image of a fingerprint of a user associated with the first touch input based on a first touch input detected through a touch screen, and obtains the obtained first image. And confirming that the state of the fingerprint corresponds to the first state based on the reference image of the fingerprint stored in the memory, and changing the state of the fingerprint from the first state to the second state based on the confirmation. And display information for guiding a second touch input.
다양한 실시 예들에 따른 전자 장치의 방법은, 터치스크린을 통해 터치 입력을 검출하고, 상기 검출된 터치 입력의 위치가 다수의 지문 센서들의 위치에 포함되는지 여부를 결정하고, 상기 결정에 기반하여, 상기 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시하도록 구성될 수 있다.An electronic device method according to various embodiments of the present disclosure may detect a touch input through a touch screen, determine whether a position of the detected touch input is included in a location of a plurality of fingerprint sensors, and based on the determination, And display information guiding the fingerprint input at the location of the detected touch input.
다양한 실시 예들에 따른 전자 장치 및 방법은, 식별된 지문 상태에 기반하여, 터치 입력을 가이드하는 정보를 표시함으로써, 지문의 인식률을 향상시킬 수 있다.The electronic device and the method according to various embodiments of the present disclosure may improve the recognition rate of the fingerprint by displaying information guiding a touch input based on the identified fingerprint state.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.Effects obtained in the present disclosure are not limited to the above-mentioned effects, and other effects not mentioned above may be clearly understood by those skilled in the art from the following description. will be.
도 1은 다양한 실시 예들에 따른 네트워크 환경 내의 전자 장치의 블록도를 도시한다.1 is a block diagram of an electronic device in a network environment according to various embodiments of the present disclosure.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 구성의 예를 도시한다.2 illustrates an example of a functional configuration of an electronic device according to various embodiments of the present disclosure.
도 3a 및 도 3b는 다양한 실시 예들에 따른 지문 상태의 예를 도시한다.3A and 3B illustrate examples of fingerprint states according to various embodiments.
도 4는 다양한 실시 예들에 따른 지문 센서의 동작 원리를 도시한다. 4 illustrates an operation principle of a fingerprint sensor according to various embodiments of the present disclosure.
도 5는 다양한 실시 예들에 따른 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.5 illustrates an example of an operation of an electronic device for displaying information for guiding a touch input according to various embodiments of the present disclosure.
도 6a 및 도 6b는 다양한 실시 예들에 따른 전자 장치 내부에 지문 센서가 배치되는 예를 도시한다.6A and 6B illustrate an example in which a fingerprint sensor is disposed in an electronic device according to various embodiments of the present disclosure.
도 7은 다양한 실시 예들에 따른 제1 이미지를 획득하기 위한 전자 장치의 동작의 예를 도시한다.7 illustrates an example of an operation of an electronic device to acquire a first image according to various embodiments of the present disclosure.
도 8은 다양한 실시 예들에 따른 지문의 상태를 결정하기 위한 전자 장치의 동작의 예를 도시한다.8 illustrates an example of an operation of an electronic device to determine a state of a fingerprint according to various embodiments of the present disclosure.
도 9는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.9 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
도 10은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.10 illustrates an example of information guiding a second touch input according to various embodiments of the present disclosure.
도 11은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.11 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
도 12는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.12 illustrates an example of information guiding a second touch input according to various embodiments of the present disclosure.
도 13은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.13 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
도 14a 내지 도 14c는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.14A to 14C illustrate examples of information for guiding a second touch input according to various embodiments of the present disclosure.
도 15는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.15 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure.
도 16은 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보의 예를 도시한다.16 illustrates an example of information guiding a second touch input according to various embodiments of the present disclosure.
도 17은 다양한 실시 예들에 따른 그립 센서에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.17 illustrates an example of an operation of an electronic device for displaying information guiding a second touch input based on a grip sensor according to various embodiments of the present disclosure.
도 18a 및 도 18b는 다양한 실시 예들에 따른 그립 센서에 기반하여, 제2 터치 입력을 가이드하는 정보의 예를 도시한다.18A and 18B illustrate an example of information for guiding a second touch input based on a grip sensor according to various embodiments.
도 19는 다양한 실시 예들에 따른 제1 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 동작의 예를 도시한다.19 illustrates an example of an operation of an electronic device for displaying information guiding a first touch input according to various embodiments of the present disclosure.
도 20a 및 도 20b는 다양한 실시 예들에 따른 제1 터치 입력을 가이드하는 정보의 예를 도시한다.20A and 20B illustrate an example of information for guiding a first touch input according to various embodiments.
본 개시에서 사용되는 용어들은 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 다른 실시 예의 범위를 한정하려는 의도가 아닐 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 용어들은 본 개시에 기재된 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가질 수 있다. 본 개시에 사용된 용어들 중 일반적인 사전에 정의된 용어들은, 관련 기술의 문맥상 가지는 의미와 동일 또는 유사한 의미로 해석될 수 있으며, 본 개시에서 명백하게 정의되지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 경우에 따라서, 본 개시에서 정의된 용어일지라도 본 개시의 실시 예들을 배제하도록 해석될 수 없다. The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the scope of other embodiments. Singular expressions may include plural expressions unless the context clearly indicates otherwise. The terms used herein, including technical or scientific terms, may have the same meaning as commonly understood by one of ordinary skill in the art as described in the present disclosure. Among the terms used in the present disclosure, terms defined in the general dictionary may be interpreted as having the same or similar meaning as the meaning in the context of the related art, and ideally or excessively formal meanings are not clearly defined in the present disclosure. Not interpreted as In some cases, even if terms are defined in the present disclosure, they may not be interpreted to exclude embodiments of the present disclosure.
이하에서 설명되는 본 개시의 다양한 실시 예들에서는 하드웨어적인 접근 방법을 예시로서 설명한다. 하지만, 본 개시의 다양한 실시 예들에서는 하드웨어와 소프트웨어를 모두 사용하는 기술을 포함하고 있으므로, 본 개시의 다양한 실시 예들이 소프트웨어 기반의 접근 방법을 제외하는 것은 아니다.In various embodiments of the present disclosure described below, a hardware approach will be described as an example. However, various embodiments of the present disclosure include a technology using both hardware and software, and thus various embodiments of the present disclosure do not exclude a software-based approach.
도 1은, 다양한 실시 예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블럭도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시 예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시 예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 및 안테나 모듈(197)을 포함할 수 있다. 어떤 실시 예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나 다른 구성 요소가 추가될 수 있다. 어떤 실시 예에서는, 예를 들면, 표시 장치(160)(예: 디스플레이)에 임베디드된 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)의 경우와 같이, 일부의 구성요소들이 통합되어 구현될 수 있다.1 is a block diagram of an electronic device 101 in a network environment 100, according to various embodiments. Referring to FIG. 1, in the network environment 100, the electronic device 101 communicates with the electronic device 102 through a first network 198 (for example, near field communication), or the second network 199 ( For example, it may communicate with the electronic device 104 or the server 108 through remote wireless communication. According to an embodiment of the present disclosure, the electronic device 101 may communicate with the electronic device 104 through the server 108. According to an embodiment, the electronic device 101 may include a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, and a sensor module. 176, interface 177, haptic module 179, camera module 180, power management module 188, battery 189, communication module 190, subscriber identification module 196, and antenna module 197. ) May be included. In some embodiments, at least one of the components (for example, the display device 160 or the camera module 180) may be omitted or another component may be added to the electronic device 101. In some embodiments, some components, such as in the case of a sensor module 176 (eg, fingerprint sensor, iris sensor, or illuminance sensor) embedded in display device 160 (eg, display), may be It can be integrated.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 구동하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 및 연산을 수행할 수 있다. 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하여 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시 예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 운영되고, 추가적으로 또는 대체적으로, 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화된 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 여기서, 보조 프로세서(123)는 메인 프로세서(121)와 별개로 또는 임베디드되어 운영될 수 있다.The processor 120 may drive at least one other component (eg, hardware or software component) of the electronic device 101 connected to the processor 120 by driving software (eg, the program 140). It can control and perform various data processing and operations. The processor 120 loads and processes the command or data received from another component (eg, the sensor module 176 or the communication module 190) into the volatile memory 132, and processes the result data in the nonvolatile memory 134. Can be stored in According to one embodiment, the processor 120 operates independently of the main processor 121 (eg, central processing unit or application processor), and additionally or alternatively, uses less power than the main processor 121, Or a coprocessor 123 specialized for a designated function (eg, a graphics processing unit, an image signal processor, a sensor hub processor, or a communication processor). Here, the coprocessor 123 may be operated separately from the main processor 121 or embedded.
이런 경우, 보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 수행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시 예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부 구성 요소로서 구현될 수 있다. 메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 저장할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.  In this case, the coprocessor 123 may, for example, replace the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or the main processor 121 is active (eg At least one of the elements of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module) together with the main processor 121 while in the application execution state. 190) may control at least some of the functions or states associated with). According to one embodiment, the coprocessor 123 (e.g., image signal processor or communication processor) is implemented as some component of another functionally related component (e.g. camera module 180 or communication module 190). Can be. The memory 130 may include various data used by at least one component of the electronic device 101 (for example, the processor 120 or the sensor module 176), for example, software (for example, the program 140). ), And input data or output data for a command related thereto. The memory 130 may include a volatile memory 132 or a nonvolatile memory 134.
프로그램(140)은 메모리(130)에 저장되는 소프트웨어로서, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program 140 is software stored in the memory 130 and may include, for example, an operating system 142, a middleware 144, or an application 146.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신하기 위한 장치로서, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다. The input device 150 is a device for receiving a command or data to be used for a component (for example, the processor 120) of the electronic device 101 from the outside (for example, a user) of the electronic device 101. For example, it may include a microphone, a mouse, or a keyboard.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력하기 위한 장치로서, 예를 들면, 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용되는 스피커와 전화 수신 전용으로 사용되는 리시버를 포함할 수 있다. 일실시 예에 따르면, 리시버는 스피커와 일체 또는 별도로 형성될 수 있다.The sound output device 155 is a device for outputting sound signals to the outside of the electronic device 101. For example, the sound output device 155 may include a speaker used for general purposes such as multimedia playback or recording playback, and a receiver used only for receiving a call. It may include. According to one embodiment, the receiver may be formed integrally or separately from the speaker.
표시 장치(160)는 전자 장치(101)의 사용자에게 정보를 시각적으로 제공하기 위한 장치로서, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시 예에 따르면, 표시 장치(160)는 터치 회로(touch circuitry) 또는 터치에 대한 압력의 세기를 측정할 수 있는 압력 센서를 포함할 수 있다. The display device 160 is a device for visually providing information to a user of the electronic device 101. For example, the display device 160 may include a display, a hologram device, a projector, and a control circuit for controlling the device. According to an embodiment of the present disclosure, the display device 160 may include a pressure sensor capable of measuring the strength of the pressure on the touch circuitry or the touch.
오디오 모듈(170)은 소리와 전기 신호를 쌍방향으로 변환시킬 수 있다. 일실시 예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 유선 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)(예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.The audio module 170 may bidirectionally convert a sound and an electrical signal. According to an embodiment, the audio module 170 acquires sound through the input device 150, or an external electronic device (for example, a wired or wireless connection with the sound output device 155 or the electronic device 101). Sound may be output through the electronic device 102 (for example, a speaker or a headphone).
센서 모듈(176)은 전자 장치(101)의 내부의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module 176 may generate an electrical signal or data value corresponding to an operating state (eg, power or temperature) inside the electronic device 101 or an external environmental state. The sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, Or an illumination sensor.
인터페이스(177)는 외부 전자 장치(예: 전자 장치(102))와 유선 또는 무선으로 연결할 수 있는 지정된 프로토콜을 지원할 수 있다. 일실시 예에 따르면, 인터페이스(177)는 HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface 177 may support a specified protocol that may be connected to an external electronic device (for example, the electronic device 102) by wire or wirelessly. According to an embodiment, the interface 177 may include a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102))를 물리적으로 연결시킬 수 있는 커넥터, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal 178 is a connector for physically connecting the electronic device 101 and an external electronic device (for example, the electronic device 102), for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector. (Eg, headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that can be perceived by the user through tactile or kinesthetic senses. The haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시 예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈, 이미지 센서, 이미지 시그널 프로세서, 또는 플래시를 포함할 수 있다.The camera module 180 may capture still images and videos. According to an embodiment of the present disclosure, the camera module 180 may include one or more lenses, an image sensor, an image signal processor, or a flash.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리하기 위한 모듈로서, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구성될 수 있다.The power management module 188 is a module for managing power supplied to the electronic device 101, and may be configured, for example, as at least part of a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급하기 위한 장치로서, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery 189 is a device for supplying power to at least one component of the electronic device 101 and may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 유선 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되는, 유선 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시 예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함하고, 그 중 해당하는 통신 모듈을 이용하여 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 상술한 여러 종류의 통신 모듈(190)은 하나의 칩으로 구현되거나 또는 각각 별도의 칩으로 구현될 수 있다. The communication module 190 establishes a wired or wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108), and establishes the established communication channel. It can support to perform communication through. The communication module 190 may include one or more communication processors that support wired communication or wireless communication that operate independently of the processor 120 (eg, an application processor). According to an embodiment, the communication module 190 may include a wireless communication module 192 (eg, a cellular communication module, a near field communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, A local area network (LAN) communication module, or a power line communication module, comprising a local area network such as a first network 198 (eg, Bluetooth, WiFi direct, or infrared data association) using a corresponding communication module. Communication with an external electronic device via a communication network) or a second network 199 (eg, a telecommunication network such as a cellular network, the Internet, or a computer network (eg, a LAN or a WAN)). The various types of communication modules 190 described above may be implemented as one chip or each separate chip.
일실시 예에 따르면, 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 사용자 정보를 이용하여 통신 네트워크 내에서 전자 장치(101)를 구별 및 인증할 수 있다. According to an embodiment of the present disclosure, the wireless communication module 192 may distinguish and authenticate the electronic device 101 in a communication network by using user information stored in the subscriber identification module 196.
안테나 모듈(197)은 신호 또는 전력을 외부로 송신하거나 외부로부터 수신하기 위한 하나 이상의 안테나들을 포함할 수 있다. 일시예에 따르면, 통신 모듈(190)(예: 무선 통신 모듈(192))은 통신 방식에 적합한 안테나를 통하여 신호를 외부 전자 장치로 송신하거나, 외부 전자 장치로부터 수신할 수 있다. The antenna module 197 may include one or more antennas for transmitting or receiving signals or power from the outside. According to an exemplary embodiment, the communication module 190 (for example, the wireless communication module 192) may transmit a signal to or receive a signal from an external electronic device through an antenna suitable for a communication method.
상기 구성요소들 중 일부 구성요소들은 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input/output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되어 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.Some of the components are connected to each other via a communication method between peripheral devices (eg, a bus, a general purpose input / output (GPIO), a serial peripheral interface (SPI), or a mobile industry processor interface (MIPI)). (E.g. commands or data) can be exchanged with each other.
일실시 예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시 예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 다른 하나 또는 복수의 외부 전자 장치에서 실행될 수 있다. 일실시 예에 따르면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로 또는 요청에 의하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 그와 연관된 적어도 일부 기능을 외부 전자 장치에게 요청할 수 있다. 상기 요청을 수신한 외부 전자 장치는 요청된 기능 또는 추가 기능을 실행하고, 그 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 수신된 결과를 그대로 또는 추가적으로 처리하여 요청된 기능이나 서비스를 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. According to an embodiment of the present disclosure, the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199. Each of the electronic devices 102 and 104 may be a device of the same or different type as the electronic device 101. According to an embodiment of the present disclosure, all or part of operations executed in the electronic device 101 may be executed in another or a plurality of external electronic devices. According to an embodiment of the present disclosure, when the electronic device 101 needs to perform a function or service automatically or by request, the electronic device 101 may instead or additionally execute the function or service by itself. At least some associated functions may be requested to the external electronic device. Upon receiving the request, the external electronic device may execute the requested function or additional function and transmit the result to the electronic device 101. The electronic device 101 may process the received result as it is or additionally to provide the requested function or service. To this end, for example, cloud computing, distributed computing, or client-server computing technology may be used.
본 문서에 개시된 다양한 실시 예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치 중 적어도 하나를 포함할 수 있다. 본 문서의 실시 예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.Electronic devices according to various embodiments of the present disclosure may be various types of devices. The electronic device may include, for example, at least one of a portable communication device (eg, a smartphone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance. An electronic device according to an embodiment of the present disclosure is not limited to the above-described devices.
본 문서의 다양한 실시 예들 및 이에 사용된 용어들은 본 문서에 기재된 기술을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 해당 실시 예의 다양한 변경, 균등물, 및/또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및/또는 B 중 적어도 하나", "A, B 또는 C" 또는 "A, B 및/또는 C 중 적어도 하나" 등의 표현은 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", "첫째" 또는 "둘째" 등의 표현들은 해당 구성요소들을, 순서 또는 중요도에 상관없이 수식할 수 있고, 한 구성요소를 다른 구성요소와 구분하기 위해 사용될 뿐 해당 구성요소들을 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에 "(기능적으로 또는 통신적으로) 연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로 연결되거나, 다른 구성요소(예: 제 3 구성요소)를 통하여 연결될 수 있다.Various embodiments of the present document and terms used therein are not intended to limit the techniques described in this document to specific embodiments, but should be understood to include various modifications, equivalents, and / or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar components. Singular expressions may include plural expressions unless the context clearly indicates otherwise. In this document, expressions such as "A or B", "at least one of A and / or B", "A, B or C" or "at least one of A, B and / or C", etc. Possible combinations may be included. Expressions such as "first," "second," "first," or "second," etc. may modify the components in any order or importance, and are only used to distinguish one component from another. It does not limit the components. When any (eg first) component is said to be "(functionally or communicatively)" or "connected" to another (eg second) component, the other component is said other The component may be directly connected or connected through another component (eg, a third component).
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구성된 유닛을 포함하며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 모듈은 ASIC(application-specific integrated circuit)으로 구성될 수 있다. As used herein, the term "module" includes a unit composed of hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic blocks, components, or circuits. The module may be an integrally formed part or a minimum unit or part of performing one or more functions. For example, the module may be configured as an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시 예들은 기기(machine)(예: 컴퓨터)로 읽을 수 있는 저장 매체(machine-readable storage media)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 명령어를 포함하는 소프트웨어(예: 프로그램(140))로 구현될 수 있다. 기기는, 저장 매체로부터 저장된 명령어를 호출하고, 호출된 명령어에 따라 동작이 가능한 장치로서, 개시된 실시 예들에 따른 전자 장치(예: 전자 장치(101))를 포함할 수 있다. 상기 명령이 프로세서(예: 프로세서(120))에 의해 실행될 경우, 프로세서가 직접, 또는 상기 프로세서의 제어하에 다른 구성요소들을 이용하여 상기 명령에 해당하는 기능을 수행할 수 있다. 명령은 컴파일러 또는 인터프리터에 의해 생성 또는 실행되는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 신호(signal)를 포함하지 않으며 실재(tangible)한다는 것을 의미할 뿐 데이터가 저장매체에 반영구적 또는 임시적으로 저장됨을 구분하지 않는다.Various embodiments of the present disclosure may include instructions stored in a machine-readable storage media (eg, internal memory 136 or external memory 138) that can be read by a machine (eg, a computer). It may be implemented in software (eg, program 140). The device may be a device capable of calling a stored command from a storage medium and operating in accordance with the called command, and may include an electronic device (eg, the electronic device 101) according to the disclosed embodiments. When the command is executed by a processor (for example, the processor 120), the processor may perform a function corresponding to the command directly or by using other components under the control of the processor. The instructions can include code generated or executed by a compiler or interpreter. The device-readable storage medium may be provided in the form of a non-transitory storage medium. Here, 'non-temporary' means that the storage medium does not include a signal and is tangible, but does not distinguish that the data is stored semi-permanently or temporarily on the storage medium.
일시예에 따르면, 본 문서에 개시된 다양한 실시 예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 온라인으로 배포될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, a method according to various embodiments of the present disclosure may be included in a computer program product. The computer program product may be traded between the seller and the buyer as a product. The computer program product may be distributed online in the form of a device-readable storage medium (eg compact disc read only memory (CD-ROM)) or through an application store (eg Play StoreTM). In the case of an online distribution, at least a portion of the computer program product may be stored at least temporarily on a storage medium such as a server of a manufacturer, a server of an application store, or a relay server, or may be temporarily created.
다양한 실시 예들에 따른 구성 요소(예: 모듈 또는 프로그램) 각각은 단수 또는 복수의 개체로 구성될 수 있으며, 전술한 해당 서브 구성 요소들 중 일부 서브 구성 요소가 생략되거나, 또는 다른 서브 구성 요소가 다양한 실시 예에 더 포함될 수 있다. 대체적으로 또는 추가적으로, 일부 구성 요소들(예: 모듈 또는 프로그램)은 하나의 개체로 통합되어, 통합되기 이전의 각각의 해당 구성 요소에 의해 수행되는 기능을 동일 또는 유사하게 수행할 수 있다. 다양한 실시 예들에 따른, 모듈, 프로그램 또는 다른 구성 요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱하게 실행되거나, 적어도 일부 동작이 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다.Each component (for example, a module or a program) according to various embodiments may be composed of a singular or plural number of objects, and some of the above-described subcomponents may be omitted, or other subcomponents may vary. It may be further included in the embodiment. Alternatively or additionally, some components (eg, modules or programs) may be integrated into one entity to perform the same or similar functions performed by each corresponding component prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or at least some operations may be executed in a different order, omitted, or another operation may be added. Can be.
도 2는 다양한 실시 예들에 따른 전자 장치의 기능적 구성의 예를 도시한다. 이러한 전자 장치의 기능적 구성은 도 1에 도시된 전자 장치(101) 내에 포함될 수 있다. 2 illustrates an example of a functional configuration of an electronic device according to various embodiments of the present disclosure. The functional configuration of such an electronic device may be included in the electronic device 101 shown in FIG. 1.
도 2를 참조하면, 전자 장치(101)는 표시 장치(160), 센서 모듈(sensor module)(176), 메모리(130) 및 프로세서(120) 를 포함할 수 있다.2, the electronic device 101 may include a display device 160, a sensor module 176, a memory 130, and a processor 120.
표시 장치(160)는 데이터 또는 신호를 영상 또는 이미지의 형태로 출력할 수 있다. 다양한 실시 예들에서, 표시 장치(160)는 프로세서(120)의 제어 신호에 따라, 메모리(130) 또는 센서 모듈(176)로부터 수신한 데이터 또는 신호를 영상 또는 이미지의 형태로 출력할 수 있다. 다양한 실시 예들에서, 표시 장치(160)는 지문 입력을 가이드하기 위한 정보를 표시할 수 있다. 상기 정보는 지문의 형상 또는 이와 유사한 형상의 이미지를 포함할 수 있다. 예를 들면, 지문의 상태가 제1 상태에 대응(예: 지문이 건조한 상태, 지문에 유분이 적은 상태)하는 것으로 판단되는 경우, 표시 장치(160)는 프로세서(120)의 제어 신호에 따라, 사용자의 터치 입력을 가이드하기 위한 정보를 표시할 수 있다. 상기 제1 상태는, 지문이 건조한 상태, 지문에 유분이 부족하거나 없는 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 지문이 인증된 사용자에 대한 지문일 것으로 추정되나, 상기 입력된 지문에 대한 이미지가 상기 기준 이미지와 일치하지 않는 상태, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지 사이에 일치율이 지정된 값보다 낮은 상태, 또는 상기 입력된 지문에 대한 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율이 상기 기준 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율보다 정해진 값만큼 낮은 상태를 포함할 수 있다. 상기 터치 입력은 드래그 입력을 포함할 수 있다. 상기 터치 입력을 가이드하기 위한 정보는 제1 지점 및 제2 지점을 포함하는 도형, 격자로 배열된 다수의 객체들, 또는 특정 방향을 지시하는 화살표의 형태를 가질 수 있다. 표시 장치(160)는 사용자와 전자 장치(101)간에 상호작용을 위한 GUI(graphical user interface)를 표시할 수 있다. 다양한 실시 예들에 따라, 표시 장치(160)는 LCD(liquid crystal display), 또는 OLED(organic light emitting diode)를 포함할 수 있다. 다양한 실시 예들에 따라, 표시 장치(160)는 사용자의 터치 입력을 수신할 수 있는 TSP(touch screen panel) 모듈(222), 사용자의 터치 입력을 통해, 터치 입력에 관련된 사용자의 지문에 대한 정보를 획득하기 위한 지문 센서(224)와 전기적(electrically)으로 또는 기능적(operably)으로 결합될 수 있다.The display device 160 may output data or signals in the form of an image or an image. In various embodiments, the display device 160 may output data or a signal received from the memory 130 or the sensor module 176 in the form of an image or an image according to a control signal of the processor 120. In various embodiments, the display device 160 may display information for guiding a fingerprint input. The information may include an image of a fingerprint or similar shape. For example, when it is determined that the state of the fingerprint corresponds to the first state (for example, the state in which the fingerprint is dry, the state in which the oil is low in the fingerprint), the display device 160 according to the control signal of the processor 120, Information for guiding a user's touch input may be displayed. The first state may be a fingerprint for the authenticated user based on a result of the comparison of the reference image of the fingerprint and the image of the input fingerprint, with the fingerprint dry, the oil lacking or lacking in the fingerprint. Estimated, but the image for the input fingerprint does not match the reference image, the match rate between the image for the input fingerprint and the reference image is lower than a specified value, or within the image for the input fingerprint. The ratio of the area caused by the floor area located in the fingerprint at may be a lower value than the ratio of the area caused by the floor area located in the fingerprint in the reference image. The touch input may include a drag input. The information for guiding the touch input may have a form including a first point and a second point, a plurality of objects arranged in a grid, or an arrow indicating a specific direction. The display device 160 may display a graphical user interface (GUI) for interaction between the user and the electronic device 101. According to various embodiments of the present disclosure, the display device 160 may include a liquid crystal display (LCD) or an organic light emitting diode (OLED). According to various embodiments of the present disclosure, the display device 160 may receive information about a fingerprint of a user related to a touch input through a touch screen panel (TSP) module 222 that may receive a user's touch input and a user's touch input. It may be electrically or functionally coupled with the fingerprint sensor 224 to acquire.
다양한 실시 예들에 따라, 센서 모듈(176)은 전자 장치(101)의 내부 또는 외부와 관련된 상황(context)을 결정하기 위한 데이터를 수신할 수 있다. 센서 모듈(176)은 다양한 센서들(예: 그립 센서, 근접 센서, 지자기 센서, 자이로 센서, 조도 센서, 기압 센서, 압력 센서, 터치 센서, 또는 생체 인식 센서)과 통합되도록 구성될 수 있다. 예를 들어, 센서 모듈(176)은 사용자와 관련된 외부 상황에 대한 데이터를 프로세서(120)로 송신할 수 있다. According to various embodiments of the present disclosure, the sensor module 176 may receive data for determining a context related to the inside or the outside of the electronic device 101. The sensor module 176 may be configured to integrate with various sensors (eg, grip sensor, proximity sensor, geomagnetic sensor, gyro sensor, illuminance sensor, barometric pressure sensor, pressure sensor, touch sensor, or biometric sensor). For example, the sensor module 176 may transmit data about an external situation related to the user to the processor 120.
다양한 실시 예들에 따라, 센서 모듈(176)은 TSP 모듈(222), 지문 센서(224) 및 그립 센서(226)를 포함할 수 있다. According to various embodiments of the present disclosure, the sensor module 176 may include a TSP module 222, a fingerprint sensor 224, and a grip sensor 226.
TSP 모듈(222)은 사용자의 터치 입력과 관련된 데이터를 수신할 수 있다. 다양한 실시 예들에 따라, TSP 모듈(222)은 손가락 및 펜의 터치 입력을 감지할 수 있다. 상기 터치 입력은 터치 앤 릴리즈(touch and release), 드래그 앤 드롭(drag and drop), 롱 터치(long touch), 또는 포스 터치(force touch)를 포함할 수 있다. 다양한 실시 예들에 따라, TSP 모듈(222)은 사용자의 터치가 입력되는 디스플레이 내의 위치, 사용자의 터치가 입력되는 면적에 관한 정보를 수신할 수 있다. 다양한 실시 예들에 따라, TSP 모듈(222)은 사용자의 터치가 입력되는 위치 및 면적에 관한 정보를 상기 터치가 입력된 시간에 매핑하고, 메모리(130)에 저장할 수 있다. 예를 들어, 전자 장치(101)의 사용자는 음성 통화를 수행하기 위해, 사용자의 귀(ear)에 상기 전자 장치(101)를 접촉할 수 있다. TSP 모듈(222)은 상기 접촉에 의해 야기된 터치 입력의 위치 및 면적(예: 디스플레이 전면)에 관한 정보를, 상기 접촉이 야기된 시간(예: 오전 11시 10분)에 매핑하고, 메모리(130)에 저장할 수 있다. TSP 모듈(222)은 다수의 터치 입력들에 관한 매핑 정보를 저장할 수 있다. 상술한 실시 예들에서, TSP 모듈(222)이 터치 입력의 위치 및 면적에 관한 정보를 상기 터치 입력이 발생한 시간에 매핑하는 것으로 설명되었지만, 이에 한정되는 것은 아니다. 예를 들어, TSP 모듈(222)은 프로세서(120)에게 터치 입력이 검출된 위치 및 면적에 관한 정보만을 제공하고, 프로세서(120)는 획득된 위치 및 면적에 관한 정보를 시간에 매핑할 수 있다.The TSP module 222 may receive data related to a user's touch input. According to various embodiments of the present disclosure, the TSP module 222 may detect a touch input of a finger and a pen. The touch input may include touch and release, drag and drop, long touch, or force touch. According to various embodiments of the present disclosure, the TSP module 222 may receive information about a location in a display where a user's touch is input and an area where the user's touch is input. According to various embodiments of the present disclosure, the TSP module 222 may map information about a location and an area where a user's touch is input to the time when the touch is input, and store the information in the memory 130. For example, a user of the electronic device 101 may contact the electronic device 101 with an ear of the user to perform a voice call. The TSP module 222 maps information about the location and area of the touch input caused by the contact (e.g., the front of the display) to the time at which the contact occurred (e.g. 11:10 am), and the memory ( 130). The TSP module 222 may store mapping information regarding a plurality of touch inputs. In the above-described embodiments, the TSP module 222 is described as mapping the information regarding the position and area of the touch input to the time at which the touch input occurs, but is not limited thereto. For example, the TSP module 222 may provide only the information about the position and the area where the touch input is detected to the processor 120, and the processor 120 may map the information about the acquired position and the area in time. .
다양한 실시 예들에 따라, TSP 모듈(222)은 표시 장치(160)의 동작 모드와 독립적으로 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 표시 장치(160)는 off 상태로 동작할 수 있다. 상기 off 상태는, 전자 장치(101)로부터 표시 장치(160)에게 전력은 공급되지만, 아무런 객체(object)도 표시되지 않은 상태, 표시 장치(160)상에 블랭크 스크린(blank screen) 또는 블랙 스크린(black screen)이 표시되는 상태를 포함할 수 있다. 상기 off 상태는 인액티브(inactive) 상태, 디액티베이션(deactivation) 상태, 슬립(sleep) 상태, 비활성화 상태, 유휴(idle) 상태와 같이 다양하게 언급될 수 있다. 상기 on 상태는, 프로세서(120)로부터 수신한 데이터 또는 신호에 기반하여, 적어도 하나의 객체가 표시 장치(160)상에 표시되는 상태를 포함할 수 있다. 상기 on 상태는, 액티브(active) 상태, 또는 활성화 상태와 같이 다양하게 언급될 수 있다. 다른 실시 예에 따라, 전자 장치(101)는 전자 장치(101)의 프로세서(120)가 슬립 상태일 때, 디스플레이를 통해 컨텐츠를 표시하는 모드로 동작할 수 있다. 예를 들어, 전자 장치(101)는 프로세서(120)가 슬립 상태에서 동작하는 동안, 현재 시간, 날짜, 적어도 하나의 어플리케이션으로부터 제공되는 알림을 나타내기 위한 적어도 하나의 아이콘을, 표시 장치(160)상에 나타낼 수 있다. 상기 모드는, AOD(always on display) 모드로 언급될 수 있다.According to various embodiments of the present disclosure, the TSP module 222 may receive a user's touch input independently of the operation mode of the display device 160. For example, the display device 160 may operate in an off state. In the off state, power is supplied from the electronic device 101 to the display device 160, but no object is displayed, and a blank screen or a black screen on the display device 160 is displayed. black screen) may be displayed. The off state may be variously referred to as an inactive state, a deactivation state, a sleep state, an inactive state, or an idle state. The on state may include a state in which at least one object is displayed on the display device 160 based on data or a signal received from the processor 120. The on state may be variously referred to as an active state or an activated state. According to another embodiment of the present disclosure, when the processor 120 of the electronic device 101 is in a sleep state, the electronic device 101 may operate in a mode of displaying content through a display. For example, the electronic device 101 displays at least one icon for indicating a current time, date, and a notification provided from at least one application while the processor 120 operates in the sleep state. Can be represented on the image. The mode may be referred to as always on display (AOD) mode.
TSP 모듈(222)은 상기 표시 장치(160)의 on/off 상태에 관계 없이, 터치스크린을 통해 입력되는 사용자 터치를 수신할 수 있다. TSP 모듈(222)은, 예를 들어, 표시 장치(160)가 off 상태로 동작하는 동안, 활성 상태에서 동작할 수 있다. TSP 모듈(222)은, 표시 장치(160)가 블랭크 스크린 또는 블랙 스크린을 표시하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 예를 들어, 표시 장치(160)가 on 상태로 동작하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 수신된 터치 입력의 표시 장치(160)상의 위치 및 수신된 터치 입력의 면적에 관한 정보를 프로세서(120)에게 제공할 수 있다. 프로세서(120)는 TSP 모듈(222)로부터 제공받은 터치 입력에 관한 정보에 기반하여, 어플리케이션을 실행하거나, 표시 장치(160)의 표시를 변경할 수 있다. The TSP module 222 may receive a user touch input through the touch screen regardless of the on / off state of the display device 160. The TSP module 222 may operate in an active state, for example, while the display device 160 operates in an off state. The TSP module 222 may receive a user's touch input while the display device 160 displays the blank screen or the black screen. The TSP module 222 may receive a user's touch input, for example, while the display device 160 operates in the on state. The TSP module 222 may provide the processor 120 with information about the location of the received touch input on the display device 160 and the area of the received touch input. The processor 120 may execute an application or change the display of the display device 160 based on the information about the touch input provided from the TSP module 222.
다양한 실시 예들에 따라, TSP 모듈(222)은 수신된 터치 입력 및 수신된 터치 입력과 관련된 데이터를 프로세서(120)에게 제공할 수 있다. 예를 들어, TSP 모듈(222)은 표시 장치(160)가 off 상태로 동작하는 동안, 터치 입력을 수신할 수 있다. 이에 따라, TSP 모듈(222)은 표시 장치(160)의 off 상태 및 상기 수신한 터치 입력에 기반하여, 프로세서(120)에게 상기 표시 장치(160)를 on 상태로 전환(또는 변경)하기 위한 제어 신호를 송신할 수 있다. TSP 모듈(222)은 터치 입력과 관련된 데이터를 저장하기 위해, 메모리(130)에게 터치 입력의 위치, 면적, 시간에 관한 데이터를 송신할 수 있다. 예를 들어, 프로세서(120)는, TSP 모듈(222)로부터 상기 터치 입력과 관련된 데이터를 획득하고, 메모리(130)에게 상기 획득된 데이터 및 상기 획득된 데이터를 메모리(130)에 저장하도록 지시하는 제어 신호를 송신할 수 있다. 다른 예로, TSP 모듈(222)은, 메모리(130)에게 상기 획득된 데이터를 송신함으로써, 상기 획득된 데이터를 메모리(130)에 저장할 수 있다.According to various embodiments of the present disclosure, the TSP module 222 may provide the processor 120 with the received touch input and data related to the received touch input. For example, the TSP module 222 may receive a touch input while the display device 160 operates in the off state. Accordingly, the TSP module 222 controls to turn on (or change) the display device 160 to the processor 120 based on the off state of the display device 160 and the received touch input. You can send a signal. The TSP module 222 may transmit data regarding the location, area, and time of the touch input to the memory 130 to store data related to the touch input. For example, the processor 120 acquires data related to the touch input from the TSP module 222 and instructs the memory 130 to store the acquired data and the obtained data in the memory 130. The control signal can be transmitted. As another example, the TSP module 222 may store the obtained data in the memory 130 by transmitting the obtained data to the memory 130.
지문 센서(224)는 사용자의 터치 입력을 통해, 지문에 관련된 데이터를 수신할 수 있다. 지문 센서(224)는 사용자의 지문 내에 위치되는 골(valley) 및 마루(ridge)의 특징적인 패턴에 따라, 터치 입력에 관련된 사용자가 인증된 사용자인지 결정하기 위한 데이터를 수신할 수 있다. 다양한 실시 예들에 따라, 지문 센서(224)는 지문 내에 위치하는 골, 마루에 의해 반사되는 빛의 차이에 기반하는 광학 방식, 지문 내에 위치하는 골, 마루에 의해 반사되는 초음파의 위상 차이에 기반하는 초음파 방식, 또는 지문 내에 위치하는 골, 마루에 의해 야기되는 유전율의 차이에 기반하는 정전 방식에 따라 동작할 수 있다. The fingerprint sensor 224 may receive data related to a fingerprint through a user's touch input. The fingerprint sensor 224 may receive data for determining whether a user associated with a touch input is an authenticated user, according to a characteristic pattern of valleys and ridges located within the user's fingerprint. According to various embodiments of the present disclosure, the fingerprint sensor 224 may be based on an optical scheme based on a difference in light reflected by a valley located in a fingerprint, and a phase difference in ultrasonic waves reflected by a floor located in the fingerprint. It may operate according to an ultrasonic method, or an electrostatic method based on the difference in dielectric constant caused by the valleys and ridges located in the fingerprint.
그립 센서(226)는 사용자에 의한 상기 전자 장치(101)의 파지 여부 및 파지한 손의 방향을 감지할 수 있다. 다양한 실시 예들에 따라, 그립 센서(226)는 자이로 센서(미도시), 지자기 센서(미도시), 또는 근접 센서(미도시)와 함께 통합되도록 구성될 수 있다. 예를 들어, 전자 장치(101)는 근접 센서를 통해, 검출 물체와 근접 센서간의 정전 용량의 변화 또는 자기장의 변화를 검출할 수 있다. 전자 장치(101)는 그립 센서(226)를 통해, 전자 장치(101)의 좌측 자기장의 변화의 크기 및 우측 자기장의 변화의 크기에 기반하여, 사용자가 상기 전자 장치(101)를 왼손 또는 오른손으로 파지하였는지 식별할 수 있다. The grip sensor 226 may detect whether the electronic device 101 is held by a user and the direction of the held hand. According to various embodiments, the grip sensor 226 may be configured to be integrated with a gyro sensor (not shown), a geomagnetic sensor (not shown), or a proximity sensor (not shown). For example, the electronic device 101 may detect a change in capacitance or a change in the magnetic field between the detection object and the proximity sensor through the proximity sensor. The electronic device 101 uses the grip sensor 226 to allow the user to move the electronic device 101 to the left or right hand based on the magnitude of the change in the left magnetic field and the magnitude of the change in the right magnetic field of the electronic device 101. It can be identified whether it is held.
다양한 실시 예들에 따라, 그립 센서(226)는 프로세서(120)에게 사용자가 상기 전자 장치(101)를 파지한 손의 위치에 관한 정보를 송신할 수 있다. 예를 들어, 그립 센서(226)는 사용자가 왼손으로 상기 전자 장치(101)를 파지한 경우, 좌측 손에 의해 상기 전자 장치(101)가 파지되었음을 지시하는 정보를 프로세서(120)에게 송신할 수 있다. 프로세서(120)는 다수의 지문 센서들 중 좌측의 지문 센서가 위치하는 표시 장치(160)의 영역상에, 지문 입력을 위한 인터페이스를 표시하도록 제어할 수 있다. 다른 예를 들어, 그립 센서(226)는 사용자가 오른손으로 상기 전자 장치(101)를 파지한 경우, 우측 손에 의해 상기 전자 장치(101)가 파지되었음을 지시하는 정보를 프로세서(120)에게 송신할 수 있다. 프로세서(120)는 좌측 방향의 드래그 입력을 가이드하기 위한 화살표 도형을 표시 장치(160)를 통해 표시할 수 있다.According to various embodiments of the present disclosure, the grip sensor 226 may transmit information about a position of a hand of the user holding the electronic device 101 to the processor 120. For example, when the user grips the electronic device 101 with his left hand, the grip sensor 226 may transmit information indicating to the processor 120 that the electronic device 101 is gripped by the left hand. have. The processor 120 may control to display an interface for fingerprint input on an area of the display device 160 where the fingerprint sensor on the left side of the plurality of fingerprint sensors is located. For another example, when the user grips the electronic device 101 with his right hand, the grip sensor 226 may transmit information indicating to the processor 120 that the electronic device 101 is gripped by the right hand. Can be. The processor 120 may display an arrow figure for guiding a drag input in a left direction through the display device 160.
메모리(130)는 도1에 도시된 메모리(130)에 상응할 수 있다. The memory 130 may correspond to the memory 130 shown in FIG. 1.
다양한 실시 예들에 따라, 메모리(130)는 전자 장치(101)를 제어하는 명령어, 제어 명령어 코드, 제어 데이터 또는 사용자 데이터를 저장할 수 있다. 예를 들면, 메모리(130)는 어플리케이션(application), OS(operating system), 미들웨어(middleware), 장치 드라이버(device driver)를 포함할 수 있다. 다른 예를 들어, 메모리(130)는 인증된 사용자에 의해 미리 저장되고, 전자 장치(101)의 잠금 상태를 해제하기 위해 이용되는 패턴 정보를 저장할 수 있다. 상기 패턴 정보는, 격자로 배열된 다수의 객체들의 순서에 관련된 정보일 수 있다. 또 다른 예를 들어, 메모리(130)는 터치 입력에 관련된 정보를 저장할 수 있다. 메모리(130)는, 프로세서(120)를 통해, TSP 모듈(222)로부터 사용자 터치가 입력된 표시 장치(160) 상의 위치 및 면적에 상기 터치가 입력된 시간이 매핑된 정보를 획득할 수 있다. 메모리(130)는 프로세서(120)의 요청에 따라, 상기 터치 입력에 관련된 정보를 제공할 수 있다. According to various embodiments of the present disclosure, the memory 130 may store a command, a control command code, control data, or user data for controlling the electronic device 101. For example, the memory 130 may include an application, an operating system (OS), middleware, and a device driver. For another example, the memory 130 may be stored in advance by an authenticated user and store pattern information used to release the lock state of the electronic device 101. The pattern information may be information related to the order of a plurality of objects arranged in a grid. As another example, the memory 130 may store information related to a touch input. The memory 130 may obtain, through the processor 120, information in which the time when the touch is input is mapped to a location and an area on the display device 160 on which the user touch is input from the TSP module 222. The memory 130 may provide information related to the touch input at the request of the processor 120.
다양한 실시 예들에 따라, 메모리(130)는 휘발성 메모리(volatile memory) 또는 불휘발성 메모리(non-volatile memory) 중 하나 또는 그 이상을 포함할 수 있다. 휘발성 메모리는 DRAM(dynamic random access memory), SRAM(static RAM), SDRAM(synchronous DRAM), PRAM(phase-change RAM), MRAM(magnetic RAM), RRAM(resistive RAM), FeRAM(ferroelectric RAM) 등을 포함할 수 있다. 불휘발성 메모리는 ROM(read only memory), PROM(programmable ROM), EPROM(electrically programmable ROM), EEPROM(electrically erasable programmable ROM), 플레시 메모리(flash memory) 등을 포함할 수 있다. 상기 메모리(130)는 하드 디스크 드라이브(HDD, hard disk drive), 솔리드 스테이트 디스크(SSD, solid state disk), eMMC(embedded multi media card), UFS(universal flash storage)와 같은 불휘발성 매체(medium)를 포함할 수 있다. According to various embodiments of the present disclosure, the memory 130 may include one or more of volatile memory or non-volatile memory. Volatile memory includes dynamic random access memory (DRAM), static RAM (SRAM), synchronous DRAM (SDRAM), phase-change RAM (PRAM), magnetic RAM (MRAM), persistent RAM (RRAM), ferroelectric RAM (FeRAM), and the like. It may include. The nonvolatile memory may include read only memory (ROM), programmable ROM (PROM), electrically programmable ROM (EPROM), electrically erasable programmable ROM (EEPROM), flash memory, and the like. The memory 130 may be a non-volatile medium such as a hard disk drive (HDD), a solid state disk (SSD), an embedded multi media card (eMMC), or a universal flash storage (UFS). It may include.
다양한 실시 예들에 따라, 메모리(130)는, 프로세서(120) 또는 다른 구성 요소(예: TSP 모듈(222))의 요청에 기반하여, 저장된 데이터를 제공하거나, 프로세서(120) 또는 다른 구성 요소(예: TSP 모듈(222))로부터 수신되는 데이터를 기록 및 저장할 수 있다. 예를 들어, 메모리(130)는, TSP 모듈(222)의 요청에 따라, 터치 입력에 관련된 위치, 면적 및 시간에 관한 정보를 TSP 모듈(222)로부터 수신할 수 있다. 또한, 프로세서(120)는 TSP 모듈(222)로부터, 터치 입력에 관련된 위치, 면적 및 시간에 관한 정보를 수신하고, 상기 획득된 정보를 저장하기 위해, 메모리(130)에게 상기 획득된 정보를 송신할 수도 있다.According to various embodiments, the memory 130 may provide stored data based on a request of the processor 120 or another component (eg, the TSP module 222), or the processor 120 or the other component ( For example, data received from the TSP module 222 may be recorded and stored. For example, the memory 130 may receive information about the location, area, and time related to the touch input from the TSP module 222 according to a request of the TSP module 222. In addition, the processor 120 receives, from the TSP module 222, information regarding a location, an area, and a time related to the touch input, and transmits the obtained information to the memory 130 to store the obtained information. You may.
다른 예를 들어, 메모리(130)는 프로세서(120)의 요청에 따라, 특정 시각으로부터 가장 가까운 시간 내에 수신된 터치 입력에 관한 위치 및 면적에 관한 정보를 프로세서(120)에게 송신할 수 있다.For another example, the memory 130 may transmit information about the location and area of the touch input received within the closest time from the specific time to the processor 120 at the request of the processor 120.
다양한 실시 예들에 따라, 프로세서(120)는 전자 장치(101)의 전반적인 동작을 제어할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)에 데이터를 읽거나, 쓰고 메모리(130)에 저장된 어플리케이션 명령어 코드들을 실행할 수 있다. 예를 들어, 프로세서(120)는 터치 입력을 통해 입력된 지문에 대한 이미지를 이용하여, 사용자 인증을 수행할 수 있다. 이를 위해, 프로세서(120)는 메모리(130)로부터 인증된 사용자의 지문에 대한 기준 이미지를 수신할 수 있다. 프로세서(120)는 수신한 기준 이미지 및 입력된 지문에 대한 이미지간에 이미지 매칭을 수행함으로써 사용자 인증을 수행할 수 있다. 프로세서(120)는 이미지 매칭에 기반하여, 제1 색상에 대응되는 영역들간에 일치율, 제2 색상에 대응되는 영역들간에 일치율을 획득할 수 있다.According to various embodiments of the present disclosure, the processor 120 may control the overall operation of the electronic device 101. For example, the processor 120 may read or write data in the memory 130 and execute application instruction codes stored in the memory 130. For example, the processor 120 may perform user authentication using an image of a fingerprint input through a touch input. To this end, the processor 120 may receive a reference image of the fingerprint of the authenticated user from the memory 130. The processor 120 may perform user authentication by performing image matching between the received reference image and the image of the input fingerprint. The processor 120 may obtain a matching rate between areas corresponding to the first color and a matching rate between areas corresponding to the second color based on the image matching.
또 다른 예를 들어, 프로세서(120)는 표시 장치(160)를 통해 다양한 정보를 표시할 수 있다. 프로세서(120)는 터치 입력을 통해 입력된 지문이 제1 상태(예: 지문이 건조한 상태, 또는 지문에 유분이 부족한 상태)에 대응되는 것으로 결정한 경우, 지문의 상태를 제1 상태에서 제2 상태(예: 지문이 건조하지 않은 상태,또는 지문에 유분이 충분한 상태)로 변경하기 위한 가이드하는 정보를 표시하도록 표시 장치(160)를 제어할 수 있다. 상기 제2 상태는, 지문이 건조하지 않은 상태, 지문에 유분이 충분한 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지의 일치율이 일정 값보다 크거나 같은 상태, 지문의 마루 영역 내에서, 지문이 건조한 경우 생성되는 작은 골 영역이 땀, 또는 유분과 같은 물질(material)로 채워진 상태를 포함할 수 있다.In another example, the processor 120 may display various information through the display device 160. When the processor 120 determines that the fingerprint input through the touch input corresponds to a first state (for example, a dry state of the fingerprint or a state in which the fingerprint is insufficient), the processor 120 changes the state of the fingerprint from the first state to the second state. For example, the display device 160 may be controlled to display the guided information for changing the fingerprint to a state in which the fingerprint is not dry or the fingerprint is sufficiently oiled. The second state is based on a state in which the fingerprint is not dry, a state in which the oil is sufficient in the fingerprint, a comparison result of the reference image for the fingerprint and the image for the input fingerprint, and the reference image and the reference image. The coincidence ratio of may be greater than or equal to a predetermined value, and within the ridge area of the fingerprint, a small bone area generated when the fingerprint is dry may include a state filled with a material such as sweat or oil.
다양한 실시 예들에 따라, 프로세서(120)의 전부 또는 일부는 전자 장치(101) 내의 다른 구성 요소(예를 들면, 표시 장치(160), 센서 모듈(176), 또는 메모리(130))와 전기적으로(electrically) 또는 기능적으로(operably) 결합되거나 연결될 수 있다. 다양한 실시 예들에 따라, 프로세서(120)는 하나 또는 그 이상의 프로세서들로 구성될 수 있다. 예를 들면, 프로세서(120)는 응용 프로그램(application)과 같은 상위 계층(layer) 프로그램을 제어하는 AP(application processor) 또는 다른 전자 장치와의 통신을 위한 제어를 수행하는 CP(communication processor)를 포함할 수 있다.According to various embodiments of the present disclosure, all or part of the processor 120 may be electrically connected to other components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the memory 130). It can be electrically connected or functionally combined or connected. According to various embodiments of the present disclosure, the processor 120 may be configured of one or more processors. For example, the processor 120 includes an application processor (AP) that controls a higher layer program such as an application or a communication processor (CP) that performs control for communication with another electronic device. can do.
도 3a 및 도 3b는 본 발명의 다양한 실시 예들에 따른 지문 상태의 예를 도시한다.3A and 3B illustrate examples of a fingerprint state according to various embodiments of the present disclosure.
도 3a를 참조하면, 지문의 상태는 제2 상태(예: 지문이 건조하지 않은 상태, 또는 지문에 유분이 충분한 상태)에 대응될 수 있다. 구체적으로, 사용자의 지문은 터치스크린(303)(예: 도 1의 표시 장치(160))의 터치 표면을 기준으로, 상대적으로 낮은 위치에 대응되는 마루(ridge)(302) 영역 및 터치스크린(303)의 터치 표면을 기준으로, 상대적으로 높은 위치에 대응되는 골(valley)(301) 영역으로 구분될 수 있다. 사용자의 터치 입력 시, 지문 내에 포함되는 마루(302) 영역은 터치스크린(303)의 터치 표면으로부터 상대적으로 낮은 위치를 갖기 때문에, 터치스크린(303)과 물리적으로 접촉될 수 있다. 반면, 사용자의 터치 입력 시, 지문 내에 포함되는 골(301) 영역은 터치스크린(303)의 터치 표면으로부터 상대적으로 높은 위치를 갖기 때문에, 터치스크린(303)과 물리적으로 접촉되지 않을 수 있다. 따라서, 지문 내에 위치하는 골(301) 영역 및 터치스크린(303)의 표면 사이에 공기(air)층이 형성될 수 있다. 지문 내에 위치하는 마루(302) 영역은 터치스크린(303)과 물리적으로 접촉하기 때문에, 마루(302) 영역과 터치스크린(303)의 표면 사이에 공기 층이 형성되지 않을 수 있다.Referring to FIG. 3A, a state of a fingerprint may correspond to a second state (eg, a state in which the fingerprint is not dry or a state in which the oil is sufficient in the fingerprint). In detail, the fingerprint of the user is based on the touch surface of the touch screen 303 (for example, the display device 160 of FIG. 1), and the area of the ridge 302 corresponding to the relatively low position and the touch screen ( Based on the touch surface of 303, it may be divided into a valley 301 region corresponding to a relatively high position. In the user's touch input, the floor 302 area included in the fingerprint has a relatively low position from the touch surface of the touch screen 303, and thus may be in physical contact with the touch screen 303. On the other hand, when the user's touch input, the valley 301 region included in the fingerprint has a relatively high position from the touch surface of the touch screen 303, and thus may not be in physical contact with the touch screen 303. Thus, an air layer may be formed between the area of the valley 301 located in the fingerprint and the surface of the touch screen 303. Since the area of the floor 302 located within the fingerprint is in physical contact with the touchscreen 303, no air layer may be formed between the area of the floor 302 and the surface of the touchscreen 303.
다양한 실시 예에 따라, 프로세서(120)는, 사용자의 터치 입력 시, 지문 센서(224)를 통해 지문의 제2 상태에 대응되는 이미지(310)를 획득할 수 있다. 제2 상태에 대응되는 이미지(310)는 제1 색상(예: 검은 색)으로 지시되는 제1 영역(312) 및 제2 색상(예: 흰 색)으로 지시되는 제2 영역(314)을 포함할 수 있다. 지문 내에 위치하는 마루(302) 영역은 제2 상태에 대응되는 이미지(310) 중 제1 영역(312)에 대응될 수 있다. 지문 내에 위치하는 골(301) 영역은 제2 상태에 대응되는 이미지(310) 중 제2 영역(314)에 대응될 수 있다. According to various embodiments of the present disclosure, the processor 120 may acquire an image 310 corresponding to the second state of the fingerprint through the fingerprint sensor 224 when a user inputs a touch. The image 310 corresponding to the second state includes a first area 312 indicated by a first color (eg black) and a second area 314 indicated by a second color (eg white). can do. An area of the ridge 302 located in the fingerprint may correspond to the first area 312 of the image 310 corresponding to the second state. An area of the valley 301 located in the fingerprint may correspond to the second area 314 of the image 310 corresponding to the second state.
도 3b를 참조하면, 지문의 상태는 제1 상태(예: 지문이 건조한 상태, 지문에 유분이 부족한 상태)에 대응될 수 있다. 지문의 상태가 제1 상태에 대응되는 경우, 제2 상태에 대응되는 지문의 마루(302) 영역 내부에, 터치스크린(303)과 물리적으로 접촉하지 않는 영역이 생성될 수 있다. 즉, 지문이 제1 상태에 대응되는 경우, 지문의 마루(302) 영역 내에서, 터치스크린(303)의 터치 표면을 기준으로 상대적으로 높은 위치를 가지며, 터치스크린(303)과 물리적으로 접촉되지 않는 작은 골(304) 영역이 생성될 수 있다. 즉, 작은 골(304) 영역은, 지문의 상태가 제2 상태(예: 지문이 건조하지 않은 상태)에 대응되는 경우, 땀, 유분과 같은 물질을 포함할 수 있고, 터치스크린(303)의 터치 표면과 작은 골(304) 영역 사이에 공기층은 존재하지 않을 수 있다. 작은 골(304) 영역은, 지문의 상태가 제1 상태(예: 지문이 건조한 상태)에 대응되는 경우, 상기 땀, 유분과 같은 물질을 포함하지 않을 수 있다. 지문의 상태가 제1 상태에 대응되는 경우, 작은 골(304) 영역과 터치스크린(303)의 터치 표면 사이에 공기층이 형성될 수 있다.Referring to FIG. 3B, the state of the fingerprint may correspond to a first state (eg, a state in which the fingerprint is dry and a state in which the oil is insufficient in the fingerprint). When the state of the fingerprint corresponds to the first state, an area that is not in physical contact with the touch screen 303 may be generated inside the floor 302 of the fingerprint corresponding to the second state. That is, when the fingerprint corresponds to the first state, in the floor 302 region of the fingerprint, the fingerprint has a relatively high position with respect to the touch surface of the touch screen 303 and is not in physical contact with the touch screen 303. A small valley 304 area may be created. That is, the small valley 304 area may include a material such as sweat or oil when the state of the fingerprint corresponds to the second state (for example, the state in which the fingerprint is not dry), and the touch screen 303 may be formed. There may be no air layer between the touch surface and the small valley 304 area. The small valley 304 area may not include a material such as sweat or oil when the state of the fingerprint corresponds to the first state (eg, the state in which the fingerprint is dry). When the state of the fingerprint corresponds to the first state, an air layer may be formed between the small valley 304 area and the touch surface of the touch screen 303.
다양한 실시 예들에 따라, 프로세서(120)는, 사용자의 터치 입력 시, 지문 센서(224)를 통해 지문의 제1 상태에 대응되는 이미지(320)를 획득할 수 있다. 제1 상태에 대응되는 이미지(320)는 제1 색상(예: 검은 색)으로 지시되는 제3 영역(322) 및 제2 색상(예: 흰 색)으로 지시되는 제4 영역(324)을 포함할 수 있다. 상기 제2 색상으로 지시되는 제4 영역(324)는 지문 내에 포함되는 골(301) 영역에 의해 생성되는 영역 및 제2 상태에 따라 생성된 작은 골(304) 영역 에 의해 생성되는 영역을 포함할 수 있다. According to various embodiments of the present disclosure, the processor 120 may acquire an image 320 corresponding to the first state of the fingerprint through the fingerprint sensor 224 when a user inputs a touch. The image 320 corresponding to the first state includes a third area 322 indicated by a first color (eg black) and a fourth area 324 indicated by a second color (eg white). can do. The fourth region 324 indicated by the second color may include the region generated by the region of the valley 301 included in the fingerprint and the region generated by the region of the small valley 304 generated according to the second state. Can be.
도 4는 다양한 실시 예들에 따른 지문 센서의 동작 원리를 도시한다. 도 4에 도시된 지문 센서(420)은 도 2에 도시된 지문 센서(224)에 대응될 수 있다.4 illustrates an operation principle of a fingerprint sensor according to various embodiments of the present disclosure. The fingerprint sensor 420 illustrated in FIG. 4 may correspond to the fingerprint sensor 224 illustrated in FIG. 2.
도 4를 참조하면, 지문 센서(420)는 디스플레이의 발광층(410)의 하단에 위치할 수 있다. 지문 센서(420)는 디스플레이의 발광층(410)의 아래에 위치함으로써, 표시 장치(160)의 윈도우 글래스로부터 반사된 빛을 검출하고, 검출한 빛에 기반하여 지문에 대한 이미지를 획득할 수 있다. 상기 지문 센서(420)는 투명하지 않기 때문에, 반투명한 디스플레이의 발광층(410) 상단에 위치하는 경우, 디스플레이의 전체 성능을 감소시킬 수 있다. Referring to FIG. 4, the fingerprint sensor 420 may be located at the bottom of the light emitting layer 410 of the display. The fingerprint sensor 420 may be positioned under the light emitting layer 410 of the display to detect light reflected from the window glass of the display device 160 and obtain an image of the fingerprint based on the detected light. Since the fingerprint sensor 420 is not transparent, when the fingerprint sensor 420 is positioned above the light emitting layer 410 of the translucent display, the overall performance of the display may be reduced.
다른 실시 예에 따라, 미 도시되었지만, 지문 센서(420)는 별도의 광원을 이용하여, 지문에 관한 이미지를 획득할 수 있다. 예를 들어, 지문 센서(420)는 별도의 광원으로부터 생성되어, 윈도우 글래스(window glass)에서 반사되어 진행하는 빛을 검출할 수 있다. 지문 센서(420)는 별도의 광원으로부터 생성되는 빛을 효율적으로 수신하기 위하여, 특정 위치(예: 디스플레이의 엣지(egde) 방향)에 위치될 수 있다. 상기 별도의 광원은, 표시 장치(160)가 off 상태 또는 저전력 모드로 동작함으로써 디스플레이의 발광층(410)으로부터 생성되는 광원이 없는 경우, 터치 입력에 대한 지문 이미지를 획득하기 위하여 동작할 수 있다.According to another embodiment, although not shown, the fingerprint sensor 420 may acquire an image regarding the fingerprint by using a separate light source. For example, the fingerprint sensor 420 may be generated from a separate light source to detect light reflected from the window glass and traveling. The fingerprint sensor 420 may be located at a specific location (eg, in an edge direction of the display) in order to efficiently receive light generated from a separate light source. The separate light source may operate to acquire a fingerprint image for a touch input when there is no light source generated from the light emitting layer 410 of the display by operating the display device 160 in an off state or a low power mode.
도 4를 참조하면, 사용자의 터치 입력 시, 윈도우 글래스(window glass)와 다수의 마루(431)간에 물리적 접촉에 의한 접촉(434) 영역이 생성될 수 있다. 지문 내에서 골(432) 영역은 지문의 상태에 따라 생성 또는 소멸될 수 있다. 예를 들어, 지문의 상태가 제2 상태(예: 지문에 유분이 충분한 상태, 지문이 건조하지 않은 상태)에 대응되는 경우, 땀, 유분과 같은 물질(material)이 작은 골(432) 영역을 채울 수 있다. 이에 따라, 지문이 제2 상태에 대응되는 경우, 작은 골(432) 영역은 존재하지 않을 수 있다. 다른 예를 들어, 지문의 상태가 제1 상태(예: 지문에 유분이 부족한 상태, 지문이 건조한 상태)에 대응되는 경우, 땀, 유분과 같은 물질(material)이 존재하지 않으므로, 골(435) 영역과 상이한 작은 골(432) 영역이 생성될 수 있다. 골(435) 영역은 땀, 유분과 같은 물질(material)에 의해 채워질 수 없는 영역으로서, 지문 입력 시, 항상 제2 색상(예: 흰 색)을 가지는 영역에 대응될 수 있다.Referring to FIG. 4, when a user inputs a touch, a contact 434 region by physical contact between a window glass and a plurality of floors 431 may be generated. The bone 432 area within the fingerprint may be created or destroyed depending on the state of the fingerprint. For example, when the state of the fingerprint corresponds to a second state (for example, a state in which the oil is sufficient for the fingerprint and the state in which the fingerprint is not dry), a region of the bone 432 where a material such as sweat or oil is small is formed. I can fill it. Accordingly, when the fingerprint corresponds to the second state, the small valley 432 area may not exist. In another example, when the state of the fingerprint corresponds to the first state (for example, the state in which the oil is insufficient in the fingerprint and the state in which the fingerprint is dry), since there is no material such as sweat or oil, the bone 435 Small valleys 432 areas different from the areas may be created. The valley 435 is an area that cannot be filled by a material such as sweat or oil, and may correspond to an area that always has a second color (eg, white color) when a fingerprint is input.
다양한 실시 예들에 따라, 지문 센서(420)는 터치스크린 상에서 반사되어 지문 센서(420)로 진행하는 경로 A 및 경로 B의 빛을 수신함으로써, 지문에 대한 이미지를 획득할 수 있다. 경로 A의 빛은 윈도우 글래스와 지문 내에 위치하는 골(432 또는 435) 영역으로부터 반사되어 수신된 빛일 수 있다. 경로 B의 빛은 윈도우 글래스와 지문 내에 위치하는 마루(431) 영역으로부터 반사되어 수신된 빛일 수 있다. 경로 A의 빛은, 지문 내에 위치하는 골(432 또는 435) 영역과 윈도우 글래스 사이에 존재하는 공기층을 통해 반사될 수 있다. 따라서, 경로 A의 빛은 세기가 작게 감소할 수 있다. 반면, 경로 B의 빛은, 지문 내에 위치하는 마루(431) 영역과 윈도우 글래스의 접촉(434) 영역에 도달하는 경우, 경로 B의 빛은 사용자의 지문을 통해 흡수될 수 있다. 따라서, 접촉(434) 영역으로부터 반사된 경로 B의 빛은 광량이 크게 감소할 수 있다. 즉, 경로 A의 빛은 경로 B의 빛보다 밝은 빛일 수 있다.According to various embodiments of the present disclosure, the fingerprint sensor 420 may acquire the image of the fingerprint by receiving the light of the path A and the path B reflected on the touch screen to the fingerprint sensor 420. The light in path A may be light reflected and received from the area of the valleys 432 or 435 located within the window glass and fingerprint. The light in path B may be light received reflected from the area of the ridge 431 located in the window glass and fingerprint. Light in path A may be reflected through an air layer present between the window glass and the area of valleys 432 or 435 located within the fingerprint. Therefore, the light of the path A can be reduced in intensity small. On the other hand, when the light of the path B reaches the area of the contact 434 of the window glass and the floor 431 located in the fingerprint, the light of the path B may be absorbed through the user's fingerprint. Therefore, the light of the path B reflected from the contact 434 region can be greatly reduced in the amount of light. That is, the light of the path A may be light brighter than the light of the path B.
다양한 실시 예들에 따라, 지문 센서(420)는 다수의 공기층(433) 및 접촉(434) 영역을 통해 반사된 경로 A의 빛 및 경로 B의 빛을 수신하고, 두 개의 빛 세기 차이를 비교함으로써 지문에 대한 이미지를 획득할 수 있다. 예를 들어, 지문 센서(420)는 반사된 경로 A의 빛을 수신하고, 제1 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 반사된 경로 B의 빛을 수신하고, 제2 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 이미지 처리를 통해, 반사된 경로 A의 빛에 상응하는 제1 값의 밝기의 값이 반사된 경로 B의 빛에 상응하는 제2 밝기의 값보다 큼을 인식할 수 있다. 반사된 경로 B는 윈도우 글래스와 접촉하고 있는 지문의 마루 영역(431)으로 일부 흡수되기 때문에, 제2 밝기의 값은 제1 밝기의 값보다 더 작을 수 있다. 따라서, 지문 센서(420)는 지문의 골 영역(432)에 대응되는 위치는 반사된 경로 A의 빛을 수신할 수 있고, 지문의 마루 영역(431)에 대응되는 위치상으로 반사된 경로 B의 빛을 수신할 수 있다. 지문 센서(224)는 수신한 빛을 반전시킴으로써 지문 도3a의 지문의 제2 상태에 대응되는 이미지(310) 또는 도3b에 도시된 지문의 제1 상태에 대응되는 이미지(320)를 획득할 수 있다.According to various embodiments, the fingerprint sensor 420 receives the light of the path A and the light of the path B reflected through the plurality of air layers 433 and the contact 434 regions, and compares the two light intensity differences to obtain a fingerprint. Obtain an image for. For example, the fingerprint sensor 420 may receive the reflected light of the path A, and detect the light having the first value. The fingerprint sensor 420 may receive the reflected path B light and detect light having a second brightness. Through the image processing, the fingerprint sensor 420 may recognize that the value of the brightness of the first value corresponding to the light of the reflected path A is greater than the value of the second brightness corresponding to the light of the reflected path B. Since the reflected path B is partially absorbed into the floor area 431 of the fingerprint in contact with the window glass, the value of the second brightness may be smaller than the value of the first brightness. Accordingly, the fingerprint sensor 420 may receive the light of the path A reflected at the location corresponding to the valley area 432 of the fingerprint, and the path B of the path B reflected onto the location corresponding to the floor area 431 of the fingerprint. Can receive light. The fingerprint sensor 224 may acquire the image 310 corresponding to the second state of the fingerprint of FIG. 3A or the image 320 corresponding to the first state of the fingerprint shown in FIG. 3B by inverting the received light. have.
도 5는 본 발명의 다양한 실시 예들에 따른 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 흐름도를 도시한다.5 is a flowchart illustrating an electronic device for displaying information guiding a touch input according to various embodiments of the present disclosure.
도 5를 참조하면, 동작 501에서, 프로세서(120)는 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득할 수 있다. 다양한 실시예에 따르면, 프로세서(120)는 사용자의 지문에 대한 제1 이미지를 획득하기 위해, 표시 장치(160)를 통해 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 예를 들어, 프로세서(120)는, 표시 장치(160)가 off 상태에서 on 상태로 변경됨을 검출하고, 상기 검출에 따라 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 지문 입력을 가이드하는 인터페이스는, 지문의 형상 또는 이와 유사한 형상을 포함하는 이미지일 수 있다. 지문 입력을 가이드하는 인터페이스는, 지문 입력을 가이드하기 위한 텍스트(예: "지문을 입력하세요" 또는 "손가락을 올려주세요")를 더 포함할 수 있다. 프로세서(120)는 지문 센서(224)를 통해, 상기 인터페이스에 따라 입력된 터치에 관련된 지문에 대한 제1 이미지를 획득할 수 있다.Referring to FIG. 5, in operation 501, the processor 120 may acquire a first image of a fingerprint of a user associated with a first touch input. According to various embodiments, the processor 120 may display an interface for guiding a fingerprint input through the display device 160 to obtain a first image of the user's fingerprint. For example, the processor 120 may detect that the display device 160 is changed from an off state to an on state, and display an interface for guiding a fingerprint input according to the detection. The interface for guiding the fingerprint input may be an image including the shape of the fingerprint or the like. The interface for guiding the fingerprint input may further include text for guiding the fingerprint input (eg, “Please enter a fingerprint” or “Raise your finger”). The processor 120 may acquire, via the fingerprint sensor 224, a first image of a fingerprint related to a touch input according to the interface.
일 실시 예에 따라, 프로세서(120)는, 표시 장치(160)가 off 상태로 동작하는 동안, 지문 센서(224)를 통해, 사용자의 지문에 대한 제1 이미지를 획득할 수 있다. 지문 센서(224)는 표시 장치(160)가 off 상태로 동작하더라도, 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는 상기 AOD 모드로 동작하는 동안, 지문 센서(224)가 위치하는 표시 장치(160)의 영역 상에 GUI(graphic user interface)를 표시할 수 있다. 예를 들어, 상기 GUI는 지문의 형상을 포함하는 그래픽 오브젝트를 포함할 수 있다. 표시 장치(160)는 상기 AOD 모드에 기반하여, 저전력 모드 또는 off 상태로 동작할 수 있다. 지문 센서(224)는, 상기 표시 장치(160)가 저전력 모드 또는 off 상태로 동작하는 동안, 상기 GUI가 표시된 영역을 통해 사용자의 지문에 대한 이미지를 획득할 수 있다. According to an embodiment of the present disclosure, the processor 120 may acquire a first image of a user's fingerprint through the fingerprint sensor 224 while the display device 160 operates in an off state. The fingerprint sensor 224 may receive a touch input even when the display device 160 operates in the off state. For example, the processor 120 may display a graphical user interface (GUI) on an area of the display device 160 where the fingerprint sensor 224 is located while operating in the AOD mode. For example, the GUI may include a graphic object that includes the shape of a fingerprint. The display device 160 may operate in a low power mode or an off state based on the AOD mode. The fingerprint sensor 224 may acquire an image of a user's fingerprint through an area where the GUI is displayed while the display device 160 operates in a low power mode or an off state.
다른 실시 예에 따라, 지문 센서(224)는, 수신한 터치 입력에 기반하여 획득한 제1 이미지와 인증된 사용자의 지문에 대한 이미지를 비교하여, 지문 인증을 수행할 수 있다. 프로세서(120)는 지문 센서(224)에 의한 제1 이미지 획득에 대응하여, 표시 장치(160)를 off 상태에서, on 상태로 변경할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지와 인증된 사용자의 지문에 대한 이미지가 일치하는 경우, 지문 인증이 성공했음을 판단하고, 전자 장치(101)의 잠금 상태의 해제 및 표시 장치(160)의 off 상태를 on 상태로의 전환을 수행할 수 있다. 다른 예를 들어, 프로세서(120)는 제1 이미지와 인증된 사용자의 지문에 대한 이미지의 불일치를 판단한 경우, 표시 장치(160)의 상태를 on 상태로 전환하고, 상기 제2 터치 입력을 가이드하는 정보를 표시 장치(160)를 통해 표시할 수 있다. According to another exemplary embodiment, the fingerprint sensor 224 may perform fingerprint authentication by comparing an image of a fingerprint of an authenticated user with a first image acquired based on the received touch input. The processor 120 may change the display device 160 from the off state to the on state in response to obtaining the first image by the fingerprint sensor 224. For example, when the first image and the image of the authenticated user's fingerprint match, the processor 120 determines that the fingerprint authentication is successful, and releases the lock state of the electronic device 101 and the display device 160. The off state of can be switched on. In another example, when it is determined that there is a mismatch between the first image and the image of the authenticated user's fingerprint, the processor 120 turns on the state of the display device 160 and guides the second touch input. Information may be displayed through the display device 160.
또 다른 실시 예에 따라, 프로세서(120)는, 지문 센서(224)가 위치하는 영역 상에 GUI(graphic user interface)를 표시할 수 있다. 예를 들어, 상기 GUI는 지문의 형상을 포함하는 그래픽 오브젝트를 포함할 수 있다. 표시 장치(160)는 상기 AOD 모드에 기반하여, 저전력 모드 또는 off 상태로 동작할 수 있다. 지문 센서(224)는, 상기 표시 장치(160)가 저전력 모드 또는 off 상태로 동작하는 동안, 상기 GUI가 표시된 영역을 통해 사용자의 지문에 대한 이미지를 획득할 수 있다. According to another embodiment, the processor 120 may display a graphical user interface (GUI) on an area where the fingerprint sensor 224 is located. For example, the GUI may include a graphic object that includes the shape of a fingerprint. The display device 160 may operate in a low power mode or an off state based on the AOD mode. The fingerprint sensor 224 may acquire an image of a user's fingerprint through an area where the GUI is displayed while the display device 160 operates in a low power mode or an off state.
일 실시 예에 따라, 도 6a를 참조하면, 프로세서(120)는 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 프로세서(120)는 지문 센서(224)가 위치하는 영역 상에 상기 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 예를 들어, 지문 센서(224)가 표시 장치(160)의 하단 중앙부에 위치하는 경우, 프로세서(120)는 표시 장치(160)의 하단 중앙부에 지문 형상의 이미지(620)을 표시할 수 있다. According to an embodiment, referring to FIG. 6A, the processor 120 may display an interface for guiding a fingerprint input. The processor 120 may display an interface for guiding the fingerprint input on an area where the fingerprint sensor 224 is located. For example, when the fingerprint sensor 224 is positioned at the bottom center of the display device 160, the processor 120 may display a fingerprint-shaped image 620 at the bottom center of the display device 160.
다른 실시 예에 따라, 도 6b를 참조하면, 전자 장치(101)는 다수의 지문 센서들(620 내지 660)을 포함할 수 있다. 예를 들어, 상기 다수의 지문 센서(620 내지 660)는 다섯 개의 지문 센서를 포함할 수 있다. 지문 센서(620)는 종래의 물리 키 또는 버튼에 대응하는 위치(예: 표시 장치(160) 하단 중앙부)에 배치될 수 있다. 나머지 지문 센서들(630 내지 660)은 지문 센서(620)가 배치된 영역을 제외한 나머지 영역을 통해 배치될 수 있다. 다른 예를 들어, 상기 다수의 지문 센서들(620 내지 660)은 표시 장치(160)의 전체 영역을 통해 배치될 수 있다. 이 경우, 다수의 지문 센서들은, 각각의 지문 센서간에 거리가 동일하도록 배치될 수 있다. 다수의 지문 센서들(620 내지 660)이 표시 장치(160) 영역에 위치함으로써, 프로세서(120)는 지문 입력을 위한 인터페이스의 위치를 적응적으로 변경할 수 있다. According to another embodiment, referring to FIG. 6B, the electronic device 101 may include a plurality of fingerprint sensors 620 through 660. For example, the plurality of fingerprint sensors 620 to 660 may include five fingerprint sensors. The fingerprint sensor 620 may be disposed at a position corresponding to a conventional physical key or button (for example, a lower center portion of the display device 160). The remaining fingerprint sensors 630 to 660 may be disposed through the remaining area except for the area where the fingerprint sensor 620 is disposed. For another example, the plurality of fingerprint sensors 620 through 660 may be disposed through the entire area of the display device 160. In this case, the plurality of fingerprint sensors may be arranged such that the distance between each fingerprint sensor is the same. Since the plurality of fingerprint sensors 620 to 660 are located in the display device 160 area, the processor 120 may adaptively change the position of the interface for fingerprint input.
동작 503에서, 프로세서(120)는 획득된 제1 이미지 및 기준 이미지에 기반하여, 지문의 상태가 제1 상태에 대응함을 식별할 수 있다. 상기 제1 상태는, 지문이 건조한 상태, 지문에 유분이 부족하거나 없는 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 지문이 인증된 사용자에 대한 지문일 것으로 추정되나, 상기 입력된 지문에 대한 이미지가 상기 기준 이미지와 일치하지 않는 상태, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지 사이에 일치율이 지정된 값보다 낮은 상태, 또는 상기 입력된 지문에 대한 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율이 상기 기준 이미지 내에서 지문에 위치하는 마루 영역에 의해 야기되는 영역의 비율보다 정해진 값만큼 낮은 상태를 나타낼 수 있다. 프로세서(120)는 획득된 제1 이미지를 이용하여, 지문 인증을 수행하기 위해 기준 이미지와 비교를 수행할 수 있다. 상기 기준 이미지는, 전자 장치의 인증된 사용자에 의해 미리 저장되고, 인증된 사용자의 지문에 대한 이미지, 지문 등록 설정을 위해 등록된 이미지, 인가된 사용자의 지문에 대한 이미지를 포함할 수 있다. 프로세서(120)는 획득된 제1 이미지 및 기준 이미지에 기반하여, 지문의 상태가 제1 상태에 대응하는지 결정할 수 있다. 일 실시 예에 따라, 프로세서(120)는 제1 이미지의 제1 영역 및 기준 이미지의 제3 영역이 상이한지 판단함으로써, 지문의 상태가 상기 제1 상태에 대응됨을 결정할 수 있다. In operation 503, the processor 120 may identify that the state of the fingerprint corresponds to the first state, based on the obtained first image and the reference image. The first state may be a fingerprint for the authenticated user based on a result of the comparison of the reference image of the fingerprint and the image of the input fingerprint, with the fingerprint dry, the oil lacking or lacking in the fingerprint. Estimated, but the image for the input fingerprint does not match the reference image, the match rate between the image for the input fingerprint and the reference image is lower than a specified value, or within the image for the input fingerprint. In FIG. 5, the ratio of the area caused by the floor area positioned in the fingerprint may be lower than the ratio of the area caused by the floor area located in the fingerprint in the reference image. The processor 120 may perform a comparison with the reference image to perform fingerprint authentication using the obtained first image. The reference image may be stored in advance by an authenticated user of the electronic device, and may include an image of a fingerprint of an authenticated user, an image registered for setting a fingerprint registration, and an image of a fingerprint of an authorized user. The processor 120 may determine whether a state of the fingerprint corresponds to the first state based on the obtained first image and the reference image. According to an embodiment of the present disclosure, the processor 120 may determine that the state of the fingerprint corresponds to the first state by determining whether the first area of the first image and the third area of the reference image are different.
동작 505에서, 프로세서(120)는 지문의 상태를 제1 상태에서 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 제2 상태는, 지문이 건조하지 않은 상태, 지문에 유분이 충분한 상태, 지문에 대한 기준 이미지와 입력된 지문에 대한 이미지의 비교 결과에 기반하여, 상기 입력된 지문에 대한 이미지와 상기 기준 이미지의 일치율이 일정 값보다 크거나 같은 상태, 지문의 마루 영역 내에서, 또는 지문이 건조한 경우 생성되는 작은 골 영역이 땀, 유분과 같은 물질(material)로 채워진 상태를 포함할 수 있다. 프로세서(120)는, 지문의 상태가 제1 상태에 대응됨을 검출함에 기반하여, 상기 지문의 상태를 제2 상태로 변경하기 위해, 터치 입력을 가이드하는 정보를 표시할 수 있다. 터치 입력을 가이드하는 정보는 제1 지점 및 제2 지점을 포함하는 도형과 같은 시각적 개체, 격자로 배열된 다수의 객체들과 같은 시각적 개체, 및 특정 방향을 지시하는 화살표와 같은 시각적 개체 포함할 수 있다. 상기 제2 터치 입력은 드래그 입력을 포함할 수 있다. 사용자는, 표시 장치(160)를 통해 표시된 정보를 따라 터치를 입력할 수 있다. 사용자의 드래그 터치에 따라, 표시 장치(160)와 지문 사이의 마찰에 의해 발생하는 땀, 표시 장치(160) 상에 존재하는 유분과 같은 물질(material)이 마루 영역 내의 작은 골 영역들을 채울 수 있다. 마루 영역 내의 작은 골 영역들이 채워짐에 따라, 지문의 상태는 제1 상태에서 제2 상태로 변경될 수 있다.In operation 505, the processor 120 may display information guiding a second touch input for changing the state of the fingerprint from the first state to the second state. The second state is based on a state in which the fingerprint is not dry, a state in which the oil is sufficient in the fingerprint, a comparison result of the reference image for the fingerprint and the image for the input fingerprint, and the reference image and the reference image. The coincidence ratio of may be greater than or equal to a predetermined value, or a small bone region generated when the fingerprint is dry, or when the fingerprint is dry, may be filled with a material such as sweat or oil. The processor 120 may display information for guiding a touch input to change the state of the fingerprint to the second state based on detecting that the state of the fingerprint corresponds to the first state. The information guiding the touch input may include a visual object such as a figure including a first point and a second point, a visual object such as a plurality of objects arranged in a grid, and a visual object such as an arrow indicating a specific direction. have. The second touch input may include a drag input. The user may input a touch based on the displayed information through the display device 160. According to the drag touch of the user, a material such as sweat generated by friction between the display device 160 and the fingerprint and oil present on the display device 160 may fill small valley areas in the floor area. . As the small valley areas in the ridge area are filled, the state of the fingerprint may change from the first state to the second state.
도 7은 본 발명의 다양한 실시 예들에 따른 제1 이미지를 획득하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.7 illustrates an example of an operation of an electronic device to acquire a first image according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 7의 동작 701 내지 동작 705은 도 5의 동작 501과 관련될 수 있다. Operations 701 to 705 of FIG. 7 may be related to operation 501 of FIG. 5.
도 7을 참고하면, 동작 701에서, 프로세서(120)는 그립 센서(226) 또는 압력 센서(미도시)로부터 데이터를 수신할 수 있다. 그립 센서(226)는 좌측 방향의 자기장 변화의 크기 및 우측 방향의 자기장 변화의 크기를 비교함으로써, 상기 전자 장치(101)를 파지한 손의 방향과 관련된 정보를 획득할 수 있다. Referring to FIG. 7, in operation 701, the processor 120 may receive data from a grip sensor 226 or a pressure sensor (not shown). The grip sensor 226 may obtain information related to the direction of the hand holding the electronic device 101 by comparing the magnitude of the magnetic field change in the left direction and the magnitude of the magnetic field change in the right direction.
예를 들어, 프로세서(120)는 그립 센서(226)로부터 정보를 수신함으로써, 사용자가 전자 장치(101)를 파지하였음을 검출할 수 있다. 사용자가 전자 장치(101)를 파지한 경우, 프로세서(120)는, 표시 장치(160)의 off 상태에서 on 상태로의 변경 및 제1 터치 입력을 가이드하는 정보를 표시하도록 지시하는 제어 신호를 송신할 수 있다. For example, the processor 120 may detect that the user grips the electronic device 101 by receiving information from the grip sensor 226. When the user grips the electronic device 101, the processor 120 transmits a control signal instructing to display the information for guiding the change from the off state of the display device 160 to the on state and the first touch input. can do.
다른 예를 들어, 프로세서(120)는 압력 센서(미도시)로부터 데이터를 수신할 수 있다. 압력 센서(미도시)는 표시 장치(160)의 하단 중앙부에 배치될 수 있다. 압력 센서(미도시)는 디스플레이를 활성화하기 위한 종래의 물리 키 또는 버튼에 대응될 수 있다. 압력 센서(미도시)는 미리 설정된 임계 값 이상의 압력을 갖는 터치 입력을 검출하는 경우, 프로세서(120)에게 데이터를 송신할 수 있다. 프로세서(120)는 압력 센서(미도시)로부터 데이터 수신에 기반하여, 표시 장치(160)에게 표시 장치(160)를 on 상태로 변경할 것을 지시하는 제어 신호를 송신할 수 있다.In another example, processor 120 may receive data from a pressure sensor (not shown). The pressure sensor (not shown) may be disposed in the lower center portion of the display device 160. The pressure sensor (not shown) may correspond to a conventional physical key or button for activating the display. When the pressure sensor (not shown) detects a touch input having a pressure equal to or greater than a preset threshold value, the pressure sensor (not shown) may transmit data to the processor 120. The processor 120 may transmit a control signal instructing the display device 160 to turn on the display device 160 based on data reception from a pressure sensor (not shown).
상술한 실시 예들에서, 프로세서(120)는 그립 센서(226) 또는 압력 센서(미도시)로부터 데이터를 수신하는 것으로 설명되었지만, 이에 한정되는 것은 아니다. 예를 들어, 프로세서(120)는, 사용자가 전자 장치 사용을 위해 주머니(또는 가방)에서 상기 전자 장치를 꺼내는 경우, 급격한 조도 값의 변화에 기반하여, 조도 센서(미도시)로부터 데이터를 수신할 수 있다. 프로세서(120)는 조도 센서(미도시)로부터 데이터를 수신하는 것에 기반하여, 표시 장치(160)를 활성화할 것을 지시하는 제어 신호를 송신할 수 있다.In the above embodiments, the processor 120 has been described as receiving data from the grip sensor 226 or a pressure sensor (not shown), but is not limited thereto. For example, the processor 120 may receive data from an illuminance sensor (not shown) based on a sudden change in illuminance value when the user removes the electronic device from a pocket (or bag) for use. Can be. The processor 120 may transmit a control signal instructing to activate the display device 160 based on receiving data from an illumination sensor (not shown).
동작 703에서, 프로세서(120)는 제1 터치 입력을 가이드하는 정보를 표시할 수 있다. 프로세서(120)는, 표시 장치(160)에게 사용자의 지문 인증을 위한 제1 터치 입력을 가이드하는 정보를 표시할 것을 지시(indicating)하는 제어 신호를 송신할 수 있다. 제1 터치 입력을 가이드하는 정보는 지문의 형상 및 이와 유사한 형상을 포함하는 이미지일 수 있다. 제1 터치 입력을 가이드하는 정보는 지문 입력을 가이드하기 위한 텍스트(예: "지문을 입력하세요" 또는 "손가락을 올려주세요")를 더 포함할 수 있다. 표시 장치(160)는, 프로세서(120)로부터 제어 신호에 기반하여, 제1 터치 입력을 가이드하는 정보를 표시할 수 있다. 이에 따라, 지문 인증을 위한 제1 터치 입력이 표시 장치(160) 내에 지문 센서(224)가 위치하는 영역에 수신될 수 있다.In operation 703, the processor 120 may display information guiding the first touch input. The processor 120 may transmit a control signal instructing the display device 160 to display information guiding a first touch input for fingerprint authentication of the user. The information guiding the first touch input may be an image including a shape of a fingerprint and a shape similar thereto. The information for guiding the first touch input may further include text for guiding the fingerprint input (eg, “Please enter a fingerprint” or “Raise a finger”). The display device 160 may display information guiding the first touch input based on a control signal from the processor 120. Accordingly, the first touch input for fingerprint authentication may be received in an area where the fingerprint sensor 224 is located in the display device 160.
동작 705에서, 프로세서(120)는 지문 센서(224)를 통해, 제1 이미지를 획득할 수 있다. 지문 센서(224)는 지문 내에 위치하는 골 영역 및 마루 영역에 의해 반사되는 빛의 세기 차이에 기반하여, 제1 터치 입력에 따른 지문의 이미지를 획득할 수 있다. 상기 제1 터치 입력에 따른 지문의 이미지는 제1 이미지로 언급될 수 있다. 지문 센서(224)는 수신된 빛의 세기에 대한 아날로그 데이터를 디지털 데이터로 변환하고, 이미지 처리를 수행함으로써, 상기 제1 이미지를 획득할 수 있다. In operation 705, the processor 120 may acquire a first image through the fingerprint sensor 224. The fingerprint sensor 224 may acquire an image of the fingerprint according to the first touch input based on the difference in the intensity of light reflected by the valley area and the floor area located in the fingerprint. An image of the fingerprint according to the first touch input may be referred to as a first image. The fingerprint sensor 224 may acquire the first image by converting analog data about received light intensity into digital data and performing image processing.
도 8은 본 발명의 다양한 실시 예들에 따라 지문의 상태가 제1 상태에 대응하는지 결정하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다. 8 illustrates an example of an operation of an electronic device to determine whether a state of a fingerprint corresponds to a first state according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG.
도 8에 도시된 동작 801 내지 동작 805는 도 5에 도시된 동작 503과 관련될 수 있다. Operations 801 to 805 illustrated in FIG. 8 may relate to operation 503 illustrated in FIG. 5.
도 8을 참조하면, 동작 801에서, 프로세서(120)는 제1 이미지의 제2 영역과, 기준 이미지의 제4 영역의 일치율이 제1 임계 값보다 크거나 같은지 여부를 결정할 수 있다. 즉, 프로세서(120)는 기준 이미지와 제1 이미지를 비교함으로써, 골(435) 영역에 대응되는 영역의 겹침 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지의 제2 영역과 기준 이미지의 제4 영역이 약 95% 이상 동일하지 않은 경우, 인증된 사용자가 아닌 제3자에 의한 터치 입력으로 결정할 수 있다. 제1 이미지의 제2 영역은 땀, 유분과 같은 물질(material)의 유무에 관계없이 존재하는 골(435) 영역에 따라, 제2 색상을 가지는 영역이기 때문이다. 다른 예를 들어, 프로세서(120)는 제1 이미지의 제2 영역 및 기준 이미지의 제4 영역이 약 95% 이상 동일한 경우, 제1 이미지가 인증된 사용자의 지문에 대한 이미지임을 결정할 수 있다. 따라서, 프로세서(120)는 지문의 상태에 의해 지문 인증이 실패하였는지 결정하기 위하여, 동작 803을 수행할 수 있다.Referring to FIG. 8, in operation 801, the processor 120 may determine whether a matching ratio between the second area of the first image and the fourth area of the reference image is greater than or equal to the first threshold value. That is, the processor 120 may determine whether the regions corresponding to the valley 435 regions overlap by comparing the reference image with the first image. For example, when the second area of the first image and the fourth area of the reference image are not equal to each other by about 95% or more, the processor 120 may determine the touch input by a third party, not an authenticated user. This is because the second region of the first image is a region having a second color according to the region of the valley 435 that exists regardless of the presence of a material such as sweat or oil. In another example, when the second area of the first image and the fourth area of the reference image are about 95% or more identical, the processor 120 may determine that the first image is an image of a fingerprint of an authenticated user. Accordingly, the processor 120 may perform operation 803 to determine whether fingerprint authentication has failed due to the state of the fingerprint.
상술한 실시 예들에서, 제1 임계 값이 약 95%와 동일한 값으로 설명되었으나, 본 발명은 이에 한정되는 것은 아니다. 프로세서(120)는 사용자의 보안 설정에 따라, 제1 임계 값을 다양한 값으로 설정할 수 있다. 예를 들어, 사용자가 높은 보안 등급의 지문 인증을 요구하는 경우, 제1 임계 값은 약 99%으로 설정될 수 있다. 구체적인 제1 임계 값은 이에 한정되지 않으며, 다양한 값을 가질 수 있다.In the above-described embodiments, the first threshold value has been described as the same value as about 95%, but the present invention is not limited thereto. The processor 120 may set the first threshold value to various values according to the security setting of the user. For example, if the user requires a high security fingerprint authentication, the first threshold may be set to about 99%. The specific first threshold value is not limited thereto and may have various values.
동작 803에서, 프로세서(120)는 제1 이미지의 제1 영역과, 기준 이미지의 제3 영역의 일치율이 제2 임계 값보다 크거나 같은지 결정할 수 있다. 즉, 프로세서(120)는 기준 이미지와 제1 이미지를 비교함으로써, 마루(302) 영역의 겹침 여부를 판단할 수 있다. 예를 들어, 프로세서(120)는 제1 이미지의 제1 영역과 기준 이미지의 제3 영역이 약 70% 이상으로 동일하지 않은 경우, 지문의 상태가 제1 상태 또는 제2 상태에 대응되는지 결정하지 않을 수 있다. 일 실시 예에 따라, 프로세서(120)는 제1 이미지에 관한 구체적인 정보를 획득하기 위하여, 제1 터치 입력을 가이드하는 정보를 다시 표시할 수 있다. 다른 예를 들어, 프로세서(120)는 제1 이미지의 제1 영역과 기준 이미지의 제3 영역이 약 70% 이상 동일함을 검출할 수 있다.In operation 803, the processor 120 may determine whether a match rate between the first area of the first image and the third area of the reference image is greater than or equal to a second threshold value. That is, the processor 120 may determine whether the floor 302 overlaps by comparing the reference image with the first image. For example, the processor 120 does not determine whether the state of the fingerprint corresponds to the first state or the second state when the first region of the first image and the third region of the reference image are not equal to about 70% or more. You may not. According to an embodiment of the present disclosure, the processor 120 may display information guiding the first touch input again in order to obtain specific information about the first image. In another example, the processor 120 may detect that the first area of the first image and the third area of the reference image are about 70% or more the same.
동작 805에서, 프로세서(120)는 지문의 상태가 제1 상태에 대응함을 확인할 수 있다. 프로세서(120)는, 제1 이미지 및 기준 이미지에 기반하여, 전자 장치(101)의 인증된 사용자의 지문은 해당하지만, 상기 지문의 상태가 제1 상태에 대응되는 것을 결정할 수 있다. 이후, 프로세서(120)는 지문의 제1 상태를 제2 상태로 변경하기 위해, 제2 터치 입력을 가이드하는 정보를, 표시 장치(160)를 통해 표시할 수 있다.In operation 805, the processor 120 may determine that the state of the fingerprint corresponds to the first state. The processor 120 may determine that the fingerprint of the authenticated user of the electronic device 101 corresponds to the first state based on the first image and the reference image. Thereafter, the processor 120 may display the information guiding the second touch input through the display device 160 to change the first state of the fingerprint to the second state.
도 9는 다양한 실시 예들에 따른 제2 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 흐름도를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.9 is a flowchart of an electronic device for displaying information guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 9의 동작 901 내지 동작 909는 도 5의 동작 505와 관련될 수 있다. Operations 901 to 909 of FIG. 9 may be related to operation 505 of FIG. 5.
도 9를 참조하면, 동작 901에서, 프로세서(120)는 제1 지점 및 제2 지점을 포함하는 그래픽 오브젝트(예: 도형)를 상기 제2 터치 입력을 가이드하는 정보로 표시할 수 있다. 상기 제1 지점 및 상기 제2 지점은, 표시 장치(160) 내에 위치하는 서로 상이한 지점들을 포함할 수 있다. 상기 제1 지점 및 상기 제2 지점은 사용자의 터치 입력에 의해 구분될 수 있는 최소한의 거리만큼 이격된 서로 상이한 지점들을 포함할 수 있다. 상기 제1 지점 및 제2 지점을 포함하는 그래픽 오브젝트는 사용자의 드래그 입력을 가이드하기 위한 형상일 수 있다. 예를 들어, 상기 그래픽 오브젝트는 다양한 형상(예: 별 모양, 원 모양, 사각형 모양, 또는 삼각형 모양)을 가질 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 드래그 입력을 가이드하기 위한 텍스트(예: "지문인증을 위해 화면상의 별 모양을 그려주세요")를 추가적으로 표시할 수 있다.Referring to FIG. 9, in operation 901, the processor 120 may display a graphic object (eg, a figure) including a first point and a second point as information guiding the second touch input. The first point and the second point may include different points located in the display device 160. The first point and the second point may include different points spaced apart by a minimum distance that may be distinguished by a user's touch input. The graphic object including the first point and the second point may have a shape for guiding a drag input of the user. For example, the graphic object may have various shapes (eg, star shape, circle shape, square shape, or triangle shape). The processor 120 may additionally display text (eg, “draw a star on the screen for fingerprint authentication”) for guiding the drag input through the display device 160.
일 실시 예에 따라, 도 10을 참조하면, 프로세서(120)는, 지문의 상태가 제1 상태에 대응됨을 검출함에 기반하여, 별 형상의 도형(1001)을 표시할 수 있다. 프로세서(120)는 사용자의 인지를 향상시키기 위해, 드래그 입력을 가이드하기 위한 텍스트(1003)를 더 표시할 수 있다.According to an embodiment, referring to FIG. 10, the processor 120 may display a star-shaped figure 1001 based on detecting that the state of the fingerprint corresponds to the first state. The processor 120 may further display the text 1003 for guiding the drag input to improve the user's perception.
동작 903에서, 프로세서(120)는 제1 지점 및 제2 지점을 포함하는 드래그 입력을 검출할 수 있다. 프로세서(120)는 TSP 모듈(222)을 통해, 드래그 입력을 검출할 수 있다. 상기 드래그 입력은 제1 지점 및 제2 지점을 포함할 수 있다.In operation 903, the processor 120 may detect a drag input including the first point and the second point. The processor 120 may detect a drag input through the TSP module 222. The drag input may include a first point and a second point.
일 실시 예에 따라, 도 10을 참조하면, 프로세서(120)는 표시 장치(160)를 통해, 검출된 드래그 입력에 따른 애니메이션 효과를 추가할 수 있다. 예를 들어, 프로세서(120)는 별 형상의 도형에 겹치도록 표시되는 선(1005)를 추가로 표시할 수 있다.According to an embodiment, referring to FIG. 10, the processor 120 may add an animation effect according to the detected drag input through the display device 160. For example, the processor 120 may further display a line 1005 that is displayed to overlap the star-shaped figure.
동작 905에서, 프로세서(120)는 도형이 표시된 전체 영역에서 드래그 입력이 검출되는지 판단할 수 있다. 프로세서(120)는, TSP 모듈(222)로부터 드래그 입력이 검출된 모든 영역에 관한 정보를 수신할 수 있다. 프로세서(120)는 상기 도형이 표시된 영역이 상기 드래그 입력이 검출된 영역에 포함되는지 판단할 수 있다. In operation 905, the processor 120 may determine whether a drag input is detected in the entire area where the figure is displayed. The processor 120 may receive information about all areas from which the drag input is detected from the TSP module 222. The processor 120 may determine whether an area in which the figure is displayed is included in an area in which the drag input is detected.
예를 들어, 상기 도형이 표시된 영역이 상기 드래그 입력이 검출된 영역을 모두 포함하는 경우, 프로세서(120)는 상기 도형이 표시된 영역을 따라 드래그 입력이 검출되었음을 결정할 수 있다. 프로세서(120)는, 상기 도형이 표시된 영역에 따른 드래그 입력을 검출하고, 제2 상태로 변경된 지문에 대한 제2 이미지를 획득하기 위해, 동작 907을 수행할 수 있다.For example, when the region in which the figure is displayed includes all of the regions in which the drag input is detected, the processor 120 may determine that the drag input is detected along the region in which the figure is displayed. The processor 120 may perform operation 907 to detect a drag input corresponding to an area where the figure is displayed and to obtain a second image of the fingerprint changed to the second state.
다른 예를 들어, 상기 도형이 표시된 영역이 상기 드래그 입력이 검출된 영역을 모두 포함하지 않는 경우, 프로세서(120)는 상기 도형이 표시된 영역을 따라 드래그 입력이 검출되지 않았음을 결정할 수 있다. 프로세서(120)는, 상기 도형이 표시된 전체 영역에서 드래그 입력이 검출될 때까지, 표시 장치(160)를 통해 상기 도형의 표시를 유지할 수 있다. For another example, when the region in which the figure is displayed does not include all of the regions in which the drag input is detected, the processor 120 may determine that the drag input is not detected along the region in which the figure is displayed. The processor 120 may maintain the display of the figure through the display device 160 until a drag input is detected in the entire region where the figure is displayed.
동작 907에서, 프로세서(120)는 제3 지점을 통해, 지문에 대한 제2 이미지를 획득할 수 있다. 상기 제3 지점은 표시 장치(160) 내에서 지문 센서가 위치하는 영역에 대응될 수 있다. 상기 제3 지점은 상기 제1 지점 및 상기 제2 지점과 상이한 영역에 대응할 수 있다. 프로세서(120)는, 표시 장치(160)를 통해, 상기 제3 지점이 위치하는 영역 상으로 지문 입력을 가이드하는 정보를 표시할 수 있다. 지문 입력을 가이드하는 정보는 지문의 형상 또는 이와 유사항 형상을 포함하는 이미지일 수 있다. 지문 입력을 가이드하는 정보는, 지문 입력을 가이드하기 위한 텍스트(예: "지문을 입력하세요" 또는 "손가락을 올려주세요")를 더 포함할 수 있다. 프로세서(120)는 상기 제3 지점에 대응되는 지문 센서(224)를 통해, 지문에 대한 제2 이미지를 획득할 수 있다. 제2 이미지는 지문의 상태가 제1 상태에서 제2 상태로 변경된 지문에 대한 이미지를 포함할 수 있다. 제2 이미지는, 지문 내의 마루(302) 영역에 위치하는 작은 골(304) 영역이 땀, 유분과 같은 물질(material)에 의해 채워진 상태의 지문에 대한 이미지일 수 있다.In operation 907, the processor 120 may acquire a second image of the fingerprint through the third point. The third point may correspond to an area in which the fingerprint sensor is located in the display device 160. The third point may correspond to an area different from the first point and the second point. The processor 120 may display information for guiding a fingerprint input on an area where the third point is located through the display device 160. The information guiding the fingerprint input may be an image including the shape of the fingerprint or the like. The information for guiding the fingerprint input may further include text for guiding the fingerprint input (eg, “Please enter a fingerprint” or “Raise a finger”). The processor 120 may acquire a second image of the fingerprint through the fingerprint sensor 224 corresponding to the third point. The second image may include an image of the fingerprint in which the state of the fingerprint is changed from the first state to the second state. The second image may be an image of a fingerprint in which a small valley 304 region located in the ridge 302 region in the fingerprint is filled with a material such as sweat or oil.
미 도시되었지만, 프로세서(120)는, 제1 지점 또는 제2 지점에 대응되는 영역 상에 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 예를 들어, 프로세서(120)는, 표시 장치(160)를 통해, 상기 제1 지점에 대응되는 영역 상에, 지문 입력을 가이드하는 정보를 표시할 수 있다. 이에 따라, 프로세서(120)는 상기 표시된 도형에 입력된 사용자의 드래그 입력만으로, 제2 이미지를 획득할 수 있다.Although not shown, the processor 120 may display an interface for guiding a fingerprint input on an area corresponding to the first point or the second point. For example, the processor 120 may display information for guiding a fingerprint input on an area corresponding to the first point through the display device 160. Accordingly, the processor 120 may obtain the second image by only the drag input of the user input to the displayed figure.
동작 909에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반하여, 지문 인증을 수행할 수 있다. 프로세서(120)는 이미지 매칭(image matching) 기법에 기반하여, 상기 제2 이미지 및 기준 이미지를 비교할 수 있다. 예를 들어, 프로세서(120)는 지문 인증 결과에 기반하여, 지문이 일치한다고 결정한 경우, 상기 전자 장치(101)의 잠금 상태를 해제할 수 있다. 다른 예를 들어, 프로세서(120)는 지문 인증 결과에 기반하여, 지문의 불일치를 검출한 경우, 상기 전자 장치(101)의 잠금 상태를 유지하고, 지문 입력을 가이드하는 인터페이스를 다시 표시할 수 있다.In operation 909, the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. The processor 120 may compare the second image and the reference image based on an image matching technique. For example, when it is determined that the fingerprints match, the processor 120 may release the lock state of the electronic device 101 based on the fingerprint authentication result. For another example, when detecting a fingerprint mismatch, the processor 120 may maintain the lock state of the electronic device 101 and display the interface for guiding the fingerprint input again based on a fingerprint authentication result. .
도 11은 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.11 illustrates an example of an operation of an electronic device displaying information guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 11의 동작 1101 내지 동작 1109는 도 5의 동작 505와 관련될 수 있다. Operations 1101 to 1109 of FIG. 11 may be related to operation 505 of FIG. 5.
도 11을 참조하면, 동작 1101에서, 프로세서(120)는 표시 장치(160)를 통해, 격자로 배열되는 다수의 객체들을 표시할 수 있다. 상기 격자로 배열되는 다수의 객체들은, 도 12에 도시된 바와 같이, 원(circle)의 형상을 가질 수 있다. 또한, 미 도시되었지만, 상기 격자로 배열되는 다수의 객체들 각각은, 별(star), 사각형(rectangular), 삼각형(triangle), 다양한 형상 또는 이미지를 포함할 수 있다. Referring to FIG. 11, in operation 1101, the processor 120 may display a plurality of objects arranged in a grid through the display device 160. The plurality of objects arranged in the grid may have a shape of a circle, as shown in FIG. 12. In addition, although not shown, each of the plurality of objects arranged in the grid may include a star, a rectangle, a triangle, various shapes or images.
일 실시 예에 따라, 상기 격자로 배열되는 다수의 객체들 각각은, 동일한 형상 또는 서로 상이한 형상을 가질 수 있다. 예를 들어, 프로세서(120)는 도 12에 도시된 바와 같이, 격자로 배열된 다수의 원형 객체들(1201 내지 1209)을 표시할 수 있다. 다른 실시 예에 따라, 미 도시되었지만, 프로세서(120)는 상기 격자로 배열된 다수의 객체들 각각의 객체를 상이한 형상으로 표시할 수 있다. 상기 격자로 배열된 다수의 객체들 중 터치가 입력된 적어도 일부의 객체들의 순서는 잠금 해제를 위한 패턴 정보로서 이용될 수 있다. 프로세서(120)는 메모리(130)를 통해, 인증된 사용자에 의해 미리 설정된 패턴 정보를 저장할 수 있다. According to an embodiment, each of the plurality of objects arranged in the grid may have the same shape or different shapes from each other. For example, the processor 120 may display a plurality of circular objects 1201 to 1209 arranged in a grid, as shown in FIG. 12. According to another embodiment, although not shown, the processor 120 may display the objects of each of the plurality of objects arranged in the grid in different shapes. The order of at least some of the objects to which a touch is input among the plurality of objects arranged in the grid may be used as pattern information for unlocking. The processor 120 may store pattern information preset by an authenticated user through the memory 130.
동작 1103에서, 프로세서(120)는, TSP 모듈(222)을 통해, 적어도 일부 객체들로 입력되는 제2 터치 입력을 검출할 수 있다. 프로세서(120)는 제2 터치 입력에 따라 결정되는 적어도 일부의 객체들의 순서를 입력 패턴으로 저장할 수 있다. In operation 1103, the processor 120 may detect a second touch input input to at least some objects through the TSP module 222. The processor 120 may store an order of at least some objects determined according to the second touch input as an input pattern.
일 실시 예에 따라, 도 12를 참조하면, 프로세서(120)는 제2 터치 입력의 궤적(1210)을 검출할 수 있다. 따라서, 프로세서(120)는 객체(1201), 객체(1202), 객체(1203), 객체(1206), 객체(1205), 객체(1204), 객체(1207), 객체(1208)의 순서로 진행되는 제2 터치 입력을 검출할 수 있다. 프로세서(120)는 제2 터치 입력의 궤적(1210)에 대응되는 객체들의 순서를 제2 터치 입력의 패턴으로 저장할 수 있다. 다른 실시 예에 따라, 프로세서(120)는 표시 장치(160)를 통해 제2 터치 입력의 궤적(1210)에 대응하는 터치 영역 상으로, 선을 표시함으로써 애니메이션 효과를 표시할 수 있다. 또한, 프로세서(120)는, 상기 격자로 배열된 다수의 객체들 중 제2 터치 입력의 궤적(1210)상에 위치하는 객체들에게 애니메이션 효과를 제공할 수 있다. 프로세서(120)는 제2 터치 입력이 검출되는 객체들의 색(color)를 변경하거나, 크기를 확대하여 표시할 수 있다. 예를 들어, 프로세서(120)는 제2 터치 입력의 궤적(1210)의 진행에 따라, 객체(1202), 객체(1203), 객체(1206), 객체(1205), 객체(1204), 객체(1207), 객체(1208)의 순서로, 터치가 입력되는 객체의 크기를 확대하거나, 색을 변경할 수 있다. 이에 따라, 사용자는 제2 터치 입력의 궤적(1210) 및 상기 격자로 배열된 다수의 객체들에 부여되는 애니메이션 효과에 기반하여, 터치 입력이 수신되는 영역을 실시간으로 식별할 수 있다.According to an embodiment, referring to FIG. 12, the processor 120 may detect the trajectory 1210 of the second touch input. Accordingly, the processor 120 proceeds in the order of the object 1201, the object 1202, the object 1203, the object 1206, the object 1205, the object 1204, the object 1207, and the object 1208. The second touch input can be detected. The processor 120 may store the order of the objects corresponding to the trajectory 1210 of the second touch input as a pattern of the second touch input. According to another embodiment, the processor 120 may display an animation effect by displaying a line on the touch area corresponding to the trajectory 1210 of the second touch input through the display device 160. In addition, the processor 120 may provide animation effects to objects positioned on the trajectory 1210 of the second touch input among the plurality of objects arranged in the grid. The processor 120 may change the color of the objects for which the second touch input is detected or enlarge the size of the objects. For example, the processor 120 according to the progress of the trajectory 1210 of the second touch input, the object 1202, the object 1203, the object 1206, the object 1205, the object 1204, the object ( 1207, in order of the object 1208, the size of the object to which the touch is input may be enlarged or the color may be changed. Accordingly, the user may identify in real time an area where the touch input is received, based on the trajectory 1210 of the second touch input and the animation effect applied to the plurality of objects arranged in the grid.
동작 1105에서, 프로세서(120)는 기 저장된 패턴과 제2 터치 입력의 패턴이 일치하는지 여부를 결정할 수 있다. 예를 들어, 인증된 사용자에 의해 저장되고, 전자 장치(101)의 잠금 해제를 위한 패턴과 제2 터치 입력의 패턴이 일치하는 경우, 프로세서(120)는 지문 입력을 가이드하는 정보를 표시할 수 있다. In operation 1105, the processor 120 may determine whether the previously stored pattern and the pattern of the second touch input match. For example, when stored by an authenticated user and the pattern for unlocking the electronic device 101 and the pattern of the second touch input match, the processor 120 may display information guiding the fingerprint input. have.
다른 예를 들어, 전자 장치(101)의 잠금 해제를 위한 패턴과 제2 터치 입력의 패턴이 불일치하는 경우, 프로세서(120)는 표시 장치(160)를 통해, 상기 격자로 배열되는 다수의 객체들을 계속 표시할 수 있다. 상기 패턴이 불일치하는 경우, 제2 터치 입력의 사용자는, 인증된 사용자와 상이할 수 있기 때문이다. For another example, when the pattern for unlocking the electronic device 101 and the pattern of the second touch input do not match, the processor 120 may display a plurality of objects arranged in the grid through the display device 160. You can continue to display. This is because the user of the second touch input may be different from the authenticated user when the pattern is inconsistent.
미 도시되었지만, 프로세서(120)는 기 저장된 패턴과 제2 터치 입력의 패턴의 일치에 기반하여, 지문 입력을 가이드하는 인터페이스를 표시할 수도 있다. 이에 따라, 프로세서(120)는 전자 장치의 잠금 해제를 위한 패턴 정보의 일치 및 기준 이미지와 제2 이미지의 일치에 기반하여, 잠금 상태를 해제할 수 있으므로, 보안이 더 강화될 수 있다.Although not shown, the processor 120 may display an interface for guiding the fingerprint input based on the matching of the pre-stored pattern and the pattern of the second touch input. Accordingly, the processor 120 may release the lock state based on the matching of the pattern information for unlocking the electronic device and the matching of the reference image and the second image, thereby further enhancing security.
동작 1107에서, 프로세서(120)는 지문 센서(224)를 통해 제2 이미지를 획득할 수 있다. 상기 제2 이미지는, 드래그 입력 이후에 지문 센서(224)를 통해 입력되는 지문에 대한 이미지를 포함할 수 있다. 지문 센서(224)는 드래그 입력에 따라 제2 상태로 변경된 지문에 대한 제2 이미지를 획득할 수 있다. In operation 1107, the processor 120 may acquire a second image through the fingerprint sensor 224. The second image may include an image of the fingerprint input through the fingerprint sensor 224 after the drag input. The fingerprint sensor 224 may acquire a second image of the fingerprint changed to the second state according to the drag input.
일 실시 예에 따라, 지문 센서(224)는 기 저장된 패턴과 제2 터치 입력의 패턴의 일치에 기반하여, 지문 입력에 따른 제2 이미지를 획득할 수 있다. 예를 들어, 기 저장된 패턴과 제2 터치 입력의 패턴이 일치하지 않는 경우, 지문 센서(224)는 제2 이미지를 생성하지 않을 수 있다. 다른 예를 들어, 지문 센서(224)는 기 저장된 패턴과 제2 터치 입력의 패턴의 일치에 기반하여, 상기 일치 이후에 반사되어 수신되는 경로 A를 가지는 빛과 경로 B를 가지는 빛의 세기 차이에 기반한 제2 이미지를 생성할 수 있다. 예를 들어, 지문 센서(420)는 반사된 경로 A의 빛을 수신하고, 제1 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 반사된 경로 B의 빛을 수신하고, 제2 값을 가지는 밝기의 빛을 검출할 수 있다. 지문 센서(420)는 이미지 처리를 통해, 반사된 경로 A의 빛에 상응하는 제1 값의 밝기의 값이 반사된 경로 B의 빛에 상응하는 제2 밝기의 값보다 큼을 인식할 수 있다. 반사된 경로 B는 윈도우 글래스와 접촉하고 있는 지문의 마루 영역(431)으로 일부 흡수되기 때문에, 제2 밝기의 값은 제1 밝기의 값보다 더 작을 수 있다. 따라서, 지문 센서(420)는 지문의 골 영역(432)에 대응되는 위치는 반사된 경로 A의 빛을 수신할 수 있고, 지문의 마루 영역(431)에 대응되는 위치상으로 반사된 경로 B의 빛을 수신할 수 있다. 지문 센서(224)는 수신한 빛을 반전시킴으로써 지문 도3a의 지문의 제2 상태에 대응되는 이미지(310) 또는 도3b에 도시된 지문의 제1 상태에 대응되는 이미지(320)를 획득할 수 있다.According to an embodiment of the present disclosure, the fingerprint sensor 224 may acquire a second image according to the fingerprint input based on the matching of the pre-stored pattern and the pattern of the second touch input. For example, if the previously stored pattern and the pattern of the second touch input do not match, the fingerprint sensor 224 may not generate the second image. For another example, the fingerprint sensor 224 is based on the matching of the pre-stored pattern and the pattern of the second touch input, the fingerprint sensor 224 is based on the difference between the intensity of the light having the path A and the light having the path B is reflected and received after the matching Based on the second image may be generated. For example, the fingerprint sensor 420 may receive the reflected light of the path A, and detect the light having the first value. The fingerprint sensor 420 may receive the reflected path B light and detect light having a second brightness. Through the image processing, the fingerprint sensor 420 may recognize that the value of the brightness of the first value corresponding to the light of the reflected path A is greater than the value of the second brightness corresponding to the light of the reflected path B. Since the reflected path B is partially absorbed into the floor area 431 of the fingerprint in contact with the window glass, the value of the second brightness may be smaller than the value of the first brightness. Accordingly, the fingerprint sensor 420 may receive the light of the path A reflected at the location corresponding to the valley area 432 of the fingerprint, and the path B of the path B reflected onto the location corresponding to the floor area 431 of the fingerprint. Can receive light. The fingerprint sensor 224 may acquire the image 310 corresponding to the second state of the fingerprint of FIG. 3A or the image 320 corresponding to the first state of the fingerprint shown in FIG. 3B by inverting the received light. have.
동작 1109에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반하여 지문 인증을 수행할 수 있다. 동작 1109는 도 9의 동작 909에 대응될 수 있다.In operation 1109, the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1109 may correspond to operation 909 of FIG. 9.
도 13은 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.13 illustrates an example of an operation of an electronic device that displays information for guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 13의 동작 1301 내지 동작 1307는 도 5의 동작 505와 관련될 수 있다. Operation 1301 to operation 1307 of FIG. 13 may be related to operation 505 of FIG. 5.
도 13을 참조하면, 동작 1301에서, 프로세서(120)는 제1 터치 입력을 검출하기 전에, 터치 입력이 수신된 영역에 관한 정보를 확인할 수 있다. 프로세서(120)는, 메모리(130)에게 제1 터치 입력이 입력되기 이전 시점에 수신된 터치 입력과 관련된 영역에 관한 정보를 요청할 수 있다. 일 예로, 프로세서(120)는 제1 이미지에 기반하여, 지문의 상태가 제1 상태에 대응함을 판단할 수 있다. 프로세서(120)는 상기 판단에 기반하여, 가장 가까운 시간에 터치 입력이 수신된 영역에 관한 정보를 메모리(130)로부터 리드(read)할 수 있다. 다른 예로, 프로세서(120)는 일정 임계 값 이상의 면적을 가지고, 일정 시간 구간 이내에 수신된 터치 입력의 영역에 관련된 정보를 수신할 수 있다. 또 다른 예로, 프로세서(120)는 일정 시간 구간 이내에, 일정 횟수 이상의 터치 입력이 수신된 영역에 관한 정보를 수신할 수 있다. 즉, 프로세서(120)는 특정 시각(예: 지문의 상태가 제1 상태에 대응되는 것으로 결정한 시각)으로부터 일정 시간 구간 이내의 터치 입력에 관련된 영역의 정보를 확인할 수 있다. Referring to FIG. 13, in operation 1301, the processor 120 may check information regarding an area where a touch input is received, before detecting the first touch input. The processor 120 may request information about an area related to the touch input received before the first touch input is input to the memory 130. For example, the processor 120 may determine that the state of the fingerprint corresponds to the first state based on the first image. The processor 120 may read information from the memory 130 regarding the region in which the touch input is received at the closest time based on the determination. As another example, the processor 120 may receive information related to an area of a touch input received within a predetermined time interval, having an area equal to or greater than a predetermined threshold value. As another example, the processor 120 may receive information about an area in which a touch input is received a predetermined number of times or more within a predetermined time interval. That is, the processor 120 may check information on an area related to a touch input within a predetermined time interval from a specific time (eg, a time when the state of the fingerprint is determined to correspond to the first state).
일 실시 예에 따라, 도 14a를 참조하면, 프로세서(120)는 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 사용자는 음성 통화를 위해 사용자의 귀(ear)에 상기 전자 장치(101)를 접촉할 수 있다. 이에 따라, 사용자 얼굴의 측면(side)과 상기 전자 장치(101)의 표시 장치(160)간에 터치 입력이 발생할 수 있다. 상기 터치 입력은 일정 크기의 면적을 가질 수 있고, 표시 장치(160)의 전면 또는 상단의 적어도 일부 영역을 통해 수신될 수 있다. 상기 적어도 일부 영역은 원 영역(1410)으로 표현될 수 있다. TSP 모듈(222)은 수신된 터치 입력의 위치 및 면적에 관한 정보를 상기 터치가 입력된 시간에 매핑하고, 메모리(130)에게 송신할 수 있다. 예를 들어, TSP 모듈(222)은 표시 장치(160)상에서 수신된 터치 입력의 위치 및 면적(예: 원 영역(1410))에 관한 정보를 상기 터치 입력이 수신된 시간(예: 오전 11시 10분)에 매핑할 수 있다.According to an embodiment, referring to FIG. 14A, the processor 120 may receive a user's touch input. For example, the user may contact the electronic device 101 with the ear of the user for a voice call. Accordingly, a touch input may occur between the side of the user's face and the display device 160 of the electronic device 101. The touch input may have an area of a predetermined size and may be received through at least a portion of the front or top of the display device 160. The at least some area may be represented by the original area 1410. The TSP module 222 may map information regarding the position and area of the received touch input to the time when the touch is input and transmit the information to the memory 130. For example, the TSP module 222 may provide information regarding the location and area (eg, the original area 1410) of the touch input received on the display device 160 at a time when the touch input is received (eg, 11 am). 10 minutes).
일 실시 예에 따라, 도 14b를 참조하면, 프로세서(120)는 사용자의 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는 표시 장치(160)를 통해 사용자의 문자 입력을 위한 가상 키보드를 표시 장치(160) 하단부에 표시할 수 있다. 프로세서(120)는 가상 키보드 상으로 입력되는 다수의 터치 입력들을 수신할 수 있다. According to an embodiment, referring to FIG. 14B, the processor 120 may receive a user's touch input. For example, the processor 120 may display a virtual keyboard for inputting a user's text through the display device 160 at the bottom of the display device 160. The processor 120 may receive a plurality of touch inputs input on the virtual keyboard.
동작 1303에서, 프로세서(120)는 확인된 영역 상에, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 확인된 영역은 가까운 시간 이내에 터치 입력이 검출된 영역에 대응될 수 있다. 따라서, 땀, 유분과 같은 물질(material)이 상기 확인된 영역상의 표시 장치(160)에 존재할 수 있다. 따라서, 프로세서(120)는 지문의 상태를 제1 상태에서 제2 상태로 변경하기 위해, 상기 확인된 영역상에 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 제2 터치 입력을 가이드하는 정보는, 제1 지점 및 제2 지점을 포함하는 도형, 격자로 배열된 다수의 객체들, 특정 방향을 지시하는 화살표를 포함할 수 있다. In operation 1303, the processor 120 may display information guiding the second touch input on the identified region. The identified area may correspond to an area where a touch input is detected within a short time. Thus, a material such as sweat or oil may be present in the display device 160 on the identified area. Accordingly, the processor 120 may display information guiding the second touch input on the identified area in order to change the state of the fingerprint from the first state to the second state. The information guiding the second touch input may include a figure including a first point and a second point, a plurality of objects arranged in a grid, and arrows indicating a specific direction.
일 실시 예에 따라, 도 14a를 참고하면, 프로세서(120)는 표시 장치(160)를 통해, 터치 입력의 위치, 면적 및 시간에 관한 정보에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 일 실시 예에 따라, 프로세서(120)는 지문의 상태가 제1 상태에 대응되는 것을 검출한 경우, 상기 검출 이전에 수신된 터치 입력들 터치 면적이 넓은 터치 영역에 관한 정보에 기반하여, 제2 터치 입력을 가이드하기 위한 정보를 표시할 수 있다. 예를 들어, 표시 장치(160)상에서 원 영역(1410)을 통해, 별 형상의 도형을 표시할 수 있다.According to an embodiment, referring to FIG. 14A, the processor 120 displays information for guiding the second touch input through the display device 160 based on information about the location, area, and time of the touch input. can do. According to an embodiment of the present disclosure, when the processor 120 detects that the state of the fingerprint corresponds to the first state, the processor 120 based on the information regarding the touch area having a large touch area received before the detection, Information for guiding a touch input may be displayed. For example, a star shape may be displayed on the display device 160 through the circle region 1410.
일 실시 예에 따라, 도 14b를 참조하면, 프로세서(120)는, 표시 장치(160)를 통해, 터치 입력의 위치, 면적 및 시간에 관한 정보에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문의 상태가 제1 상태에 대응되는 것을 검출한 경우, 상기 검출 시각으로부터 일정 시간 구간 이내에 멀티 터치가 발생한 영역에 관한 정보에 기반하여, 제2 터치 입력을 가이드하기 위한 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 표시 장치(160)를 통해, 사각형 영역(1420)을 통해, 별 형상의 도형을 표시할 수 있다. According to an embodiment, referring to FIG. 14B, the processor 120 may provide information for guiding the second touch input through the display device 160 based on information about the location, area, and time of the touch input. I can display it. For example, when the processor 120 detects that the state of the fingerprint corresponds to the first state, the processor 120 guides the second touch input based on the information about the region where the multi-touch occurs within a predetermined time interval from the detection time. Information to be displayed can be displayed. For example, the processor 120 may display a star-shaped figure through the display device 160 and through the rectangular area 1420.
일 실시 예에 따라, 도 14c를 참조하면, 프로세서(120)는, 표시 장치(160)를 통해, 터치 입력의 위치, 면적, 및 시간에 관한 정보에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문의 상태가 제1 상태에 대응되는 것을 검출한 경우, 상기 검출 시각으로부터 일정 구간 이내에 수신된 터치 입력들 중, 일정 크기 이상의 면적을 통해 수신된 터치 입력을 식별할 수 있다. 프로세서(120)는 메모리(130)로부터 이전에 수신된 터치 입력에 관한 정보를 수신함으로써, 일정 크기 이상의 면적에 대응하는 터치 입력을 식별할 수 있다. 프로세서(120)는 상기 식별된 터치 입력에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 메모리(130)로부터, 식별된 터치 입력의 영역에 관련된 정보를 수신할 수 있다. 이에 기반하여, 프로세서(120)는, 제2 터치 입력을 가이드하기 위해, 물방울 형상을 상기 영역상에 표시할 수 있다. 프로세서(120)는 제2 터치 입력을 가이드하기 위한 텍스트(예: "지문 인증을 위해 물방울을 지워주세요")를 표시할 수 있다. 일 실시 예에 따라, 프로세서(120)는, 표시 장치(160)를 통해, 제2 터치 입력에 대응하는 효과를 표시할 수 있다. 예를 들어, 프로세서(120)는 상기 물방울 형상을 포함하는 영역으로 수신된 터치 입력에 대응하여, 터치 입력이 수신된 영역의 물방울 형상을 일부 표시하지 않을 수 있다. 따라서, 사용자는, 표시 장치(160)를 통해, 제2 터치 입력에 따라 대응되는 영역상에 위치한 물방울 형상의 적어도 일부가 지워지는 효과를 경험할 수 있다.According to an embodiment, referring to FIG. 14C, the processor 120 guides the second touch input through the display device 160 based on information about the location, area, and time of the touch input. Can be displayed. For example, when the processor 120 detects that the state of the fingerprint corresponds to the first state, the processor 120 identifies the touch input received through a predetermined size or more among touch inputs received within a predetermined interval from the detection time. can do. The processor 120 may identify a touch input corresponding to an area of a predetermined size or more by receiving information about a touch input previously received from the memory 130. The processor 120 may display information guiding the second touch input based on the identified touch input. For example, the processor 120 may receive information related to an area of the identified touch input from the memory 130. Based on this, the processor 120 may display a droplet shape on the area to guide the second touch input. The processor 120 may display text for guiding the second touch input (eg, “drop water droplets for fingerprint authentication”). According to an embodiment of the present disclosure, the processor 120 may display an effect corresponding to the second touch input through the display device 160. For example, the processor 120 may not partially display the droplet shape of the region in which the touch input is received, in response to the touch input received in the region including the droplet shape. Accordingly, the user may experience the effect of deleting at least a portion of the droplet shape located on the corresponding area according to the second touch input through the display device 160.
미 도시되었지만, 프로세서(120)는 상기 확인된 영역상에, 격자로 배열된 다수의 객체들 또는 특정 방향을 지시하는 화살표를 표시할 수도 있다.Although not shown, the processor 120 may display a plurality of objects arranged in a grid or arrows indicating a specific direction on the identified area.
동작 1305에서, 프로세서(120)는 지문 센서(224)를 통해, 제2 이미지를 획득할 수 있다. 지문 센서(224)는 사용자의 제2 터치 입력 이후에 지문 인식을 위한 터치 입력을 수신할 수 있다. 일 실시예에 따라, 프로세서(120)는 사용자의 제2 터치 입력에 의해 제2 상태로 변경된 지문 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문 센서(224)의 위치에 상응하는 표시 장치(160)의 영역상에 지문에 관련된 이미지를 표시할 수 있다. 지문 센서(224)는 상기 지문 인식을 위한 터치 입력에 기반하여, 상기 제2 터치 입력에 의해 제2 상태로 변경된 지문에 대한 이미지를 획득할 수 있다. 동작1305는 도 11의 동작 1107에 대응될 수 있다.In operation 1305, the processor 120 may acquire a second image through the fingerprint sensor 224. The fingerprint sensor 224 may receive a touch input for fingerprint recognition after the second touch input of the user. According to an embodiment of the present disclosure, the processor 120 may display information for guiding a fingerprint input changed to a second state by a user's second touch input. For example, the processor 120 may display an image related to a fingerprint on an area of the display device 160 corresponding to the position of the fingerprint sensor 224. The fingerprint sensor 224 may acquire an image of a fingerprint changed to a second state by the second touch input based on the touch input for fingerprint recognition. Operation 1305 may correspond to operation 1107 of FIG. 11.
동작 1307에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반한 지문 인증을 수행할 수 있다. 동작 1307는 도 11의 동작 1109에 대응될 수 있다.In operation 1307, the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1307 may correspond to operation 1109 of FIG. 11.
도 15는 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.15 illustrates an example of an operation of an electronic device displaying information guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 15의 동작 1501 내지 동작 1507는 도 5의 동작 505와 관련될 수 있다. Operations 1501 through 1507 of FIG. 15 may be related to operation 505 of FIG. 5.
도 15를 참고하면, 동작 1501에서, 프로세서(120)는 일정 압력 값 이상의 터치 입력을 검출할 수 있다. 프로세서(120)는 압력 센서(미도시)상의 일정 영역을 통해 터치 입력을 수신할 수 있다. 압력 센서(미도시)는 표시 장치(160) 하단의 중앙부에 위치할 수 있다. 압력 센서(미도시)는 수신된 터치 입력이 일정 압력 값 이상인지 판단할 수 있다. 구체적으로, 압력 센서(미도시)는 유전율 변화의 크기에 따라, 터치 입력의 구체적인 압력 값을 획득할 수 있다.Referring to FIG. 15, in operation 1501, the processor 120 may detect a touch input having a predetermined pressure value or more. The processor 120 may receive a touch input through a predetermined area on a pressure sensor (not shown). The pressure sensor (not shown) may be located at the center of the bottom of the display device 160. The pressure sensor (not shown) may determine whether the received touch input is equal to or greater than a predetermined pressure value. Specifically, the pressure sensor (not shown) may acquire a specific pressure value of the touch input according to the magnitude of the change in the dielectric constant.
동작 1503에서, 프로세서(120)는 하단의 면으로부터 표시 장치(160)의 중앙을 향하는 화살표를 표시할 수 있다. 프로세서(120)는 일정 압력 값 이상의 터치 입력을 검출한 경우, 표시 장치(160)에게, 표시 장치(160)를 on 상태로 변경할 것을 제어하는 신호를 송신할 수 있다. 프로세서(120)는 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 상기 정보는 특정 방향을 지시하는 화살표에 관련된 이미지일 수 있다. 예를 들어, 상기 화살표는 표시 장치(160)의 외곽을 구성하는 네 개의 면들 중 하단(bottom)의 면으로부터 상기 표시 장치(160)의 중앙을 향하도록 지시할 수 있다. 프로세서(120)는, 표시 장치(160)를 통해 제2 터치 입력을 가이드하기 위한 텍스트(예: "Drag" 또는 "화살표 방향으로 드래그 하세요")를 추가적으로 표시할 수 있다.In operation 1503, the processor 120 may display an arrow from the bottom surface toward the center of the display device 160. When the processor 120 detects a touch input with a predetermined pressure value or more, the processor 120 may transmit a signal for controlling the display device 160 to be turned on. The processor 120 may display information for guiding the second touch input. The information may be an image related to an arrow indicating a specific direction. For example, the arrow may indicate that the arrow points toward the center of the display device 160 from the bottom surface of the four surfaces forming the outline of the display device 160. The processor 120 may additionally display text (eg, “drag” or “drag in the direction of the arrow”) for guiding the second touch input through the display device 160.
동작 1505에서, 프로세서(120)는 제2 터치 입력을 검출할 수 있다. 상기 사용자는, 표시 장치(160)를 통해 표시되는 화살표 및/또는 텍스트에 기반하여, 제2 터치 입력을 제공할 수 있다. 상기 제2 터치 입력은 드래그 입력을 포함할 수 있다. In operation 1505, the processor 120 may detect a second touch input. The user may provide a second touch input based on an arrow and / or text displayed through the display device 160. The second touch input may include a drag input.
동작 1507에서, 프로세서(120)는 검출된 터치 입력의 방향 및 표시된 화살표 방향이 일치하는지 결정할 수 있다. 프로세서(120)는 검출된 제2 터치 입력에 기반하여, 제2 터치 입력의 방향을 식별할 수 있다. 예를 들어, 프로세서(120)는 제2 터치 입력이 가해지는(press) 좌표 및 제2 터치 입력이 해제(release)되는 좌표간에 차이에 기반하여, 제2 터치 입력의 방향을 식별할 수 있다. 프로세서(120)는 검출된 제2 터치 입력의 방향과 상기 화살표에 의해 지시되는 방향이 일치하는지 결정할 수 있다. In operation 1507, the processor 120 may determine whether the direction of the detected touch input coincides with the displayed arrow direction. The processor 120 may identify the direction of the second touch input based on the detected second touch input. For example, the processor 120 may identify the direction of the second touch input based on the difference between the coordinate at which the second touch input is applied and the coordinate at which the second touch input is released. The processor 120 may determine whether the detected direction of the second touch input coincides with the direction indicated by the arrow.
일 실시 예에 따라, 프로세서(120)는 제2 터치 입력의 방향과 화살표에 의해 지시되는 방향이 일치하지 않음을 검출할 수 있다. 프로세서(120)는 화살표가 지시하는 방향을 가지는 제2 터치 입력을 수신하기 위해, 표시 장치(160)를 통해, 상기 화살표의 표시를 유지할 수 있다. According to an embodiment of the present disclosure, the processor 120 may detect that the direction indicated by the arrow does not coincide with the direction of the second touch input. The processor 120 may maintain the display of the arrow through the display device 160 to receive a second touch input having a direction indicated by the arrow.
다른 실시 예에 따라, 프로세서(120)는 제2 터치 입력의 방향과 화살표에 의해 지시되는 방향의 일치를 검출할 수 있다. 프로세서(120)는 상기 일치에 따라, 지문 입력을 가이드하는 정보를 표시할 수 있다. 일 실시 예에 따라, 도 16을 참조하면, 프로세서(120)는 지문 입력을 가이드하는 이미지 및 텍스트를 표시할 수 있다. 예를 들어, 프로세서(120)는 지문 입력을 가이드하기 위한 텍스트(예: "지문 touch")을 표시할 수 있다. 프로세서(120)는 지문 입력을 가이드하는 인터페이스(예: 지문 형상 또는 이와 유사한 형상의 이미지)를 표시할 수 있다. According to another embodiment, the processor 120 may detect coincidence between the direction of the second touch input and the direction indicated by the arrow. The processor 120 may display information for guiding a fingerprint input according to the match. According to an embodiment, referring to FIG. 16, the processor 120 may display an image and text guiding a fingerprint input. For example, the processor 120 may display text (eg, “fingerprint touch”) for guiding a fingerprint input. The processor 120 may display an interface (eg, a fingerprint shape or similar image) for guiding a fingerprint input.
동작 1509에서, 프로세서(120)는 지문 센서(224)를 통해, 제2 이미지를 획득할 수 있다. 지문 센서(224)는 지문 센서(224)를 통해 사용자의 제2 터치 입력 이후에 지문 인식을 위한 터치 입력을 수신할 수 있다. 상기 제2 이미지는, 제2 터치 입력에 따라, 지문의 상태가 제1 상태에서 제2 상태로 변경된 지문에 대한 이미지를 포함할 수 있다. 프로세서(120)는 지문 센서(224)에 대응하는 표시 장치(160)의 영역 상에 지문 입력을 가이드하는 인터페이스(예: 지문 또는 이와 유사한 형상의 이미지)를 표시할 수 있다. 프로세서(120)는 상기 인터페이스에 따라 사용자로부터 제공되는 지문 입력을 위한 터치를 수신할 수 있다. 상기 지문 입력을 위한 터치에 응답하여, 지문 센서(224)는 제2 상태로 변경된 지문에 대한 이미지를 획득할 수 있다. 동작 1509는 도 11의 동작 1107에 대응될 수 있다.In operation 1509, the processor 120 may acquire a second image through the fingerprint sensor 224. The fingerprint sensor 224 may receive a touch input for fingerprint recognition after the second touch input of the user through the fingerprint sensor 224. The second image may include an image of a fingerprint in which the state of the fingerprint is changed from the first state to the second state according to the second touch input. The processor 120 may display an interface (eg, a fingerprint or an image of a similar shape) that guides fingerprint input on an area of the display device 160 corresponding to the fingerprint sensor 224. The processor 120 may receive a touch for fingerprint input provided from a user according to the interface. In response to the touch for fingerprint input, the fingerprint sensor 224 may obtain an image of the fingerprint changed to the second state. Operation 1509 may correspond to operation 1107 of FIG. 11.
동작 1511에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반하여, 지문 인증을 수행할 수 있다. 동작 1511는 도 11의 동작 1109에 대응될 수 있다.In operation 1511, the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1511 may correspond to operation 1109 of FIG. 11.
도 17은 본 발명의 다양한 실시 예들에 따라 제2 터치 입력을 가이드하는 정보를 표시하는 전자 장치의 동작의 예를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.17 illustrates an example of an operation of an electronic device that displays information for guiding a second touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 17의 동작 1701 내지 동작 1707는 도 5의 동작 505와 관련될 수 있다. Operations 1701 to 1707 of FIG. 17 may be related to operation 505 of FIG. 5.
도 17를 참고하면, 동작 1701에서, 프로세서(120)는 그립 센서(226)를 통해, 전자 장치(101)를 파지한 손의 방향을 식별할 수 있다. 그립 센서(226)는 좌측 방향의 자기장 변화의 크기 및 우측 방향의 자기장 변화의 크기를 비교함으로써, 상기 전자 장치(101)를 파지한 손의 방향을 식별할 수 있다. 프로세서(120)는 그립 센서(226)로부터 수신한 데이터에 기반하여, 상기 전자 장치(101)가 사용자에 의해 파지되었음 및 상기 전자 장치(101)를 파지한 손의 방향을 식별할 수 있다. 예를 들어, 그립 센서(226)는 좌측 자기장 변화의 크기가 우측 자기장 변화의 크기보다 큰 경우, 왼손에 의해 파지되었음을 식별할 수 있다.Referring to FIG. 17, in operation 1701, the processor 120 may identify a direction of a hand holding the electronic device 101 through the grip sensor 226. The grip sensor 226 may identify the direction of the hand holding the electronic device 101 by comparing the magnitude of the magnetic field change in the left direction and the magnitude of the magnetic field change in the right direction. The processor 120 may identify that the electronic device 101 is held by the user and the direction of the hand holding the electronic device 101 based on the data received from the grip sensor 226. For example, the grip sensor 226 may identify that the grip by the left hand when the magnitude of the left magnetic field change is greater than the magnitude of the right magnetic field change.
동작 1703에서, 프로세서(120)는 식별된 방향에 기반하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 프로세서(120)는 그립 센서(226)로부터 수신한 정보에 기반하여, 상기 전자 장치(101)를 파지하고 있는 손의 방향을 식별할 수 있다. 프로세서(120)는, 식별된 손의 방향에 따라, 적응적으로 제2 터치 입력을 가이드하는 정보를 표시할 수 있다. 예를 들어, 상기 전자 장치(101)가 사용자의 왼손에 의해 파지된 경우, 프로세서(120)는 표시 장치(160)를 통해, 오른쪽을 향하는 화살표를 표시할 수 있다. 상기 화살표는, 표시 장치(160)의 외곽을 구성하는 네 개의 면들 중 좌측 면으로부터 표시 장치(160)의 중심부를 향하도록 방향을 지시할 수 있다. 다른 예를 들어, 상기 전자 장치(101)가 사용자의 오른손에 의해 파지된 경우, 프로세서(120)는 표시 장치(160)를 통해, 왼쪽을 향하는 화살표를 표시할 수 있다. 상기 화살표는, 표시 장치(160)의 외곽을 구성하는 네 개의 면들 중 우측 면으로부터 표시 장치(160)의 중심부를 향하도록 방향을 지시할 수 있다. 일 실시 예에 따르면, 프로세서(120)는 제2 터치 입력을 가이드하기 위한 텍스트("왼쪽으로 드래그 하세요","오른쪽으로 드래그 하세요" 또는 "Drag")를 함께 상기 화살표와 함께 표시할 수 있다. 프로세서(120)는 상기 화살표 및/또는 텍스트에 의해 입력되는 제2 터치 입력을 수신할 수 있다. 예를 들어, 프로세서(120)는 제2 터치 입력을 검출하고, 상기 검출된 제2 터치 입력의 방향 및 상기 화살표에 의해 지시되는 방향이 일치하는지 판단할 수 있다. 구체적으로, 프로세서(120)는 드래그 입력의 시작 좌표 및 해제 좌표를 식별함으로써 제2 터치 입력의 방향을 식별할 수 있다. 프로세서(120)는 식별된 제2 터치 입력의 방향과 상기 화살표에 의해 지시되는 방향이 일치하는 경우, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다.In operation 1703, the processor 120 may display information for guiding the second touch input based on the identified direction. The processor 120 may identify the direction of the hand holding the electronic device 101 based on the information received from the grip sensor 226. The processor 120 may adaptively display the information for guiding the second touch input according to the identified hand direction. For example, when the electronic device 101 is held by the user's left hand, the processor 120 may display an arrow pointing to the right through the display device 160. The arrow may indicate a direction from the left side to the center of the display unit 160 among the four surfaces forming the outline of the display device 160. For another example, when the electronic device 101 is gripped by the user's right hand, the processor 120 may display an arrow pointing to the left through the display device 160. The arrow may indicate a direction from the right side of the four surfaces forming the outline of the display device 160 toward the center of the display device 160. According to an embodiment of the present disclosure, the processor 120 may display text ("drag to the left", "drag to the right", or "Drag") together with the arrow to guide the second touch input. The processor 120 may receive a second touch input input by the arrow and / or text. For example, the processor 120 may detect the second touch input and determine whether the detected direction of the second touch input coincides with the direction indicated by the arrow. In detail, the processor 120 may identify the direction of the second touch input by identifying a start coordinate and a release coordinate of the drag input. When the direction of the identified second touch input coincides with the direction indicated by the arrow, the processor 120 may display an interface for guiding the fingerprint input.
일 실시 예에 따라, 도 18a 및 도 18b를 참조하면, 프로세서(120)는, 표시 장치(160)를 통해 지문 센서(224)의 위치에 대응되는 영역상에, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 전자 장치(101)는 다수의 지문 센서들을 포함할 수 있고, 다수의 지문 센서들은 표시 장치(160) 영역에 균일하게 배치될 수 있다. 따라서, 프로세서(120)는 다수의 지문 센서들 중 하나의 지문 센서를 적응적으로 활성화할 수 있다. According to an embodiment, referring to FIGS. 18A and 18B, the processor 120 displays an interface for guiding a fingerprint input on an area corresponding to the position of the fingerprint sensor 224 through the display device 160. can do. The electronic device 101 may include a plurality of fingerprint sensors, and the plurality of fingerprint sensors may be uniformly disposed in an area of the display device 160. Thus, the processor 120 may adaptively activate one of the plurality of fingerprint sensors.
예를 들어, 사용자가 왼손으로 전자 장치(101)를 파지한 경우, 프로세서(120)는 표시 장치(160)의 좌측 상단에 위치하는 지문 센서를 활성화할 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 좌측 상단에 위치하는 지문 센서의 영역 상에, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. For example, when the user grips the electronic device 101 with his left hand, the processor 120 may activate a fingerprint sensor located at the upper left of the display device 160. The processor 120 may display an interface for guiding a fingerprint input on the area of the fingerprint sensor positioned at the upper left side through the display device 160.
다른 예를 들어, 사용자가 오른손으로 전자 장치(101)를 파지한 경우, 프로세서(120)는 표시 장치(160)의 우측 상단에 위치하는 지문 센서를 활성화할 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 우측 상단에 위치하는 지문 센서의 영역 상에, 지문 입력을 가이드하는 인터페이스를 표시할 수 있다. 지문 입력을 가이드하는 인터페이스는 지문의 형상 및 이와 유사한 형상을 포함하는 이미지일 수 있다. 이에 따라, 사용자는 왼손으로 전자 장치(101)를 파지한 경우, 상대적으로 멀리 위치한 하단의 지문 센서 대신에, 상대적으로 가깝게 위치한 좌측의 지문 센서를 통해 지문을 입력할 수 있다.For another example, when the user grips the electronic device 101 with his right hand, the processor 120 may activate a fingerprint sensor located at the upper right side of the display device 160. The processor 120 may display an interface for guiding a fingerprint input on the area of the fingerprint sensor positioned at the upper right side through the display device 160. The interface for guiding the fingerprint input may be an image including the shape of the fingerprint and the like. Accordingly, when the user grips the electronic device 101 with his left hand, the user may input a fingerprint through a fingerprint sensor on a relatively close position instead of a fingerprint sensor on a relatively far bottom.
동작 1705에서, 프로세서(120)는 지문 센서(224)를 통해 제2 이미지를 획득할 수 있다. 지문 센서(224)는 지문 센서(224)를 통해 사용자의 제2 터치 입력 이후에 지문 인식을 위한 터치 입력을 수신할 수 있다. 상기 제2 이미지는, 제2 터치 입력에 따라, 지문의 상태가 제1 상태에서 제2 상태로 변경된 지문에 대한 이미지를 포함할 수 있다. 일 실시예에 따라, 프로세서(120)는 사용자의 전자 장치(101)에 대한 파지 방향에 대응하는 지문 센서를 활성화 시킴으로써 상기 제2 이미지를 수신할 수 있다. 예를 들어, 도 18a를 참조하면, 프로세서(120)는 사용자가 전자 장치(101)를 왼손으로 파지했음을 지시하는 정보에 기반하여 다수의 지문 센서들 중 왼쪽 상단의 지문 센서를 활성화시키고, 상기 제2 이미지를 수신할 수 있다. 다른 예를 들어, 도 18b를 참조하면, 프로세서(120)는 사용자가 전자 장치(101)를 오른손으로 파지했음을 지시하는 정보에 기반하여 다수의 지문 센서들 중 오른쪽 상단의 지문 센서를 활성화시키고, 상기 제2 이미지를 수신할 수 있다. 동작 1705는 도 11의 동작 1107에 대응될 수 있다. 동작 1707에서, 프로세서(120)는 획득된 제2 이미지 및 기준 이미지에 기반한 지문 인증을 수행할 수 있다. 동작 1707는 도 11의 동작 1109에 대응될 수 있다.In operation 1705, the processor 120 may acquire a second image through the fingerprint sensor 224. The fingerprint sensor 224 may receive a touch input for fingerprint recognition after the second touch input of the user through the fingerprint sensor 224. The second image may include an image of a fingerprint in which the state of the fingerprint is changed from the first state to the second state according to the second touch input. According to an embodiment of the present disclosure, the processor 120 may receive the second image by activating a fingerprint sensor corresponding to a holding direction of the user's electronic device 101. For example, referring to FIG. 18A, the processor 120 activates the fingerprint sensor in the upper left side of the plurality of fingerprint sensors based on information indicating that the user grips the electronic device 101 with his left hand. 2 Images can be received. For another example, referring to FIG. 18B, the processor 120 activates a fingerprint sensor on the upper right side of the plurality of fingerprint sensors based on information indicating that the user has gripped the electronic device 101 with his right hand. The second image may be received. Operation 1705 may correspond to operation 1107 of FIG. 11. In operation 1707, the processor 120 may perform fingerprint authentication based on the obtained second image and the reference image. Operation 1707 may correspond to operation 1109 of FIG. 11.
도 19는 본 발명의 다양한 실시 예들에 따른 제1 터치 입력을 가이드하는 정보를 표시하기 위한 전자 장치의 흐름도를 도시한다. 이러한 동작은, 도 2에 도시된 프로세서(120)에 의해 수행될 수 있다.19 is a flowchart illustrating an electronic device for displaying information guiding a first touch input according to various embodiments of the present disclosure. This operation may be performed by the processor 120 shown in FIG. 2.
도 19를 참조하면, 동작 1901에서, 프로세서(120)는 디스플레이가 off 상태로 동작하는 동안, 사용자의 터치 입력을 검출할 수 있다. 프로세서(120)는 TSP 모듈(222)을 통해, 표시 장치(160)의 on/off 상태에 관계 없이 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 표시 장치(160)가 블랭크 스크린 또는 블랙 스크린을 표시하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 예를 들어, 표시 장치(160)가 on 상태로 동작하는 동안, 사용자의 터치 입력을 수신할 수 있다. TSP 모듈(222)은, 수신된 터치 입력의 표시 장치(160)상의 위치 및 수신된 터치 입력의 면적에 관한 정보를 프로세서(120)에게 제공할 수 있다. 프로세서(120)는 TSP 모듈(222)로부터 제공받은 터치 입력에 관한 정보에 기반하여, 어플리케이션을 실행하거나, 표시 장치(160)의 표시를 변경할 수 있다. Referring to FIG. 19, in operation 1901, the processor 120 may detect a user's touch input while the display is in an off state. The processor 120 may receive a touch input through the TSP module 222 regardless of the on / off state of the display device 160. The TSP module 222 may receive a user's touch input while the display device 160 displays the blank screen or the black screen. The TSP module 222 may receive a user's touch input, for example, while the display device 160 operates in the on state. The TSP module 222 may provide the processor 120 with information about the location of the received touch input on the display device 160 and the area of the received touch input. The processor 120 may execute an application or change the display of the display device 160 based on the information about the touch input provided from the TSP module 222.
상기 TSP 모듈(222)은, 사용자의 터치가 입력된 표시 장치(160) 내의 위치 및 면적에 관한 정보를 상기 터치가 입력된 시간에 매핑하고, 메모리(130)에 저장할 수 있다. 사용자의 터치 입력에 따라, 상기 터치 입력이 수신된 위치의 표시 장치(160) 상에, 땀, 유분과 같은 물질(material)이 존재할 수 있다.The TSP module 222 may map information about a location and an area of the display device 160 where a user's touch is input to the time when the touch is input, and store the information in the memory 130. According to the user's touch input, a material such as sweat or oil may be present on the display device 160 at the location where the touch input is received.
동작 1903에서, 프로세서(120)는 검출된 터치 입력의 위치가 다수의 지문 센서들의 위치에 포함되는지 결정할 수 있다. 프로세서(120)는, 메모리(130)에 저장된 정보에 기반하여, 다수의 지문 센서들 중 적어도 하나의 지문 센서의 위치에 대응하는 영역상으로 터치 입력이 수신된 적이 있는지 확인할 수 있다. 예를 들어, 프로세서(120)는 검출된 터치 입력의 위치가 다수의 지문 센서들 중 적어도 하나의 지문 센서의 위치를 포함하는 경우, 디스플레이가 off 상태로 동작하는 동안, 지문 센서가 위치하는 영역 상에 터치 입력이 발생하였음을 결정할 수 있다.In operation 1903, the processor 120 may determine whether the location of the detected touch input is included in the location of the plurality of fingerprint sensors. The processor 120 may determine whether a touch input has been received on an area corresponding to the location of at least one fingerprint sensor among the plurality of fingerprint sensors based on the information stored in the memory 130. For example, if the position of the detected touch input includes the position of at least one of the plurality of fingerprint sensors, the processor 120 may operate on the area where the fingerprint sensor is located while the display is in an off state. It may be determined that a touch input has occurred.
일 실시 예에 따라, 도 20a 및 도 20b를 참조하면, 프로세서(120)는, TSP 모듈(222)을 통해, 표시 장치(160)의 off 상태에서 수신된 터치 입력을 검출할 수 있다. 예를 들어, 사용자는 표시 장치(160)가 off 상태로 동작하는 동안, 좌측 하단의 영역(2010)을 터치할 수 있다. 터치 입력이 검출된 영역은 다수의 지문 센서들 중 하나의 지문 센서가 배치된 영역과 동일할 수 있다. 프로세서(120)는 터치 입력이 검출된 좌측 하단의 영역(2010)이 다수의 지문 센서 영역들의 위치(2010 내지 2060)에 포함됨을 결정할 수 있다. According to an embodiment, referring to FIGS. 20A and 20B, the processor 120 may detect a touch input received in the off state of the display device 160 through the TSP module 222. For example, the user may touch the area 2010 on the lower left side while the display device 160 operates in the off state. The area where the touch input is detected may be the same as the area where one fingerprint sensor of the plurality of fingerprint sensors is disposed. The processor 120 may determine that the region 2010 at the lower left where the touch input is detected is included in the positions 2010 to 2060 of the plurality of fingerprint sensor regions.
다른 예를 들어, 프로세서(120)는 검출된 터치 입력의 위치가 다수의 지문 센서들의 위치를 포함하지 않는 경우, 디스플레이가 off로 동작하는 동안, 지문 센서가 위치하는 영역 이외의 영역에서 터치 입력이 발생하였음을 결정할 수 있다. 프로세서(120)는 표시 장치(160)를 통해, 드래그 입력을 통해 지문 센서가 위치하는 영역과 구별되는 상이한 영역에 존재하는 땀, 또는 유분과 같은 기타 물질(materal)을 획득하기 위하여, 제2 터치 입력을 가이드하는 정보를 표시할 수 있다.In another example, if the location of the detected touch input does not include the location of the plurality of fingerprint sensors, the processor 120 may not display the touch input in an area other than the area where the fingerprint sensor is located while the display is turned off. It can be determined that it has occurred. The processor 120 may, via the drag input, acquire a second touch through the display device 160 to acquire other materials, such as sweat or oil, which are present in a different area from the area where the fingerprint sensor is located. Information to guide the input can be displayed.
동작 1905에서, 프로세서(120)는 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시할 수 있다. 프로세서(120)는 검출된 터치 입력의 위치에 기반하여, 하나의 지문 센서를 식별할 수 있다. 식별된 지문 센서는 좌측하단의 영역(2010)에 위치하는 지문 센서일 수 있다. 프로세서(120)는 식별된 지문 센서에 대한 좌측 하단의 영역(2010)상에 지문 입력을 가이드하는 정보를 표시할 수 있다. 지문 입력을 가이드하는 정보는 지문의 형상 또는 이와 유사한 형상의 이미지를 포함할 수 있다.In operation 1905, the processor 120 may display information for guiding the fingerprint input at the position of the detected touch input. The processor 120 may identify one fingerprint sensor based on the detected position of the touch input. The identified fingerprint sensor may be a fingerprint sensor located in the area 2010 in the lower left corner. The processor 120 may display information for guiding a fingerprint input on an area 2010 on the lower left side of the identified fingerprint sensor. Information guiding the fingerprint input may include an image of a fingerprint or similar shape.
동작 1907에서, 프로세서(120)는 지문 이미지를 획득할 수 있다. 프로세서(120)는 지문 센서(224)를 통해, 수신된 터치 입력에 대한 지문 이미지를 획득할 수 있다. 상기 지문 이미지는, 제2 상태(예: 지문이 건조하지 않은 상태, 또는 지문에 유분이 존재하는 상태)에 대응될 수 있다. 사용자의 터치 입력 시, 작은 골 영역은 지문 센서가 위치하는 영역상에 존재하는 유분을 획득할 수 있다. 따라서, 획득된 지문은 제2 상태에 대응될 수 있다. 프로세서(120)는 사용자의 드래그 입력을 가이드하는 정보를 표시하지 않고, 지문 인식의 인식률을 향상시킬 수 있다.In operation 1907, the processor 120 may acquire a fingerprint image. The processor 120 may acquire a fingerprint image of the received touch input through the fingerprint sensor 224. The fingerprint image may correspond to a second state (eg, a state in which the fingerprint is not dry or a state in which oil is present in the fingerprint). When the user inputs a touch, the small valley area may acquire an oil present on the area where the fingerprint sensor is located. Thus, the obtained fingerprint may correspond to the second state. The processor 120 may improve the recognition rate of fingerprint recognition without displaying information for guiding a user's drag input.
동작 1909에서, 프로세서(120)는 획득된 지문 이미지 및 기준 이미지에 기반하여, 지문 인증을 수행할 수 있다. 동작 1909은, 도 17의 동작 1707에 대응될 수 있다.In operation 1909, the processor 120 may perform fingerprint authentication based on the obtained fingerprint image and the reference image. Operation 1909 may correspond to operation 1707 of FIG. 17.
한편, 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, in the detailed description of the present disclosure, specific embodiments have been described. However, various modifications may be possible without departing from the scope of the present disclosure. Therefore, the scope of the present disclosure should not be limited to the described embodiments, but should be determined not only by the scope of the following claims, but also by the equivalents of the claims.

Claims (15)

  1. 전자 장치에 있어서,In an electronic device,
    터치 디스플레이;Touch display;
    상기 터치 디스플레이의 적어도 일부 영역에 형성된 지문 센서;A fingerprint sensor formed on at least a portion of the touch display;
    메모리; 및Memory; And
    프로세서를 포함하고, 상기 프로세서는,A processor, wherein the processor,
    상기 터치 디스플레이를 통해 검출되는 상기 적어도 일부 영역에 대한 제1 터치 입력에 기반하여, 상기 지문 센서를 이용하여 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하고,Obtaining a first image of a fingerprint of a user associated with the first touch input using the fingerprint sensor, based on a first touch input of the at least some area detected through the touch display,
    상기 획득된 제1 이미지 및 상기 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하고, 및Confirming that the state of the fingerprint corresponds to a first state based on the obtained first image and a reference image for the fingerprint stored in the memory, and
    상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하도록 설정되는 전자 장치.Based on the confirmation, the electronic device is configured to display, on the touch display, information for guiding a second touch input for changing the state of the fingerprint from the first state to the second state.
  2. 청구항 1에 있어서, The method according to claim 1,
    상기 프로세서는,The processor,
    상기 터치 디스플레이를 통해, 상기 적어도 일부 영역에 대한 제3 터치 입력을 수신하고, Through the touch display, receive a third touch input for the at least some area,
    상기 제3 터치 입력에 기반하여, 상기 제2 상태로 변경된 상기 지문에 대한 제2 이미지를 획득하고,Based on the third touch input, obtain a second image of the fingerprint changed to the second state,
    상기 획득된 제2 이미지 및 상기 기준 이미지에 기반하여, 상기 제2 이미지 미 상기 기준 이미지의 일치율을 판단하고, 및Based on the obtained second image and the reference image, determine a matching ratio of the second image to the reference image, and
    상기 일치율이 지정된 범위를 만족하는 경우, 상기 사용자를 인증된 사용자로 결정하도록 더 설정되는 전자 장치.And determine the user as an authenticated user when the matching rate satisfies a specified range.
  3. 청구항 2에 있어서, The method according to claim 2,
    상기 프로세서는,The processor,
    상기 터치 디스플레이의 제1 지점으로부터 제2 지점까지 드래그 입력을 가이드하기 위한 상기 제1 지점 및 상기 제2 지점을 포함하는 그래픽 오브젝트를 상기 정보로 표시하고, Displaying the graphic object including the first point and the second point for guiding a drag input from the first point to the second point of the touch display as the information,
    상기 제1 지점으로부터 상기 제2 지점까지 상기 드래그 입력을, 상기 그래픽 오브젝트에 대응되는 상기 터치 디스플레이의 적어도 일부 영역을 통해 검출하고,Detecting the drag input from the first point to the second point through at least a portion of the touch display corresponding to the graphic object;
    상기 터치 디스플레이 내부의 제3 지점에 위치하는 상기 지문 센서를 통해, 상기 제3 터치 입력을 수신하고,Receive the third touch input through the fingerprint sensor located at a third point inside the touch display,
    상기 제3 터치 입력에 기반하여, 상기 지문에 대한 상기 제2 이미지를 획득하고, 및Based on the third touch input, obtain the second image for the fingerprint, and
    상기 제2 이미지 및 상기 기준 이미지를 비교함으로써, 상기 사용자를 인증된 사용자로 결정하도록 설정되는 전자 장치.And determine the user as an authenticated user by comparing the second image and the reference image.
  4. 청구항 2에 있어서, The method according to claim 2,
    상기 프로세서는,The processor,
    상기 터치 디스플레이를 통해, 상기 터치디스플레이의 일면으로부터 상기 일면에 대면하는 다른(another) 일면으로 향하는 방향을 지시하기 위한 그래픽 오브젝트를 상기 정보로 표시하고, Displaying, through the touch display, a graphic object for indicating a direction from one surface of the touch display to another surface facing the one surface as the information;
    상기 터치 디스플레이를 통해, 상기 제2 터치 입력을 검출하고, 및Via the touch display, detect the second touch input, and
    상기 제2 터치 입력의 이동 방향과 상기 표시된 그래픽 오브젝트가 지시하는 방향이 일치하는지 확인하도록 더 설정되는 전자 장치.The electronic device is further configured to check whether a movement direction of the second touch input coincides with a direction indicated by the displayed graphic object.
  5. 청구항 4에 있어서, The method according to claim 4,
    적어도 하나의 압력 센서를 더 포함하고,Further comprises at least one pressure sensor,
    상기 프로세서는,The processor,
    상기 적어도 하나의 압력 센서를 통해, 임계 값 이상의 터치 입력을 검출하고, 및Detecting, via the at least one pressure sensor, a touch input of at least a threshold value, and
    상기 검출에 기반하여, 상기 터치 디스플레이를 통해 상기 그래픽 오브젝트를 표시하고,Based on the detection, displaying the graphic object via the touch display,
    상기 제2 터치 입력을 검출하고,Detect the second touch input,
    상기 검출된 제2 터치 입력의 이동 방향과 상기 그래픽 오브젝트가 지시하는 방향이 일치하는지 확인함으로써, 상기 제2 이미지를 획득하기 위한 다른(another) 그래픽 오브젝트를 표시하고, And displaying another graphic object for acquiring the second image by checking whether the detected movement direction of the second touch input coincides with the direction indicated by the graphic object.
    상기 표시된 다른 그래픽 오브젝트에 대응하는 제 3 터치 입력에 응답하여, 상기 지문 센서를 이용하여 상기 제2 이미지를 획득하고, 및In response to a third touch input corresponding to the other graphical object displayed, acquire the second image using the fingerprint sensor, and
    상기 획득된 제2 이미지 및 상기 기준 이미지에 기반하여, 상기 사용자를 인증된 사용자로 결정하도록 설정되는 전자 장치.And determine the user as an authenticated user based on the obtained second image and the reference image.
  6. 청구항 4에 있어서,The method according to claim 4,
    적어도 하나의 그립 센서를 더 포함하고,Further comprises at least one grip sensor,
    상기 프로세서는,The processor,
    상기 적어도 하나의 그립 센서를 통해, 상기 사용자가 상기 전자 장치를 파지한 손의 방향을 검출하고, 및Detecting, by the at least one grip sensor, the direction of the hand of the user holding the electronic device; and
    상기 손의 방향에 기반하여 상기 일면을 결정하도록 설정된 전자 장치.The electronic device is configured to determine the one surface based on the direction of the hand.
  7. 청구항 1에 있어서, The method according to claim 1,
    상기 제1 이미지는,The first image,
    상기 지문의 마루(Ridge) 영역에 대응하고, 제1 색상을 가지는 제1 영역 및 상기 지문의 골(Valley) 영역에 대응하고, 제2 색상을 가지는 제2 영역을 포함하고,A first area corresponding to a Ridge area of the fingerprint, a first area having a first color, and a second area corresponding to a Valley area of the fingerprint, and having a second color;
    상기 기준 이미지는, The reference image is,
    상기 지문의 마루 영역에 대응하고, 제1 색상을 가지는 제3 영역 및 상기 지문의 골 영역에 대응하고, 제2 색상을 가지는 제4 영역을 포함하고,A third area corresponding to the floor area of the fingerprint, a third area having a first color, and a fourth area corresponding to a valley area of the fingerprint, and having a second color,
    상기 프로세서는, The processor,
    상기 제1 이미지와 상기 기준 이미지를 비교함으로써, 상기 제1 이미지 내의 제1 색상을 가지는 제1 영역이 상기 기준 이미지 내의 제1 색상을 가지는 제3 영역과 상이함을 검출하고, 및Comparing the first image with the reference image, detecting that a first region having a first color in the first image is different from a third region having a first color in the reference image, and
    상기 검출에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것으로 결정하도록 설정되는 전자 장치.And determine to determine that the state of the fingerprint corresponds to the first state based on the detection.
  8. 청구항 7에 있어서, The method according to claim 7,
    상기 프로세서는,The processor,
    상기 기준 이미지의 상기 제4 영역 및 상기 제1 이미지의 상기 제2 영역을 비교함으로써, 상기 제4 영역 및 상기 제2 영역의 일치율이 제1 임계 값보다 크거나 같음을 검출하고,By comparing the fourth area of the reference image and the second area of the first image, detecting that a match rate of the fourth area and the second area is greater than or equal to a first threshold value,
    상기 기준 이미지의 상기 제3 영역 및 상기 제1 이미지의 상기 제1 영역을 비교함으로써, 상기 제3 영역 및 상기 제1 영역의 일치율이 제2 임계 값보다 크거나 같음을 검출하고, 및Comparing the third area of the reference image and the first area of the first image to detect that a match rate of the third area and the first area is greater than or equal to a second threshold value, and
    상기 제1 영역 내지 상기 제4 영역의 비교에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것을 결정하도록 설정되는 전자 장치.And determine to determine that the state of the fingerprint corresponds to the first state based on the comparison of the first area to the fourth area.
  9. 전자 장치에 있어서,In an electronic device,
    터치 디스플레이;Touch display;
    상기 터치 디스플레이의 하단에 배치되는 다수의 지문 센서;A plurality of fingerprint sensors disposed on the bottom of the touch display;
    메모리; 및Memory; And
    프로세서를 포함하고, 상기 프로세서는,A processor, wherein the processor,
    상기 터치 디스플레이를 통해 터치 입력을 검출하고,Detect a touch input through the touch display,
    상기 검출된 터치 입력의 위치가 상기 다수의 지문 센서들 중 적어도 하나의 지문 센서의 위치에 포함되는지 여부를 결정하고, Determine whether a position of the detected touch input is included in a position of at least one fingerprint sensor among the plurality of fingerprint sensors,
    상기 결정에 기반하여, 상기 검출된 터치 입력의 위치에 지문 입력을 가이드하는 정보를 표시하도록 설정되는 전자 장치.And based on the determination, display information guiding a fingerprint input at a position of the detected touch input.
  10. 전자 장치의 동작 방법에 있어서,In the operating method of the electronic device,
    터치 디스플레이를 통해 검출되는 적어도 일부 영역에 대한 제1 터치 입력에 기반하여, 지문 센서를 이용하여 상기 제1 터치 입력과 관련된 사용자의 지문에 대한 제1 이미지를 획득하는 동작과,Acquiring a first image of a user's fingerprint associated with the first touch input using a fingerprint sensor, based on a first touch input of at least some area detected through the touch display;
    상기 획득된 제1 이미지 및 메모리에 저장된 상기 지문에 대한 기준 이미지에 기반하여, 상기 지문의 상태가 제1 상태에 대응함을 확인하는 동작과,Confirming that a state of the fingerprint corresponds to a first state based on the obtained first image and a reference image of the fingerprint stored in a memory;
    상기 확인에 기반하여, 상기 지문의 상태를 상기 제1 상태로부터 제2 상태로 변경하기 위한 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하는 동작을 포함하는 방법.Based on the confirmation, displaying on the touch display information for guiding a second touch input for changing the state of the fingerprint from the first state to the second state.
  11. 청구항 10에 있어서, The method according to claim 10,
    상기 터치 디스플레이를 통해 검출되는 상기 적어도 일부 영역에 대한 제3 터치 입력에 기반하여, 상기 제2 상태로 변경된 상기 지문에 대한 제2 이미지를 획득하는 동작을 더 포함하는 방법.Obtaining a second image for the fingerprint changed to the second state based on a third touch input for the at least some area detected through the touch display.
  12. 청구항 11에 있어서, The method according to claim 11,
    상기 획득된 제2 이미지 및 상기 기준 이미지에 기반하여, 상기 제2 이미지 및 상기 기준 이미지의 일치율을 판단하는 동작과,Determining a matching ratio between the second image and the reference image based on the obtained second image and the reference image;
    상기 일치율이 지정된 범위를 만족하는 경우, 상기 사용자를 인증된 사용자로 결정하는 동작을 더 포함하는 방법.Determining the user as an authenticated user if the match rate satisfies a specified range.
  13. 청구항 11에 있어서, 상기 제2 터치 입력을 가이드하기 위한 정보를 상기 터치 디스플레이를 통해 표시하는 동작은,The method of claim 11, wherein displaying information for guiding the second touch input through the touch display comprises:
    상기 터치 디스플레이의 제1 지점으로부터 제2 지점까지 드래그 입력을 가이드하기 위한 상기 제1 지점 및 상기 제2 지점을 포함하는 그래픽 오브젝트를 상기 정보로 표시하는 동작과,Displaying a graphic object including the first point and the second point for guiding a drag input from the first point to the second point of the touch display as the information;
    상기 제1 지점으로부터 상기 제2 지점까지 상기 드래그 입력을, 상기 그래픽 오브젝트에 대응되는 상기 터치 디스플레이의 영역을 통해 검출하는 동작과,Detecting the drag input from the first point to the second point through an area of the touch display corresponding to the graphic object;
    상기 터치 디스플레이의 제3 지점에 위치하는 상기 지문 센서를 통해, 상기 지문에 의한 터치 입력을 수신하는 동작과,Receiving a touch input by the fingerprint through the fingerprint sensor located at a third point of the touch display;
    상기 터치 입력에 기반하여, 상기 지문에 대한 상기 제2 이미지를 획득하는 동작과,Obtaining the second image for the fingerprint based on the touch input;
    상기 제2 이미지 및 상기 기준 이미지를 비교함으로써, 상기 사용자를 인증된 사용자로 결정하는 동작을 포함하는 방법.Determining the user as an authenticated user by comparing the second image and the reference image.
  14. 청구항 10에 있어서,The method according to claim 10,
    상기 제1 이미지는,The first image,
    상기 지문의 마루(Ridge) 영역에 대응하고, 제1 색상을 가지는 제1 영역 및 상기 지문의 골(Valley) 영역에 대응하고, 제2 색상을 가지는 제2 영역을 포함하고,A first area corresponding to a Ridge area of the fingerprint, a first area having a first color, and a second area corresponding to a Valley area of the fingerprint, and having a second color;
    상기 기준 이미지는, The reference image is,
    상기 지문의 마루 영역에 대응하고, 제1 색상을 가지는 제3 영역 및 상기 지문의 골 영역에 대응하고, 제2 색상을 가지는 제4 영역을 포함하고,A third area corresponding to the floor area of the fingerprint, a third area having a first color, and a fourth area corresponding to a valley area of the fingerprint, and having a second color,
    상기 지문의 상태가 상기 제1 상태에 대응함을 확인하는 동작은,Confirming that the state of the fingerprint corresponds to the first state,
    상기 제1 이미지와 상기 기준 이미지를 비교함으로써, 상기 제1 이미지 내의 제1 색상을 가지는 제1 영역이 상기 기준 이미지 내의 제1 색상을 가지는 제3 영역과 상이함을 검출하는 동작과, Comparing the first image with the reference image to detect that a first region having a first color in the first image is different from a third region having a first color in the reference image;
    상기 검출에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것으로 결정하는 동작을 포함하는 방법.Based on the detection, determining that the state of the fingerprint corresponds to the first state.
  15. 청구항 14에 있어서, The method according to claim 14,
    상기 지문의 상태가 상기 제1 상태에 대응함을 확인하는 동작은, Confirming that the state of the fingerprint corresponds to the first state,
    상기 제4 영역 및 상기 제1 이미지의 상기 제2 영역을 비교함으로써, 상기 제4 영역 및 상기 제2 영역의 일치율이 제1 임계 값보다 크거나 같음을 검출하는 동작과,Comparing the fourth area with the second area of the first image to detect that a matching ratio between the fourth area and the second area is greater than or equal to a first threshold value;
    상기 기준 이미지의 상기 제3 영역 및 상기 제1 이미지의 상기 제1 영역을 비교함으로써, 상기 제3 영역 및 상기 제1 영역의 일치율이 제2 임계 값보다 크거나 같음을 검출하는 동작과,Comparing the third area of the reference image with the first area of the first image to detect that a matching ratio between the third area and the first area is greater than or equal to a second threshold value;
    상기 제1 영역 내지 상기 제4 영역의 비교에 기반하여, 상기 지문의 상태가 상기 제1 상태에 대응되는 것을 결정하는 동작을 포함하는 방법.And determining that a state of the fingerprint corresponds to the first state based on the comparison of the first area to the fourth area.
PCT/KR2018/016015 2018-01-31 2018-12-17 Apparatus and method for displaying guide information for changing fingerprint state WO2019151642A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2018-0012403 2018-01-31
KR1020180012403A KR20190093003A (en) 2018-01-31 2018-01-31 Apparatus and method for recognizing of fingerprint

Publications (1)

Publication Number Publication Date
WO2019151642A1 true WO2019151642A1 (en) 2019-08-08

Family

ID=67479741

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2018/016015 WO2019151642A1 (en) 2018-01-31 2018-12-17 Apparatus and method for displaying guide information for changing fingerprint state

Country Status (2)

Country Link
KR (1) KR20190093003A (en)
WO (1) WO2019151642A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210036568A (en) 2019-09-26 2021-04-05 삼성전자주식회사 Electronic apparatus and control method thereof
KR20210112767A (en) 2020-03-06 2021-09-15 삼성전자주식회사 Electronic device and method for recognizing fingerprint thereof
US11830293B2 (en) 2021-08-26 2023-11-28 Samsung Electronics Co., Ltd. Electronic device and method for providing fingerprint recognition guide using the same
WO2023106698A1 (en) * 2021-12-06 2023-06-15 삼성전자 주식회사 Fingerprint sensing method, and electronic device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130030170A (en) * 2011-09-16 2013-03-26 삼성전자주식회사 Apparatus and method for providing fingerprint recognition in portable terminla
KR20150098158A (en) * 2014-02-19 2015-08-27 삼성전자주식회사 Apparatus and method for recognizing a fingerprint
KR20160071887A (en) * 2014-12-12 2016-06-22 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20160128872A (en) * 2015-04-29 2016-11-08 삼성전자주식회사 Fingerprint information processing method and electronic device supporting the same
KR20180000974A (en) * 2016-06-24 2018-01-04 에스케이텔레콤 주식회사 Touch screen apparatus and method of recognizing fingerprint the same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130030170A (en) * 2011-09-16 2013-03-26 삼성전자주식회사 Apparatus and method for providing fingerprint recognition in portable terminla
KR20150098158A (en) * 2014-02-19 2015-08-27 삼성전자주식회사 Apparatus and method for recognizing a fingerprint
KR20160071887A (en) * 2014-12-12 2016-06-22 엘지전자 주식회사 Mobile terminal and method for controlling the same
KR20160128872A (en) * 2015-04-29 2016-11-08 삼성전자주식회사 Fingerprint information processing method and electronic device supporting the same
KR20180000974A (en) * 2016-06-24 2018-01-04 에스케이텔레콤 주식회사 Touch screen apparatus and method of recognizing fingerprint the same

Also Published As

Publication number Publication date
KR20190093003A (en) 2019-08-08

Similar Documents

Publication Publication Date Title
WO2020153725A1 (en) Electronic device and method for preventing damage of display
WO2019151642A1 (en) Apparatus and method for displaying guide information for changing fingerprint state
WO2018230875A1 (en) Terminal and control method thereof
WO2018074877A1 (en) Electronic device and method for acquiring fingerprint information
WO2019168318A1 (en) Electronic device and fingerprint authentication interface method thereof
WO2019146918A1 (en) Method for recognizing fingerprint, and electronic device and storage medium therefor
WO2014017858A1 (en) User terminal apparatus and control method thereof
WO2018009029A1 (en) Electronic device and operating method thereof
WO2019164183A1 (en) Electronic device for acquiring biometric information by using electrode selected from electrodes of biometric sensor, and method for controlling same
WO2019124811A1 (en) Fingerprint verification method and electronic device performing same
WO2020085628A1 (en) Method for displaying objects and electronic device using the same
WO2021133021A1 (en) Electronic device including display and operating method thereof
WO2019160348A1 (en) Electronic device acquiring user input when in submerged state by using pressure sensor, and method for controlling electronic device
WO2020085643A1 (en) Electronic device and controlling method thereof
WO2018143566A1 (en) Method and electronic device for displaying graphical objects for fingerprint input
WO2021080360A1 (en) Electronic device and method for controlling display operation thereof
WO2020251311A1 (en) Electronic device and method for providing notification information thereby
WO2019160347A1 (en) Touch input processing method and electronic device supporting same
WO2019124841A1 (en) Electronic device and method for executing function according to stroke input
WO2020106019A1 (en) Electronic device and method for providing in-vehicle infotainment service
WO2019199086A1 (en) Electronic device and control method for electronic device
WO2020032512A1 (en) Electronic device and method for displaying affordance for providing charging of battery of external device through display
WO2019177376A1 (en) Method and electronic device for generating fingerprint information, based on multiple pieces of image information acquired using multiple driving schemes
WO2021025456A1 (en) Method for touch input-based operation, and electronic device therefor
WO2021194080A1 (en) Method for determining user authentication scheme of electronic device, and electronic device therefor

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18903114

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18903114

Country of ref document: EP

Kind code of ref document: A1