WO2019143199A1 - 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법 - Google Patents
지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법 Download PDFInfo
- Publication number
- WO2019143199A1 WO2019143199A1 PCT/KR2019/000792 KR2019000792W WO2019143199A1 WO 2019143199 A1 WO2019143199 A1 WO 2019143199A1 KR 2019000792 W KR2019000792 W KR 2019000792W WO 2019143199 A1 WO2019143199 A1 WO 2019143199A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- fingerprint
- sensor
- fingerprint image
- pressure level
- processor
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 47
- 238000003672 processing method Methods 0.000 title claims description 7
- 238000012545 processing Methods 0.000 claims abstract description 59
- 230000008569 process Effects 0.000 claims description 13
- 230000003287 optical effect Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 4
- 238000004891 communication Methods 0.000 description 44
- 238000010586 diagram Methods 0.000 description 16
- 230000006870 function Effects 0.000 description 11
- 210000000988 bone and bone Anatomy 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 230000004927 fusion Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
- G06V40/1318—Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
Definitions
- Various embodiments of the present invention are directed to electronic devices and methods for determining a fingerprint processing strategy based on a pressure level of a fingerprint input.
- an electronic device incorporates a biosensor, and can perform user authentication using the biosensor.
- the electronic device includes a fingerprint sensor, which is one of the biosensors, and can recognize the fingerprint of the user through the fingerprint sensor.
- a fingerprint sensor provided separately from a display in an electronic device is embedded in the electronic device, some of the display areas of the display can be set as a fingerprint recognition area for recognizing the fingerprint. The electronic device recognizes the fingerprint of the user inputted in the fingerprint recognition area and can perform user authentication.
- fingerprints can be input with stronger pressure if the fingerprint sensor is provided separately from the display (e.g., when the fingerprint sensor is provided on the home button / backside). In this case, the shape of the fingerprint inputted according to the pressure is deformed. However, the same algorithm can be applied to correct the fingerprint image for fingerprint recognition regardless of the form of the fingerprint. Accordingly, the fingerprint recognition rate can be lowered.
- the fingerprint recognition area set in a certain area of the display is out of the predetermined pressure range, the fingerprint is not recognized correctly, which is inconvenient for the user who has to input the fingerprint again.
- An electronic device can determine parameters associated with the processing of a fingerprint image based on the pressure level for the fingerprint input and the characteristics of the fingerprint according to the pressure level when registering the fingerprint.
- the electronic device can be stored in the memory as fingerprint data by mapping characteristics, pressure levels, and parameters of the fingerprint.
- the electronic device can select parameters based on at least one of the pressure level for the fingerprint input from the fingerprint data stored in the memory and the characteristic of the fingerprint according to the pressure level when fingerprint authentication is performed .
- the electronic device can remove noise from the input fingerprint, correct the distortion shape, or restore the low resolution area based on the selected parameter.
- an electronic device includes a display, a first sensor, a second sensor, a memory, and a processor electrically coupled to the display, the first sensor, the second sensor, and the memory
- the processor obtains a fingerprint image through the first sensor, measures a pressure level at the time of acquiring the fingerprint image through the second sensor, analyzes the characteristic of the fingerprint based at least on the obtained fingerprint image, Determining a parameter associated with the processing of the fingerprint image based on the characteristic of the fingerprint and the pressure level, and generating and storing fingerprint data based on the characteristic of the fingerprint, the pressure level, and the parameter .
- an electronic device includes a display, a first sensor, a second sensor, a memory, and a processor electrically coupled to the display, the first sensor, the second sensor, and the memory
- the processor obtains a fingerprint image through the first sensor, measures a pressure level at the time of acquiring the fingerprint image through the second sensor, analyzes the characteristic of the fingerprint based at least on the obtained fingerprint image, Selecting a parameter based on the analyzed characteristic of the fingerprint and the measured pressure level, processing the obtained fingerprint image based on the selected parameter, and comparing the processed fingerprint image with a fingerprint image stored in the memory And perform fingerprint authentication based on the comparison result.
- an electronic device includes a display, a sensor portion disposed in at least a portion of the display, a memory, and a processor electrically coupled to the display, the sensor portion, and the memory, Wherein the processor is configured to acquire a fingerprint image through the sensor unit, measure a pressure level at the time of acquiring the fingerprint image, analyze characteristics of the fingerprint based at least on the obtained fingerprint image, And to generate and store fingerprint data based on the characteristics of the fingerprint, the pressure level, and the parameter.
- a method for determining a fingerprint processing method based on a pressure level of a fingerprint input includes obtaining a fingerprint image through a first sensor, Determining a parameter associated with the processing of the fingerprint image based on the characteristic of the fingerprint and the pressure level, and comparing the fingerprint with the fingerprint And generating and storing fingerprint data based on the characteristics, the pressure level, and the parameter.
- a method for determining a fingerprint processing method based on a pressure level of a fingerprint input includes obtaining a fingerprint image through a first sensor, Measuring a level of the fingerprint, analyzing a characteristic of the fingerprint based at least on the acquired fingerprint image, selecting a parameter based on the characteristic of the analyzed fingerprint and the measured pressure level, Processing the obtained fingerprint image, and comparing the processed fingerprint image with a fingerprint image stored in the memory, and performing fingerprint authentication based on the comparison result.
- a method for determining a fingerprint processing method based on a pressure level of a fingerprint input includes: obtaining a fingerprint image through a sensor unit and measuring a pressure level at the time of acquiring the fingerprint image; Analyzing the characteristics of the fingerprint based at least in part on the acquired fingerprint image; determining parameters associated with processing the fingerprint image based on the characteristics of the fingerprint and the pressure level; And generating and storing fingerprint data based on the parameters.
- An electronic device may store the fingerprint data in a memory as fingerprint data by mapping the characteristics of the fingerprint, the pressure level, and the parameters associated with the processing of the fingerprint image.
- the electronic device selects a parameter corresponding to the pressure level for the fingerprint input and the characteristic of the fingerprint according to the pressure level when the fingerprint authentication is performed, . Accordingly, different algorithms can be applied in consideration of the characteristics of the fingerprints varying with the pressure level of the fingerprint input, and the fingerprint recognition rate can be increased.
- the electronic device can apply an optimized algorithm according to the pressure level of the fingerprint input and the characteristics of the fingerprint, so that it is possible to provide the convenience to the user that the fingerprint does not need to be input again.
- FIG. 1 is a block diagram of an electronic device for determining a fingerprint processing scheme based on a pressure level of a fingerprint input, in accordance with various embodiments.
- FIG. 2 is a block diagram illustrating an electronic device for determining a fingerprint processing scheme based on a pressure level of a fingerprint input, in accordance with various embodiments.
- Figs. 3 and 4 are diagrams for explaining a fingerprint image obtained according to a range of pressure levels, according to various embodiments. Fig.
- FIG. 5 is a diagram illustrating a change in fingerprint characteristics in accordance with a change in pressure level, in accordance with various embodiments.
- FIG. 6 is a diagram illustrating a user interface displayed when a fingerprint is registered according to various embodiments.
- FIG. 7 is a flow chart illustrating a method for registering fingerprints, in accordance with various embodiments.
- Figs. 8 and 9 are diagrams illustrating a method of processing a fingerprint image using different filters for different ranges of pressure levels, according to various embodiments.
- FIG. 10 is a flow diagram illustrating a method for performing fingerprint authentication, in accordance with various embodiments.
- FIG. 11 is a block diagram illustrating an electronic device for determining a fingerprint processing scheme based on a pressure level of a fingerprint input, in accordance with various embodiments.
- FIG. 12 is a flow chart illustrating a method for registering fingerprints, in accordance with various embodiments.
- FIG. 13 is a flowchart illustrating a method of performing fingerprint authentication according to various embodiments.
- FIG. 1 is a block diagram of an electronic device 101 for determining a fingerprint processing scheme based on a pressure level of a fingerprint input within a network environment 100, in accordance with various embodiments.
- an electronic device 101 in a network environment 100 communicates with an electronic device 102 via a first network 198 (e.g., a short-range wireless communication network) (E. G., A < / RTI > remote wireless communication network).
- a first network 198 e.g., a short-range wireless communication network
- the electronic device 101 is capable of communicating with the electronic device 104 through the server 108.
- the electronic device 101 includes a processor 120, a memory 130, an input device 150, an audio output device 155, a display device 160, an audio module 170, a sensor module 176, an interface 177, a haptic module 179, a camera module 180, a power management module 188, a battery 189, a communication module 190, a subscriber identity module 196, ).
- at least one (e.g., display 160 or camera module 180) of these components may be omitted from the electronic device 101, or one or more other components may be added.
- some of these components may be implemented as a single integrated circuit.
- a sensor module 176 e.g., a fingerprint sensor, an iris sensor, or a light sensor
- the display device 160 e.g., a display.
- Processor 120 executes at least one other component (e.g., hardware or software component) of electronic device 101 connected to processor 120 by executing software (e.g., program 140) And can perform various data processing or arithmetic operations.
- the processor 120 may provide instructions or data received from other components (e.g., sensor module 176 or communication module 190) Process the instructions or data stored in the volatile memory 132, and store the resulting data in the non-volatile memory 134.
- the processor 120 includes a main processor 121 (e.g., a central processing unit or application processor), and a secondary processor 123 (e.g., a graphics processing unit, an image signal processor , A sensor hub processor, or a communications processor). Additionally or alternatively, the coprocessor 123 may use less power than the main processor 121, or it may be set to be specific to the specified function. The coprocessor 123 may be implemented separately from, or as part of, the main processor 121.
- a main processor 121 e.g., a central processing unit or application processor
- a secondary processor 123 e.g., a graphics processing unit, an image signal processor , A sensor hub processor, or a communications processor.
- the coprocessor 123 may use less power than the main processor 121, or it may be set to be specific to the specified function.
- the coprocessor 123 may be implemented separately from, or as part of, the main processor 121.
- a functionally related other component e.g., camera module 180 or communication module 190
- Memory 130 may store various data used by at least one component (e.g., processor 120 or sensor module 176) of electronic device 101.
- the data may include, for example, input data or output data for software (e.g., program 140) and instructions related thereto.
- the memory 130 may include a volatile memory 132 or a non-volatile memory 134.
- the program 140 may be stored as software in the memory 130 and may include, for example, an operating system 142, middleware 144,
- the input device 150 may receive commands or data to be used for components (e.g., processor 120) of the electronic device 101 from the outside (e.g., a user) of the electronic device 101.
- the input device 150 may include, for example, a microphone, a mouse, or a keyboard.
- the sound output device 155 can output the sound signal to the outside of the electronic device 101.
- the sound output device 155 may include, for example, a speaker or a receiver. Speakers can be used for general purposes, such as multimedia playback or record playback, and receivers can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from the speaker, or as part thereof.
- Display device 160 may visually provide information to an external (e.g., user) of electronic device 101.
- Display device 160 may include, for example, a display, a hologram device, or a projector and control circuitry for controlling the device.
- the display device 160 may comprise a touch circuitry configured to sense a touch, or a sensor circuit (e.g., a pressure sensor) configured to measure the force generated by the touch have.
- the audio module 170 may convert the sound into an electrical signal or vice versa. According to one embodiment, the audio module 170 is configured to acquire sound through the input device 150, or to output audio to the audio output device 155, or to an external electronic device (e.g., Electronic device 102) (e.g., a speaker or headphone)).
- an external electronic device e.g., Electronic device 102
- a speaker or headphone e.g., a speaker or headphone
- the sensor module 176 senses the operating state (e.g., power or temperature) of the electronic device 101 or an external environmental condition (e.g., a user state) and generates an electrical signal or data value corresponding to the sensed condition can do.
- the sensor module 176 may be, for example, a gesture sensor, a gyro sensor, an air pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, A temperature sensor, a humidity sensor, or an illuminance sensor.
- the interface 177 may support one or more designated protocols that may be used by the electronic device 101 to connect directly or wirelessly with an external electronic device (e.g., the electronic device 102).
- the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
- HDMI high definition multimedia interface
- USB universal serial bus
- SD card interface Secure Digital Card interface
- audio interface audio interface
- connection terminal 178 may include a connector through which the electronic device 101 may be physically connected to an external electronic device (e.g., the electronic device 102).
- connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
- the haptic module 179 may convert electrical signals into mechanical stimuli (e.g., vibrations or movements) or electrical stimuli that the user may perceive through tactile or kinesthetic sensations.
- the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
- the camera module 180 can capture a still image and a moving image.
- the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
- the power management module 188 can manage the power supplied to the electronic device 101.
- the power management module 188 may be implemented as at least a portion of, for example, a power management integrated circuit (PMIC).
- PMIC power management integrated circuit
- the battery 189 may supply power to at least one component of the electronic device 101.
- the battery 189 may include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
- the communication module 190 may be a direct (e.g., wired) communication channel between the electronic device 101 and an external electronic device (e.g., an electronic device 102, an electronic device 104, or a server 108) Establishment, and communication through the established communication channel.
- Communication module 190 may include one or more communication processors that operate independently of processor 120 (e.g., an application processor) and that support direct (e.g., wired) or wireless communication.
- the communication module 190 may include a wireless communication module 192 (e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 : A local area network (LAN) communication module, or a power line communication module).
- a corresponding one of these communication modules may be a first network 198 (e.g., a short range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 199 (e.g. a cellular network, (E.g., a telecommunications network, such as a computer network (e.g., a LAN or WAN)).
- a wireless communication module 192 e.g., a cellular communication module, a short range wireless communication module, or a global navigation satellite system (GNSS) communication module
- a wired communication module 194 e.g., a local area network (LAN) communication module, or a power
- the wireless communication module 192 may be configured to communicate with the subscriber identity module 196 in a communication network such as the first network 198 or the second network 199 using subscriber information (e.g., International Mobile Subscriber Identity (IMSI)
- subscriber information e.g., International Mobile Subscriber Identity (IMSI)
- IMSI International Mobile Subscriber Identity
- the antenna module 197 can transmit signals or power to the outside (e.g., an external electronic device) or receive it from the outside.
- the antenna module 197 may include one or more antennas, from which at least one (e.g., one or more) antennas suitable for a communication scheme used in a communication network, such as the first network 198 or the second network 199, May be selected, for example, by the communication module 190.
- a signal or power may be transmitted or received between the communication module 190 and the external electronic device via the selected at least one antenna.
- At least some of the components are connected to each other via a communication method (e.g., bus, general purpose input and output, SPI, or mobile industry processor interface (MIPI) For example, commands or data).
- a communication method e.g., bus, general purpose input and output, SPI, or mobile industry processor interface (MIPI)
- MIPI mobile industry processor interface
- the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 via the server 108 connected to the second network 199.
- Each of the electronic devices 102 and 104 may be the same or a different kind of device as the electronic device 101.
- all or a portion of the operations performed on the electronic device 101 may be performed on one or more external devices of the external electronic devices 102, 104, or 108.
- the electronic device 101 may, instead of executing the function or service itself Or in addition, to one or more external electronic devices to perform the function or at least part of the service.
- One or more external electronic devices that have received the request may execute at least a portion of the requested function or service, or an additional function or service associated with the request, and deliver the result of the execution to the electronic device 101.
- the electronic device 101 may process the result as is or in addition to provide at least a portion of the response to the request.
- cloud computing distributed computing, or client- Can be used.
- FIG. 2 is a block diagram illustrating an electronic device for determining a fingerprint processing scheme based on a pressure level of a fingerprint input, in accordance with various embodiments.
- electronic device 101 (e.g., electronic device 101 of FIG. 1) includes a wireless communication circuit 210 (e.g., communication module 190 of FIG. 1), a memory 220 (e.g., A display driver integrated circuit (IC) 230, a touch screen 240 (e.g., the display 160 of FIG. 1), a pressure sensor 250, a fingerprint ROIC an integrated circuit 260, a fingerprint sensor 270, and a processor 280 (e.g., the processor 120 of FIG. 1).
- a wireless communication circuit 210 e.g., communication module 190 of FIG. 1
- a memory 220 e.g., A display driver integrated circuit (IC) 230
- a touch screen 240 e.g., the display 160 of FIG. 1
- a pressure sensor 250 e.g., the pressure sensor 250
- a fingerprint ROIC an integrated circuit 260
- a fingerprint sensor 270 e.g., the processor 120 of FIG.
- communication module 190 of FIG. 1 may communicate with external electronic devices (e.g., electronic devices 102 and 104, server 106, ) And communication can be connected.
- the wireless communication circuit 210 may be connected to a network via wireless communication to communicate with an external electronic device.
- memory 220 may be electrically coupled to processor 280.
- the memory 220 may store a program for controlling the fingerprint sensor 270 in accordance with an operation mode (e.g., fingerprint registration mode, fingerprint authentication mode) associated with fingerprint recognition.
- the memory 220 may store a program for processing a function of the fingerprint sensor 270 to acquire a fingerprint image using at least one scanning method, and data to be processed according to the program.
- the memory 220 may pre-store a user's fingerprint image for use in verifying whether a fingerprint image input via the fingerprint sensor 270 is matched.
- the memory 220 may store a program for displaying a user interface (UI) according to an operation mode related to fingerprint recognition.
- UI user interface
- the memory 220 stores the characteristics of the fingerprint analyzed, based on at least the fingerprint image acquired via the fingerprint sensor 270, the pressure level measured via the pressure sensor 250, The parameters associated with the processing of the fingerprint image determined based on the level may be mapped and stored as fingerprint data.
- a display driver IC may display an image driving signal corresponding to image information received from the processor 280 at a predetermined frame rate 241, respectively.
- the display driver IC 230 may include a graphics RAM, an interface module, an image processing unit, a multiplexer, a display timing controller (T-con), a source driver, a gate driver, and / An oscillator, and the like.
- the touch screen 240 may receive a video drive signal received from the display driver IC 230.
- the display 241 may display various screens according to the use of the electronic device 200. [ The display 241 may display, for example, various contents (e.g., text, images, video, icons, or symbols).
- the display 241 may also be a liquid crystal display (LCD), a light emitting diode (LED) display, an organic light emitting diode (OLED) display, or a microelectromechanical systems (MEMS) Display.
- the touch panel 243 may receive a touch, gesture, proximity, or hovering input using, for example, an electronic pen or a portion of the user's body.
- display 241 may be superimposedly coupled to touch panel 243, pressure sensor 250, and / or fingerprint sensor 270.
- the touch screen 240 may display, at least in some areas, a user interface associated with a user's fingerprint authentication under the control of the processor 280.
- At least some areas of the touch panel 243 or the display 241 may include a fingerprint recognition area of the fingerprint sensor 270.
- the fingerprint recognition area may be disposed on the touch panel 243 or on the top or bottom of the display 241. [ However, it is not limited thereto.
- the touch screen 240 may obtain touch input information associated with the fingerprint authentication of the user of the electronic device 200 via the touch panel 243 and transmit the obtained touch input information to the processor 280 .
- the touch screen 240 displays a user interface object (e.g., an indication associated with fingerprint authentication) in a fingerprint recognition area including at least a portion of the fingerprint sensor 270 via the display 241 under the control of the processor 280 .
- the pressure sensor 250 may sense an external pressure.
- the pressure sensor 250 may sense the pressure applied by the user's finger to the touch screen 240.
- the pressure sensor 250 may be included in the touch panel 243.
- a fingerprint readout integrated circuit 260 may drive the fingerprint sensor 270 and may scan at least a portion of the fingerprint sensor 270 .
- the fingerprint ROIC 260 may capture the fingerprint image through the scanning.
- the fingerprint ROIC 260 may extract a unique feature of a fingerprint, for example, from the fingerprint image, and transmit the extracted feature to the processor 280 as fingerprint information.
- the extracted feature that is, the fingerprint minutiae may include a ridge end point, a bifurcation point, a center point, a delta, etc. included in the fingerprint .
- the fingerprint sensor 270 may be arranged to cover at least some or all of the area of the touch screen 240.
- the fingerprint sensor 270 may include a fingerprint sensing array divided into a plurality of regions.
- the fingerprint sensor 270 acquires a fingerprint image corresponding to the user's fingerprint based on the amount of current being changed as the finger of the user of the electronic device 200 touches at least a portion of the fingerprint recognition area .
- the fingerprint recognition area may include at least a part of the fingerprint sensor 270.
- the fingerprint image acquired through the fingerprint sensor 270 is compared with the fingerprint image of the user stored in advance in the memory 220 and then used for user authentication of the electronic device 200 according to the match score (e.g., matching rate or similarity) .
- the fingerprint image obtained through the fingerprint sensor 270 may be compressed and stored in the memory 220 and may be registered with the user's authentication information for later user authentication.
- the processor 280 controls the overall operation of the electronic device 200 and the signal flow between the internal configurations of the electronic device 200 , Perform data processing, and control power supply from the battery (e.g., battery 189 of FIG. 1) to the configurations.
- the battery e.g., battery 189 of FIG. 1
- the processor 280 obtains a fingerprint image via the fingerprint sensor 270 when an input requesting fingerprint registration is sensed, and measures the pressure level at the fingerprint image acquisition via the pressure sensor 250 can do.
- the processor 280 may display a user interface requesting fingerprint input on the touch screen 240 when an input for requesting fingerprint registration is detected.
- the processor 280 may analyze the characteristics of the fingerprint based at least on the obtained fingerprint image. For example, the characteristics of the fingerprint may include the distance between the feature points of the fingerprint, the ratio of the fingerprint to the fingerprint, the width of the fingerprint, the width of the fingerprint, and the like.
- the processor 280 may determine the parameters associated with the processing of the fingerprint image based on the characteristics of the fingerprint and the pressure level. The parameter is for processing the fingerprint image obtained in the fingerprint authentication process.
- the processor 280 is for removing noise from a fingerprint image, correcting a distorted shape, or restoring a low-resolution area to facilitate extraction of feature points of a fingerprint.
- the parameter can be varied based on the characteristics of the fingerprint and the pressure level.
- the processor 280 may generate fingerprint data based on the characteristics of the fingerprint, the pressure level, and the parameters associated with the processing of the fingerprint image, and store the fingerprint data in the memory 220.
- the processor 280 acquires a fingerprint image through the fingerprint sensor 270 when an input requesting fingerprint authentication is detected, and measures the pressure level at the time of acquiring the fingerprint image through the pressure sensor 250 can do.
- the processor 280 may analyze the characteristics of the fingerprint based at least on the obtained fingerprint image.
- Processor 280 may select (e.g., extract or read) parameters based on the characteristics of the analyzed fingerprint and the measured pressure level.
- the processor 280 may select the parameter based at least in part on the fingerprint data stored in the memory 220.
- Processor 280 may process (e.g., preprocess, correct, etc.) the acquired fingerprint image based on the selected parameter.
- the processor may remove noise from the acquired fingerprint image based on the selected parameter, correct the distorted shape, or restore the low resolution area.
- the processor 280 compares the processed fingerprint image with the fingerprint image stored in the memory 220, and performs fingerprint authentication based on the comparison result.
- Figs. 3 and 4 are diagrams for explaining a fingerprint image obtained according to a range of pressure levels, according to various embodiments. Fig.
- a processor may detect a fingerprint sensor (e.g., fingerprint sensor 270 of FIG. 2) To obtain the fingerprint image 311.
- the processor may measure the pressure level at the time of acquiring the fingerprint image 311 through a pressure sensor (e.g., pressure sensor 250 in FIG. 2).
- the processor is capable of analyzing the characteristics of the fingerprint based at least on the fingerprint image 311.
- the characteristics of the fingerprint may include the distance between the feature points of the fingerprint, the ratio of the fingerprint to the fingerprint, the width of the fingerprint, the width of the fingerprint, and the like.
- the characteristics of the fingerprint are assumed to be the ratio of the fingerprint to the fingerprint.
- ⁇ 320 > is an enlarged view of a partial area of the fingerprint image 311, reference numeral 321 denotes fusion of a fingerprint, and reference numeral 323 denotes a fingerprint.
- a finger 321 and a finger 323 of a fingerprint are shown input on a touch screen 340 (e.g., touch screen 240 of FIG. 2).
- the processor may analyze the ratio of the fingerprint 321 and the valley 323 to the range of the pressure level 335. For example, if a touch input of a user's finger is sensed on the touch screen 340, the processor determines that the range 335 of the pressure level is measured, for example, at a pressure level 2 and the ratio of the finger 321 to the valley 323 For example, 1: 1.
- the processor is based on a ratio (e.g., 1: 1) of the analyzed fingerprint 321 to the valleys 323 and a range 335 of the measured pressure level (e.g., pressure level 2) To determine the parameters associated with the processing of the fingerprint image 311.
- the parameter may be used to improve the fingerprint image 311 through noise removal, distortion correction, or reconstruction of a low resolution area.
- the processor may map the characteristics of the fingerprint, the pressure level, and the parameters associated with the processing of the fingerprint image 311 and store it in a memory (e.g., memory 220 of FIG. 2).
- the processor when an input for registering a fingerprint is detected, can obtain the fingerprint image 411 through the fingerprint sensor as shown in ⁇ 410 >.
- the processor can measure the pressure level at the time of acquiring the fingerprint image 411 through the pressure sensor.
- the processor may analyze the characteristics of the fingerprint, for example, the ratio of fingerprint to fingerprint, based at least on the fingerprint image 411.
- ⁇ 420 > is an enlarged view of a partial area of the fingerprint image 411
- reference numeral 421 denotes fusion of a fingerprint
- reference numeral 423 denotes a fingerprint.
- fingerprint 421 and fingerprints 423 are displayed on touch screen 440.
- the processor can analyze the ratio of fingerprint 421 to fingerprint 423 in accordance with the range of pressure levels 435. For example, if a touch input of a user's finger is sensed on the touch screen 340, the processor determines that the range 435 of the pressure level is measured, for example, at a pressure level of 3 and the ratio of the finger 421 to the valley 423 For example, 2: 1.
- the processor is based on the ratio of the analyzed fingerprint 421 to the valley 423 (e.g., 2: 1) and the measured range of pressure levels 435 (e.g., pressure level 3) To determine the parameters associated with the processing of the fingerprint image 411.
- the processor may map the characteristics of the fingerprint, the pressure level, and the parameters associated with the processing of the fingerprint image 411 and store them in memory.
- FIG. 5 is a diagram illustrating a change in fingerprint characteristics in accordance with a change in pressure level, in accordance with various embodiments.
- the x-axis represents the pressure level and the y-axis represents the characteristic variation of the fingerprint.
- the characteristics of the fingerprint may vary depending on the pressure level of the user's touch input sensed on the touch screen (e.g., touch screen 240 of FIG. 2).
- the characteristic of the fingerprint for example, the ratio of the fringe and the valley may be 1: 1 (515), and if the pressure level is b (520)
- the ratio of fusing to bone may be 1: 2 (525).
- the ratio of the finger to the finger of the fingerprint is 1: 1 515, while the pressure level b 520, which is higher than the pressure level a 510, The ratio of the fingerprint to the fingerprint of the fingerprint is changed to 1: 2 (525) (for example, the ratio of fusion is increased and the ratio of bone is decreased).
- the processor may determine a parameter associated with the processing of the fingerprint image based on the ratio of the fingerprint of the fingerprint of 1: 1 515 and the pressure level a 510.
- the processor may adjust at least one parameter of a specified filter associated with the processing of the fingerprint image based on the determined parameter.
- a filter for processing a fingerprint image is a gabor filter
- the formula of the Gabor filter may be expressed by the following equation (1).
- the Gabor filter may include parameters?,?,?,?,?. At least one of the parameters?,?,?,?,? Can be adjusted based on the characteristics of the fingerprint (e.g., the ratio of the fingerprint to the fingerprint) and the pressure level.
- ⁇ is a parameter for determining the width of the kernel
- ⁇ is a parameter for determining the direction of an edge extracted by the Gabor filter
- ⁇ is a parameter for adjusting the sine function
- ⁇ is an intermediate value of the filter And? Is a parameter for adjusting the width-height ratio of the filter.
- the processor maps parameters associated with the processing of the fingerprint image determined based on the fingerprint characteristic 515, the pressure level a 510, and the characteristic 515 of the fingerprint and the pressure level a 510 May be stored in a memory (e.g., memory 220 of FIG. 2).
- a fingerprint image when performing a fingerprint authentication, if a fingerprint image is obtained that is measured at a pressure level a 510 and the ratio of fingerprint to fingerprint is 1: 1 515, Can be adjusted to parameters associated with the processing of the fingerprint image determined based on the fingerprint characteristic 515 and the pressure level a 510.
- the processor may correct the fingerprint image using the at least one parameter adjusted filter (517).
- the processor may determine the parameters associated with the processing of the fingerprint image based on the ratio of the fingerprint of the fingerprint of 1: 2 525 and the pressure level b (520).
- the processor may adjust at least one parameter of a specified filter associated with the processing of the fingerprint image based on the determined parameter.
- the processor maps the parameters associated with the processing of the fingerprint image determined based on the fingerprint characteristic 525, the pressure level b 520, and the fingerprint characteristic 525 and the pressure level b 520 It can be stored in memory.
- the processor determines at least one Can be adjusted to parameters associated with the processing of the fingerprint image determined based on the fingerprint characteristic 525 and the pressure level b 520. [ The processor may correct the fingerprint image using the at least one parameter adjusted filter (527).
- FIG. 6 is a diagram illustrating a user interface displayed when a fingerprint is registered according to various embodiments.
- a processor detects an input for registering a fingerprint, it touches a user interface for guiding the fingerprint for the user to be registered by the range of the pressure level May be displayed on a screen (e.g., touch screen 240 of FIG. 2).
- the user interface includes information for guiding the fingerprint to be registered, such as " a first pressure level (or a second pressure level, a third pressure < (611, 621, 631) and fingerprint recognition areas (613, 623, 633).
- the processor can guide the fingerprint to be input at least twice in the range of the pressure level, for example, from the first pressure level to the third pressure level.
- the fingerprint image obtained through the fingerprint sensor may be a partial fingerprint image.
- the processor detects the input of the fingerprint, for example, the touch input of the user's finger, in the fingerprint recognition area 613, 623, 633, and transmits the first partial fingerprint image through the fingerprint sensor (e.g., fingerprint sensor 270 in FIG. 2) Can be obtained.
- the processor may further acquire the second partial fingerprint image via the fingerprint sensor when an input for the fingerprint registration is detected.
- the second partial fingerprint image may be an image for an area obtained by shifting the position of the finger corresponding to the fingerprint sensor, and may be a fingerprint image different from the first partial fingerprint image.
- the processor can guide the fingerprint to be inputted n times while changing the position of the finger corresponding to the fingerprint sensor.
- the processor may obtain n partial fingerprint images in response to n fingerprint inputs.
- the processor may be configured to receive information to complete the operation of entering a partial fingerprint image, to complete the operation of obtaining a partial fingerprint image, At least one of the information requesting the stop of the operation to be displayed on the touch screen.
- the user interface for guiding the fingerprint image for the user to be registered is displayed as information (for example, 611, 621, 631) in the range of the pressure level.
- the present invention is not limited thereto, And outputs different colors, light emission, sound, and vibration according to the range of the pressure level, thereby guiding the fingerprint to the user to be registered according to the range of the pressure level.
- FIG. 7 is a flow chart illustrating a method for registering fingerprints, in accordance with various embodiments.
- a processor may acquire a fingerprint image through a first sensor in 701 operation and measure the pressure level at the time of acquiring the fingerprint image through a second sensor have.
- the processor may display a user interface (e.g., 610, 620, 630 of FIG. 6) requesting fingerprint input on a touch screen (e.g., touch screen 240 of FIG. 2).
- a user interface e.g., 610, 620, 630 of FIG. 6
- a touch screen e.g., touch screen 240 of FIG. 2.
- the user interface for requesting fingerprint input includes information (for example, 611, 621, 631 in Fig. 6) requesting fingerprint input by a range of the pressure level and a fingerprint recognition area 6, 613, 623, 633 of FIG. 6).
- the first sensor and the second sensor may be disposed in at least a portion of the touch screen (e.g., a fingerprint recognition area).
- the first sensor may include a fingerprint sensor (e.g., fingerprint sensor 270 of FIG. 2) and the second sensor may include a pressure sensor (e.g., pressure sensor 250 of FIG. 2) have.
- the processor acquires a fingerprint image through a fingerprint sensor (e.g., a first sensor) For example, a second sensor) to measure the pressure level at the time of obtaining the fingerprint image.
- a fingerprint sensor e.g., a first sensor
- a second sensor For example, a second sensor
- the processor may analyze the characteristics of the fingerprint based at least on the fingerprint image obtained in operation 703.
- the characteristics of the fingerprint may include the distance between the feature points of the fingerprint, the ratio of the fingerprint to the fingerprint, the width of the fingerprint, the width of the fingerprint, and the like.
- the processor may generate a user ' s entire fingerprint image or a combined fingerprint image of the user through a stitching operation that connects the n partial fingerprint images obtained for each range of pressure levels.
- the processor may analyze the characteristics of the fingerprint based on the entire fingerprint image or the combined fingerprint image generated through the stitching operation.
- the processor can determine the parameters associated with the processing of the fingerprint image based on the fingerprint characteristics and pressure level in 705 operation.
- the processor may adjust at least one parameter of a specified filter associated with the processing (e.g., correction) of the fingerprint image in the fingerprint authentication process to a parameter determined based on the pressure level and characteristics of the fingerprint.
- a specified filter associated with the processing e.g., correction
- the parameters determined based on the pressure level and the characteristics of the fingerprint can improve the fingerprint image by removing noise associated with the fingerprint image, correcting the distortion shape, or restoring the low resolution area in the fingerprint authentication process, .
- the parameter may be varied based on the fingerprint characteristics and the pressure level.
- the processor generates fingerprint data based on the characteristics of the fingerprint, the pressure level, and the parameters associated with processing the fingerprint image in operation 707, and stores the generated fingerprint data in a memory (e.g., memory 220 )).
- the fingerprint data may be data mapped to the characteristics of the fingerprint, the pressure level, and parameters associated with processing the fingerprint image.
- Figs. 8 and 9 are diagrams illustrating a method of processing a fingerprint image using different filters for different ranges of pressure levels, according to various embodiments.
- a fingerprint recognition area e.g., 613, 623, 633 in FIG. 6
- a touch screen e.g., the touch screen 240 of FIG. 2
- fingerprint sensor 270 of FIG. 2 e.g., fingerprint sensor 270 of FIG. 2
- the processor may analyze the characteristics of the fingerprint, e.g., the ratio of fusing and bone, based at least in part on the obtained fingerprint image.
- the graph shown in ⁇ 810 > is for the finger and bone of the analyzed fingerprint.
- the processor may select parameters based on the characteristics of the analyzed fingerprint, e.g., the fingerprint and the fingerprint, and the measured pressure level.
- the processor may select the parameter based at least in part on fingerprint data stored in a memory (e.g., memory 220 of FIG. 2).
- a processor obtains a fingerprint image with a ratio of fingerprint to fingerprint at a particular pressure level, as shown in ⁇ 810>, T: T, for example, 1: 1,
- the parameters can be selected based on the ratio of jaw to bone.
- the processor may adjust at least one parameter of the designated filter to the selected parameter and the at least one parameter of the ⁇ 820 > process (e.g., preprocess, correct, etc.) the fingerprint image using the adjusted filter.
- the processor may process 840 the fingerprint image 830 using the at least one parameter adjusted filter 820. For example, the processor may remove noise from the acquired fingerprint image 830, correct the distortion shape, or restore 840 the low resolution area.
- the processor may analyze the characteristics of the fingerprint, e.g., the ratio of fusing and bone, based at least in part on the obtained fingerprint image.
- the graph shown in ⁇ 910 > is for the fusing and scoring of the analyzed fingerprint.
- the processor may select parameters based on the characteristics of the analyzed fingerprint and the measured pressure level.
- the processor may select the parameter based at least on the fingerprint data stored in the memory.
- the parameter can be selected based on the ratio of the fingerprint to the fingerprint.
- the processor may adjust at least one parameter of the specified filter to the selected parameter and the at least one parameter of ⁇ 920 > may process (e.g., preprocess, correct, etc.) 940 the fingerprint image using the adjusted filter have.
- the processor may remove noise, correct the distortion shape, or restore (940) the low resolution area in the fingerprint image 930 obtained using the at least one parameter adjusted filter 920.
- FIG. 10 is a flow diagram illustrating a method for performing acquired fingerprint authentication, in accordance with various embodiments.
- a processor may acquire a fingerprint image through a first sensor in operation 1001 and measure the pressure level at the time of acquiring the fingerprint image through a second sensor have.
- a fingerprint input is detected in a fingerprint recognition area (e.g., 613, 623, 633 in FIG. 6) formed in at least a portion of a touch screen (e.g., touch screen 240 of FIG. 2) 1 sensor to acquire a fingerprint image
- the second sensor can measure the pressure level at the time of acquiring the fingerprint image.
- the first sensor may include a fingerprint sensor (e.g., fingerprint sensor 270 of FIG. 2) and the second sensor may include a pressure sensor (e.g., pressure sensor 250 of FIG. 2) have.
- the processor may analyze the characteristics of the fingerprint based at least on the fingerprint image obtained in operation 1003.
- the characteristics of the fingerprint may include the distance between the feature points of the fingerprint, the ratio of the fingerprint to the fingerprint, the width of the fingerprint, the width of the fingerprint, and the like.
- the processor may select parameters based on the characteristics of the fingerprint analyzed and the measured pressure level at 1005 operation.
- the processor may process (e.g., preprocess, correct, etc.) the acquired fingerprint image based on the selected parameter in operation 1007.
- the processor can correct noise correction, distorted shape restoration, or low-resolution area on the fingerprint image acquired based on the selected parameter.
- the feature points of the fingerprint can be easily extracted by processing the fingerprint image obtained based on the selected parameter.
- the processor may compare the processed fingerprint image with the stored fingerprint image in operation 1009, and perform fingerprint authentication based on the comparison result.
- the processor may extract feature information from the processed fingerprint image based on the parameters.
- the feature information may be a minutiae representing at least one feature point.
- the minutia may include a bifurcation point, an end point, a core, and a delta.
- the minutia may include feature points representing the orientation or shape of valleys between ridges and ridges.
- the processor may determine whether the feature information extracted from the processed fingerprint image matches the specific information for the fingerprint image stored in the memory. If the match score is above a certain threshold, the processor can determine that the authentication is successful. If the match score is below a certain threshold, the processor may decide to fail authentication.
- a method for comparing the processed fingerprint image with a fingerprint image stored in a memory and performing fingerprint authentication based on the comparison result is well known to those skilled in the art So that detailed description thereof will be omitted.
- FIG. 11 is a block diagram illustrating an electronic device for determining a fingerprint processing scheme based on a pressure level of a fingerprint input, in accordance with various embodiments.
- electronic device 101 of FIG. 1, electronic device 200 of FIG. 2) includes a wireless communication circuit 1110 (e.g., communication module 190 of FIG. 1) (E.g., the wireless communication circuit 210 of FIG. 2), a memory 1120 (e.g., memory 130 of FIG. 1, memory 220 of FIG. 2), a touch screen 1130 The touch screen 240 of Figure 2), the sensor portion 1140 and the processor 1150 (e.g., the processor 120 of Figure 1, the processor 280 of Figure 2).
- a wireless communication circuit 1110 e.g., communication module 190 of FIG. 1
- a memory 1120 e.g., memory 130 of FIG. 1, memory 220 of FIG. 2
- a touch screen 1130 The touch screen 240 of Figure 2
- the sensor portion 1140 and the processor 1150 e.g., the processor 120 of Figure 1, the processor 280 of Figure 2.
- the wireless communication circuit 1110, the memory 1120 and the touch screen 1130 constituting the electronic device 1100 are connected to the wireless communication circuit 210 ), The memory 220, and the touch screen 240, detailed description thereof will be omitted.
- the memory 1120 e.g., memory 130 of FIG. 1, memory 220 of FIG. 2
- the sensor unit 1140 may acquire a user's fingerprint image using at least one of optical, electrostatic, ultrasonic, and infrared (IR) methods.
- an optical system can capture a user's fingerprint image by capturing an image of the fingerprint using a photosensitive diode.
- a fingerprint image can be obtained by using a principle in which a portion of the fingerprint that is touched by the electrode is detected, and a portion that is not touched (valley) is not detected.
- the ultrasonic method generates ultrasonic waves through a piezo, and obtains a fingerprint image by using a path difference of an ultrasonic wave that is reflected and reflected by the fingerprints of the fingerprint.
- the sensor portion 1140 may include a fingerprint sensor that is optically driven.
- the processor 120 of FIG. 1, the processor 280 of FIG. 2 may be coupled to the overall operation of the electronic device 1100 and to the interior of the electronic device 1100 To control signal flow between the configurations, to perform data processing, and to control the power supply from the battery (e.g., battery 189 of FIG. 1) to the configurations.
- the battery e.g., battery 189 of FIG. 1
- the processor 1150 may control the sensor portion 1140, e.g., an optical fingerprint sensor, to emit a light source when an input requesting fingerprint registration is sensed.
- the light emitted from the light source may be reflected from a user's body (e.g., a finger), and the processor 1150 may acquire a fingerprint image based on light reflected from the user's body.
- the processor 1150 may measure the pressure level at the time of obtaining the fingerprint image. For example, the processor 1150 may measure the pressure level based on the amount of light reflected from the user's body or the acquired fingerprint image.
- the processor 1150 determines a level of pressure corresponding to the amount of light reflected from the user's living body, based on a table that maps the amount of reflected light and the range of pressure levels stored in the memory 1120 You can decide.
- the processor 1150 may analyze the characteristics of the fingerprint based at least in part on the fingerprint image acquired via the sensor portion 1140.
- the processor 1150 may determine parameters associated with processing the acquired fingerprint image based on the analyzed fingerprint characteristics and the measured pressure level.
- the processor 1150 may generate fingerprint data based on the characteristics of the fingerprint, the pressure level, and the parameters associated with processing the fingerprint image, and store the fingerprint data in the memory 1120.
- the fingerprint data may be data mapped to the characteristics of the fingerprint, the pressure level, and parameters associated with processing the fingerprint image.
- the processor 1150 may control the sensor portion 1140, e.g., an optical fingerprint sensor, to emit a light source.
- the light emitted from the light source may be reflected by the user's living body, and the processor 1150 may acquire a fingerprint image based on the light reflected from the user's living body, and measure the pressure level at the time of acquiring the fingerprint image have.
- the processor 1150 may analyze the characteristics of the fingerprint based at least on the acquired fingerprint image and may select the characteristics of the analyzed fingerprint and the parameters corresponding to the measured pressure level.
- Processor 1150 may process the acquired fingerprint image based on the selected parameter.
- the processor 1150 can compare the processed fingerprint image with the fingerprint image stored in the memory 220, and perform fingerprint authentication based on the comparison result.
- FIG. 12 is a flowchart illustrating a method of registering a fingerprint according to various embodiments.
- a processor (e.g., processor 280 of FIG. 2) obtains a fingerprint image through a sensor (e.g., sensor portion 1140 of FIG. 11) in operation 1201, The level can be measured.
- the senor may comprise a fingerprint sensor driven in an optically driven manner.
- the processor can control the optical fingerprint sensor to emit a light source when an input requesting fingerprint registration is sensed.
- the light emitted from the light source may be reflected by the user's living body, and the processor may acquire the fingerprint image based on the light reflected from the user's living body.
- the processor may measure the pressure level at the time of obtaining the fingerprint image based on the amount of light reflected from the user's body or the obtained fingerprint image.
- the senor may be disposed in at least a portion of the area of the touch screen (e.g., touch screen 1130 of FIG. 11) (e.g., fingerprint recognition area).
- the touch screen e.g., touch screen 1130 of FIG. 11
- fingerprint recognition area e.g., fingerprint recognition area
- the processor may display on the touch screen a user interface (e.g., 610, 620, 630 of FIG. 6) requesting fingerprint registration by a range of pressure levels .
- a user interface e.g., 610, 620, 630 of FIG. 6
- the processor may analyze the characteristics of the fingerprint based at least on the fingerprint image obtained in operation 1203.
- the characteristics of the fingerprint may include the distance between the feature points of the fingerprint, the ratio of the fingerprint to the fingerprint, the width of the fingerprint, the width of the fingerprint, and the like.
- the processor may, in 1205 operation, determine parameters associated with the processing of the fingerprint image based on the fingerprint's characteristics and pressure level.
- the processor generates fingerprint data based on the characteristics of the fingerprint, the pressure level, and the parameters associated with the processing of the fingerprint image in operation 1207, and stores the generated fingerprint data in a memory (e.g., memory 1120 )).
- a memory e.g., memory 1120
- operation 1203 to operation 1207 in FIG. 12 is the same as operation 703 to operation 707 in FIG. 7, so a detailed description thereof will be omitted.
- FIG. 13 is a flow chart illustrating a method for performing acquired fingerprint authentication in accordance with various embodiments.
- a processor (e.g., processor 280 of FIG. 2) obtains a fingerprint image through a sensor (e.g., sensor portion 1140 of FIG. 11) in operation 1301, The level can be measured.
- the senor may comprise a fingerprint sensor driven in an optically driven manner.
- the processor can control the optical fingerprint sensor to emit a light source when an input requesting fingerprint registration is sensed.
- the light emitted from the light source may be reflected by the user's living body, and the processor may acquire the fingerprint image based on the light reflected from the user's living body.
- the processor may measure the pressure level at the time of obtaining the fingerprint image based on the amount of light reflected from the user ' s body or the obtained fingerprint image.
- the senor may be located in at least a portion of the touch screen (e.g., touch screen 1130 of FIG. 11) (eg fingerprint recognition area).
- a fingerprint input is detected in a fingerprint recognition area (e.g., 613, 623, 633 in FIG. 6) formed in at least a portion of the touch screen
- the processor obtains the fingerprint image through the sensor, The pressure level at the time of acquisition can be measured.
- the processor may analyze the characteristics of the fingerprint based at least on the fingerprint image obtained in operation 1303.
- the characteristics of the fingerprint may include the distance between the feature points of the fingerprint, the ratio of the fingerprint to the fingerprint, the width of the fingerprint, the width of the fingerprint, and the like.
- the processor may select parameters based on the characteristics of the fingerprint analyzed and the measured pressure level in operation 1305, and process the obtained fingerprint image based on the selected parameter in 1307 operation.
- the processor compares the fingerprint image processed in operation 1309 with the registered fingerprint image, and performs fingerprint authentication based on the comparison result.
- the operations 1303 and 1309 of FIG. 13 are the same as the operations 1003 and 1009 of FIG. 10, and thus detailed description thereof will be omitted.
- the electronic device can be various types of devices.
- An electronic device may include, for example, a portable communication device (e.g., a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance.
- a portable communication device e.g., a smart phone
- a computer device e.g., a laptop, a desktop, a tablet, or a portable multimedia device
- portable medical device e.g., a portable medical device
- camera e.g., a camera
- a wearable device e.g., a smart watch
- a home appliance e.g., a smart bracelet
- any (e.g., first) component may be referred to as being “coupled” or “connected” to another (eg, second) component, with or without the term “functionally”
- any (e.g., first) component may be referred to as being “coupled” or “connected” to another (eg, second) component, with or without the term “functionally”
- module may include units implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic blocks, components, or circuits.
- a module may be an integrally constructed component or a minimum unit of the component or part thereof that performs one or more functions.
- the module may be implemented in the form of an application-specific integrated circuit (ASIC).
- ASIC application-specific integrated circuit
- the various embodiments of the present document may include one or more instructions stored in a storage medium (e.g., internal memory 136 or external memory 138) readable by a machine (e.g., electronic device 101) (E. G., Program 140). ≪ / RTI >
- a processor e.g., processor 120
- the one or more instructions may include code generated by the compiler or code that may be executed by the interpreter.
- a device-readable storage medium may be provided in the form of a non-transitory storage medium.
- 'non-transient' means that the storage medium is a tangible device and does not include a signal (e.g., electromagnetic waves), which means that data is permanently stored on the storage medium Do not distinguish between cases where they are temporarily stored.
- a method according to various embodiments disclosed herein may be provided in a computer program product.
- a computer program product can be traded between a seller and a buyer as a product.
- the computer program product may be distributed in the form of a machine-readable storage medium, such as a compact disc read only memory (CD-ROM), or via an application store (e.g. PlayStore TM) For example, smartphones), directly or online (e.g., downloaded or uploaded).
- an application store e.g. PlayStore TM
- smartphones e.g., smartphones
- online e.g., downloaded or uploaded
- at least a portion of the computer program product may be temporarily stored, or temporarily created, on a storage medium readable by a machine, such as a manufacturer's server, a server of an application store, or a memory of a relay server.
- each component e.g., a module or program of the components described above may include one or more entities.
- one or more of the above-described components or operations may be omitted, or one or more other components or operations may be added.
- a plurality of components e.g., modules or programs
- the integrated component may perform one or more functions of each component of each of the plurality of components in a manner similar or similar to that performed by the corresponding one of the plurality of components prior to the integration .
- operations performed by a module, program, or other component may be performed sequentially, in parallel, repetitively, or heuristically, or one or more of the operations may be performed in a different order, Or one or more other operations may be added.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Artificial Intelligence (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명의 다양한 실시예들에 따르면, 전자 장치는, 디스플레이, 제1 센서, 제2 센서, 메모리, 및 상기 디스플레이, 상기 제1 센서, 상기 제2 센서, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며, 상기 프로세서는, 상기 제1 센서를 통해 지문 이미지를 획득하고, 상기 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하고, 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고, 상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하고, 상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하도록 설정될 수 있다. 본 발명에 개시된 다양한 실시예들 이외의 다른 다양한 실시예가 가능하다.
Description
본 발명의 다양한 실시예는 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법에 관한 것이다.
최근, 전자 장치는 생체 센서를 내장하고, 상기 생체 센서를 이용하여 사용자 인증을 수행할 수 있다. 예컨대, 전자 장치는 생체 센서 중 하나인 지문 센서가 내장되어 있으며, 지문 센서를 통해 사용자의 지문을 인식할 수 있다. 전자 장치에서 디스플레이와 별도로 구비되었던 지문 센서가 전자 장치 내에 내장됨에 따라 디스플레이의 표시 영역 중 일부 영역이 지문을 인식하기 위한 지문 인식 영역으로 설정될 수 있다. 전자 장치는 지문 인식 영역에서 입력된 사용자의 지문을 인식하고, 사용자 인증을 수행할 수 있다.
지문 센서가 디스플레이 내에 내장되는 경우, 디스플레이와 별도로 구비된 경우(예: 홈 버튼/배면에 구비된 경우)보다 강한 압력으로 지문이 입력될 수 있다. 이러한 경우, 압력에 따라 입력되는 지문의 형태는 변형되게 된다. 하지만, 지문의 형태가 변형되는 경우와 상관 없이 지문 인식을 위한 지문 이미지를 보정하기 위해 동일한 알고리즘을 적용할 수 있다. 이에 따라, 지문 인식률은 낮아질 수 있다.
또한, 디스플레이의 일부 영역에 설정된 지문 인식 영역에서의 지문 입력으로 측정되는 압력이 기 설정된 압력의 범위를 벗어나는 경우, 지문이 제대로 인식되지 않아 지문을 다시 입력해야 하는 사용자 입장에서 불편함이 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 지문을 등록하는 경우, 지문 입력에 대한 압력 레벨 및 상기 압력 레벨에 따른 지문의 특성에 기초하여 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다. 전자 장치는 지문의 특성, 압력 레벨, 및 파라미터를 매핑하여 지문 데이터로서 메모리에 저장할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 지문 인증이 수행되는 경우, 메모리에 저장된 지문 데이터로부터 지문 입력에 대한 압력 레벨 및 상기 압력 레벨에 따른 지문의 특성 중 적어도 하나에 기반하여 파라미터를 선택할 수 있다. 전자 장치는 선택된 파라미터에 기초하여 입력된 지문에 대한 노이즈를 제거, 왜곡 형상을 보정, 또는 저해상도 영역을 복원할 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 장치는, 디스플레이, 제1 센서, 제2 센서, 메모리, 및 상기 디스플레이, 상기 제1 센서, 상기 제2 센서, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며, 상기 프로세서는, 상기 제1 센서를 통해 지문 이미지를 획득하고, 상기 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하고, 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고, 상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하고, 상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 장치는, 디스플레이, 제1 센서, 제2 센서, 메모리, 및 상기 디스플레이, 상기 제1 센서, 상기 제2 센서, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며, 상기 프로세서는, 상기 제1 센서를 통해 지문 이미지를 획득하고, 상기 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하고, 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고, 상기 분석된 지문의 특성 및 상기 측정된 압력 레벨에 기반하여 파라미터를 선택하고, 상기 선택된 파라미터에 기초하여 상기 획득된 지문 이미지를 처리하고, 상기 처리된 지문 이미지와 상기 메모리에 저장된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따르면, 전자 장치는, 디스플레이, 상기 디스플레이의 적어도 일부 영역에 배치된 센서부, 메모리, 및 상기 디스플레이, 상기 센서부, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며, 상기 프로세서는, 상기 센서부를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정하고, 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고, 상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하고, 상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하도록 설정될 수 있다.
본 발명의 다양한 실시예들에 따르면, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 방법은, 제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하는 동작, 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하는 동작, 상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하는 동작, 및 상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 방법은, 제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하는 동작, 기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하는 동작, 상기 분석된 지문의 특성 및 상기 측정된 압력 레벨에 기반하여 파라미터를 선택하는 동작, 상기 선택된 파라미터에 기초하여 상기 획득된 지문 이미지를 처리하는 동작, 및 상기 처리된 지문 이미지와 메모리에 저장된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 방법은, 센서부를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정하는 동작, 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하는 동작, 상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하는 동작, 및 상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하는 동작을 포함할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 지문의 특성, 압력 레벨, 및 지문 이미지의 처리와 연관된 파라미터를 매핑하여 지문 데이터로서 메모리에 저장할 수 있다.
본 발명의 다양한 실시예에 따른 전자 장치는 지문 인증을 수행하는 경우, 지문 입력에 대한 압력 레벨 및 상기 압력 레벨에 따른 지문의 특성에 대응하는 파라미터를 선택하고, 이에 기초하여 입력된 지문을 처리할 수 있다. 이에 따라, 지문 입력에 대한 압력 레벨에 따라 변하는 지문의 특성을 고려하여 상이한 알고리즘을 적용할 수 있어, 지문 인식률이 높아질 수 있다.
또한, 전자 장치는 지문 입력에 대한 압력 레벨 및 지문의 특성에 따라 최적화된 알고리즘을 적용할 수 있어, 지문을 다시 입력하지 않아도 되는 편리함을 사용자에게 제공할 수 있다.
도 1은 다양한 실시예들에 따른, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하기 위한, 전자 장치의 블록도이다.
도 2는 다양한 실시예들에 따른, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하기 위한, 전자 장치를 나타내는 블록도이다.
도 3 및 도 4는 다양한 실시예들에 따른, 압력 레벨의 범위에 따라 획득되는 지문 이미지를 설명하기 위한 도면이다.
도 5는 다양한 실시예들에 따른, 압력 레벨의 변화에 따른 지문 특성의 변화를 도시한 도면이다.
도 6은 다양한 실시예들에 따른, 지문을 등록하는 경우 표시되는 사용자 인터페이스를 도시한 도면이다.
도 7은 다양한 실시예들에 따른, 지문을 등록하는 방법을 설명하기 위한 흐름도이다.
도 8 및 도 9는 다양한 실시예들에 따른, 압력 레벨의 범위 별로 상이한 필터를 이용하여 지문 이미지를 처리하는 방법을 설명하기 위한 도면이다.
도 10은 다양한 실시예들에 따른, 지문 인증을 수행하는 방법을 설명하기 위한 흐름도이다.
도 11은 다양한 실시예들에 따른, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하기 위한, 전자 장치를 나타내는 블록도이다.
도 12는 다양한 실시예들에 따른, 지문을 등록하는 방법을 설명하기 위한 흐름도이다.
도 13은 다양한 실시예들에 따른, 지문 인증을 수행하는 방법을 설명하기 위한 흐름도이다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하기 위한, 전자 장치(101)의 블록도이다.
도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일 실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성 요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다.
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)을 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일 실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일 실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)은 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일 실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)은, 예를 들면, 마이크, 마우스, 또는 키보드를 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일 실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일 실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일 실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102)) (예: 스피커 또는 헤드폰))를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일 실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)이 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일 실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일 실시예에 따르면, 연결 단자(178)은, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일 실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일 실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일 실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성 요소에 전력을 공급할 수 있다. 일 실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일 실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association) 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성 요소(예: 단일 칩)으로 통합되거나, 또는 서로 별도의 복수의 구성 요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일 실시예에 따르면, 안테나 모듈(197)은 하나 이상의 안테나들을 포함할 수 있고, 이로부터, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))를 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일 실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일 실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, or 108) 중 하나 이상의 외부 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다.. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 다양한 실시예들에 따른, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하기 위한, 전자 장치를 나타내는 블록도이다.
도 2를 참조하면, 전자 장치(200)(예: 도 1의 전자 장치(101))는 무선 통신 회로(210)(예: 도 1의 통신 모듈(190)), 메모리(220)(예: 도 1의 메모리(130)), 디스플레이 드라이버 IC(display driver integrated circuit)(230), 터치스크린(240)(예: 도 1의 표시 장치(160)), 압력 센서(250), 지문 ROIC(readout integrated circuit)(260), 지문 센서(270), 및 프로세서(280)(예: 도 1의 프로세서(120))를 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 무선 통신 회로(210)(예: 도 1의 통신 모듈(190))는 외부 전자 장치(예: 도 1의 전자 장치(102, 104), 서버(106))와 통신을 연결할 수 있다. 예컨대, 상기 무선 통신 회로(210)는 무선 통신을 통해서 네트워크에 연결되어 외부 전자 장치와 통신할 수 있다.
본 발명의 다양한 실시예들에 따르면, 메모리(220)(예: 도 1의 메모리(130))는 전기적으로 프로세서(280)와 연결될 수 있다.
일 실시예에서, 메모리(220)는 지문 인식과 관련된 동작 모드(예: 지문 등록 모드, 지문 인증 모드)에 따라 지문 센서(270)를 제어하기 위한 프로그램을 저장할 수 있다. 예컨대, 메모리(220)는 지문 센서(270)가 적어도 하나 이상의 스캔 방식을 이용하여 지문 이미지를 획득할 수 있는 기능을 처리하는 프로그램 및 이 프로그램에 따라 처리되는 데이터를 저장할 수 있다.
일 실시예에서, 메모리(220)는 지문 센서(270)를 통해 입력되는 지문 이미지의 매치 여부를 확인하는데 사용하기 위한 사용자의 지문 이미지를 미리 저장할 수 있다. 상기 메모리(220)는 지문 인식과 관련된 동작 모드에 따라 사용자 인터페이스(user interface, UI)를 표시하기 위한 프로그램을 저장할 수 있다.
일 실시예에서, 메모리(220)는 지문 센서(270)를 통해 획득되는 지문 이미지에 적어도 기반하여 분석된 지문의 특성, 압력 센서(250)를 통해 측정된 압력 레벨, 및 상기 지문의 특성과 압력 레벨에 기초하여 결정된 지문 이미지의 처리와 연관된 파라미터를 매핑하여 지문 데이터로서 저장할 수 있다.
본 발명의 다양한 실시예들에 따르면, 디스플레이 드라이버 IC(display driver integrated circuit)(230)는 프로세서(280)로부터 수신한 영상 정보에 대응하는 영상 구동 신호를 미리 설정된 프레임률(frame rate)로 디스플레이(241)에 공급할 수 있다. 상기 디스플레이 드라이버 IC(230)는 그래픽 램, 인터페이스 모듈, 이미지 프로세싱 유닛(image processing unit), 멀티플렉서(multiplexer), 디스플레이 타이밍 컨트롤러(display timing controller; T-con), 소스 드라이버, 게이트 드라이버, 및/또는 발진기(oscillator) 등을 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 터치스크린(240)(예: 도 1의 표시 장치(160))은 디스플레이 드라이버 IC(230)로부터 공급받은 영상 구동 신호를 수신할 수 있다. 상기 디스플레이(241)는 전자 장치(200)의 이용에 따른 다양한 화면들을 표시할 수 있다. 상기 디스플레이(241)는 예컨대, 각종 컨텐츠(예: 텍스트, 이미지, 비디오, 아이콘, 또는 심볼 등)를 표시할 수 있다. 또한, 상기 디스플레이(241)는 액정 디스플레이(LCD), 발광 다이오드(LED) 디스플레이, 유기 발광 다이오드(OLED) 디스플레이, 또는 마이크로 전자기계 시스템(microelectromechanical systems(MEMS)) 디스플레이, 또는 전자종이(electronic paper) 디스플레이를 포함할 수 있다. 상기 터치패널(243)은 예컨대, 전자 펜 또는 사용자의 신체의 일부를 이용한 터치, 제스처, 근접, 또는 호버링 입력을 수신할 수 있다.
일 실시예에서, 디스플레이(241)는 터치패널(243), 압력 센서(250), 및/또는 지문 센서(270)와 중첩적으로 결합될 수 있다.
일 실시예에서, 터치스크린(240)은 적어도 일부 영역에 사용자의 지문 인증과 관련된 사용자 인터페이스를 프로세서(280)의 제어 하에 표시할 수 있다. 터치패널(243) 또는 디스플레이(241)의 적어도 일부 영역은 지문 센서(270)의 지문 인식 영역을 포함할 수 있다. 예컨대, 지문 인식 영역은 터치패널(243) 또는 디스플레이(241)의 상부 또는 하부에 배치될 수 있다. 하지만 이에 한정하는 것은 아니다.
일 실시예에서, 터치스크린(240)은 터치패널(243)을 통해 전자 장치(200) 사용자의 지문 인증과 관련된 터치 입력 정보를 획득하고, 획득된 터치 입력 정보를 프로세서(280)에 전송할 수 있다. 터치스크린(240)은 프로세서(280)의 제어 하에 디스플레이(241)를 통해 지문 센서(270)의 적어도 일부를 포함하는 지문 인식 영역에 사용자 인터페이스 오브젝트(예: 지문 인증과 관련된 인디케이션)를 표시할 수 있다.
본 발명의 다양한 실시예들에 따르면, 압력 센서(250)는 외부 압력을 감지할 수 있다. 예컨대, 압력 센서(250)는 사용자의 손가락이 터치스크린(240)에 가한 압력을 감지할 수 있다.
일 실시예에서, 압력 센서(250)는 터치패널(243)에 포함될 수 있다.
본 발명의 다양한 실시예들에 따르면, 지문 ROIC(readout integrated circuit)(260)는 지문 센서(270)를 구동할 수 있고, 상기 지문 센서(270)의 적어도 일부 영역을 스캐닝(scanning)할 수 있다. 상기 지문 ROIC(260)는 상기 스캐닝을 통해 지문 이미지를 획득(capture)할 수 있다. 상기 지문 ROIC(260)는 예컨대, 상기 지문 이미지로부터 지문의 유니크(unique)한 특징(feature)을 추출하고, 상기 추출된 특징을 지문 정보로서 프로세서(280)에 전달할 수 있다. 예컨대, 상기 추출된 특징, 즉, 지문 특징점(fingerprint minutiae)은 지문에 포함된 융선의 끝점(ridge end point), 분기점(bifurcation point), 중심점(core), 삼각주(delta) 등을 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 지문 센서(270)는 터치스크린(240)의 적어도 일부 영역 또는 전체 영역을 커버하도록 배치될 수 있다. 상기 지문 센서(270)는 복수의 영역으로 구분되는 지문 센싱 어레이를 포함할 수 있다.
일 실시예에서, 지문 센서(270)는 전자 장치(200) 사용자의 손가락이 지문 인식 영역의 적어도 일부를 터치함에 따라, 변화되는 전류의 양에 기반하여 사용자의 지문에 대응하는 지문 이미지를 획득할 수 있다. 상기 지문 인식 영역은 지문 센서(270)의 적어도 일부를 포함할 수 있다. 지문 센서(270)를 통해 획득된 지문 이미지는 메모리(220)에 미리 저장된 사용자의 지문 이미지와 비교된 후, 매치 스코어(예: 매칭률 또는 유사도)에 따라 전자 장치(200)의 사용자 인증에 사용될 수 있다. 지문 센서(270)를 통해 획득된 지문 이미지는 압축되어 메모리(220)에 저장될 수 있으며, 추후 사용자 인증을 위해 사용자의 인증 정보로 등록될 수 있다.
본 발명의 다양한 실시예들에 따르면, 프로세서(280)(예: 도 1의 프로세서(120))는 전자 장치(200)의 전반적인 동작 및 전자 장치(200)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터 처리를 수행하고, 배터리(예: 도 1의 배터리(189))에서 상기 구성들로의 전원 공급을 제어할 수 있다.
일 실시예에서, 프로세서(280)는 지문 등록을 요청하는 입력이 감지되면, 지문 센서(270)를 통해 지문 이미지를 획득하고, 압력 센서(250)를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다. 프로세서(280)는 지문 등록을 요청하는 입력이 감지되면, 지문 입력을 요청하는 사용자 인터페이스를 터치스크린(240)에 표시할 수 있다. 프로세서(280)는 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 예컨대, 상기 지문의 특성은 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 상기 지문의 융과 골의 폭 등을 포함할 수 있다. 프로세서(280)는 지문의 특성 및 압력 레벨에 기초하여 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다. 상기 파라미터는 지문 인증 과정에서 획득된 지문 이미지를 처리하기 위한 것이다. 예컨대, 프로세서(280)는 지문 이미지에서 노이즈를 제거, 왜곡된 형상을 보정, 또는 저해상도 영역을 복원하여 지문의 특징점 추출을 용이하게 하기 위한 것이다. 상기 파라미터는 지문의 특성 및 압력 레벨에 기반하여 가변될 수 있다. 프로세서(280)는 지문의 특성, 압력 레벨, 및 지문 이미지의 처리와 연관된 파라미터에 기반하여 지문 데이터를 생성하고, 상기 지문 데이터를 메모리(220)에 저장할 수 있다.
일 실시예에서, 프로세서(280)는 지문 인증을 요청하는 입력이 감지되면, 지문 센서(270)를 통해 지문 이미지를 획득하고, 압력 센서(250)를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다. 프로세서(280)는 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 프로세서(280)는 분석된 지문의 특성 및 측정된 압력 레벨에 기반하여 파라미터를 선택(예: 추출 또는 독출 등)할 수 있다. 예컨대, 프로세서(280)는 메모리(220)에 저장된 지문 데이터에 적어도 기반하여 상기 파라미터를 선택할 수 있다. 프로세서(280)는 선택된 파라미터에 기초하여 획득된 지문 이미지를 처리(예: 전처리, 보정 등)할 수 있다. 예컨대, 프로세서는 상기 선택된 파라미터에 기초하여 획득된 지문 이미지에서 노이즈를 제거, 왜곡된 형상을 보정, 또는 저해상도 영역을 복원할 수 있다. 프로세서(280)는 처리된 지문 이미지와 메모리(220)에 저장된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행할 수 있다.
도 3 및 도 4는 다양한 실시예들에 따른, 압력 레벨의 범위에 따라 획득되는 지문 이미지를 설명하기 위한 도면이다.
도 3을 참조하면, 프로세서(예: 도 2의 프로세서(280))는 지문을 등록하기 위한 입력이 감지되면, <310>에 도시된 바와 같이 지문 센서(예: 도 2의 지문 센서(270))를 통해 지문 이미지(311)를 획득할 수 있다. 프로세서는 압력 센서(예: 도 2의 압력 센서(250))를 통해 상기 지문 이미지(311) 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서는 상기 지문 이미지(311)에 적어도 기반하여 지문의 특성을 분석할 수 있다. 예컨대, 상기 지문의 특성은 상기 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 상기 지문의 융과 골의 폭 등을 포함할 수 있다.
이하 실시예에서, 상기 지문의 특성은 지문의 융과 골의 비율로 가정하여 설명한다.
일 실시예에서, <320>은 상기 지문 이미지(311)의 일부 영역을 확대한 것으로, 참조번호 321은 지문의 융을 나타내고, 참조번호 323은 지문의 골을 나타낸다.
일 실시예에서, <330>은 터치스크린(340)(예: 도 2의 터치스크린(240)) 상에 입력되는 지문의 융(321)과 골(323)을 도시한 것이다. 프로세서는 압력 레벨의 범위(335)에 따른 지문의 융(321)과 골(323)의 비율을 분석할 수 있다. 예컨대, 터치스크린(340) 상에서 사용자 손가락의 터치 입력이 감지되면, 프로세서는 압력 레벨의 범위(335)가 예컨대, 압력 레벨 2로 측정되고, 지문의 융(321)과 골(323)의 비율이 예컨대, 1:1인 것으로 분석할 수 있다.
일 실시예에서, 프로세서는 상기 분석된 지문의 융(321)과 골(323)의 비율(예: 1:1) 및 상기 측정된 압력 레벨의 범위(335)(예: 압력 레벨 2)에 기초하여, 지문 이미지(311)의 처리와 연관된 파라미터를 결정할 수 있다. 상기 파라미터는 노이즈 제거, 왜곡 형상 보정, 또는 저해상도 영역의 복원 등을 통해 지문 이미지(311)를 개선하는데 이용할 수 있다.
일 실시예에서, 프로세서는 지문의 특성, 압력 레벨, 및 상기 지문 이미지(311)의 처리와 연관된 파라미터를 매핑하여 메모리(예: 도 2의 메모리(220))에 저장할 수 있다.
도 4를 참조하면, 프로세서는 지문을 등록하기 위한 입력이 감지되면, <410>에 도시된 바와 같이 지문 센서를 통해 지문 이미지(411)를 획득할 수 있다. 프로세서는 압력 센서를 통해 상기 지문 이미지(411) 획득 시의 압력 레벨을 측정할 수 있다. 프로세서는 상기 지문 이미지(411)에 적어도 기반하여 지문의 특성 예컨대, 지문의 융과 골의 비율을 분석할 수 있다.
일 실시예에서, <420>은 상기 지문 이미지(411)의 일부 영역을 확대한 것으로, 참조번호 421은 지문의 융을 나타내고, 참조번호 423은 지문의 골을 나타낸다.
일 실시예에서, <430>은 터치스크린(440) 상에 입력되는 지문의 융(421)과 골(423)을 도시한 것이다. 프로세서는 압력 레벨의 범위(435)에 따른 지문의 융(421)과 골(423)의 비율을 분석할 수 있다. 예컨대, 터치스크린(340) 상에서 사용자 손가락의 터치 입력이 감지되면, 프로세서는 압력 레벨의 범위(435)가 예컨대, 압력 레벨 3으로 측정되고, 지문의 융(421)과 골(423)의 비율이 예컨대, 2:1인 것으로 분석할 수 있다.
일 실시예에서, 프로세서는 상기 분석된 지문의 융(421)과 골(423)의 비율(예: 2:1) 및 상기 측정된 압력 레벨의 범위(435)(예: 압력 레벨 3)에 기초하여, 상기 지문 이미지(411)의 처리와 연관된 파라미터를 결정할 수 있다. 프로세서는 지문의 특성, 압력 레벨, 및 상기 지문 이미지(411)의 처리와 연관된 파라미터를 매핑하여 메모리에 저장할 수 있다.
일 실시예에서, 도 3의 1:1로 분석된 지문의 융과 골의 비율 및 2로 측정된 압력 레벨에 기초하여 결정된 파라미터와 도 4의 2:1로 분석된 지문의 융과 골의 비율 및 3으로 측정된 압력 레벨에 기초하여 결정된 파라미터는 상이할 수 있다. 다시 말해, 상기 파라미터는 압력 레벨 및 지문의 특성에 기반하여 가변될 수 있다.
도 5는 다양한 실시예들에 따른, 압력 레벨의 변화에 따른 지문 특성의 변화를 도시한 도면이다.
도 5를 참조하면, x축은 압력 레벨을 나타내고, y축은 지문의 특성 변형을 나타낸 것이다.
일 실시예에서, 터치스크린(예: 도 2의 터치스크린(240)) 상에서 감지되는 사용자의 터치 입력의 압력 레벨에 따라 지문의 특성은 변화할 수 있다.
예컨대, 압력 레벨이 a(510)인 경우, 이에 따른 지문의 특성 예컨대, 융과 골의 비율은 1:1(515)일 수 있고, 압력 레벨이 b(520)인 경우, 이에 따른 지문의 특성 예컨대, 융과 골의 비율은 1:2(525)일 수 있다.
일 실시예에서, 압력 레벨 a(510)로 지문 입력이 감지된 경우 상기 지문의 융과 골의 비율이 1:1(515)인 반면, 압력 레벨 a(510)보다 높은 압력 레벨 b(520)로 지문 입력이 감지된 경우 상기 지문의 융과 골의 비율은 1:2(525)로 변형(예: 융의 비율이 증가, 골의 비율이 감소)됨을 확인할 수 있다.
일 실시예에서, 프로세서는 1:1(515)의 지문의 융과 골의 비율 및 압력 레벨 a(510)에 기초하여 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다.
일 실시예에서, 프로세서는 상기 결정된 파라미터에 기초하여 지문 이미지의 처리와 연관된 지정된(specified) 필터의 적어도 하나의 파라미터를 조정할 수 있다.
일 실시예에서, 지문 이미지를 처리하기 위한 필터를 가버 필터(gabor filter)로 가정하여 설명하면, 가버 필터의 수식은 하기 수학식1과 같을 수 있다.
예컨대, 가버 필터는 파라미터 σ, θ, λ, ψ, γ를 포함할 수 있다. 지문의 특성(예: 지문의 융과 골의 비율) 및 압력 레벨에 기초하여 상기 파라미터 σ, θ, λ, ψ, γ 중 적어도 하나의 파라미터가 조정될 수 있다. 예컨대, σ는 커널(kernel)의 너비를 결정하는 파라미터, θ는 가버 필터가 추출하는 엣지(edge)의 방향을 결정하는 파라미터, λ는 사인 함수를 조절하는 파라미터, ψ는 필터의 중간값을 결정하는 파라미터, γ는 필터의 가로, 세로 비율을 조절하는 파라미터이다.
일 실시예에서, 프로세서는 지문의 특성(515), 압력 레벨 a(510), 및 상기 지문의 특성(515)과 압력 레벨 a(510)에 기초하여 결정된 지문 이미지의 처리와 연관된 파라미터를 매핑하여 메모리(예: 도 2의 메모리(220))에 저장할 수 있다.
일 실시예에서, 지문 인증을 수행 시, 압력 레벨 a(510)로 측정되고, 지문의 융과 골의 비율이 1:1(515)인 지문 이미지가 획득되면, 프로세서는 상기 파라미터들 중 적어도 하나를 상기 지문의 특성(515) 및 압력 레벨 a(510)에 기초하여 결정된 지문 이미지의 처리와 연관된 파라미터로 조정할 수 있다. 프로세서는 상기 적어도 하나의 파라미터가 조정된 필터(517)를 이용하여 상기 지문 이미지를 보정할 수 있다.
일 실시예에서, 프로세서는 1:2(525)의 지문의 융과 골의 비율 및 압력 레벨 b(520)에 기초하여 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다.
일 실시예에서, 프로세서는 상기 결정된 파라미터에 기초하여 지문 이미지의 처리와 연관된 지정된 필터의 적어도 하나의 파라미터를 조정할 수 있다.
일 실시예에서, 프로세서는 지문의 특성(525), 압력 레벨 b(520), 및 상기 지문의 특성(525)과 압력 레벨 b(520)에 기초하여 결정된 지문 이미지의 처리와 연관된 파라미터를 매핑하여 메모리에 저장할 수 있다.
일 실시예에서, 지문 인증을 수행 시, 압력 레벨 b(520)로 측정되고, 지문의 융과 골의 비율이 1:2(525)인 지문 이미지가 획득되면, 프로세서는 파라미터들 중 적어도 하나를 상기 지문의 특성(525) 및 압력 레벨 b(520)에 기초하여 결정된 지문 이미지의 처리와 연관된 파라미터로 조정할 수 있다. 프로세서는 상기 적어도 하나의 파라미터가 조정된 필터(527)를 이용하여 상기 지문 이미지를 보정할 수 있다.
도 6은 다양한 실시예들에 따른, 지문을 등록하는 경우 표시되는 사용자 인터페이스를 도시한 도면이다.
도 6을 참조하면, 프로세서(예: 도 2의 프로세서(280))는 지문을 등록하기 위한 입력이 감지되면, 압력 레벨의 범위 별로 사용자에 대한 지문이 등록될 수 있도록 가이드 하기 위한 사용자 인터페이스를 터치스크린(예: 도 2의 터치스크린(240)) 상에 표시할 수 있다.
일 실시예에서, 상기 사용자 인터페이스는 <610> 내지 <630>에 도시된 바와 같이 상기 지문이 등록될 수 있도록 가이드 하기 위한 정보 예컨대, “제1 압력 레벨(또는, 제2 압력 레벨, 제3 압력 레벨)로 지문을 입력해주세요.”(611, 621, 631)와 지문 인식 영역(613, 623, 633)을 포함할 수 있다.
일 실시예에서, 프로세서는 압력 레벨의 범위 예컨대, 제1 압력 레벨 내지 제3 압력 레벨 별로 적어도 두 번 이상 지문이 입력될 수 있도록 가이드 할 수 있다. 예컨대, 지문 센서(예: 도 2의 지문 센서(270))의 크기가 한정되어 있기 때문에 상기 지문 센서를 통해 획득되는 지문 이미지는 부분 지문 이미지일 수 있다. 프로세서는 지문 인식 영역(613, 623, 633)에서 지문 등록을 위한 입력 예컨대, 사용자 손가락의 터치 입력이 감지되면, 지문 센서(예: 도 2의 지문 센서(270))를 통해 제1 부분 지문 이미지를 획득할 수 있다. 프로세서는 추가적으로 지문 등록을 위한 입력이 감지되면, 지문 센서를 통해 제2 부분 지문 이미지를 획득할 수 있다. 상기 제2 부분 지문 이미지는 지문 센서에 대응하는 손가락의 위치의 이동에 의해 획득되는 영역에 대한 이미지로, 상기 제1 부분 지문 이미지와 다른 지문 이미지일 수 있다. 프로세서는 지문 센서에 대응하는 손가락의 위치를 변경하면서 지문이 n번 입력될 수 있도록 가이드 할 수 있다. 프로세서는 n번의 지문 입력에 응답하여, n개의 부분 지문 이미지를 획득할 수 있다.
일 실시예에서, 지문 이미지가 기 설정된 기준 이상 획득된 것으로 결정되면, 프로세서는 부분 지문 이미지를 입력하는 동작을 완료하는 정보, 부분 지문 이미지를 획득하는 동작을 완료하는 정보, 및 부분 지문 이미지를 입력하는 동작의 중지를 요청하는 정보 중 적어도 하나를 터치스크린 상에 표시할 수 있다.
일 실시예에서, 상기 압력 레벨의 범위 별로 사용자에 대한 지문 이미지가 등록될 수 있도록 가이드 하기 위한 사용자 인터페이스를 정보(예: 611, 621, 631)로서 표시하는 것으로 설명하였지만, 이에 한정하는 것은 아니며, 압력 레벨의 범위 별로 상이한 색상, 발광, 소리, 진동을 출력하여 압력 레벨의 범위 별로 사용자에 대한 지문이 등록될 수 있도록 가이드 할 수 있다.
도 7은 다양한 실시예들에 따른, 지문을 등록하는 방법을 설명하기 위한 흐름도이다.
도 7을 참조하면, 프로세서(예: 도 2의 프로세서(280))는 701동작에서 제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서는 지문 입력을 요청하는 사용자 인터페이스(예: 도 6의 610, 620, 630)를 터치스크린(예: 도 2의 터치스크린(240)) 상에 표시할 수 있다.
일 실시예에서, 지문 입력을 요청하는 사용자 인터페이스는 압력 레벨의 범위 별로 지문 입력을 요청하는 정보(예: 도 6의 611, 621, 631) 및 지문이 입력되는 영역을 나타내는 지문 인식 영역(예: 도 6의 613, 623, 633)을 포함할 수 있다.
일 실시예에서, 상기 제1 센서 및 제2 센서는 터치스크린의 적어도 일부(예: 지문 인식 영역)에 배치될 수 있다. 예컨대, 상기 제1 센서는 지문 센서(예: 도 2의 지문 센서(270))를 포함할 수 있고, 상기 제2 센서는 압력 센서(예: 도 2의 압력 센서(250))를 포함할 수 있다.
일 실시예에서, 상기 터치스크린의 적어도 일부 영역에 형성된 지문 인식 영역에서 지문 등록을 위한 지문 입력이 감지되면, 프로세서는 지문 센서(예: 제1 센서)를 통해 지문 이미지를 획득하고, 압력 센서(예: 제2 센서)를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서는 703동작에서 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 예컨대, 상기 지문의 특성은 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 상기 지문의 융과 골의 폭 등을 포함할 수 있다.
일 실시예에서, 프로세서는 압력 레벨의 범위 별로 획득된 n개의 부분 지문 이미지를 연결하는 스티칭 동작을 통해 사용자의 전체 지문 이미지 또는 사용자의 결합 지문 이미지를 생성할 수 있다. 프로세서는 상기 스티칭 동작을 통해 생성된 전체 지문 이미지 또는 결합 지문 이미지에 기초하여 지문의 특성을 분석할 수 있다.
일 실시예에서, 프로세서는 705동작에서 지문의 특성 및 압력 레벨에 기초하여 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다.
일 실시예에서, 프로세서는 지문 인증 과정에서 지문 이미지의 처리(예: 보정)와 연관된 지정된(specified) 필터 중 적어도 하나의 파라미터를 상기 압력 레벨 및 지문의 특성에 기초하여 결정된 파라미터로 조정할 수 있다. 예컨대, 상기 압력 레벨 및 지문의 특성에 기초하여 결정된 파라미터는 지문 인증 과정에서 지문 이미지와 관련된 노이즈 제거, 왜곡 형상 보정, 또는 저해상도 영역의 복원 등을 통해 지문 이미지를 개선하여 지문의 특징점 추출을 용이하게 하기 위한 것이다.
일 실시예에서, 상기 파라미터는 지문의 특성 및 압력 레벨에 기반하여 가변될 수 있다.
일 실시예에서, 프로세서는 707동작에서 지문의 특성, 압력 레벨, 및 지문 이미지의 처리와 연관된 파라미터에 기반하여 지문 데이터를 생성하고, 상기 생성된 지문 데이터를 메모리(예: 도 2의 메모리(220))에 저장할 수 있다. 예컨대, 상기 지문 데이터는 상기 지문의 특성, 상기 압력 레벨, 및 상기 지문 이미지의 처리와 연관된 파라미터가 매핑된 데이터일 수 있다.
도 8 및 도 9는 다양한 실시예들에 따른, 압력 레벨의 범위 별로 상이한 필터를 이용하여 지문 이미지를 처리하는 방법을 설명하기 위한 도면이다.
도 8을 참조하면, 터치스크린(예: 도 2의 터치스크린(240))의 적어도 일부 영역에 형성된 지문 인식 영역(예: 도 6의 613, 623, 633)에서 지문 입력이 감지되면, 지문 센서(예: 도 2의 지문 센서(270))를 통해 지문 이미지를 획득하고, 압력 센서(예: 도 2의 압력 센서(250))를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서는 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성 예컨대, 융과 골의 비율을 분석할 수 있다.
일 실시예에서, <810>에 도시된 그래프는 상기 분석된 지문의 융과 골에 대한 것이다. 프로세서는 상기 분석된 지문의 특성 예컨대, 지문의 융과 골, 및 측정된 압력 레벨에 기반하여 파라미터를 선택할 수 있다. 프로세서는 메모리(예: 도 2의 메모리(220))에 저장된 지문 데이터에 적어도 기반하여 상기 파라미터를 선택할 수 있다.
예컨대, 프로세서는 <810>에 도시된 바와 같이 특정 압력 레벨로 지문의 융과 골의 비율이 T:T 예컨대, 1:1인 지문 이미지를 획득한 경우, 프로세서는 상기 특정 압력 레벨 및 상기 지문의 융과 골의 비율에 기반하여 파라미터를 선택할 수 있다. 프로세서는 지정된 필터의 적어도 하나의 파라미터를 상기 선택된 파라미터로 조정하고, <820>의 상기 적어도 하나의 파라미터가 조정된 필터를 이용하여 지문 이미지를 처리(예: 전처리, 보정 등)할 수 있다. 프로세서는 상기 적어도 하나의 파라미터가 조정된 필터(820)를 이용하여 획득된 지문 이미지(830)를 처리(840)할 수 있다. 예컨대, 프로세서는 획득된 지문 이미지(830)에서 노이즈를 제거, 왜곡 형상을 보정, 또는 저해상도 영역을 복원(840)할 수 있다.
도 9를 참조하면, 터치스크린의 적어도 일부 영역에 형성된 지문 인식 영역에서 지문 입력이 감지되면, 지문 센서를 통해 지문 이미지를 획득하고, 압력 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서는 상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성 예컨대, 융과 골의 비율을 분석할 수 있다.
일 실시예에서, <910>에 도시된 그래프는 상기 분석된 지문의 융과 골에 대한 것이다. 프로세서는 상기 분석된 지문의 특성 및 측정된 압력 레벨에 기반하여 파라미터를 선택할 수 있다. 프로세서는 메모리에 저장된 지문 데이터에 적어도 기반하여 상기 파라미터를 선택할 수 있다.
예컨대, <910>에 도시된 바와 같이 특정 압력 레벨로 지문의 융과 골의 비율이 T1/2:T2/2 예컨대, 1:2인 지문 이미지를 획득한 경우, 프로세서는 상기 특정 압력 레벨 및 상기 지문의 융과 골의 비율에 기반하여 파라미터를 선택할 수 있다. 프로세서는 지정된 필터의 적어도 하나의 파라미터를 상기 선택된 파라미터로 조정하고, <920>의 상기 적어도 하나의 파라미터가 조정된 필터를 이용하여 지문 이미지를 처리(예: 전처리, 보정 등)(940)할 수 있다. 프로세서는 상기 적어도 하나의 파라미터가 조정된 필터(920)를 이용하여 획득된 지문 이미지(930)에서 노이즈를 제거, 왜곡 형상을 보정, 또는 저해상도 영역을 복원(940)할 수 있다.
도 10은 다양한 실시예들에 따른, 획득된 지문 인증을 수행하는 방법을 설명하기 위한 흐름도이다.
도 10을 참조하면, 프로세서(예: 도 2의 프로세서(280))는 1001동작에서 제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 터치스크린(예: 도 2의 터치스크린(240))의 적어도 일부 영역에 형성된 지문 인식 영역(예: 도 6의 613, 623, 633)에서 지문 입력이 감지되면, 프로세서는 제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다. 예컨대, 상기 제1 센서는 지문 센서(예: 도 2의 지문 센서(270))를 포함할 수 있고, 상기 제2 센서는 압력 센서(예: 도 2의 압력 센서(250))를 포함할 수 있다.
일 실시예에서, 프로세서는 1003동작에서 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 예컨대, 상기 지문의 특성은 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 상기 지문의 융과 골의 폭 등을 포함할 수 있다.
일 실시예에서, 프로세서는 1005동작에서 분석된 지문의 특성 및 측정된 압력 레벨에 기반하여 파라미터를 선택할 수 있다.
일 실시예에서, 프로세서는 1007동작에서 선택된 파라미터에 기초하여 획득된 지문 이미지를 처리(예: 전처리, 보정 등)할 수 있다. 예컨대, 프로세서는 상기 선택된 파라미터에 기초하여 획득된 지문 이미지를 노이즈 제거, 왜곡 형상 복원, 또는 저해상도 영역을 보정할 수 있다. 상기 선택된 파라미터에 기초하여 획득된 지문 이미지를 처리함에 따라 지문의 특징점은 용이하게 추출될 수 있다.
일 실시예에서, 프로세서는 1009동작에서 처리된 지문 이미지와 저장된 지문 이미지를 비교하고, 비교 결과에 기반하여 지문 인증을 수행할 수 있다.
일 실시예에서, 프로세서는 파라미터에 기초하여 처리된 지문 이미지로부터 특징 정보를 추출할 수 있다. 상기 특징 정보는 적어도 하나의 특징점을 나타내는 미뉴셔(minutiae)일 수 있다. 상기 미뉴셔는 분기점(bifurcation point), 끝점(end point), 중심점(core), 삼각주(delta)를 포함할 수 있다. 또한, 미뉴셔는 융선(ridges)과 융선들 사이의 골(valleys)의 방향 또는 형상 등을 나타내는 특징점을 포함할 수 있다.
일 실시예에서, 프로세서는 상기 처리된 지문 이미지로부터 추출된 특징 정보와 메모리에 저장된 지문 이미지에 대한 특정 정보의 매치 여부를 결정할 수 있다. 매치 스코어가 특정 임계치 이상이면, 프로세서는 인증 성공으로 결정할 수 있다. 매치 스코어가 특정 임계치 미만이면, 프로세서는 인증 실패로 결정할 수 있다.
일 실시예에서, 상기 처리된 지문 이미지와 메모리에 저장된 지문 이미지를 비교하고, 비교 결과에 기반하여 지문 인증을 수행하는 방법은 공지된 기술로 본 발명의 기술 분야에서 통상의 지식을 가진 자에게 있어 자명하므로 상세한 설명은 생략하기로 한다.
도 11은 다양한 실시예들에 따른, 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하기 위한, 전자 장치를 나타내는 블록도이다.
도 11을 참조하면, 전자 장치(1100)(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))는 무선 통신 회로(1110)(예: 도 1의 통신 모듈(190), 도 2의 무선 통신 회로(210)), 메모리(1120)(예: 도 1의 메모리(130), 도 2의 메모리(220)), 터치스크린(1130)(예: 도 1의 표시 장치(160), 도 2의 터치스크린(240)), 센서부(1140), 및 프로세서(1150)(예: 도 1의 프로세서(120), 도 2의 프로세서(280))를 포함할 수 있다.
상기 도 11에서 전자 장치(1100)를 구성하는 무선 통신 회로(1110), 메모리(1120), 및 터치스크린(1130)은, 전술한 도 2의 전자 장치(200)를 구성하는 무선 통신 회로(210), 메모리(220), 및 터치스크린(240)과 동일하므로 상세한 설명은 생략하기로 한다.
본 발명의 다양한 실시예들에 따르면, 메모리(1120)(예: 도 1의 메모리(130), 도 2의 메모리(220))는 외부 객체(예: 사용자의 생체(예: 손가락))에서 반사되는 빛의 양과 압력 레벨의 범위를 매핑한 테이블을 저장할 수 있다.
본 발명의 다양한 실시예들에 따르면, 센서부(1140)는 광학식, 정전식 및 초음파식, IR(infrared) 방식 중 적어도 하나를 이용하여 사용자의 지문 이미지를 획득할 수 있다. 예를 들어, 광학식 방식은 감광 다이오드를 이용하여 지문의 이미지를 캡쳐하여 사용자의 지문 이미지를 획득할 수 있다. 정전식 방식은 지문이 전극에 터치되는 부분(융)은 감지되고, 터치되지 않는 부분(골)은 감지되지 않는 원리를 이용하여 지문 이미지를 획득할 수 있다. 초음파 방식은 피에조를 통해 초음파를 생성하고, 지문의 융과 골에 맞고 반사되는 초음파의 경로차를 이용하여 지문 이미지를 획득할 수 있다.
일 실시예에서, 센서부(1140)는 광학식 방식으로 구동되는 지문 센서를 포함할 수 있다.
본 발명의 다양한 실시예들에 따르면, 프로세서(1150)(예: 도 1의 프로세서(120), 도 2의 프로세서(280))는 전자 장치(1100)의 전반적인 동작 및 전자 장치(1100)의 내부 구성들 간의 신호 흐름을 제어하고, 데이터 처리를 수행하고, 배터리(예: 도 1의 배터리(189))에서 상기 구성들로의 전원 공급을 제어할 수 있다.
일 실시예에서, 프로세서(1150)는 지문 등록을 요청하는 입력이 감지되면, 광원을 발광하도록 센서부(1140) 예컨대, 광학식 방식의 지문 센서를 제어할 수 있다. 상기 광원으로부터 발광된 빛은 사용자의 생체(예; 손가락)에서 반사될 수 있으며, 프로세서(1150)는 상기 사용자의 생체에서 반사된 빛에 기반하여 지문 이미지를 획득할 수 있다.
일 실시예에서, 프로세서(1150)는 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다. 예컨대, 프로세서(1150)는 사용자의 생체에서 반사된 빛의 양 또는 획득된 지문 이미지에 기반하여 상기 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서(1150)는 메모리(1120)에 저장된 반사되는 빛의 양과 압력 레벨의 범위를 매핑한 테이블에 기초하여, 상기 사용자의 생체에서 반사된 빛의 양에 대응하는 압력의 레벨을 결정할 수 있다.
일 실시예에서, 프로세서(1150)는 상기 센서부(1140)를 통해 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 프로세서(1150)는 상기 분석된 지문의 특성 및 측정된 압력 레벨에 기초하여 상기 획득된 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다. 프로세서(1150)는 지문의 특성, 압력 레벨, 및 상기 지문 이미지의 처리와 연관된 파라미터에 기반하여 지문 데이터를 생성하고, 상기 지문 데이터를 메모리(1120)에 저장할 수 있다. 예컨대, 상기 지문 데이터는 상기 지문의 특성, 상기 압력 레벨, 및 상기 지문 이미지의 처리와 연관된 파라미터가 매핑된 데이터일 수 있다.
일 실시예에서, 지문 인증을 요청하는 입력이 감지되면, 프로세서(1150)는 광원을 발광하도록 센서부(1140) 예컨대, 광학식 방식의 지문 센서를 제어할 수 있다. 상기 광원으로부터 발광된 빛은 사용자의 생체에서 반사될 수 있으며, 프로세서(1150)는 상기 사용자의 생체에서 반사된 빛에 기반하여 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다. 프로세서(1150)는 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고, 상기 분석된 지문의 특성 및 측정된 압력 레벨에 대응하는 파라미터를 선택할 수 있다. 프로세서(1150)는 선택된 파라미터에 기초하여 획득된 지문 이미지를 처리할 수 있다. 프로세서(1150)는 처리된 지문 이미지와 메모리(220)에 저장된 지문 이미지를 비교하고, 비교 결과에 기반하여 지문 인증을 수행할 수 있다.
도 12는 다양한 실시예들에 따른 지문을 등록하는 방법을 설명하기 위한 흐름도이다.
도 12를 참조하면, 프로세서(예: 도 2의 프로세서(280))는 1201동작에서 센서(예: 도 11의 센서부(1140))를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 상기 센서는 광학식 방식으로 구동되는 지문 센서를 포함할 수 있다. 프로세서는 지문 등록을 요청하는 입력이 감지되면, 광원을 발광하도록 상기 광학식 방식의 지문 센서를 제어할 수 있다. 상기 광원으로부터 발광된 빛은 사용자의 생체에서 반사될 수 있으며, 프로세서는 상기 사용자의 생체에서 반사된 빛에 기반하여 지문 이미지를 획득할 수 있다.
일 실시예에서, 프로세서는 상기 사용자의 생체에서 반사된 빛의 양 또는 획득된 지문 이미지에 기반하여 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 상기 센서는 터치스크린(예: 도 11의 터치스크린(1130))의 적어도 일부 영역(예: 지문 인식 영역)에 배치될 수 있다.
일 실시예에서, 지문 등록을 요청하는 입력이 감지되면, 프로세서는 압력 레벨의 범위 별로 지문 등록을 요청하는 사용자 인터페이스(예: 도 6의 610, 620, 630)를 터치스크린 상에 표시할 수 있다.
일 실시예에서, 프로세서는 1203동작에서 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 예컨대, 상기 지문의 특성은 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 상기 지문의 융과 골의 폭 등을 포함할 수 있다.
일 실시예에서, 프로세서는 1205동작에서 프로세서는 지문의 특성 및 압력 레벨에 기초하여 지문 이미지의 처리와 연관된 파라미터를 결정할 수 있다.
일 실시예에서, 프로세서는 1207동작에서 지문의 특성, 압력 레벨, 및 지문 이미지의 처리와 연관된 파라미터에 기반하여 지문 데이터를 생성하고, 상기 생성된 지문 데이터를 메모리(예: 도 11의 메모리(1120))에 저장할 수 있다.
상기 도 12의 1203동작 내지1207 동작은 전술한 도 7의 703동작 내지 707동작과 동일하므로 상세한 설명은 생략하기로 한다.
도 13은 다양한 실시예들에 따른 획득된 지문 인증을 수행하는 방법을 설명하기 위한 흐름도이다.
도 13을 참조하면, 프로세서(예: 도 2의 프로세서(280))는 1301동작에서 센서(예: 도 11의 센서부(1140))를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 상기 센서는 광학식 방식으로 구동되는 지문 센서를 포함할 수 있다. 프로세서는 지문 등록을 요청하는 입력이 감지되면, 광원을 발광하도록 상기 광학식 방식의 지문 센서를 제어할 수 있다. 상기 광원으로부터 발광된 빛은 사용자의 생체에서 반사될 수 있으며, 프로세서는 상기 사용자의 생체에서 반사된 빛에 기반하여 지문 이미지를 획득할 수 있다.
일 실시예에서, 프로세서는 상기 사용자의 생체에서 반사된 빛의 양 또는 획득된 지문 이미지에 기반하여 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 상기 센서는 터치스크린(예: 도 11의 터치스크린(1130))의 적어도 일부 영역(예 지문 인식 영역)에 배치될 수 있다.
일 실시예에서, 터치스크린의 적어도 일부 영역에 형성된 지문 인식 영역(예: 도 6의 613, 623, 633)에서 지문 입력이 감지되면, 프로세서는 상기 센서를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정할 수 있다.
일 실시예에서, 프로세서는 1303동작에서 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석할 수 있다. 예컨대, 상기 지문의 특성은 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 상기 지문의 융과 골의 폭 등을 포함할 수 있다.
일 실시예에서, 프로세서는 1305동작에서 분석된 지문의 특성 및 측정된 압력 레벨에 기반하여 파라미터를 선택하고, 1307동작에서 상기 선택된 파라미터에 기초하여 획득된 지문 이미지를 처리할 수 있다. 프로세서는 1309동작에서 처리된 지문 이미지와 등록된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행할 수 있다.
상기 도 13의 1303동작 내지1309 동작은 전술한 도 10의 1003동작 내지 1009동작과 동일하므로 상세한 설명은 생략하기로 한다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", “A 또는 B 중 적어도 하나,”"A, B 또는 C," "A, B 및 C 중 적어도 하나,”및 “A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, “기능적으로” 또는 “통신적으로”라는 용어와 함께 또는 이런 용어 없이, “커플드” 또는 “커넥티드”라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장매체 는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일 실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.
Claims (15)
- 전자 장치에 있어서,디스플레이;제1 센서;제2 센서;메모리; 및상기 디스플레이, 상기 제1 센서, 상기 제2 센서, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며,상기 프로세서는,상기 제1 센서를 통해 지문 이미지를 획득하고, 상기 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하고,상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고,상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하고,상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고 저장하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 제 1 센서 또는 상기 제 2 센서 중 적어도 하나는, 상기 디스플레이의 적어도 일부에 배치된 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 파라미터에 적어도 기반하여 상기 지문 이미지와 관련된 노이즈 제거, 왜곡 형상 보정, 또는 저해상도 복원 중 적어도 어느 하나를 처리하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,상기 획득된 지문 이미지에 적어도 기반하여, 지문의 특징점 간의 거리, 상기 지문의 융과 골의 비율, 또는 상기 지문의 융과 골의 폭 중 적어도 하나의 상기 지문의 특성을 분석하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 프로세서는,지문 등록을 요청하는 입력이 감지될 경우, 압력 레벨 별로 지문을 등록하도록 가이드 하기 위한 사용자 인터페이스를 상기 디스플레이를 통해 표시하고,상기 사용자 인터페이스를 표시하는 상기 디스플레이에 배치된 상기 제1 센서를 통해 지문 이미지를 획득하고, 상기 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하도록 설정된 전자 장치.
- 제 1 항에 있어서,상기 제1 센서는 지문 센서를 포함하고, 상기 제2 센서는 압력 센서를 포함하는 전자 장치.
- 전자 장치에 있어서,디스플레이;제1 센서;제2 센서;메모리; 및상기 디스플레이, 상기 제1 센서, 상기 제2 센서, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며,상기 프로세서는,상기 제1 센서를 통해 지문 이미지를 획득하고, 상기 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하고,상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고,상기 분석된 지문의 특성 및 상기 측정된 압력 레벨에 기반하여 파라미터를 선택하고,상기 선택된 파라미터에 기초하여 상기 획득된 지문 이미지를 처리하고,상기 처리된 지문 이미지와 상기 메모리에 저장된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행하도록 설정된 전자 장치.
- 제 7 항에 있어서,상기 프로세서는,상기 선택된 파라미터에 기초하여 지정된 필터 중 적어도 하나의 파라미터를 조정하고,상기 적어도 하나의 파라미터가 조정된 필터를 이용하여 상기 획득된 지문 이미지를 처리하도록 설정된 전자 장치.
- 전자 장치에 있어서,디스플레이;상기 디스플레이의 적어도 일부 영역에 배치된 센서부;메모리; 및상기 디스플레이, 상기 센서부, 및 상기 메모리와 전기적으로 연결된 프로세서를 포함하며,상기 프로세서는,상기 센서부를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정하고,상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고,상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하고,상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하도록 설정된 전자 장치.
- 제 9 항에 있어서,상기 센서부는 광학식 방식의 지문 센서를 포함하고,상기 프로세서는,지문 등록을 요청하는 입력이 감지되면, 광원을 발광하도록 상기 광학식 방식의 지문 센서를 제어하고, 상기 발광된 빛이 사용자의 생체에서 반사되면, 상기 반사된 빛에 기반하여 상기 지문 이미지를 획득하고, 상기 사용자의 생체에서 반사된 빛의 양 또는 상기 획득된 지문 이미지에 기반하여 상기 지문 이미지 획득 시의 압력 레벨을 측정하도록 설정된 전자 장치.
- 제 9 항에 있어서,상기 프로세서는,지문 인증을 요청하는 입력이 감지되면, 상기 센서부를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정하고,상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하고,상기 분석된 지문의 특성 및 상기 측정된 압력 레벨에 기반하여 파라미터를 선택하고,상기 선택된 파라미터에 기초하여 상기 획득된 지문 이미지를 처리하고,상기 처리된 지문 이미지와 상기 메모리에 저장된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행하도록 설정된 전자 장치.
- 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 방법에 있어서,제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하는 동작;상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하는 동작;상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하는 동작; 및상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하는 동작을 포함하는 방법.
- 제 12 항에 있어서,상기 제 1 센서 또는 상기 제 2 센서 중 적어도 하나는, 디스플레이의 적어도 일부에 배치되며,상기 제1 센서는 지문 센서를 포함하고, 상기 제2 센서는 압력 센서를 포함하는 방법.
- 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 방법에 있어서,제1 센서를 통해 지문 이미지를 획득하고, 제2 센서를 통해 상기 지문 이미지 획득 시의 압력 레벨을 측정하는 동작;상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하는 동작;상기 분석된 지문의 특성 및 상기 측정된 압력 레벨에 기반하여 파라미터를 선택하는 동작;상기 선택된 파라미터에 기초하여 상기 획득된 지문 이미지를 처리하는 동작; 및상기 처리된 지문 이미지와 메모리에 저장된 지문 이미지를 비교하고, 상기 비교 결과에 기반하여 지문 인증을 수행하는 동작을 포함하는 방법.
- 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 방법에 있어서,센서부를 통해 지문 이미지를 획득하고, 상기 지문 이미지 획득 시의 압력 레벨을 측정하는 동작;상기 획득된 지문 이미지에 적어도 기반하여 지문의 특성을 분석하는 동작;상기 지문의 특성 및 상기 압력 레벨에 기초하여 상기 지문 이미지의 처리와 연관된 파라미터를 결정하는 동작; 및상기 지문의 특성, 상기 압력 레벨, 및 상기 파라미터에 기반하여 지문 데이터를 생성하고, 저장하는 동작을 포함하는 방법.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180007063A KR20190088679A (ko) | 2018-01-19 | 2018-01-19 | 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법 |
KR10-2018-0007063 | 2018-01-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2019143199A1 true WO2019143199A1 (ko) | 2019-07-25 |
Family
ID=67301272
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/KR2019/000792 WO2019143199A1 (ko) | 2018-01-19 | 2019-01-18 | 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법 |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20190088679A (ko) |
WO (1) | WO2019143199A1 (ko) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230030159A (ko) * | 2021-08-25 | 2023-03-06 | 주식회사 디지트로그 | 이미지 내의 객체 위치 거리 측정을 위한 카메라 보정 장치 및 방법 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20210061593A (ko) | 2019-11-20 | 2021-05-28 | 삼성전자주식회사 | 전자 장치 및 전자 장치의 지문 인식 방법 |
WO2024101753A1 (ko) * | 2022-11-10 | 2024-05-16 | 삼성전자 주식회사 | 지문 정보를 업데이트하는 방법 및 이를 지원하는 전자 장치 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100795187B1 (ko) * | 2006-11-29 | 2008-01-16 | 엘지전자 주식회사 | 지문 인식 장치 및 방법 |
KR20170044683A (ko) * | 2015-01-13 | 2017-04-25 | 선전 후이딩 테크놀로지 컴퍼니 리미티드 | 지문 센서 및 그 보정 방법 |
KR20170072904A (ko) * | 2015-11-09 | 2017-06-27 | 선전 후이딩 테크놀로지 컴퍼니 리미티드 | 터치 신호에 의하여 이동 단말기의 조작을 실현하는 방법, 시스템 및 이동 단말기 |
KR20170136359A (ko) * | 2016-06-01 | 2017-12-11 | 삼성전자주식회사 | 터치 디스플레이를 가지는 전자 장치 및 이의 지문을 이용한 기능 실행 방법 |
KR20180005833A (ko) * | 2016-07-07 | 2018-01-17 | 삼성전자주식회사 | 센서를 포함한 전자 장치 및 이의 운용 방법 |
-
2018
- 2018-01-19 KR KR1020180007063A patent/KR20190088679A/ko unknown
-
2019
- 2019-01-18 WO PCT/KR2019/000792 patent/WO2019143199A1/ko active Application Filing
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100795187B1 (ko) * | 2006-11-29 | 2008-01-16 | 엘지전자 주식회사 | 지문 인식 장치 및 방법 |
KR20170044683A (ko) * | 2015-01-13 | 2017-04-25 | 선전 후이딩 테크놀로지 컴퍼니 리미티드 | 지문 센서 및 그 보정 방법 |
KR20170072904A (ko) * | 2015-11-09 | 2017-06-27 | 선전 후이딩 테크놀로지 컴퍼니 리미티드 | 터치 신호에 의하여 이동 단말기의 조작을 실현하는 방법, 시스템 및 이동 단말기 |
KR20170136359A (ko) * | 2016-06-01 | 2017-12-11 | 삼성전자주식회사 | 터치 디스플레이를 가지는 전자 장치 및 이의 지문을 이용한 기능 실행 방법 |
KR20180005833A (ko) * | 2016-07-07 | 2018-01-17 | 삼성전자주식회사 | 센서를 포함한 전자 장치 및 이의 운용 방법 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20230030159A (ko) * | 2021-08-25 | 2023-03-06 | 주식회사 디지트로그 | 이미지 내의 객체 위치 거리 측정을 위한 카메라 보정 장치 및 방법 |
KR102666984B1 (ko) * | 2021-08-25 | 2024-05-20 | 주식회사 디지트로그 | 이미지 내의 객체 위치 거리 측정을 위한 카메라 보정 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20190088679A (ko) | 2019-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020085789A1 (en) | Foldable electronic device for controlling user interface and operating method thereof | |
WO2020050506A1 (ko) | 증강 현실 영상에 부가 객체를 표시하는 전자 장치 및 상기 전자 장치의 구동 방법 | |
WO2019143034A1 (en) | Sensor and electronic apparatus for fingerprint recognition | |
WO2020050636A1 (ko) | 사용자 의도 기반 제스처 인식 방법 및 장치 | |
WO2019146918A1 (en) | Method for recognizing fingerprint, and electronic device and storage medium therefor | |
WO2021025272A1 (en) | Foldable electronic device for detecting folding angle and operating method thereof | |
WO2019164183A1 (ko) | 생체 센서의 전극들 중에서 선택된 전극을 이용하여 생체 정보를 획득하는 전자 장치 및 제어 방법 | |
WO2020130691A1 (en) | Electronic device and method for providing information thereof | |
WO2021020814A1 (en) | Electronic device for providing avatar and operating method thereof | |
WO2019124811A1 (en) | Fingerprint verification method and electronic device performing same | |
WO2019143199A1 (ko) | 지문 입력의 압력 레벨에 기반하여 지문 처리 방식을 결정하는 전자 장치 및 방법 | |
WO2020085628A1 (en) | Method for displaying objects and electronic device using the same | |
WO2019194455A1 (en) | Apparatus and method for recognizing object in image | |
WO2019160348A1 (ko) | 수중 상태에서 압력 센서를 이용하여 사용자 입력을 획득하는 전자 장치 및 상기 전자 장치를 제어하는 방법 | |
WO2020009452A1 (ko) | 생체 센서를 이용하여 획득된 생체 정보를 포함하는 이미지의 상태에 기반하여, 생체 정보와 관련된 인증을 수행 하는 방법 및 이를 구현한 전자 장치 | |
WO2021060721A1 (ko) | 전자 장치 및 그의 이미지 처리 방법 | |
WO2019151642A1 (ko) | 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법 | |
WO2020091538A1 (ko) | 저전력 상태에서 디스플레이를 통해 화면을 표시하기 위한 전자 장치 및 그의 동작 방법 | |
WO2020085643A1 (en) | Electronic device and controlling method thereof | |
WO2019135548A1 (ko) | 포스 센서의 압력값 보상 방법 및 이를 사용하는 전자 장치 | |
WO2019160325A1 (en) | Electronic device and control method thereof | |
WO2021118229A1 (en) | Information providing method and electronic device for supporting the same | |
WO2020091530A1 (ko) | 디스플레이의 동작 모드에 기반하여 터치 데이터의 보상을 결정하는 방법 및 장치 | |
WO2020022774A1 (en) | Method of controlling operation mode using electronic pen and electronic device for same | |
WO2020027412A1 (ko) | 스타일러스 펜을 이용한 입력을 처리하는 방법 및 그 전자 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 19741171 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 19741171 Country of ref document: EP Kind code of ref document: A1 |