WO2021177637A1 - 전자 장치 및 전자 장치의 지문 인식 방법 - Google Patents

전자 장치 및 전자 장치의 지문 인식 방법 Download PDF

Info

Publication number
WO2021177637A1
WO2021177637A1 PCT/KR2021/002130 KR2021002130W WO2021177637A1 WO 2021177637 A1 WO2021177637 A1 WO 2021177637A1 KR 2021002130 W KR2021002130 W KR 2021002130W WO 2021177637 A1 WO2021177637 A1 WO 2021177637A1
Authority
WO
WIPO (PCT)
Prior art keywords
fingerprint recognition
electronic device
guide structure
sub
light
Prior art date
Application number
PCT/KR2021/002130
Other languages
English (en)
French (fr)
Inventor
김진호
Original Assignee
삼성전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자 주식회사 filed Critical 삼성전자 주식회사
Publication of WO2021177637A1 publication Critical patent/WO2021177637A1/ko
Priority to US17/903,674 priority Critical patent/US11928886B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1318Sensors therefor using electro-optical elements or layers, e.g. electroluminescent sensing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor
    • G06V40/1324Sensors therefor by using geometrical optics, e.g. using prisms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Definitions

  • Various embodiments disclosed in this document are related to a technology of an electronic device and a method for recognizing a fingerprint of an electronic device.
  • Electronic devices including an image sensor for fingerprint recognition may have different or lower quality of a fingerprint image acquired according to a change in a field of view (FOV) and a distance (height) from a fingerprint recognition target.
  • FOV field of view
  • Various embodiments disclosed in this document may provide an electronic device including a fingerprint recognition sensor that is robust to a change in a field of view (FOV) and a change in a height of a sample, and a method for recognizing a fingerprint of the electronic device.
  • a fingerprint recognition sensor that is robust to a change in a field of view (FOV) and a change in a height of a sample
  • an electronic device includes: a display panel including at least one light source; an image sensor disposed so as to receive incident light that is incident on an object external to the electronic device by reflecting the light emitted through the at least one light source; a first guide structure disposed between the display panel and the image sensor and configured to change a direction of the incident light incident through a fingerprint recognition area of the display panel; a second guide structure disposed between the first guide structure and the image sensor and configured to change a direction of the incident light passing through the first guide structure; and a processor operatively connected to the display panel and the image sensor, wherein the processor is based on at least a portion of the incident light incident through the first guide structure and the second guide structure through the image sensor. to obtain image information, wherein the fingerprint recognition area includes a plurality of sub-fingerprint recognition areas, and the image sensor has a size smaller than or equal to that of the fingerprint recognition area including the plurality of sub-fingerprint recognition areas.
  • the display panel, the image sensor, the first guide structure set to change the direction of the incident light incident through the fingerprint recognition area of the display panel according to an embodiment disclosed in this document, and passing through the first guide structure
  • the fingerprint recognition method of an electronic device including a second guide structure configured to change the direction of incident light the light emitted through the display panel is reflected by an external object to the first guide structure and the second guide structure acquiring image information on the external object based on at least a portion of incident light passing through and incident to the image sensor; and obtaining biometric information on the object based on the image information
  • the fingerprint recognition area includes a plurality of sub-fingerprint recognition areas
  • the image sensor includes the plurality of sub-fingerprint recognition areas. It may be smaller than or the same size as the fingerprint recognition area.
  • an electronic device capable of increasing the accuracy of fingerprint recognition and a fingerprint recognition method may be provided.
  • imaging in a wide range may be performed using an image sensor having a small size.
  • FIG. 1 illustrates an electronic device in a network environment according to various embodiments of the present disclosure.
  • FIG. 2 is a block diagram of an electronic device according to an exemplary embodiment.
  • 3A is a diagram for describing a fingerprint recognition structure and a fingerprint recognition operation of an electronic device according to an exemplary embodiment.
  • 3B is a cross-sectional view of an electronic device according to an exemplary embodiment.
  • FIG. 4 is a diagram for explaining a fingerprint recognition structure and a fingerprint recognition operation of an electronic device according to an exemplary embodiment.
  • FIG. 5 is a diagram for explaining a fingerprint recognition structure and a fingerprint recognition operation of an electronic device according to an exemplary embodiment.
  • FIG. 6 is a diagram for describing a fingerprint recognition structure and a fingerprint recognition operation of an electronic device according to an exemplary embodiment.
  • FIG. 7 is a diagram for describing a fingerprint recognition structure and a fingerprint recognition operation of an electronic device according to an exemplary embodiment.
  • FIG. 8 is a flowchart of a method for recognizing a fingerprint of an electronic device according to an exemplary embodiment.
  • FIG. 9 is a flowchart of a method for recognizing a fingerprint of an electronic device according to an exemplary embodiment.
  • FIG. 1 is a block diagram of an electronic device 101 in a network environment 100 according to various embodiments.
  • an electronic device 101 communicates with an electronic device 102 through a first network 198 (eg, a short-range wireless communication network) or a second network 199 . It may communicate with the electronic device 104 or the server 108 through (eg, a long-distance wireless communication network). According to an embodiment, the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • a first network 198 eg, a short-range wireless communication network
  • a second network 199 e.g., a second network 199
  • the electronic device 101 may communicate with the electronic device 104 through the server 108 .
  • the electronic device 101 includes a processor 120 , a memory 130 , an input device 150 , a sound output device 155 , a display device 160 , an audio module 170 , and a sensor module ( 176 , interface 177 , haptic module 179 , camera module 180 , power management module 188 , battery 189 , communication module 190 , subscriber identification module 196 , or antenna module 197 . ) may be included. In some embodiments, at least one of these components (eg, the display device 160 or the camera module 180 ) may be omitted or one or more other components may be added to the electronic device 101 . In some embodiments, some of these components may be implemented as one integrated circuit. For example, the sensor module 176 (eg, a fingerprint sensor, an iris sensor, or an illuminance sensor) may be implemented while being embedded in the display device 160 (eg, a display).
  • the sensor module 176 eg, a fingerprint sensor, an iris sensor, or an illuminance sensor
  • the processor 120 executes software (eg, the program 140) to execute at least one other component (eg, a hardware or software component) of the electronic device 101 connected to the processor 120 . It can control and perform various data processing or operations. According to one embodiment, as at least part of data processing or operation, the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 . may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • software eg, the program 140
  • the processor 120 converts commands or data received from other components (eg, the sensor module 176 or the communication module 190 ) to the volatile memory 132 .
  • the volatile memory 132 may be loaded into the volatile memory 132 , process commands or data stored in the volatile memory 132 , and store the resulting data in the non-volatile memory 134 .
  • the processor 120 includes a main processor 121 (eg, a central processing unit or an application processor), and a secondary processor 123 (eg, a graphics processing unit, an image signal processor) that can be operated independently or in conjunction with the main processor 121 . , a sensor hub processor, or a communication processor). Additionally or alternatively, the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function. The auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • a main processor 121 eg, a central processing unit or an application processor
  • a secondary processor 123 eg, a graphics processing unit, an image signal processor
  • the auxiliary processor 123 may be configured to use less power than the main processor 121 or to be specialized for a designated function.
  • the auxiliary processor 123 may be implemented separately from or as a part of the main processor 121 .
  • the auxiliary processor 123 may be, for example, on behalf of the main processor 121 while the main processor 121 is in an inactive (eg, sleep) state, or when the main processor 121 is active (eg, executing an application). ), together with the main processor 121, at least one of the components of the electronic device 101 (eg, the display device 160, the sensor module 176, or the communication module 190) It is possible to control at least some of the related functions or states.
  • the coprocessor 123 eg, an image signal processor or a communication processor
  • may be implemented as part of another functionally related component eg, the camera module 180 or the communication module 190. have.
  • the memory 130 may store various data used by at least one component (eg, the processor 120 or the sensor module 176 ) of the electronic device 101 .
  • the data may include, for example, input data or output data for software (eg, the program 140 ) and instructions related thereto.
  • the memory 130 may include a volatile memory 132 or a non-volatile memory 134 .
  • the program 140 may be stored as software in the memory 130 , and may include, for example, an operating system 142 , middleware 144 , or an application 146 .
  • the input device 150 may receive a command or data to be used by a component (eg, the processor 120 ) of the electronic device 101 from the outside (eg, a user) of the electronic device 101 .
  • the input device 150 may include, for example, a microphone, a mouse, a keyboard, or a digital pen (eg, a stylus pen).
  • the sound output device 155 may output a sound signal to the outside of the electronic device 101 .
  • the sound output device 155 may include, for example, a speaker or a receiver.
  • the speaker can be used for general purposes such as multimedia playback or recording playback, and the receiver can be used to receive incoming calls. According to one embodiment, the receiver may be implemented separately from or as part of the speaker.
  • the display device 160 may visually provide information to the outside (eg, a user) of the electronic device 101 .
  • the display device 160 may include, for example, a display, a hologram device, or a projector and a control circuit for controlling the corresponding device.
  • the display device 160 may include a touch circuitry configured to sense a touch or a sensor circuit (eg, a pressure sensor) configured to measure the intensity of a force generated by the touch. have.
  • the audio module 170 may convert a sound into an electric signal or, conversely, convert an electric signal into a sound. According to an embodiment, the audio module 170 acquires a sound through the input device 150 , or an external electronic device (eg, a sound output device 155 ) connected directly or wirelessly with the electronic device 101 .
  • the electronic device 102) eg, a speaker or headphones
  • the electronic device 102 may output a sound.
  • the sensor module 176 detects an operating state (eg, power or temperature) of the electronic device 101 or an external environmental state (eg, user state), and generates an electrical signal or data value corresponding to the sensed state. can do.
  • the sensor module 176 may include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, It may include a temperature sensor, a humidity sensor, or an illuminance sensor.
  • the interface 177 may support one or more specified protocols that may be used by the electronic device 101 to directly or wirelessly connect with an external electronic device (eg, the electronic device 102 ).
  • the interface 177 may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
  • the connection terminal 178 may include a connector through which the electronic device 101 can be physically connected to an external electronic device (eg, the electronic device 102 ).
  • the connection terminal 178 may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (eg, a headphone connector).
  • the haptic module 179 may convert an electrical signal into a mechanical stimulus (eg, vibration or movement) or an electrical stimulus that the user can perceive through tactile or kinesthetic sense.
  • the haptic module 179 may include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
  • the camera module 180 may capture still images and moving images. According to an embodiment, the camera module 180 may include one or more lenses, image sensors, image signal processors, or flashes.
  • the power management module 188 may manage power supplied to the electronic device 101 .
  • the power management module 188 may be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
  • PMIC power management integrated circuit
  • the battery 189 may supply power to at least one component of the electronic device 101 .
  • battery 189 may include, for example, a non-rechargeable primary cell, a rechargeable secondary cell, or a fuel cell.
  • the communication module 190 is a direct (eg, wired) communication channel or a wireless communication channel between the electronic device 101 and an external electronic device (eg, the electronic device 102, the electronic device 104, or the server 108). It can support establishment and communication through the established communication channel.
  • the communication module 190 may include one or more communication processors that operate independently of the processor 120 (eg, an application processor) and support direct (eg, wired) communication or wireless communication.
  • the communication module 190 is a wireless communication module 192 (eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module 194 (eg, : It may include a local area network (LAN) communication module, or a power line communication module).
  • a wireless communication module 192 eg, a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module
  • GNSS global navigation satellite system
  • wired communication module 194 eg, : It may include a local area network (LAN) communication module, or a power line communication module.
  • the corresponding communication module is a first network 198 (eg, a short-range communication network such as Bluetooth, WiFi direct or IrDA (infrared data association)) or a second network 199 (eg, a cellular network, the Internet, Alternatively, it may communicate with the external electronic device 104 through a computer network (eg, a telecommunication network such as a LAN or WAN).
  • a computer network eg, a telecommunication network such as a LAN or WAN.
  • These various types of communication modules may be integrated into one component (eg, a single chip) or may be implemented as a plurality of components (eg, multiple chips) separate from each other.
  • the wireless communication module 192 uses the subscriber information (eg, International Mobile Subscriber Identifier (IMSI)) stored in the subscriber identification module 196 within a communication network such as the first network 198 or the second network 199 .
  • the electronic device 101 may be identified and authenticated.
  • the antenna module 197 may transmit or receive a signal or power to the outside (eg, an external electronic device).
  • the antenna module 197 may include one antenna including a conductor formed on a substrate (eg, a PCB) or a radiator formed of a conductive pattern.
  • the antenna module 197 may include a plurality of antennas. In this case, at least one antenna suitable for a communication method used in a communication network such as the first network 198 or the second network 199 is connected from the plurality of antennas by, for example, the communication module 190 . can be selected. A signal or power may be transmitted or received between the communication module 190 and an external electronic device through the selected at least one antenna.
  • other components eg, RFIC
  • other than the radiator may be additionally formed as a part of the antenna module 197 .
  • peripheral devices eg, a bus, general purpose input and output (GPIO), serial peripheral interface (SPI), or mobile industry processor interface (MIPI)
  • GPIO general purpose input and output
  • SPI serial peripheral interface
  • MIPI mobile industry processor interface
  • the command or data may be transmitted or received between the electronic device 101 and the external electronic device 104 through the server 108 connected to the second network 199 .
  • Each of the external electronic devices 102 and 104 may be the same as or different from the electronic device 101 .
  • all or a part of operations executed in the electronic device 101 may be executed in one or more of the external electronic devices 102 , 104 , or 108 .
  • the electronic device 101 may perform the function or service itself instead of executing the function or service itself.
  • one or more external electronic devices may be requested to perform at least a part of the function or the service.
  • the one or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit a result of the execution to the electronic device 101 .
  • the electronic device 101 may process the result as it is or additionally and provide it as at least a part of a response to the request.
  • cloud computing, distributed computing, or client-server computing technology may be used.
  • FIG. 2 is a block diagram of an electronic device 200 (eg, the electronic device 101 of FIG. 1 ) according to an exemplary embodiment.
  • the electronic device 200 includes a display 210 (eg, the display device 160 of FIG. 1 ), an image sensor 220 , and a memory 230 (eg, the memory 130 of FIG. 1 ). , a processor 240 (eg, the processor 120 of FIG. 1 ) and a touch sensor 250 .
  • the display 210 may include a display panel 211 including at least one light source.
  • the display panel 211 may include a region designated for fingerprint recognition.
  • the display panel 211 may include a fingerprint recognition area (eg, the fingerprint recognition area 350 of FIG. 3A ).
  • the fingerprint recognition area may include at least a partial area within the designated area.
  • the fingerprint recognition area may include at least one sub-fingerprint recognition area.
  • the plurality of sub-fingerprint recognition areas are formed when the electronic device 200 is viewed from one side where the display panel 211 is exposed to the outside (eg, in FIG.
  • the display of the electronic device 300 is When viewed from one surface exposed to the outside (in the z-axis direction), at least some regions may be overlapped.
  • the display 210 may include at least a part of the display device 160 illustrated in FIG. 1 .
  • the electronic device 200 is disposed between the display panel 211 and the image sensor 220 , and the light emitted through the fingerprint recognition area of the display panel 211 is transmitted to an external object.
  • a first guide structure (not shown) set to change the direction of the reflected incident light (eg, the first guide structure 341 of FIG. 3A , the first guide structure 441 of FIG. 4 , the first guide of FIG. 5 ) structure 541 , the first guide structure 641 of FIG. 6 , or the first guide structure 741 of FIG. 7 ) and disposed between the first guide structure and the image sensor 220 , the first guide
  • a second guide structure (not shown) set to change the direction of incident light passing through the structure (eg, the second guide structure 343 of FIG.
  • the first guide structure and the second guide structure may include at least one lens.
  • the at least one lens included in the first guide structure and the at least one lens included in the second guide structure may have different shapes or arrangements.
  • each of the first guide structure and the second guide structure may include at least one lens corresponding to the at least one sub-fingerprint recognition area.
  • the first guide structure may include a plurality of lenses corresponding to each of the plurality of sub-fingerprint recognition areas, and the second guide structure may include a single lens.
  • the image sensor 220 may obtain image information on the external object based on at least a portion of incident light that is incident on the external object by the light emitted through the display panel 211 being reflected by the external object.
  • the image information may include a fingerprint image of an external object.
  • the image sensor 220 may have the same or smaller area than the fingerprint recognition area.
  • the image sensor 220 may have a size corresponding to a sub-fingerprint recognition area disposed at the center among a plurality of sub-fingerprint recognition areas.
  • the memory 230 may store instructions for performing an operation by the processor 240 when executed. According to an embodiment, the memory 230 may store image information and/or a fingerprint image acquired through the image sensor 220 . According to an embodiment, the memory 230 may store biometric information (eg, a fingerprint image) of a pre-registered user. According to an embodiment, the memory 230 may include at least a portion of the memory 130 illustrated in FIG. 1 .
  • the processor 240 may acquire image information about an external object through the image sensor 220 .
  • the processor 240 may acquire biometric information (eg, fingerprint information) about an external object based on image information.
  • the processor 240 executes a specified function (eg, user authentication, specified operation, function and/or application execution) based on whether the biometric information of the object corresponds to the previously stored biometric information of the user. can be done
  • the processor 240 may emit light sequentially or according to a designated pattern or a designated order from light sources corresponding to each of the plurality of sub-fingerprint recognition areas through the display panel 211 . .
  • the processor 240 emits light from a light source corresponding to the sub fingerprint recognition area disposed at the center among the plurality of sub fingerprint recognition areas through the display panel 211 , and the emitted light is transmitted to the outside.
  • Image information may be acquired based on the incident light reflected by the object and incident to the image sensor 220 .
  • the processor 240 receives the information from the light source corresponding to the other sub-fingerprint recognition area.
  • the processor 240 may acquire biometric information about the object based on image information and other image information.
  • the touch sensor 250 may be a part of a sensor module (eg, the sensor module 176 of FIG. 1 ) or the display 210 (eg, the display device 160 of FIG. 1 ).
  • the touch sensor 250 may include a touch circuitry configured to sense a touch or a sensor circuitry configured to measure the intensity of a force generated by the touch (eg, a pressure sensor).
  • the touch sensor 250 may be disposed between the display 210 (eg, the display panel 211 ) and the image sensor 220 .
  • the processor 240 detects that the external object contacts the fingerprint recognition area through the touch sensor 250
  • the processor 240 responds to the fingerprint recognition area through the display panel 211 . It can be made to emit light from a light source.
  • the processor 240 may include at least a portion of the processor 120 illustrated in FIG. 1 .
  • FIG. 3A is a diagram illustrating a fingerprint recognition structure and a fingerprint recognition operation of an electronic device 300a (eg, the electronic device 101 of FIG. 1 or the electronic device 200 of FIG. 2 ) according to an exemplary embodiment.
  • the left side of FIG. 3A shows a plan view of the electronic device 300a
  • the upper right side is an enlarged view of the designated area 305 of the display 310a (eg, the display panel 311a)
  • the lower right side is The AA' section of the designated area 305 is diagrammed.
  • the electronic device 300a (eg, a fingerprint recognition structure of the electronic device) is configured to display an external device of the electronic device 300a through a display panel 311a including at least one light source and at least one light source.
  • a display panel 311a including at least one light source and at least one light source.
  • the light path changing member 340a is disposed between the display panel 311a and the image sensor 320a, and the light emitted through the fingerprint recognition area 350 of the display panel 311a is A first guide structure 341 set to change the direction of incident light reflected by an external object, and disposed between the first guide structure 341 and the image sensor 320a, the first guide structure ( A second guide structure 343 set to change the direction of incident light passing through 341 may be included.
  • the display panel of the electronic device may include a designated area 305 including the fingerprint recognition area 350 .
  • the designated area 305 may be set to inform the user of the fingerprint recognition area 350 .
  • the electronic device may provide information on the fingerprint recognition area 350 to the user through a visual display of at least a portion of the designated area 305 .
  • the electronic device 300a emits light from a light source corresponding to the fingerprint recognition area 350, and based on light reflected and incident on an external object (eg, a finger (fingerprint)), The fingerprint of an object can be recognized.
  • the first guide structure 341 eg, a first lens
  • the second guide structure 343 eg, a second lens
  • a shielding layer 370 for shielding light may be disposed between the first guide structure 341 and the second guide structure 343 .
  • the shielding layer 370 may be an independent structure for shielding light, and a support structure (eg, a lens) of a lens included in the first guide structure 341 or the second guide structure 343 .
  • the outer wall of the barrel (not shown) of the may serve as a shielding layer.
  • the shielding layer 370 may intentionally select a component of light reaching the image sensor 320a.
  • the shielding layer 370 may serve as an aperture corresponding to the first guide structure 341 and the second guide structure 343 .
  • the shielding layer 370 may be configured such that the amount of light incident on the image sensor 320a through the first guide structure 341 and the second guide structure 343 is a specified amount.
  • the electronic device 300a may acquire a fingerprint image of a wider range (size).
  • the optical indislplay image sensor 320a fingerprint sensor
  • not only the quality of the obtained fingerprint image, but also the fingerprint image obtained from the same object has the same quality as the previously registered reference image. It can significantly affect the accuracy of recognition.
  • an imaging system that acquires an image of good quality only under specific conditions may bring about a large difference in image quality according to a change in the external environment.
  • a square of a numerical aperture (NA) and a thickness at which a fingerprint can be effectively acquired may have an inverse relationship.
  • DOF can be proportional to wavelength/-.
  • the maximum numerical aperture (NA) in order to minimize the effect of the low light transmittance (eg, 5% or less) of the display panel 311a (eg, OLED panel).
  • a large lens design is made, and a large field of view (FOV) design is made for a wider measurement area.
  • the thickness at which a fingerprint can be effectively acquired becomes thinner, so that even if the position of the fingerprint is slightly changed in the height direction, the image of the same sample may be different.
  • DOF depth of field
  • the DOF of the electronic device 300a using a lens of NA 0.3 is weak to about 4 ⁇ m, so when a user attaches a protective film or protective glass to protect the display panel 311a, it is difficult to match the fingerprint image. Accuracy may decrease.
  • the overall noise level may be different according to a change in the distance between the image sensor 320a and the object, and the degree of magnification of the fingerprint image may be different. may be different.
  • the stored user's biometric information eg, the registered user's fingerprint image
  • Fingerprint recognition may be performed by correcting the fingerprint image obtained in the matching process.
  • the dotted line shown in FIG. 3A represents the components of chief rays 361 , 363 , 365 at each position within the fingerprint recognition area 350 (eg, FOV).
  • the electronic device 300a has a chief ray angle of the first guide structure 341 or the second guide structure 343 in the fingerprint recognition area 350 to widen the area of the obtained fingerprint image. ) can be set larger than
  • a light component reflected from an external object eg, a fingerprint
  • a shielding layer 370 may be disposed between the first guide structure 341 and the second guide structure 343 , and the opening 371 formed in a portion of the shielding layer 370 is an aperture stop. (aperture) can play a role.
  • the display panel 311a eg, OLED
  • the display panel 311a generally emits light with a cosine-type intensity distribution with respect to the emission angle, and the components scattered at different angles are information of other frequency components in the object.
  • the image sensor 320a may acquire different images (or images of different quality) depending on the location in the fingerprint recognition area 350 even for the same object.
  • an image sensor 320a having a size or structure corresponding thereto may be required.
  • a guide structure eg, the first guide structure 341 and the second guide structure 343 included in the electronic device 300a.
  • the polarization angle of the incident light may be changed, and the quality of a fingerprint image obtained may be different according to a location in the fingerprint recognition area 350 .
  • a portion of the edge of the fingerprint image (eg, upper left and lower right, or upper right and lower left) is a quality (eg: contrast) may deteriorate.
  • a quality eg: contrast
  • a portion of the fingerprint image used for fingerprint recognition may be reduced, and fingerprint recognition performance may be deteriorated.
  • the electronic device 300a includes a first guide structure 341 and a second guide structure 343 corresponding to the size and setting of the fingerprint recognition area 350 in order to obtain a high-quality fingerprint image. , and the image sensor 320a.
  • the structure of the electronic device 300a according to various embodiments of the present disclosure will be described in more detail.
  • 3B is a cross-sectional view of an electronic device according to an exemplary embodiment.
  • an electronic device 300b includes a display panel unit 310b, a rear panel 390b, an image sensor 320b (eg, the image sensor 320a of FIG. 3A ), and a sight.
  • a path changing member 340b eg, the light path changing member 340a of FIG. 3A (eg, the first guide structure 341 , the second guide structure 343 of FIG. 3A , and/or the shielding layer 370 )
  • some components may be omitted or additional components may be further included.
  • some of the components are combined to form a single entity, and the functions of the components prior to the combination may be identically performed.
  • the rear panel 390b may be configured under the display panel unit 310b of the electronic device 300b or may not be configured under the display panel unit 310b.
  • the display panel unit 310b may include a transparent member 313b and a display panel 311b (eg, the display panel 311a of FIG. 3A ).
  • the transparent member 313b is an exterior member disposed on the display panel 311b of the electronic device, and may be referred to as, for example, a window, a front window, a cover glass, or a transparent substrate.
  • the transparent member 313b may be made of a tempered glass material or a transparent synthetic resin having the same hardness as the glass material.
  • the display panel 311b may have a structure coupled to a touch sensing circuit, a pressure sensor capable of measuring the intensity (pressure) of a touch, and/or a digitizer detecting a magnetic field type stylus pen.
  • the display panel 311b may have a planar shape, a curved shape, or a combination of a flat surface and a curved surface.
  • the display panel 311b may be made of a rigid material or a flexible material.
  • the display panel may include at least one light source (eg, OLED-based pixels capable of self-emission).
  • pixels disposed on the display panel 311b may irradiate a designated light according to the control of a processor or a display driver IC (DDI).
  • a light source eg, a pixel
  • an object eg, a finger
  • a light path changing member It may be transmitted through the 340b to the light receiving unit of the image sensor 320b.
  • the display panel 311b may include a first surface 3111 facing a first direction and a second surface 3112 facing a second direction opposite to the first direction.
  • a transparent member 313b may be disposed on the first surface 3111 of the display panel, and an adhesive layer may be disposed on the second surface 3112 of the display panel.
  • the rear panel 390b is disposed on the rear side of the display panel 311b to protect the display panel 311b from impact, support the display panel 311b on the housing (eg, bracket), or Alternatively, electromagnetic waves generated from the display panel 311b may be shielded or heat may be radiated.
  • the rear panel 390b is a panel attached to the bottom of the display panel 311b by an adhesive layer 392b and may include a black coating layer 394b and a shock absorbing member 395b.
  • the rear panel 390b may or may not additionally include the digitizer 396b.
  • the digitizer 396b may or may not be disposed under the shock absorbing member 395b.
  • the shock absorbing member 395b may be disposed under the black coating layer 394b to absorb an impact applied to the electronic device, thereby preventing the impact from being transmitted to the display panel 311b.
  • the shock absorbing member 395b is disposed between the black coating layer 394b and the digitizer 396b in a layered shape, and may include a cushion made of a foamed resin material.
  • the rear panel 390b may not be included in the electronic device 300b or may be replaced with a pressure sensor or a touch sensitive panel instead of the digitizer 396b.
  • an opening may be formed in at least a partial area under the display panel 311b.
  • the opening is a component mounting space and may be formed by cutting a portion of the rear panel 390b disposed under the display panel 311b.
  • the cut-out portion of the rear panel 390b is at least one of a portion of the adhesive layer 392b, a portion of the black coating layer 394b, a portion of the shock absorbing member 395b, and a portion of the digitizer 396b, such as Portions may be cut and removed.
  • the image sensor 320b may be disposed in the opening.
  • the opening may be filled with air, or a separate filler may be filled.
  • the shape of the opening may be approximately a rectangular parallelepiped shape, but is not limited thereto.
  • the image sensor 320b may be mounted in the opening.
  • the image sensor 320b may be used as a fingerprint sensor.
  • the image sensor 320b may be disposed to face the display panel 311b and may be disposed in a state (facing state) parallel to the second surface 3112 of the display panel.
  • the image sensor 320b may be disposed to be completely accommodated in the opening, or at least a portion of the image sensor 320b may be disposed within the opening.
  • the image sensor 320b is attached to at least a portion of the rear panel 390b, or attached to at least a portion of the display panel 310b, or a support member (eg, a bracket (not shown)).
  • the image sensor 320b may be attached to at least a portion of the rear panel 390b using an adhesive member 398b.
  • FIG. 3B shows that the image sensor 320b is attached to the digitizer 396b through the adhesive member 398b, according to various embodiments, a portion of the rear panel 390b to which the image sensor 320b is attached may be partially attached thereto. It is not limited and may be variously changed.
  • the image sensor 320b is output through a light source (eg, at least some of the plurality of pixels) of the display panel 311b, and an external object (eg, a finger) close to the transparent member 313b After being reflected by (fingerprint)), the transmitted light passing through the transmission region of the display panel 311b and passing through the optical path changing member 340b may be obtained.
  • the image sensor 320b transmits light output through at least some pixels of the display panel 311b to an external object close to the transparent member 313b, and then transmits the light through the transmission region of the display panel 311b.
  • the light incident to the light receiving unit of the image sensor 320b may be acquired by changing a path through the path changing member 340b.
  • the image sensor 320b configures image information required for fingerprint recognition using the obtained light, and transmits the configured image information to the electronic device 300b (eg, the electronic device 101 of FIG. 1 , the electronic device of FIG. 2 ) 200)) of the processor (eg, AP, DDI, or low-power processor) (eg, the processor 120 in FIG. 1 , the processor 250 in FIG. 2 ) to access the internal memory (not shown) of the image sensor 320b. time) or in a memory of the electronic device 300b (eg, the memory 130 of FIG. 1 and the memory 230 of FIG. 2 ).
  • the processor eg, AP, DDI, or low-power processor
  • the light path changing member 340b (eg, the light path changing member 340a of FIG. 3A ) may be disposed in an opening between the display panel 311b and the image sensor 320b.
  • the light path changing member 340b is spaced apart from the display panel 311b by a first distance
  • the image sensor 320b and the display are spaced apart from the image sensor 320b by a second distance ( ⁇ first distance). It may be disposed between the panels 311b.
  • the first distance may be set such that, for example, interference due to diffraction of the transmitted light is less than or equal to a specified size.
  • the designated size may be experimentally determined based on, for example, the effect of diffraction-induced interference on the fingerprint recognition signal of the image sensor 320b.
  • the light path changing member 340b may be disposed inside a hole formed in a rear cover (not shown) of the electronic device 300b. According to the above-described embodiment, as the light path changing member 340b is disposed close to the display panel 311b, the image sensor 320b is required for fingerprint recognition due to diffraction of light due to the transmission region of the display panel 311b. The problem that a good signal cannot be acquired can be prevented.
  • the light path changing member 340b may be disposed on the image sensor 320b and may be disposed to face the display panel 311b. According to an embodiment, the light path changing member 340b may be disposed between the image sensor 320b and the display panel 311b to change the optical path of at least a portion of the light transmitted through the display panel 311b. . According to an embodiment, the light path changing member 340b is disposed between the display panel 311b and the image sensor 320b, and a fingerprint recognition area (eg, the fingerprint recognition area of FIG. 3A ) of the display panel 311b. A first guide structure (eg, the first guide structure 341 of FIG.
  • a shielding layer (eg, the shielding layer 370 of FIG. 3A ) for shielding light may be disposed between the first guide structure and the second guide structure.
  • the light path changing member 340b may be formed to change the path of at least some of the transmitted light passing through the transmission region (eg, 310a of FIG. 3A ).
  • the optical path changing member 340b includes an optical layer (eg, a lens, a pinhole array, or a multi-layer collimator) and collects light incident to the optical layer. can do.
  • the light path changing member 340b may further include at least one of a light blocking layer (eg, the blocking layer 370 of FIG. 3A ), a filter layer, and a buffer layer.
  • the light blocking layer may block incident or reflection of light to a path other than a path formed in the optical layer.
  • the light blocking layer may include a black coating layer (eg, a black sheet or a black printed layer) that is attached or applied to an area other than the light incident area on the upper portion of the optical layer.
  • the filter layer may block incident of light other than a specified wavelength band (eg, light in red and near-infrared bands).
  • the buffer layer may be attached to an upper surface of the optical layer (eg, a surface facing the display) to adjust a distance between the display panel 311b and the image sensor 320b.
  • the light path changing member 340b may be made of a material or structure that has less influence on the display panel 311b.
  • the outer edge of the surface in contact with the display panel 311b may be subjected to a rounding process.
  • the light path changing member 340b may prevent a problem in which the display panel 311b is damaged due to a frictional force or an external impact between the light path changing member 340b and the display panel 311b. .
  • the shielding sheet 397b may be a copper sheet or a copper plate made of copper.
  • the shielding sheet 397b may be a support structure supporting the digitizer 396b and may have a heat dissipation function of the display panel 311b.
  • the shielding sheet 397b may not be configured on the back panel 390b.
  • the cross-sections of the electronic devices 300a and 300b are not limited to those shown in FIG. 3B , and may be at least partially deformed.
  • the electronic devices 300a and 300b include various structures in which a fingerprint recognition structure (eg, light path members 340a and 340b) is disposed between the display panels 311a and 311b and the image sensors 320a and 320b. can have a structure.
  • the light path members 340a and 340b may include a first guide structure 341 , a second guide structure 343 , and a shielding layer 370 illustrated in FIG. 3A , and in FIG. 4 , below. to 7 may include at least a part of the fingerprint recognition structure of the electronic device according to various embodiments of the present disclosure.
  • FIG. 4 is a diagram for explaining a fingerprint recognition structure and a fingerprint recognition operation of the electronic device 400 (eg, the electronic device 101 of FIG. 1 and the electronic device 200 of FIG. 2 ) according to an embodiment.
  • the electronic device 400 includes a display panel 410 including at least one light source (eg, the display panel 211 of FIG. 2 or the display panel 311a of FIG. 3A ), and at least one light source.
  • an image sensor 420 eg, the image sensor 220 of FIG. 2 or the image sensor 320a of FIG. 3A ) disposed to acquire image information on an object external to the electronic device 400 through the display, the display It is disposed between the panel 410 and the image sensor 420 and is set to change the direction of incident light that is reflected by the light emitted through the fingerprint recognition area 450 of the display panel 410 to an external object.
  • a first guide structure 441 (eg, the first guide structure 341 of FIG.
  • the first guide structure 441 may include a second guide structure 443 (eg, the second guide structure 343 of FIG. 3A ) set to change the direction of the incident light passing through it.
  • a second guide structure 443 eg, the second guide structure 343 of FIG. 3A
  • the electronic device 400 may have a fingerprint recognition area 450 (eg, FOV) smaller than the fingerprint recognition area 350 of FIG. 3A .
  • the designated area 405 of the display panel 410 may have a size corresponding to or smaller than the designated area 305 of FIG. 3A .
  • the electronic device 400 may have a reduced proportion of the fingerprint recognition area 450 with respect to the designated area 405 of the same size. According to an embodiment, by reducing the size of the fingerprint recognition area 450 , the image sensor 420 included in the electronic device 400 may also be reduced to a size corresponding to the fingerprint recognition area 450 .
  • the image sensor 420 may have a smaller area than the fingerprint recognition area 450 .
  • the area of the image sensor 420 is the area of the fingerprint recognition area 450 . It may consist of the following.
  • a fingerprint image of a larger range may be acquired due to the wider fingerprint recognition area 350, but the edge portion of the acquired fingerprint image with poor quality substantially affects the fingerprint recognition performance.
  • the first guide structure 441 and the second guide structure may include more light components having information about the object.
  • a chief ray component at the center of the fingerprint recognition area 350 of FIG. 3A may be incident on the image sensor 320 through the opening 371 of the shielding layer 370, but at the edge.
  • the chief ray component 361 may not be incident on the image sensor 320 by the shielding layer 370 .
  • both the chief ray component at the center and the chief ray component 461 at the edge of the fingerprint recognition area 450 are not blocked by the shielding layer 470 and the image sensor 420 . can be entered into
  • the electronic device 400 may include a shielding layer 470 between the first guide structure 441 and the second guide structure 443 .
  • the opening formed in a portion of the shielding layer 470 may be configured to serve as an aperture 471 .
  • the width of the opening (eg, the stop 471) of the shielding layer 470 may be set.
  • the main ray component 461 of light reflected from the outermost portion of the fingerprint recognition area 450 may be set to pass through the opening 471 of the shielding layer 470 and be incident into the image sensor 420 .
  • an object eg, a fingerprint of a finger
  • NA numerical aperture
  • DOF depth of field
  • the size of the opening 471 of the shielding layer 470 of the electronic device 400 is smaller than the size of the opening 371 of the shielding layer 370 compared to FIG. 3A , so that the electronic device Reducing the NA of the imaging system of 400 (eg, the first guide structure 441 and/or the second guide structure 443 ) to about 0.05 reduces the DOF of about 30 without changing the resolution of the image sensor 420 . It is possible to increase the number of times or more, and it is possible to minimize the change in the fingerprint image according to the change in the height direction of the external object.
  • the imaging system eg, the first guide structure 441 and/or the second guide structure 443 in consideration of the sensitivity and the imaging exposure time of the image sensor 420 and the required DOF. (443)) may be set.
  • the electronic device 400 reduces the fingerprint recognition area 450 of the display panel 410 , and accordingly, the first guide structure 441 , the second guide structure 443 , and the image sensor ( 420), it is possible to increase spatial efficiency and reduce misrecognition of a fingerprint image due to a change in DOF.
  • FIG. 5 is a diagram for explaining a fingerprint recognition structure and a fingerprint recognition operation of the electronic device 500 (eg, the electronic device 101 of FIG. 1 and the electronic device 200 of FIG. 2 ) according to an embodiment.
  • the electronic device 500 eg, the electronic device 101 of FIG. 1 and the electronic device 200 of FIG. 2 .
  • the electronic device 500 includes a display panel 510 including at least one light source (eg, the display panel 211 of FIG. 2 or the display panel 311a of FIG. 3A ), and at least one light source.
  • An image sensor 520 eg, the image sensor 220 of FIG. 2 or the image sensor 320a of FIG. 3A ) disposed to acquire image information on an object external to the electronic device through the display panel 510 ) and the image sensor 520, the first guide set to change the direction of the incident light that is emitted through the fingerprint recognition area 550 of the display panel 510 is reflected by an external object structure 541 (eg, the first guide structure 341 of FIG.
  • a second guide structure 543 (eg, the second guide structure 343 of FIG. 3A ) set to change the direction of the incident light.
  • the fingerprint recognition area 550 of the display panel 510 may include a plurality of sub fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 .
  • the plurality of sub fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 may be a unit area designated to emit light for fingerprint recognition in the display panel, and the display panel It may be a designated unit area in which a corresponding fingerprint image is obtained based on incident light that is reflected by the light emitted through the external object (eg, a fingerprint).
  • the sub-fingerprint recognition regions 551 , 552 , 553 , 554 , 555 , 556 , and 557 are the electronic device 500 when viewed from the exposed surface of the display panel 510 (eg, : When the electronic device 300 is viewed in the z-axis direction as shown in FIG. 3A ), at least some regions may overlap.
  • the electronic device 500 includes a fingerprint recognition area 550 including a plurality of sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 .
  • a wide fingerprint recognition area 550 may be set similarly to that shown in FIG. 3A .
  • the electronic device 500 may include an image sensor 520 having a size corresponding to the entire fingerprint recognition area 550 .
  • the electronic device 500 includes a first guide structure 541 and a second guide structure ( 543) may be included.
  • the first guide structure 541 and the second guide structure 543 include a plurality of lenses corresponding to each of the sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 . can do.
  • the first guide structure 541 may include a first lens 5411 corresponding to the first sub fingerprint recognition area 551 , a second lens 5412 corresponding to the second sub fingerprint recognition area 552 , A third lens 5413 (not shown) corresponding to the third sub-fingerprint recognition area 553, a fourth lens 5414 (not shown) corresponding to the fourth sub-fingerprint recognition area 554, and a fifth sub-fingerprint
  • the fifth lens 5415 corresponding to the recognition area 555 the sixth lens 5416 (not shown) corresponding to the sixth sub-fingerprint recognition area 556 , and the seventh sub-fingerprint recognition area 557 . and a seventh lens 5417 (not shown).
  • the second guide structure 543 may include an eighth lens 5431 corresponding to the first sub fingerprint recognition area 551 , a ninth lens 5432 corresponding to the second sub fingerprint recognition area 552 , A tenth lens 5433 (not shown) corresponding to the third sub-fingerprint recognition area 553 , an eleventh lens 5434 (not shown) corresponding to the fourth sub-fingerprint recognition area 554 , and a fifth sub-fingerprint recognition area
  • the twelfth lens 5435 corresponding to the recognition area 555
  • the thirteenth lens 5436 (not shown) corresponding to the sixth sub fingerprint recognition area 556
  • the seventh sub fingerprint recognition area 557 corresponding to the seventh sub fingerprint recognition area 557
  • a fourteenth lens 5437 (not shown).
  • chief ray components (eg, 5611 , 5612 , and 5615 ) of light reflected from the outermost portion of each of the sub fingerprint recognition regions 551 , 552 , 553 , 554 , 555 , 556 , and 557 , respectively. ) in each of the sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 to be incident into the image sensor 520 through the first guide structure 541 and the second guide structure 543 .
  • Corresponding first guide structures 541 and second guide structures 543 may be disposed.
  • the electronic device 500 sequentially receives light sources corresponding to each of the plurality of sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 through the display panel 510 .
  • the light may be emitted in the same manner or according to a specified pattern (or specified order).
  • the electronic device may simultaneously emit light from light sources corresponding to all sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 .
  • 505c indicates partial fingerprint images 581 obtained from the image sensor 520 based on incident light corresponding to each of the sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 . 582, 583, 584, 585, 586, and 587).
  • the electronic device 500 emits light from a light source corresponding to the first sub-fingerprint recognition area 551
  • the image sensor 520 moves to the first sub-fingerprint recognition area 551 .
  • a first partial fingerprint image 581 for at least a portion of the external object in contact with the area 550 ( Example: A fingerprint image corresponding to the first sub-fingerprint recognition area 551) may be acquired. Thereafter, when the electronic device 500 emits light from a light source corresponding to the second sub-fingerprint recognition area 552 , the image sensor 520 detects an external object ( Example: a second partial fingerprint image 582 (eg, corresponding to the second sub-fingerprint recognition area 552 ) for a portion of an external object based on light reflected by a finger and incident on the image sensor 520 . fingerprint image) can be obtained.
  • a second partial fingerprint image 582 eg, corresponding to the second sub-fingerprint recognition area 552
  • the electronic device 500 may include the first to seventh sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 . ), first to seventh partial fingerprint images 581 , 582 , 583 , 584 , 585 , 586 , and 587 corresponding to each may be obtained. According to an embodiment, the electronic device 500 processes the obtained first to seventh partial fingerprint images 581 , 582 , 583 , 584 , 585 , 586 , and 587 to provide a fingerprint corresponding to the entire fingerprint recognition area. image can be obtained.
  • 584 , 585 , 586 , and 587 may be obtained as reverse images of the fingerprint of the object.
  • the electronic device 500 simultaneously emits light from light sources corresponding to all sub-fingerprint recognition areas 551 , 552 , 553 , 554 , 555 , 556 , and 557 , and recognizes each sub-fingerprint recognition area.
  • Obtain and process partial fingerprint images 581 , 582 , 583 , 584 , 585 , 586 , and 587 corresponding to regions 551 , 552 , 553 , 554 , 555 , 556 , and 557 to obtain a full fingerprint image can be obtained
  • the electronic device 500 sequentially or a designated pattern (or, A full fingerprint image may be obtained by emitting light according to a specified order) and sequentially processing the partial fingerprint images 581 , 582 , 583 , 584 , 585 , 586 , and 587 in the order obtained.
  • FIG. 6 is a diagram for explaining a fingerprint recognition structure and a fingerprint recognition operation of the electronic device 600 (eg, the electronic device 101 of FIG. 1 and the electronic device 200 of FIG. 2 ) according to an embodiment.
  • the electronic device 600 includes a display panel 610 including at least one light source (eg, the display panel 211 of FIG. 2 or the display panel 311a of FIG. 3A ), and at least one light source.
  • An image sensor 620 eg, the image sensor 220 of FIG. 2 or the image sensor 320a of FIG. 3A ) disposed to acquire image information on an object external to the electronic device 600 through the display, the display It is disposed between the panel 610 and the image sensor 620, and the light emitted through the fingerprint recognition area 650 of the display panel 610 is reflected by an external object and is set to change the direction of the incident light.
  • a first guide structure 641 (eg, the first guide structure 341 of FIG.
  • the first guide structure 641 may include a second guide structure 643 (eg, the second guide structure 343 of FIG. 3A ) set to change the direction of the incident light passing through it.
  • a second guide structure 643 eg, the second guide structure 343 of FIG. 3A
  • the first guide structure 641 may include a first lens 6411 corresponding to the first sub fingerprint recognition area 651 , a second lens 6412 corresponding to the second sub fingerprint recognition area 652 , A third lens 6413 (not shown) corresponding to the third sub-fingerprint recognition area 653 , a fourth lens 6414 (not shown) corresponding to the fourth sub-fingerprint recognition area 654 , and a fifth sub-fingerprint recognition area
  • the sixth lens 6416 (not shown) corresponding to the sixth sub-fingerprint recognition area 656
  • the seventh sub-fingerprint recognition area 657 corresponding to the seventh sub-fingerprint recognition area 657
  • a seventh lens 6417 (not shown).
  • the second guide structure 643 may include an eighth lens 6431 corresponding to the first sub fingerprint recognition area 651 , a ninth lens 6432 corresponding to the second sub fingerprint recognition area 652 , A tenth lens 6433 (not shown) corresponding to the third sub-fingerprint recognition area 653 , an eleventh lens 6434 (not shown) corresponding to the fourth sub-fingerprint recognition area 654 , and a fifth sub-fingerprint recognition area A twelfth lens 6435 corresponding to the recognition area 655 , a thirteenth lens 6436 (not shown) corresponding to the sixth sub-fingerprint recognition area 656 , and a seventh sub-fingerprint recognition area 657 corresponding to the and a fourteenth lens 6437 (not shown).
  • the fingerprint recognition area 650 of the display panel 610 may include a plurality of sub-fingerprint recognition areas 651 , 652 , 653 , 654 , 655 , 656 , and 657 .
  • the sub-fingerprint recognition areas 651 , 652 , 653 , 654 , 655 , 656 , and 657 are formed when the electronic device 600 is viewed from above (eg, as shown in FIG. 3A ).
  • the electronic device 600 is viewed from above (eg, as shown in FIG. 3A ).
  • at least some regions may overlap.
  • the electronic device 600 includes a first guide structure 641 and a second guide structure ( 643) may be included.
  • the first guide structure 641 and the second guide structure 643 include a plurality of lenses corresponding to each of the sub-fingerprint recognition areas 651 , 652 , 653 , 654 , 655 , 656 , and 657 . can do.
  • the shape or arrangement of lenses included in the first guide structure 641 may be different from the shape or arrangement of lenses included in the second guide structure 643 .
  • the shape or arrangement of lenses included in the first guide structure 641 and/or the second guide structure 643 may vary according to the properties of the lenses including the material, refractive index, size, or shape of the lenses.
  • the lenses included in the first guide structure 641 may have a relatively wider arrangement than lenses included in the second guide structure 643 .
  • the lenses of the first guide structure 641 and the lenses of the second guide structure 643 are arranged to have different shapes or arrangements, so that the electronic device 600 is shown in FIG. 5 .
  • An image sensor 620 having a relatively smaller size than that of the embodiment shown in may be included.
  • the image sensor 620 may have a size smaller than the area of the fingerprint recognition area 650 .
  • the image sensor 620 may be one image sensor as shown in FIG. 6 or may include a plurality of image sensors.
  • 605c denotes partial fingerprint images 681 obtained by the image sensor 620 based on incident light corresponding to each of the sub-fingerprint recognition areas 651 , 652 , 653 , 654 , 655 , 656 , and 657 .
  • 682, 683, 684, 685, 686, and 687 the electronic device 600 processes the obtained first to seventh partial fingerprint images 681 , 682 , 683 , 684 , 685 , 686 , and 687 to provide a fingerprint corresponding to the entire fingerprint recognition area. image can be obtained.
  • the electronic device 600 simultaneously emits light from light sources corresponding to all sub-fingerprint recognition areas 651 , 652 , 653 , 654 , 655 , 656 , and 657 , and recognizes each sub-fingerprint recognition area.
  • Obtain and process partial fingerprint images 681, 682, 683, 684, 685, 686, and 687 corresponding to regions 651, 652, 653, 654, 655, 656, and 657 to obtain a full fingerprint image can be obtained
  • the image sensor 620 of FIG. 6 may have a smaller size (area) than the image sensor 520 of FIG.
  • the partial fingerprint images 681 , 682 , 683 , 684 , 685 , 686 , and 687 corresponding to , and 657 do not overlap each other and are obtainable by the image sensor 620 .
  • the image sensor 620 simultaneously generates partial fingerprint images ( 681, 682, 683, 684, 685, 686, and 687) can be obtained.
  • each sub-fingerprint recognition areas 651 when the size of the image sensor 620 is further reduced, each sub-fingerprint recognition areas 651, At least a portion of the partial fingerprint images 681 , 682 , 683 , 684 , 685 , 686 , and 687 corresponding to 652 , 653 , 654 , 655 , 656 , and 657 may be superimposed on the image sensor 620 .
  • the image sensor 620 may obtain a reverse image of the object's fingerprint as partial fingerprint images 681 , 682 , 683 , 684 , 685 , 686 , and 687 .
  • each electronic device 600 sequentially or a designated pattern (or , by emitting light according to the specified order), and sequentially processing the partial fingerprint images 681, 682, 683, 684, 685, 686, and 687 in the order obtained, the partial fingerprint images 681, 682, 683, 684, 685, 686, and 687) may reduce image processing time and resource consumption that may be overlapped.
  • the electronic device 600 may be a relatively smaller image sensor 620 according to the shape or arrangement of lenses included in the first guide structure 641 and the second guide structure 643 . It is possible to provide effects and functions similar to those of the embodiment 5.
  • FIG. 7 is a diagram for explaining a fingerprint recognition structure and a fingerprint recognition operation of the electronic device 700 (eg, the electronic device 101 of FIG. 1 and the electronic device 200 of FIG. 2 ) according to an embodiment.
  • the electronic device 700 eg, the electronic device 101 of FIG. 1 and the electronic device 200 of FIG. 2 .
  • the electronic device 700 includes a display panel 710 including at least one light source (eg, the display panel 211 of FIG. 2 or the display panel 311a of FIG. 3A ), and at least one light source.
  • An image sensor 720 eg, the image sensor 220 of FIG. 2 or the image sensor 320a of FIG. 3A ) disposed to obtain image information on an object external to the electronic device 700 through the display, the display It is disposed between the panel 710 and the image sensor 720 , and the fingerprint recognition area 750 of the display panel 710 (eg, each of the sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 ).
  • a first guide structure 741 eg, the first guide structure 341 of FIG. 3A
  • the first guide structure 741 for example, the first guide structure 341 of FIG.
  • a second guide structure 743 disposed between the first guide structure 741 and the image sensor 720 and set to change the direction of incident light passing through the first guide structure 741 (eg, FIG. 3A ) of the second guide structure 343).
  • the fingerprint recognition area 750 of the display panel 710 includes a plurality of sub-fingerprint recognition areas 751, 752, 753, 754, 755, 756, and 757. may include According to an embodiment, the sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 are at least Some regions may overlap.
  • the electronic device 700 may include a first guide structure 741 corresponding to each of the sub fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 .
  • the first guide structure 741 includes a first lens 7411 corresponding to the first sub-fingerprint recognition area 751 and a first lens 7411 corresponding to the second sub-fingerprint recognition area 752 . 2 lenses 7412 , a third lens 7413 (not shown) corresponding to the third sub-fingerprint recognition region 753 , and a fourth lens 7414 (not shown) corresponding to the fourth sub-fingerprint recognition region 754 .
  • the second guide structure 743 may be configured as one lens.
  • the second guide structure 743 may be configured to be incident on the image sensor 720 by changing the direction of light incident through each of the lenses included in the first guide structure 741 .
  • the image sensor 720 corresponds to the central first sub-fingerprint recognition area 751 among the plurality of sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 . may be placed in position.
  • the image sensor 720 may have a size corresponding to the first sub-fingerprint recognition area 751 or a size smaller than the first sub-fingerprint recognition area 751 .
  • the image sensor 720 of FIG. 7 may have a relatively smaller size than the image sensors 420 , 520 or 620 of FIGS. 4 to 6 .
  • the electronic device 700 sequentially receives light sources corresponding to each of the plurality of sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 through the display panel 710 .
  • the light may be emitted in a specified pattern or in a specified order.
  • the electronic device 700 when the electronic device 700 includes the image sensor 720 having a size corresponding to one of the sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 . , the electronic device 700 may sequentially use the image sensor 720 for each of the sub fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 . For example, the same area of the image sensor 720 may be used for each of the sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 .
  • 705c represents partial fingerprint images 681, acquired by the image sensor 620 based on incident light corresponding to each of the sub-fingerprint recognition regions 751, 752, 753, 754, 755, 756, and 757. 682, 683, 684, 685, 686, and 687).
  • all sub-fingerprint recognition areas 751 at the same time 752, 753, 754, 755, 756, and 757) emit light from a light source, and when a partial fingerprint image is obtained based on the incident light reflected by an external object, the same image sensor 720 An image in a form in which images corresponding to different sub-fingerprint recognition regions 751 , 752 , 753 , 754 , 755 , 756 , and 757 are superimposed may be acquired.
  • each partial fingerprint image corresponding to each of the sub-fingerprint recognition regions 751 , 752 , 753 , 754 , 755 , 756 , and 757 . may be acquired in a common area 780 of the image sensor 720 .
  • the electronic device 700 performs image processing for separating or extracting an image corresponding to each of the sub-fingerprint recognition regions 751 , 752 , 753 , 754 , 755 , 756 , and 757 from the superimposed image. can be performed.
  • the electronic device 700 performs deconvolution on the superimposed image to correspond to each of the sub-fingerprint recognition regions 751 , 752 , 753 , 754 , 755 , 756 , and 757 .
  • images can be separated.
  • and 757 may each include at least some overlapping regions. For example, when a plurality of overlapping images is separated or extracted, the quality of the fingerprint image may not be guaranteed.
  • the electronic device 700 sequentially emits light from a light source corresponding to each of the sub fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 , and recognizes each sub fingerprint recognition area. Partial fingerprint images corresponding to the regions 751 , 752 , 753 , 754 , 755 , 756 , and 757 may be sequentially acquired.
  • the electronic device 700 emits light from a light source corresponding to the first sub-fingerprint recognition area 751 disposed at the center of the sub-fingerprint recognition areas through the display panel 710 and the second sub-fingerprint recognition area.
  • Recognition area 752 , third sub fingerprint recognition area 753 , fourth sub fingerprint recognition area 754 , fifth sub fingerprint recognition area 755 , sixth sub fingerprint recognition area 756 , and seventh sub fingerprint recognition area Light may be sequentially emitted from the light sources corresponding to the recognition area 757 in order.
  • an external object eg, a finger
  • a first partial fingerprint image (eg, a fingerprint image corresponding to the first sub-fingerprint recognition area 751) of a portion of an external object may be obtained based on the light reflected by the image sensor 720 and incident on the image sensor 720 . have. Thereafter, when the electronic device 700 emits light from a light source corresponding to the second sub-fingerprint recognition area 752 , it is caused by an external object (eg, a finger) in contact with the second sub-fingerprint recognition area 752 . Based on the reflected light incident on the image sensor 720 , a second partial fingerprint image (eg, a fingerprint image corresponding to the second sub-fingerprint recognition area 752 ) of a portion of an external object may be acquired.
  • a second partial fingerprint image eg, a fingerprint image corresponding to the second sub-fingerprint recognition area 752
  • the electronic device 700 configures first to seventh sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 respectively.
  • 7 partial fingerprint images can be obtained.
  • the electronic device 700 may obtain a fingerprint image corresponding to the entire fingerprint recognition area 750 by processing the obtained first to seventh partial fingerprint images.
  • the electronic device 700 sequentially or a designated pattern (or, By emitting light according to the specified order) and sequentially processing the partial fingerprint images 781 , 782 , 783 , 784 , 785 , 786 , and 787 in the order obtained in the common area 780 , the partial fingerprint images (781, 782, 783, 784, 785, 786, and 787) may reduce image processing time and resource consumption that may be overlapped.
  • the electronic device 700 may variably set the entire fingerprint recognition area 750 . For example, when comparing an acquired fingerprint image with biometric information of a registered user (that is, a fingerprint image of a previously registered user), external factors (eg, weather, user's age, or gender) An image acquired through the image sensor 720 may be affected. According to an embodiment, the electronic device 700 emits light from a light source corresponding to one of the sub-fingerprint recognition areas (eg, the first sub-fingerprint recognition area 751) and is reflected by an external object to be reflected by the image sensor 720 First image information may be acquired based on the incident light incident on the .
  • First image information may be acquired based on the incident light incident on the .
  • the electronic device 700 when the first image information does not satisfy the criteria set for obtaining the biometric information on the object, the electronic device 700 recognizes another sub-fingerprint according to a specified order through the display panel 710 .
  • the light may be emitted from a light source corresponding to the area (eg, the second sub-fingerprint recognition area 752 ), and second image information may be obtained based on the incident light reflected by the external object.
  • the electronic device 700 may acquire biometric information about the object based on the first image information and the second image information. For example, the electronic device 700 may acquire a fingerprint image of an object in contact with the first sub-fingerprint recognition area and the second sub-fingerprint recognition area based on the first image information and the second image information.
  • the electronic device 700 sequentially or through a light source corresponding to the first to seventh sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 according to a situation. It emits light in stages, emits light according to a specified pattern (order), emits light from a light source corresponding to one sub-fingerprint recognition area at a time, or from a light source corresponding to at least two sub-fingerprint recognition areas at a time. The light may be emitted at the same time, or light may be emitted from a light source corresponding to the entire sub-fingerprint recognition area.
  • the electronic device 700 may variably emit light for at least some of the sub-fingerprint recognition regions 751 , 752 , 753 , 754 , 755 , 756 , and 757 according to circumstances.
  • the electronic device 700 may change the entire fingerprint recognition area 750 including at least one of the sub-fingerprint recognition areas 751 , 752 , 753 , 754 , 755 , 756 , and 757 according to circumstances. can be set.
  • An electronic device (eg, the electronic device 101 of FIG. 1 , the electronic device 200 of FIG. 2 , the electronic device 300a of FIG. 3A , the electronic device 300b of FIG. 3B , FIG.
  • An image sensor disposed to receive incident light reflected by an object of (eg, the sensor module 176 of FIG. 1 , the image sensors 220 , 320a , 320b , 420 , 520 , 620 , and 720 of FIGS. 2 to 7 ) )), disposed between the display panel and the image sensor and incident through a fingerprint recognition area of the display panel (eg, the fingerprint recognition area 350, 450, 550, 650, or 750 of FIGS. 3A to 7 ).
  • a first guide structure configured to change the direction of the incident light (eg, the first guide structure 341, 441, 541, 641, or 741 of FIGS.
  • a second guide structure disposed and configured to change the direction of the incident light passing through the first guide structure (eg, the second guide structure 343, 443, 543, 643, or 743 of FIGS. 3A to 7 ))
  • a processor eg, the processor 120 of FIG. 1 and the processor 240 of FIG. 2 operatively connected to the display panel and the image sensor.
  • the processor may be configured to acquire image information based on at least a portion of the incident light passing through the first guide structure and the second guide structure through the image sensor.
  • the fingerprint recognition area may include a plurality of sub-fingerprint recognition areas (eg, sub-fingerprint recognition areas 551 to 557, 651 to 657, or 751 to 757 of FIGS. 5 to 7 ). have.
  • the image sensor may have a size smaller than or equal to that of the fingerprint recognition area including the plurality of sub-fingerprints.
  • the processor may be configured to acquire biometric information about the object based on the image information.
  • each of the first guide structure and the second guide structure may include at least one lens corresponding to the plurality of sub-fingerprint recognition areas.
  • the at least one lens included in the first guide structure and the at least one lens included in the second guide structure may have different shapes or arrangements.
  • the plurality of sub-fingerprint recognition areas may be arranged such that at least some areas overlap when the electronic device is viewed from one surface exposed to the outside of the display panel.
  • the first guide structure may include a plurality of lenses corresponding to each of the plurality of sub-fingerprint recognition areas.
  • the second guide structure may be composed of one lens.
  • the processor may be set to sequentially emit light from light sources corresponding to each of the plurality of sub-fingerprint recognition areas through the display panel.
  • the processor may be set to emit light from light sources corresponding to each of the plurality of sub-fingerprint recognition areas according to a pattern designated through the display panel.
  • the processor emits light from a light source corresponding to the sub-fingerprint recognition area disposed at the center through the display panel, and the light emitted from the light source is reflected by the external object to reflect the first It may be set to acquire image information based on the incident light passing through the guide structure and the second guide structure to the image sensor.
  • the processor when the image information does not satisfy a criterion set for obtaining the biometric information about the object, receives information from a light source corresponding to another sub-fingerprint recognition area in a specified order through the display panel. Emitting light, the light emitted from the light source corresponding to the other sub-fingerprint recognition area is reflected by the external object to obtain other image information based on the incident light incident through the image sensor, the image information and the It may be configured to acquire biometric information about the object based on other image information.
  • the electronic device may further include a touch sensor (eg, the touch sensor 250 of FIG. 2 ).
  • the processor is configured to emit light from a light source corresponding to the fingerprint recognition area through the display panel when detecting that the external object touches the fingerprint recognition area through the touch sensor. can be set.
  • the electronic device may further include a memory (eg, the memory 130 of FIG. 1 and the memory 230 of FIG. 2 ).
  • the processor may be set to perform a specified function based on whether the obtained biometric information corresponds to the user's biometric information stored in the memory.
  • the electronic device 8 is an electronic device (eg, the electronic device 101 of FIG. 1 , the electronic device 200 of FIG. 2 , the electronic device 300a of FIG. 3A , the electronic device 300b of FIG. 3B , and FIG. 8 ) according to an embodiment. It is a flowchart of a fingerprint recognition method of the electronic device 400 of FIG. 4 , the electronic device 500 of FIG. 5 , the electronic device 600 of FIG. 6 , or the electronic device 700 of FIG. 7 .
  • the electronic device includes a display panel including at least one light source (eg, the display device 160 of FIG. 1 , the display panels 211 , 311a , 311b , 410 , 510 , and 610 of FIGS. 2 to 7 ).
  • the electronic device may include at least one of the fingerprint recognition structures of the electronic device shown in FIGS. 3A to 7 .
  • the electronic device may emit light through at least one light source included in the display panel.
  • the display panel may include a fingerprint recognition area (eg, the fingerprint recognition area 350 , 450 , 550 , 650 , or 750 of FIGS. 3A to 7 ).
  • the electronic device may emit light through a light source corresponding to the fingerprint recognition area through the display panel.
  • the electronic device may acquire image information based on at least a portion of incident light incident on the image sensor through the fingerprint recognition area.
  • light emitted by the electronic device through the light source may be reflected by an external object (eg, a finger (fingerprint)) in contact with the fingerprint recognition area to be incident through the fingerprint recognition area.
  • an external object eg, a finger (fingerprint)
  • the incident light is the first guide structure (eg, the first lens structure) (eg, the first guide of FIGS. 3A to 7 ).
  • the image sensor may acquire image information (eg, a fingerprint image) of the object based at least in part on the incident light.
  • the electronic device may acquire biometric information (eg, fingerprint information) about the object based on the image information.
  • the electronic device stores the acquired biometric information in a memory (eg, the memory 130 of FIG. 1 or the memory 230 of FIG. 2 ) of the user (eg, the registered user's fingerprint). information), a specified function (eg, user authentication, execution of a specified operation, function, or application) may be performed.
  • a memory eg, the memory 130 of FIG. 1 or the memory 230 of FIG. 2
  • a specified function eg, user authentication, execution of a specified operation, function, or application
  • the electronic device 9 is an electronic device (eg, the electronic device 101 of FIG. 1 , the electronic device 200 of FIG. 2 , the electronic device 300a of FIG. 3A , the electronic device 300b of FIG. 3B , and FIG. 9 ) according to an embodiment. It is a flowchart of a fingerprint recognition method of the electronic device 400 of FIG. 4 , the electronic device 500 of FIG. 5 , the electronic device 600 of FIG. 6 , or the electronic device 700 of FIG. 7 .
  • the electronic device includes a display panel including at least one light source (eg, the display device 160 of FIG. 1 , the display panels 211 , 310a , 310b , 410 , 510 , and 610 of FIGS. 2 to 7 ).
  • the electronic device may include at least one of the fingerprint recognition structures of the electronic device shown in FIGS. 5, 6, and 7 .
  • the electronic device detects an object through a touch sensor (eg, the input device 150 of FIG. 1 , the sensor module 176 of FIG. 1 , or the touch sensor 250 of FIG. 2 ).
  • the display panel of the electronic device may include a fingerprint recognition area (eg, the fingerprint recognition area 350 , 450 , 550 , 650 , or 750 of FIGS. 3A to 7 ).
  • the electronic device may detect that an external object has touched the fingerprint recognition area through the touch sensor.
  • the fingerprint recognition area may include at least two sub-fingerprint recognition areas (eg, the sub-fingerprint recognition areas 551 to 557, 651 to 657, or 751 to 757 of FIGS. 5 to 7 ). have.
  • the electronic device may emit light from an n-th light source (eg, a light source corresponding to the n-th sub-fingerprint recognition region).
  • the n-th light source may refer to at least one light source corresponding to a predetermined area. For example, when detecting that an object makes contact with the fingerprint recognition area in operation 905 , the electronic device may emit light through a light source corresponding to the first sub-fingerprint recognition area in operation 910 .
  • the electronic device may acquire nth image information.
  • light emitted by the electronic device may be reflected by an external object to be incident on the image sensor.
  • the electronic device may acquire information about the nth image (eg, the first image) based on at least a portion of incident light that is emitted through a light source and is reflected by an external object and is incident on the image sensor.
  • the first image information may include a first partial fingerprint image of an object in contact with the first sub-fingerprint recognition area.
  • the electronic device may determine whether a light source to emit light remains. For example, the electronic device may determine whether a light source corresponding to the sub-fingerprint recognition area that does not emit light among the light sources corresponding to the plurality of sub-fingerprint recognition areas remains. According to an embodiment, when a light source to emit light remains, the electronic device may determine a next order (n+1th light source) after the n-th light source in operation 925 . According to an embodiment, when a light source to emit light remains, the electronic device emits light through an n+1-th light source (eg, a light source corresponding to the second sub-fingerprint recognition area) in a specified order after operation 925 . can do.
  • n+1-th light source eg, a light source corresponding to the second sub-fingerprint recognition area
  • the electronic device may perform operations 930 and 920 and 925 at the same time. For example, the electronic device may prepare for a next-order operation while performing operation 930 .
  • the electronic device may emit light from the n+1th light source and prepare to acquire the n+1th image information. For example, the electronic device acquires and processes n-th image information corresponding to the n-th light source, determines whether an n+1-th light source that has not yet emitted light remains, and emits light from the n+1-th light source. Thus, an operation of acquiring n+1th image information may be performed.
  • a fingerprint image to be processed remains in operation 945 , and subsequent operations may be performed.
  • the electronic device may process the acquired image information. For example, the electronic device may correct at least one piece of acquired image information, integrate at least two pieces of image information, or separate or extract some information from the acquired image information. According to an embodiment, the electronic device may accumulate and process the acquired image information whenever it acquires image information corresponding to each sub-fingerprint recognition area. According to an embodiment, the electronic device emits light from a light source corresponding to the n+1-th sub-fingerprint recognition area through operations 910 and 915 in parallel with the operation of processing the n-th image information in operation 930 and n+1-th Image information can be obtained. For example, the first image processing may be performed while acquiring the second image information.
  • the electronic device may simultaneously perform operations 920 and 930, or independently perform operations 920 and 930, according to various embodiments.
  • the electronic device may acquire biometric information about the object. For example, the electronic device may acquire a fingerprint image of an external object (eg, a finger (fingerprint)) that has come into contact with the fingerprint recognition area based on the image information processing in operation 930 .
  • the electronic device may acquire biometric information (eg, a fingerprint image) based on at least one image processed in operation 930 .
  • the electronic device may acquire a fingerprint image of an external object based on a plurality of processed images.
  • the electronic device acquires and processes the nth image (eg, the first partial fingerprint image) and the n+1th image (eg, the second partial fingerprint image)
  • the nth image and/or n+1 Biometric information may be acquired based on the second image.
  • the electronic device may determine whether biometric information (eg, a fingerprint image) of the object matches the stored user's biometric information (eg, a fingerprint image of a registered user).
  • biometric information eg, a fingerprint image
  • the electronic device may perform a specified function (eg, user authentication, a specified operation, execution of a function or an application) in operation 955 .
  • a specified function eg, user authentication, a specified operation, execution of a function or an application
  • the electronic device may determine whether an image to be processed remains in operation 945 .
  • the electronic device may process the image in operation 930 .
  • the electronic device may determine whether an unprocessed n+1th image remains. have.
  • the electronic device may process the n+1 th image in operation 930 .
  • the electronic device may fail fingerprint authentication in operation 950 .
  • the electronic device may include an output device (eg, the display device 160 of FIG. 1 , the sound output device 155 , the audio module 170 , and/or the haptic module 179 or A notification or feedback indicating that fingerprint authentication has failed may be provided to the user through the display 220 of FIG. 2 .
  • an output device eg, the display device 160 of FIG. 1 , the sound output device 155 , the audio module 170 , and/or the haptic module 179 or A notification or feedback indicating that fingerprint authentication has failed may be provided to the user through the display 220 of FIG. 2 .
  • the electronic device may repeatedly perform operations 930 to 955 by image processing the accumulated image information. For example, when the biometric information (eg, the first partial fingerprint image) obtained through the first image information does not match the user's biometric information, the electronic device may configure the first image information and/or the second image information (eg, : It can be determined whether the biometric information obtained through the second partial fingerprint image matches the user's biometric information. For example, the electronic device may repeat the corresponding operations until the biometric information obtained based on all the image information obtained for all sub-fingerprint recognition areas does not match the previously stored biometric information of the user. According to an embodiment, if the biometric information obtained based on all the image information obtained for all sub-fingerprint recognition areas does not match the previously stored biometric information of the user, the electronic device fails the fingerprint authentication in operation 950 . can do.
  • the biometric information eg, the first partial fingerprint image
  • the electronic device may configure the first image information and/or the second image information (eg, : It can be determined whether the
  • a display panel eg, the display device 160 of FIG. 1 , the display panels 211 , 310a , 310b , 410 , 510 , 610 , and 710 of FIGS. 2 to 7
  • an image sensor eg, the sensor module 176 of FIG. 1 , the image sensors 220 , 320a , 320b , 420 , 520 , 620 , and 720 of FIGS. 2 to 7
  • a fingerprint recognition area of the display panel eg, FIG. 3A
  • the first guide structure eg, the first guide structure 341 of FIGS.
  • the display panel Obtaining image information about the external object based on at least a portion of the incident light emitted through the light is reflected by an external object, passes through the first guide structure and the second guide structure and is incident on the image sensor and obtaining biometric information about the object based on the image information.
  • the fingerprint recognition area includes a plurality of sub-fingerprint recognition areas (eg, the sub-fingerprint recognition areas 551 to 557, 651 to 657, or 751 to 757 of FIGS. 5 to 7),
  • the image sensor may have a smaller size or the same size as the fingerprint recognition area including the plurality of sub-fingerprint recognition areas.
  • the plurality of sub-fingerprint recognition areas may be arranged such that at least some areas overlap when the electronic device is viewed from one surface exposed to the outside of the display panel.
  • each of the first guide structure and the second guide structure includes at least one lens corresponding to the plurality of sub-fingerprint recognition areas, and includes at least one lens included in the first guide structure; At least one lens included in the second guide structure may have a different shape or arrangement.
  • the acquiring of the image information includes emitting light from a light source corresponding to the sub-fingerprint recognition area disposed at the center through the display panel, and the emitted light is transmitted to the external object. and acquiring the image information based on the incident light reflected by the light beam that passes through the first guide structure and the second guide structure and is incident on the image sensor.
  • a light source corresponding to a different sub-fingerprint recognition area when the image information does not satisfy a criterion set for obtaining the biometric information about the object, a light source corresponding to a different sub-fingerprint recognition area according to an order specified through the display panel an operation of emitting light from the other sub-fingerprint recognition area, an operation of acquiring other image information based on incident light incident on the image sensor by reflecting the light emitted from a light source corresponding to the other sub-fingerprint recognition area by the external object, and the image and obtaining biometric information about the object based on the information and the other image information.
  • the display panel when detecting that the external object makes contact with the fingerprint recognition area through a touch sensor of the electronic device (eg, the touch sensor 250 of FIG. 2 ), the display panel It may include an operation of emitting light from a light source corresponding to the fingerprint recognition area through the
  • the method may include emitting light sequentially or according to a designated pattern from light sources corresponding to each of the plurality of sub-fingerprint recognition areas through the display panel.
  • the method may include performing a specified function based on whether the obtained biometric information corresponds to the stored user's biometric information.
  • the first guide structure may include a plurality of lenses corresponding to each of the plurality of sub-fingerprint recognition areas, and the second guide structure may include a single lens.
  • the electronic device may have various types of devices.
  • the electronic device may include, for example, a portable communication device (eg, a smart phone), a computer device, a portable multimedia device, a portable medical device, a camera, a wearable device, or a home appliance device.
  • a portable communication device eg, a smart phone
  • a computer device e.g., a smart phone
  • a portable multimedia device e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a camera e.g., a portable medical device
  • a wearable device e.g., a smart bracelet
  • a home appliance device e.g., a home appliance
  • a or B at least one of A and B, “at least one of A or B”, “A, B or C”, “at least one of A, B and C” and “A;
  • Each of the phrases “at least one of B, or C” may include any one of, or all possible combinations of, items listed together in the corresponding one of the phrases.
  • Terms such as “first”, “second”, or “first” or “second” may simply be used to distinguish the component from other components in question, and may refer to components in other aspects (e.g., importance or order) is not limited. It is said that one (eg, first) component is “coupled” or “connected” to another (eg, second) component, with or without the terms “functionally” or “communicatively”. When referenced, it means that one component can be connected to the other component directly (eg by wire), wirelessly, or through a third component.
  • module may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as, for example, logic, logic block, component, or circuit.
  • a module may be an integrally formed part or a minimum unit or a part of the part that performs one or more functions.
  • the module may be implemented in the form of an application-specific integrated circuit (ASIC).
  • ASIC application-specific integrated circuit
  • Various embodiments of the present document include one or more instructions stored in a storage medium (eg, internal memory 136 or external memory 138) readable by a machine (eg, electronic device 101).
  • a machine eg, electronic device 101
  • the processor eg, the processor 120
  • the device eg, the electronic device 101
  • the one or more instructions may include code generated by a compiler or code executable by an interpreter.
  • the device-readable storage medium may be provided in the form of a non-transitory storage medium.
  • 'non-transitory' only means that the storage medium is a tangible device and does not contain a signal (eg, electromagnetic wave), and this term refers to the case where data is semi-permanently stored in the storage medium and It does not distinguish between temporary storage cases.
  • a signal eg, electromagnetic wave
  • the method according to various embodiments disclosed in this document may be provided in a computer program product (computer program product).
  • Computer program products may be traded between sellers and buyers as commodities.
  • the computer program product is distributed in the form of a machine-readable storage medium (eg compact disc read only memory (CD-ROM)), or via an application store (eg Play StoreTM) or on two user devices ( It can be distributed (eg downloaded or uploaded) directly, online between smartphones (eg: smartphones).
  • a part of the computer program product may be temporarily stored or temporarily created in a machine-readable storage medium such as a memory of a server of a manufacturer, a server of an application store, or a relay server.
  • each component eg, a module or a program of the above-described components may include a singular or a plurality of entities.
  • one or more components or operations among the above-described corresponding components may be omitted, or one or more other components or operations may be added.
  • a plurality of components eg, a module or a program
  • the integrated component may perform one or more functions of each component of the plurality of components identically or similarly to those performed by the corresponding component among the plurality of components prior to the integration. .
  • operations performed by a module, program, or other component are executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations are executed in a different order, or omitted. or one or more other operations may be added.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Security & Cryptography (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Input (AREA)

Abstract

본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 적어도 하나의 광원을 포함하는 디스플레이 패널, 상기 적어도 하나의 광원을 통해 방출된 광이 상기 전자 장치의 외부의 객체에 반사되어 입사되는 입사광을 수신하도록 배치된 이미지 센서, 상기 디스플레이 패널과 상기 이미지 센서 사이에 배치되고 상기 디스플레이 패널의 지문 인식 영역을 통해 입사되는 상기 입사광의 방향을 변경하도록 설정된 제1 가이드 구조, 상기 제1 가이드 구조와 상기 이미지 센서 사이에 배치되고 상기 제1 가이드 구조를 통과하여 입사되는 상기 입사광의 방향을 변경하도록 설정된 제2 가이드 구조, 및 상기 디스플레이 패널 및 상기 이미지 센서와 작동적으로 연결된 프로세서를 포함할 수 있다. 일 실시예에 따르면 상기 프로세서는, 상기 이미지 센서를 통하여 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 입사되는 상기 입사광의 적어도 일부에 기반하여 이미지 정보를 획득하도록 설정될 수 있다. 일 실시예에 따르면, 상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역을 포함하고, 상기 이미지 센서는 상기 복수 개의 서브 지문 인식을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가질 수 있다. 이 외에도 명세서를 통해 파악되는 다양한 실시 예가 가능하다.

Description

전자 장치 및 전자 장치의 지문 인식 방법
본 문서에서 개시되는 다양한 실시 예들은, 전자 장치 및 전자 장치의 지문 인식 방법의 기술과 관련된다.
최근에는 다양한 종류의 전자 장치들이 개발 및 보급되고 있다. 특히, 기존의 데스크탑 PC뿐만이 아니라, 스마트폰, 태플릿 PC 또는 웨어러블 디바이스와 같은 다양한 기능을 가지는 모바일 장치들의 보급이 확대되고 있다. 또한, 최근의 전자 장치들은 다양한 기능을 수행하기 위하여 다양한 종류의 센서를 포함하고 있다. 특히, 전자 장치의 잠금 및 해제, 보안 및 사용자 인증과 관련하여 최근의 많은 전자 장치들이 사용자의 지문을 인식하기 위한 이미지 센서를 포함하고 있다.
지문 인식을 위한 이미지 센서를 포함하는 전자 장치들은 FOV(field of view) 및 지문 인식 대상과의 거리(높이) 변화에 따라 획득하는 지문 이미지의 품질이 상이해지거나, 낮아질 수 있다.
본 문서에서 개시되는 다양한 실시예들은, FOV(field of view) 변화 및 샘플의 높이 변화에도 견고한(robust) 지문 인식 센서를 포함하는 전자 장치 및 전자 장치의 지문 인식 방법을 제공할 수 있다.
본 문서에 개시되는 일 실시 예에 따른 전자 장치는, 적어도 하나의 광원을 포함하는 디스플레이 패널; 상기 적어도 하나의 광원을 통해 방출된 광이 상기 전자 장치의 외부의 객체에 반사되어 입사되는 입사광을 수신하도록 배치된 이미지 센서; 상기 디스플레이 패널과 상기 이미지 센서 사이에 배치되고, 상기 디스플레이 패널의 지문 인식 영역을 통해 입사되는 상기 입사광의 방향을 변경하도록 설정된 제1 가이드 구조; 상기 제1 가이드 구조와 상기 이미지 센서 사이에 배치되고, 상기 제1 가이드 구조를 통과하여 입사되는 상기 입사광의 방향을 변경하도록 설정된 제2 가이드 구조; 및 상기 디스플레이 패널 및 상기 이미지 센서와 작동적으로 연결된 프로세서를 포함하고, 상기 프로세서는, 상기 이미지 센서를 통하여 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 입사되는 상기 입사광의 적어도 일부에 기반하여 이미지 정보를 획득하도록 설정되고, 상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역을 포함하고, 상기 이미지 센서는 상기 복수 개의 서브 지문 인식을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가질 수 있다.
또한, 본 문서에 개시되는 일 실시 예에 따른 디스플레이 패널, 이미지 센서, 상기 디스플레이 패널의 지문 인식 영역을 통해 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조, 및 상기 제1 가이드 구조를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조를 포함하는 전자 장치의 지문 인식 방법은, 상기 디스플레이 패널을 통해 방출된 광이 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광의 적어도 일부에 기반하여 상기 외부의 객체에 대한 이미지 정보를 획득하는 동작; 및 상기 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하는 동작을 포함하고, 상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역을 포함하고, 상기 이미지 센서는 상기 복수 개의 서브 지문 인식 영역을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가질 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 지문 인식의 정확도를 높일 수 있는 전자 장치 및 지문 인식 방법을 제공할 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 지문 인식을 위한 이미지 센서의 크기를 소형화하면서도 지문 인식의 정확도를 높일 수 있다.
본 문서에 개시되는 다양한 실시 예들에 따르면, 작은 크기의 이미지 센서를 이용하여 넓은 범위의 이미징(imaging)을 수행할 수 있다.
이 외에, 본 문서를 통해 직접적 또는 간접적으로 파악되는 다양한 효과들이 제공될 수 있다.
도 1은 다양한 실시예들에 따른 네트워크 환경 내의 전자 장치를 나타낸다.
도 2는 일 실시예에 따른 전자 장치의 블록도이다.
도 3a는 일 실시예에 따른 전자 장치의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
도 3b는 일 실시예에 따른 전자 장치의 일 단면도를 나타낸다.
도 4는 일 실시예에 따른 전자 장치의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
도 5는 일 실시예에 따른 전자 장치의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
도 6은 일 실시예에 따른 전자 장치의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
도 7은 일 실시예에 따른 전자 장치의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
도 8은 일 실시예에 따른 전자 장치의 지문 인식 방법의 순서도이다.
도 9는 일 실시예에 따른 전자 장치의 지문 인식 방법의 순서도이다.
도면의 설명과 관련하여, 동일 또는 유사한 구성요소에 대해서는 동일 또는 유사한 참조 부호가 사용될 수 있다.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 장치(150), 음향 출력 장치(155), 표시 장치(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 표시 장치(160) 또는 카메라 모듈(180))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들은 하나의 통합된 회로로 구현될 수 있다. 예를 들면, 센서 모듈(176)(예: 지문 센서, 홍채 센서, 또는 조도 센서)은 표시 장치(160)(예: 디스플레이)에 임베디드된 채 구현될 수 있다
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 로드하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서), 및 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 추가적으로 또는 대체적으로, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 또는 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 표시 장치(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성 요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다.
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다.
입력 장치(150)는, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 장치(150)는, 예를 들면, 마이크, 마우스, 키보드, 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다.
음향 출력 장치(155)는 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 장치(155)는, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있고, 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.
표시 장치(160)는 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 표시 장치(160)는, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 표시 장치(160)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 장치(150)를 통해 소리를 획득하거나, 음향 출력 장치(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108))간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 셀룰러 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 및 인증할 수 있다.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 하나의 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC)이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부 전자 장치(102, 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다.
도 2는 일 실시예에 따른 전자 장치(200)(예: 도 1의 전자 장치(101))의 블록도이다.
일 실시예에 따르면, 전자 장치(200)는 디스플레이(210)(예: 도 1의 표시장치(160)), 이미지 센서(220), 메모리(230)(예: 도 1의 메모리(130)), 프로세서(240)(예: 도 1의 프로세서(120)) 및 터치 센서(250)를 포함할 수 있다.
일 실시예에 따르면, 디스플레이(210)는 적어도 하나의 광원을 포함하는 디스플레이 패널(211)을 포함할 수 있다. 일 실시예에 따르면, 디스플레이 패널(211)은 지문 인식을 위하여 지정된 영역을 포함할 수 있다. 일 실시예에 따르면, 디스플레이 패널(211)은 지문 인식 영역(예: 도 3a의 지문 인식 영역(350))을 포함할 수 있다. 예를 들어, 지문 인식 영역은 지정된 영역 내의 적어도 일부 영역을 포함할 수 있다. 일 실시예에 따르면, 지문 인식 영역은 적어도 하나의 서브 지문 인식 영역을 포함할 수 있다. 일 실시예에 따르면, 복수 개의 서브 지문 인식 영역들은, 전자 장치(200)를 디스플레이 패널(211)이 외부로 노출되는 일 면에서 바라보았을 때(예: 도 3a에서 전자 장치(300)의 디스플레이가 외부로 노출되는 일 면(z축 방향)에서 바라보는 경우), 적어도 일부 영역이 중첩되도록 배치될 수 있다. 일 실시예에 따르면, 디스플레이(210)는 도 1에 도시된 표시 장치(160)의 적어도 일부를 포함할 수 있다.
일 실시예에 따르면, 전자 장치(200)는 상기 디스플레이 패널(211)과 상기 이미지 센서(220) 사이에 배치되고, 상기 디스플레이 패널(211)의 지문 인식 영역을 통해 방출된 광이 외부의 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(미도시)(예: 도 3a의 제1 가이드 구조(341), 도 4의 제1 가이드 구조(441), 도 5의 제1 가이드 구조(541), 도 6의 제1 가이드 구조(641), 또는 도 7의 제1 가이드 구조(741)) 및 상기 제1 가이드 구조와 상기 이미지 센서(220) 사이에 배치되고, 상기 제1 가이드 구조를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(미도시)(예: 도 3a의 제2 가이드 구조(343), 도 4의 제2 가이드 구조(443), 도 5의 제2 가이드 구조(543), 도 6의 제2 가이드 구조(643), 또는 도 7의 제2 가이드 구조(743))를 포함할 수 있다. 예를 들어, 제1 가이드 구조 및 제2 가이드 구조는 적어도 하나의 렌즈를 포함할 수 있다. 일 실시예에 따르면, 상기 제1 가이드 구조에 포함된 적어도 하나의 렌즈와 상기 제2 가이드 구조에 포함된 적어도 하나의 렌즈는 서로 상이한 형태 또는 배열을 가질 수 있다. 일 실시예에 따르면, 상기 제1 가이드 구조 및 상기 제2 가이드 구조 각각은 상기 적어도 하나의 서브 지문 인식 영역에 대응하는 적어도 하나의 렌즈를 포함할 수 있다. 일 실시예에 따르면, 상기 제1 가이드 구조는 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 복수 개의 렌즈들을 포함하고, 상기 제2 가이드 구조는 하나의 렌즈로 구성될 수 있다.
일 실시예에 따르면, 이미지 센서(220)는 디스플레이 패널(211)을 통해 방출한 광이 외부의 객체에 반사되어 입사하는 입사광의 적어도 일부에 기반하여 외부의 객체에 대한 이미지 정보를 획득할 수 있다. 예를 들어, 이미지 정보는 외부의 객체에 대한 지문 이미지를 포함할 수 있다. 일 실시예에 따르면, 이미지 센서(220)는 지문 인식 영역보다 동일 또는 작은 면적을 가질 수 있다. 일 실시예에 따르면, 이미지 센서(220)는 복수 개의 서브 지문 인식 영역 중 중심에 배치된 서브 지문 인식 영역에 대응하는 크기를 가질 수 있다.
일 실시예에 따르면, 메모리(230)는 실행 시 프로세서(240)에 의해 동작을 수행하도록 하는 인스트럭션들을 저장할 수 있다. 일 실시예에 따르면, 메모리(230)는 이미지 센서(220)를 통하여 획득한 이미지 정보, 및/또는 지문 이미지를 저장할 수 있다. 일 실시예에 따르면, 메모리(230)는 기 등록된 사용자의 생체 정보(예: 지문 이미지)를 저장할 수 있다. 일 실시예에 따르면, 메모리(230)는 도 1에 도시된 메모리 (130)의 적어도 일부를 포함할 수 있다.
일 실시예에 따르면, 프로세서(240)는 이미지 센서(220)를 통하여 외부의 객체에 대한 이미지 정보를 획득할 수 있다. 일 실시예에 따르면, 프로세서(240)는 이미지 정보에 기반하여 외부의 객체에 대한 생체 정보(예: 지문 정보)를 획득할 수 있다. 일 실시예에 따르면, 프로세서(240)는 객체에 대한 생체 정보가 기 저장된 사용자의 생체 정보와 대응하는지 여부에 기반하여 지정된 기능(예: 사용자 인증, 지정된 동작, 기능 및/또는 어플리케이션의 실행)을 수행할 수 있다.
일 실시예에 따르면, 프로세서(240)는 디스플레이 패널(211)을 통하여 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴 또는 지정된 순서에 따라 광을 방출하도록 할 수 있다.
일 실시예에 따르면, 프로세서(240)는 디스플레이 패널(211)을 통하여 복수 개의 서브 지문 인식 영역들 중 중심에 배치된 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고, 방출된 광이 외부의 객체에 반사되어 이미지 센서(220)로 입사되는 입사광을 기반으로 이미지 정보를 획득할 수 있다. 일 실시예에 따르면, 프로세서(240)는 획득한 서브 지문 인식 영역에 대응하는 이미지 정보가 객체에 대한 생체 정보를 획득하기 위하여 설정된 기준을 만족하지 못하는 경우, 다른 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고, 다른 서브 지문 인식 영역에 대응하는 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 이미지 센서(220)로 입사되는 입사광을 기반으로 다른 이미지 정보를 획득할 수 있다. 일 실시예에 따르면, 프로세서(240)는 이미지 정보 및 다른 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득할 수 있다.
일 실시예에 따르면, 터치 센서(250)는 센서 모듈(예: 도 1의 센서 모듈(176)) 또는 디스플레이(210)(예: 도 1의 표시 장치(160))의 일부일 수 있다. 예를 들어, 터치 센서(250)는 터치를 감지하도록 설정된 터치 회로(touch circuitry), 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 센서 회로(예: 압력 센서)를 포함할 수 있다. 일 실시예에 따르면, 터치 센서(250)는 디스플레이(210)(예: 디스플레이 패널(211))와 이미지 센서(220) 사이에 배치될 수 있다. 일 실시예에 따르면, 프로세서(240)는 터치 센서(250)를 통하여 상기 외부의 객체가 상기 지문 인식 영역에 접촉한 것을 감지한 경우, 상기 디스플레이 패널(211)을 통하여 상기 지문 인식 영역에 대응하는 광원으로부터 광을 방출하도록 할 수 있다.
일 실시예에 따르면, 프로세서(240)는 도 1에 도시된 프로세서(120)의 적어도 일부를 포함할 수 있다.
도 3a는 일 실시예에 따른 전자 장치(300a)(예: 도 1의 전자 장치(101) 또는 도 2의 전자 장치(200))의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다. 예를 들어, 도 3a의 좌측은 전자 장치(300a)의 일 평면도를 도시하고, 우측 상단은 디스플레이(310a)(예: 디스플레이 패널(311a)의 지정된 영역(305)를 확대한 것이고, 우측 하단은 지정된 영역(305)의 A-A' 단면을 도식화한 것이다.
일 실시예에 따르면, 전자 장치(300a)(예: 전자 장치의 지문 인식 구조)는 적어도 하나의 광원을 포함하는 디스플레이 패널(311a), 적어도 하나의 광원을 통해 상기 전자 장치(300a)의 외부의 객체에 대한 이미지 정보(예: 지문 이미지)를 획득하도록 배치된 이미지 센서(320a), 상기 디스플레이 패널(311a)과 상기 이미지 센서(320a) 사이에 배치되는 광 경로 변경 부재(340a)를 포함할 수 있다. 일 실시예에 따르면, 광 경로 변경 부재(340a)는 디스플레이 패널(311a)과 상기 이미지 센서(320a) 사이에 배치되고, 상기 디스플레이 패널(311a)의 지문 인식 영역(350)을 통해 방출한 광이 외부의 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(341), 및 상기 제1 가이드 구조(341)와 상기 이미지 센서(320a) 사이에 배치되고, 상기 제1 가이드 구조(341)를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(343)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치의 디스플레이 패널은 지문 인식 영역(350)을 포함하는 지정된 영역(305)을 포함할 수 있다. 예를 들어, 지정된 영역(305)은 사용자에게 지문 인식 영역(350)을 알려주기 위하여 설정될 수 있다. 예를 들어, 전자 장치는 지정된 영역(305)의 적어도 일부에 대한 시각적 표시를 통하여 사용자에게 지문 인식 영역(350)에 대한 정보를 제공할 수 있다.
일 실시예에 따르면, 전자 장치(300a)는 지문 인식 영역(350)에 대응하는 광원으로부터 광을 방출하고, 외부의 객체(예: 손가락(지문))에 반사되어 입사되는 광에 기반하여 외부의 객체의 지문을 인식할 수 있다. 일 실시예에 따르면, 제1 가이드 구조(341)(예: 제1 렌즈) 및 제2 가이드 구조(343)(예: 제2 렌즈)는 외부의 객체에 반사된 광이 이미지 센서(320a)에 입사되도록 집광시키거나 또는 입사광의 방향을 변경할 수 있다.
일 실시예에 따르면, 제1 가이드 구조(341)와 제2 가이드 구조(343)의 사이에는 광을 차폐하는 차폐층(370)이 배치될 수 있다. 일 실시예에 따르면, 차폐층(370)은 광을 차폐하기 위한 독립적인 구성일 수 있고, 제1 가이드 구조(341) 또는 제2 가이드 구조(343)에 포함된 렌즈의 지지 구조(예: 렌즈의 배럴(barrel)(미도시))의 외벽이 차폐층의 역할을 수행할 수도 있다. 예를 들어, 차폐층(370)은 이미지 센서(320a)에 도달하는 빛의 성분을 의도적으로 선별할 수 있다. 일 실시예에 따르면, 차폐층(370)은 제1 가이드 구조(341) 및 제2 가이드 구조(343)에 대응하는 조리개(aperture)의 역할을 수행할 수 있다. 예를 들어, 차폐층(370)은 제1 가이드 구조(341) 및 제2 가이드 구조(343)를 통과하여 이미지 센서(320a)에 입사되는 빛의 양이 지정된 양이 되도록 구성될 수 있다.
예를 들어, 지문 인식 영역(350)(예: FOV(field of view))이 클수록 전자 장치(300a)는 더 넓은 범위(크기)의 지문 이미지를 획득할 수 있다. 예를 들어, 광학식 디스플레이 내(indislplay) 이미지 센서(320a)(지문 센서)의 경우 획득된 지문 이미지의 품질뿐만이 아니라, 동일한 객체에서 얻어진 지문 이미지가 기존에 등록된 기준 이미지와 동일한 품질을 가지는 것이 지문 인식의 정확도에 큰 영향을 미칠 수 있다. 획득하는 지문 이미지의 일관성(consistency) 측면에서는 특정 조건에서만 좋은 품질(quality)의 이미지를 획득하는 이미징 시스템(imaging system)일수록 외부 환경 변화에 따른 이미지 품질의 큰 차이를 가져올 수 있다. 예를 들어, 이미징 시스템의 렌즈 설계에 있어서 개구수(numerical aperture, NA)의 제곱과 지문을 유효하게 획득할 수 있는 두께(예: DOF(depth of field))는 반비례 관계를 가질 수 있다. 예를 들어, DOF는 파장/ -에 비례할 수 있다. 예를 들어, 광학식 이미지 센서(320a)의 경우, 디스플레이 패널(311a)(예: OLED panel)의 낮은 광 투과율(예: 5% 이하)의 영향을 최소화하기 위하여 최대한 개구수(numerical aperture, NA)가 큰 렌즈 설계를 하게 되고, 더 넓은 측정 영역을 위하여 FOV(field of view)가 가능한 큰 설계를 하게 된다. 이에 따른 결과로, 지문을 유효하게 획득할 수 있는 두께(예: DOF(depth of field))가 얇아지게 되어서 지문의 위치가 높이 방향으로 조금만 달라지게 되어도 동일 샘플의 이미지가 다르게 되는 결과가 나타날 수 있다. 예를 들어, NA 0.3의 렌즈를 이용한 전자 장치(300a)의 DOF는 약 4μm 정도로 취약하여 사용자가 디스플레이 패널(311a)의 보호를 위하여 보호 필름이나 보호 유리를 부착하게 되는 경우, 지문 이미지의 매칭에 정확도가 떨어질 수 있다. 예를 들어, 동일한 객체(지문)로부터 획득한 지문 이미지일지라도 이미지 센서(320a)와 객체와의 거리 변화에 따라 전반적인 노이즈(noise) 수준이 차이날 수 있으며, 지문 이미지의 배율(magnification)의 정도가 상이해질 수 있다.
일 실시예에 따르면, 전자 장치(300a)는 획득한 지문 이미지가 뒤틀림(distortion)을 동반하지 않는 배율(magnification)에만 오차가 있는 경우, 저장된 사용자의 생체 정보(예: 등록된 사용자의 지문 이미지)와의 매칭(matching) 과정에서 획득한 지문 이미지를 보정하여 지문 인식을 수행할 수 있다.
예를 들어, 도 3a에 도시된 점선은 지문 인식 영역(350)(예: FOV) 내의 각 위치에서의 주광선(chief ray)(361, 363, 365)의 성분을 나타낸다. 일 실시예에 따르면, 전자 장치(300a)는 획득하는 지문 이미지의 영역을 넓히기 위하여 지문 인식 영역(350)은 제1 가이드 구조(341) 또는 제2 가이드 구조(343)의 주광선 각도(chief ray angle)보다 크게 설정될 수 있다. 도 3a를 참고하면, 지문 인식 영역(350) 내의 위치에 따라 외부의 객체(예: 지문)에서 반사된 광 성분이 차폐층(370)의 개구부(371)를 통과하여 이미지 센서(320a)에 전달될 수 있다. 일 실시예에 따르면, 제1 가이드 구조(341) 및 제2 가이드 구조(343) 사이에는 차폐층(370)이 배치될 수 있고, 차폐층(370)의 일 부분에 형성된 개구부(371)가 조리개(aperture)의 역할을 할 수 있다. 예를 들어, 디스플레이 패널(311a)(예: OLED)은 일반적으로 발광 각도에 대하여 Cosine 형태의 강도(intensity) 분포를 가지고 발광하게 되고, 다른 각도로 산란된 성분은 객체에서의 다른 주파수 성분의 정보를 가지고 있으므로, 이미지 센서(320a)는 동일한 객체이더라도 지문 인식 영역(350) 내의 위치에 따라 다른 이미지(또는, 상이한 퀄리티의 이미지)를 획득할 수 있다. 따라서, 넓은 지문 인식 영역(350)에서의 지문 이미지를 획득하기 위해서는 그에 대응하는 크기 또는 구조의 이미지 센서(320a)가 필요할 수 있다. 예를 들어, 디스플레이 패널(311a)에서 발광된 빛이 특정한 방향으로 편광되어 발광된다면, 전자 장치(300a)에 포함된 가이드 구조(예: 제1 가이드 구조(341), 제2 가이드 구조(343))에 따라 입사광의 편광 각도가 변경될 수 있으며, 지문 인식 영역(350) 내의 위치에 따라 획득되는 지문 이미지의 퀄리티가 상이해질 수 있다. 예를 들어, 지문 인식 영역(350)에 대응하는 지문 이미지 중 입사광이 편광되는 방향에 따라 지문 이미지의 가장자리의 일부분(예: 좌측 상단과 우측 하단, 또는 우측 상단과 좌측 하단)은 퀄리티(예: 컨트라스트(contrast))가 나빠질 수 있다. 예를 들어, 지문 이미지의 일부분의 퀄리티가 떨어지는 경우 실질적으로 지문 이미지에서 지문 인식에 활용되는 부분은 감소될 수 있으며, 지문 인식 성능이 떨어질 수 있다.
본 개시의 다양한 실시예에 따른 전자 장치(300a)는 고품질의 지문 이미지를 획득하기 위하여 지문 인식 영역(350)의 크기 및 설정에 대응하는 제1 가이드 구조(341), 제2 가이드 구조(343), 및 이미지 센서(320a)의 구조를 가질 수 있다. 이하에서, 본 개시의 다양한 실시예들에 따른 전자 장치(300a)의 구조를 더 상세히 설명한다.
도 3b는 일 실시예에 따른 전자 장치의 일 단면도를 나타낸다.
도 3b를 참조하면, 다양한 실시예에 따른 전자 장치(300b)는 디스플레이 패널부(310b), 후면 패널(390b), 이미지 센서(320b)(예: 도 3a의 이미지 센서(320a)), 및 광경로 변경 부재(340b)(예: 도 3a의 광경로 변경 부재(340a)(예: 도 3a의 제1 가이드 구조(341), 제2 가이드 구조(343), 및/또는 차폐층(370)))를 포함할 수 있다. 일 실시 예에서, 일부 구성요소가 생략되거나, 추가적인 구성요소를 더 포함할 수 있다. 일 실시 예에서, 구성요소들 중 일부가 결합되어 하나의 개체로 구성되되, 결합 이전의 해당 구성요소들의 기능을 동일하게 수행할 수 있다.
일 실시예에 따르면, 후면 패널(390b)은 전자 장치(300b)의 디스플레이 패널부(310b) 아래에 구성되거나, 디스플레이 패널부(310b) 아래에 구성되지 않을 수 있다.
다양한 실시예에 따른 디스플레이 패널부(310b)는 투명 부재(313b)와, 디스플레이 패널(311b)(예: 도 3a의 디스플레이 패널(311a))을 포함할 수 있다. 투명 부재(313b)는 전자 장치의 디스플레이 패널(311b) 상에 배치되는 외관 부재로서, 예컨대, 윈도우, 전면 윈도우, 커버 글라스, 또는 투명 기판으로 지칭할 수 있다. 예를 들어, 투명 부재(313b)는 강화 유리 재질이나, 유리 재질과 같은 경도를 가지는 투명한 합성 수지로 구성될 수 있다.
다양한 실시예에 따른 디스플레이 패널(311b)은 터치 감지 회로, 터치의 세기(압력)를 측정할 수 있는 압력 센서, 및/또는 자기장 방식의 스타일러스 펜을 검출하는 디지타이저와 결합되는 구조로 구성될 수 있다. 예컨대, 디스플레이 패널(311b)은 평탄(planar)하거나 곡형(burved)이거나, 평탄 면과 곡형 면의 조합으로 구성될 수 있다. 디스플레이 패널(311b)은 리지드(rigid)한 재질이거나 플렉시블한(flexible) 재질로 구성될 수 있다. 일 실시예에 따르면, 디스플레이 패널은 적어도 하나의 광원(예: 자가 발광을 할 수 있는 OLED 기반 픽셀들)을 포함할 수 있다. 예를 들어, 디스플레이 패널(311b)에 배치된 픽셀은 프로세서 또는 DDI(display driver IC)의 제어에 따라 지정된 광을 조사할 수 있다. 예를 들어, 광원(예: 픽셀)에서 조사된 광은 디스플레이 패널(311b) 전면에 배치되는 물체(예: 손가락)에 의해 반사되고 디스플레이 패널(311b)의 적어도 하나의 투과 영역 및 광경로 변경 부재(340b)를 투과하여 이미지 센서(320b)의 수광부에 전달될 수 있다.
다양한 실시예에 따른 디스플레이 패널(311b)은 제1방향으로 향하는 제1면(3111)과, 제1방향과 반대방향인 제2방향으로 향하는 제2면(3112)을 포함할 수 있다. 디스플레이 패널의 제1면(3111)에 투명 부재(313b)가 배치되고, 디스플레이 패널의 제2면(3112)에 접착층이 위치할 수 있다.
일 실시 예에 따르면, 후면 패널(390b)은 디스플레이 패널(311b)의 후면에 배치되어, 디스플레이 패널(311b)을 충격에서 보호하거나, 하우징(예: 브라켓) 상의 디스플레이 패널(311b)을 지지하거나, 또는 디스플레이 패널(311b)에서 발생되는 전자파를 차폐 또는 열을 발산시킬 수 있다.
일 실시예에 따른 후면 패널(390b)은 디스플레이 패널(311b) 아래에 접착층(392b)에 의해 부착되는 패널로서, 블랙 코팅층(394b)과, 충격 흡수 부재(395b)를 포함할 수 있다. 예를 들어, 후면 패널(390b)은 디지타이져(396b)를 추가적으로 구비하거나, 구비하지 않을 수 있다. 또한, 충격 흡수 부재(395b) 아래에는 디지타이져(396b)가 배치되거거나, 배치되지 않게 구성될 수 있다.
다양한 실시예에 따른 충격 흡수 부재(395b)는 블랙 코팅층(394b) 아래에 배치되어서, 전자 장치에 가해지는 충격을 흡수해서, 디스플레이 패널(311b)에 충격이 전달되지 않도록 할 수 있다. 예컨대, 충격 흡수 부재(395b)는 레이어 형상으로 블랙 코팅층(394b)과 디지타이져(396b) 사이에 배치되며, 발포수지 재질로 구성된 쿠션을 포함할 수 있다. 상기 후면 패널(390b)은 전자 장치(300b)에 구성되지 않거나, 디지타이져(396b)대신에 압력 센서(pressure sensor)나 터치 센시티브 패널로 대체될 수 있다.
다양한 실시예에 따른 전자 장치(300b)는 디스플레이 패널(311b) 아래의 적어도 일부 영역에 개구부가 형성될 수 있다. 예를 들어, 개구부는 부품 실장 공간으로서, 디스플레이 패널(311b) 아래에 배치된 후면 패널(390b)의 일부분을 절개하여 형성될 수 있다. 예를 들어, 후면 패널(390b)의 절개되는 부분은 접착층(392b)의 일부, 블랙 코팅층(394b)의 일부, 충격 흡수 부재의 일부(395b) 및 디지타이져(396b)의 일부 중 적어도 하나로서, 이러한 부분들은 절개되어 제거될 수 있다. 예를 들어, 개구부에는 이미지 센서(320b)가 배치될 수 있다. 다양한 실시예에 따르면, 개구부는 공기(air)로 채워질 수 있고, 별도의 충진재가 충진될 수도 있다. 예를 들어, 개구부의 형상은 대략적으로 직육면체 형상으로 구성될 수 있으나, 이러한 형상에 한정되지 않는다.
다양한 실시예에 따른 이미지 센서(320b)는 개구부에 실장될 수 있다. 이미지 센서(320b)는 지문 센서로 활용될 수 있다. 이미지 센서(320b)는 디스플레이 패널(311b)과 대면하게 배치되며, 디스플레이 패널의 제2면(3112)과 평행한 상태(대면한 상태)로, 배치될 수 있다. 예컨대, 이미지 센서(320b)는 개구부 내에 완전히 수용되게 배치되거나, 적어도 일부가 개구부 내에 배치될 수 있다. 일 실시예에 따르면, 이미지 센서(320b)는 후면 패널(390b)의 적어도 일부에 부착되거나, 또는 디스플레이 패널부(310b)의 적어도 일부에 부착되거나, 또는 지지 부재(예: 브라켓(미도시))에 부착될 수도 있다. 예를 들어, 이미지 센서(320b)는 접착 부재(398b)를 이용하여 후면 패널(390b)의 적어도 일부에 부착될 수 있다. 도 3b에서는 이미지 센서(320b)가 접착 부재(398b)를 통하여 디지타이저(396b)에 부착되는 것으로 도시하였으나, 다양한 실시예에 따르면, 이미지 센서(320b)가 부착되는 후면 패널(390b)의 일부분은 이에 한정되지 않고 다양하게 변경될 수 있다.
일 실시 예에 따르면, 이미지 센서(320b)는 디스플레이 패널(311b)의 광원(예: 복수의 픽셀들 중 적어도 일부 픽셀들)을 통해 출력되어, 투명 부재(313b)에 근접한 외부 객체(예: 손가락(지문))에 반사된 후 디스플레이 패널(311b)의 투과 영역을 투과하고 광경로 변경 부재(340b)를 통과한 투과광을 획득할 수 있다. 예를 들어, 이미지 센서(320b)는 디스플레이 패널(311b)의 적어도 일부 픽셀을 통해 출력된 광이 투명 부재(313b)에 근접한 외부 객체에 반사된 후 디스플레이 패널(311b)의 투과 영역을 투과하여 광경로 변경 부재(340b)를 통해서 경로 변경되어 이미지 센서(320b)의 수광부로 입사된 광을 획득할 수 있다. 이미지 센서(320b)는 상기 획득된 광을 이용하여 지문 인식에 필요한 이미지 정보를 구성하고, 구성된 이미지 정보를 전자 장치(300b)(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))의 프로세서(예: AP, DDI, 또는 저전력 프로세서)(예: 도 1의 프로세서(120), 도 2의 프로세서(250))가 접근할 수 있도록 이미지 센서(320b)의 내부 메모리(미도시) 또는 상기 전자 장치(300b)의 메모리(예: 도 1의 메모리(130), 도 2의 메모리(230))에 저장할 수 있다.
일 실시예에 따르면, 광경로 변경 부재(340b)(예: 도 3a의 광경로 변경 부재(340a))는 디스플레이 패널(311b)와 이미지 센서(320b) 사이의 개구부 내에 배치될 수 있다. 예를 들어, 광경로 변경 부재(340b)는 디스플레이 패널(311b)과 제 1 거리만큼 이격되고, 이미지 센서(320b)와 제 2 거리(< 제 1 거리)만큼 이격되도록 이미지 센서(320b)와 디스플레이 패널(311b) 사이에 배치될 수 있다. 상기 제 1 거리는 예를 들면, 상기 투과광의 회절에 의한 간섭이 지정된 크기 이하가 되도록 설정될 수 있다. 상기 지정된 크기는 예를 들면, 회절에 의한 간섭이 이미지 센서(320b)의 지문 인식 신호에 주는 영향을 기반으로 실험적으로 결정될 수 있다. 다른 예를 들어, 광경로 변경 부재(340b)는 전자 장치(300b)의 후면 커버(미도시)에 형성된 홀의 내부에 배치될 수 있다. 상술한 실시 예에 따르면, 광경로 변경 부재(340b)는 디스플레이 패널(311b)과 근접 배치됨에 따라 이미지 센서(320b)가 디스플레이 패널(311b)의 투과 영역으로 인한 광의 회절로 인하여 지문 인식에 필요한 정도로 양호한 신호가 획득하지 못하는 문제를 방지할 수 있다.
일 실시예에 따르면, 광경로 변경 부재(340b)는 이미지 센서(320b) 상부에 배치되고, 디스플레이 패널(311b)과 대면하게 배치될 수 있다. 일 실시예에 따르면, 광경로 변경 부재(340b)는 이미지 센서(320b)와 디스플레이 패널(311b) 사이에 배치되어, 디스플레이 패널(311b)을 투과한 광의 적어도 일부에 대한 광학적인 경로를 변경할 수 있다. 일 실시예에 따르면, 광경로 변경 부재(340b)는 디스플레이 패널(311b)과 상기 이미지 센서(320b) 사이에 배치되고, 상기 디스플레이 패널(311b)의 지문 인식 영역(예: 도 3a의 지문 인식 영역(350))을 통해 방출한 광이 외부의 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(예: 도 3a의 제1 가이드 구조(341)), 및 상기 제1 가이드 구조와 이미지 센서(320b) 사이에 배치되고, 상기 제1 가이드 구조를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(예: 도 3a의 제2 가이드 구조(343))를 포함할 수 있다. 일 실시예에 따르면, 제1 가이드 구조와 제2 가이드 구조의 사이에는 광을 차폐하는 차폐층(예: 도 3a의 차폐층(370))이 배치될 수 있다.
일 실시 예에 따르면, 광경로 변경 부재(340b)는 투과 영역(예: 도 3a의 310a)을 투과한 투과광 중 적어도 일부의 경로를 변경할 수 있도록 형성될 수 있다. 예를 들어, 광경로 변경 부재(340b)는 광학층(예를 들어, 렌즈, 핀홀 어레이(pinhole array) 또는 멀티층 콜리메이터(multi-layer collimator))를 포함하고, 광학층으로 입사된 광을 집광할 수 있다. 예를 들어, 광경로 변경 부재(340b)는 광차단층(예: 도 3a의 차폐층(370)), 필터층 또는 버퍼층 중 적어도 하나를 더 포함할 수 있다. 예를 들어, 광차단층은 광학층에 형성된 경로 이외 경로로의 광의 입사 또는 반사를 차단할 수 있다. 예를 들면, 광차단층은 광학층의 상부의 광 입사 영역을 제외한 영역에 부착 또는 도포되는 블랙 코팅층(예: 블랙 시트(black sheet) 또는 블랙 인쇄층)을 포함할 수 있다. 상기 필터층은 지정된 파장대역 이외의 광(예: 적색 및 근적외선 대역의 광)의 입사를 차단할 수 있다. 상기 버퍼층은 광학층의 상면(예: 디스플레이와 대향하는 면)에 부착되어, 디스플레이 패널(311b)과 이미지 센서(320b) 간의 거리를 조절할 수 있다. 일 실시 예에 따르면, 광경로 변경 부재(340b)는 디스플레이 패널(311b)에 영향을 덜 주는 재질 또는 구조로 구성될 수 있다. 예를 들어, 광경로 변경 부재(340b)는 디스플레이 패널(311b)과 연접하는 면의 외곽이 라우딩 처리될 수 있다. 상술한 실시 예에 따르면, 광경로 변경 부재(340b)는 광경로 변경 부재(340b)와 디스플레이 패널(311b) 간의 마찰력 또는 외부 충격으로 인하여 디스플레이 패널(311b)에 손상을 주는 문제를 방지할 수 있다.
일 실시예에 따르면, 차폐 시트(397b)는 구리 재질의 구리 쉬트 또는 구리 플레이트일 수 있다. 예를 들어, 차폐 시트(397b)는 디지타이져(396b)를 지지하는 지지 구조일 수 있고, 디스플레이 패널(311b)의 방열 기능을 구비할 수 있다. 차폐 시트(397b)는 후면 패널(390b)에 구성되지 않을 수도 있다.
다양한 실시예에 따르면, 전자 장치(300a, 300b)의 단면은 도 3b에 도시된 바에 한정되지 않으며, 적어도 일부 변형될 수 있다. 예를 들어, 전자 장치(300a, 300b)는 디스플레이 패널(311a, 311b)와 이미지 센서(320a, 320b) 사이에 지문 인식을 위한 구조(예: 광경로 부재(340a, 340b))가 배치되는 다양한 구조를 가질 수 있다. 예를 들어, 광경로 부재(340a, 340b)는 도 3a에 도시된 제1 가이드 구조(341), 제2 가이드 구조(343), 및 차폐층(370)을 포함할 수 있으며, 이하에서 도 4 내지 도 7에서 설명되는 본 발명의 다양한 실시예에 따른 전자 장치의 지문 인식 구조의 적어도 일부를 포함할 수 있다.
도 4는 일 실시예에 따른 전자 장치(400)(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
일 실시예에 따르면, 전자 장치(400)는 적어도 하나의 광원을 포함하는 디스플레이 패널(410)(예: 도 2의 디스플레이 패널(211) 또는 도 3a의 디스플레이 패널(311a)), 적어도 하나의 광원을 통해 상기 전자 장치(400)의 외부의 객체에 대한 이미지 정보를 획득하도록 배치된 이미지 센서(420)(예: 도 2의 이미지 센서(220) 또는 도 3a의 이미지 센서(320a)), 상기 디스플레이 패널(410)과 상기 이미지 센서(420) 사이에 배치되고, 상기 디스플레이 패널(410)의 지문 인식 영역(450)을 통해 방출한 광이 외부의 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(441)(예: 도 3a의 제1 가이드 구조(341)), 및 상기 제1 가이드 구조(441)와 상기 이미지 센서(420) 사이에 배치되고, 상기 제1 가이드 구조(441)를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(443)(예: 도 3a의 제2 가이드 구조(343))를 포함할 수 있다.
도 4를 참고하면, 도 3a에 도시된 바와 비교할 때, 전자 장치(400)는 도 3a의 지문 인식 영역(350)보다 작은 지문 인식 영역(450)(예: FOV)을 가질 수 있다. 예를 들어, 디스플레이 패널(410)의 지정된 영역(405)은 도 3a의 지정된 영역(305)에 대응하는 크기 또는 작은 크기를 가질 수 있다. 예를 들어, 도 4에서, 전자 장치(400)는 동일한 크기의 지정된 영역(405)에 대하여 지문 인식 영역(450)이 차지하는 비중이 감소된 형태를 가질 수 있다. 일 실시예에 따르면, 지문 인식 영역(450)의 크기를 감소시킴으로써, 전자 장치(400)에 포함되는 이미지 센서(420)도 지문 인식 영역(450)에 대응하는 크기로 감소할 수 있다. 일 실시예에 따르면, 이미지 센서(420)는 지문 인식 영역(450)보다 작은 면적을 가질 수 있다. 예를 들어, 도 4의 상단 평면도를 참고하면, 지문 인식 영역(450) 및 이미지 센서(420)가 원형인 경우를 가정할 때, 이미지 센서(420)의 면적은 지문 인식 영역(450)의 면적 이하로 구성될 수 있다. 예를 들어, 도 3a의 경우 더 넓은 지문 인식 영역(350)으로 인하여 더 큰 범위의 지문 이미지를 획득할 수 있으나, 획득한 지문 이미지에서 퀄리티가 떨어지는 가장자리 부분은 실질적으로 지문 인식 성능에 큰 영향을 주지 않을 수 있다. 예를 들어, 지문 인식 영역(450)의 크기가 감소한 대신, 전체 지문 인식 영역(450) 내에서 외부 객체(예: 손가락의 지문)에 반사되어 제1 가이드 구조(441) 및 제2 가이드 구조(443)를 통해 이미지 센서(420)로 입사되는 입사광은 객체에 대한 정보를 가지는 광 성분을 더 많이 포함할 수 있다. 예를 들어, 도 3a의 지문 인식 영역(350)의 중심에서의 주광선(chief ray) 성분은 차폐층(370)의 개구부(371)을 통하여 이미지 센서(320)로 입사될 수 있으나, 가장자리에서의 주광선 성분(361)은 차폐층(370)에 의해 이미지 센서(320)로 입사되지 않을 수 있다. 비교 예로, 도 4의 경우, 지문 인식 영역(450)의 중심에서의 주광선 성분 및 가장자리에서의 주광선(chief ray) 성분(461)이 모두 차폐층(470)에 의해 차단되지 않고 이미지 센서(420)로 입사될 수 있다.
일 실시예에 따르면, 전자 장치(400)는 제1 가이드 구조(441)와 제2 가이드 구조(443) 사이에 차폐층(470)을 포함할 수 있다. 일 실시예에 따르면, 차폐층(470)의 일부분에 형성된 개구부는 조리개(aperture)(471)의 역할을 하도록 구성될 수 있다. 예를 들어, 제1 가이드 구조(441), 제2 가이드 구조(443), 및 이미지 센서(420)의 특성을 고려하여 외부 객체에 반사되어 이미지 센서(420)로 입사되는 광의 주광선 성분(461, 463)을 고려하여 차폐층(470)의 개구부(예: 조리개(471))의 넓이가 설정될 수 있다. 예를 들어, 지문 인식 영역(450)의 최외곽 부분에서 반사되는 광의 주광선 성분(461)이 차폐층(470)의 개구부(471)를 통과하여 이미지 센서(420) 내로 입사되도록 설정될 수 있다.
일 실시예에 따르면, 이미징 시스템(예: 제1 가이드 구조(441) 및/또는 제2 가이드 구조(443))의 개구수(numerical aperture, NA)를 감소시키는 경우 객체(예: 손가락의 지문)의 높이 방향의 변화에 따른 지문 이미지의 변화를 감소(즉, DOF(depth of field)를 증가)시킬 수 있다. 예를 들어, 이미징 시스템(예: 제1 가이드 구조(441) 및/또는 제2 가이드 구조(443))의 NA가 약 0.3 정도인 경우, 회절 한계 해상도(diffraction limited resolution)는 1μm 정도가 될 수 있지만, 획득하는 이미지는 픽셀 사이즈에 의해 제한되어 이미지 센서(420)(이미징 시스템)의 해상도는 약 100μm 정도가 될 수 있다. 예를 들어, 도 4를 참조하면, 전자 장치(400)의 차폐층(470)의 개구부(471)의 크기를 도 3a에 비교하여 차폐층(370)의 개구부(371)의 크기보다 줄여서 전자 장치(400)의 이미징 시스템(예: 제1 가이드 구조(441) 및/또는 제2 가이드 구조(443))의 NA를 0.05 정도로 감소시키면, 이미지 센서(420)의 해상도는 변화시키지 않고 DOF를 약 30배 이상 증가시킬 수 있고, 외부 객체의 높이 방향 변화에 따른 지문 이미지의 변화를 최소화할 수 있다. 반면에, 이미징 시스템(예: 제1 가이드 구조(441) 및/또는 제2 가이드 구조(443))의 NA가 감소할수록 획득하는 지문 이미지의 밝기가 어두워지거나, 또는 지문 이미지 획득 시간이 증가할 수 있다. 다양한 실시예에 따르면, 이미지 센서(420)의 민감도(sensitivity) 및 노출 시간(imaging exposure time) 및 요구되는 DOF를 고려하여 이미징 시스템(예: 제1 가이드 구조(441) 및/또는 제2 가이드 구조(443))의 NA 값이 설정될 수 있다.
일 실시예에 따르면, 전자 장치(400)는 디스플레이 패널(410)의 지문 인식 영역(450)을 감소시키고, 이에 따라 제1 가이드 구조(441), 제2 가이드 구조(443), 및 이미지 센서(420)를 소형화하여 배치함으로써, 공간적인 효율을 높이면서 DOF 변화로 인한 지문 이미지의 오인식을 감소시킬 수 있다.
도 5는 일 실시예에 따른 전자 장치(500)(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
일 실시예에 따르면, 전자 장치(500)는 적어도 하나의 광원을 포함하는 디스플레이 패널(510)(예: 도 2의 디스플레이 패널(211) 또는 도 3a의 디스플레이 패널(311a)), 적어도 하나의 광원을 통해 상기 전자 장치의 외부의 객체에 대한 이미지 정보를 획득하도록 배치된 이미지 센서(520)(예: 도 2의 이미지 센서(220) 또는 도 3a의 이미지 센서(320a)), 상기 디스플레이 패널(510)과 상기 이미지 센서(520) 사이에 배치되고, 상기 디스플레이 패널(510)의 지문 인식 영역(550)을 통해 방출한 광이 외부의 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(541)(예: 도 3a의 제1 가이드 구조(341)), 및 상기 제1 가이드 구조(541)와 상기 이미지 센서(520) 사이에 배치되고, 상기 제1 가이드 구조(541)를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(543)(예: 도 3a의 제2 가이드 구조(343))를 포함할 수 있다.
505a 및 505b를 참고하면, 디스플레이 패널(510)의 지문 인식 영역(550)은 복수 개의 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)을 포함할 수 있다. 일 실시예에 따르면, 복수 개의 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)은 디스플레이 패널에서 지문 인식을 위하여 광을 방출하도록 지정된 단위 영역일 수 있고, 디스플레이 패널을 통해 방출한 광이 외부 객체(예: 지문)에 반사되어 입사되는 입사광에 기반하여 대응하는 지문 이미지를 획득하는 지정된 단위 영역일 수 있다. 일 실시예에 따르면, 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)은 전자 장치(500)를 디스플레이 패널(510)이 노출된 일 면에서 바라보았을 때(예: 도 3a에 도시된 바와 같이 전자 장치(300)를 z축 방향에서 바라본 경우), 적어도 일부 영역이 중첩될 수 있다. 예를 들어, 도 5에 도시된 바와 같이, 전자 장치(500)는 복수 개의 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)을 포함하는 지문 인식 영역(550)을 설정함으로써, 도 3a에 도시된 바와 유사하게 넓은 지문 인식 영역(550)을 설정할 수 있다.
일 실시예에 따르면, 전자 장치(500)는 전체 지문 인식 영역(550)에 대응하는 크기의 이미지 센서(520)를 포함할 수 있다. 일 실시예에 따르면, 전자 장치(500)는 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557) 각각에 대응하는 제1 가이드 구조(541) 및 제2 가이드 구조(543)를 포함할 수 있다. 예를 들어, 제1 가이드 구조(541) 및 제2 가이드 구조(543)는 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557) 각각에 대응하는 복수 개의 렌즈를 포함할 수 있다. 예를 들어, 제1 가이드 구조(541)는 제1 서브 지문 인식 영역(551)에 대응하는 제1 렌즈(5411), 제2 서브 지문 인식 영역(552)에 대응하는 제2 렌즈(5412), 제3 서브 지문 인식 영역(553)에 대응하는 제3 렌즈(5413)(미도시), 제4 서브 지문 인식 영역(554)에 대응하는 제4 렌즈(5414)(미도시), 제5 서브 지문 인식 영역(555)에 대응하는 제5 렌즈(5415), 제6 서브 지문 인식 영역(556)에 대응하는 제6 렌즈(5416)(미도시), 및 제7 서브 지문 인식 영역(557)에 대응하는 제7 렌즈(5417)(미도시)를 포함할 수 있다. 예를 들어, 제2 가이드 구조(543)는 제1 서브 지문 인식 영역(551)에 대응하는 제8 렌즈(5431), 제2 서브 지문 인식 영역(552)에 대응하는 제9 렌즈(5432), 제3 서브 지문 인식 영역(553)에 대응하는 제10 렌즈(5433)(미도시), 제4 서브 지문 인식 영역(554)에 대응하는 제11 렌즈(5434)(미도시), 제5 서브 지문 인식 영역(555)에 대응하는 제12 렌즈(5435), 제6 서브 지문 인식 영역(556)에 대응하는 제13 렌즈(5436)(미도시), 및 제7 서브 지문 인식 영역(557)에 대응하는 제14 렌즈(5437)(미도시)를 포함할 수 있다.
일 실시예에 따르면, 각각의 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557) 각각의 최외곽 부분에서 반사되는 광의 주광선 성분들(예: 5611, 5612, 및 5615)이 제1 가이드 구조(541) 및 제2 가이드 구조(543)를 통하여 이미지 센서(520) 내로 입사되도록 각 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 제1 가이드 구조(541) 및 제2 가이드 구조(543)가 배치될 수 있다.
일 실시예에 따르면, 전자 장치(500)는 디스플레이 패널(510)을 통하여 복수 개의 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557) 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴(또는, 지정된 순서)에 따라 광을 방출할 수 있다. 다른 실시예에 따르면, 전자 장치는 전체 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 광원들로부터 동시에 광을 방출할 수도 있다.
예를 들어, 505c는 이미지 센서(520)에서 각 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 입사광에 기반하여 획득하는 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)을 도시한다. 예를 들어, 505c를 참고하면, 전자 장치(500)가 제1 서브 지문 인식 영역(551)에 대응하는 광원으로부터 광을 방출한 경우, 이미지 센서(520)는 제1 서브 지문 인식 영역(551)에 접촉한 외부의 객체(예: 손가락)에 의해 반사되어 이미지 센서(520)에 입사된 광에 기반하여, 550 영역에 접촉한 외부의 객체의 적어도 일부분에 대한 제1 부분 지문 이미지(581)(예: 제1 서브 지문 인식 영역(551)에 대응하는 지문 이미지)를 획득할 수 있다. 이후, 전자 장치(500)가 제2 서브 지문 인식 영역(552)에 대응하는 광원으로부터 광을 방출한 경우, 이미지 센서(520)는 제2 서브 지문 인식 영역(552)에 접촉한 외부의 객체(예: 손가락)에 의해 반사되어 이미지 센서(520)에 입사된 광에 기반하여 외부의 객체의 일부분에 대한 제2 부분 지문 이미지(582)(예: 제2 서브 지문 인식 영역(552)에 대응하는 지문 이미지)를 획득할 수 있다. 일 실시예에 따르면, 유사한 방식으로, 전자 장치(500)(예: 이미지 센서(520))는 제1 내지 제7 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557) 각각에 대응하는 제1 내지 제7 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)을 획득할 수 있다. 일 실시예에 따르면, 전자 장치(500)는 획득한 제1 내지 제7 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)을 처리하여 전체 지문 인식 영역에 대응하는 지문 이미지를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(500)가 획득한 각 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)은 객체의 지문에 대한 역상 이미지(reverse image)로 획득될 수 있다. 일 실시예에 따르면, 전자 장치(500)는 동시에 전체 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 광원들로부터 광을 방출하고, 각 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)을 획득 및 처리하여 전체 지문 이미지를 획득할 수 있다. 예를 들어, 도 5의 이미지 센서(520)는 전체 지문 인식 영역(550)에 대응하는 크기를 가짐으로써, 이미지 센서(520)가 동시에 전체 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557)에 대응하는 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)을 획득하는 경우에도 각각의 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)이 중첩되지 않을 수 있다. 다른 실시예에 따르면, 전자 장치(500)는 복수 개의 서브 지문 인식 영역들(551, 552, 553, 554, 555, 556, 및 557) 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴(또는, 지정된 순서)에 따라 광을 방출하고, 획득한 순서대로 부분 지문 이미지들(581, 582, 583, 584, 585, 586, 및 587)을 순차적으로 처리하여 전체 지문 이미지를 획득할 수도 있다.
도 6은 일 실시예에 따른 전자 장치(600)(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
일 실시예에 따르면, 전자 장치(600)는 적어도 하나의 광원을 포함하는 디스플레이 패널(610)(예: 도 2의 디스플레이 패널(211) 또는 도 3a의 디스플레이 패널(311a)), 적어도 하나의 광원을 통해 상기 전자 장치(600)의 외부의 객체에 대한 이미지 정보를 획득하도록 배치된 이미지 센서(620)(예: 도 2의 이미지 센서(220) 또는 도 3a의 이미지 센서(320a)), 상기 디스플레이 패널(610)과 상기 이미지 센서(620) 사이에 배치되고, 상기 디스플레이 패널(610)의 지문 인식 영역(650)을 통해 방출된 광이 외부의 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(641)(예: 도 3a의 제1 가이드 구조(341)), 및 상기 제1 가이드 구조(641)와 상기 이미지 센서(620) 사이에 배치되고, 상기 제1 가이드 구조(641)를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(643)(예: 도 3a의 제2 가이드 구조(343))를 포함할 수 있다. 예를 들어, 제1 가이드 구조(641)는 제1 서브 지문 인식 영역(651)에 대응하는 제1 렌즈(6411), 제2 서브 지문 인식 영역(652)에 대응하는 제2 렌즈(6412), 제3 서브 지문 인식 영역(653)에 대응하는 제3 렌즈(6413)(미도시), 제4 서브 지문 인식 영역(654)에 대응하는 제4 렌즈(6414)(미도시), 제5 서브 지문 인식 영역(655)에 대응하는 제5 렌즈(6415), 제6 서브 지문 인식 영역(656)에 대응하는 제6 렌즈(6416)(미도시), 및 제7 서브 지문 인식 영역(657)에 대응하는 제7 렌즈(6417)(미도시)를 포함할 수 있다. 예를 들어, 제2 가이드 구조(643)는 제1 서브 지문 인식 영역(651)에 대응하는 제8 렌즈(6431), 제2 서브 지문 인식 영역(652)에 대응하는 제9 렌즈(6432), 제3 서브 지문 인식 영역(653)에 대응하는 제10 렌즈(6433)(미도시), 제4 서브 지문 인식 영역(654)에 대응하는 제11 렌즈(6434)(미도시), 제5 서브 지문 인식 영역(655)에 대응하는 제12 렌즈(6435), 제6 서브 지문 인식 영역(656)에 대응하는 제13 렌즈(6436)(미도시), 및 제7 서브 지문 인식 영역(657)에 대응하는 제14 렌즈(6437)(미도시)를 포함할 수 있다.
일 실시예에 따르면, 디스플레이 패널(610)의 지문 인식 영역(650)은 복수 개의 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)을 포함할 수 있다. 일 실시예에 따르면, 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)은 전자 장치(600)를 위에서 바라보았을 때(예: 도 3a에 도시된 바와 같이 전자 장치(300)를 디스플레이(310)이 향하는 방향(z축 방향)에서 바라본 경우), 적어도 일부 영역이 중첩될 수 있다.
일 실시예에 따르면, 전자 장치(600)는 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657) 각각에 대응하는 제1 가이드 구조(641) 및 제2 가이드 구조(643)를 포함할 수 있다. 예를 들어, 제1 가이드 구조(641) 및 제2 가이드 구조(643)는 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657) 각각에 대응하는 복수 개의 렌즈를 포함할 수 있다. 일 실시예에 따르면, 제1 가이드 구조(641)에 포함된 렌즈들의 형태 또는 배열은, 제2 가이드 구조(643)에 포함된 렌즈들의 형태 또는 배열과 상이할 수 있다. 예를 들어, 제1 가이드 구조(641) 및/또는 제2 가이드 구조(643)에 포함된 렌즈들의 형태 또는 배열은 렌즈들의 재질, 굴절률, 크기, 또는 모양을 포함하는 렌즈의 성질에 따라 다양하게 설정될 수 있다. 예를 들어, 제1 가이드 구조(641)에 포함된 렌즈들은 상대적으로 제2 가이드 구조(643)에 포함된 렌즈들보다 넓은 사이 간격을 가지는 배열을 가질 수 있다. 예를 들어, 도 6에 도시된 바와 같이, 제1 가이드 구조(641)의 렌즈들과 제2 가이드 구조(643)의 렌즈들이 상이한 형태 또는 배열을 갖도록 배치됨으로써, 전자 장치(600)는 도 5에 도시된 실시예의 경우보다 상대적으로 작은 크기의 이미지 센서(620)를 포함할 수 있다. 예를 들어, 이미지 센서(620)는 지문 인식 영역(650)의 면적보다 작은 크기를 가질 수 있다. 일 실시예에 따르면, 이미지 센서(620)는 도 6에 도시된 바와 같이 하나의 이미지 센서일 수도 있고, 복수 개의 이미지 센서를 포함할 수 있다.
예를 들어, 605c는 각 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)에 대응하는 입사광에 기반하여 이미지 센서(620)가 획득하는 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 도시한다. 일 실시예에 따르면, 전자 장치(600)는 획득한 제1 내지 제7 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 처리하여 전체 지문 인식 영역에 대응하는 지문 이미지를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(600)는 동시에 전체 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)에 대응하는 광원들로부터 광을 방출하고, 각 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)에 대응하는 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 획득 및 처리하여 전체 지문 이미지를 획득할 수 있다. 예를 들어, 도 6의 이미지 센서(620)는 도 5의 이미지 센서(520)보다 작은 크기(면적)을 가질 수 있지만, 각 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)에 대응하는 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)이 서로 중첩되지 않고 이미지 센서(620)에서 획득 가능하도록 제1 가이드 구조(641) 및 제2 가이드 구조(642)가 배치(배열)됨으로써, 이미지 센서(620)는 동시에 각 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)에 대응하는 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 획득할 수 있다. 다른 실시예에 따르면, 이미지 센서(620)의 크기를 더 감소시키는 경우, 제1 가이드 구조(641) 및 제2 가이드 구조(643)의 배치(배열)에 따라 각 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657)에 대응하는 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)의 적어도 일부가 이미지 센서(620)에서 중첩될 수 있다. 예를 들어, 이미지 센서(620)는 객체의 지문에 대한 역상 이미지(reverse image)를 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)로 획득할 수 있다. 이 경우, 전자 장치(600)가 전체 지문 이미지를 획득하기 위해서는 중첩된 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 이미지 처리하여 분리하는 과정이 필요할 수 있고, 이미지 처리에 따른 시간 및 자원 소모가 증가할 수 있다. 일 실시예에 따르면, 각 전자 장치(600)는 복수 개의 서브 지문 인식 영역들(651, 652, 653, 654, 655, 656, 및 657) 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴(또는, 지정된 순서)에 따라 광을 방출하고, 획득한 순서대로 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 순차적으로 처리함으로써, 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)이 중첩되어 소모될 수 있는 이미지 처리 시간 및 자원 소모를 감소시킬 수 있다.
일 실시예에 따르면, 전자 장치(600)는 제1 가이드 구조(641) 및 제2 가이드 구조(643)에 포함된 렌즈들의 형태 또는 배열에 따라 상대적으로 더 작은 크기의 이미지 센서(620)로 도 5의 실시예와 유사한 효과 및 기능을 제공할 수 있다.
도 7은 일 실시예에 따른 전자 장치(700)(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200))의 지문 인식 구조 및 지문 인식 동작을 설명하기 위한 도면이다.
일 실시예에 따르면, 전자 장치(700)는 적어도 하나의 광원을 포함하는 디스플레이 패널(710)(예: 도 2의 디스플레이 패널(211) 또는 도 3a의 디스플레이 패널(311a)), 적어도 하나의 광원을 통해 상기 전자 장치(700)의 외부의 객체에 대한 이미지 정보를 획득하도록 배치된 이미지 센서(720)(예: 도 2의 이미지 센서(220) 또는 도 3a의 이미지 센서(320a)), 상기 디스플레이 패널(710)과 상기 이미지 센서(720) 사이에 배치되고, 상기 디스플레이 패널(710)의 지문 인식 영역(750)(예: 각 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757))을 통해 방출한 광이 외부 객체에 반사되어 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(741)(예: 도 3a의 제1 가이드 구조(341)) , 및 상기 제1 가이드 구조(741)와 상기 이미지 센서(720) 사이에 배치되고, 상기 제1 가이드 구조(741)를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(743)(예: 도 3a의 제2 가이드 구조(343))를 포함할 수 있다.
705a 및 705b를 참고하면, 일 실시예에 따르면, 디스플레이 패널(710)의 지문 인식 영역(750)은 복수 개의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)을 포함할 수 있다. 일 실시예에 따르면, 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)은 전자 장치(700)를 디스플레이 패널(710)이 노출된 일 면에서 바라보았을 때, 적어도 일부 영역이 중첩될 수 있다.
일 실시예에 따르면, 전자 장치(700)는 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각에 대응하는 제1 가이드 구조(741)를 포함할 수 있다. 예를 들어, 일 실시예에 따르면, 제1 가이드 구조(741)는 제1 서브 지문 인식 영역(751)에 대응하는 제1 렌즈(7411), 제2 서브 지문 인식 영역(752)에 대응하는 제2 렌즈(7412), 제3 서브 지문 인식 영역(753)에 대응하는 제3 렌즈(7413)(미도시), 제4 서브 지문 인식 영역(754)에 대응하는 제4 렌즈(7414)(미도시), 제5 서브 지문 인식 영역(755)에 대응하는 제5 렌즈(7415), 제6 서브 지문 인식 영역(756)에 대응하는 제6 렌즈(7416)(미도시), 및 제7 서브 지문 인식 영역(757)에 대응하는 제7 렌즈(7417)(미도시)를 포함할 수 있다. 일 실시예에 따르면, 제2 가이드 구조(743)는 하나의 렌즈로 구성될 수 있다. 예를 들어, 제2 가이드 구조(743)는 제1 가이드 구조(741)에 포함된 렌즈들 각각을 통과하여 입사되는 광들의 방향을 변경하여 이미지 센서(720)로 입사되도록 구성될 수 있다.
일 실시예에 따르면, 이미지 센서(720)는 복수 개의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 중 중심의 제1 서브 지문 인식 영역(751)에 대응하는 위치에 배치될 수 있다. 예를 들어, 이미지 센서(720)는 제1 서브 지문 인식 영역(751)에 대응하는 크기 또는 제1 서브 지문 인식 영역(751)보다 작은 크기를 가질 수 있다. 비교 예로, 도 7의 이미지 센서(720)는 도 4 내지 도 6의 이미지 센서(420, 520 또는 620)보다 상대적으로 더 작은 크기를 가질 수 있다.
실시예에 따르면, 전자 장치(700)는 디스플레이 패널(710)을 통하여 복수 개의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴 또는 지정된 순서에 따라 광을 방출할 수 있다.
일 실시예에 따르면, 전자 장치(700)가 하나의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 크기를 가지는 이미지 센서(720)를 포함하는 경우, 전자 장치(700)는 각각의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각에 대하여 이미지 센서(720)를 차례대로 사용할 수 있다. 예를 들어, 각각의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대하여 이미지 센서(720)의 동일한 영역이 사용될 수 있다. 예를 들어, 705c는 각 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 입사광에 기반하여 이미지 센서(620)가 획득하는 부분 지문 이미지들(681, 682, 683, 684, 685, 686, 및 687)을 도시한다. 예를 들어, 이미지 센서(720)가 하나의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 크기를 가지는 경우, 동시에 모든 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 광원으로부터 광을 방출하고, 외부 객체에 반사되어 입사된 광을 기반으로 부분 지문 이미지를 획득하게 되면 동일한 이미지 센서(720)에서 서로 상이한 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 이미지들이 중첩된 형태의 이미지를 획득할 수 있다.
예를 들어, 705c를 참고하면, 이미지 센서(720)의 크기가 감소함에 따라, 각 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 각 부분 지문 이미지들이 이미지 센서(720)의 공통된 영역(780)에서 획득될 수 있다. 이 경우, 전자 장치(700)는 중첩된 형태의 이미지에서 각각의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 이미지를 분리 또는 추출하기 위한 이미지 처리를 수행할 수 있다. 예를 들어, 전자 장치(700)는 중첩된 형태의 이미지에 대하여 디컨벌루션(deconvolution)을 수행하여 각각의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 이미지를 분리할 수 있다. 예를 들어, 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 이미지들을 분리하기 위하여 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각은 적어도 일부 중첩된 영역을 포함할 수 있다. 예를 들어, 중첩된 다수의 이미지를 분리 또는 추출하는 경우 지문 이미지의 퀄리티가 보장되지 않을 수 있다. 일 실시예에 따르면, 전자 장치(700)는 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각에 대응하는 광원으로부터 순차적으로 광을 방출하고, 각 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 부분 지문 이미지를 순차적으로 획득할 수 있다.
예를 들어, 전자 장치(700)는 디스플레이 패널(710)을 통하여 서브 지문 인식 영역들 중 중심에 배치된 제1 서브 지문 인식 영역(751)에 대응하는 광원으로부터 광을 방출하고, 제2 서브 지문 인식 영역(752), 제3 서브 지문 인식 영역(753), 제4 서브 지문 인식 영역(754), 제5 서브 지문 인식 영역(755), 제6 서브 지문 인식 영역(756) 및 제7 서브 지문 인식 영역(757) 순으로 대응하는 광원으로부터 순차적으로 광을 방출할 수 있다. 예를 들어, 전자 장치(700)가 제1 서브 지문 인식 영역(751)에 대응하는 광원으로부터 광을 방출한 경우, 제1 서브 지문 인식 영역(751)에 접촉한 외부의 객체(예: 손가락)에 의해 반사되어 이미지 센서(720)에 입사된 광에 기반하여 외부의 객체의 일부분에 대한 제1 부분 지문 이미지(예: 제1 서브 지문 인식 영역(751)에 대응하는 지문 이미지)를 획득할 수 있다. 이후, 전자 장치(700)가 제2 서브 지문 인식 영역(752)에 대응하는 광원으로부터 광을 방출한 경우, 제2 서브 지문 인식 영역(752)에 접촉한 외부의 객체(예: 손가락)에 의해 반사되어 이미지 센서(720)에 입사된 광에 기반하여 외부의 객체의 일부분에 대한 제2 부분 지문 이미지(예: 제2 서브 지문 인식 영역(752)에 대응하는 지문 이미지)를 획득할 수 있다.
일 실시예에 따르면, 유사한 방식으로, 전자 장치(700)는 제1 내지 제7 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각에 대응하는 제1 내지 제7 부분 지문 이미지를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(700)는 획득한 제1 내지 제7 부분 지문 이미지를 처리하여 전체 지문 인식 영역(750)에 대응하는 지문 이미지를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(700)는 복수 개의 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴(또는, 지정된 순서)에 따라 광을 방출하고, 공통된 영역(780)에서 획득되는 순서대로 부분 지문 이미지들(781, 782, 783, 784, 785, 786, 및 787)을 순차적으로 처리함으로써, 부분 지문 이미지들(781, 782, 783, 784, 785, 786, 및 787)이 중첩되어 소모될 수 있는 이미지 처리 시간 및 자원 소모를 감소시킬 수 있다.
일 실시예에 따르면, 전자 장치(700)는 전체 지문 인식 영역(750)을 가변적으로 설정할 수 있다. 예를 들어, 획득한 지문 이미지를 기 등록된 사용자의 생체 정보(즉, 기 등록된 사용자의 지문 이미지)와 대응하는지 비교하는 경우, 외부의 요인(예: 날씨, 사용자의 나이, 또는 성별)이 이미지 센서(720)를 통하여 획득한 이미지에 영향을 줄 수 있다. 일 실시예에 따르면, 전자 장치(700)는 서브 지문 인식 영역 중 하나(예: 제1 서브 지문 인식 영역(751))에 대응하는 광원으로부터 광을 방출하고 외부 객체에 반사되어 이미지 센서(720)에 입사되는 입사광을 기반으로 제1 이미지 정보를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(700)는 제1 이미지 정보가 상기 객체에 대한 생체 정보를 획득하기 위하여 설정된 기준을 만족하지 못하는 경우, 디스플레이 패널(710)을 통하여 지정된 순서에 따라 다른 서브 지문 인식 영역(예: 제2 서브 지문 인식 영역(752))에 대응하는 광원으로부터 광을 방출하고, 상기 외부의 객체에 반사되어 입사되는 입사광을 기반으로 제2 이미지 정보를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(700)는 제1 이미지 정보 및 제2 이미지 정보에 기반하여 객체에 대한 생체 정보를 획득할 수 있다. 예를 들어, 전자 장치(700)는 제1 이미지 정보 및 제2 이미지 정보를 기반으로 제1 서브 지문 인식 영역 및 제2 서브 지문 인식 영역에 접촉한 객체의 지문 이미지를 획득할 수 있다. 일 실시예에 따르면, 전자 장치(700)는 상황에 따라 제1 내지 제7 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757)에 대응하는 광원을 통하여 순차적으로 또는 단계적으로 광을 방출하거나, 지정된 패턴(순서)에 따라 광을 방출하거나, 한 번에 하나의 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하거나, 적어도 두 개의 서브 지문 인식 영역에 대응하는 광원으로부터 동시에 광을 방출하거나, 또는 전체 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출할 수 있다. 예를 들어, 전자 장치(700)는 상황에 따라 가변적으로 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 중 적어도 일부에 대해서만 광을 방출할 수 있다. 예를 들어, 전자 장치(700)는 상황에 따라 가변적으로 서브 지문 인식 영역들(751, 752, 753, 754, 755, 756, 및 757) 중 적어도 하나를 포함하는 전체 지문 인식 영역(750)을 설정할 수 있다.
본 개시의 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200), 도 3a의 전자 장치(300a), 도 3b의 전자 장치(300b), 도 4의 전자 장치(400), 도 5의 전자 장치(500), 도 6의 전자 장치(600), 또는 도 7의 전자 장치(700))는, 적어도 하나의 광원을 포함하는 디스플레이 패널(예: 도 1의 표시 장치(160), 도 2 내지 도 7의 디스플레이 패널(211, 310a, 310b, 410, 510, 610, 및 710), 상기 적어도 하나의 광원을 통해 방출된 광이 상기 전자 장치의 외부의 객체에 반사되어 입사되는 입사광을 수신하도록 배치된 이미지 센서(예: 도 1의 센서 모듈(176), 도 2 내지 도 7의 이미지 센서(220, 320a, 320b, 420, 520, 620, 및 720)), 상기 디스플레이 패널과 상기 이미지 센서 사이에 배치되고 상기 디스플레이 패널의 지문 인식 영역(예: 도 3a 내지 도 7의 지문 인식 영역(350, 450, 550, 650, 또는 750))을 통해 입사되는 상기 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(예: 도 3a 내지 도 7의 제1 가이드 구조(341, 441, 541, 641, 또는 741)), 상기 제1 가이드 구조와 상기 이미지 센서 사이에 배치되고 상기 제1 가이드 구조를 통과하여 입사되는 상기 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(예: 도 3a 내지 도 7의 제2 가이드 구조(343, 443, 543, 643, 또는 743)), 및 상기 디스플레이 패널 및 상기 이미지 센서와 작동적으로 연결된 프로세서(예: 도 1의 프로세서(120), 도 2의 프로세서(240))를 포함할 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 이미지 센서를 통하여 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 입사되는 상기 입사광의 적어도 일부에 기반하여 이미지 정보를 획득하도록 설정될 수 있다.
일 실시예에 따르면, 상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역(예: 도 5 내지 도 7의 서브 지문 인식 영역들(551 내지 557, 651 내지 657, 또는 751 내지 757))을 포함할 수 있다.
일 실시예에 따르면, 상기 이미지 센서는 상기 복수 개의 서브 지문 인식을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가질 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하도록 설정될 수 있다.
일 실시예에 따르면, 상기 제1 가이드 구조 및 상기 제2 가이드 구조 각각은 상기 복수 개의 서브 지문 인식 영역에 대응하는 적어도 하나의 렌즈를 포함할 수 있다.
일 실시예에 따르면, 상기 제1 가이드 구조에 포함된 적어도 하나의 렌즈와 상기 제2 가이드 구조에 포함된 적어도 하나의 렌즈는 서로 상이한 형태 또는 배열을 가질 수 있다.
일 실시예에 따르면, 상기 복수 개의 서브 지문 인식 영역들은, 상기 전자 장치를 상기 디스플레이 패널이 외부로 노출되는 일 면에서 바라보았을 때, 적어도 일부 영역이 중첩되도록 배치될 수 있다.
일 실시예에 따르면, 상기 제1 가이드 구조는 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 복수 개의 렌즈들을 포함할 수 있다. 일 실시예에 따르면, 상기 제2 가이드 구조는 하나의 렌즈로 구성될 수 있다.
일 실시예에 따르면, 상기 프로세서는 상기 디스플레이 패널을 통하여 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 광원들로부터 순차적으로 광을 방출하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는, 상기 디스플레이 패널을 통하여 지정된 패턴에 따라 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 광원들로부터 광을 방출하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는 상기 디스플레이 패널을 통하여 상기 중심에 배치된 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고, 상기 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광을 기반으로 이미지 정보를 획득하도록 설정될 수 있다.
일 실시예에 따르면, 상기 프로세서는 상기 이미지 정보가 상기 객체에 대한 생체 정보를 획득하기 위하여 설정된 기준을 만족하지 못하는 경우, 상기 디스플레이 패널을 통하여 지정된 순서에 따라 다른 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고, 상기 다른 서브 지문 인식 영역에 대응하는 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 상기 이미지 센서를 통하여 입사되는 입사광을 기반으로 다른 이미지 정보를 획득하고, 상기 이미지 정보 및 상기 다른 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하도록 설정될 수 있다.
일 실시예에 따르면, 상기 전자 장치는 터치 센서(예: 도 2의 터치 센서(250))를 더 포함할 수 있다. 일 실시예에 따르면, 상기 프로세서는, 상기 터치 센서를 통하여 상기 외부의 객체가 상기 지문 인식 영역에 접촉한 것을 감지한 경우, 상기 디스플레이 패널을 통하여 상기 지문 인식 영역에 대응하는 광원으로부터 광을 방출하도록 설정될 수 있다.
일 실시예에 따르면, 상기 전자 장치는 메모리(예: 도 1의 메모리(130), 도 2의 메모리(230))를 더 포함할 수 있다. 일 실시예에 따르면, 상기 프로세서는 상기 획득한 생체 정보가 상기 메모리에 저장된 사용자의 생체 정보와 대응하는지 여부에 기반하여 지정된 기능을 수행하도록 설정될 수 있다.
도 8은 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200), 도 3a의 전자 장치(300a), 도 3b의 전자 장치(300b), 도 4의 전자 장치(400), 도 5의 전자 장치(500), 도 6의 전자 장치(600), 또는 도 7의 전자 장치(700))의 지문 인식 방법의 순서도이다. 일 실시예에 따르면, 전자 장치는 적어도 하나의 광원을 포함하는 디스플레이 패널(예: 도 1의 표시 장치(160), 도 2 내지 도 7의 디스플레이 패널(211, 311a, 311b, 410, 510, 610, 또는 710) 및 이미지 센서(예: 도 1의 센서 모듈(176), 도 2 내지 도 7의 이미지 센서(220, 320a, 320b, 420, 520, 620, 또는 720))를 포함할 수 있다. 일 실시예에 따르면, 전자 장치는 도 3a 내지 도 7에 도시된 전자 장치의 지문 인식 구조 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 810 동작에서, 전자 장치는 디스플레이 패널에 포함된 적어도 하나의 광원을 통하여 광을 방출할 수 있다. 예를 들어, 디스플레이 패널은 지문 인식 영역(예: 도 3a 내지 도 7의 지문 인식 영역(350, 450, 550, 650, 또는 750))을 포함할 수 있다. 일 실시예에 따르면, 전자 장치는 디스플레이 패널을 통하여 지문 인식 영역에 대응하는 광원을 통하여 광을 방출할 수 있다.
일 실시예에 따르면, 820 동작에서, 전자 장치는 지문 인식 영역을 통해 이미지 센서로 입사되는 입사광의 적어도 일부에 기반하여 이미지 정보를 획득할 수 있다. 예를 들어, 810 동작에서 전자 장치가 광원을 통하여 방출한 광은 지문 인식 영역에 접촉한 외부의 객체(예: 손가락(지문))에 반사되어 지문 인식 영역을 통해 입사될 수 있다. 예를 들어, 디스플레이 패널의 지문 인식 영역을 통해 방출된 광이 외부의 객체에 반사되어 입사된 입사광은 제1 가이드 구조(예: 제1 렌즈 구조)(예: 도 3a 내지 도 7의 제1 가이드 구조(341, 441, 541, 641, 또는 741)) 및 제2 가이드 구조(예: 제2 렌즈 구조)(예: 도 3a 내지 도 7의 제2 가이드 구조(343, 443, 543, 643, 또는 743))를 통하여 이미지 센서에 입사될 수 있다. 일 실시예에 따르면, 이미지 센서는 입사광에 적어도 일부에 기반하여 객체에 대한 이미지 정보(예: 지문 이미지)를 획득할 수 있다.
일 실시예에 따르면, 830 동작에서, 전자 장치는 이미지 정보에 기반하여 객체에 대한 생체 정보(예: 지문 정보)를 획득할 수 있다. 일 실시예에 따르면, 전자 장치는 획득한 생체 정보가 메모리(예: 도 1의 메모리(130), 또는 도 2의 메모리(230))에 저장된 사용자의 생체 정보(예: 기 등록된 사용자의 지문 정보)와 대응하는지 여부에 기반하여 지정된 기능(예: 사용자 인증, 지정된 동작, 기능 또는 어플리케이션의 수행)을 수행할 수 있다.
도 9는 일 실시예에 따른 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200), 도 3a의 전자 장치(300a), 도 3b의 전자 장치(300b), 도 4의 전자 장치(400), 도 5의 전자 장치(500), 도 6의 전자 장치(600), 또는 도 7의 전자 장치(700))의 지문 인식 방법의 순서도이다. 일 실시예에 따르면, 전자 장치는 적어도 하나의 광원을 포함하는 디스플레이 패널(예: 도 1의 표시 장치(160), 도 2 내지 도 7의 디스플레이 패널(211, 310a, 310b, 410, 510, 610, 및 710) 및 이미지 센서(예: 도 1의 센서 모듈(176), 도 2 내지 도 7의 이미지 센서(220, 320a, 320b, 420, 520, 620, 및 720))를 포함할 수 있다. 일 실시예에 따르면, 전자 장치는 도 5, 도 6 및 도 7에 도시된 전자 장치의 지문 인식 구조 중 적어도 하나를 포함할 수 있다.
일 실시예에 따르면, 905 동작에서, 전자 장치는 터치 센서(예: 도 1의 입력 장치(150), 도 1의 센서 모듈(176), 또는 도 2의 터치 센서(250))를 통하여 객체를 감지할 수 있다. 일 실시예에 따르면, 전자 장치의 디스플레이 패널은 지문 인식 영역(예: 도 3a 내지 도 7의 지문 인식 영역(350, 450, 550, 650, 또는 750))을 포함할 수 있다. 예를 들어, 전자 장치는 터치 센서를 통하여 지문 인식 영역에 외부의 객체가 접촉한 것을 감지할 수 있다. 일 실시예에 따르면, 지문 인식 영역은 적어도 두 개의 서브 지문 인식 영역(예: 도 5 내지 도 7의 서브 지문 인식 영역들(551 내지 557, 651 내지 657, 또는 751 내지 757))을 포함할 수 있다.
일 실시예에 따르면, 910 동작에서, 전자 장치는 n번째 광원(예: n번째 서브 지문 인식 영역에 대응하는 광원)으로부터 광을 방출할 수 있다. 일 실시예에 따르면, n번째 광원은 일정 영역에 대응하는 적어도 하나의 광원을 지칭할 수 있다. 예를 들어, 전자 장치는 905 동작에서 지문 인식 영역에 객체가 접촉한 것을 감지하면, 910 동작에서 제1 서브 지문 인식 영역에 대응하는 광원을 통하여 광을 방출할 수 있다.
일 실시예에 따르면, 915 동작에서, 전자 장치는 n번째 이미지 정보를 획득할 수 있다. 예를 들어, 910 동작에서 전자 장치가 방출한 광은 외부의 객체에 반사되어 이미지 센서에 입사될 수 있다. 예를 들어, 전자 장치는 광원을 통하여 방출한 광이 외부의 객체에 반사되어 이미지 센서로 입사되는 입사광의 적어도 일부에 기반하여 n번째 이미지(예: 제1 이미지) 정보를 획득할 수 있다. 예를 들어, 제1 이미지 정보는 제1 서브 지문 인식 영역에 접촉한 객체에 대한 제1 부분 지문 이미지를 포함할 수 있다.
일 실시예에 따르면, 920 동작에서, 전자 장치는 광을 방출할 광원이 남아 있는지 판단할 수 있다. 예를 들어, 전자 장치는 복수의 서브 지문 인식 영역에 대응하는 광원 중에서 광을 방출하지 않은 서브 지문 인식 영역에 대응하는 광원이 남아 있는지 판단할 수 있다. 일 실시예에 따르면, 광을 방출할 광원이 남아 있는 경우 전자 장치는 925 동작에서 n번째 광원 이후 다음 순서(n+1번째 광원)를 판단할 수 있다. 일 실시예에 따르면, 광을 방출할 광원이 남아 있는 경우 전자 장치는 925 동작 이후에 지정된 순서에 따라 n+1번째 광원(예: 제2 서브 지문 인식 영역에 대응하는 광원)을 통하여 광을 방출할 수 있다. 일 실시예에 따르면, 전자 장치는 930 동작을 수행하면서 동시에 920 및 925 동작을 수행할 수 있다. 예를 들어, 전자 장치는 930 동작을 수행하면서 다음 차수의 동작을 준비할 수 있다. 일 실시예에 따르면, 전자 장치는 n+1번째 광원으로부터 광을 방출하고 n+1번째 이미지 정보를 획득할 준비를 할 수 있다. 예를 들어, 전자 장치는 n번째 광원에 대응하는 n번째 이미지 정보를 획득 및 처리함과 동시에 아직 광을 방출하지 않은 n+1번째 광원이 남아 있는지 판단하고, n+1번째 광원으로부터 광을 방출하여 n+1번째 이미지 정보를 획득하는 동작을 수행할 수 있다.
일 실시예에 따르면, 광을 방출할 광원이 남아 있지 않은 경우 945 동작에서 처리할 지문 이미지가 남아 있는지 판단하고, 이후의 동작들을 수행할 수 있다.
일 실시예에 따르면, 930 동작에서, 전자 장치는 획득한 이미지 정보를 처리할 수 있다. 예를 들어, 전자 장치는 획득한 적어도 하나의 이미지 정보를 보정하거나, 적어도 두 개의 이미지 정보를 통합하거나, 획득한 이미지 정보로부터 일부 정보를 분리 또는 추출할 수 있다. 일 실시예에 따르면, 전자 장치는 각각의 서브 지문 인식 영역에 대응하는 이미지 정보를 획득할 때마다 획득한 이미지 정보를 누적하여 처리할 수 있다. 일 실시예에 따르면, 전자 장치는 930 동작에서 n번째 이미지 정보를 처리하는 동작과 병행하여 910 및 915 동작을 통하여 n+1번째 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고 n+1번째 이미지 정보를 획득할 수 있다. 예를 들어, 제2 이미지 정보를 획득하는 동안 제1 이미지 처리를 수행할 수 있다.
일 실시예에 따르면, 전자 장치는 다양한 실시예에 따라 915 동작 이후, 920 및 930 동작을 동시에 수행하거나, 또는 920 및 930 동작을 독립적으로 수행할 수도 있다.
일 실시예에 따르면, 935 동작에서, 전자 장치는 객체에 대한 생체 정보를 획득할 수 있다. 예를 들어, 전자 장치는 930 동작에서의 이미지 정보 처리에 기반하여 지문 인식 영역에 접촉한 외부의 객체(예: 손가락(지문))에 대한 지문 이미지를 획득할 수 있다. 일 실시예에 따르면, 전자 장치는 930 동작에서 처리한 적어도 하나의 이미지에 기반하여 생체 정보(예: 지문 이미지)를 획득할 수 있다. 예를 들어, 전자 장치는 처리한 복수 개의 이미지들을 기반으로 외부의 객체에 대한 지문 이미지를 획득할 수 있다. 예를 들어, 전자 장치는 n번째 이미지(예: 제1 부분 지문 이미지) 및 n+1번째 이미지(예: 제2 부분 지문 이미지)를 획득 및 처리한 경우, n번째 이미지 및/또는 n+1번째 이미지를 기반으로 생체 정보(예: 지문 이미지)를 획득할 수 있다.
일 실시예에 따르면, 940 동작에서, 전자 장치는 객체에 대한 생체 정보(예: 지문 이미지)가 저장된 사용자의 생체 정보(예: 등록된 사용자의 지문 이미지)와 매칭되는지 판단할 수 있다.
일 실시예에 따르면, 전자 장치는 객체에 대한 생체 정보가 저장된 사용자의 생체 정보와 매칭되는 경우 955 동작에서 지정된 기능(예: 사용자 인증, 지정된 동작, 기능 또는 어플리케이션의 실행)을 수행할 수 있다.
일 실시예에 따르면, 객체에 대한 생체 정보가 기 저장된 사용자의 생체 정보와 매칭되지 않는 경우, 전자 장치는 945 동작에서 처리할 이미지가 남아 있는지 판단할 수 있다. 일 실시예에 따르면, 처리할 이미지가 남아 있는 경우 전자 장치는 930 동작에서 이미지를 처리할 수 있다. 예를 들어, 전자 장치가 n번째 이미지를 처리한 결과에 기반하여 생성된 지문 이미지와 저장된 사용자의 생체 정보와 매칭되지 않는 경우, 전자 장치는 처리하지 않은 n+1번째 이미지가 남아 있는지 판단할 수 있다. 예를 들어, 전자 장치는 처리하지 않은 n+1번째 이미지가 남아 있는 경우 930 동작에서 n+1번째 이미지를 처리할 수 있다. 일 실시예에 따르면, 처리할 이미지가 남아 있지 않은 경우, 전자 장치는 950 동작에서 지문 인증을 실패 처리할 수 있다. 예를 들어, 전자 장치는 복수 개의 광원(예: 복수 개의 부분 지문 인식 영역)에 대응하는 모든 광원으로부터 광을 방출하여 획득한 복수 개의 이미지들(예: 부분 지문 이미지들)을 처리하였음에도 사용자의 생체 정보와 매칭되는 생체 정보를 획득하지 못한 경우, 지문 인증이 실패한 것으로 처리할 수 있다. 일 실시예에 따르면, 전자 장치는 지문 인증이 실패한 경우 출력 장치(예: 도 1의 표시 장치(160), 음향 출력 장치(155), 오디오 모듈(170), 및/또는 햅틱 모듈(179) 또는 도 2의 디스플레이(220))를 통하여 지문 인증이 실패하였음을 나타내는 알림 또는 피드백을 사용자에게 제공할 수 있다.
일 실시예에 따르면, 전자 장치는 누적된 이미지 정보를 이미지 처리하여 930 내지 955 동작을 반복적으로 수행할 수 있다. 예를 들어, 전자 장치는 제1 이미지 정보를 통해 획득한 생체 정보(예: 제1 부분 지문 이미지)가 사용자의 생체 정보와 매칭되지 않는 경우, 제1 이미지 정보 및/또는 제2 이미지 정보(예: 제2 부분 지문 이미지)를 통해 획득한 생체 정보가 사용자의 생체 정보와 매칭되는지 판단할 수 있다. 예를 들어, 전자 장치는 모든 서브 지문 인식 영역에 대하여 획득한 이미지 정보들 전체에 기반하여 획득한 생체 정보가 기 저장된 사용자의 생체 정보와 매칭되지 않을 때까지 해당 동작들을 반복할 수 있다. 일 실시예에 따르면, 전자 장치는 모든 서브 지문 인식 영역에 대하여 획득한 이미지 정보들 전체에 기반하여 획득한 생체 정보가 기 저장된 사용자의 생체 정보와 매칭되지 않는 경우, 950 동작에서 지문 인증을 실패 처리할 수 있다.
본 개시의 일 실시예에 따른, 디스플레이 패널(예: 도 1의 표시 장치(160), 도 2 내지 도 7의 디스플레이 패널(211, 310a, 310b, 410, 510, 610, 및 710), 이미지 센서(예: 도 1의 센서 모듈(176), 도 2 내지 도 7의 이미지 센서(220, 320a, 320b, 420, 520, 620, 및 720)), 상기 디스플레이 패널의 지문 인식 영역(예: 도 3a 내지 도 7의 지문 인식 영역(350, 450, 550, 650, 또는 750))을 통해 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조(예: 도 3a 내지 도 7의 제1 가이드 구조(341, 441, 541, 641, 또는 741)), 및 상기 제1 가이드 구조를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조(예: 도 3a 내지 도 7의 제2 가이드 구조(343, 443, 543, 643, 또는 743))를 포함하는 전자 장치(예: 도 1의 전자 장치(101), 도 2의 전자 장치(200), 도 3a의 전자 장치(300a), 도 3b의 전자 장치(300b), 도 4의 전자 장치(400), 도 5의 전자 장치(500), 도 6의 전자 장치(600), 또는 도 7의 전자 장치(700))의 지문 인식 방법은, 상기 디스플레이 패널을 통해 방출된 광이 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광의 적어도 일부에 기반하여 상기 외부의 객체에 대한 이미지 정보를 획득하는 동작, 및 상기 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역(예: 도 5 내지 도 7의 서브 지문 인식 영역들(551 내지 557, 651 내지 657, 또는 751 내지 757))을 포함하고, 상기 이미지 센서는 상기 복수 개의 서브 지문 인식 영역을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가질 수 있다.
일 실시예에 따르면, 상기 복수 개의 서브 지문 인식 영역들은, 상기 전자 장치를 상기 디스플레이 패널이 외부로 노출되는 일 면에서 바라보았을 때, 적어도 일부 영역이 중첩되도록 배치될 수 있다.
일 실시예에 따르면, 상기 제1 가이드 구조 및 상기 제2 가이드 구조 각각은 상기 복수 개의 서브 지문 인식 영역에 대응하는 적어도 하나의 렌즈를 포함하고, 상기 제1 가이드 구조에 포함된 적어도 하나의 렌즈와 상기 제2 가이드 구조에 포함된 적어도 하나의 렌즈는 서로 상이한 형태 또는 배열을 가질 수 있다.
일 실시예에 따르면, 상기 이미지 정보를 획득하는 동작은, 상기 디스플레이 패널을 통하여 상기 중심에 배치된 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하는 동작, 및 상기 방출된 광이 상기 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광을 기반으로 상기 이미지 정보를 획득하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 이미지 정보가 상기 객체에 대한 생체 정보를 획득하기 위하여 설정된 기준을 만족하지 못하는 경우, 상기 디스플레이 패널을 통하여 지정된 순서에 따라 다른 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하는 동작, 상기 다른 서브 지문 인식 영역에 대응하는 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 상기 이미지 센서로 입사되는 입사광을 기반으로 다른 이미지 정보를 획득하는 동작, 및 상기 이미지 정보 및 상기 다른 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 전자 장치의 터치 센서(예: 도 2의 터치 센서(250))를 통하여 상기 외부의 객체가 상기 지문 인식 영역에 접촉한 것을 감지한 경우, 상기 디스플레이 패널을 통하여 상기 지문 인식 영역에 대응하는 광원으로부터 광을 방출하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 디스플레이 패널을 통하여 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 광원들로부터 순차적으로 또는 지정된 패턴에 따라 광을 방출하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 방법은, 상기 획득한 생체 정보가 저장된 사용자의 생체 정보와 대응하는지 여부에 기반하여 지정된 기능을 수행하는 동작을 포함할 수 있다.
일 실시예에 따르면, 상기 제1 가이드 구조는 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 복수 개의 렌즈들을 포함하고, 상기 제2 가이드 구조는 하나의 렌즈로 구성될 수 있다.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치 (예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나","A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나" 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다.
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어™)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.

Claims (15)

  1. 전자 장치에 있어서,
    적어도 하나의 광원을 포함하는 디스플레이 패널;
    상기 적어도 하나의 광원을 통해 방출된 광이 상기 전자 장치의 외부의 객체에 반사되어 입사되는 입사광을 수신하도록 배치된 이미지 센서;
    상기 디스플레이 패널과 상기 이미지 센서 사이에 배치되고, 상기 디스플레이 패널의 지문 인식 영역을 통해 입사되는 상기 입사광의 방향을 변경하도록 설정된 제1 가이드 구조;
    상기 제1 가이드 구조와 상기 이미지 센서 사이에 배치되고, 상기 제1 가이드 구조를 통과하여 입사되는 상기 입사광의 방향을 변경하도록 설정된 제2 가이드 구조; 및
    상기 디스플레이 패널 및 상기 이미지 센서와 작동적으로 연결된 프로세서를 포함하고,
    상기 프로세서는,
    상기 이미지 센서를 통하여 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 입사되는 상기 입사광의 적어도 일부에 기반하여 이미지 정보를 획득하도록 설정되고,
    상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역을 포함하고,
    상기 이미지 센서는 상기 복수 개의 서브 지문 인식을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가지는 전자 장치.
  2. 청구항 1에 있어서,
    상기 프로세서는,
    상기 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하도록 설정된 전자 장치.
  3. 청구항 1에 있어서,
    상기 제1 가이드 구조 및 상기 제2 가이드 구조 각각은 상기 복수 개의 서브 지문 인식 영역에 대응하는 적어도 하나의 렌즈를 포함하고,
    상기 제1 가이드 구조에 포함된 적어도 하나의 렌즈와 상기 제2 가이드 구조에 포함된 적어도 하나의 렌즈는 서로 상이한 형태 또는 배열을 가지는 전자 장치.
  4. 청구항 1에 있어서,
    상기 복수 개의 서브 지문 인식 영역들은, 상기 전자 장치를 상기 디스플레이 패널이 외부로 노출되는 일 면에서 바라보았을 때, 적어도 일부 영역이 중첩되도록 배치된 전자 장치.
  5. 청구항 4에 있어서,
    상기 제1 가이드 구조는 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 복수 개의 렌즈들을 포함하고,
    상기 제2 가이드 구조는 하나의 렌즈로 구성된 전자 장치.
  6. 청구항 4에 있어서,
    상기 프로세서는
    상기 디스플레이 패널을 통하여 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 광원들로부터 순차적으로 광을 방출하도록 설정된 전자 장치.
  7. 청구항 4에 있어서,
    상기 프로세서는,
    상기 디스플레이 패널을 통하여 지정된 패턴에 따라 상기 복수 개의 서브 지문 인식 영역들 각각에 대응하는 광원들로부터 광을 방출하도록 설정된 전자 장치.
  8. 청구항 1에 있어서,
    상기 프로세서는
    상기 디스플레이 패널을 통하여 상기 중심에 배치된 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고,
    상기 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광을 기반으로 이미지 정보를 획득하도록 설정된 전자 장치.
  9. 청구항 8에 있어서,
    상기 프로세서는
    상기 이미지 정보가 상기 객체에 대한 생체 정보를 획득하기 위하여 설정된 기준을 만족하지 못하는 경우,
    상기 디스플레이 패널을 통하여 지정된 순서에 따라 다른 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하고,
    상기 다른 서브 지문 인식 영역에 대응하는 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 상기 이미지 센서를 통하여 입사되는 입사광을 기반으로 다른 이미지 정보를 획득하고,
    상기 이미지 정보 및 상기 다른 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하도록 설정된 전자 장치.
  10. 청구항 1에 있어서,
    터치 센서를 더 포함하고,
    상기 프로세서는,
    상기 터치 센서를 통하여 상기 외부의 객체가 상기 지문 인식 영역에 접촉한 것을 감지한 경우, 상기 디스플레이 패널을 통하여 상기 지문 인식 영역에 대응하는 광원으로부터 광을 방출하도록 설정된 전자 장치.
  11. 청구항 2에 있어서,
    메모리를 더 포함하고,
    상기 프로세서는
    상기 획득한 생체 정보가 상기 메모리에 저장된 사용자의 생체 정보와 대응하는지 여부에 기반하여 지정된 기능을 수행하도록 설정된 전자 장치.
  12. 디스플레이 패널, 이미지 센서, 상기 디스플레이 패널의 지문 인식 영역을 통해 입사되는 입사광의 방향을 변경하도록 설정된 제1 가이드 구조, 및 상기 제1 가이드 구조를 통과하여 입사되는 입사광의 방향을 변경하도록 설정된 제2 가이드 구조를 포함하는 전자 장치의 지문 인식 방법에 있어서,
    상기 디스플레이 패널을 통해 방출된 광이 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광의 적어도 일부에 기반하여 상기 외부의 객체에 대한 이미지 정보를 획득하는 동작; 및
    상기 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하는 동작을 포함하고,
    상기 지문 인식 영역은 복수 개의 서브 지문 인식 영역을 포함하고,
    상기 이미지 센서는 상기 복수 개의 서브 지문 인식 영역을 포함하는 상기 지문 인식 영역보다 작거나, 또는 동일한 크기를 가지는 방법.
  13. 청구항 12에 있어서,
    상기 복수 개의 서브 지문 인식 영역들은, 상기 전자 장치를 상기 디스플레이 패널이 외부로 노출되는 일 면에서 바라보았을 때, 적어도 일부 영역이 중첩되도록 배치된 방법.
  14. 청구항 13에 있어서,
    상기 이미지 정보를 획득하는 동작은,
    상기 디스플레이 패널을 통하여 상기 중심에 배치된 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하는 동작; 및
    상기 방출된 광이 상기 외부의 객체에 반사되어 상기 제1 가이드 구조 및 상기 제2 가이드 구조를 통과하여 상기 이미지 센서로 입사되는 입사광을 기반으로 상기 이미지 정보를 획득하는 동작을 포함하는 방법.
  15. 청구항 14에 있어서,
    상기 이미지 정보가 상기 객체에 대한 생체 정보를 획득하기 위하여 설정된 기준을 만족하지 못하는 경우, 상기 디스플레이 패널을 통하여 지정된 순서에 따라 다른 서브 지문 인식 영역에 대응하는 광원으로부터 광을 방출하는 동작;
    상기 다른 서브 지문 인식 영역에 대응하는 광원으로부터 방출된 광이 상기 외부의 객체에 반사되어 상기 이미지 센서로 입사되는 입사광을 기반으로 다른 이미지 정보를 획득하는 동작; 및
    상기 이미지 정보 및 상기 다른 이미지 정보에 기반하여 상기 객체에 대한 생체 정보를 획득하는 동작을 포함하는 방법.
PCT/KR2021/002130 2020-03-06 2021-02-19 전자 장치 및 전자 장치의 지문 인식 방법 WO2021177637A1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/903,674 US11928886B2 (en) 2020-03-06 2022-09-06 Electronic device and method for recognizing fingerprint by electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0028222 2020-03-06
KR1020200028222A KR20210112767A (ko) 2020-03-06 2020-03-06 전자 장치 및 전자 장치의 지문 인식 방법

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/903,674 Continuation US11928886B2 (en) 2020-03-06 2022-09-06 Electronic device and method for recognizing fingerprint by electronic device

Publications (1)

Publication Number Publication Date
WO2021177637A1 true WO2021177637A1 (ko) 2021-09-10

Family

ID=77612950

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/002130 WO2021177637A1 (ko) 2020-03-06 2021-02-19 전자 장치 및 전자 장치의 지문 인식 방법

Country Status (3)

Country Link
US (1) US11928886B2 (ko)
KR (1) KR20210112767A (ko)
WO (1) WO2021177637A1 (ko)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023229162A1 (ko) * 2022-05-27 2023-11-30 삼성전자 주식회사 3차원 형상 확인에 기반한 지문 정보 획득 방법 및 그 전자 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190093003A (ko) * 2018-01-31 2019-08-08 삼성전자주식회사 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법
KR20190100839A (ko) * 2018-02-21 2019-08-29 한국과학기술연구원 디스플레이 일체형 지문센서를 갖는 전자기기, 그것의 사용자 인증 방법, 및 그것의 사용자 지문 등록 방법
KR102043921B1 (ko) * 2016-06-28 2019-11-12 주식회사 비욘드아이즈 지문센서 패키지 및 지문인식 기능을 구비한 전자장치
KR102057568B1 (ko) * 2017-08-17 2019-12-19 주식회사 하이딥 지문인식센서가 결합된 디스플레이 장치
KR20200002155A (ko) * 2018-06-29 2020-01-08 아크소프트 코포레이션 리미티드 지문센서 패키지 및 지문인식 기능을 구비한 디스플레이

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10410033B2 (en) 2015-06-18 2019-09-10 Shenzhen GOODIX Technology Co., Ltd. Under-LCD screen optical sensor module for on-screen fingerprint sensing
KR102493607B1 (ko) * 2016-06-15 2023-02-01 삼성전자주식회사 지문 인식 기능을 지원하는 전자 장치 및 이의 운용 방법
US20180074627A1 (en) * 2016-09-13 2018-03-15 Samsung Electronics Co., Ltd. Electronic device including display emitting light to provide optics-based fingerprint detection
CN107832749B (zh) * 2017-12-14 2021-01-22 京东方科技集团股份有限公司 一种阵列基板、其制备方法、指纹识别方法及显示装置
CN108681703B (zh) * 2018-05-14 2022-05-31 京东方科技集团股份有限公司 用于指纹识别的装置、模组、设备及系统
CN114503104A (zh) * 2019-09-25 2022-05-13 索尼集团公司 光学模块及认证设备
US11800986B2 (en) * 2020-12-28 2023-10-31 Industrial Technology Research Institute Non-pressure continuous blood pressure measuring device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102043921B1 (ko) * 2016-06-28 2019-11-12 주식회사 비욘드아이즈 지문센서 패키지 및 지문인식 기능을 구비한 전자장치
KR102057568B1 (ko) * 2017-08-17 2019-12-19 주식회사 하이딥 지문인식센서가 결합된 디스플레이 장치
KR20190093003A (ko) * 2018-01-31 2019-08-08 삼성전자주식회사 지문 상태를 변경하기 위한 가이드 정보를 표시하기 위한 장치 및 방법
KR20190100839A (ko) * 2018-02-21 2019-08-29 한국과학기술연구원 디스플레이 일체형 지문센서를 갖는 전자기기, 그것의 사용자 인증 방법, 및 그것의 사용자 지문 등록 방법
KR20200002155A (ko) * 2018-06-29 2020-01-08 아크소프트 코포레이션 리미티드 지문센서 패키지 및 지문인식 기능을 구비한 디스플레이

Also Published As

Publication number Publication date
US11928886B2 (en) 2024-03-12
KR20210112767A (ko) 2021-09-15
US20220415079A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
WO2019212252A1 (en) Method of manufacturing window glass including planar portion and electronic device including window glass
WO2019190156A1 (en) Electronic device with movable flexible display and operating method thereof
WO2021025421A1 (en) Method for obtaining calibration data and electronic device therefor
WO2019093683A1 (ko) 지문 센서를 포함하는 전자 장치
WO2019143034A1 (en) Sensor and electronic apparatus for fingerprint recognition
WO2019146995A1 (ko) 픽셀과 적어도 일부가 겹치도록 배치된 적외선 소자가 구비된 디스플레이 및 이를 포함하는 전자 장치
WO2020171551A1 (en) Electronic device for controlling brightness of display
WO2020101344A1 (en) Electronic device and illuminance sensing method based on display information on electronic device
WO2019066414A1 (ko) 광학 지문 센서를 구비한 전자 장치
WO2019009534A1 (en) IMAGING SENSOR ASSEMBLY HAVING INCLINATION STRUCTURE AND ELECTRONIC DEVICE COMPRISING THE SAME
WO2020166830A1 (en) Display and electronic device including the same
WO2019107910A1 (en) Wearable electronic device including fingerprint sensor
WO2018190619A1 (ko) 생체 센서를 포함하는 전자 장치
WO2021010737A1 (en) An electronic device including an optical sensor mounted on back surface of a display
WO2020036381A1 (en) Electronic device including scattering member and light receiving element obtaining light scattered by scattering member and method of controlling same
WO2021235805A1 (en) Electronic device including a plurality of cameras
WO2020231156A1 (en) Electronic device and method for acquiring biometric information using light of display
WO2020222428A1 (ko) 전자 장치 및 그 영상을 출력하는 방법
WO2021177637A1 (ko) 전자 장치 및 전자 장치의 지문 인식 방법
WO2021167342A2 (en) Electronic device including camera module shooting through at least one portion of display device
WO2021025329A1 (en) Electronic device including display and sensor
WO2019164359A1 (ko) 가시광선 대역의 빛을 흡수할 수 있는 렌즈를 포함하는 카메라 모듈을 이용하여 적외선에 대응하는 이미지를 획득하는 방법 및 이를 구현한 전자 장치
WO2022203330A1 (ko) 전자 장치 및 그것의 지문 인식 방법
WO2021071111A1 (en) Electronic device including point detector and biometric information obtaining method using the same
WO2021096214A1 (en) Electronic device and method for preventing misrecognition by proximity sensor according to burn-in

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21763666

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21763666

Country of ref document: EP

Kind code of ref document: A1