WO2021095903A1 - User authentication device for performing user authentication by using vein, and method therefor - Google Patents

User authentication device for performing user authentication by using vein, and method therefor Download PDF

Info

Publication number
WO2021095903A1
WO2021095903A1 PCT/KR2019/015337 KR2019015337W WO2021095903A1 WO 2021095903 A1 WO2021095903 A1 WO 2021095903A1 KR 2019015337 W KR2019015337 W KR 2019015337W WO 2021095903 A1 WO2021095903 A1 WO 2021095903A1
Authority
WO
WIPO (PCT)
Prior art keywords
vein
image
change
user authentication
user
Prior art date
Application number
PCT/KR2019/015337
Other languages
French (fr)
Korean (ko)
Inventor
고민영
서승규
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to PCT/KR2019/015337 priority Critical patent/WO2021095903A1/en
Publication of WO2021095903A1 publication Critical patent/WO2021095903A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Definitions

  • the present specification relates to a user authentication apparatus and method for performing user authentication using veins, which are the user's biometric information.
  • Bio-recognition is a method of recognizing an individual using human physiological or behavioral characteristics.
  • biometric recognition technologies include fingerprint, iris, vein, and face recognition.
  • vein authentication biometric recognition technology using veins
  • vein authentication has the advantage of having high recognition performance, less reluctance and discomfort from the user, and fast recognition time. Accordingly, the development of biometric authentication technology using vein recognition is being actively conducted.
  • vein authentication if information on vein patterns is leaked, there may be a risk of forgery (or manipulation). Accordingly, whether the user is a living creature based on the fact that veins are biometric information. In other words, a technology to check liveness has emerged.
  • Vitality check may be, for example, a technique for measuring the user's pulse. However, this technique takes a rather long time since the measurement must be made during the time the pulse beats at least once.
  • the problem to be solved by the present specification is to provide an apparatus and method for user authentication that is faster and with improved security by checking bioactivity based on a change in vein when user authentication is performed using a vein.
  • a user authentication device includes a contact plate to which a specific area of a user's body including veins comes into contact, and a processor, wherein the processor includes the specific area spaced apart from the contact plate by a specific distance or more.
  • the processor includes the specific area spaced apart from the contact plate by a specific distance or more.
  • Acquire a first image for obtain a second image for the specific area in contact with the contact plate, and determine whether the contact plate is in contact based on a vein image included in each of the first image and the second image.
  • User authentication may be performed on the basis of confirming the change in the vein according to the result and confirming whether the confirmed change in the vein corresponds to the previously stored vein change information.
  • a user authentication method includes the steps of acquiring a first image of the at least part spaced apart by a specific distance or more from a contact plate to which a specific area of a user's body including a vein comes into contact, and Acquiring a second image of the specific area in contact, and checking a change in vein according to the presence or absence of contact with the contact plate based on vein images included in each of the first image and the second image; and And performing user authentication based on checking whether the confirmed vein change corresponds to the previously stored vein change information.
  • the computer-readable recording medium includes a first image of the at least part spaced apart by a specific distance or more from a contact plate in which a specific area of a user's body including a vein is in contact with a contact plate in which the palm of the user is in contact. Obtaining a second image of the specific region in contact with the contact plate, and presence or absence of contact with the contact plate based on vein images included in each of the first image and the second image It may include checking a change in vein according to and performing user authentication based on checking whether the confirmed change in vein corresponds to pre-stored vein change information.
  • the user authentication apparatus and method according to the exemplary embodiment of the present specification may reduce the risk of forgery related to user authentication and improve security by checking bioactivity using a change in vein.
  • FIG. 1 is a block diagram illustrating a user authentication device related to the present specification.
  • FIG. 2 is a diagram for conceptually explaining a user authentication method according to an embodiment of the present specification.
  • FIG. 3 is a diagram illustrating an example of a specific area of a user's body in contact with a user authentication device according to an exemplary embodiment of the present specification.
  • FIG. 4 is a diagram for explaining information on a change in vein acquired by a user authentication device according to an embodiment of the present specification.
  • FIG. 5 is a functional block diagram of a user authentication device according to an embodiment of the present specification.
  • FIG. 6 is a flowchart of a user authentication method according to an embodiment of the present specification.
  • FIG. 7 is a flowchart of a user authentication method according to another embodiment of the present specification.
  • FIG. 8 to 11 show examples of a user authentication device according to an embodiment of the present specification.
  • each block of the flowchart diagram and combinations of the flowchart diagrams may be executed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates a means to perform functions.
  • These computer program instructions can also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory It is also possible for the instructions stored in the flow chart to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block(s). Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in the flowchart block(s).
  • each block may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s).
  • the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order depending on the corresponding function.
  • the term' ⁇ unit' used in this embodiment refers to software or hardware components such as FPGA or ASIC, and' ⁇ unit' performs certain roles.
  • The' ⁇ unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors.
  • ' ⁇ unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables.
  • components and functions provided in the' ⁇ units' may be combined into a smaller number of elements and' ⁇ units', or may be further separated into additional elements and' ⁇ units'.
  • components and' ⁇ units' may be implemented to play one or more CPUs in a device or a security multimedia card.
  • a control unit in an embodiment may include at least one processor as a component that performs an operation for controlling a corresponding device.
  • FIG. 1 is a block diagram illustrating a user authentication device 100 related to the present specification.
  • the user authentication device 100 may be implemented in the form of a mobile terminal, and accordingly, the user authentication device 100 will be referred to as a mobile terminal 100 below, but the present specification is not limited to such terms.
  • the mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. And the like.
  • the components shown in FIG. 1 are not essential for implementing a mobile terminal, and thus, a mobile terminal described in the present specification may have more or fewer components than those listed above.
  • the wireless communication unit 110 is provided between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules to enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules that connect the mobile terminal 100 to one or more networks.
  • the wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
  • the broadcast receiving module 111 of the wireless communication unit 110 receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel.
  • the broadcast channel may include a satellite channel and a terrestrial channel.
  • Two or more of the broadcast reception modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or broadcast channel switching of at least two broadcast channels.
  • the mobile communication module 112 includes technical standards or communication methods for mobile communication (for example, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000)), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.), transmits and receives radio signals with at least one of a base station, an external terminal, and a server.
  • GSM Global System for Mobile communication
  • CDMA Code Division Multi Access
  • CDMA2000 Code Division Multi Access 2000
  • EV -DO Enhanced Voice-Data Optimized or Enhanced Voice-Data Only
  • WCDMA Wideband CDMA
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • the wireless signal may include a voice call signal, a video call signal, or various types of data according to transmission and reception of text/multimedia messages.
  • the wireless Internet module 113 refers to a module for wireless Internet access, and may be built-in or external to the mobile terminal 100.
  • the wireless Internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.
  • wireless Internet technologies include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and the like, and the wireless Internet module ( 113) transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above.
  • WLAN Wireless LAN
  • Wi-Fi Wireless-Fidelity
  • Wi-Fi Wireless Fidelity
  • Direct wireless Internet technologies
  • DLNA Digital Living Network Alliance
  • WiBro Wireless Broadband
  • WiMAX Worldwide Interoperability for Microwave Access
  • HSDPA High Speed Downlink Packet Access
  • HSUPA High Speed Uplink Packet Access
  • LTE Long Term Evolution
  • the wireless Internet module 113 performs wireless Internet access through the mobile communication network.
  • the short range communication module 114 is for short range communication, and includes Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. Near field communication may be supported using at least one of (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies.
  • the short-distance communication module 114 is, between the mobile terminal 100 and a wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or a mobile terminal 100 through a wireless area network (Wireless Area Networks). ) And a network in which another mobile terminal 100 or an external server is located may support wireless communication.
  • the local area wireless communication network may be a wireless personal area network (Wireless Personal Area Networks).
  • the location information module 115 is a module for obtaining a location (or current location) of a mobile terminal, and representative examples thereof include a GPS (Global Positioning System) module or a WiFi (Wireless Fidelity) module.
  • a GPS Global Positioning System
  • WiFi Wireless Fidelity
  • the mobile terminal may acquire the location of the mobile terminal based on information of the Wi-Fi module and a wireless access point (AP) that transmits or receives a wireless signal.
  • AP wireless access point
  • the location information module 115 may perform any function among other modules of the wireless communication unit 110 in order to obtain data on the location of the mobile terminal as a substitute or additionally.
  • the location information module 115 is a module used to obtain the location (or current location) of the mobile terminal, and is not limited to a module that directly calculates or obtains the location of the mobile terminal.
  • the input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.).
  • the voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
  • the camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode.
  • the processed image frame may be displayed on the display unit 151 or stored in the memory 170.
  • a plurality of cameras 121 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 121 forming a matrix structure as described above, various angles or focuses may be applied to the mobile terminal 100.
  • a plurality of image information may be input.
  • the plurality of cameras 121 may be arranged in a stereo structure to obtain a left image and a right image for realizing a 3D image.
  • the microphone (or microphone) 122 processes an external sound signal into electrical voice data.
  • the processed voice data may be utilized in various ways according to a function (or an application program being executed) being executed by the mobile terminal 100.
  • the microphone 122 may be implemented with various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.
  • the user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123, the controller 180 can control the operation of the mobile terminal 100 to correspond to the input information.
  • the user input unit 123 is a mechanical (mechanical) input means (or a mechanical key, for example, a button located on the front, rear or side of the mobile terminal 100, a dome switch (dome switch), a jog wheel, Jog switch, etc.) and a touch-type input means.
  • the touch input means is composed of a virtual key, a soft key, or a visual key displayed on a touch screen through software processing, or a portion other than the touch screen It may be made of a touch key (touch key) arranged in the.
  • the virtual key or the visual key can be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or these It can be made of a combination of.
  • the sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information.
  • the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity.
  • G-sensor gyroscope sensor
  • motion sensor motion sensor
  • RGB sensor infrared sensor
  • IR sensor infrared sensor
  • fingerprint sensor fingerprint sensor
  • ultrasonic sensor ultrasonic sensor
  • Optical sensor for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.).
  • the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
  • the output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of the display unit 151, the sound output unit 152, the haptic module 153, and the light output unit 154. can do.
  • the display unit 151 may implement a touch screen by forming a layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and may provide an output interface between the mobile terminal 100 and a user.
  • the sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like.
  • the sound output unit 152 also outputs sound signals related to functions (eg, a call signal reception sound, a message reception sound, etc.) performed by the mobile terminal 100.
  • the sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
  • the haptic module 153 generates various tactile effects that a user can feel.
  • a typical example of the tactile effect generated by the haptic module 153 may be vibration.
  • the intensity and pattern of the vibration generated by the haptic module 153 may be controlled by a user's selection or setting by a controller.
  • the haptic module 153 may synthesize and output different vibrations or sequentially output them.
  • the light output unit 154 outputs a signal for notifying the occurrence of an event using light from a light source of the mobile terminal 100.
  • Examples of events occurring in the mobile terminal 100 may include message reception, call signal reception, missed call, alarm, schedule notification, email reception, and information reception through an application.
  • the interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100.
  • the interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port.
  • the mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
  • the memory 170 stores data supporting various functions of the mobile terminal 100.
  • the memory 170 may store a plurality of application programs (application programs or applications) driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
  • the controller 180 In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100.
  • the controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
  • controller 180 may control at least some of the components described with reference to FIG. 1 in order to drive the application program stored in the memory 170. Further, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
  • the power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100.
  • the power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
  • At least some of the components may operate in cooperation with each other in order to implement an operation, control, or control method of a mobile terminal according to various embodiments described below.
  • the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
  • FIG. 2 is a diagram for conceptually explaining a user authentication method according to an embodiment of the present specification.
  • the user authentication device 200 may include a contact plate 220 and a camera 230.
  • the contact plate 220 may be positioned above the camera 230.
  • the camera 230 may be positioned under the contact plate 220 in a direction in which the lens faces the lower end of the contact plate 220.
  • the contact plate 220 may be an object having transparency, for example, a glass plate.
  • the camera 230 may include an infrared camera, and when the object to be photographed is a living body, the camera 230 may capture an image including information on a vein located in the object to be photographed.
  • the user authentication device 200 displays a part of the user's body located a specific distance away from the contact plate 220, for example, at least a part of the image of the hand 210 as shown in FIG. 2A (for example, a palm image). Can be obtained.
  • a part of the user's body that can be used for user authentication by the user authentication device 200 is not limited to the hand 210, and various bodies in which veins are located, such as fingers, palms, backs of hands, wrists, insteps, or ankles. It can also be used.
  • the acquired image may include information on a vein of a user positioned on the hand 210, for example, information on a vein pattern (or arrangement, or distribution). For a specific example related to this, refer to FIG. 4.
  • the user authentication device 200 may acquire at least one image through at least one photographing through the camera 230.
  • the image may be acquired according to the number of times of capturing. For example, when two capturing is performed, two images may be obtained. The number of times such an image is captured may be predetermined.
  • the user authentication device 200 may perform user authentication based on whether the acquired image corresponds to a pre-stored image. Specifically, for example, the user authentication device 200 may check whether the vein pattern of the acquired image matches the vein pattern (or vein distribution) of the previously stored image. When the vein pattern of the acquired image matches the vein pattern of the stored image, the user authentication device 200 may determine that the user authentication is successful.
  • the previously stored image is used as a correct answer value for user authentication, and may be information acquired and stored from a user when a user is registered for user authentication.
  • a plurality of images may be obtained.
  • the user authentication device 200 may obtain an average image of the plurality of images, and compare the images with the stored images to perform user authentication. For example, when an average image is obtained by overlapping a plurality of images, and the vein pattern of the average image matches the vein pattern of the stored image, the user authentication device 200 may determine that the user authentication is successful.
  • each of the plurality of images may be compared with the stored image.
  • user authentication may be performed based on whether the number of matching images is greater than or equal to a predetermined number. For example, if the corresponding image among the plurality of images is a majority, it may be determined that user authentication has been successful. For another example, when all of the plurality of images correspond to the stored image, it may be determined that user authentication has been successful.
  • the vein of the image captured while being spaced apart from the contact plate 220 by a specific distance or more may be in a state in which pressure is not applied by an external object. Accordingly, the user authentication using the image obtained in the state as shown in FIG. 2A may be authentication for identifying the identity of the user by using a vein pattern, which is a characteristic of a user.
  • the user authentication device 200 may acquire an image of the hand 210 in contact with the contact plate 220. Pressure may be applied to the hand 210 in contact with the contact plate 220, so that a change may occur in the vein of the hand 210, and the user authentication device 200 ) Can be acquired.
  • the user authentication device 200 may calculate a difference between the contact plate 220 and the image before contact, that is, the image of FIG. 2A and the image of the hand 210 in contact with the contact plate 220. Based on this, the user authentication device 200 may check changes in veins before and after contact of the contact plate 220.
  • the user authentication apparatus 200 may perform user authentication based on checking whether the confirmed vein change corresponds to pre-stored vein change information. Specifically, the user authentication apparatus 200 may determine that the user authentication is successful when the confirmed vein change corresponds to pre-stored vein change information. For example, the user authentication apparatus 200 may determine that the user authentication is successful when the similarity between the confirmed vein change and the previously stored vein change information is greater than or equal to a specific value.
  • the change in the vein may include a change in the position of the vein or a change in the thickness of the vein, and a specific example related thereto may be referred to FIG. 4.
  • These changes in the veins may be due to the presence of blood flowing through the veins. That is, it may be measured because the object performing user authentication is a living organism. Therefore, by using the change of vein, it is possible to check whether the user authentication target is a living being, that is, bioactivity. In other words, if the user authentication using the change of vein is used, even if the vein pattern matches, a forged fake model, that is, a dummy can be screened out, so that the security of user authentication can be improved.
  • FIG. 3 is a diagram illustrating an example of a specific area of a user's body in contact with a user authentication device according to an exemplary embodiment of the present specification. Specifically, FIG. 3 shows an example in which the user's hand 310 is in contact with the contact plate 320.
  • the contact plate 320 may be made of a material (eg, a glass plate) having a transparency greater than a predetermined value, and contact with one surface of the contact plate 320 (eg, an upper surface (or upper surface)) based on this.
  • the object may be identified on the other surface (eg, the lower surface (or lower surface)) of the contact plate 320.
  • the upper surface may be a surface to which the hand 210 is in contact in FIGS. 2A and 2B, and the lower surface may be a surface on which the camera 230 is positioned.
  • FIG. 3 shows a shape viewed from the lower surface of the contact plate 320, and the hand 310 may be in a state in contact with the upper surface of the contact plate 320. Since the contact plate 320 has transparency, the hand 310 in contact with the upper surface of the contact plate 320 can be seen also on the lower surface of the contact plate 320.
  • a camera may be positioned in the direction of the lower surface of the contact plate 320. Accordingly, the camera may acquire an image of the hand 310 in contact with the contact plate 320.
  • the camera may acquire an image of at least a portion of the hand 310.
  • the camera may acquire an image of the palm 330 of the hand 310 excluding the finger portion.
  • the present invention is not limited thereto, and an image of a part of the palm 330 may be obtained, or an image of the palm 330 and the entire finger may be obtained.
  • the camera may be a device capable of photographing veins (eg, an infrared camera). Based on this, an image in which veins of the palm 330 appear may be obtained.
  • the acquired image may include, for example, information on at least one of a vein pattern, a vein position, and a vein thickness, and a more detailed example thereof may be referred to FIG. 4 to be described later.
  • the camera may also acquire an image of the hand 310 or the palm 330 in a state spaced apart from the contact plate 320.
  • FIG. 4 is a diagram for explaining information on a change in vein acquired by a user authentication device according to an embodiment of the present specification. Specifically, FIG. 4A shows an example of an image obtained when a palm is separated from a contact plate by a specific distance. FIG. 4B is a diagram for explaining changes in veins that may appear in an image obtained when a palm is in contact with a contact plate.
  • FIG. 4A it can be seen that information on veins is included in the image. Specifically, FIG. 4A shows a vein image and a palm image positioned on the palm. The veins may appear as shown in the form of irregular lines.
  • vein pattern (or distribution) may vary from person to person
  • user authentication may be performed based on the information. For example, when a vein pattern is previously registered (or stored) in the user authentication device through user registration, user authentication may be performed based on checking the similarity between the registered vein pattern and the vein pattern appearing in the image of FIG. 4A. .
  • the first line 410 and the second line 430 of the vein are part of the vein image obtained in FIG. 4A and may be lines before change occurs. Changes may occur between the first line 410 and the second line 430 by contact with the contact plate. Specifically, the first line 410 and the second line 430 of the vein may change at least some of the position and thickness of the vein by contact with the contact plate.
  • the position of the vein corresponding to the first line 410 may be changed as indicated by the third line 420.
  • the position and thickness of the vein corresponding to the second line 430 may be changed as shown in the fourth line 420.
  • the position of the vein line does not change and only the thickness may change.
  • Such a change in vein occurs based on the fact that the vein is a blood vessel having elasticity or that the vein is a path through which blood flows, and may occur when the user is a living person.
  • vein change information since the tendency of veins to change due to contact (or pressure) (hereinafter, vein change information) is determined based on a user's unique biometric characteristics (eg, elasticity of blood vessels), it may differ from person to person.
  • the vein change information on the location or thickness of the vein, or the vein change pattern may be obtained and stored in advance during a user registration process for user authentication. Based on this, the user authentication apparatus may perform user authentication by checking a vein change pattern through an image acquired in the user authentication process and comparing the vein change information with the stored vein change information.
  • User authentication based on changes in veins caused by contact with the contact plate can be performed as long as an image is acquired, and can be performed at a faster speed (eg, 100 ms or less).
  • FIG. 5 is a functional block diagram of a user authentication device according to an embodiment of the present specification.
  • the user authentication device 500 may include a contact plate 510, a camera 520, and a processor 530.
  • the contact plate 510 may have a configuration in which a specific area of the user's body including veins comes into contact.
  • the contact plate 510 may have a specific value of transparency. Based on this, when a specific area of the user's body comes into contact with the contact plate 510, a specific area pressed by the contact plate 510 at an opposite portion (or an opposite portion) rather than the contacted portion may be identified. This is described above with reference to FIG. 3, and a detailed description thereof will be omitted.
  • the contact plate 510 may include, for example, a glass plate or an acrylic plate, but is not limited thereto and may be made of various materials having transparency.
  • the contact plate 510 may be a smooth and flat rectangular structure, and may have a size larger than a specific area of the user's body. For example, when a specific area of the user's body is a palm, the size of the contact plate 510 may be larger than that of the palm.
  • the contact plate 510 may include a sensor that senses a user's body contact.
  • the sensor may include a touch sensor. In this case, whether a specific area of the user's body is in contact with the contact plate 510 may be detected through the sensor.
  • the contact plate 510 is shown to be included in the user authentication device 500, but is not limited thereto, and the contact plate 510 may be implemented as a separate configuration connectable to the user authentication device 500. .
  • the camera 520 may generate an image by photographing a specific area of the user in contact with the contact plate 510.
  • the camera 520 may be, for example, an infrared camera, and when a specific area is photographed based on this, veins may be revealed in the image.
  • the camera 520 may generate an image in which veins passing through the wrist or palm appear.
  • the specific principle related to this is easy for a person skilled in the art, so a detailed description will be omitted.
  • the camera 520 may be positioned to be spaced apart from the contact plate 510 by a specific distance or more.
  • the position of the camera 520 may be one end of the contact plate 510, which may face the other end of the user's specific area.
  • the processor 530 may acquire a first image of a specific area of the user's body spaced apart from the contact plate 510 by a specific distance or more. Specifically, the processor 530 may acquire a first image including a vein image of a specific region of the user's body spaced apart from the contact plate 510 by a specific distance or more using the camera 520. Specifically, the first image is an image for a specific area, but may be an image including information on a user's vein located in the specific area. The information on the vein at this time may be information on the pattern, location, or thickness of the vein in a basic state in which pressure is not applied.
  • the processor 530 may acquire a plurality of images by photographing a specific region of the user's body spaced apart from the contact plate 510 by a specific distance or more at specific time intervals.
  • the processor 530 may acquire three images by photographing the palm of the user approaching the contact plate 510 three times.
  • the initial photographing time may be a case that is 10 cm apart, and two more photographs may be taken at 0.1 second intervals.
  • the first image may be a case where the palm is 10 cm apart from the contact plate 510
  • the second image may be 8 cm apart
  • the third image may be 6 cm apart.
  • the processor 530 may acquire three images by photographing the palm of the hand at a distance of 10 cm from the contact plate 510 three times at 0.1 second intervals.
  • the processor 530 may check whether the first image corresponds to a pre-stored user vein image.
  • the pre-stored user vein image may be information acquired from a user when registering a user in connection with user authentication and stored in the user authentication device 500.
  • the pre-stored user vein image may be an image of a specific area of the user's body in a state that is not in contact with the contact plate 510.
  • the processor 530 may determine that the user authentication is primarily successful. In an embodiment, when the user authentication is primarily successful, the processor 530 may provide a notification indicating that the user authentication is successful. For a specific example related to this, refer to FIG. 13.
  • the processor 530 may perform user authentication using a vein change to be described later when primary user authentication is performed, but is not limited thereto, for example, without primary user authentication. User authentication can also be performed through authentication using vein changes.
  • a specific region of the user's body will be described as a palm, but is not limited thereto, and for example, the specific region may be at least one of a wrist, a finger, a back of a hand, an instep, and a toe.
  • the processor 530 may acquire a second image of a specific area of the user's body in contact with the contact plate 510. Specifically, the processor 530 may acquire a second image of a specific area of the user's body that has contacted the contact plate 510 through the camera 520.
  • the processor may check whether a specific region of the user's body has contacted the contact plate based on the sensor of the contact plate. When a contact of a specific area on the contact plate is confirmed, the processor may acquire a second image by photographing a specific area in contact with the contact plate using a camera.
  • the second image may include a vein image.
  • the vein image may be an image including information on a change in vein in the first image.
  • Variation of the vein may include, for example, the location or thickness (or thickness) of the vein.
  • a vein passes through a specific area of the user's body.
  • the specific area contacts the contact plate 510, pressure is applied to the vein, which may cause a change in the vein.
  • the vein image included in the second image which is an image of a specific area in contact with the contact plate 510, is for a vein located in a specific area, but may be an image of a vein whose position or thickness is changed by pressure.
  • the change in position or thickness may be referred to as vein change information according to an embodiment.
  • the processor 530 may check a change in the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image. Specifically, the processor 530 may check a change in vein based on the difference between the first image and the second image.
  • the processor 530 checks the change in the thickness of the vein due to contact between the contact plate 510 and a specific region using information on the vein line included in the first image and the vein line included in the second image. I can. Specifically, the processor 530 compares the position or thickness of the vein line included in the first image and the vein line included in the second image to change from a vein state represented by the first image to a vein state represented by the second image. You can check the degree.
  • the degree of change may include, for example, the distance of the changed position when the position is changed, and may include the length of the changed thickness when the thickness is changed, but is not limited thereto.
  • the thickness or location of veins extracted from each of the first image and the second image may be an average value in order to determine the degree of change.
  • the processor 530 may compare the average value of the thickness of the vein line included in the first image and the average value of the thickness of the vein line included in the second image.
  • the processor 530 may compare the average positions of the vein lines included in the first image and the average positions of the vein lines included in the second image.
  • a plurality of vein lines may be included in the first image and the second image.
  • the processor 530 may compare all of the plurality of lines, or may selectively compare some of the plurality of lines.
  • the processor 530 may calculate the thickness (hereinafter, referred to as the first thickness) of at least some of the plurality of vein lines of the first image.
  • the processor 530 may calculate a thickness (hereinafter, referred to as a second thickness) of a vein line corresponding to a vein line whose thickness is calculated from the first image among a plurality of vein lines of the second image.
  • the processor 530 may check the change in the thickness of the vein based on the difference between the first thickness and the second thickness.
  • the processor 530 calculates an arrangement of coordinates of veins included in an image (eg, a first image, a second image) based on Equation 1 below based on Equations 1 to 4 to be described later. I can.
  • Vein total is bitmap data of the entire vein image
  • VeinNodes is a function that extracts an array of coordinates (x,y) corresponding to the vein by processing the bitmap data.
  • Node is an array of vein coordinates obtained based on the VeinNodes function.
  • the processor 530 may calculate a vein coordinate arrangement corresponding to the cluster from the vein coordinate arrangement based on Equation (2).
  • the cluster may mean a plurality of vein lines that share one node of the vein.
  • VeinCluster is a function for extracting a coordinate array of veins (or vein lines) corresponding to clusters of individual vein stems from the array of vein coordinates.
  • Vein cluster is an array of coordinates of veins corresponding to the cluster.
  • the processor 530 may extract representative values for comparison of vein changes based on Equation (3).
  • SelectPoints is a function that selects n coordinates to be compared from the entire coordinate array of the vein.
  • the processor 530 may calculate the thickness of a vein corresponding to each of the representative values based on Equation 4 below.
  • CalcThickness may be a function for calculating the thickness of a vein. Thickness may be the thickness of a vein corresponding to x calculated as a result of CalcThickness.
  • the processor 530 may calculate the thickness of the vein using Equation 4 for each representative value, and calculate the sum of the thickness of the vein by adding the total.
  • the processor 530 may calculate an average vein thickness by dividing the sum of the calculated vein thicknesses by n. The calculation of the average vein thickness may be performed for each image (eg, a first image and a second image) before and after contact with the contact plate 510. The processor 530 may compare the average vein thickness for each image before and after contacting the contact plate 510 to finally calculate the change in the thickness of the vein.
  • the processor 530 may calculate a position (hereinafter, referred to as a first position) of at least some of the plurality of vein lines of the first image.
  • the processor 530 may calculate a position (hereinafter, referred to as a second position) of a vein line corresponding to a vein line whose position is calculated from the first image among a plurality of vein lines of the second image.
  • the processor 530 may check the change in the location of the vein based on at least one of a distance difference between the first location and the second location and a direction from the first location to the second location.
  • Equations 1 to 4 are based on an algorithm that is easy for a person skilled in the art, detailed descriptions will be omitted.
  • the processor 530 may calculate representative coordinates of a vein before and after contacting the contact plate 510 based on Equation 5 below.
  • (X,Y) is the representative coordinate of the vein
  • MeanShift is a function that calculates the moving average for the vein coordinate
  • Vein is the data about the vein included in the image.
  • MeanShift is a meanshift algorithm and is easy for a person of ordinary skill in the art, so a detailed description will be omitted.
  • the processor 530 may calculate a value for the representative coordinates of the vein based on Equation 5 for each of the images before and after the contact plate 510.
  • the processor 530 may check the moving distance and the moving direction of the vein through a difference in representative coordinate values for each of the images before and after the contact plate 510.
  • the processor 530 may check whether the confirmed vein change corresponds to pre-stored vein change information.
  • the previously stored vein change information is information on the trend (or pattern) of a change occurring in a vein by contacting a specific region with the contact plate 510, for example, a change in the position of at least some of the lines constituting the vein or It may contain information about the change in thickness.
  • the vein change information may be obtained and stored in advance in the user registration step for user authentication.
  • the processor 530 may determine that user authentication has succeeded when the vein change identified through the comparison of the first image and the second image corresponds to the previously stored vein change information. The processor 530 may determine that user authentication has failed (or did not succeed) when the confirmed vein change does not correspond to the previously stored vein change information.
  • FIG. 6 is a flowchart of a user authentication method according to an embodiment of the present specification. It goes without saying that each step of the method illustrated in FIG. 6 may be performed in a different order as illustrated in the drawings depending on the case.
  • the processor of the user authentication device may obtain a first image of a specific area of the user's body spaced apart from the contact plate by a specific distance or more (610 ).
  • the specific area of the user's body may be a predetermined area among a part of the user's body through which veins pass.
  • the specific region may be at least one of a wrist, a palm, a back of a hand, an ankle, a sole, and a back of an instep.
  • the first image is an image obtained through a camera capable of capturing veins, and may be an image in which veins in a specific area appear.
  • the first image may be an infrared image for a specific area.
  • the specific area is the palm
  • the first image may be an infrared image of the palm in which veins of the palm appear. A specific example of this may refer to FIG. 4.
  • the vein image included in the first image may be a vein image in a general state.
  • the processor may acquire a second image of a specific area in which at least a portion of the contact plate is in contact (620 ).
  • the second image may be an image in which veins appear.
  • the second image is an image in which a specific region is in contact with the contact plate, and a vein image included in the second image may be for a vein in a specific region changed by the contact.
  • a touch sensor may be included in the contact plate, and based on this, the processor may check whether a specific area of the user's body is in contact with the contact plate. When the contact of the specific area is confirmed, the processor may acquire the second image by photographing using the camera.
  • the processor may check a change in the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image (630 ). Specifically, the processor may compare the vein image included in the first image and the vein image included in the second image to check a change in the vein according to the contact.
  • the change in the vein may include at least one of a change in the position of the vein and a change in the thickness of the vein.
  • the processor may check a change tendency of the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image.
  • the vein change trend is an average pattern in which the vein changes, and the processor can check how the vein line that appears in the vein image of the first image has changed in the second image as a whole.
  • the processor may check the change tendency of the vein by checking information on at least one of a portion of a vein line whose thickness changes, a portion of a vein line whose position moves, and a degree of change in position.
  • the processor may perform user authentication based on checking whether the confirmed vein change corresponds to the previously stored vein change information (640 ).
  • the vein change information may be information acquired and stored in advance when a user is registered for user authentication. Accordingly, the processor may perform user authentication by comparing the confirmed vein change (or change trend) with previously stored vein change information.
  • the processor may determine that user authentication has been successful when the confirmed vein change is consistent with previously stored vein change information. For another example, the processor may determine that user authentication is successful when the similarity between the confirmed vein change and the previously stored vein change information is greater than or equal to a specific value.
  • the processor may check whether the first image corresponds to a predetermined image.
  • the predetermined image may be a vein image obtained in advance for a specific area when a user is registered in connection with user authentication.
  • the processor may perform steps 630 and 640 when the first image corresponds to the predetermined image.
  • FIG. 7 is a flowchart of a user authentication method according to another embodiment of the present specification. It goes without saying that each step of the method illustrated in FIG. 7 may be performed in a different order as illustrated in the drawings depending on the case.
  • the processor of the electronic device may acquire a first image of a specific area of the user's body spaced apart by a specific distance or more from the contact plate (operation 710).
  • a specific area of the user's body may be, for example, a palm, and in this case, the first image may be an image of a palm located in the air away from the contact plate. Accordingly, a user's own vein pattern in a specific area may be displayed in the first image to which no pressure is applied by the contact plate.
  • step 710 may correspond to step 610 of FIG. 6, a description redundantly with FIG. 6 will be omitted.
  • the processor may check whether the first image corresponds to a pre-stored user vein image (720).
  • the previously stored user vein image may be an image acquired and stored from a user during a user registration process performed in connection with user authentication.
  • the user vein image is a vein image for a specific area of the user's body, and may include an image in a general state not in contact with the contact plate.
  • the processor may check the similarity of the first image to a pre-stored user vein image. When the similarity is greater than or equal to a specific value, the processor may determine that the first image corresponds to a pre-stored user vein image.
  • the processor may check the similarity of the first image to a pre-stored user vein image.
  • the processor may check whether the first image matches a previously stored user vein image. When the first image matches a pre-stored user vein image, the processor may determine that the first image corresponds to a pre-stored user vein image.
  • the processor may obtain a second image for a specific region in which at least a portion of the contact plate is in contact (730 ). Specifically, the processor may acquire the second image by photographing the specific area contacted with the camera based on the contact of the specific area of the user's body with the contact plate.
  • the second image may include an image of a vein in a specific area, and a vein represented by the vein image may be in a state in which a change is made by contact.
  • Step 730 may correspond to step 620 of FIG. 6, and redundant descriptions in this regard will be omitted.
  • the processor may perform the process of step 710 again.
  • the processor may check the change of the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image (740).
  • the change in the vein may include a change in at least one of the thickness and location of the vein.
  • the processor may determine a change in vein due to the contact by checking a difference between the first image and the second image.
  • step 740 may correspond to step 630 of FIG. 6, redundant descriptions will be omitted.
  • the processor may check whether the confirmed vein change (or vein change trend) corresponds to pre-stored vein change information (750). Specifically, the processor may check whether the confirmed change in the position or thickness of the vein corresponds to the previously stored vein change information.
  • the processor may check whether the previously stored vein change information includes an increase in the thickness of the first vein line by 0.1 mm. .
  • the processor may determine that the vein change information corresponds to the previously stored vein change information.
  • the processor may check whether the position change value (eg, 0.05 mm) of the first vein line is included within the position change range of the previously stored vein change information. If the position change value is included within the position change range of the vein change information, the processor may confirm that the confirmed change of the vein corresponds to the previously stored vein change information.
  • the position change value eg, 0.05 mm
  • the above-described first vein line may mean a specific portion of a plurality of vein lines constituting a vein included in a specific region of the user's body. Specifically, in the case of a vein, a plurality of lines are intertwined, and the first vein line may mean a specific portion of such a vein. Since the vein is easy for a person skilled in the art, a detailed description will be omitted.
  • the processor may determine that the user authentication is successful when the confirmed vein change corresponds to the previously stored vein change information (760 ). If the confirmed vein change does not correspond to the previously stored vein change information, the processor may perform the process of step 710 again.
  • the processor may determine that the user authentication is successful. If any one of a vein pattern or a vein change does not correspond to pre-stored information (eg, user vein image or vein change information), user authentication may fail.
  • pre-stored information eg, user vein image or vein change information
  • the user identification process using the first image of the processor is a process for determining whether the user is a registered real user, i.e., confirming the identity of the user, by confirming the unique vein pattern that the user has by biometric characteristics.
  • the user verification process using the second image to be described later uses a change in vein and may refer to a process of confirming whether a target for user authentication is a living organism, that is, a process of confirming the user's bioactivity.
  • the user authentication apparatus can check not only the identity of the user but also the viability of the user, thereby reducing the risk of forgery and improving the security of user authentication.
  • FIG. 8 to 11 show examples of a user authentication device according to an embodiment of the present specification.
  • the user authentication device 800 may include a guide 820 for maintaining a distance from a specific area 810 of a user's body to obtain a first image and a body 830 including a camera. .
  • the user authentication device 800 may acquire a first image of the specific area 810 separated by a specific distance as the specific area 810 comes into contact with the guide 820.
  • the guide 820 When the first image is acquired, the guide 820 may be unfolded based on the hinge so that the specific region 810 may contact the body 830 including the camera. Through this, the main body 830 may acquire the second image and perform the above-described user authentication process.
  • the user authentication device 900 may acquire a first image of a specific region 910 of a user's body in a state that is located a specific distance apart from the user authentication device 900.
  • the user authentication device 900 may provide a screen guiding a user's operation for obtaining a first image, as illustrated.
  • the acquisition of the first image may be performed through a camera disposed on the top of the user authentication device 900.
  • the present invention is not limited thereto, and in some cases, it may be performed through a camera disposed on the rear of the display that is not exposed in FIG. 9.
  • the display of the user authentication device 900 may serve as a contact plate.
  • a second image may be obtained based on the contact of a specific area with the display. Acquisition of the second image may be acquired through a camera disposed on the rear side of the display.
  • the second image is acquired through a camera disposed on the rear side of the display, and thus the first image and the second image are obtained. Acquisition of images can be made through different cameras.
  • the user authentication device 1000 may acquire a first image of a specific region 1010 of a user's body in a state that is located a specific distance apart from the user authentication device 1000.
  • the display of the user authentication device 1000 may serve as a contact plate.
  • the second image may be obtained based on the contact of the specific area on the display.
  • two cameras arranged at different positions may be used as in FIG. 9 as a camera for acquiring the first image and the second image, but the present invention is not limited thereto.
  • the user authentication apparatus 1000 acquires the first image and the second image
  • the user authentication may be performed based on the first image and the second image.
  • FIG 11 shows an example in which the user authentication device 1100 is installed in the door 1110.
  • the user authentication device 1100 may be inserted into the door 1110 and used to determine whether to open or close the door 1110.
  • the door 1110 may be opened, and if the user authentication fails, the door 1110 may not be opened.
  • the user 1120 may locate the specific region 1130 of the user's body at a location separated by a specific distance.
  • the user authentication device 1100 may acquire a first image for a specific area. Thereafter, the user 1120 may contact the specific area 1130 with the contact plate of the user authentication device 1100 to obtain a second image.
  • a camera for acquiring at least one of the first image and the second image may be disposed inside the user authentication apparatus 1100, at a location spaced apart from the contact plate by a specific distance.
  • a specific area of the user's body is illustrated with a palm, but the present invention is not limited thereto.
  • the specific area may be at least one of the wrist, the back of the hand, the ankle, the sole of the foot, and the back of the foot.
  • FIG. 12 shows an example of a screen displayed on a user authentication device according to the type of user authentication. Specifically, FIG. 12A shows an example of a screen displayed in the case of unlocking a terminal for user authentication. 12B shows an example of a screen displayed when user authentication is for payment.
  • the security level in the case of unlocking the terminal and the case of payment, the security level may be determined differently.
  • the user authentication method may be applied differently based on the security level. For example, if the security level of unlocking the terminal is set lower than the security level of payment, only the user authentication using the first image is performed for user authentication for unlocking the terminal, and the first image is used for user authentication for payment. And user authentication using the second image may be performed together.
  • FIG. 13 shows an example of a screen provided after successful user authentication using the first image when user authentication using the first image and the second image is performed together.
  • FIG. 14 shows an example of a screen provided according to a result of user authentication using a second image. Specifically, FIG. 14A shows an example of a screen provided when user authentication is successful. 14B shows an example of a screen provided when user authentication fails.
  • FIGS. 12 to 14 are only examples, and the present specification is not limited to these examples.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

A user authentication device according to an embodiment of the present invention may comprise a contact plate with which a specific area of a user's body including a vein comes in contact, and a processor, wherein the processor: acquires a first image with respect to the specific area which is spaced apart from the contact plate by a specific distance or more; acquires a second image with respect to the specific area in contact with the contact plate; identifies a change of a vein according to whether the contact plate is in contact with the specific area, on the basis of a vein image included in each of the first image and the second image; and performs user authentication on the basis of the identifying of whether the identified change of the vein corresponds to pre-stored vein change information.

Description

정맥을 이용하여 사용자 인증을 수행하는 사용자 인증 장치 및 그 방법 User authentication device and method for performing user authentication using vein
본 명세서는 사용자의 생체 정보인 정맥을 이용하여 사용자 인증을 수행하는 사용자 인증 장치 및 그 방법에 관한 것이다. The present specification relates to a user authentication apparatus and method for performing user authentication using veins, which are the user's biometric information.
바이오 인식은 인간의 생리학적 또는 행동학적 특징을 이용하여 개인을 인식하는 방법이다. 이러한 바이오 인식 기술에는 지문, 홍채, 정맥, 얼굴 인식 등이 있다. 이러한 방법 중 정맥을 이용한 바이오 인식 기술(이하, 정맥 인증)은 높은 인식 성능을 가지며 사용자의 거부감과 불편함이 적고 인식시간이 빠르다는 장점이 있다. 이에 따라 정맥 인식을 이용한 바이오 인증 기술에 대한 개발이 활발히 이루어지고 있다. Bio-recognition is a method of recognizing an individual using human physiological or behavioral characteristics. Such biometric recognition technologies include fingerprint, iris, vein, and face recognition. Among these methods, biometric recognition technology using veins (hereinafter, vein authentication) has the advantage of having high recognition performance, less reluctance and discomfort from the user, and fast recognition time. Accordingly, the development of biometric authentication technology using vein recognition is being actively conducted.
다만, 정맥 인증의 경우 정맥 패턴에 대한 정보가 유출되면 위조(또는 조작)의 위험이 있을 수 있다. 이에 따라, 정맥이 생체 정보인 점에 착안하여 사용자가 살아있는 생명체인지. 즉 생동성(liveness)을 확인하는 기술이 등장하였다. However, in the case of vein authentication, if information on vein patterns is leaked, there may be a risk of forgery (or manipulation). Accordingly, whether the user is a living creature based on the fact that veins are biometric information. In other words, a technology to check liveness has emerged.
생동성 확인은 예를 들면 사용자의 맥박을 측정하는 기술이 있을 수 있다. 그러나, 이러한 기술은 맥박이 적어도 1회이상 뛰는 시간 동안 측정이 이루어져야 하기 때문에 다소 긴 시간이 걸리게 된다. Vitality check may be, for example, a technique for measuring the user's pulse. However, this technique takes a rather long time since the measurement must be made during the time the pulse beats at least once.
따라서, 보안성을 향상하되 신속하고 용이하게 사용자 인증을 수행하기 위한 기술이 요구된다. Accordingly, there is a need for a technology for improving security but performing user authentication quickly and easily.
본 명세서가 해결하고자 하는 과제는, 정맥을 이용하여 사용자 인증이 수행되는 경우 정맥의 변화를 기초로 생동성을 확인함으로써 보다 신속하고 보안성이 향상된 사용자 인증 장치 및 방법을 제공하는 것이다. The problem to be solved by the present specification is to provide an apparatus and method for user authentication that is faster and with improved security by checking bioactivity based on a change in vein when user authentication is performed using a vein.
다만, 본 명세서가 해결하고자 하는 과제는 이상에서 언급한 바로 제한되지 않으며, 언급되지는 않았으나 아래의 기재로부터 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있는 목적을 포함할 수 있다. However, the subject to be solved by the present specification is not limited immediately as mentioned above, and is not mentioned, but includes the purpose that can be clearly understood by those of ordinary skill in the art from the description below. can do.
본 발명의 일 실시예에 따른 사용자 인증 장치는, 정맥을 포함하는 사용자 신체의 특정 영역이 접촉되는 접촉판과, 프로세서를 포함하고, 상기 프로세서는, 상기 접촉판으로부터 특정 거리 이상 이격된 상기 특정 영역에 대한 제1 이미지를 획득하고, 상기 접촉판에 접촉된 상기 특정 영역에 대한 제2 이미지를 획득하고, 상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판 접촉 유무에 따른 정맥의 변화를 확인하고, 상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행할 수 있다. A user authentication device according to an embodiment of the present invention includes a contact plate to which a specific area of a user's body including veins comes into contact, and a processor, wherein the processor includes the specific area spaced apart from the contact plate by a specific distance or more. Acquire a first image for, obtain a second image for the specific area in contact with the contact plate, and determine whether the contact plate is in contact based on a vein image included in each of the first image and the second image. User authentication may be performed on the basis of confirming the change in the vein according to the result and confirming whether the confirmed change in the vein corresponds to the previously stored vein change information.
본 명세서의 일 실시예에 따른 사용자 인증 방법은, 정맥을 포함하는 사용자 신체의 특정 영역가 접촉되는 접촉판으로부터 특정 거리 이상 이격된 상기 적어도 일부에 대한 제1 이미지를 획득하는 단계와, 상기 접촉판에 접촉된 상기 특정 영역에 대한 제2 이미지를 획득하는 단계와, 상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판에 대한 접촉 유무에 따른 정맥의 변화를 확인하는 단계와, 상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행하는 단계를 포함할 수 있다. A user authentication method according to an embodiment of the present specification includes the steps of acquiring a first image of the at least part spaced apart by a specific distance or more from a contact plate to which a specific area of a user's body including a vein comes into contact, and Acquiring a second image of the specific area in contact, and checking a change in vein according to the presence or absence of contact with the contact plate based on vein images included in each of the first image and the second image; and And performing user authentication based on checking whether the confirmed vein change corresponds to the previously stored vein change information.
본 명세서의 일 실시예에 따른 컴퓨터 판독가능 기록매체는, 사용자 손바닥이 접촉되는 접촉판으로부터 정맥을 포함하는 사용자 신체의 특정 영역가 접촉되는 접촉판으로부터 특정 거리 이상 이격된 상기 적어도 일부에 대한 제1 이미지를 획득하는 단계와, 상기 접촉판에 접촉된 상기 특정 영역에 대한 제2 이미지를 획득하는 단계와, 상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판에 대한 접촉 유무에 따른 정맥의 변화를 확인하는 단계와, 상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행하는 단계를 포함할 수 있다. The computer-readable recording medium according to an embodiment of the present specification includes a first image of the at least part spaced apart by a specific distance or more from a contact plate in which a specific area of a user's body including a vein is in contact with a contact plate in which the palm of the user is in contact. Obtaining a second image of the specific region in contact with the contact plate, and presence or absence of contact with the contact plate based on vein images included in each of the first image and the second image It may include checking a change in vein according to and performing user authentication based on checking whether the confirmed change in vein corresponds to pre-stored vein change information.
본 명세서의 실시예에 따른 사용자 인증 장치 및 방법은, 정맥의 변화를 이용하여 생동성을 확인함으로써 사용자 인증과 관련된 위조의 위험성을 감소시키고 보안성을 향상시킬 수 있다. The user authentication apparatus and method according to the exemplary embodiment of the present specification may reduce the risk of forgery related to user authentication and improve security by checking bioactivity using a change in vein.
다만, 본 명세서에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다. However, the effects obtainable in the present specification are not limited to the above-mentioned effects, and other effects not mentioned will be clearly understood by those of ordinary skill in the technical field to which the present disclosure belongs from the following description. I will be able to.
도 1은 본 명세서와 관련된 사용자 인증 장치를 설명하기 위한 블록도이다. 1 is a block diagram illustrating a user authentication device related to the present specification.
도 2는 본 명세서의 일 실시예에 따른 사용자 인증 방법을 개념적으로 설명하기 위한 도면이다. 2 is a diagram for conceptually explaining a user authentication method according to an embodiment of the present specification.
도 3은 본 명세서의 일 실시예에 따른 사용자 인증 장치에 접촉된 사용자 신체의 특정 영역의 예를 나타내는 도면이다. 3 is a diagram illustrating an example of a specific area of a user's body in contact with a user authentication device according to an exemplary embodiment of the present specification.
도 4는 본 명세서의 일 실시예에 따른 사용자 인증 장치에 의해 획득되는 정맥의 변화에 대한 정보를 설명하기 위한 도면이다. 4 is a diagram for explaining information on a change in vein acquired by a user authentication device according to an embodiment of the present specification.
도 5는 본 명세서의 일 실시예에 따른 사용자 인증 장치의 기능 블록도이다. 5 is a functional block diagram of a user authentication device according to an embodiment of the present specification.
도 6은 본 명세서의 일 실시예에 따른 사용자 인증 방법의 흐름도이다. 6 is a flowchart of a user authentication method according to an embodiment of the present specification.
도 7은 본 명세서의 다른 실시예에 따른 사용자 인증 방법의 흐름도이다. 7 is a flowchart of a user authentication method according to another embodiment of the present specification.
도 8 내지 도 11은 본 명세서의 일 실시예에 따른 사용자 인증 장치의 예를 나타낸다. 8 to 11 show examples of a user authentication device according to an embodiment of the present specification.
도 12 내지 14는 본 명세서의 일 실시예에 따른 사용자 인증 장치에서 표시되는 화면의 예이다. 12 to 14 are examples of screens displayed by the user authentication device according to an embodiment of the present specification.
이하, 본 명세서의 실시 예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, embodiments of the present specification will be described in detail with reference to the accompanying drawings.
실시 예를 설명함에 있어서 본 명세서가 속하는 기술 분야에 익히 알려져 있고 본 명세서와 직접적으로 관련이 없는 기술 내용에 대해서는 설명을 생략한다. 이는 불필요한 설명을 생략함으로써 본 명세서의 요지를 흐리지 않고 더욱 명확히 전달하기 위함이다.In describing the embodiments, descriptions of technical contents that are well known in the technical field to which the present specification pertains and are not directly related to the present specification will be omitted. This is to more clearly convey the gist of the present specification by omitting unnecessary description.
마찬가지 이유로 첨부 도면에 있어서 일부 구성요소는 과장되거나 생략되거나 개략적으로 도시되었다. 또한, 각 구성요소의 크기는 실제 크기를 전적으로 반영하는 것이 아니다. For the same reason, some elements in the accompanying drawings are exaggerated, omitted, or schematically illustrated. In addition, the size of each component does not fully reflect the actual size.
본 명세서의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나 본 명세서는 이하에서 개시되는 실시 예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 명세서의 개시가 완전하도록 하고, 본 명세서가 속하는 기술분야에서 통상의 지식을 가진 자에게 명세서의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 명세서는 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present specification, and a method of achieving them will be apparent with reference to the embodiments described below in detail together with the accompanying drawings. However, the present specification is not limited to the embodiments disclosed below, but may be implemented in a variety of different forms. It is provided to fully inform the holder of the scope of the specification, and this specification is only defined by the scope of the claims. The same reference numerals refer to the same elements throughout the specification.
이 때, 흐름도 도면의 각 블록과 흐름도 도면들의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수 있음을 이해할 수 있을 것이다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 흐름도 블록(들)에서 설명된 기능들을 수행하는 수단을 생성하게 된다. 이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 메모리에 저장되는 것도 가능하므로, 그 컴퓨터 이용가능 또는 컴퓨터 판독 가능 메모리에 저장된 인스트럭션들은 흐름도 블록(들)에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다. 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 흐름도 블록(들)에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.In this case, it will be appreciated that each block of the flowchart diagram and combinations of the flowchart diagrams may be executed by computer program instructions. Since these computer program instructions can be mounted on the processor of a general purpose computer, special purpose computer or other programmable data processing equipment, the instructions executed by the processor of the computer or other programmable data processing equipment are described in the flowchart block(s). It creates a means to perform functions. These computer program instructions can also be stored in computer-usable or computer-readable memory that can be directed to a computer or other programmable data processing equipment to implement a function in a particular way, so that the computer-usable or computer-readable memory It is also possible for the instructions stored in the flow chart to produce an article of manufacture containing instruction means for performing the functions described in the flowchart block(s). Since computer program instructions can also be mounted on a computer or other programmable data processing equipment, a series of operating steps are performed on a computer or other programmable data processing equipment to create a computer-executable process to create a computer or other programmable data processing equipment. It is also possible for instructions to perform processing equipment to provide steps for executing the functions described in the flowchart block(s).
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실행 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a module, segment, or part of code that contains one or more executable instructions for executing the specified logical function(s). In addition, it should be noted that in some alternative execution examples, the functions mentioned in the blocks may occur out of order. For example, two blocks shown in succession may in fact be executed substantially simultaneously, or the blocks may sometimes be executed in the reverse order depending on the corresponding function.
이 때, 본 실시 예에서 사용되는 '~부'라는 용어는 소프트웨어 또는 FPGA또는 ASIC과 같은 하드웨어 구성요소를 의미하며, '~부'는 어떤 역할들을 수행한다. 그렇지만 '~부'는 소프트웨어 또는 하드웨어에 한정되는 의미는 아니다. '~부'는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서 '~부'는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들, 및 변수들을 포함한다. 구성요소들과 '~부'들 안에서 제공되는 기능은 더 작은 수의 구성요소들 및 '~부'들로 결합되거나 추가적인 구성요소들과 '~부'들로 더 분리될 수 있다. 뿐만 아니라, 구성요소들 및 '~부'들은 디바이스 또는 보안 멀티미디어카드 내의 하나 또는 그 이상의 CPU들을 재생시키도록 구현될 수도 있다. 또한 실시 예에서 제어부로 언급되는 것은 해당 장치를 제어하기 위한 동작을 하는 구성으로 적어도 하나의 프로세서를 포함할 수 있다.In this case, the term'~ unit' used in this embodiment refers to software or hardware components such as FPGA or ASIC, and'~ unit' performs certain roles. However,'~ part' is not limited to software or hardware. The'~ unit' may be configured to be in an addressable storage medium, or may be configured to reproduce one or more processors. Thus, as an example,'~ unit' refers to components such as software components, object-oriented software components, class components, and task components, processes, functions, properties, and procedures. , Subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, database, data structures, tables, arrays, and variables. Components and functions provided in the'~ units' may be combined into a smaller number of elements and'~ units', or may be further separated into additional elements and'~ units'. In addition, components and'~ units' may be implemented to play one or more CPUs in a device or a security multimedia card. In addition, what is referred to as a control unit in an embodiment may include at least one processor as a component that performs an operation for controlling a corresponding device.
도 1은 본 명세서와 관련된 사용자 인증 장치(100)를 설명하기 위한 블록도이다. 사용자 인증 장치(100)는 이동 단말기의 형태로 구현될 수 있으며, 이에 따라 이하에서는 사용자 인증 장치(100)를 이동 단말기(100)로 지칭하여 설명하겠으나, 이러한 용어에 본 명세서가 제한되지는 않는다. 1 is a block diagram illustrating a user authentication device 100 related to the present specification. The user authentication device 100 may be implemented in the form of a mobile terminal, and accordingly, the user authentication device 100 will be referred to as a mobile terminal 100 below, but the present specification is not limited to such terms.
이동 단말기(100)는 무선 통신부(110), 입력부(120), 센싱부(140), 출력부(150), 인터페이스부(160), 메모리(170), 제어부(180) 및 전원 공급부(190) 등을 포함할 수 있다. 도 1에 도시된 구성요소들은 이동 단말기를 구현하는데 있어서 필수적인 것은 아니어서, 본 명세서 상에서 설명되는 이동 단말기는 위에서 열거된 구성요소들 보다 많거나, 또는 적은 구성요소들을 가질 수 있다.The mobile terminal 100 includes a wireless communication unit 110, an input unit 120, a sensing unit 140, an output unit 150, an interface unit 160, a memory 170, a control unit 180, and a power supply unit 190. And the like. The components shown in FIG. 1 are not essential for implementing a mobile terminal, and thus, a mobile terminal described in the present specification may have more or fewer components than those listed above.
보다 구체적으로, 상기 구성요소들 중 무선 통신부(110)는, 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 외부서버 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 또한, 상기 무선 통신부(110)는, 이동 단말기(100)를 하나 이상의 네트워크에 연결하는 하나 이상의 모듈을 포함할 수 있다.More specifically, among the above components, the wireless communication unit 110 is provided between the mobile terminal 100 and the wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or between the mobile terminal 100 and an external server. It may include one or more modules to enable wireless communication between. In addition, the wireless communication unit 110 may include one or more modules that connect the mobile terminal 100 to one or more networks.
이러한 무선 통신부(110)는, 방송 수신 모듈(111), 이동통신 모듈(112), 무선 인터넷 모듈(113), 근거리 통신 모듈(114), 위치정보 모듈(115) 중 적어도 하나를 포함할 수 있다.The wireless communication unit 110 may include at least one of a broadcast reception module 111, a mobile communication module 112, a wireless Internet module 113, a short-range communication module 114, and a location information module 115. .
먼저, 무선 통신부(110)에 대하여 살펴보면, 무선 통신부(110)의 방송 수신 모듈(111)은 방송 채널을 통하여 외부의 방송 관리 서버로부터 방송 신호 및/또는 방송 관련된 정보를 수신한다. 상기 방송 채널은 위성 채널, 지상파 채널을 포함할 수 있다. 적어도 두 개의 방송 채널들에 대한 동시 방송 수신 또는 방송 채널 스위칭을 위해 둘 이상의 상기 방송 수신 모듈이 상기 이동단말기(100)에 제공될 수 있다.First, referring to the wireless communication unit 110, the broadcast receiving module 111 of the wireless communication unit 110 receives a broadcast signal and/or broadcast-related information from an external broadcast management server through a broadcast channel. The broadcast channel may include a satellite channel and a terrestrial channel. Two or more of the broadcast reception modules may be provided to the mobile terminal 100 for simultaneous broadcast reception or broadcast channel switching of at least two broadcast channels.
이동통신 모듈(112)은, 이동통신을 위한 기술표준들 또는 통신방식(예를 들어, GSM(Global System for Mobile communication), CDMA(Code Division Multi Access), CDMA2000(Code Division Multi Access 2000), EV-DO(Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA(Wideband CDMA), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등)에 따라 구축된 이동 통신망 상에서 기지국, 외부의 단말, 서버 중 적어도 하나와 무선 신호를 송수신한다.The mobile communication module 112 includes technical standards or communication methods for mobile communication (for example, GSM (Global System for Mobile communication), CDMA (Code Division Multi Access), CDMA2000 (Code Division Multi Access 2000)), EV -DO (Enhanced Voice-Data Optimized or Enhanced Voice-Data Only), WCDMA (Wideband CDMA), HSDPA (High Speed Downlink Packet Access), HSUPA (High Speed Uplink Packet Access), LTE (Long Term Evolution), LTE-A (Long Term Evolution-Advanced), etc.), transmits and receives radio signals with at least one of a base station, an external terminal, and a server.
상기 무선 신호는, 음성 호 신호, 화상 통화 호 신호 또는 문자/멀티미디어 메시지 송수신에 따른 다양한 형태의 데이터를 포함할 수 있다.The wireless signal may include a voice call signal, a video call signal, or various types of data according to transmission and reception of text/multimedia messages.
무선 인터넷 모듈(113)은 무선 인터넷 접속을 위한 모듈을 말하는 것으로, 이동 단말기(100)에 내장되거나 외장될 수 있다. 무선 인터넷 모듈(113)은 무선 인터넷 기술들에 따른 통신망에서 무선 신호를 송수신하도록 이루어진다.The wireless Internet module 113 refers to a module for wireless Internet access, and may be built-in or external to the mobile terminal 100. The wireless Internet module 113 is configured to transmit and receive wireless signals in a communication network according to wireless Internet technologies.
무선 인터넷 기술로는, 예를 들어 WLAN(Wireless LAN), Wi-Fi(Wireless-Fidelity), Wi-Fi(Wireless Fidelity) Direct, DLNA(Digital Living Network Alliance), WiBro(Wireless Broadband), WiMAX(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access), HSUPA(High Speed Uplink Packet Access), LTE(Long Term Evolution), LTE-A(Long Term Evolution-Advanced) 등이 있으며, 상기 무선 인터넷 모듈(113)은 상기에서 나열되지 않은 인터넷 기술까지 포함한 범위에서 적어도 하나의 무선 인터넷 기술에 따라 데이터를 송수신하게 된다.Examples of wireless Internet technologies include WLAN (Wireless LAN), Wi-Fi (Wireless-Fidelity), Wi-Fi (Wireless Fidelity) Direct, DLNA (Digital Living Network Alliance), WiBro (Wireless Broadband), WiMAX (World Interoperability for Microwave Access), High Speed Downlink Packet Access (HSDPA), High Speed Uplink Packet Access (HSUPA), Long Term Evolution (LTE), Long Term Evolution-Advanced (LTE-A), and the like, and the wireless Internet module ( 113) transmits and receives data according to at least one wireless Internet technology in a range including Internet technologies not listed above.
WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A 등에 의한 무선인터넷 접속은 이동통신망을 통해 이루어진다는 관점에서 본다면, 상기 이동통신망을 통해 무선인터넷 접속을 수행하는 상기 무선 인터넷 모듈(113)은 상기 이동통신 모듈(112)의 일종으로 이해될 수도 있다.From the point of view that wireless Internet access by WiBro, HSDPA, HSUPA, GSM, CDMA, WCDMA, LTE, LTE-A, etc. is made through a mobile communication network, the wireless Internet module 113 performs wireless Internet access through the mobile communication network. ) May be understood as a kind of the mobile communication module 112.
근거리 통신 모듈(114)은 근거리 통신(Short range communication)을 위한 것으로서, 블루투스(Bluetooth쪠), RFID(Radio Frequency Identification), 적외선 통신(Infrared Data Association; IrDA), UWB(Ultra Wideband), ZigBee, NFC(Near Field Communication), Wi-Fi(Wireless-Fidelity), Wi-Fi Direct, Wireless USB(Wireless Universal Serial Bus) 기술 중 적어도 하나를 이용하여, 근거리 통신을 지원할 수 있다. 이러한, 근거리 통신 모듈(114)은, 근거리 무선 통신망(Wireless Area Networks)을 통해 이동 단말기(100)와 무선 통신 시스템 사이, 이동 단말기(100)와 다른 이동 단말기(100) 사이, 또는 이동 단말기(100)와 다른 이동 단말기(100, 또는 외부서버)가 위치한 네트워크 사이의 무선 통신을 지원할 수 있다. 상기 근거리 무선 통신망은 근거리 무선 개인 통신망(Wireless Personal Area Networks)일 수 있다.The short range communication module 114 is for short range communication, and includes Bluetooth, Radio Frequency Identification (RFID), Infrared Data Association (IrDA), Ultra Wideband (UWB), ZigBee, and NFC. Near field communication may be supported using at least one of (Near Field Communication), Wi-Fi (Wireless-Fidelity), Wi-Fi Direct, and Wireless USB (Wireless Universal Serial Bus) technologies. The short-distance communication module 114 is, between the mobile terminal 100 and a wireless communication system, between the mobile terminal 100 and another mobile terminal 100, or a mobile terminal 100 through a wireless area network (Wireless Area Networks). ) And a network in which another mobile terminal 100 or an external server is located may support wireless communication. The local area wireless communication network may be a wireless personal area network (Wireless Personal Area Networks).
위치정보 모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위한 모듈로서, 그의 대표적인 예로는 GPS(Global Positioning System) 모듈 또는 WiFi(Wireless Fidelity) 모듈이 있다. 예를 들어, 이동 단말기는 GPS모듈을 활용하면, GPS 위성에서 보내는 신호를 이용하여 이동 단말기의 위치를 획득할 수 있다. 다른 예로서, 이동 단말기는 Wi-Fi모듈을 활용하면, Wi-Fi모듈과 무선신호를 송신 또는 수신하는 무선 AP(Wireless Access Point)의 정보에 기반하여, 이동 단말기의 위치를 획득할 수 있다. 필요에 따라서, 위치정보모듈(115)은 치환 또는 부가적으로 이동 단말기의 위치에 관한 데이터를 얻기 위해 무선 통신부(110)의 다른 모듈 중 어느 기능을 수행할 수 있다. 위치정보모듈(115)은 이동 단말기의 위치(또는 현재 위치)를 획득하기 위해 이용되는 모듈로, 이동 단말기의 위치를 직접적으로 계산하거나 획득하는 모듈로 한정되지는 않는다.The location information module 115 is a module for obtaining a location (or current location) of a mobile terminal, and representative examples thereof include a GPS (Global Positioning System) module or a WiFi (Wireless Fidelity) module. For example, if the mobile terminal utilizes a GPS module, it can acquire the location of the mobile terminal by using a signal transmitted from a GPS satellite. As another example, when the mobile terminal utilizes the Wi-Fi module, the mobile terminal may acquire the location of the mobile terminal based on information of the Wi-Fi module and a wireless access point (AP) that transmits or receives a wireless signal. If necessary, the location information module 115 may perform any function among other modules of the wireless communication unit 110 in order to obtain data on the location of the mobile terminal as a substitute or additionally. The location information module 115 is a module used to obtain the location (or current location) of the mobile terminal, and is not limited to a module that directly calculates or obtains the location of the mobile terminal.
입력부(120)는, 영상 신호 입력을 위한 카메라(121) 또는 영상 입력부, 오디오 신호 입력을 위한 마이크로폰(microphone, 122), 또는 오디오 입력부, 사용자로부터 정보를 입력받기 위한 사용자 입력부(123, 예를 들어, 터치키(touch key), 푸시키(mechanical key) 등)를 포함할 수 있다. 입력부(120)에서 수집한 음성 데이터나 이미지 데이터는 분석되어 사용자의 제어명령으로 처리될 수 있다.The input unit 120 includes a camera 121 or an image input unit for inputting an image signal, a microphone 122 for inputting an audio signal, or an audio input unit, and a user input unit 123 for receiving information from a user, for example, , A touch key, a mechanical key, etc.). The voice data or image data collected by the input unit 120 may be analyzed and processed as a user's control command.
카메라(121)는 화상 통화모드 또는 촬영 모드에서 이미지 센서에 의해 얻어지는 정지영상 또는 동영상 등의 화상 프레임을 처리한다. 처리된 화상 프레임은 디스플레이부(151)에 표시되거나 메모리(170)에 저장될 수 있다. 한편, 이동 단말기(100)에 구비되는 복수의 카메라(121)는 매트릭스 구조를 이루도록 배치될 수 있으며, 이와 같이 매트릭스 구조를 이루는 카메라(121)를 통하여, 이동 단말기(100)에는 다양한 각도 또는 초점을 갖는 복수의 영상정보가 입력될 수 있다. 또한, 복수의 카메라(121)는 입체영상을 구현하기 위한 좌 영상 및 우 영상을 획득하도록, 스테레오 구조로 배치될 수 있다. The camera 121 processes an image frame such as a still image or a moving image obtained by an image sensor in a video call mode or a photographing mode. The processed image frame may be displayed on the display unit 151 or stored in the memory 170. Meanwhile, a plurality of cameras 121 provided in the mobile terminal 100 may be arranged to form a matrix structure, and through the camera 121 forming a matrix structure as described above, various angles or focuses may be applied to the mobile terminal 100. A plurality of image information may be input. In addition, the plurality of cameras 121 may be arranged in a stereo structure to obtain a left image and a right image for realizing a 3D image.
마이크(또는 마이크로폰)(122)는 외부의 음향 신호를 전기적인 음성 데이터로 처리한다. 처리된 음성 데이터는 이동 단말기(100)에서 수행 중인 기능(또는 실행 중인 응용 프로그램)에 따라 다양하게 활용될 수 있다. 한편, 마이크(122)에는 외부의 음향 신호를 입력 받는 과정에서 발생되는 잡음(noise)을 제거하기 위한 다양한 잡음 제거 알고리즘이 구현될 수 있다.The microphone (or microphone) 122 processes an external sound signal into electrical voice data. The processed voice data may be utilized in various ways according to a function (or an application program being executed) being executed by the mobile terminal 100. Meanwhile, the microphone 122 may be implemented with various noise removal algorithms for removing noise generated in the process of receiving an external sound signal.
사용자 입력부(123)는 사용자로부터 정보를 입력받기 위한 것으로서, 사용자 입력부(123)를 통해 정보가 입력되면, 제어부(180)는 입력된 정보에 대응되도록 이동 단말기(100)의 동작을 제어할 수 있다. 이러한, 사용자 입력부(123)는 기계식 (mechanical) 입력수단(또는, 메커니컬 키, 예를 들어, 이동 단말기(100)의 전·후면 또는 측면에 위치하는 버튼, 돔 스위치 (dome switch), 조그 휠, 조그 스위치 등) 및 터치식 입력수단을 포함할 수 있다. 일 예로서, 터치식 입력수단은, 소프트웨어적인 처리를 통해 터치스크린에 표시되는 가상 키(virtual key), 소프트 키(soft key) 또는 비주얼 키(visual key)로 이루어지거나, 상기 터치스크린 이외의 부분에 배치되는 터치 키(touch key)로 이루어질 수 있다. 한편, 상기 가상키 또는 비주얼 키는, 다양한 형태를 가지면서 터치스크린 상에 표시되는 것이 가능하며, 예를 들어, 그래픽(graphic), 텍스트(text), 아이콘(icon), 비디오(video) 또는 이들의 조합으로 이루어질 수 있다. The user input unit 123 is for receiving information from a user, and when information is input through the user input unit 123, the controller 180 can control the operation of the mobile terminal 100 to correspond to the input information. . Such, the user input unit 123 is a mechanical (mechanical) input means (or a mechanical key, for example, a button located on the front, rear or side of the mobile terminal 100, a dome switch (dome switch), a jog wheel, Jog switch, etc.) and a touch-type input means. As an example, the touch input means is composed of a virtual key, a soft key, or a visual key displayed on a touch screen through software processing, or a portion other than the touch screen It may be made of a touch key (touch key) arranged in the. On the other hand, the virtual key or the visual key can be displayed on the touch screen while having various forms, for example, graphic, text, icon, video, or these It can be made of a combination of.
센싱부(140)는 이동 단말기 내 정보, 이동 단말기를 둘러싼 주변 환경 정보 및 사용자 정보 중 적어도 하나를 센싱하기 위한 하나 이상의 센서를 포함할 수 있다. 예를 들어, 센싱부(140)는 근접센서(141, proximity sensor), 조도 센서(142, illumination sensor), 터치 센서(touch sensor), 가속도 센서(acceleration sensor), 자기 센서(magnetic sensor), 중력 센서(G-sensor), 자이로스코프 센서(gyroscope sensor), 모션 센서(motion sensor), RGB 센서, 적외선 센서(IR 센서: infrared sensor), 지문인식 센서(finger scan sensor), 초음파 센서(ultrasonic sensor), 광 센서(optical sensor, 예를 들어, 카메라(121 참조)), 마이크로폰(microphone, 122 참조), 배터리 게이지(battery gauge), 환경 센서(예를 들어, 기압계, 습도계, 온도계, 방사능 감지 센서, 열 감지 센서, 가스 감지 센서 등), 화학 센서(예를 들어, 전자 코, 헬스케어 센서, 생체 인식 센서 등) 중 적어도 하나를 포함할 수 있다. 한편, 본 명세서에 개시된 이동 단말기는, 이러한 센서들 중 적어도 둘 이상의 센서에서 센싱되는 정보들을 조합하여 활용할 수 있다.The sensing unit 140 may include one or more sensors for sensing at least one of information in the mobile terminal, information on surrounding environments surrounding the mobile terminal, and user information. For example, the sensing unit 140 includes a proximity sensor 141, an illumination sensor 142, a touch sensor, an acceleration sensor, a magnetic sensor, and gravity. Sensor (G-sensor), gyroscope sensor (gyroscope sensor), motion sensor (motion sensor), RGB sensor, infrared sensor (IR sensor: infrared sensor), fingerprint sensor (finger scan sensor), ultrasonic sensor (ultrasonic sensor) , Optical sensor (for example, camera (see 121)), microphone (microphone, see 122), battery gauge, environmental sensor (for example, barometer, hygrometer, thermometer, radiation detection sensor, It may include at least one of a heat sensor, a gas sensor, etc.), and a chemical sensor (eg, an electronic nose, a healthcare sensor, a biometric sensor, etc.). Meanwhile, the mobile terminal disclosed in the present specification may combine and utilize information sensed by at least two or more of these sensors.
출력부(150)는 시각, 청각 또는 촉각 등과 관련된 출력을 발생시키기 위한 것으로, 디스플레이부(151), 음향 출력부(152), 햅틱 모듈(153), 광 출력부(154) 중 적어도 하나를 포함할 수 있다. 디스플레이부(151)는 터치 센서와 상호 레이어 구조를 이루거나 일체형으로 형성됨으로써, 터치 스크린을 구현할 수 있다. 이러한 터치 스크린은, 이동 단말기(100)와 사용자 사이의 입력 인터페이스를 제공하는 사용자 입력부(123)로써 기능함과 동시에, 이동 단말기(100)와 사용자 사이의 출력 인터페이스를 제공할 수 있다.The output unit 150 is for generating an output related to visual, auditory or tactile sense, and includes at least one of the display unit 151, the sound output unit 152, the haptic module 153, and the light output unit 154. can do. The display unit 151 may implement a touch screen by forming a layer structure or integrally with the touch sensor. Such a touch screen may function as a user input unit 123 that provides an input interface between the mobile terminal 100 and a user, and may provide an output interface between the mobile terminal 100 and a user.
음향 출력부(152)는 호신호 수신, 통화모드 또는 녹음 모드, 음성인식 모드, 방송수신 모드 등에서 무선 통신부(110)로부터 수신되거나 메모리(170)에 저장된 오디오 데이터를 출력할 수 있다. 음향 출력부(152)는 이동 단말기(100)에서 수행되는 기능(예를 들어, 호신호 수신음, 메시지 수신음 등)과 관련된 음향 신호를 출력하기도 한다. 이러한 음향 출력부(152)에는 리시버(receiver), 스피커(speaker), 버저(buzzer) 등이 포함될 수 있다.The sound output unit 152 may output audio data received from the wireless communication unit 110 or stored in the memory 170 in a call signal reception, a call mode or a recording mode, a voice recognition mode, a broadcast reception mode, and the like. The sound output unit 152 also outputs sound signals related to functions (eg, a call signal reception sound, a message reception sound, etc.) performed by the mobile terminal 100. The sound output unit 152 may include a receiver, a speaker, a buzzer, and the like.
햅틱 모듈(haptic module)(153)은 사용자가 느낄 수 있는 다양한 촉각 효과를 발생시킨다. 햅틱 모듈(153)이 발생시키는 촉각 효과의 대표적인 예로는 진동이 될 수 있다. 햅틱 모듈(153)에서 발생하는 진동의 세기와 패턴 등은 사용자의 선택 또는 제어부의 설정에 의해 제어될 수 있다. 예를 들어, 상기 햅틱 모듈(153)은 서로 다른 진동을 합성하여 출력하거나 순차적으로 출력할 수도 있다.The haptic module 153 generates various tactile effects that a user can feel. A typical example of the tactile effect generated by the haptic module 153 may be vibration. The intensity and pattern of the vibration generated by the haptic module 153 may be controlled by a user's selection or setting by a controller. For example, the haptic module 153 may synthesize and output different vibrations or sequentially output them.
광출력부(154)는 이동 단말기(100)의 광원의 빛을 이용하여 이벤트 발생을 알리기 위한 신호를 출력한다. 이동 단말기(100)에서 발생되는 이벤트의 예로는 메시지 수신, 호 신호 수신, 부재중 전화, 알람, 일정 알림, 이메일 수신, 애플리케이션을 통한 정보 수신 등이 될 수 있다.The light output unit 154 outputs a signal for notifying the occurrence of an event using light from a light source of the mobile terminal 100. Examples of events occurring in the mobile terminal 100 may include message reception, call signal reception, missed call, alarm, schedule notification, email reception, and information reception through an application.
인터페이스부(160)는 이동 단말기(100)에 연결되는 다양한 종류의 외부 기기와의 통로 역할을 수행한다. 이러한 인터페이스부(160)는, 유/무선 헤드셋 포트(port), 외부 충전기 포트(port), 유/무선 데이터 포트(port), 메모리 카드(memory card) 포트, 식별 모듈이 구비된 장치를 연결하는 포트(port), 오디오 I/O(Input/Output) 포트(port), 비디오 I/O(Input/Output) 포트(port), 이어폰 포트(port) 중 적어도 하나를 포함할 수 있다. 이동 단말기(100)에서는, 상기 인터페이스부(160)에 외부 기기가 연결되는 것에 대응하여, 연결된 외부 기기와 관련된 적절할 제어를 수행할 수 있다.The interface unit 160 serves as a passage between various types of external devices connected to the mobile terminal 100. The interface unit 160 connects a wired/wireless headset port, an external charger port, a wired/wireless data port, a memory card port, and a device equipped with an identification module. It may include at least one of a port, an audio input/output (I/O) port, an input/output (video I/O) port, and an earphone port. The mobile terminal 100 may perform appropriate control related to the connected external device in response to the connection of the external device to the interface unit 160.
또한, 메모리(170)는 이동 단말기(100)의 다양한 기능을 지원하는 데이터를 저장한다. 메모리(170)는 이동 단말기(100)에서 구동되는 다수의 응용 프로그램(application program 또는 애플리케이션(application)), 이동 단말기(100)의 동작을 위한 데이터들, 명령어들을 저장할 수 있다. 이러한 응용 프로그램 중 적어도 일부는, 무선 통신을 통해 외부 서버로부터 다운로드 될 수 있다. 또한 이러한 응용 프로그램 중 적어도 일부는, 이동 단말기(100)의 기본적인 기능(예를 들어, 전화 착신, 발신 기능, 메시지 수신, 발신 기능)을 위하여 출고 당시부터 이동 단말기(100)상에 존재할 수 있다. 한편, 응용 프로그램은, 메모리(170)에 저장되고, 이동 단말기(100) 상에 설치되어, 제어부(180)에 의하여 상기 이동 단말기의 동작(또는 기능)을 수행하도록 구동될 수 있다.In addition, the memory 170 stores data supporting various functions of the mobile terminal 100. The memory 170 may store a plurality of application programs (application programs or applications) driven by the mobile terminal 100, data for operation of the mobile terminal 100, and commands. At least some of these application programs may be downloaded from an external server through wireless communication. In addition, at least some of these application programs may exist on the mobile terminal 100 from the time of delivery for basic functions of the mobile terminal 100 (eg, incoming calls, outgoing functions, message reception, and outgoing functions). Meanwhile, the application program may be stored in the memory 170, installed on the mobile terminal 100, and driven by the controller 180 to perform an operation (or function) of the mobile terminal.
제어부(180)는 상기 응용 프로그램과 관련된 동작 외에도, 통상적으로 이동 단말기(100)의 전반적인 동작을 제어한다. 제어부(180)는 위에서 살펴본 구성요소들을 통해 입력 또는 출력되는 신호, 데이터, 정보 등을 처리하거나 메모리(170)에 저장된 응용 프로그램을 구동함으로써, 사용자에게 적절한 정보 또는 기능을 제공 또는 처리할 수 있다.In addition to the operation related to the application program, the controller 180 generally controls the overall operation of the mobile terminal 100. The controller 180 may provide or process appropriate information or functions to a user by processing signals, data, information, etc. input or output through the above-described components or by driving an application program stored in the memory 170.
또한, 제어부(180)는 메모리(170)에 저장된 응용 프로그램을 구동하기 위하여, 도 1와 함께 살펴본 구성요소들 중 적어도 일부를 제어할 수 있다. 나아가, 제어부(180)는 상기 응용 프로그램의 구동을 위하여, 이동 단말기(100)에 포함된 구성요소들 중 적어도 둘 이상을 서로 조합하여 동작시킬 수 있다.In addition, the controller 180 may control at least some of the components described with reference to FIG. 1 in order to drive the application program stored in the memory 170. Further, in order to drive the application program, the controller 180 may operate by combining at least two or more of the components included in the mobile terminal 100 with each other.
전원공급부(190)는 제어부(180)의 제어 하에서, 외부의 전원, 내부의 전원을 인가 받아 이동 단말기(100)에 포함된 각 구성요소들에 전원을 공급한다. 이러한 전원공급부(190)는 배터리를 포함하며, 상기 배터리는 내장형 배터리 또는 교체가능한 형태의 배터리가 될 수 있다.The power supply unit 190 receives external power and internal power under the control of the controller 180 and supplies power to each of the components included in the mobile terminal 100. The power supply unit 190 includes a battery, and the battery may be a built-in battery or a replaceable battery.
상기 각 구성요소들 중 적어도 일부는, 이하에서 설명되는 다양한 실시예들에 따른 이동 단말기의 동작, 제어, 또는 제어방법을 구현하기 위하여 서로 협력하여 동작할 수 있다. 또한, 상기 이동 단말기의 동작, 제어, 또는 제어방법은 상기 메모리(170)에 저장된 적어도 하나의 응용 프로그램의 구동에 의하여 이동 단말기 상에서 구현될 수 있다. At least some of the components may operate in cooperation with each other in order to implement an operation, control, or control method of a mobile terminal according to various embodiments described below. In addition, the operation, control, or control method of the mobile terminal may be implemented on the mobile terminal by driving at least one application program stored in the memory 170.
도 2는 본 명세서의 일 실시예에 따른 사용자 인증 방법을 개념적으로 설명하기 위한 도면이다. 2 is a diagram for conceptually explaining a user authentication method according to an embodiment of the present specification.
도 2a를 참조하면, 사용자 인증 장치(200)는 접촉판(220)과 카메라(230)를 포함할 수 있다. 접촉판(220)은 카메라(230)의 상부에 위치할 수 있다. 카메라(230)는 접촉판(220)의 하부에서 렌즈가 접촉판(220)의 하단을 바라보는 방향으로 위치될 수 있다. Referring to FIG. 2A, the user authentication device 200 may include a contact plate 220 and a camera 230. The contact plate 220 may be positioned above the camera 230. The camera 230 may be positioned under the contact plate 220 in a direction in which the lens faces the lower end of the contact plate 220.
여기서, 접촉판(220)는 투명도를 가지는 물체, 예를 들면 유리판일 수 있다. 카메라(230)는 적외선 카메라를 포함할 수 있으며, 촬영 대상이 생체인 경우 촬영 대상에 위치되는 정맥에 대한 정보가 포함되는 이미지를 촬영할 수 있다. Here, the contact plate 220 may be an object having transparency, for example, a glass plate. The camera 230 may include an infrared camera, and when the object to be photographed is a living body, the camera 230 may capture an image including information on a vein located in the object to be photographed.
사용자 인증 장치(200)는 접촉판(220)으로부터 특정 거리만큼 떨어져 위치하는 사용자 신체의 일부, 예를 들어 도 2a에 도시된 것과 같은 손(210)의 적어도 일부의 이미지(예: 손바닥 이미지)를 획득할 수 있다. 한편, 사용자 인증 장치(200)에 의한 사용자 인증에 이용될수 있는 사용자 신체의 일부는 손(210)에 제한되는 것은 아니며 손가락, 손바닥, 손등, 손목, 발등 또는 발목과 같이 정맥이 위치하는 다양한 신체가 이용될 수도 있다. The user authentication device 200 displays a part of the user's body located a specific distance away from the contact plate 220, for example, at least a part of the image of the hand 210 as shown in FIG. 2A (for example, a palm image). Can be obtained. On the other hand, a part of the user's body that can be used for user authentication by the user authentication device 200 is not limited to the hand 210, and various bodies in which veins are located, such as fingers, palms, backs of hands, wrists, insteps, or ankles. It can also be used.
획득된 이미지에는 손(210)에 위치되는 사용자의 정맥에 대한 정보, 예를 들면 정맥의 패턴(또는 배치, 또는 분포)에 대한 정보가 포함될 수 있다. 이와 관련된 구체적인 예는 도 4를 참조할 수 있다. The acquired image may include information on a vein of a user positioned on the hand 210, for example, information on a vein pattern (or arrangement, or distribution). For a specific example related to this, refer to FIG. 4.
실시예에 따라, 사용자 인증 장치(200)는 카메라(230)를 통한 적어도 한번 이상의 촬영을 통해 적어도 하나의 이미지를 획득할 수 있다. 이미지는 촬영 횟수에 대응하여 획득될 수 있는데, 예를 들어 2번의 촬영이 수행되는 경우 2개의 이미지가 획득될 수 있다. 이러한 이미지의 촬영 횟수는 기지정되어 있을 수 있다. According to an embodiment, the user authentication device 200 may acquire at least one image through at least one photographing through the camera 230. The image may be acquired according to the number of times of capturing. For example, when two capturing is performed, two images may be obtained. The number of times such an image is captured may be predetermined.
사용자 인증 장치(200)는 획득된 이미지가 기저장된 이미지에 대응하는지 여부를 기초로 사용자 인증을 수행할 수 있다. 구체적으로 예를 들면, 사용자 인증 장치(200)는 획득된 이미지의 정맥 패턴이 기저장된 이미지의 정맥 패턴(또는 정맥 분포)과 일치하는지 여부를 확인할 수 있다. 사용자 인증 장치(200)는 획득된 이미지의 정맥 패턴이 저장된 이미지의 정맥 패턴과 일치하는 경우 사용자 인증이 성공한 것으로 결정할 수 있다. The user authentication device 200 may perform user authentication based on whether the acquired image corresponds to a pre-stored image. Specifically, for example, the user authentication device 200 may check whether the vein pattern of the acquired image matches the vein pattern (or vein distribution) of the previously stored image. When the vein pattern of the acquired image matches the vein pattern of the stored image, the user authentication device 200 may determine that the user authentication is successful.
한편, 기저장된 이미지는 사용자 인증의 정답값으로 활용되는 것으로서, 사용자 인증을 위한 사용자 등록시 사용자로부터 획득되어 저장된 정보일 수 있다. Meanwhile, the previously stored image is used as a correct answer value for user authentication, and may be information acquired and stored from a user when a user is registered for user authentication.
실시예에 따라, 이미지는 복수개가 획득될 수도 있는데, 이러한 경우 사용자 인증 장치(200)는 복수의 이미지의 평균 이미지을 구하고, 이를 저장된 이미지와 비교하여 사용자 인증을 수행할 수 있다. 예를 들어, 복수의 이미지를 중첩하여 평균 이미지를 구하고, 평균 이미지의 정맥 패턴이 저장된 이미지의 정맥 패턴과 일치하는 경우 사용자 인증 장치(200)는 사용자 인증이 성공한 것으로 결정할 수 있다.Depending on the embodiment, a plurality of images may be obtained. In this case, the user authentication device 200 may obtain an average image of the plurality of images, and compare the images with the stored images to perform user authentication. For example, when an average image is obtained by overlapping a plurality of images, and the vein pattern of the average image matches the vein pattern of the stored image, the user authentication device 200 may determine that the user authentication is successful.
경우에 따라, 복수의 이미지 각각이 저장된 이미지와 비교될 수도 있다. 이러한 경우 일치하는 이미지의 개수가 기지정된 개수 이상이 되는지 여부를 기초로 사용자 인증이 수행될 수 있다. 예를 들어, 복수의 이미지 중 대응하는 이미지가 과반수인 경우 사용자 인증이 성공한 것으로 결정할 수 있다. 다른 예를 들면 복수의 이미지 모두 저장된 이미지와 대응하는 경우 사용자 인증이 성공한 것으로 결정할 수 있다. In some cases, each of the plurality of images may be compared with the stored image. In this case, user authentication may be performed based on whether the number of matching images is greater than or equal to a predetermined number. For example, if the corresponding image among the plurality of images is a majority, it may be determined that user authentication has been successful. For another example, when all of the plurality of images correspond to the stored image, it may be determined that user authentication has been successful.
이와 같이, 접촉판(220)과 특정 거리 이상 이격된 상태에서 촬영된 이미지의 정맥은 외부 대상에 의해 압력이 가해지지 않은 상태일 수 있다. 이에 따라 도 2a와 같은 상태에서 획득된 이미지를 이용한 사용자 인증은, 사용자 고유의 특성인 정맥의 패턴을 이용한 것으로 사용자의 동일성 파악을 위한 인증일 수 있다.In this way, the vein of the image captured while being spaced apart from the contact plate 220 by a specific distance or more may be in a state in which pressure is not applied by an external object. Accordingly, the user authentication using the image obtained in the state as shown in FIG. 2A may be authentication for identifying the identity of the user by using a vein pattern, which is a characteristic of a user.
도 2b를 참조하면, 사용자 인증 장치(200)는 접촉판(220)과 접촉한 상태의 손(210)에 대한 이미지를 획득할 수 있다. 접촉판(220)과 접촉한 상태의 손(210)에는 압력이 가해질 수 있어 손(210)의 정맥에 변화가 일어날 수 있으며, 사용자 인증 장치(200)는 이러한 변화가 일어난 정맥과 관련된 손(210)의 이미지를 획득할 수 있다. Referring to FIG. 2B, the user authentication device 200 may acquire an image of the hand 210 in contact with the contact plate 220. Pressure may be applied to the hand 210 in contact with the contact plate 220, so that a change may occur in the vein of the hand 210, and the user authentication device 200 ) Can be acquired.
사용자 인증 장치(200)는 접촉판(220)과 접촉 전의 이미지, 즉 도 2a의 이미지와 접촉판(220)과 접촉한 상태의 손(210)에 대한 이미지의 차이를 산출할 수 있다. 이를 기초로 사용자 인증 장치(200)는 접촉판(220)의 접촉 전후의 정맥의 변화를 확인할 수 있다. The user authentication device 200 may calculate a difference between the contact plate 220 and the image before contact, that is, the image of FIG. 2A and the image of the hand 210 in contact with the contact plate 220. Based on this, the user authentication device 200 may check changes in veins before and after contact of the contact plate 220.
사용자 인증 장치(200)는 확인된 정맥의 변화가 기저장된 정맥의 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행할 수 있다. 구체적으로, 사용자 인증 장치(200)는 확인된 정맥의 변화가 기저장된 정맥의 변화 정보에 대응하는 경우 사용자 인증이 성공한 것으로 결정할 수 있다. 예를 들어, 사용자 인증 장치(200)는 확인된 정맥의 변화와 기저장된 정맥의 변화 정보와의 유사도가 특정 값 이상인 경우 사용자 인증이 성공한 것으로 결정할 수 있다. The user authentication apparatus 200 may perform user authentication based on checking whether the confirmed vein change corresponds to pre-stored vein change information. Specifically, the user authentication apparatus 200 may determine that the user authentication is successful when the confirmed vein change corresponds to pre-stored vein change information. For example, the user authentication apparatus 200 may determine that the user authentication is successful when the similarity between the confirmed vein change and the previously stored vein change information is greater than or equal to a specific value.
정맥의 변화는 정맥의 위치 변화 또는 정맥의 두께 변화를 포함할 수 있는데, 이와 관련된 구체적인 예는 도 4를 참조할 수 있다. The change in the vein may include a change in the position of the vein or a change in the thickness of the vein, and a specific example related thereto may be referred to FIG. 4.
이와 같은 정맥의 변화는 정맥을 흐르는 혈액이 있기 때문에 일어나는 것일 수 있다. 즉, 사용자 인증을 수행하고 있는 대상이 살아있는 생명체이기 때문에 측정되는 것일 수 있다. 따라서, 정맥의 변화를 이용하여서는 사용자 인증 대상이 생명체인지, 즉 생동성을 확인할 수 있다. 다시 말해, 만약 정맥의 변화를 이용한 사용자 인증을 이용하면, 정맥 패턴이 일치하더라도 위조된 가짜 모형, 즉 더미(dummy)를 가려낼 수 있어 사용자 인증의 보안성이 향상될 수 있다. These changes in the veins may be due to the presence of blood flowing through the veins. That is, it may be measured because the object performing user authentication is a living organism. Therefore, by using the change of vein, it is possible to check whether the user authentication target is a living being, that is, bioactivity. In other words, if the user authentication using the change of vein is used, even if the vein pattern matches, a forged fake model, that is, a dummy can be screened out, so that the security of user authentication can be improved.
도 3은 본 명세서의 일 실시예에 따른 사용자 인증 장치에 접촉된 사용자 신체의 특정 영역의 예를 나타내는 도면이다. 구체적으로, 도 3은 접촉판(320)에 사용자의 손(310)이 접촉되는 경우의 예를 나타낸다. 3 is a diagram illustrating an example of a specific area of a user's body in contact with a user authentication device according to an exemplary embodiment of the present specification. Specifically, FIG. 3 shows an example in which the user's hand 310 is in contact with the contact plate 320.
도 3을 참조하면, 접촉판(320)은 투명도가 소정 값 이상인 물질(예: 유리판)로 구성될 수 있는데, 이를 기초로 접촉판(320) 일면(예: 상면(또는 상측 면))에 접촉된 대상은 접촉판(320)의 타면(예: 하면(또는 하측 면))에서 확인될 수 있다. Referring to FIG. 3, the contact plate 320 may be made of a material (eg, a glass plate) having a transparency greater than a predetermined value, and contact with one surface of the contact plate 320 (eg, an upper surface (or upper surface)) based on this. The object may be identified on the other surface (eg, the lower surface (or lower surface)) of the contact plate 320.
이 때, 도 2를 기준으로 부연설명 하면, 상면은 도 2a 및 도 2b에서 손(210)이 접촉되는 면이고, 하면은 카메라(230)가 위치되는 쪽의 면일 수 있다.In this case, if further described with reference to FIG. 2, the upper surface may be a surface to which the hand 210 is in contact in FIGS. 2A and 2B, and the lower surface may be a surface on which the camera 230 is positioned.
도 3을 기준으로 설명하면, 도 3은 접촉판(320)의 하면에서 바라본 형태를 나타내는 것으로 손(310)은 접촉판(320)의 상면에 접촉된 상태일 수 있다. 접촉판(320)이 투명도를 가짐으로써 접촉판(320)의 상면에 접촉된 손(310)이 접촉판(320)의 하면에서도 확인될 수 있다. Referring to FIG. 3, FIG. 3 shows a shape viewed from the lower surface of the contact plate 320, and the hand 310 may be in a state in contact with the upper surface of the contact plate 320. Since the contact plate 320 has transparency, the hand 310 in contact with the upper surface of the contact plate 320 can be seen also on the lower surface of the contact plate 320.
접촉판(320)의 하면 방향에는 도 2에서 도시된 바와 같이 카메라가 위치될 수 있다. 이에 따라 카메라는 접촉판(320)에 접촉한 손(310)에 대한 이미지를 획득할 수 있다. As shown in FIG. 2, a camera may be positioned in the direction of the lower surface of the contact plate 320. Accordingly, the camera may acquire an image of the hand 310 in contact with the contact plate 320.
실시예에서, 카메라는 손(310)의 적어도 일부에 대한 이미지를 획득할 수 있다. 예를 들면, 카메라는 손(310) 중 손가락 부분은 제외한 손바닥(330)에 대한 이미지를 획득할 수 있다. 다만 이에 제한되는 것은 아니고 손바닥(330) 중 일부에 대한 이미지를 획득하거나 손바닥(330)과 손가락 전체에 대한 이미지를 획득할 수도 있다. In an embodiment, the camera may acquire an image of at least a portion of the hand 310. For example, the camera may acquire an image of the palm 330 of the hand 310 excluding the finger portion. However, the present invention is not limited thereto, and an image of a part of the palm 330 may be obtained, or an image of the palm 330 and the entire finger may be obtained.
카메라는 정맥의 촬영이 가능한 장치(예: 적외선 카메라)일 수 있다. 이를 기초로 손바닥(330)의 정맥이 나타나는 이미지가 획득될 수 있다. 획득되는 이미지에는 예를 들면 정맥의 패턴, 정맥의 위치 및 정맥의 두께 중 적어도 하나에 대한 정보가 포함될 수 있으며 이에 대한 보다 구체적인 예는 후술되는 도 4를 참조할 수 있다. The camera may be a device capable of photographing veins (eg, an infrared camera). Based on this, an image in which veins of the palm 330 appear may be obtained. The acquired image may include, for example, information on at least one of a vein pattern, a vein position, and a vein thickness, and a more detailed example thereof may be referred to FIG. 4 to be described later.
한편, 도시하지는 않았으나, 카메라는 접촉판(320)과 이격된 상태의 손(310)의 이미지 또는 손바닥(330)의 이미지도 획득할 수 있다.Meanwhile, although not shown, the camera may also acquire an image of the hand 310 or the palm 330 in a state spaced apart from the contact plate 320.
도 4는 본 명세서의 일 실시예에 따른 사용자 인증 장치에 의해 획득되는 정맥의 변화에 대한 정보를 설명하기 위한 도면이다. 구체적으로, 도 4a는 접촉판으로부터 손바닥이 특정 거리만큼 이격된 상태에서 획득되는 이미지의 예를 나타낸다. 도 4b는 접촉판에 손바닥이 접촉된 상태에서 획득되는 이미지에 나타날 수 있는 정맥의 변화를 설명하기 위한 도면이다. 4 is a diagram for explaining information on a change in vein acquired by a user authentication device according to an embodiment of the present specification. Specifically, FIG. 4A shows an example of an image obtained when a palm is separated from a contact plate by a specific distance. FIG. 4B is a diagram for explaining changes in veins that may appear in an image obtained when a palm is in contact with a contact plate.
도 4a를 참조하면, 이미지에는 정맥에 대한 정보가 포함됨을 알 수 있다. 구체적으로 도 4a는 손바닥에 위치되는 정맥 이미지 및 손바닥 이미지를 나타낸다. 정맥은 불규칙적인 선의 형태로 도시된 바와 같이 나타날 수 있다. Referring to FIG. 4A, it can be seen that information on veins is included in the image. Specifically, FIG. 4A shows a vein image and a palm image positioned on the palm. The veins may appear as shown in the form of irregular lines.
한편, 이와 같은 정맥의 패턴(또는 분포)은 사람마다 다를 수 있기 때문에 이에 대한 정보를 기초로 사용자 인증이 수행될 수 있다. 예를 들면 사용자 등록을 통해 정맥 패턴이 사용자 인증 장치에 미리 등록(또는 저장)된 경우, 등록된 정맥 패턴과 도 4a의 이미지 내에 나타나는 정맥 패턴의 유사도를 확인함에 기초하여 사용자 인증이 수행될 수 있다. Meanwhile, since the vein pattern (or distribution) may vary from person to person, user authentication may be performed based on the information. For example, when a vein pattern is previously registered (or stored) in the user authentication device through user registration, user authentication may be performed based on checking the similarity between the registered vein pattern and the vein pattern appearing in the image of FIG. 4A. .
이미지 사이의 유사도 판단과 관련하여서는 관련된 다양한 기술이 이용될 수 있으며 이에 대해서는 통상의 기술자에게 용이한바 구체적인 설명은 생략하겠다. Various technologies related to the determination of the similarity between images may be used, and a detailed description thereof will be omitted since it is easy for a person skilled in the art.
도 4b를 참조하면, 정맥의 제1 라인(410)과 제2 라인(430)은 도 4a에서 획득된 정맥 이미지의 일부로서 변화가 일어나기 전의 라인일 수 있다. 제1 라인(410)과 제2 라인(430)은 접촉판의 접촉에 의해 변화가 일어날 수 있다. 구체적으로, 정맥의 제1 라인(410)과 제2 라인(430)은 접촉판의 접촉에 의해 정맥의 위치 및 두께 중 적어도 일부에 대한 변화가 일어날 수 있다. Referring to FIG. 4B, the first line 410 and the second line 430 of the vein are part of the vein image obtained in FIG. 4A and may be lines before change occurs. Changes may occur between the first line 410 and the second line 430 by contact with the contact plate. Specifically, the first line 410 and the second line 430 of the vein may change at least some of the position and thickness of the vein by contact with the contact plate.
예를 들어, 제1 라인(410)과 같이, 접촉판에 손바닥이 접촉하게 되면 제1 라인(410)에 대응하는 정맥의 위치가 제3 라인(420)에 나타나는 바와 같이 변경될 수 있다. 제2 라인(430)의 경우, 접촉판에 손바닥이 접촉하게 되면 제2 라인(430)에 대응하는 정맥의 위치 및 두께가 제4 라인(420)에 나타나는 바와 같이 변경될 수 있다. 도시하지는 않았으나, 정맥의 라인은 위치는 변화하지 않고 두께만 변화하는 경우도 일어날 수 있다. For example, like the first line 410, when the palm of the hand contacts the contact plate, the position of the vein corresponding to the first line 410 may be changed as indicated by the third line 420. In the case of the second line 430, when the palm of the hand contacts the contact plate, the position and thickness of the vein corresponding to the second line 430 may be changed as shown in the fourth line 420. Although not shown, the position of the vein line does not change and only the thickness may change.
이와 같은 정맥의 변화는 정맥이 탄성을 가지는 혈관이라는 점 또는 정맥이 혈액이 이동하는 통로라는 점에 기초하여 일어나는 것으로 사용자가 생명체인 경우에 일어날 수 있다. Such a change in vein occurs based on the fact that the vein is a blood vessel having elasticity or that the vein is a path through which blood flows, and may occur when the user is a living person.
또한, 접촉(또는 압력)에 의해 정맥이 변화하는 경향(이하, 정맥 변화 정보)은 사용자 고유의 생체 특성(예: 혈관의 탄성)에 기초하여 결정되는 것이기 때문에 사람마다 상이할 수 있다. In addition, since the tendency of veins to change due to contact (or pressure) (hereinafter, vein change information) is determined based on a user's unique biometric characteristics (eg, elasticity of blood vessels), it may differ from person to person.
이와 같은 정맥의 위치 또는 두께, 또는 정맥의 변화 양상에 대한 정맥 변화 정보는 사용자 인증을 위한 사용자 등록 과정에서 미리 획득되어 저장될 수 있다. 이를 기초로 사용자 인증 장치는 사용자 인증 과정에서 획득된 이미지를 통해 정맥의 변화 양상을 확인하고 이를 저장된 정맥의 변화 정보와 비교하여 사용자 인증을 수행할 수 있다. The vein change information on the location or thickness of the vein, or the vein change pattern may be obtained and stored in advance during a user registration process for user authentication. Based on this, the user authentication apparatus may perform user authentication by checking a vein change pattern through an image acquired in the user authentication process and comparing the vein change information with the stored vein change information.
접촉판에 대한 접촉에 의한 정맥의 변화에 기반한 사용자 인증은 이미지가 획득되기만 하면 수행될 수 있는 것으로, 보다 빠른 속도(예: 100ms 이하)로 이루어질 수 있다. User authentication based on changes in veins caused by contact with the contact plate can be performed as long as an image is acquired, and can be performed at a faster speed (eg, 100 ms or less).
도 5는 본 명세서의 일 실시예에 따른 사용자 인증 장치의 기능 블록도이다.5 is a functional block diagram of a user authentication device according to an embodiment of the present specification.
도 5를 참조하면, 사용자 인증 장치(500)는 접촉판(510), 카메라(520), 프로세서(530)를 포함할 수 있다. Referring to FIG. 5, the user authentication device 500 may include a contact plate 510, a camera 520, and a processor 530.
접촉판(510)는 정맥을 포함하는 사용자 신체의 특정 영역이 접촉되는 구성일 수 있다. 접촉판(510)은 특정 값의 투명도를 가질 수 있다. 이를 기초로 사용자의 신체의 특정 영역이 접촉판(510)에 접촉하게 되면 접촉된 부분이 아닌 반대 부분(또는 대향하는 부분)에서 접촉판(510)에 눌려진 특정 영역이 확인될 수 있다. 이에 대해서는 도 3을 통해 상술한 바 구체적인 설명은 생략하겠다. The contact plate 510 may have a configuration in which a specific area of the user's body including veins comes into contact. The contact plate 510 may have a specific value of transparency. Based on this, when a specific area of the user's body comes into contact with the contact plate 510, a specific area pressed by the contact plate 510 at an opposite portion (or an opposite portion) rather than the contacted portion may be identified. This is described above with reference to FIG. 3, and a detailed description thereof will be omitted.
접촉판(510)은 예를 들면 유리판 또는 아크릴판을 포함할 수 있으나, 이에 제한되는 것은 아니고 투명도를 가지는 다양한 물질로 구성될 수 있다. The contact plate 510 may include, for example, a glass plate or an acrylic plate, but is not limited thereto and may be made of various materials having transparency.
접촉판(510)은 매끄럽고 납작한 직사각형 형태의 구조체일 수 있으며, 사용자 신체의 특정 영역보다 큰 크기를 가질 수 있다. 예를 들어, 사용자 신체의 특정 영역이 손바닥인 경우, 접촉판(510)의 크기는 손바닥보다 클 수 있다. The contact plate 510 may be a smooth and flat rectangular structure, and may have a size larger than a specific area of the user's body. For example, when a specific area of the user's body is a palm, the size of the contact plate 510 may be larger than that of the palm.
실시예에 따라, 접촉판(510)은 사용자 신체의 접촉을 감지하는 센서를 구비할 수 있다. 예를 들어 센서는 터치 센서를 포함할 수 있다. 이러한 경우, 사용자 신체의 특정 영역이 접촉판(510)에 접촉되었는지 여부가 센서를 통해 감지될 수 있다. According to an embodiment, the contact plate 510 may include a sensor that senses a user's body contact. For example, the sensor may include a touch sensor. In this case, whether a specific area of the user's body is in contact with the contact plate 510 may be detected through the sensor.
도 5에서는 접촉판(510)이 사용자 인증 장치(500) 내에 포함되는 것으로 도시하였으나, 이에 제한되는 것은 아니고 접촉판(510)은 사용자 인증 장치(500)와 연결가능한 별도의 구성으로 구현될 수도 있다. In FIG. 5, the contact plate 510 is shown to be included in the user authentication device 500, but is not limited thereto, and the contact plate 510 may be implemented as a separate configuration connectable to the user authentication device 500. .
카메라(520)는 접촉판(510)에 접촉하는 사용자의 특정 영역을 촬영하여 이미지를 생성할 수 있다. 카메라(520)는 예를 들면 적외선 카메라일 수 있고, 이를 기초로 특정 영역을 촬영하였을 때 정맥이 이미지 내에 드러날 수 있다. The camera 520 may generate an image by photographing a specific area of the user in contact with the contact plate 510. The camera 520 may be, for example, an infrared camera, and when a specific area is photographed based on this, veins may be revealed in the image.
예를 들어 카메라(520)는 사람의 맨눈으로는 정맥이 자세히 관찰되지 않는 사용자의 손목 또는 손바닥을 촬영하게 되면, 손목 또는 손바닥을 지나는 정맥이 나타나는 이미지를 생성할 수 있다. 이와 관련된 구체적인 원리는 통상의 기술자에게 용이한바 자세한 설명은 생략하겠다. For example, when the camera 520 photographs a user's wrist or palm whose veins are not observed in detail with the human's bare eye, the camera 520 may generate an image in which veins passing through the wrist or palm appear. The specific principle related to this is easy for a person skilled in the art, so a detailed description will be omitted.
카메라(520)는 접촉판(510)과 특정 거리 이상 이격되어 위치할 수 있다. 카메라(520)의 위치는 접촉판(510)의 일단일 수 있으며, 이는 사용자의 특정 영역이 접촉되는 타단에 대향할 수 있다. The camera 520 may be positioned to be spaced apart from the contact plate 510 by a specific distance or more. The position of the camera 520 may be one end of the contact plate 510, which may face the other end of the user's specific area.
프로세서(530)는 접촉판(510)으로부터 특정 거리 이상 이격된 사용자 신체의 특정 영역에 대한 제1 이미지를 획득할 수 있다. 구체적으로, 프로세서(530)는 카메라(520)를 이용하여 접촉판(510)으로부터 특정 거리 이상 이격된 사용자 신체의 특정 영역의 정맥 이미지를 포함하는 제1 이미지를 획득할 수 있다. 구체적으로 제1 이미지는 특정 영역에 대한 이미지이되, 특정 영역에 위치되는 사용자의 정맥에 대한 정보를 포함하는 이미지일 수 있다. 이 때의 정맥에 대한 정보는 압력이 가해지지 않은 기본적인 상태의 정맥의 패턴, 위치 또는 굵기에 대한 정보일 수 있다. The processor 530 may acquire a first image of a specific area of the user's body spaced apart from the contact plate 510 by a specific distance or more. Specifically, the processor 530 may acquire a first image including a vein image of a specific region of the user's body spaced apart from the contact plate 510 by a specific distance or more using the camera 520. Specifically, the first image is an image for a specific area, but may be an image including information on a user's vein located in the specific area. The information on the vein at this time may be information on the pattern, location, or thickness of the vein in a basic state in which pressure is not applied.
실시예에 따라, 프로세서(530)는 접촉판(510)으로부터 특정 거리 이상 이격된 사용자 신체의 특정 영역을 특정 시간 간격으로 복수회 촬영하여 복수의 이미지를 획득할 수 있다. According to an embodiment, the processor 530 may acquire a plurality of images by photographing a specific region of the user's body spaced apart from the contact plate 510 by a specific distance or more at specific time intervals.
예를 들면 프로세서(530)는 접촉판(510)을 향해 다가오는 사용자의 손바닥을 3회 촬영하여 3개의 이미지를 획득할 수 있다. 최초 촬영 시점은 10cm 이격된 경우일 수 있으며, 0.1초 간격을 2회 더 촬영할 수 있다. 이러한 경우 1번째 이미지는 손바닥이 접촉판(510)으로부터 10cm 이격된 경우, 2번째 이미지는 8cm 이격된 경우, 3번째 이미지는 6cm 이격된 경우일 수 있다. 다른 예를 들면, 프로세서(530)는 접촉판(510)으로부터 10cm 이격된 위치의 손바닥을 0.1초 간격으로 3회 촬영하여 3개의 이미지를 획득할 수 있다. For example, the processor 530 may acquire three images by photographing the palm of the user approaching the contact plate 510 three times. The initial photographing time may be a case that is 10 cm apart, and two more photographs may be taken at 0.1 second intervals. In this case, the first image may be a case where the palm is 10 cm apart from the contact plate 510, the second image may be 8 cm apart, and the third image may be 6 cm apart. For another example, the processor 530 may acquire three images by photographing the palm of the hand at a distance of 10 cm from the contact plate 510 three times at 0.1 second intervals.
실시예에서, 프로세서(530)는 제1 이미지가 기저장된 사용자 정맥 이미지에 대응하는지 여부를 확인할 수 있다. 기저장된 사용자 정맥 이미지는 사용자 인증과 관련하여 사용자를 등록할 때에 사용자로부터 획득되어 사용자 인증 장치(500)에 저장된 정보일 수 있다. 기저장된 사용자 정맥 이미지는 제1 이미지와 마찬가지로 접촉판(510)에 접촉되지 않은 상태의 사용자 신체의 특정 영역에 대한 이미지일 수 있다. In an embodiment, the processor 530 may check whether the first image corresponds to a pre-stored user vein image. The pre-stored user vein image may be information acquired from a user when registering a user in connection with user authentication and stored in the user authentication device 500. Like the first image, the pre-stored user vein image may be an image of a specific area of the user's body in a state that is not in contact with the contact plate 510.
프로세서(530)는 제1 이미지와 기저장된 사용자 정맥 이미지가 대응하는 경우 사용자 인증이 1차적으로 성공한 것으로 결정할 수 있다. 실시예에서, 프로세서(530)는 사용자 인증이 1차적으로 성공한 경우 사용자 인증이 성공하였음을 나타내는 알림(notification)을 제공할 수 있다. 이와 관련된 구체적인 예는 도 13을 참조할 수 있다. When the first image and the previously stored user vein image correspond to each other, the processor 530 may determine that the user authentication is primarily successful. In an embodiment, when the user authentication is primarily successful, the processor 530 may provide a notification indicating that the user authentication is successful. For a specific example related to this, refer to FIG. 13.
경우에 따라, 프로세서(530)는 1차적인 사용자 인증이 이루어진 경우에 후술하는 정맥의 변화를 이용한 사용자 인증을 수행할 수 있으나, 이에 제한되는 것은 아니며, 예를 들어 1차적인 사용자 인증 없이 후술되는 정맥의 변화를 이용한 인증을 통해서 사용자 인증을 수행할 수도 있다. In some cases, the processor 530 may perform user authentication using a vein change to be described later when primary user authentication is performed, but is not limited thereto, for example, without primary user authentication. User authentication can also be performed through authentication using vein changes.
여기서, 본 명세서에서는 대체적으로 사용자 신체의 특정 영역을 손바닥으로 예시하여 설명하겠으나, 이에 제한되지 않으며 예를 들어 특정 영역은 손목, 손가락, 손등, 발등 및 발가락 중 적어도 하나의 영역이 될 수도 있다. Herein, in the present specification, a specific region of the user's body will be described as a palm, but is not limited thereto, and for example, the specific region may be at least one of a wrist, a finger, a back of a hand, an instep, and a toe.
프로세서(530)는 접촉판(510)에 접촉된 사용자 신체의 특정 영역에 대한 제2 이미지를 획득할 수 있다. 구체적으로, 프로세서(530)는 카메라(520)를 통해 접촉판(510)에 접촉된 사용자 신체의 특정 영역에 대한 제2 이미지를 획득할 수 있다. The processor 530 may acquire a second image of a specific area of the user's body in contact with the contact plate 510. Specifically, the processor 530 may acquire a second image of a specific area of the user's body that has contacted the contact plate 510 through the camera 520.
실시예에서, 프로세서는 접촉판의 센서를 기초로 접촉판에 사용자 신체의 특정 영역이 접촉했는지 여부를 확인할 수 있다. 프로세서는 접촉판에 특정 영역의 접촉이 확인된 경우 카메라를 이용하여 접촉판에 접촉된 특정 영역을 촬영함으로써 제2 이미지를 획득할 수 있다. In an embodiment, the processor may check whether a specific region of the user's body has contacted the contact plate based on the sensor of the contact plate. When a contact of a specific area on the contact plate is confirmed, the processor may acquire a second image by photographing a specific area in contact with the contact plate using a camera.
제2 이미지에는 정맥 이미지가 포함될 수 있다. 이 때 정맥 이미지는 제1 이미지에서 정맥의 변화에 대한 정보가 포함된 이미지일 수 있다. 정맥의 변화는 예를 들면 정맥의 위치 또는 두께(또는 굵기)를 포함할 수 있다. The second image may include a vein image. In this case, the vein image may be an image including information on a change in vein in the first image. Variation of the vein may include, for example, the location or thickness (or thickness) of the vein.
구체적으로 설명하면, 사용자 신체의 특정 영역에는 정맥이 지나가게 되는데, 특정 영역이 접촉판(510)에 접촉하게되면 정맥에 압력이 가해져 정맥에 변화가 발생할 수 있다. 이에 따라, 접촉판(510)에 접촉한 특정 영역의 이미지인, 제2 이미지에 포함된 정맥 이미지는 특정 영역에 위치하는 정맥에 대한 것이지만 압력에 의해 위치 또는 두께가 변화된 정맥의 이미지일 수 있다. 이와 같이 위치 또는 두께의 변화는 실시예에 따라 정맥 변화 정보로 지칭될 수 있다. Specifically, a vein passes through a specific area of the user's body. When the specific area contacts the contact plate 510, pressure is applied to the vein, which may cause a change in the vein. Accordingly, the vein image included in the second image, which is an image of a specific area in contact with the contact plate 510, is for a vein located in a specific area, but may be an image of a vein whose position or thickness is changed by pressure. In this way, the change in position or thickness may be referred to as vein change information according to an embodiment.
프로세서(530)는 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 접촉판의 접촉 유무에 따른 정맥의 변화를 확인할 수 있다. 구체적으로, 프로세서(530)는 제1 이미지와 제2 이미지의 차이를 기초로 정맥의 변화를 확인할 수 있다. The processor 530 may check a change in the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image. Specifically, the processor 530 may check a change in vein based on the difference between the first image and the second image.
실시예에서, 프로세서(530)는 제1 이미지에 포함된 정맥 라인과 제2 이미지에 포함된 정맥 라인에 대한 정보를 이용하여 접촉판(510)과 특정 영역의 접촉에 의한 정맥의 두께 변화를 확인할 수 있다. 구체적으로, 프로세서(530)는 제1 이미지에 포함된 정맥 라인과 제2 이미지에 포함된 정맥 라인의 위치 또는 두께를 비교하여 제1 이미지가 나타내는 정맥 상태에서부터 제2 이미지가 나타내는 정맥 상태로의 변화 정도를 확인할 수 있다. In an embodiment, the processor 530 checks the change in the thickness of the vein due to contact between the contact plate 510 and a specific region using information on the vein line included in the first image and the vein line included in the second image. I can. Specifically, the processor 530 compares the position or thickness of the vein line included in the first image and the vein line included in the second image to change from a vein state represented by the first image to a vein state represented by the second image. You can check the degree.
변화 정도는 예를 들면 위치가 변화된 경우 변화된 위치의 거리를 포함할 수 있고, 두께가 변화된 경우 변화된 두께의 길이를 포함할 수 있으나, 이에 제한되는 것은 아니다. The degree of change may include, for example, the distance of the changed position when the position is changed, and may include the length of the changed thickness when the thickness is changed, but is not limited thereto.
또한, 경우에 따라 변화 정도의 판단을 위해 제1 이미지 및 제2 이미지 각각에서 추출하는 정맥의 두께 또는 위치는 평균 값일 수 있다. 예를 들면, 정맥의 두께를 비교하는 경우, 프로세서(530)는 제1 이미지에 포함된 정맥 라인 두께의 평균값과 제2 이미지에 포함된 정맥 라인 두께의 평균값을 비교할 수 있다. 다른 예를 들면, 정맥의 위치를 비교하는 경우, 프로세서(530)는 제1 이미지에 포함된 정맥 라인의 평균 위치과 제2 이미지에 포함된 정맥 라인의 평균 위치를 비교할 수 있다. In addition, in some cases, the thickness or location of veins extracted from each of the first image and the second image may be an average value in order to determine the degree of change. For example, when comparing the thickness of the veins, the processor 530 may compare the average value of the thickness of the vein line included in the first image and the average value of the thickness of the vein line included in the second image. For another example, when comparing the positions of veins, the processor 530 may compare the average positions of the vein lines included in the first image and the average positions of the vein lines included in the second image.
한편, 제1 이미지 및 제2 이미지에는 정맥 라인들이 복수개 포함되어 있을 수 있다. 이러한 경우, 프로세서(530)는 복수개 라인들 전체 각각을 비교할 수도 있고 선택적으로 일부를 비교할 수도 있다. Meanwhile, a plurality of vein lines may be included in the first image and the second image. In this case, the processor 530 may compare all of the plurality of lines, or may selectively compare some of the plurality of lines.
실시예에서 정맥의 두께를 이용하여 정맥의 변화를 확인하는 경우, 프로세서(530)는 제1 이미지의 복수의 정맥 라인 중 적어도 일부의 두께(이하, 제1 두께)를 산출할 수 있다. 프로세서(530)는 제2 이미지의 복수의 정맥 라인 중, 상기 제1 이미지에서 두께가 산출된 정맥 라인에 상응하는, 정맥 라인의 두께(이하, 제2 두께)를 산출할 수 있다. 프로세서(530)는 제1 두께와 제2 두께의 차이를 기초로 정맥의 두께 변화를 확인할 수 있다. In an embodiment, when checking a change in a vein using the thickness of the vein, the processor 530 may calculate the thickness (hereinafter, referred to as the first thickness) of at least some of the plurality of vein lines of the first image. The processor 530 may calculate a thickness (hereinafter, referred to as a second thickness) of a vein line corresponding to a vein line whose thickness is calculated from the first image among a plurality of vein lines of the second image. The processor 530 may check the change in the thickness of the vein based on the difference between the first thickness and the second thickness.
실시예에서, 프로세서(530)는 후술하는 수학식 1 내지 4를 기초로 하기의 수학식 1을 기초로 이미지(예: 제1 이미지, 제2 이미지)에 포함된 정맥의 좌표의 배열을 산출할 수 있다. In an embodiment, the processor 530 calculates an arrangement of coordinates of veins included in an image (eg, a first image, a second image) based on Equation 1 below based on Equations 1 to 4 to be described later. I can.
Figure PCTKR2019015337-appb-M000001
Figure PCTKR2019015337-appb-M000001
수학식 1에서, Veintotal은 전체 정맥 이미지의 비트맵 데이터이고, VeinNodes는 비트맵 데이터를 가공하여 정맥에 해당하는 좌표 (x,y)의 배열을 추출하는 함수이다. Node는 VeinNodes 함수를 기초로 획득되는 정맥 좌표의 배열이다. In Equation 1, Vein total is bitmap data of the entire vein image, and VeinNodes is a function that extracts an array of coordinates (x,y) corresponding to the vein by processing the bitmap data. Node is an array of vein coordinates obtained based on the VeinNodes function.
프로세서(530)는 수학식 2를 기초로 정맥 좌표의 배열로부터 클러스터에 해당하는 정맥의 좌표 배열을 산출할 수 있다. 클러스터는 정맥의 한 노드를 공유하는 복수의 정맥 라인을 의미하는 것일 수 있다. The processor 530 may calculate a vein coordinate arrangement corresponding to the cluster from the vein coordinate arrangement based on Equation (2). The cluster may mean a plurality of vein lines that share one node of the vein.
Figure PCTKR2019015337-appb-M000002
Figure PCTKR2019015337-appb-M000002
수학식 2에서, VeinCluster는 정맥 좌표의 배열로부터 개별 정맥 줄기의 클러스터에 해당하는 정맥(또는 정맥 라인들)의 좌표 배열을 추출하는 함수이다. Veincluster는 클러스터에 해당하는 정맥의 좌표 배열이다. In Equation 2, VeinCluster is a function for extracting a coordinate array of veins (or vein lines) corresponding to clusters of individual vein stems from the array of vein coordinates. Vein cluster is an array of coordinates of veins corresponding to the cluster.
프로세서(530)는 수학식 3을 기초로 정맥의 변화의 비교를 위한 대표 값들을 추출할 수 있다. The processor 530 may extract representative values for comparison of vein changes based on Equation (3).
Figure PCTKR2019015337-appb-M000003
Figure PCTKR2019015337-appb-M000003
Figure PCTKR2019015337-appb-I000001
는 클러스터의 비교 대상이되는 대표 값들이고, SelectPoints는 정맥의 전체 좌표 배열에서 비교 대상이 되는 n개의 좌표를 선택하는 함수이다.
Figure PCTKR2019015337-appb-I000001
Is the representative values to be compared for the cluster, and SelectPoints is a function that selects n coordinates to be compared from the entire coordinate array of the vein.
프로세서(530)는 하기의 수학식 4를 기초로 대표 값들 각각에 대응하는 정맥의 두께를 산출할 수 있다. The processor 530 may calculate the thickness of a vein corresponding to each of the representative values based on Equation 4 below.
Figure PCTKR2019015337-appb-M000004
Figure PCTKR2019015337-appb-M000004
Figure PCTKR2019015337-appb-I000002
는 x에 대응하는 대표 값의 미분 계산 결과의 수직 방향의 값이고, x는
Figure PCTKR2019015337-appb-I000003
중 하나에 해당하며, CalcThickness는 정맥의 두께 계산을 위한 함수일 수 있다. Thickness는 CalcThickness 결과 산출된 x에 해당하는 정맥의 두께일 수 있다.
Figure PCTKR2019015337-appb-I000002
Is the value in the vertical direction of the differential calculation result of the representative value corresponding to x, and x is
Figure PCTKR2019015337-appb-I000003
Corresponds to one of, and CalcThickness may be a function for calculating the thickness of a vein. Thickness may be the thickness of a vein corresponding to x calculated as a result of CalcThickness.
프로세서(530)는 대표값 별로 수학식 4를 이용하여 정맥의 두께를 산출하고, 이를 총 합하여 정맥 두께의 합을 산출할 수 있다. The processor 530 may calculate the thickness of the vein using Equation 4 for each representative value, and calculate the sum of the thickness of the vein by adding the total.
프로세서(530)는 산출된 정맥 두께의 합을 n으로 나누어 평균 정맥 두께를 산출할 수 있다. 이러한 평균 정맥 두께의 산출은 접촉판(510) 접촉 전후의 이미지(예: 제1 이미지, 제2 이미지) 각각에 대해 이루어질 수 있다. 프로세서(530)는 접촉판(510) 접촉 전후의 이미지 별 평균 정맥 두께를 비교하여 정맥의 두께 변화를 최종적으로 산출할 수 있다. The processor 530 may calculate an average vein thickness by dividing the sum of the calculated vein thicknesses by n. The calculation of the average vein thickness may be performed for each image (eg, a first image and a second image) before and after contact with the contact plate 510. The processor 530 may compare the average vein thickness for each image before and after contacting the contact plate 510 to finally calculate the change in the thickness of the vein.
실시예에서, 프로세서(530)는 제1 이미지의 복수의 정맥 라인 중 적어도 일부의 위치(이하, 제1 위치)를 산출할 수 있다. 프로세서(530)는 제2 이미지의 복수의 정맥 라인 중, 상기 제1 이미지에서 위치가 산출된 정맥 라인에 상응하는, 정맥 라인의 위치(이하, 제2 위치)를 산출할 수 있다. 프로세서(530)는 제1 위치와 제2 위치의 거리 차이 및 제1 위치로부터 제2 위치로의 방향 중 적어도 하나를 기초로 정맥의 위치 변화를 확인할 수 있다. In an embodiment, the processor 530 may calculate a position (hereinafter, referred to as a first position) of at least some of the plurality of vein lines of the first image. The processor 530 may calculate a position (hereinafter, referred to as a second position) of a vein line corresponding to a vein line whose position is calculated from the first image among a plurality of vein lines of the second image. The processor 530 may check the change in the location of the vein based on at least one of a distance difference between the first location and the second location and a direction from the first location to the second location.
한편, 수학식 1 내지 4에서 설명한 함수는 통상의 기술자에게 용이한 알고리즘에 기초한 함수인바 구체적인 설명은 생략하겠다. Meanwhile, since the functions described in Equations 1 to 4 are based on an algorithm that is easy for a person skilled in the art, detailed descriptions will be omitted.
실시예에서 프로세서(530)는 하기의 수학식 5를 기초로 접촉판(510)에 접촉하기 전후의 정맥의 대표 좌표를 산출할 수 있다. In an embodiment, the processor 530 may calculate representative coordinates of a vein before and after contacting the contact plate 510 based on Equation 5 below.
Figure PCTKR2019015337-appb-M000005
Figure PCTKR2019015337-appb-M000005
(X,Y)는 정맥의 대표 좌표이고, MeanShift는 정맥 좌표에 대한 이동 평균을 계산하는 함수이고, Vein은 이미지에 포함된 정맥에 대한 데이터이다. MeanShift는 meanshift 알고리즘으로서 통상의 기술자에게 용이한바 구체적인 설명은 생략하겠다. (X,Y) is the representative coordinate of the vein, MeanShift is a function that calculates the moving average for the vein coordinate, and Vein is the data about the vein included in the image. MeanShift is a meanshift algorithm and is easy for a person of ordinary skill in the art, so a detailed description will be omitted.
프로세서(530)는 수학식 5에 기초한 정맥의 대표 좌표에 대한 값은 접촉판(510) 전후의 이미지 각각에 대해 산출할 수 있다. 프로세서(530)는 접촉판(510) 전후의 이미지 각각에 대한 대표 좌표 값의 차를 통해 정맥의 이동 거리와 이동 방향을 확인할 수 있다. The processor 530 may calculate a value for the representative coordinates of the vein based on Equation 5 for each of the images before and after the contact plate 510. The processor 530 may check the moving distance and the moving direction of the vein through a difference in representative coordinate values for each of the images before and after the contact plate 510.
프로세서(530)는 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인할 수 있다. 여기서, 기저장된 정맥 변화 정보는 접촉판(510)에 특정 영역이 접촉됨에 의해 정맥에 일어나는 변화의 경향(또는 양상)에 대한 정보로서 예를 들면 정맥을 구성하는 라인들 중 적어도 일부의 위치 변화 또는 두께 변화에 대한 정보를 포함할 수 있다. 또한, 정맥 변화 정보는 사용자 인증을 위한 사용자 등록 단계에서 미리 획득되어 저장된 것일 수 있다. The processor 530 may check whether the confirmed vein change corresponds to pre-stored vein change information. Here, the previously stored vein change information is information on the trend (or pattern) of a change occurring in a vein by contacting a specific region with the contact plate 510, for example, a change in the position of at least some of the lines constituting the vein or It may contain information about the change in thickness. In addition, the vein change information may be obtained and stored in advance in the user registration step for user authentication.
프로세서(530)는 제1 이미지와 제2 이미지의 비교를 통해 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 사용자 인증이 성공한 것으로 결정할 수 있다. 프로세서(530)는 상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하지 않는 경우 사용자 인증이 실패한 것(또는 성공하지 않은 것)으로 결정할 수 있다. The processor 530 may determine that user authentication has succeeded when the vein change identified through the comparison of the first image and the second image corresponds to the previously stored vein change information. The processor 530 may determine that user authentication has failed (or did not succeed) when the confirmed vein change does not correspond to the previously stored vein change information.
도 6은 본 명세서의 일 실시예에 따른 사용자 인증 방법의 흐름도이다. 도 6에 도시된 방법의 각 단계는 경우에 따라 도면에 도시된 바와 그 순서를 달리하여 수행될 수 있음은 물론이다. 6 is a flowchart of a user authentication method according to an embodiment of the present specification. It goes without saying that each step of the method illustrated in FIG. 6 may be performed in a different order as illustrated in the drawings depending on the case.
도 6을 참조하면, 사용자 인증 장치의 프로세서는 접촉판으로부터 특정 거리 이상 이격된 사용자 신체의 특정 영역에 대한 제1 이미지 획득할 수 있다(610). 사용자 신체의 특정 영역은 정맥이 지나가는 사용자 신체의 일부 중 기기정된 영역일 수 있다. 예를 들어 특정 영역은 손목, 손바닥, 손등, 발목, 발바닥 및 발등 중 적어도 하나일 수 있다. Referring to FIG. 6, the processor of the user authentication device may obtain a first image of a specific area of the user's body spaced apart from the contact plate by a specific distance or more (610 ). The specific area of the user's body may be a predetermined area among a part of the user's body through which veins pass. For example, the specific region may be at least one of a wrist, a palm, a back of a hand, an ankle, a sole, and a back of an instep.
제1 이미지는 제1 이미지는 정맥을 촬영할 수 있는 카메라를 통해 획득된 이미지로, 특정 영역의 정맥이 나타나는 이미지일 수 있다. 예를 들어 제1 이미지는 특정 영역에 대한 적외선 이미지일 수 있다. 특정 영역이 손바닥인 경우, 제1 이미지는 손바닥의 정맥이 나타나는 손바닥 적외선 이미지일 수 있다. 이에 대한 구체적인 예시는 도 4를 참조할 수 있다. The first image is an image obtained through a camera capable of capturing veins, and may be an image in which veins in a specific area appear. For example, the first image may be an infrared image for a specific area. When the specific area is the palm, the first image may be an infrared image of the palm in which veins of the palm appear. A specific example of this may refer to FIG. 4.
이와 같이 제1 이미지에 포함된 정맥 이미지는 일반적인 상태의 정맥 이미지일 수 있다. As described above, the vein image included in the first image may be a vein image in a general state.
프로세서는 접촉판에 적어도 일부가 접촉된 특정 영역에 대한 제2 이미지 획득할 수 있다(620). 제2 이미지도 제1 이미지와 마찬가지로 정맥이 나타나는 이미지일 수 있다. 다만, 제2 이미지는 특정 영역이 접촉판에 접촉된 상태의 이미지로서, 제2 이미지에 포함된 정맥 이미지는 접촉에 의해 변화된 특정 영역의 정맥에 대한 것일 수 있다. The processor may acquire a second image of a specific area in which at least a portion of the contact plate is in contact (620 ). Like the first image, the second image may be an image in which veins appear. However, the second image is an image in which a specific region is in contact with the contact plate, and a vein image included in the second image may be for a vein in a specific region changed by the contact.
실시예에서, 접촉판에는 터치 감지 센서가 포함될 수 있으며, 이를 기초로 프로세서는 접촉판에 사용자 신체의 특정 영역이 접촉했는지 여부를 확인할 수 있다. 프로세서는 특정 영역의 접촉이 확인된 경우 카메라를 이용하여 촬영함으로써 제2 이미지를 획득할 수 있다. In an embodiment, a touch sensor may be included in the contact plate, and based on this, the processor may check whether a specific area of the user's body is in contact with the contact plate. When the contact of the specific area is confirmed, the processor may acquire the second image by photographing using the camera.
프로세서는 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 접촉판에 대한 접촉 유무에 따른 정맥의 변화 확인할 수 있다(630). 구체적으로, 프로세서는 제1 이미지에 포함된 정맥 이미지와 제2 이미지에 포함된 정맥 이미지를 비교하여 접촉에 따른 정맥의 변화를 확인할 수 있다. The processor may check a change in the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image (630 ). Specifically, the processor may compare the vein image included in the first image and the vein image included in the second image to check a change in the vein according to the contact.
정맥의 변화는 정맥의 위치 변화 및 정맥의 두께 변화 중 적어도 하나를 포함할 수 있다. The change in the vein may include at least one of a change in the position of the vein and a change in the thickness of the vein.
실시예에서, 프로세서는 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 접촉판에 대한 접촉 유무에 따른 정맥의 변화 경향을 확인할 수 있다. 정맥의 변화 경향은 정맥이 변화되는 평균적인 양상으로서, 프로세서는 제1 이미지의 정맥 이미지에 나타나는 정맥 라인이 전체적으로 제2 이미지에서는 어떻게 변화하였는지를 확인할 수 있다. 예를 들어, 프로세서는 두께가 변화하는 정맥 라인의 부분, 위치가 이동하는 정맥 라인의 부분 및 위치의 변화 정도 중 적어도 하나에 대한 정보를 확인함으로써 정맥의 변화 경향을 확인할 수 있다. In an embodiment, the processor may check a change tendency of the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image. The vein change trend is an average pattern in which the vein changes, and the processor can check how the vein line that appears in the vein image of the first image has changed in the second image as a whole. For example, the processor may check the change tendency of the vein by checking information on at least one of a portion of a vein line whose thickness changes, a portion of a vein line whose position moves, and a degree of change in position.
프로세서는 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증 수행할 수 있다(640). 정맥 변화 정보는 사용자 인증을 위한 사용자 등록시 미리 획득되어 저장되는 정보일 수 있다. 이에 따라 프로세서는 확인된 정맥의 변화(또는 변화 경향)을 기저장된 정맥 변화 정보와 비교하여 사용자 인증 수행할 수 있다. The processor may perform user authentication based on checking whether the confirmed vein change corresponds to the previously stored vein change information (640 ). The vein change information may be information acquired and stored in advance when a user is registered for user authentication. Accordingly, the processor may perform user authentication by comparing the confirmed vein change (or change trend) with previously stored vein change information.
예를 들어, 프로세서는 확인된 정맥의 변화가 기저장된 정맥 변화 정보와 일치하는 경우, 사용자 인증이 성공한 것으로 결정할 수 있다. 다른 예를 들면, 프로세서는 확인된 정맥의 변화와 기저장된 정맥 변화 정보와의 유사도가 특정 값 이상인 경우 사용자 인증이 성공한 것으로 결정할 수 있다. For example, the processor may determine that user authentication has been successful when the confirmed vein change is consistent with previously stored vein change information. For another example, the processor may determine that user authentication is successful when the similarity between the confirmed vein change and the previously stored vein change information is greater than or equal to a specific value.
실시예에서, 프로세서는 제1 이미지가 기지정된 이미지에 대응하는지 여부를 확인할 수 있다. 이 때, 기지정된 이미지는 사용자 인증과 관련하여 사용자 등록시 특정 영역에 대해 미리 획득된 정맥 이미지일 수 있다. 프로세서는 제1 이미지가 기지정된 이미지에 대응하는 경우 단계 630 및 단계 640을 수행할 수 있다. In an embodiment, the processor may check whether the first image corresponds to a predetermined image. In this case, the predetermined image may be a vein image obtained in advance for a specific area when a user is registered in connection with user authentication. The processor may perform steps 630 and 640 when the first image corresponds to the predetermined image.
도 7은 본 명세서의 다른 실시예에 따른 사용자 인증 방법의 흐름도이다. 도 7에 도시된 방법의 각 단계는 경우에 따라 도면에 도시된 바와 그 순서를 달리하여 수행될 수 있음은 물론이다. 7 is a flowchart of a user authentication method according to another embodiment of the present specification. It goes without saying that each step of the method illustrated in FIG. 7 may be performed in a different order as illustrated in the drawings depending on the case.
도 7을 참조하면, 전자 장치의 프로세서는 접촉판으로부터 특정 거리 이상 이격된 사용자 신체의 특정 영역에 대한 제1 이미지 획득할 수 있다(710). 사용자 신체의 특정 영역은 예를 들면 손바닥일 수 있으며, 이러한 경우 제1 이미지는 접촉판으로부터 떨어져 공중에 위치한 손바닥 이미지일 수 있다. 따라서 제1 이미지에는 접촉판에 의한 압력이 가해지지 않은, 특정 영역의 사용자 고유의 정맥 패턴이 나타날 수 있다. Referring to FIG. 7, the processor of the electronic device may acquire a first image of a specific area of the user's body spaced apart by a specific distance or more from the contact plate (operation 710). A specific area of the user's body may be, for example, a palm, and in this case, the first image may be an image of a palm located in the air away from the contact plate. Accordingly, a user's own vein pattern in a specific area may be displayed in the first image to which no pressure is applied by the contact plate.
한편, 단계 710은 도 6의 단계 610에 대응할 수 있으므로 도 6과 중복되는 설명은 생략하겠다. Meanwhile, since step 710 may correspond to step 610 of FIG. 6, a description redundantly with FIG. 6 will be omitted.
프로세서는 제1 이미지가 기저장된 사용자 정맥 이미지에 대응하는지 여부를 확인할 수 있다(720). 기저장된 사용자 정맥 이미지는 사용자 인증과 관련하여 선수행되는 사용자 등록 과정에서 사용자로부터 획득되어 저장된 이미지일 수 있다. 사용자 정맥 이미지는 사용자 신체의 특정 영역에 대한 정맥 이미지로 접촉판에 접촉되지 않은 일반적인 상태에서의 이미지를 포함할 수 있다. The processor may check whether the first image corresponds to a pre-stored user vein image (720). The previously stored user vein image may be an image acquired and stored from a user during a user registration process performed in connection with user authentication. The user vein image is a vein image for a specific area of the user's body, and may include an image in a general state not in contact with the contact plate.
실시예에서, 프로세서는 제1 이미지가 기저장된 사용자 정맥 이미지와의 유사도를 확인할 수 있다. 프로세서는 유사도가 특정 값 이상인 경우 제1 이미지가 기저장된 사용자 정맥 이미지에 대응하는 것으로 결정할 수 있다. 한편, 유사도 확인과 관련하여서는 통상이 기술자에게 용이한바 구체적인 설명은 생략하겠다.In an embodiment, the processor may check the similarity of the first image to a pre-stored user vein image. When the similarity is greater than or equal to a specific value, the processor may determine that the first image corresponds to a pre-stored user vein image. On the other hand, in connection with checking the similarity, since it is easy for a person skilled in the art, detailed description will be omitted.
실시예에서, 프로세서는 제1 이미지가 기저장된 사용자 정맥 이미지와 일치하는지 여부를 확인할 수 있다. 프로세서는 제1 이미지가 기저장된 사용자 정맥 이미지와 일치하는 경우, 제1 이미지가 기저장된 사용자 정맥 이미지에 대응하는 것으로 결정할 수 있다. In an embodiment, the processor may check whether the first image matches a previously stored user vein image. When the first image matches a pre-stored user vein image, the processor may determine that the first image corresponds to a pre-stored user vein image.
프로세서는 제1 이미지가 기저장된 사용자 정맥 이미지에 대응하는 경우, 접촉판에 적어도 일부가 접촉된 특정 영역에 대한 제2 이미지 획득할 수 있다(730). 구체적으로, 프로세서는 접촉판에 사용자 신체의 특정 영역이 접촉됨에 기초하여, 접촉된 특정 영역을 카메라로 촬영하여 제2 이미지를 획득할 수 있다. 제2 이미지는 특정 영역의 정맥 이미지를 포함할 수 있으며, 정맥 이미지가 나타내는 정맥은 접촉에 의해 변화가 이루어진 상태일 수 있다. When the first image corresponds to a pre-stored user vein image, the processor may obtain a second image for a specific region in which at least a portion of the contact plate is in contact (730 ). Specifically, the processor may acquire the second image by photographing the specific area contacted with the camera based on the contact of the specific area of the user's body with the contact plate. The second image may include an image of a vein in a specific area, and a vein represented by the vein image may be in a state in which a change is made by contact.
단계 730은 도 6의 단계 620에 대응할 수 있으며, 이와 관련하여 중복되는 설명은 생략하겠다. Step 730 may correspond to step 620 of FIG. 6, and redundant descriptions in this regard will be omitted.
제1 이미지가 기저장된 사용자 정맥 이미지에 대응하지 않는 경우 프로세서는 단계 710의 과정을 다시 수행할 수 있다. If the first image does not correspond to the previously stored user vein image, the processor may perform the process of step 710 again.
프로세서는 제2 이미지가 획득되면, 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 접촉판에 대한 접촉 유무에 따른 정맥의 변화 확인할 수 있다(740). 정맥의 변화는 정맥의 두께 및 위치 중 적어도 하나에 대한 변화를 포함할 수 있다. When the second image is acquired, the processor may check the change of the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image (740). The change in the vein may include a change in at least one of the thickness and location of the vein.
프로세서는 제2 이미지가 접촉판에 대한 접촉을 통해 획득한 이미지임에 기초하여, 제1 이미지와 제2 이미지의 차이를 확인함으로써 접촉에 의한 정맥의 변화를 파악할 수 있다. Based on the second image being an image acquired through contact with the contact plate, the processor may determine a change in vein due to the contact by checking a difference between the first image and the second image.
단계 740은 도 6의 단계 630에 대응할 수 있으므로, 중복되는 설명은 생략하겠다. Since step 740 may correspond to step 630 of FIG. 6, redundant descriptions will be omitted.
프로세서는 확인된 정맥의 변화(또는 정맥의 변화 경향)가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인할 수 있다(750). 구체적으로 프로세서는 확인된 정맥의 위치 변화 또는 두께 변화가 기저장된 정맥 변화 정보와 대응하는지 여부를 확인할 수 있다. The processor may check whether the confirmed vein change (or vein change trend) corresponds to pre-stored vein change information (750). Specifically, the processor may check whether the confirmed change in the position or thickness of the vein corresponds to the previously stored vein change information.
예를 들어, 프로세서는 제1 정맥 라인의 두께가 0.1mm만큼 증가한 것으로 확인되는 경우, 기저장된 정맥 변화 정보에 제1 정맥 라인의 두께가 0.1mm만큼 증가하는 것이 포함되어 있는 지 여부를 확인할 수 있다. 프로세서는 기저장된 정맥 변화 정보에 제1 정맥 라인의 두께가 0.1mm만큼 증가하는 것이 포함되어 있는 경우 정맥의 변화 정보가 기저장된 정맥 변화 정보에 대응하는 것으로 확인할 수 있다. For example, when it is determined that the thickness of the first vein line is increased by 0.1 mm, the processor may check whether the previously stored vein change information includes an increase in the thickness of the first vein line by 0.1 mm. . When the previously stored vein change information includes increasing the thickness of the first vein line by 0.1 mm, the processor may determine that the vein change information corresponds to the previously stored vein change information.
다른 예를 들면, 프로세서는 제1 정맥 라인의 위치 변화 값(예: 0.05mm)가 기저장된 정맥 변화 정보의 위치 변화 범위 내에 포함되는지 여부를 확인할 수 있다. 만약, 위치 변화 값이 정맥 변화 정보의 위치 변화 범위 내에 포함되는 경우 프로세서는 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 것으로 확인할 수 있다. For another example, the processor may check whether the position change value (eg, 0.05 mm) of the first vein line is included within the position change range of the previously stored vein change information. If the position change value is included within the position change range of the vein change information, the processor may confirm that the confirmed change of the vein corresponds to the previously stored vein change information.
한편, 상술한 제1 정맥 라인은 사용자 신체의 특정 영역에 포함된 정맥을 구성하는 복수의 정맥 라인 중 특정 부분을 의미하는 것일 수 있다. 구체적으로, 정맥의 경우 복수의 라인이 얽힌 형태를 가지게 되는데, 제1 정맥 라인은 이와 같은 정맥의 특정 부분을 의미하는 것일 수 있다. 정맥에 대해서는 통상의 기술자에게 용이한바 구체적인 설명은 생략하겠다. Meanwhile, the above-described first vein line may mean a specific portion of a plurality of vein lines constituting a vein included in a specific region of the user's body. Specifically, in the case of a vein, a plurality of lines are intertwined, and the first vein line may mean a specific portion of such a vein. Since the vein is easy for a person skilled in the art, a detailed description will be omitted.
프로세서는 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 사용자 인증이 성공한 것으로 결정할 수 있다(760). 프로세서는 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하지 않는 경우 단계 710의 과정을 다시 수행할 수 있다. The processor may determine that the user authentication is successful when the confirmed vein change corresponds to the previously stored vein change information (760 ). If the confirmed vein change does not correspond to the previously stored vein change information, the processor may perform the process of step 710 again.
즉, 프로세서는 제1 이미지와 관련된 정맥의 패턴이 사용자 정맥 이미지에 대응하며, 제2 이미지와 관련된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 사용자 인증이 성공한 것으로 결정할 수 있다. 만약, 정맥의 패턴 또는 정맥의 변화 중 어느 하나라도 기저장된 정보(예: 사용자 정맥 이미지 또는 정맥 변화 정보)에 대응하지 않는 경우 사용자 인증은 실패할 수 있다. That is, when the vein pattern related to the first image corresponds to the user vein image, and the vein change related to the second image corresponds to the previously stored vein change information, the processor may determine that the user authentication is successful. If any one of a vein pattern or a vein change does not correspond to pre-stored information (eg, user vein image or vein change information), user authentication may fail.
프로세서의 제1 이미지를 이용한 사용자 확인 과정은 사용자가 생체적 특성에 의해 가지는 고유의 정맥 패턴을 확인하는 것으로 사용자 인증이 등록된 진짜 사용자인지 여부를 판단하기 위한, 즉 사용자의 동일성을 확인하기 위한 과정을 의미할 수 있다. 이하 후술되는 제2 이미지를 이용한 사용자 확인 과정은, 정맥의 변화를 이용한 것으로 사용자 인증을 수행하는 대상이 살아있는 생명체인지를 확인하는, 즉 사용자의 생동성을 확인하기 위한 과정을 의미할 수 있다. The user identification process using the first image of the processor is a process for determining whether the user is a registered real user, i.e., confirming the identity of the user, by confirming the unique vein pattern that the user has by biometric characteristics. Can mean The user verification process using the second image to be described later uses a change in vein and may refer to a process of confirming whether a target for user authentication is a living organism, that is, a process of confirming the user's bioactivity.
따라서, 본 실시예에 따른 사용자 인증 장치는 사용자의 동일성뿐만 아니라 생동성까지 확인할 수 있어 위조의 위험성을 저하시키고 사용자 인증의 보안을 향상시키리 수 있다. Accordingly, the user authentication apparatus according to the present embodiment can check not only the identity of the user but also the viability of the user, thereby reducing the risk of forgery and improving the security of user authentication.
도 8 내지 도 11은 본 명세서의 일 실시예에 따른 사용자 인증 장치의 예를 나타낸다. 8 to 11 show examples of a user authentication device according to an embodiment of the present specification.
도 8은 사용자 인증 장치(800)가 구현된 일 실시예를 나타낸다. 도 8을 참조하면, 사용자 인증 장치는 제1 이미지의 획득을 위해 사용자 신체의 특정 영역(810)과의 거리를 유지하기 위한 가이드(820)와 카메라를 포함하는 본체(830)를 포함할 수 있다. 8 shows an embodiment in which the user authentication device 800 is implemented. Referring to FIG. 8, the user authentication device may include a guide 820 for maintaining a distance from a specific area 810 of a user's body to obtain a first image and a body 830 including a camera. .
사용자 인증 장치(800)는 특정 영역(810)이 가이드(820)에 접촉됨에 따라 특정 거리로 이격된 상태의 특정 영역(810)에 대한 제1 이미지를 획득할 수 있다. The user authentication device 800 may acquire a first image of the specific area 810 separated by a specific distance as the specific area 810 comes into contact with the guide 820.
제1 이미지가 획득되면 가이드(820)는 힌지를 기준으로 펼쳐져 카메라를 포함하는 본체(830)에 특정 영역(810)이 접촉될 수 있다. 이를 통해 본체(830)는 제2 이미지를 획득하고 상술한 사용자 인증 과정을 수행할 수 있다. When the first image is acquired, the guide 820 may be unfolded based on the hinge so that the specific region 810 may contact the body 830 including the camera. Through this, the main body 830 may acquire the second image and perform the above-described user authentication process.
도 9는 사용자 인증 장치(900)가 이동 단말기 형태로 구현된 경우의 실시예를 나타낸다. 도 9를 참조하면, 사용자 인증 장치(900)는 사용자 인증 장치(900)로부터 특정 거리 이격되어 위치하는 상태의 사용자 신체의 특정 영역(910)에 대한 제1 이미지를 획득할 수 있다. 9 shows an embodiment when the user authentication device 900 is implemented in the form of a mobile terminal. Referring to FIG. 9, the user authentication device 900 may acquire a first image of a specific region 910 of a user's body in a state that is located a specific distance apart from the user authentication device 900.
실시예에서, 사용자 인증 장치(900)는 도시된 바와 같이 제1 이미지의 획득을 위한 사용자의 동작을 가이드하는 화면을 제공할 수 있다. In an embodiment, the user authentication device 900 may provide a screen guiding a user's operation for obtaining a first image, as illustrated.
실시예에서, 제1 이미지의 획득은 사용자 인증 장치(900)의 상단에 배치되는 카메라를 통해 이루어질 수 있다. 다만, 이에 제한되는 것은 아니고 경우에 따라 도 9에는 드러나지 않은 디스플레이 후면에 배치되는 카메라를 통해 이루어질 수도 있다. In an embodiment, the acquisition of the first image may be performed through a camera disposed on the top of the user authentication device 900. However, the present invention is not limited thereto, and in some cases, it may be performed through a camera disposed on the rear of the display that is not exposed in FIG. 9.
실시예에서, 사용자 인증 장치(900)의 디스플레이는 접촉판으로의 역할을 수행할 수 있는데, 이러한 경우 특정 영역이 디스플레이에 접촉됨에 기초하여 제2 이미지가 획득될 수 있다. 제2 이미지의 획득은 디스플레이의 후면에 배치되는 카메라를 통해 획득될 수 있다. In an embodiment, the display of the user authentication device 900 may serve as a contact plate. In this case, a second image may be obtained based on the contact of a specific area with the display. Acquisition of the second image may be acquired through a camera disposed on the rear side of the display.
실시예에서, 제1 이미지의 획득이 사용자 인증 장치(900)의 상단에 배치되는 카메라를 통해 이루어지는 경우, 제2 이미지의 획득은 디스플레이의 후면에 배치되는 카메라를 통해 이루어지므로 제1 이미지와 제2 이미지의 획득은 서로 다른 카메라를 통해 이루어질 수 있다. In the embodiment, when the first image is acquired through a camera disposed on the top of the user authentication device 900, the second image is acquired through a camera disposed on the rear side of the display, and thus the first image and the second image are obtained. Acquisition of images can be made through different cameras.
도 10은 사용자 인증 장치(1000)가 스마트 워치의 형태로 구현된 경우의 실시예를 나타낸다. 도 10를 참조하면, 사용자 인증 장치(1000)는 사용자 인증 장치(1000)로부터 특정 거리 이격되어 위치하는 상태의 사용자 신체의 특정 영역(1010)에 대한 제1 이미지를 획득할 수 있다. 10 shows an example in which the user authentication device 1000 is implemented in the form of a smart watch. Referring to FIG. 10, the user authentication device 1000 may acquire a first image of a specific region 1010 of a user's body in a state that is located a specific distance apart from the user authentication device 1000.
도 10의 경우에도 도 9의 경우와 마찬가지로 사용자 인증 장치(1000)의 디스플레이가 접촉판으로 역할할 수 있다. 이러한 경우 디스플레이에 특정 영역이 접촉함에 기초하여 제2 이미지가 획득될 수 있다. In the case of FIG. 10 as well as in the case of FIG. 9, the display of the user authentication device 1000 may serve as a contact plate. In this case, the second image may be obtained based on the contact of the specific area on the display.
이 때, 제1 이미지와 제2 이미지의 획득을 위한 카메라도 도 9와 마찬가지로 서로 다른 위치에 배치된 2개의 카메라가 이용될 수 있으나, 이에 제한되는 것은 아니다.In this case, two cameras arranged at different positions may be used as in FIG. 9 as a camera for acquiring the first image and the second image, but the present invention is not limited thereto.
사용자 인증 장치(1000)는 제1 이미지와 제2 이미지를 획득하면, 이를 기초로 사용자 인증을 수행할 수 있다. When the user authentication apparatus 1000 acquires the first image and the second image, the user authentication may be performed based on the first image and the second image.
도 11은 사용자 인증 장치(1100)가 문(1110)에 설치된 경우의 예를 나타낸다. 사용자 인증 장치(1100)는 문(1110)에 삽입되어 문(1110)의 개폐 여부를 결정하기 위해 이용될 수 있다. 11 shows an example in which the user authentication device 1100 is installed in the door 1110. The user authentication device 1100 may be inserted into the door 1110 and used to determine whether to open or close the door 1110.
예를 들어 사용자 인증이 성공하면 문(1110)이 열리도록 하고, 사용자 인증이 실패하면 문(1110)이 열리지 않도록 할 수 있다. For example, if the user authentication is successful, the door 1110 may be opened, and if the user authentication fails, the door 1110 may not be opened.
도 11의 경우에도, 사용자(1120)는 사용자 신체의 특정 영역(1130)을 특정 거리 이격된 위치에 위치시킬 수 있다. 이러한 경우 사용자 인증 장치(1100)는 특정 영역에 대한 제1 이미지를 획득할 수 있다. 그후, 사용자(1120)는 특정 영역(1130)을 사용자 인증 장치(1100)의 접촉판에 접촉시켜 제2 이미지가 획득되도록 할 수 있다. Even in the case of FIG. 11, the user 1120 may locate the specific region 1130 of the user's body at a location separated by a specific distance. In this case, the user authentication device 1100 may acquire a first image for a specific area. Thereafter, the user 1120 may contact the specific area 1130 with the contact plate of the user authentication device 1100 to obtain a second image.
도 11에서 구체적으로 도시하지는 않았으나, 사용자 인증 장치(1100)의 내부, 접촉판과 특정 거리 이격된 위치에는 제1 이미지 및 제2 이미지 중 적어도 하나의 획득을 위한 카메라가 배치될 수 있다. Although not specifically illustrated in FIG. 11, a camera for acquiring at least one of the first image and the second image may be disposed inside the user authentication apparatus 1100, at a location spaced apart from the contact plate by a specific distance.
한편, 도 8 내지 도 11에서는 사용자 신체의 특정 영역을 손바닥으로 예시하였으나 이에 제한되는 것은 아니다. 예를 들어 특정 영역은 손목, 손등, 발목, 발바닥 및 발등 중 적어도 하나의 부위가 될 수도 있다. Meanwhile, in FIGS. 8 to 11, a specific area of the user's body is illustrated with a palm, but the present invention is not limited thereto. For example, the specific area may be at least one of the wrist, the back of the hand, the ankle, the sole of the foot, and the back of the foot.
도 12 내지 14는 본 명세서의 일 실시예에 따른 사용자 인증 장치에서 표시되는 화면의 예이다. 12 to 14 are examples of screens displayed by the user authentication device according to an embodiment of the present specification.
도 12는 사용자 인증의 종류에 따라 사용자 인증 장치에 표시되는 화면의 예를 나타낸다. 구체적으로, 도 12a는 사용자 인증의 단말의 잠금해제를 위한 경우에 표시되는 화면의 예를 나타낸다. 도 12b는 사용자 인증이 결제를 위한 경우에 표시되는 화면의 예를 나타낸다. 12 shows an example of a screen displayed on a user authentication device according to the type of user authentication. Specifically, FIG. 12A shows an example of a screen displayed in the case of unlocking a terminal for user authentication. 12B shows an example of a screen displayed when user authentication is for payment.
실시예에서 단말의 잠금해제의 경우와 결제의 경우 보안 등급이 상이하게 결정될 수 있다. 이러한 경우 보안 등급을 기초로 사용자 인증 방법이 상이하게 적용될 수도 있다. 예를 들어 단말의 잠금해제의 보안 등급이 결제의 보안 등급보다 낮게 설정된 경우, 단말의 잠금해제를 위한 사용자 인증에는 제1 이미지를 이용한 사용자 인증만이 수행되고, 결제를 위한 사용자 인증에는 제1 이미지 및 제2 이미지를 이용한 사용자 인증이 함께 수행될 수 있다. In the embodiment, in the case of unlocking the terminal and the case of payment, the security level may be determined differently. In this case, the user authentication method may be applied differently based on the security level. For example, if the security level of unlocking the terminal is set lower than the security level of payment, only the user authentication using the first image is performed for user authentication for unlocking the terminal, and the first image is used for user authentication for payment. And user authentication using the second image may be performed together.
도 13은 제1 이미지와 제2 이미지를 이용한 사용자 인증이 함께 수행되는 경우, 제1 이미지를 이용한 사용자 인증의 성공 후 제공되는 화면의 예를 나타낸다. 13 shows an example of a screen provided after successful user authentication using the first image when user authentication using the first image and the second image is performed together.
도 13을 참조하면, 제1 이미지를 이용한 사용자 인증이 수행되었음을 알리는 텍스트로서 '본인 인증이 완료되었습니다'가 표시될 수 있다. 이에 따라 제2 이미지를 이용한 사용자 인증의 수행을 위해 접촉판에 대한 사용자 신체의 특정 영역(예: 손바닥)에 대한 접촉이 요구될 수 있다. Referring to FIG. 13, as text indicating that user authentication using the first image has been performed,'personal authentication has been completed' may be displayed. Accordingly, in order to perform user authentication using the second image, it may be required to contact the contact plate with a specific area (eg, palm) of the user's body.
이에 따라, 접촉의 안내를 위한 텍스트로서 '생동성 인증을 위해 손바닥을 접촉해 주세요'가 표시될 수 있다. Accordingly, as text for guiding the contact,'Please touch the palm for biometric authentication' may be displayed.
도 14는 제2 이미지를 이용한 사용자 인증의 결과에 따라 제공되는 화면의 예를 나타낸다. 구체적으로, 도 14a는 사용자 인증이 성공한 경우 제공되는 화면의 예를 나타낸다. 도 14b는 사용자 인증이 실패한 경우 제공되는 화면의 예를 나타낸다. 14 shows an example of a screen provided according to a result of user authentication using a second image. Specifically, FIG. 14A shows an example of a screen provided when user authentication is successful. 14B shows an example of a screen provided when user authentication fails.
한편, 도 12 내지 도 14에 도시된 화면은 예시에 불과할 뿐 이러한 예에 본 명세서가 제한되지 않음을 밝혀둔다. Meanwhile, it should be noted that the screens shown in FIGS. 12 to 14 are only examples, and the present specification is not limited to these examples.
이상의 설명은 본 명세서의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 명세서가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 명세서의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 명세서에 개시된 실시예들은 본 명세서의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 명세서의 기술 사상의 범위가 한정되는 것은 아니다. 본 명세서의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 명세서의 권리범위에 포함되는 것으로 해석되어야 할 것이다. The above description is merely illustrative of the technical idea of the present specification, and those of ordinary skill in the technical field to which the present specification pertains will be able to make various modifications and variations without departing from the essential quality of the present specification. Accordingly, the embodiments disclosed in the present specification are not intended to limit the technical idea of the present specification, but to describe, and the scope of the technical idea of the present specification is not limited by these exemplary embodiments. The scope of protection of the present specification should be interpreted by the claims below, and all technical ideas within the scope equivalent thereto should be construed as being included in the scope of the present specification.

Claims (20)

  1. 사용자 인증 장치에 있어서, In the user authentication device,
    정맥을 포함하는 사용자 신체의 특정 영역이 접촉되는 접촉판과, A contact plate in which a specific area of the user's body including veins comes into contact,
    프로세서를 포함하고, Including a processor,
    상기 프로세서는, The processor,
    상기 접촉판으로부터 특정 거리 이상 이격된 상기 특정 영역에 대한 제1 이미지를 획득하고, Obtaining a first image of the specific area spaced apart from the contact plate by a specific distance or more,
    상기 접촉판에 접촉된 상기 특정 영역에 대한 제2 이미지를 획득하고, Acquiring a second image of the specific area in contact with the contact plate,
    상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판 접촉 유무에 따른 정맥의 변화를 확인하고, Checking the change of vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image,
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행하는 Performing user authentication based on checking whether the confirmed vein change corresponds to pre-stored vein change information
    사용자 인증 장치. User authentication device.
  2. 제1항에 있어서, The method of claim 1,
    상기 정맥의 변화는 정맥의 두께 변화를 포함하고,The change in the vein includes a change in the thickness of the vein,
    상기 프로세서는, The processor,
    상기 제1 이미지에 포함된 제1 복수의 정맥 라인과 상기 제2 이미지에 포함된 제2 복수의 정맥 라인에 대한 정보를 이용하여 상기 접촉판과 상기 특정 영역의 접촉에 의한 정맥의 두께 변화를 확인하는 Using information on the first plurality of vein lines included in the first image and the second plurality of vein lines included in the second image, the change in the thickness of the vein due to contact between the contact plate and the specific region is checked. doing
    사용자 인증 장치. User authentication device.
  3. 제2항에 있어서, The method of claim 2,
    상기 프로세서는, The processor,
    상기 제1 복수의 정맥 라인 중 적어도 일부의 제1 두께를 산출하고, Calculating a first thickness of at least a portion of the first plurality of vein lines,
    상기 제2 복수의 정맥 라인 중 상기 산출된 제1 복수의 정맥 라인 중 적어도 일부의 위치에 상응하는 정맥 라인의 제2 두께를 산출하고, Calculating a second thickness of a vein line corresponding to a position of at least a portion of the calculated first plurality of vein lines among the second plurality of vein lines,
    상기 제1 두께와 상기 제2 두께의 차이를 기초로 상기 정맥의 두께 변화를 확인하는 Checking the change in thickness of the vein based on the difference between the first thickness and the second thickness
    사용자 인증 장치. User authentication device.
  4. 제1항에 있어서, The method of claim 1,
    상기 정맥의 변화는 정맥의 위치 변화를 포함하고, The change in the vein includes a change in the position of the vein,
    상기 프로세서는, The processor,
    상기 제1 이미지에 포함된 정맥 이미지와 상기 제2 이미지에 포함된 정맥 이미지를 이용하여 상기 접촉판과 상기 특정 영역의 접촉에 의한 정맥의 위치 변화를 확인하는 Using a vein image included in the first image and a vein image included in the second image, confirming a change in the position of the vein due to contact between the contact plate and the specific region
    사용자 인증 장치.User authentication device.
  5. 제4항에 있어서,The method of claim 4,
    상기 프로세서는, The processor,
    상기 제1 복수의 정맥 라인 중 적어도 일부의 제1 위치를 산출하고, Calculating a first position of at least some of the first plurality of vein lines,
    상기 제2 복수의 정맥 라인 중 상기 산출된 제1 복수의 정맥 라인 중 적어도 일부의 위치에 상응하는 정맥 라인의 제2 위치를 산출하고, Calculating a second position of a vein line corresponding to a position of at least a portion of the calculated first plurality of vein lines among the second plurality of vein lines,
    상기 제1 위치와 상기 제2 위치의 거리 차이 및 상기 제1 위치로부터 상기 제2 위치로의 방향 중 적어도 하나를 기초로 상기 정맥의 위치 변화를 확인하는 Checking the change in the position of the vein based on at least one of a distance difference between the first position and the second position and a direction from the first position to the second position
    사용자 인증 장치. User authentication device.
  6. 제1항에 있어서, The method of claim 1,
    상기 기저장된 정맥 변화 정보는 기등록된 특정 영역의 상기 접촉판 접촉 전후의 정맥의 두께 변화 또는 정맥의 위치 변화에 대한 정보를 포함하는The pre-stored vein change information includes information on a change in thickness of a vein or a change in position of a vein before and after contacting the contact plate in a pre-registered specific area.
    사용자 인증 장치. User authentication device.
  7. 제1항에 있어서,The method of claim 1,
    상기 프로세서는, The processor,
    상기 제1 이미지를 기저장된 사용자 정맥 이미지와 대응하는지 여부를 확인하고, Check whether the first image corresponds to a pre-stored user vein image,
    상기 제1 이미지와 기저장된 사용자 정맥 이미지가 대응하는 경우, 상기 정맥의 변화를 확인하는 When the first image and the pre-stored user vein image correspond to each other, confirming the change in the vein
    사용자 인증 장치. User authentication device.
  8. 제7항에 있어서,The method of claim 7,
    상기 프로세서는, The processor,
    상기 제1 이미지가 기저장된 사용자 정맥 이미지와 대응하는 경우, 상기 사용자 인증이 성공하였음을 나타내는 알림을 제공하고, When the first image corresponds to a pre-stored user vein image, a notification indicating that the user authentication was successful is provided,
    상기 제1 이미지가 기저장된 사용자 정맥 이미지와 대응하는지 않는 경우 사용자 인증이 실패함을 나타내는 알림을 제공하고, When the first image does not correspond to a previously stored user vein image, a notification indicating that user authentication has failed is provided, and
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 생동성(liveness)의 인증이 성공함을 나타내는 알림을 제공하고, When the confirmed vein change corresponds to the previously stored vein change information, a notification indicating that the authentication of liveness is successful is provided, and
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 생동성의 인증이 실패함을 나타내는 알림을 제공하는 Providing a notification indicating that the authentication of bioactivity fails when the confirmed vein change corresponds to the previously stored vein change information.
    사용자 인증 장치. User authentication device.
  9. 제1항에 있어서,The method of claim 1,
    상기 사용자 인증 장치는 적외선 카메라를 더 포함하고, The user authentication device further comprises an infrared camera,
    상기 프로세서는, The processor,
    상기 적외선 카메라를 이용하여 상기 제1 이미지와 상기 제2 이미지를 획득하는 Acquiring the first image and the second image using the infrared camera
    사용자 인증 장치. User authentication device.
  10. 제1항에 있어서,The method of claim 1,
    상기 특정 영역은, The specific area,
    손바닥, 손등, 손목, 손가락, 발등 및 발바닥 중 적어도 하나를 포함하는Including at least one of palms, backs of hands, wrists, fingers, insteps, and soles of the feet
    사용자 인증 장치. User authentication device.
  11. 사용자 인증 방법에 있어서, In the user authentication method,
    정맥을 포함하는 사용자 신체의 특정 영역가 접촉되는 접촉판으로부터 특정 거리 이상 이격된 상기 적어도 일부에 대한 제1 이미지를 획득하는 단계와, Acquiring a first image of the at least part spaced apart by a specific distance or more from a contact plate to which a specific area of the user's body including veins comes into contact;
    상기 접촉판에 접촉된 상기 특정 영역에 대한 제2 이미지를 획득하는 단계와, Acquiring a second image of the specific area in contact with the contact plate,
    상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판에 대한 접촉 유무에 따른 정맥의 변화를 확인하는 단계와, Checking a change in a vein according to the presence or absence of contact with the contact plate based on a vein image included in each of the first image and the second image,
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행하는 단계를 포함하는 Comprising the step of performing user authentication based on checking whether the confirmed vein change corresponds to pre-stored vein change information
    사용자 인증 방법. User authentication method.
  12. 제11항에 있어서, The method of claim 11,
    상기 정맥의 변화는 정맥의 두께 변화를 포함하고, The change in the vein includes a change in the thickness of the vein,
    상기 정맥의 변화를 확인하는 단계는, Checking the change in the vein,
    상기 제1 이미지에 포함된 제1 복수의 정맥 라인과 상기 제2 이미지에 포함된 제2 복수의 정맥 라인에 대한 정보를 이용하여 상기 접촉판과 상기 특정 영역의 접촉에 의한 정맥의 두께 변화를 확인하는 단계를 포함하는 Using information on the first plurality of vein lines included in the first image and the second plurality of vein lines included in the second image, the change in the thickness of the vein due to contact between the contact plate and the specific region is checked. Comprising the step of
    사용자 인증 방법. User authentication method.
  13. 제12항에 있어서, The method of claim 12,
    상기 정맥의 두께 변화를 확인하는 단계는, Checking the change in the thickness of the vein,
    상기 제1 복수의 정맥 라인 중 적어도 일부의 제1 두께를 산출하는 단계와, Calculating a first thickness of at least a portion of the first plurality of vein lines,
    상기 제2 복수의 정맥 라인 중 상기 산출된 제1 복수의 정맥 라인 중 적어도 일부의 위치에 상응하는 정맥 라인의 제2 두께를 산출하는 단계와, Calculating a second thickness of a vein line corresponding to a position of at least a portion of the calculated first plurality of vein lines among the second plurality of vein lines; and
    상기 제1 두께와 상기 제2 두께의 차이를 기초로 상기 정맥의 두께 변화를 확인하는 단계를 포함하는 Comprising the step of checking a change in the thickness of the vein based on the difference between the first thickness and the second thickness
    사용자 인증 방법. User authentication method.
  14. 제11항에 있어서, The method of claim 11,
    상기 정맥의 변화는 정맥의 위치 변화를 포함하고, The change in the vein includes a change in the position of the vein,
    상기 정맥의 변화를 확인하는 단계는, Checking the change in the vein,
    상기 제1 이미지에 포함된 정맥 이미지와 상기 제2 이미지에 포함된 정맥 이미지를 이용하여 상기 접촉판과 상기 특정 영역의 접촉에 의한 정맥의 위치 변화를 확인하는 단계를 포함하는 Including the step of confirming a change in the position of the vein due to contact between the contact plate and the specific region using a vein image included in the first image and a vein image included in the second image.
    사용자 인증 방법.User authentication method.
  15. 제14항에 있어서,The method of claim 14,
    상기 정맥의 위치 변화를 확인하는 단계는, Checking the change in the position of the vein,
    상기 제1 복수의 정맥 라인 중 적어도 일부의 제1 위치를 산출하는 단계와, Calculating a first position of at least some of the first plurality of vein lines,
    상기 제2 복수의 정맥 라인 중 상기 산출된 제1 복수의 정맥 라인 중 적어도 일부의 위치에 상응하는 정맥 라인의 제2 위치를 산출하는 단계와, Calculating a second position of a vein line corresponding to a position of at least a portion of the calculated first plurality of vein lines among the second plurality of vein lines; and
    상기 제1 위치와 상기 제2 위치의 거리 차이 및 상기 제1 위치로부터 상기 제2 위치로의 방향 중 적어도 하나를 기초로 상기 정맥의 위치 변화를 확인하는 단계를 포함하는 And checking a change in the position of the vein based on at least one of a distance difference between the first position and the second position and a direction from the first position to the second position.
    사용자 인증 방법. User authentication method.
  16. 제11항에 있어서, The method of claim 11,
    상기 기저장된 정맥 변화 정보는 기등록된 특정 영역의 상기 접촉판 접촉 전후의 정맥의 두께 변화 또는 정맥의 위치 변화에 대한 정보를 포함하는The pre-stored vein change information includes information on a change in thickness of a vein or a change in position of a vein before and after contacting the contact plate in a pre-registered specific area.
    사용자 인증 방법. User authentication method.
  17. 제11항에 있어서, The method of claim 11,
    상기 제1 이미지를 기저장된 사용자 정맥 이미지와 대응하는지 여부를 확인하는 단계를 더 포함하고, Further comprising the step of checking whether the first image corresponds to a pre-stored user vein image,
    상기 정맥의 변화를 확인하는 단계는, Checking the change in the vein,
    상기 제1 이미지와 기저장된 사용자 정맥 이미지가 대응하는 경우, 상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판에 대한 접촉 유무에 따른 정맥의 변화를 확인하는 단계를 포함하는 When the first image and the pre-stored user vein image correspond, checking a change in vein according to the presence or absence of contact with the contact plate based on vein images included in each of the first image and the second image doing
    사용자 인증 방법. User authentication method.
  18. 제17항에 있어서,The method of claim 17,
    상기 제1 이미지가 기저장된 사용자 정맥 이미지와 대응하는 경우, 상기 사용자 인증이 성공하였음을 나타내는 알림을 제공하는 단계와, If the first image corresponds to a previously stored user vein image, providing a notification indicating that the user authentication was successful,
    상기 제1 이미지가 기저장된 사용자 정맥 이미지와 대응하는지 않는 경우 사용자 인증이 실패함을 나타내는 알림을 제공하는 단계와, Providing a notification indicating that user authentication fails when the first image does not correspond to a previously stored user vein image; and
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 생동성(liveness)의 인증이 성공함을 나타내는 알림을 제공하는 단계와, Providing a notification indicating that authentication of liveness is successful when the confirmed vein change corresponds to pre-stored vein change information, and
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는 경우 생동성의 인증이 실패함을 나타내는 알림을 제공하는 단계를 포함하는 Providing a notification indicating that authentication of bioactivity fails when the confirmed vein change corresponds to pre-stored vein change information.
    사용자 인증 방법. User authentication method.
  19. 제11항에 있어서, The method of claim 11,
    상기 제1 이미지와 상기 제2 이미지는 적외선 카메라를 통해 획득되고, The first image and the second image are acquired through an infrared camera,
    상기 특정 영역은, The specific area,
    손바닥, 손등, 손목, 손가락, 발등 및 발바닥 중 적어도 하나를 포함하는 Including at least one of palms, backs of hands, wrists, fingers, insteps, and soles of the feet
    사용자 인증 방법. User authentication method.
  20. 사용자 손바닥이 접촉되는 접촉판으로부터 특정 거리 이상 이격된 사용자 손바닥에 대한 제1 이미지를 획득하는 단계와, Acquiring a first image of the user's palm spaced apart by a specific distance or more from the contact plate to which the user's palm comes into contact;
    상기 접촉판에 적어도 일부가 접촉된 사용자 손바닥에 대한 제2 이미지를 획득하는 단계와, Acquiring a second image of the user's palm in which at least a portion of the contact plate is in contact,
    상기 제1 이미지와 제2 이미지 각각에 포함된 정맥 이미지를 기초로 상기 접촉판 접촉 유무에 따른 정맥의 변화를 확인하는 단계와, Checking a change in the vein according to the presence or absence of contact with the contact plate based on the vein image included in each of the first image and the second image,
    상기 확인된 정맥의 변화가 기저장된 정맥 변화 정보에 대응하는지 여부를 확인함에 기초하여 사용자 인증을 수행하는 단계를 수행하도록 프로그램되는 컴퓨터 프로그램을 저장하는 Storing a computer program programmed to perform the step of performing user authentication based on checking whether the confirmed vein change corresponds to pre-stored vein change information
    컴퓨터 판독가능 기록매체. Computer-readable recording medium.
PCT/KR2019/015337 2019-11-12 2019-11-12 User authentication device for performing user authentication by using vein, and method therefor WO2021095903A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/015337 WO2021095903A1 (en) 2019-11-12 2019-11-12 User authentication device for performing user authentication by using vein, and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2019/015337 WO2021095903A1 (en) 2019-11-12 2019-11-12 User authentication device for performing user authentication by using vein, and method therefor

Publications (1)

Publication Number Publication Date
WO2021095903A1 true WO2021095903A1 (en) 2021-05-20

Family

ID=75912377

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/015337 WO2021095903A1 (en) 2019-11-12 2019-11-12 User authentication device for performing user authentication by using vein, and method therefor

Country Status (1)

Country Link
WO (1) WO2021095903A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156353A1 (en) * 2020-11-19 2022-05-19 Jvckenwood Corporation Biometric authentication through vascular monitoring
US11995166B2 (en) 2021-08-27 2024-05-28 Jvckenwood Corporation Biometric authentication through vascular studies

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100007317A (en) * 2008-07-14 2010-01-22 주식회사 유니온커뮤니티 Apparatus for distinguishing living body fingerprint and method therof
JP2011100317A (en) * 2009-11-06 2011-05-19 Tokyo Metropolitan Univ Personal authentication method and personal authentication system using vein pattern during bending and stretching motion of finger
US20110129128A1 (en) * 2009-10-16 2011-06-02 Hitachi-Omron Terminal Solutions, Corp. Biometric authentication apparatus and biometric authentication method
JP2014094301A (en) * 2013-12-20 2014-05-22 Hitachi Ltd Biometric authentication device and personal authentication system
US20180211094A1 (en) * 2016-12-28 2018-07-26 Warren M. Shadd Systems and methods for biometrically authenticating a user using authentication data and liveness data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100007317A (en) * 2008-07-14 2010-01-22 주식회사 유니온커뮤니티 Apparatus for distinguishing living body fingerprint and method therof
US20110129128A1 (en) * 2009-10-16 2011-06-02 Hitachi-Omron Terminal Solutions, Corp. Biometric authentication apparatus and biometric authentication method
JP2011100317A (en) * 2009-11-06 2011-05-19 Tokyo Metropolitan Univ Personal authentication method and personal authentication system using vein pattern during bending and stretching motion of finger
JP2014094301A (en) * 2013-12-20 2014-05-22 Hitachi Ltd Biometric authentication device and personal authentication system
US20180211094A1 (en) * 2016-12-28 2018-07-26 Warren M. Shadd Systems and methods for biometrically authenticating a user using authentication data and liveness data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220156353A1 (en) * 2020-11-19 2022-05-19 Jvckenwood Corporation Biometric authentication through vascular monitoring
US11995166B2 (en) 2021-08-27 2024-05-28 Jvckenwood Corporation Biometric authentication through vascular studies

Similar Documents

Publication Publication Date Title
WO2019216499A1 (en) Electronic device and control method therefor
WO2020017706A1 (en) Electronic device and method for controlling the same
WO2017209533A1 (en) Mobile device and controlling method thereof
WO2015199304A1 (en) Mobile terminal and method for controlling same
WO2016208802A1 (en) Watch type mobile terminal and operation method thereof
WO2016175412A1 (en) Mobile terminal and controlling method thereof
WO2018009029A1 (en) Electronic device and operating method thereof
WO2020013545A1 (en) Apparatus and method for authenticating object in electronic device
WO2018070624A2 (en) Mobile terminal and control method thereof
WO2016093459A1 (en) Mobile terminal and control method thereof
WO2017099314A1 (en) Electronic device and method for providing user information
WO2021020814A1 (en) Electronic device for providing avatar and operating method thereof
WO2019098582A1 (en) Wearable device
WO2018143509A1 (en) Moving robot and control method therefor
WO2018093005A1 (en) Mobile terminal and method for controlling the same
WO2019182378A1 (en) Artificial intelligence server
WO2019142958A1 (en) Electronic device and control method therefor
WO2016163591A1 (en) Watch-type mobile terminal
WO2016027932A1 (en) Glass-type mobile terminal and control method thereof
WO2021095903A1 (en) User authentication device for performing user authentication by using vein, and method therefor
WO2021060721A1 (en) Electronic device and method for processing image by same
WO2019088338A1 (en) Electronic device and control method therefor
WO2018097483A1 (en) Motion information generating method and electronic device supporting same
WO2020189827A1 (en) Electronic device and control method thereof
WO2017018611A1 (en) Mobile terminal and method for controlling the same

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19952184

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19952184

Country of ref document: EP

Kind code of ref document: A1