WO2022131469A1 - 딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치 - Google Patents

딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치 Download PDF

Info

Publication number
WO2022131469A1
WO2022131469A1 PCT/KR2021/009241 KR2021009241W WO2022131469A1 WO 2022131469 A1 WO2022131469 A1 WO 2022131469A1 KR 2021009241 W KR2021009241 W KR 2021009241W WO 2022131469 A1 WO2022131469 A1 WO 2022131469A1
Authority
WO
WIPO (PCT)
Prior art keywords
fingerprint
fingerprints
density distribution
image
deep learning
Prior art date
Application number
PCT/KR2021/009241
Other languages
English (en)
French (fr)
Inventor
이병호
이주현
조재범
유동헌
채민석
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of WO2022131469A1 publication Critical patent/WO2022131469A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger

Definitions

  • An embodiment of the present invention relates to a method and an apparatus for separating a fingerprint from a fingerprint superimposed image in which a plurality of fingerprints are superimposed, and more particularly, to a method and an apparatus for separating a fingerprint using a deep learning algorithm.
  • Overlapping oil fingerprints are often found at crime scenes, but in order to use them as court evidence, the image corresponding to each oil fingerprint must be separated from the overlapped image.
  • After irradiating the overlapping oil fingerprints with a laser of high power There are technologies for detecting the fluorescence intensity of fingerprints for each wavelength band and separating them based on this, and a technology for separating samples from overlapping oil fingerprints based on the spectrum obtained after analyzing them through mass spectrometry.
  • the oil fingerprint image is separated by separating the orientation component in the overlapped portion based on the non-overlapping direction component in each oil fingerprint.
  • this method has a disadvantage in that, when an oil fingerprint is imprinted on a background object having a rather complicated pattern, the separation result is not good because the direction component of the background image and the direction component of the oil fingerprint are mixed.
  • the technical problem to be achieved by an embodiment of the present invention is a method of determining whether each pixel of an image is a component of a target fingerprint by using a deep learning algorithm, and then extracting a direction component and a density distribution to separate an overlapping fingerprint, and a method thereof to provide the device.
  • an example of a fingerprint separation method is a fingerprint superimposed image in which at least two or more fingerprints are superimposed on various backgrounds using a plurality of background images and a plurality of artificial fingerprints; generating a learning dataset including a direction field and a density distribution for the plurality of artificial fingerprints; training a deep learning network to output a direction field and a density distribution for a fingerprint using the training dataset; and obtaining a direction field and density distribution for a detection target fingerprint among at least two or more fingerprints existing in the restoration target image using the learned deep learning network, and outputting it to enable fingerprint restoration.
  • an example of a fingerprint separation device is a fingerprint superimposed image in which at least two or more fingerprints are superimposed on various backgrounds using a plurality of background images and a plurality of artificial fingerprints; a learning data generator for generating a learning data set including a direction field and a density distribution for the plurality of artificial fingerprints; a learning unit for learning a deep learning network to output a direction field and a density distribution for a fingerprint for a fingerprint using the learning dataset; and a restoration information generation unit that obtains a direction field and density distribution for a detection target fingerprint among at least two or more fingerprints existing in the restoration target image using the learned deep learning network, and outputs the result to enable fingerprint restoration.
  • the deep learning algorithm since the deep learning algorithm is used, oil fingerprints obtained at the crime scene can be quickly restored at the scene, and thus, there is an advantage in that the initial investigation can be performed quickly.
  • a person In the case of the fingerprint image processing program currently used by the National police Agency, a person must manually separate or restore the fingerprint. Usually, 4-5 hours of processing time are required to process one fingerprint.
  • fingerprint restoration is possible in less than 10 seconds even in a general laptop with a low specification, not a high-use workstation, and compared to the existing processing method that reduces noise and strengthens the ridge of the fingerprint, this embodiment shows the direction of the ridge Since the field and density distribution are directly extracted, less noise is generated than when the ridge is separated directly.
  • the vectorized image of the direction distribution can check the direction and feature points of the ridge without background noise, so it is simple to use if the user is a beginner in fingerprint separation. can be used as a reference for serious separation. This allows unskilled users to participate in fingerprint separation, so more personnel can participate in the initial investigation, and oil fingerprints obtained from actual crime scenes can be quickly separated.
  • FIG. 1 is a view showing an example of a fingerprint separation device according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an example of an artificial intelligence network constituting a deep learning algorithm according to an embodiment of the present invention
  • FIG. 3 is a view showing an example of input data and output data of a fingerprint separation device according to an embodiment of the present invention
  • FIG. 4 is a flowchart illustrating an example of a fingerprint separation method according to an embodiment of the present invention.
  • 5 and 6 are diagrams showing an example of a method of generating a learning data set for an artificial intelligence algorithm according to an embodiment of the present invention
  • FIG. 7 is a diagram illustrating another example of a method for generating a learning data set for an artificial intelligence algorithm according to an embodiment of the present invention.
  • FIG. 8 is a view showing an example of quantizing a direction field and a density distribution according to an embodiment of the present invention.
  • FIG. 9 is a diagram illustrating an example of a learning method of a deep learning algorithm according to an embodiment of the present invention.
  • FIG. 10 is a view showing an example of a pre-processing process of a restoration target image according to an embodiment of the present invention
  • FIG. 11 and 12 are views showing an example of a fingerprint restoration method according to an embodiment of the present invention.
  • FIG. 13 is a diagram showing the configuration of an example of a fingerprint separation device according to an embodiment of the present invention.
  • FIG. 1 is a view showing an example of a fingerprint separation device according to an embodiment of the present invention.
  • the fingerprint separation device 100 receives the restoration target image 110 with the fingerprint overlapped, the ridge orientation field 120 and the ridge density distribution required for fingerprint restoration using a deep learning algorithm ( density map) 130 is obtained and output.
  • the restoration target image 110 refers to an image in which at least two or more oil fingerprints partially or entirely overlap each other.
  • the restoration target image 110 may be an image obtained through a predetermined pre-processing process after photographing an oil fingerprint existing on an object at a crime scene using a camera or the like.
  • An example of the restoration target image 110 is shown in FIG. 3 .
  • the direction field 120 means a value indicating the ridge direction of the fingerprint (eg, an angle with respect to the ridge direction in each pixel constituting the ridge).
  • the fingerprint separation apparatus 100 may obtain a direction field for each pixel constituting the fingerprint ridge in the restoration target image 110 using a deep learning algorithm. As an embodiment, the fingerprint separation apparatus 100 may quantize the direction field to a predefined number (eg, 16 values) and output it, and an example of quantization is shown in FIG. 8 .
  • the density distribution 130 means the interval between the ridges of the fingerprint.
  • the fingerprint separation apparatus 100 may represent the distance between adjacent ridges in the restoration target image 110 in units of pixels by using a deep learning algorithm.
  • the fingerprint separation apparatus may quantize the density distribution to a predefined number (eg, 10 values) and output the quantization, and an example of quantization is shown in FIG. 8 .
  • the deep learning algorithm is an artificial intelligence network that determines whether each pixel is a component of a detection target fingerprint in the restoration target image 110 and outputs a direction field and density distribution for each pixel corresponding to the detection target fingerprint.
  • An example of an artificial intelligence network constituting a deep learning algorithm is shown in FIG. 2 .
  • FIG. 2 is a diagram illustrating an example of an artificial intelligence network constituting a deep learning algorithm according to an embodiment of the present invention.
  • the deep learning algorithm is a deep learning network trained to output the direction field and density distribution of the detection target fingerprint when receiving the restoration target image 200 in which the fingerprint superimposed on the background image is input.
  • An example of a learning method of a deep learning network for this embodiment is shown in FIG. 9 .
  • the deep learning network may output the direction field and density distribution of the detection target fingerprint predicted from the restoration target image 200 as 8-bit images 210 and 220 of gray shades.
  • the predicted values of the direction field and the density distribution may be quantized values, and an example thereof is shown in FIG. 8 .
  • FIG. 3 is a diagram illustrating an example of input data and output data of a fingerprint separation device according to an embodiment of the present invention.
  • the stake separation device 100 receives a restoration target image 300 in which at least two or more fingerprints are superimposed on a background image, and a detection target in the restoration target image 300 using a deep learning algorithm.
  • the direction field 310 and the density distribution 320 for the fingerprint are obtained and output. If the direction field 310 and the density distribution 320 for the fingerprint exist, the fingerprint can be reconstructed therefrom, and an example thereof is shown in FIGS. 11 and 12 .
  • FIG. 4 is a flowchart illustrating an example of a fingerprint separation method according to an embodiment of the present invention.
  • the fingerprint separation apparatus 100 generates learning data using an artificial fingerprint (S400).
  • the fingerprint separation apparatus 100 may generate a plurality of artificial fingerprints using various conventional methods, and may generate a fingerprint superimposed image in which at least two or more artificial fingerprints are superimposed on various previously generated background images.
  • the fingerprint separation device 100 may automatically generate a fingerprint superimposed image or provide a screen interface through which the user can superimpose various background images and artificial fingerprints. A detailed method of generating the training data set will be looked at again in FIGS. 5 to 7 .
  • the fingerprint separation device 100 learns the deep learning network using the learning dataset (S410). When the learning of the deep learning network is completed, the fingerprint separation device 100 identifies and outputs the direction field and density distribution for the detection target fingerprint in the restoration target image using the learned deep learning algorithm (S420).
  • the fingerprint separation device 100 may perform a preprocessing process such as rotating the restoration target image so that the detection target fingerprint is in a predefined direction (eg, vertical direction) before inputting the restoration target image to the deep learning network.
  • a preprocessing process such as rotating the restoration target image so that the detection target fingerprint is in a predefined direction (eg, vertical direction) before inputting the restoration target image to the deep learning network.
  • FIG. 10 An example of the pre-processing process of the restoration target image is shown in FIG. 10 .
  • the deep learning network may identify a fingerprint in a predefined direction in the overlapped fingerprint as a detection target fingerprint, and output a direction field and density distribution for the fingerprint.
  • the deep learning network is trained in advance to output the direction field and density distribution of the fingerprint for a predefined direction.
  • 5 and 6 are diagrams illustrating an example of a method of generating a learning data set for an artificial intelligence algorithm according to an embodiment of the present invention.
  • the fingerprint separation apparatus 100 generates superimposed fingerprint images 530 and 630 in which the background images 500 and 600 and at least two artificial fingerprints 510, 520, 610, and 620 are superimposed.
  • the background images 500 and 600 may be surface images of various objects (eg, various types of paper such as receipts) from which fingerprints can be detected.
  • the artificial fingerprints 510 , 520 , 610 , and 620 are fingerprints generated in advance by various conventional methods.
  • the artificial fingerprints 510 , 520 , 610 , and 620 may be fingerprints generated based on arbitrarily generated direction fields and density distributions for fingerprint ridges.
  • Various conventional methods for generating a fingerprint using a direction field and a density distribution can be applied to this embodiment.
  • At least two artificial fingerprints 510 , 520 , 610 , and 620 included in the fingerprint superimposed images 530 and 630 may be overlapped in different directions.
  • the fingerprint separation device arranges the first artificial fingerprint 610 in a predefined direction (eg, vertical direction) as shown in FIG. 6 and rotates the second artificial fingerprint 620 at a certain angle in the vertical direction. After that, the first artificial fingerprint 610 may be overlapped to generate a fingerprint superimposed image 630 .
  • the deep learning algorithm is learned to predict and output the direction field and density distribution of the first artificial fingerprint in the fingerprint superimposed images 530 and 630 . Therefore, when the restoration target image is input to the deep learning algorithm, the restoration target image is rotated and input so that the detection target fingerprint is arranged in a predefined direction (in the case of FIG. 6, vertical direction) of the first artificial fingerprint.
  • FIG. 7 is a diagram illustrating another example of a method of generating a learning data set for an artificial intelligence algorithm according to an embodiment of the present invention.
  • the fingerprint separation apparatus 100 may perform a pre-processing process so that the artificial fingerprint of the learning data set is similar to the oil fingerprint of the actual field. For example, in FIG. 6 , the fingerprint separation device adds a curve to all or a part of the ridge of the second artificial fingerprint 620 ( 710 ), modulates the thickness of all or a part of the ridge ( 720 ), or all or part of the ridge A preprocessing process of adjusting the sharpness (eg, blurring) 730 may be performed. The fingerprint separation device may automatically perform a pre-processing process or may receive the curvature, thickness, sharpness, etc. of the fingerprint from the user through a user interface and reflect it on the artificial fingerprint. The fingerprint separation apparatus 100 may rotate or symmetrical the preprocessed second artificial fingerprint 620 to generate a fingerprint superimposed image 740 superimposed on the first artificial fingerprint 610 .
  • FIG. 8 is a diagram illustrating an example of quantizing a direction field and a density distribution according to an embodiment of the present invention.
  • the fingerprint separation apparatus 100 may quantize the value of the direction field and density distribution of the artificial fingerprint included in the learning data set.
  • the left side of FIG. 8 shows the direction field 800 and the density distribution 810 before quantization, and the right side shows the direction field 820 and the density distribution 830 after quantization.
  • This quantization process has the effect of increasing the learning effect by reducing the number of branches to be predicted by the deep learning algorithm.
  • the direction field in each pixel constituting the ridge of the artificial fingerprint has an angle value of 0 to ⁇
  • it can be quantized into a predefined number (eg, 16) for learning.
  • a predefined number eg, 16
  • the direction field belonging to each angle group can be quantized into a representative value of the corresponding group (for example, the median value, average value, minimum value, or maximum value of the corresponding range).
  • the range of the minimum value to the maximum value of the density distribution may be quantized to a predefined number (eg, 10).
  • the range of density distribution that can appear in the fingerprint is 0 to 99 pixels, it is divided into 10 groups of 0 to 9, 10 to 19, ..., 90 to 99,
  • the density distribution may be expressed as a representative value of each group (eg, a median value, an average value, a minimum value, or a maximum value).
  • FIG. 9 is a diagram illustrating an example of a learning method of a deep learning algorithm according to an embodiment of the present invention.
  • the deep learning network 900 constituting the deep learning algorithm of this embodiment includes a fingerprint superimposed image (eg, 630 in FIG. 6) and a quantized direction field and density distribution (820,830 in FIG. 8) It can be trained using the training dataset. For example, referring to FIGS. 6 and 8 , when the deep learning network 900 receives a learning data set, the direction field and density distribution of the detection target fingerprint 610 from the fingerprint superposition image 630 of the learning data set are obtained. After predicting and outputting the prediction, a learning process of adjusting the parameters of the network can be performed by comparing the predicted direction field and density distribution with the direction field 820 and density distribution 830, which are correct answers existing in the learning dataset. . At this time, the direction field and density distribution predicted and output by the deep learning network 900 are quantized values.
  • FIG. 10 is a diagram illustrating an example of a pre-processing process of a restoration target image according to an embodiment of the present invention.
  • the fingerprint separating apparatus 100 when receiving an image 1000 in which at least two or more fingerprints are superimposed, displays the image 1000 in a predefined direction (eg, vertical (length) ) direction).
  • the fingerprint separation device 100 adjusts the image 1010 in which the detection target fingerprint is rotated in the vertical direction to a predefined resolution to make the final restoration target image 1020 input to the deep-learing network.
  • the fingerprint separation apparatus 100 rotates and crops the input image 1000 to generate a restoration target image 1020 having a size of 288 * 400 pixels with a resolution of 500 ppi (pixel per inches). can do.
  • 11 and 12 are diagrams illustrating an example of a fingerprint restoration method according to an embodiment of the present invention.
  • the fingerprint separation device 100 obtains the direction field 1100 and the density distribution 1110 of the detection target fingerprint from the restoration target image using a deep learning algorithm, and then restores the fingerprint based on this.
  • Various conventional methods for reconstructing the fingerprint 1120 using the direction field 1100 and the density distribution 1110 may be applied to this embodiment.
  • the fingerprint 1120 may be generated from the direction field 1100 and the density distribution 1110 by applying the same method as the method of creating an artificial fingerprint for learning data in FIGS. 5 and 6 .
  • FIG. 13 is a diagram showing the configuration of an example of a fingerprint separation device according to an embodiment of the present invention.
  • the fingerprint separation apparatus 100 includes a learning data generating unit 1300 , a learning unit 1310 , a restoration information generating unit 1320 , and a restoration unit 1330 .
  • the restoration unit 1330 may be omitted.
  • the learning data generation unit 1300 generates a learning dataset for learning an artificial intelligence algorithm that predicts and outputs the direction field and density distribution of the detection target fingerprint in the image on which the fingerprint is superimposed.
  • An example of a method of generating a training data set is shown in FIGS. 5 to 8 .
  • the learning unit 1310 learns the artificial intelligence network using the learning dataset.
  • An example of a learning method of an artificial intelligence network is shown in FIG. 9 .
  • the restoration information generating unit 1320 When the restoration information generating unit 1320 receives an image to be restored in which at least two or more fingerprints are superimposed, it is input to the artificial intelligence network to obtain a direction field and density distribution for the fingerprint to be detected.
  • the restoration information generating unit 1320 receives an image with a fingerprint overlapped, the image is rotated so that the detection target fingerprint is arranged in the longitudinal direction, and then the resolution of the image is adjusted to match a predefined resolution to pre-process the restoration target image. After that, it can be entered into the artificial intelligence network.
  • An example of the pre-processing process of the restoration target image is shown in FIG. 10 .
  • the restoration unit 1330 restores the fingerprint by using the direction field and the density distribution for the detection target fingerprint.
  • An example of a fingerprint restoration method is shown in FIGS. 11 and 12 .
  • the present invention can also be implemented as computer-readable codes on a computer-readable recording medium.
  • the computer-readable recording medium includes all types of recording devices in which data readable by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, SSD, and optical data storage devices.
  • the computer-readable recording medium is distributed in a network-connected computer system so that the computer-readable code can be stored and executed in a distributed manner.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치가 개시된다. 지문분리장치는 복수의 배경영상과 복수의 인조 지문을 이용하여 다양한 배경에 적어도 둘 이상의 지문이 중첩된 지문중첩영상과 상기 복수의 인조 지문에 대한 방향필드와 밀도분포를 포함하는 학습데이터셋을 생성하고, 이를 이용하여 딥러닝 네트워크를 학습시킨 후, 학습 완료된 딥러닝 네트워크를 이용하여 복원대상이미지에 존재하는 적어도 둘 이상의 지문 중 검출대상지문에 대한 방향필드와 밀도분포를 구하여 지문 복원이 가능하도록 출력한다.

Description

딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치
본 발명의 실시 예는 복수의 지문이 중첩된 지문중첩영상에서 지문을 분리하는 방법 및 그 장치에 관한 것으로, 보다 상세하게는 딥러닝 알고리즘을 이용하여 지문을 분리하는 방법 및 그 장치에 관한 것이다.
겹친 유류 지문은 종종 범죄 현장에서 발견되지만, 이를 법정 증거로써 사용하기 위해서는 각 유류 지문에 해당하는 영상을 겹친 영상에서 분리해야 한다. 겹친 지문을 분리하기 위한 종래 다양한 기술이 존재한다. 가시광선 대역에서 찍은 사진을 기반으로 각 유류 지문의 융선이 가진 방향을 통해 추측하여 겹친 부분에 섞인 각 유류 지문의 다른 방향의 융선들을 분리해내는 기술, 겹친 유류 지문을 큰 파워의 레이저로 조사한 후 다양한 파장 대역별 지문의 형광 세기를 검출하고 이를 바탕으로 분리하는 기술, 겹친 유류 지문의 표본을 질량 분석법을 통해 분석한 후 얻어진 스펙트럼을 기반으로 분리하는 기술 등이 존재한다.
방향 필드(orientation field)를 유추하는 겹친 유류 지문 영상 분리 기술의 경우, 각 유류 지문에서 겹쳐지지 않은 방향 성분에 의거하여 겹쳐진 부분에서의 방향 성분을 분리하여 유류 지문 영상을 분리해낸다. 또한 이 방법은 다소 복잡한 패턴을 지닌 배경 물체에 유류 지문이 찍혀 있는 경우, 배경 영상의 방향 성분과 유류 지문의 방향 성분이 혼재하여 분리 결과가 좋지 못한 단점을 가지고 있다.
본 발명의 실시 예가 이루고자 하는 기술적 과제는, 딥러닝 알고리즘을 이용하여 영상의 각 픽셀별로 목표 지문의 성분인지를 판단한 뒤 방향성분과 밀도 분포를 추출하여 중첩된 지문을 분리할 수 있도록 하는 방법 및 그 장치를 제공하는 데 있다.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 지문분리방법의 일 예는, 복수의 배경영상과 복수의 인조 지문을 이용하여 다양한 배경에 적어도 둘 이상의 지문이 중첩된 지문중첩영상과 상기 복수의 인조 지문에 대한 방향필드와 밀도분포를 포함하는 학습데이터셋을 생성하는 단계; 상기 학습데이터셋을 이용하여 지문에 대한 방향필드와 밀도분포를 출력하도록 딥러닝 네트워크를 학습시키는 단계; 및 학습 완료된 딥러닝 네트워크를 이용하여 복원대상이미지에 존재하는 적어도 둘 이상의 지문 중 검출대상지문에 대한 방향필드와 밀도분포를 구하여 지문 복원이 가능하도록 출력하는 단계;를 포함한다.
상기의 기술적 과제를 달성하기 위한, 본 발명의 실시 예에 따른 지문분리장치의 일 예는, 복수의 배경영상과 복수의 인조 지문을 이용하여 다양한 배경에 적어도 둘 이상의 지문이 중첩된 지문중첩영상과 상기 복수의 인조 지문에 대한 방향필드와 밀도분포를 포함하는 학습데이터셋을 생성하는 학습데이터생성부; 상기 학습데이터셋을 이용하여 지문에 대한 지문에 대한 방향필드와 밀도분포를 출력하도록 딥러닝 네트워크를 학습시키는 학습부; 및 학습 완료된 딥러닝 네트워크를 이용하여 복원대상이미지에 존재하는 적어도 둘 이상의 지문 중 검출대상지문에 대한 방향필드와 밀도분포를 구하여 지문 복원이 가능하도록 출력하는 복원정보생성부;를 포함한다.
본 발명의 실시 예에 따르면, 딥러닝 알고리즘을 이용하므로 범죄 현장에서 얻어진 유류 지문을 빠르게 현장에서 바로 복원할 수 있어, 초동수사를 빠르게 진행할 수 있는 장점이 있다. 현재 경찰청에서 쓰고 있는 지문 이미지 처리프로그램의 경우, 사람이 직접 수작업을 통해 지문을 분리하거나 복원을 해야 한다. 보통 지문 1개의 처리를 위해 4~5시간의 처리 시간이 필요하다. 본 실시 예는 고사용의 워크스테이션이 아닌 사양이 낮은 일반적인 노트북에서도 10초 미만으로 지문 복원이 가능하며, 노이즈를 감쇄시키고 지문의 융선을 강화하는 기존의 처리방식에 비하여 본 실시 예는 융선의 방향필드와 밀도분포를 바로 추출하므로 융선을 바로 분리할 대보다 노이즈가 덜 생긴다.특히 방향 분포를 벡터화한 이미지는 융선의 방향과 특징점을 배경 노이즈 없이 확인할 수 있어 사용자가 지문 분리의 초보자인 경우, 간단한 사용으로 본격적인 분리에 참고할 수 있다. 이는 숙달되지 않은 사용자도 지문 분리에 참여할 수 있게 해 주므로 더 많은 인력이 초동 수사에 참여할 수 이께 하고, 실제 범죄 현장에서 얻어진 유류 지문을 빠르게 분리할 수 있다.
도 1은 본 발명의 실시 예에 따른 지문분리장치의 일 예를 도시한 도면,
도 2는 본 발명의 실시 예에 따른 딥러닝 알고리즘을 구성하는 인공지능 네트워크의 일 예를 도시한 도면,
도 3은 본 발명의 실시 예에 따른 지문분리장치의 입력데이터와 출력데이터의 일 예를 도시한 도면,
도 4는 본 발명의 실시 예에 따른 지문분리방법의 일 예를 도시한 흐름도,
도 5 및 도 6은 본 발명이 실시 예에 따른 인공지능 알고리즘을 위한 학습데이터셋을 생성하는 방법의 일 예를 도시한 도면,
도 7은 본 발명의 실시 예에 따른 인공지능 알고리즘을 위한 학습데이터셋의 생성 방법의 다른 일 예를 도시한 도면,
도 8은 본 발명의 실시 예에 따른 방향필드 및 밀도분포를 양자화한 일 예를 도시한 도면,
도 9는 본 발명의 실시 예에 따른 딥러닝 알고리즘의 학습 방법의 일 예를 도시한 도면,
도 10은 본 발명의 실시 예에 따른 복원대상이미지의 전처리과정의 일 예를 도시한 도면,
도 11 및 도 12는 본 발명의 실시 예에 따른 지문복원방법의 일 예를 도시한 도면, 그리고,
도 13은 본 발명의 실시 예에 따른 지문분리장치의 일 예의 구성을 도시한 도면이다.
이하에서, 첨부된 도면들을 참조하여 본 발명의 실시 예에 따른 딥러닝 알고리즘을 이용한 지문 분리 방법 및 그 장치에 대해 상세히 살펴본다.
도 1은 본 발명의 실시 예에 따른 지문분리장치의 일 예를 도시한 도면이다.
도 1을 참조하면, 지문분리장치(100)는 지문이 겹쳐진 복원대상이미지(110)를 수신하면 딥러닝 알고리즘을 이용하여 지문 복원에 필요한 융선 방향필드(orientation field)(120)와 융선 밀도분포(density map)(130)를 구하여 출력한다. 여기서, 복원대상이미지(110)는 적어도 둘 이상의 유류 지문의 일부 또는 전체가 서로 중첩되어 있는 영상을 의미한다. 예를 들어, 복원대상이미지(110)는 범죄현장 등에서 물건에 존재하는 유류 지문을 카메라 등을 통해 촬영한 후 소정의 전처리 과정을 통해 얻어진 영상일 수 있다. 복원대상이미지(110)의 일 예가 도 3에 도시되어 있다.
방향필드(120)는 지문의 융선 방향을 나타내는 값(예를 들어, 융선을 구성하는 각 픽셀에서의 융선 방향에 대한 각도)을 의미한다. 지문분리장치(100)는 복원대상이미지(110)에서 지문 융선을 구성하는 각 픽셀별 방향필드를 딥러닝 알고리즘을 이용하여 구할 수 있다. 일 실시 예로, 지문분리장치(100)는 방향필드를 기 정의된 개수로 양자화(예를 들어, 16개의 값)하여 출력할 수 있으며 양자화의 일 예가 도 8에 도시되어 있다.
밀도분포(130)는 지문의 융선 사이의 간격을 의미한다. 지문분리장치(100)는 딥러닝 알고리즘을 이용하여 복원대상이미지(110)에서 인접한 융선 사이의 거리를 픽셀 단위로 나타낼 수 있다. 일 실시 예로, 지문분리장치는 밀도분포를 기 정의된 개수로 양자화(예를 들어, 10개의 값)하여 출력할 수 있으며, 양자화의 일 예가 도 8에 도시되어 있다.
딥러닝 알고리즘은 복원대상이미지(110)에서 픽셀별로 검출대상지문의 성분인지를 판단한 후 검출대상지문에 해당하는 각 픽셀에 대한 방향필드와 밀도분포를 출력하는 인공지능 네트워크이다. 딥러닝 알고리즘을 구성하는 인공지능 네트워크의 일 예가 도 2에 도시되어 있다.
도 2는 본 발명의 실시 예에 따른 딥러닝 알고리즘을 구성하는 인공지능 네트워크의 일 예를 도시한 도면이다.
도 2를 참조하면, 딥러닝 알고리즘은 배경영상에 중첩된 지문이 존재하는 복원대상이미지(200)를 입력받으면 검출대상지문의 방향필드와 밀도분포를 출력하도록 학습된 딥러닝 네트워크이다. 본 실시 예를 위한 딥러닝 네트워크의 학습 방법의 일 예가 도 9에 도시되어 있다. 딥러닝 네트워크는 복원대상이미지(200)로부터 예측한 검출대상지문의 방향필드와 밀도분포를 회색음영의 8비트 이미지(210,220)로 출력할 수 있다. 학습 효과를 높이기 위하여 방향필드와 밀도분포의 예측값은 양자화된 값일 수 있으며, 이에 대한 예가 도 8에 도시되어 있다.
도 3은 본 발명의 실시 예에 따른 지문분리장치의 입력데이터와 출력데이터의 일 예를 도시한 도면이다.
도 3을 참조하면, 지분분리장치(100)는 적어도 둘 이상의 지문이 배경영상에 중첩되어 존재하는 복원대상이미지(300)를 입력받으면, 딥러닝 알고리즘을 이용하여 복원대상이미지(300)에서 검출대상지문에 대한 방향필드(310) 및 밀도분포(320)를 구하여 출력한다. 지문에 대한 방향필드(310) 및 밀도분포(320)가 존재하면 이로부터 지문을 복원할 수 있으며, 이에 대한 일 예가 도 11 및 도 12에 도시되어 있다.
도 4는 본 발명의 실시 예에 따른 지문분리방법의 일 예를 도시한 흐름도이다.
도 4를 참조하면, 지문분리장치(100)는 인조지문을 이용한 학습데이터를 생성한다(S400). 지문분리장치(100)는 인조지문을 종래의 다양한 방법을 이용하여 복수 개 생성하고, 미리 생성된 다양한 배경영상에 적어도 둘 이상의 인조지문을 중첩시킨 지문중첩영상을 생성할 수 있다. 지문분리장치(100)는 지문중첩영상을 자동으로 생성하거나 사용자가 다양한 배경영상과 인조지문을 중첩할 수 있는 화면인터페이스를 제공할 수 있다. 학습데이터셋을 생성하는 구체적인 방법에 대해서는 도 5 내지 도 7에 다시 살펴본다.
지문분리장치(100)는 학습데이터셋을 이용하여 딥러닝 네트워크를 학습시킨다(S410). 딥러닝 네트워크의 학습이 완료되면, 지문분리장치(100)는 학습 완료된 딥러닝 알고리즘을 이용하여 복원대상이미지에서 검출대상지문에 대한 방향필드와 밀도분포를 파악하여 출력한다(S420).
지문분리장치(100)는 딥러닝 네트워크에 복원대상이미지를 입력하기 전에 검출대상지문이 기 정의된 방향(예를 들어, 수직방향)이 되도록 복원대상이미지를 회전하는 등의 전처리 과정을 수행할 수 있다. 복원대상이미지의 전처리 과정의 일 예가 도 10에 도시되어 있다. 이 경우, 딥러닝 네트워크는 중첩된 지문에서 기 정의된 방향의 지문을 검출대상지문으로 파악하고 이에 대한 방향필드 및 밀도분포를 출력할 수 있다. 물론 이를 위하여 딥러닝 네트워크는 기 정의된 방향에 대한 지문의 방향필드 및 밀도분포를 출력하도록 미리 학습된다.
도 5 및 도 6은 본 발명이 실시 예에 따른 인공지능 알고리즘을 위한 학습데이터셋을 생성하는 방법의 일 예를 도시한 도면이다.
도 5 및 도 6을 함께 참조하면, 지문분리장치(100)는 배경영상(500,600)과 적어도 둘 이상의 인조지문(510,520,610,620)을 중첩한 지문중첩영상(530,630)을 생성한다. 배경영상(500,600)은 지문이 검출될 수 있는 다양한 물건(예를 들어, 영수증과 같은 각종 종이 등)의 표면 이미지일 수 있다. 인조지문(510,520,610,620)은 종래의 다양한 방법으로 미리 생성된 지문이며, 일 예로 지문 융선에 대한 방향필드와 밀도분포를 임의로 생성한 후 이를 기초로 생성된 지문일 수 있다. 방향필드와 밀도분포를 이용하여 지문을 생성하는 종래의 다양한 방법이 본 실시 예에 적용될 수 있다. 일 예로 방향필드와 밀도분포를 이용한 지문 생성의 방법으로 논문 "Cappelli, R., Maio, D., & Maltoni, D. (2004, June). SFinGe: an approach to synthetic fingerprint generation. In International Workshop on Biometric Technologies (BT2004) (pp. 147-154)"에 기재된 방법이 본 실시 예에 적용될 수 있다.
지문중첩영상(530,630)에 포함되는 적어도 둘 이상의 인조지문(510,520,610,620)은 서로 다른 방향으로 중첩될 수 있다. 예를 들어, 지문분리장치는 도 6과 같이 제1 인조지문(610)을 기 정의된 방향(예를 들어, 수직방향)으로 배치하고 제2 인조지문(620)을 수직방향에서 일정 각도 회전한 후 제1 인조지문(610)과 중첩시켜 지문중첩영상(630)을 생성할 수 있다.
딥러닝 알고리즘은 지문중첩영상(530,630)에서 제1 인조지문의 방향필드와 밀도분포를 예측하여 출력하도록 학습된다. 따라서 이후 복원대상이미지를 딥러닝 알고리즘에 입력할 때 제1 인조지문의 기 정의된 방향(도 6의 경우, 수직방향)으로 검출대상지문이 배치되도록 복원대상이미지를 회전하여 입력한다.
도 7은 본 발명의 실시 예에 따른 인공지능 알고리즘을 위한 학습데이터셋의 생성 방법의 다른 일 예를 도시한 도면이다.
도 7을 참조하면, 지문분리장치(100)는 학습데이터셋의 인조지문이 실제 현장의 유류지문과 유사하도록 전처리과정을 수행할 수 있다. 예를 들어, 지문분리장치는 도 6에서 제2 인조지문(620)의 융선의 전체 또는 일부에 굴곡을 부가(710)하거나 융선의 전체 또는 일부의 두께를 변조(720)하거나 융선의 전체 또는 일부의 선명도 조정(예를 들어, 흐리게 함)(730)하는 전처리 과정을 수행할 수 있다. 지문분리장치는 전처리과정을 자동으로 수행하거나 사용자 인터페이스를 통해 사용자로부터 지문의 굴곡이나 두께, 선명도 등을 입력받아 인조지문에 반영할 수 있다. 지문분리장치(100)는 전처리된 제2 인조지문(620)를 회전 또는 대칭시켜 제1 인조지문(610)과 중첩한 지문중첩영상(740)을 생성할 수 있다.
도 8은 본 발명의 실시 예에 따른 방향필드 및 밀도분포를 양자화한 일 예를 도시한 도면이다.
도 8을 참조하면, 지문분리장치(100)는 학습데이터셋에 포함되는 인조지문의 방향필드 및 밀도분포의 값을 양자화할 수 있다. 도 8의 왼쪽은 양자화 전의 방향필드(800)와 밀도분포(810)를 도시한 것이고, 오른쪽 그림은 양자화 후의 방향필드(820)와 밀도분포(830)를 도시한 도면이다. 이러한 양자화 과정은 딥러닝 알고리즘으로 하여금 예측해야 하는 가짓수를 줄여 학습 효과를 높이는 효과를 준다.
예를 들어, 인조지문의 융선을 구성하는 각 픽셀에서의 방향필드는 0~π의 각도값을 가지지만 학습을 위해 이를 기 정의된 개수(예를 들어, 16개)의 값으로 양자화할 수 있다. 즉, 0~π를 16개의 각도그룹으로 나눈 후 각 각도그룹에 속하는 방향필드를 해당 그룹의 대표값(예를 들어, 해당 범위의 중간값, 평균값, 최소값 또는 최대값 등)으로 양자화할 수 있다. 다른 예로, 밀도분포의 최소값~최대값의 범위를 기 정의된 개수(예를 들어, 10개)로 양자화할 수 있다. 지문에서 나타날 수 있는 밀도분포의 범위가 0~99 픽셀인 경우에 0~9, 10~19,...,90~99의 10개의 그룹으로 나눈 후 각 인조지문의 융선을 나타내는 각 픽셀에 대한 밀도분포를 각 그룹의 대표값(예를 들어, 중간값, 평균값, 최소값 또는 최대값 등)으로 나타낼 수 있다.
도 9는 본 발명의 실시 예에 따른 딥러닝 알고리즘의 학습 방법의 일 예를 도시한 도면이다.
도 9를 참조하면, 본 실시 예의 딥러닝 알고리즘을 구성하는 딥러닝 네트워크(900)는 지문중첩영상(예, 도 6의 630)과 양자화된 방향필드 및 밀도분포(도 8의 820,830)를 포함하는 학습데이터셋을 이용하여 학습시킬 수 있다. 예를 들어, 도 6 및 도 8을 참조하면, 딥러닝 네트워크(900)는 학습데이터셋을 입력받으면 학습데이터셋의 지문중첩영상(630)으로부터 검출대상지문(610)의 방향필드와 밀도분포를 예측하여 출력한 후, 예측된 방향필드와 밀도분포를 학습데이터셋에 존재하는 정답지인 방향필드(820) 및 밀도분포(830)와 비교하여 네트워크의 파라메터 등을 조정하는 학습 과정을 수행할 수 있다. 이때 딥러닝 네트워크(900)가 예측하여 출력하는 방향필드와 밀도분포는 양자화된 값이다.
도 10은 본 발명의 실시 예에 따른 복원대상이미지의 전처리과정의 일 예를 도시한 도면이다.
도 10을 참조하면, 지문분리장치(100)는 적어도 둘 이상의 지문이 중첩된 영상(1000)을 입력받으면, 해당 영상(1000)을 검출대상지문이 기 정의된 방향(예를 들어, 수직(길이) 방향)이 되도록 회전한다. 또한 지문분리장치(100)는 검출대상지문이 수직 방향으로 회전된 영상(1010)을 기 정의된 해상도로 조정하여 딥러링 네트워크에 입력한 최종 복원대상이미지(1020)를 만든다. 예를 들어, 지문분리장치(100)는 입력된 영상(1000)을 회전한 후 크롭(crop)하여 500ppi(pixel per inches)의 해상도를 가진 288 * 400 픽셀 크기의 복원대상이미지(1020)를 생성할 수 있다.
도 11 및 도 12는 본 발명의 실시 예에 따른 지문복원방법의 일 예를 도시한 도면이다.
도 11 및 도 12을 참조하면, 지문분리장치(100)는 딥러닝 알고리즘을 이용하여 복원대상이미지로부터 검출대상지문의 방향필드(1100)와 밀도분포(1110)를 구한 후 이를 기초로 지문을 복원할 수 있다. 방향필드(1100)와 밀도분포(1110)를 이용하여 지문(1120)을 복원하는 종래의 다양한 방법이 본 실시 예에 적용될 수 있다. 예를 들어, 도 5 및 도 6에서 학습데이터를 위한 인조지문을 만드는 방법과 동일한 방법을 적용하여 방향필드(1100)와 밀도분포(1110)로부터 지문(1120)을 생성할 수 있다.
도 13은 본 발명의 실시 예에 따른 지문분리장치의 일 예의 구성을 도시한 도면이다.
도 13을 참조하면, 지문분리장치(100)는 학습데이터생성부(1300), 학습부(1310), 복원정보생성부(1320) 및 복원부(1330)를 포함한다. 실시 예에 따라 복원부(1330)는 생략될 수 있다.
학습데이터생성부(1300)는 지문이 중첩된 영상에서 검출대상지문의 방향필드와 밀도분포를 예측하여 출력하는 인공지능 알고리즘의 학습을 위한 학습데이터셋을 생성한다. 학습데이터셋을 생성하는 방법의 일 예가 도 5 내지 8에 도시되어 있다.
학습부(1310)는 학습데이터셋을 이용하여 인공지능 네트워크를 학습시킨다. 인공지능 네트워크의 학습 방법의 일 예가 도 9에 도시되어 있다.
복원정보생성부(1320)는 적어도 둘 이상의 지문이 중첩된 복원대상이미지를 입력받으면 이를 인공지능 네트워크에 입력하여 검출대상지문에 대한 방향필드와 밀도분포를 구한다. 복원정보생성부(1320)는 지문이 중첩된 영상을 입력받으면 검출대상지문이 길이방향으로 배치하도록 영상을 회전한 후 해당 영상의 해상도를 기 정의된 해상도에 맞도록 조정하여 복원대상이미지를 전처리한 후 인공지능 네트워크에 입력할 수 있다. 복원대상이미지의 전처리과정의 일 예는 도 10에 도시되어 있다.
복원부(1330)는 검출대상지문에 대한 방향필드 및 밀도분포를 이용하여 지문을 복원한다. 지문복원방법의 일 예가 도 11 및 도 12에 도시되어 있다.
본 발명은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, SSD, 광데이터 저장장치 등이 있다. 또한 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.

Claims (9)

  1. 복수의 배경영상과 복수의 인조 지문을 이용하여 다양한 배경에 적어도 둘 이상의 지문이 중첩된 지문중첩영상과 상기 복수의 인조 지문에 대한 방향필드와 밀도분포를 포함하는 학습데이터셋을 생성하는 단계;
    상기 학습데이터셋을 이용하여 지문에 대한 방향필드와 밀도분포를 출력하도록 딥러닝 네트워크를 학습시키는 단계; 및
    학습 완료된 딥러닝 네트워크를 이용하여 복원대상이미지에 존재하는 적어도 둘 이상의 지문 중 검출대상지문에 대한 방향필드와 밀도분포를 구하여 지문 복원이 가능하도록 출력하는 단계;를 포함하는 것을 특징으로 하는 지문분리방법.
  2. 제 1항에 있어서, 상기 학습데이터셋을 생성하는 단계는,
    융선에 굴곡을 포함하거나 지문의 두께가 변조되거나 선명도가 조정된 인조지문을 이용하여 지문중첩영상을 생성하는 단계;를 포함하는 것을 특징으로 하는 지문분리방법.
  3. 제 1항에 있어서, 상기 학습데이터셋을 생성하는 단게는,
    상기 복수의 인조지문에 대하여 기 정의된 개수로 양자화된 방향필드와 기 정의된 개수로 양자화된 밀도분포를 포함하는 학습데이터를 생성하는 단계;를 포함하는 것을 특징으로 하는 지문분리방법.
  4. 제 1항에 있어서, 상기 방향필드와 밀도분포를 출력하는 단계는,
    상기 검출대상지문이 수직 방향이 되도록 상기 복원대상이미지를 회전하는 단계; 및
    상기 검출대상지문의 단위길이당 픽셀수가 기 정의된 값이 되도록 상기 복원대상이미지의 해상도를 조정하는 단계; 및
    회전 및 해상도 조정이 된 복원대상이미지를 상기 딥러닝 네트워크에 입력하는 단계;를 포함하는 것을 특징으로 하는 지문분리방법.
  5. 복수의 배경영상과 복수의 인조 지문을 이용하여 다양한 배경에 적어도 둘 이상의 지문이 중첩된 지문중첩영상과 상기 복수의 인조 지문에 대한 방향필드와 밀도분포를 포함하는 학습데이터셋을 생성하는 학습데이터생성부;
    상기 학습데이터셋을 이용하여 지문에 대한 지문에 대한 방향필드와 밀도분포를 출력하도록 딥러닝 네트워크를 학습시키는 학습부; 및
    학습 완료된 딥러닝 네트워크를 이용하여 복원대상이미지에 존재하는 적어도 둘 이상의 지문 중 검출대상지문에 대한 방향필드와 밀도분포를 구하여 지문 복원이 가능하도록 출력하는 복원정보생성부;를 포함하는 것을 특징으로 하는 지문분리장치.
  6. 제 5항에 있어서, 상기 학습데이터생성부는,
    융선에 굴곡을 포함하거나 지문의 두께가 변조되거나 선명도가 조정된 인조지문을 이용하여 지문중첩영상을 생성하는 것을 특징으로 하는 지문분리장치.
  7. 제 5항에 있어서, 상기 학습데이터생성부는,
    상기 복수의 인조지문에 대하여 기 정의된 개수로 양자화된 방향필드와 기 정의된 개수로 양자화된 밀도분포를 생성하는 것을 특징으로 하는 지문분리장치.
  8. 제 1항에 있어서, 상기 복원정보생성부는,
    상기 검출대상지문이 수직 방향이 되도록 상기 복원대상이미지를 회전하거나, 상기 검출대상지문의 길이 방향의 단위길이당 픽셀수가 기 정의된 값이 되도록 상기 복원대상이미지의 해상도를 조정하여 상기 딥러닝 네트워크에 입력하는 것을 특징으로 하는 지문분리장치.
  9. 제 1항에 기재된 방법을 수행하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.
PCT/KR2021/009241 2020-12-18 2021-07-19 딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치 WO2022131469A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0178918 2020-12-18
KR1020200178918A KR102570080B1 (ko) 2020-12-18 2020-12-18 딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치

Publications (1)

Publication Number Publication Date
WO2022131469A1 true WO2022131469A1 (ko) 2022-06-23

Family

ID=82057812

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/009241 WO2022131469A1 (ko) 2020-12-18 2021-07-19 딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치

Country Status (2)

Country Link
KR (1) KR102570080B1 (ko)
WO (1) WO2022131469A1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116823679A (zh) * 2023-08-30 2023-09-29 山东龙腾控股有限公司 基于人工智能的全自动指纹锁指纹图像增强方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080076170A (ko) * 2007-02-15 2008-08-20 연세대학교 산학협력단 지문 영상 생성을 위한 영상 필터 조합 생성 방법
KR20100109752A (ko) * 2009-04-01 2010-10-11 한국외국어대학교 연구산학협력단 지문 인식 장치 및 방법
KR20170112302A (ko) * 2016-03-31 2017-10-12 주식회사 유니온커뮤니티 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법
KR20180092197A (ko) * 2017-02-08 2018-08-17 삼성전자주식회사 지문 인식을 위한 후보 지문 이미지를 선정하는 장치 및 방법
JP2018165911A (ja) * 2017-03-28 2018-10-25 日本電気株式会社 識別システム、識別方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080076170A (ko) * 2007-02-15 2008-08-20 연세대학교 산학협력단 지문 영상 생성을 위한 영상 필터 조합 생성 방법
KR20100109752A (ko) * 2009-04-01 2010-10-11 한국외국어대학교 연구산학협력단 지문 인식 장치 및 방법
KR20170112302A (ko) * 2016-03-31 2017-10-12 주식회사 유니온커뮤니티 신경망 학습기법을 이용한 위조지문 판별장치 및 그 방법
KR20180092197A (ko) * 2017-02-08 2018-08-17 삼성전자주식회사 지문 인식을 위한 후보 지문 이미지를 선정하는 장치 및 방법
JP2018165911A (ja) * 2017-03-28 2018-10-25 日本電気株式会社 識別システム、識別方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116823679A (zh) * 2023-08-30 2023-09-29 山东龙腾控股有限公司 基于人工智能的全自动指纹锁指纹图像增强方法
CN116823679B (zh) * 2023-08-30 2023-12-05 山东龙腾控股有限公司 基于人工智能的全自动指纹锁指纹图像增强方法

Also Published As

Publication number Publication date
KR102570080B1 (ko) 2023-08-23
KR20220088162A (ko) 2022-06-27

Similar Documents

Publication Publication Date Title
Güera et al. A counter-forensic method for CNN-based camera model identification
US4731863A (en) Digital image processing method employing histogram peak detection
CN109948476B (zh) 一种基于计算机视觉的人脸皮肤检测系统及其实现方法
WO2022131469A1 (ko) 딥러닝 알고리즘을 이용하여 중첩된 지문 영상에서 지문을 분리하는 방법 및 그 장치
CN102760287B (zh) 固定式摄像机颜色校正的方法和装置
CN108513110A (zh) 人脸识别监控摄像头
CN110532746B (zh) 人脸校验方法、装置、服务器及可读存储介质
CN110516623A (zh) 一种人脸识别方法、装置及电子设备
CN111222447A (zh) 基于神经网络及多通道融合lbp特征的活体检测方法
CN112699758A (zh) 基于动态手势识别的手语翻译方法、装置、计算机设备及存储介质
CN110634165B (zh) 一种基于rgb三通道信息融合的光场图像去散射方法
CN111861949A (zh) 一种基于生成对抗网络的多曝光图像融合方法及系统
CN109274945B (zh) 一种自适应进行图像真彩色还原的方法及系统
KR101904924B1 (ko) 얼굴 영상 가상화 장치
WO2022131517A1 (ko) 딥러닝 알고리즘을 이용하여 지문중첩영상에서 지문을 분리하는 방법 및 그 장치
CN112689125B (zh) 基于物联网的多终端安全监控方法和系统
Wang et al. A counter-forensic method for CNN-based camera model identification
CN114120056A (zh) 小目标识别方法、装置、电子设备、介质及产品
Rani et al. Pre filtering techniques for face recognition based on edge detection algorithm
Ashok et al. Deepfake Detection Using XceptionNet
WO2022097987A1 (ko) 신경망을 기반으로 한 미행 검출 방법 및 이를 이용한 미행 검출 시스템
CN116682135A (zh) 一种ac-yolox识别模型及安全帽佩戴识别方法
WO2022065798A1 (ko) 병리 이미지 분석 결과 출력 방법 및 이를 수행하는 컴퓨팅 시스템
CN114760484A (zh) 直播视频识别方法、装置、计算机设备和存储介质
Noboa Automated License Plate Recognition Systems

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21906774

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21906774

Country of ref document: EP

Kind code of ref document: A1