KR20040098134A - Embedded method of intelligent automated teller machine by digital image processing - Google Patents
Embedded method of intelligent automated teller machine by digital image processing Download PDFInfo
- Publication number
- KR20040098134A KR20040098134A KR1020030030294A KR20030030294A KR20040098134A KR 20040098134 A KR20040098134 A KR 20040098134A KR 1020030030294 A KR1020030030294 A KR 1020030030294A KR 20030030294 A KR20030030294 A KR 20030030294A KR 20040098134 A KR20040098134 A KR 20040098134A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- face
- image processing
- nose
- center point
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 34
- 238000000034 method Methods 0.000 title claims abstract description 30
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 238000011410 subtraction method Methods 0.000 claims description 5
- 238000007689 inspection Methods 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 6
- 238000011835 investigation Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 235000013311 vegetables Nutrition 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000005314 correlation function Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 210000003462 vein Anatomy 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- D—TEXTILES; PAPER
- D05—SEWING; EMBROIDERING; TUFTING
- D05C—EMBROIDERING; TUFTING
- D05C1/00—Apparatus, devices, or tools for hand embroidering
- D05C1/06—Needles specially adapted for hand embroidering; Holders for needles or threads
-
- D—TEXTILES; PAPER
- D05—SEWING; EMBROIDERING; TUFTING
- D05C—EMBROIDERING; TUFTING
- D05C15/00—Making pile fabrics or articles having similar surface features by inserting loops into a base material
- D05C15/04—Tufting
- D05C15/06—Hand tufting needles ; Hand-held tufting apparatus
Abstract
Description
본 발명은 영상처리를 이용한 지능형 무인자동화 기기(Automated Teller Machine:ATM)의 구현방법에 관한 것으로, 보다 자세하게는 무인자동화 기기에서 비밀번호가 맞더라도 신체의 일부 즉, 눈, 코, 입 등을 노출하여야만 인출을 하고 그때 무인자동화 기기에 내장된 카메라로 디지털영상을 촬영하여 금융사고 방지 및 범인을 검거하는 시스템에 관한 것이다.The present invention relates to a method for implementing an automated automated teller machine (ATM) using image processing. More specifically, even if a password is correct in an unmanned automated device, a part of the body, such as an eye, a nose, and a mouth, must be exposed. The present invention relates to a system for preventing financial accidents and arresting criminals by taking digital images with a camera embedded in an unmanned automated device at that time.
최근 개인의 현금카드, 신용카드, 비밀번호의 불법 복제 및 도난으로 금융사고가 증가하고 있지만, 범행의 목적으로 돈을 인출하는 범인의 심리상 얼굴을 가리고 인출하는 경우가 많으므로 사건 후 남아 있는 DVR이나 CCTV 영상에는 범인의 얼굴 일부분만이 남아있어서 경찰 수사에 어려움이 많으며, 최근 정부, 금융권에서는이러한 복제가 가능한 마그네틱 카드를 복제가 불가능한 IC 칩(Chip) 탑재형 카드로 복제 방지에만 중점을 두어 시행하려고 하나, 전 금융권의 무인자동화 기기와 개인카드를 교체해야 하므로 막대한 예산을 필요로 한다.Recently, financial accidents have increased due to the illegal copying and theft of personal cash cards, credit cards, and passwords. In CCTV video, only a part of the criminal's face remains, which makes police investigations difficult. Recently, the government and financial institutions are trying to enforce the copying of magnetic cards that can not be copied with IC chip cards that cannot be copied. However, it requires a huge budget because the autonomous equipment and personal cards of all financial sectors must be replaced.
종래의 무인자동화 기기로써, 도 1은 무인자동화 기기의 일반적인 구성을 보인 것으로 카드 입력(100) 후 비밀번호를 확인(110)하여 현금을 인출(120)하는 종래의 기기에 관한 것이며, 도 2는 종래의 생채인식을 위한 얼굴 인식용 카메라(200), 홍채인식용 카메라(210) 및 지문인식 센서(220)에 관한 것으로 도 1의 일반적인 무인자동화 기기에 도 2의 생채 정보(얼굴인식, 홍채, 지문) 검출용 카메라를 이용하여 본인여부를 확인한 후 인출해주는 시스템이며, 휴대폰에 내장된 본인의 고유 정보를 이용한 것으로 휴대폰과 무인자동화 기기 간의 무선통신(블루투스, 적외선 통신, 유비쿼터스)이나 휴대폰의 위치기반 서비스를 이용하여 본인인증 후 현금을 인출해주는 시스템이 있다.As a conventional unmanned automated device, Figure 1 shows a general configuration of the unmanned automated device relates to a conventional device for withdrawing cash 120 by checking the password 110 after card input 100, Figure 2 is a conventional The facial recognition camera 200, the iris recognition camera 210 and the fingerprint sensor 220 for the biometric recognition of the biomedical information (face recognition, iris, fingerprint) of FIG. ) It is a system that checks whether the user is using the detection camera and withdraws it. It uses the unique information of the user embedded in the mobile phone, and wireless communication between the mobile phone and the unmanned automation device (Bluetooth, infrared communication, ubiquitous) or location-based service of the mobile phone. There is a system to withdraw cash after authentication.
상기 종래의 현금인출 방법들을 보다 상세히 설명하면 다음과 같다. 일반적인 무인자동화 기기와 휴대폰에 내장된 본인의 고유정보나 휴대폰의 위치기반 서비스를 이용하는 경우 타인의 현금카드, 신용카드, 휴대폰을 복제 또는 취득하고, 비밀번호를 아는 경우 100% 현금 인출이 가능하며, DVR이나 CCTV가 녹화하고 있지만 범인이 얼굴을 가리고 인출을 하는 경우 범인의 얼굴정보가 없기 때문에 수사가 매우 어려운 문제점이 있었다.The conventional cash withdrawal methods will be described in more detail as follows. If you use your own personal information or mobile phone's location-based service, you can duplicate or acquire another person's cash card, credit card, mobile phone, and 100% cash withdrawal if you know the password. DVR Or CCTV is recording, but if the criminal is covering the face and withdrawal because there is no face information of the criminal had a very difficult problem.
생채인식을 이용한 무인자동화 기기의 경우, 그 구성은 사용자가 카드로 비밀번호를 입력하여 상기 비밀번호가 일치할 경우에, 사용자의 생채정보(지문, 홍채, 얼굴, 정맥)를 취득하여 이 정보를 서버에 있는 데이터베이스와 일일이 비교하여 일치하는 정보가 있을 때 현금을 인출해 주는 방식을 사용하고 있으므로, 데이터베이스를 검색하기 위해 많은 시간이 소요되며 이러한 생채인식에는 본인 인증 오류율 및 타인 인증 오류율 등이 존재하여 100% 정확한 검증을 할 수 없기 때문에 사용자의 불편이 따른다.In the case of an unmanned automated device using biometric recognition, the configuration is that when the user inputs a password with a card and the password matches, the biometric information (fingerprint, iris, face, vein) of the user is obtained and the information is transmitted to the server. Because it uses a method of withdrawing cash when there is matching information compared to the existing database, it takes a lot of time to search the database, and the biometric recognition error rate and others authentication error rate exist 100% This is inconvenient for the user because it cannot be accurately verified.
상기 생채인식을 이용한 무인자동화 기기는 데이터베이스를 검색하는 시간을 단축하기 위하여, 생채인식 과정을 생략하고, 눈, 코, 입 등 얼굴의 특징점을 추출할 수 있는지의 여부만을 검사하는 알고리즘이었다. 그러나, 카메라의 시야 내에 얼굴이 존재하는가를 자동으로 판단하는 알고리즘과 컬러 영상을 변환하여 얼굴의 살색 부분을 찾는 영상처리 과정이 자동화되지 못하였고, 눈, 코, 입 등의 존재 유무를 판단하는 과정이 조명 등의 영향을 받으므로 상용화에 문제점이 있었다.In order to shorten the time required to search the database, the unmanned automated device using the raw vegetable recognition was an algorithm that checks whether the feature points of the face such as eyes, nose, and mouth can be extracted without omitting the raw vegetable recognition process. However, the algorithm for automatically determining whether a face exists in the field of view of the camera and the image processing process of finding a skin part by converting a color image have not been automated, and the process of determining the presence of eyes, nose, mouth, etc. There is a problem in commercialization because it is affected by the lighting.
상기 설명한 바와 같이 종래의 현금인출 방법들은 타인의 현금카드, 신용카드, 휴대폰을 복제하거나 취득하고, 비밀번호를 아는 경우 100% 현금인출을 해주는 실정이고, DVR이나 CCTV가 녹화하고 있지만 범인이 얼굴을 가리고 인출을 하는 경우 범인의 얼굴정보가 없기 때문에 수사가 매우 어려웠으며, 생채인식을 이용한 무인자동화 기기의 경우, 데이터베이스를 검색하기 위해 많은 시간이 소요되며 이러한 생채인식에는 본인 인증 오류율 및 타인 인증 오류율 등이 존재하는 문제점을 가지고 있었다.As described above, the conventional cash withdrawal methods duplicate or acquire another person's cash card, credit card, and mobile phone, and 100% cash withdrawal when the user knows the password. In the case of withdrawal, the investigation was very difficult because there was no face information of criminals, and in the case of unmanned automated devices using biometrics, it takes a lot of time to search the database. I had a problem that exists.
따라서, 본 발명은 상기와 같은 종래 기술의 제반 단점과 문제점을 해결하기 위한 것으로, 영상처리를 이용하여 사용자의 비밀번호가 일치하더라도 무인자동화 기기에 내장된 카메라를 이용하여 사용자의 눈, 코, 입 등 특정 부위가 노출되지 않으면 현금 인출을 막고, 노출되면 인출을 허용하되 증거자료로서 얼굴 사진을 확보하여 사후 금융 사건이 발생하였을 때 범죄 증거 자료로 활용하고자 함에 본 발명의 목적이 있다.Accordingly, the present invention is to solve the above-mentioned disadvantages and problems of the prior art, even if the user's password is matched using the image processing using the camera embedded in the unmanned automation device user's eyes, nose, mouth, etc. It is an object of the present invention to prevent cash withdrawal if a specific part is not exposed, to allow withdrawal if exposed, but to secure a face photograph as evidence and to use it as evidence of crime when a financial incident occurs.
도 1은 무인자동화 기기의 일반적인 구성을 보이는 도면.1 is a view showing a general configuration of an unmanned automation device.
도 2는 종래의 생채인식을 위한 얼굴 인식용 카메라, 홍채인식용 카메라, 지문인식 센서의 도면.Figure 2 is a view of a conventional face recognition camera for iris recognition, iris recognition camera, fingerprint recognition sensor.
도 3은 본 발명의 지능형 무인자동화 기기의 구성을 보이는 도면.Figure 3 is a view showing the configuration of the intelligent unmanned automated device of the present invention.
도 4는 본 발명의 지능형 무인자동화 기기의 블럭도.Figure 4 is a block diagram of the intelligent unmanned automated device of the present invention.
도 5는 본 발명에 의해 수행되는 지능형 무인자동화 기기를 구현하는 과정을 보이는 흐름도.5 is a flowchart showing a process of implementing an intelligent unmanned automated device performed by the present invention.
도 6은 자동 ROI 셋팅을 위해 3×3마스크를 이용한 저주파 통과영역 필터의 도면.6 is a diagram of a low pass filter using a 3x3 mask for automatic ROI setting.
도 7은 자동 ROI 셋팅을 위해 이미지 차감 방법을 사용하여 차분한 영상을 보이는 도면.7 is a view showing a calm image using an image subtraction method for automatic ROI setting.
도 8은 얼굴영상의 중심점 및 면적을 구하기 위해 Hue Histogram과 Low/High 임계치의 설정을 보이는 도면.8 is a diagram illustrating setting of a Hue Histogram and a Low / High threshold to obtain a center point and an area of a face image.
도 9는 얼굴영상의 중심점 및 면적을 구하기 위해 Low/High 임계치에 해당되는 픽셀 값을 푸른색으로 설정하여 얻은 영상을 보이는 도면.9 is a view showing an image obtained by setting the pixel value corresponding to the Low / High threshold value in blue to obtain the center point and the area of the face image.
<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>
100. 카드 입력부 110. 비밀번호 입력부100. Card input section 110. Password input section
120. 현금 인출부 200. 저가형 카메라120. Cash dispenser 200. Low-cost camera
330. 영상처리부 500. 움직이는 영상의 중심점330. Image Processing Unit 500. Center of Moving Image
700. 자동으로 검출된 얼굴 영역700. Automatically detected face areas
본 발명의 상기 목적은 사용자로부터 카드를 입력(100)받아 입력된 카드가 유효한 카드인지 은행 서버와 통신하며 확인한 후 사용자로부터 비밀번호를 입력(110)받아 상기 비밀번호를 확인하는 과정은 종래의 무인자동화 기기의 모듈을 그대로 사용하며, 카메라(200)로부터 촬영된 영상을 HSV컬러 모델로 변환하여 움직이는 물체의 후보 중심점이 자동으로 판단(400)되는 제 1단계, 움직이는 물체의 후보 중심점(500)을 기준으로 가상 사각형이 설정되고 그 사각형 내의 모든 픽셀에 대하여 Hue Histogram이 설정되어 얼굴의 중심점 및 면적(410)을 구하는 제 2단계, 얼굴영상의 중심부분에 코가 존재하는 경우, 코의 위치를 기준으로 사용자의 눈과 입의 유무를 검사(420)하여 영상이 저장(340)되는 제 3단계 및 상기 제 3단계로부터 얼굴영상이 저장되면 인출(120)을 해주고 사용자가 원할 경우 본인의 영상을 내장된 휴대용 저장장치로 저장하여 사용자에게 전달(350)되는 제 4단계로 이루어진 영상처리를 이용한 무인자동화 기기의 구현방법을 실현하는 데 있다.The object of the present invention is to receive a card from the user 100 and communicate with the bank server to check whether the input card is a valid card and then input the password from the user 110 to confirm the password is a conventional unmanned automated device Module as it is, and converts the image taken from the camera 200 into the HSV color model, the candidate center point of the moving object is automatically determined 400, based on the candidate center point 500 of the moving object When the virtual rectangle is set and the Hue Histogram is set for all pixels in the rectangle to obtain the center point and the area 410 of the face, when the nose exists in the center of the face image, the user is referred to the nose position. Examine the presence or absence of the eyes and mouth (420) and the image is stored (340) when the facial image is stored from the third step and the withdrawal (120) If the user wants it is to realize an implementation of the unmanned automation method using image processing comprising a fourth step is to save the transmission to the portable storage device 350 to the user stored in the I picture.
본 발명의 상기 목적과 기술적 구성 및 그에 따른 작용효과에 관한 자세한 사항은 본 발명의 바람직한 실시 예를 도시하고 있는 도면을 참조한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.Details of the above objects and technical configurations and the effects thereof according to the present invention will be more clearly understood by the following detailed description with reference to the drawings showing preferred embodiments of the present invention.
도 3은 본 발명의 지능형 무인자동화 기기의 구성을 보이는 도면으로 도 1의 무인자동화 기기의 일반적인 구성에 저가형 카메라(200)와 눈, 코, 입의 존재유무 판단(420)을 위한 영상처리부(330)를 장착한 것으로 도 4의 지능형 무인자동화 기기의 블럭도에 상기 영상처리부(330)의 과정을 나타내었다.3 is a view showing the configuration of the intelligent unmanned automated device of the present invention, the image processing unit 330 for determining the presence of the low-cost camera 200 and the presence of eyes, nose, mouth in the general configuration of the unmanned automation device of FIG. FIG. 4 is a block diagram of the intelligent unmanned automated device of FIG.
도 5는 본 발명에 의해 수행되는 지능형 무인자동화 기기를 구현하는 과정을 보이는 흐름도로, 이하 각 단계의 알고리즘을 상세히 설명한다. 상기 제 1단계는 비밀번호가 승인(110)된 후 카메라(200)로부터 촬영된 영상을 컬러변환과 자동 ROI(Region of Interest) 셋팅(400)을 사용하여 움직이는 물체의 후보 중심점(500)을 자동으로 찾는다.5 is a flowchart illustrating a process of implementing an intelligent unmanned automated device performed by the present invention. Hereinafter, the algorithm of each step will be described in detail. In the first step, after the password is approved (110), the candidate center point 500 of the moving object is automatically formed by using color conversion and automatic ROI (Region of Interest) setting 400 of the image taken from the camera 200. Find.
컬러변환은 RGB(Red Green Blue) 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 처리 시간을 단축시키기 위하여 원본(24bits)보다 적은 비트로 변환하여 프로세싱을 한다. 보통은 컬러 영상의 색을 나타내는 기본색인 적·녹·청의 색신호를 따로따로 개별적인 신호선으로 음극선관(CRT) 표시 장치나 컴퓨터 모니터에 입력하는 방식으로 3원색을 하나의 복합 색 신호로 합성하여 단일 신호 선으로 입력하는 방식에 비해 튜너나 영상회로는 복잡하지만 선명하고 깨끗한 화상이 표시되는 Normalized RGB 방식과 YUV 형태를 이용하나, 본 알고리즘에서는 조명 변화에 강인한 HSV 컬러 모델로 변환하여 사용한다.The color conversion process is performed by converting the RGB (Red Green Blue) image into less bits than the original (24 bits) in order to shorten the processing time for converting the RGB image into a Hue Saturation Value (HSV) image. Normally, the red, green, and blue color signals, which represent the colors of a color image, are input to the cathode ray tube (CRT) display device or computer monitor separately as separate signal lines, and the three primary colors are combined into a single composite color signal. Compared to the line input method, the tuner or image circuit uses a normalized RGB method and YUV type that displays a complex but clear and clear image. However, this algorithm converts and uses an HSV color model that is robust to light changes.
자동 ROI 셋팅(400)은 저주파 통과영역 필터와 이미지 차감 방법을 사용하여 움직이는 물체의 초기 위치를 자동으로 알아내는데, 도 6은 자동 ROI 셋팅을 위해 수행되는 3×3마스크를 이용한 저주파 통과영역 필터를 보이는 도면으로 저주파 통과영역 필터는 영상의 노이즈 성분을 제거해 주는 역할을 하며 보통 3×3, 5×5 마스크를 사용하여 컨벌루션(Convolution) 연산을 수행한다.The automatic ROI setting 400 automatically detects an initial position of a moving object using a low pass filter and an image subtraction method. FIG. 6 illustrates a low pass filter using a 3 × 3 mask performed for automatic ROI setting. As shown in the figure, the low pass filter removes the noise component of the image and usually performs a convolution operation using a 3x3 or 5x5 mask.
도 7은 본 발명에 의해 수행되는 이미지 차감 방법을 사용하여 차분한 영상을 보이는 도면으로 이미지 차감 방법에 의해 저주파 통과영역 필터를 통과한 영상과 다음 영상을 차분하여 움직이는 영상의 후보 중심점(500)을 찾은 결과를 나타낸 것으로 그림에서 흰색으로 표시되었다.FIG. 7 is a view showing a calm image using the image subtraction method performed by the present invention. The candidate center point 500 of the moving image is found by differentially dividing the image passing through the low pass filter and the next image by the image subtraction method. The results are shown in white in the figure.
상기 제 2단계는 얼굴의 중심점 및 면적(410)을 구하는 방법은 상기 자동 ROI 셋팅(400) 과정에서 움직임 후보 ROI 및 후보 중심점(500)이 결정되면 그 중심점을 기준으로 15×15의 가상 사각형을 설정하고, 그 사각형 내의 모든 픽셀에 대하여 Hue Histogram을 설정한 후 Low/High 임계치를 얻고, 상기 임계치에 해당되는 픽셀 값을 푸른색으로 설정하여 영상에서 푸른색 영역(700)의 중심점 및 면적을 구한다.In the second step, the method for obtaining the center point and the area 410 of the face is performed. When the motion candidate ROI and the candidate center point 500 are determined in the automatic ROI setting 400, a 15 × 15 virtual rectangle is determined based on the center point. After setting the Hue Histogram for all the pixels in the square, the Low / High threshold is obtained and the pixel value corresponding to the threshold is set to blue to obtain the center point and the area of the blue area 700 in the image. .
도 8은 얼굴영상의 중심점 및 면적을 구하기 위해 Hue Histogram과 Low/High 임계치의 설정을 보이는 도면으로 움직이는 물체의 중심점(500)을 기준으로 15×15의 가상 사각형 내의 모든 픽셀에 대하여 Hue Histogram을 설정한 후 Low/High 임계치를 구하는 과정을 도해한 것으로 MAX(620)는 Hi 임계치 값을 R1(600), R2(610)는 각기 Low 임계치 값을 나타내며, 세로 축은 value(630) 값(I)을 가로축은Hue(640) 값(H)을 나타낸다. 상기 Hue Histogram을 설정하고, Low/High 임계치를 구하는 구체적인 방법으로 모든 픽셀에 대하여 수학식 2에 의해 A, B값을 구한 후, 수학식 1에 의해 Hue(640) 값(H)이 계산되며, 수학식 3에 의해 Value(630) 값(I)이 계산되며 채도(Saturation)값은 수학식 4에 의해 계산된다. 상기 수학식 2, 수학식 3, 수학식 4의 R, G, B는 각 픽셀의 빨간색, 녹색, 푸른색 성분 값을 나타낸다.FIG. 8 is a diagram illustrating setting of Hue Histogram and Low / High thresholds to obtain a center point and an area of a face image. The Hue Histogram is set for all pixels in a 15 × 15 virtual rectangle based on the center point 500 of a moving object. Then, the process of obtaining the low / high threshold is illustrated. The MAX (620) represents the Hi threshold value, R1 (600), and the R2 (610) represents the low threshold value, respectively, and the vertical axis represents the value (630) value (I). The horizontal axis represents Hue 640 value (H). After the Hue Histogram is set and the A and B values are obtained for Equation 2 for all pixels in a specific method for obtaining a Low / High threshold, the Hue 640 value H is calculated by Equation 1. Value (630) value I is calculated by Equation 3 and saturation value is calculated by Equation 4. R, G, and B in Equations 2, 3, and 4 represent red, green, and blue component values of each pixel.
도 8은 얼굴영상의 중심점 및 면적을 구하기 위해 Low/High 임계치에 해당되는 픽셀 값을 푸른색(700)으로 설정하여 얻은 영상을 보이는 것으로, 추적하고자하는 물체가 사람의 얼굴인 경우, ROI의 Low/High에 해당되는 픽셀 값을 컴퓨터 프로그램 상에서 푸른색으로 변환하여 상기 푸른색 표시된 값의 위치를 이용하면 얼굴의 중심점 및 면적(410)을 구할 수 있다.FIG. 8 illustrates an image obtained by setting a pixel value corresponding to a low / high threshold to a blue color 700 to obtain a center point and an area of a face image. When an object to be tracked is a human face, a low ROI is obtained. By converting the pixel value corresponding to / High to blue in a computer program and using the location of the blue displayed value, the center point and the area 410 of the face can be obtained.
상기 제 3단계는 상기 제 2단계로부터 추출한 얼굴영상에서 코의 경우 그 특성상 상기 얼굴 영역의 가장 가운데 부분에 존재한다. 이를 이용하여 코가 있는지 판별할 수 있고, 만약 사용자가 모자를 썼을 경우 중심보다 위쪽에 코가 존재하게 되므로 사용자가 신분을 숨기는 경우로 간주할 수 있다. 코가 사각영역에 정확히 존재 할 경우 한국인 표준영상 템플릿(templet)에 의거하여 양쪽 눈의 유무를 패턴 매칭(Pattern matching) 방법으로 검사하고, 만약 사용자가 눈동자가 안보일 정도의 짙은 색안경을 썼을 경우도 인출 실패 메시지를 보낸다. 입의 경우는 코를 검출한 후 일정 비율 밑쪽을 검사하여 입의 유무를 판별해 내고 특히 마스크를 쓰고 얼굴을 노출하였을 경우를 집중적으로 검사하여 눈, 코, 입 존재유무를 판단(420)한다.In the third step, in the face image extracted from the second step, the nose is located at the center of the face region. This can be used to determine whether there is a nose, and if the user wears a hat, the nose exists above the center, so the user can be regarded as hiding the identity. If the nose is exactly in the rectangular area, the pattern of the two eyes is examined by pattern matching method based on the Korean standard image template, and even if the user wears dark glasses that are invisible to the eyes. Send a failure message. In the case of the mouth, after detecting the nose, a certain ratio is examined to determine the presence of the mouth, and in particular, when the face is exposed by wearing a mask to determine whether eyes, nose, and mouth exist (420).
상기 제 3단계로부터 눈, 코, 입 존재유무가 확인(420)되면 인출(120)을 해주고 사용자가 원할 경우 본인의 영상을 내장된 휴대용 저장장치로 저장하여 사용자에게 전달(350)하는 제 4단계로 이루어져있다.When the presence of eyes, nose, and mouth is confirmed from the third step (420), the withdrawal (120) is made and if the user desires, the fourth step of storing and transmitting the user's image to the built-in portable storage device (350). Consists of
도 4는 본 발명의 지능형 무인자동화 기기의 블럭도에 관한 것으로, 영상처리 알고리즘을 구현하는 바람직한 실시 예로써 상기 알고리즘을 종래의 무인자동화 기기에서 동작 가능하도록 독립 프로세서(Stand alone processor)하는 경우이다. 이를 구현하기 위한 구체적인 장치로써 자동 ROI 셋팅(400), 얼굴의 중심점 및 면적을 구하는 알고리즘(410) 및 얼굴의 눈, 코, 입 존재유무를 판단하는 알고리즘(420)을 포함하는 영상처리용 DSP(Digital Signal Processor)(300) 및 OSD(Open Software Description)(310)용 칩과 영상처리 알고리즘을 제어하는 마이크로프로세서(320)로 구성된 영상처리부(330), 얼굴영상 촬영을 위한 카메라(200), 영상을 저장하기 위한 HDD(340), 그리고 메모리 카드리더기 및 FDD 등의 휴대용 저장장치(350)가 요구된다.4 is a block diagram of an intelligent unmanned automated device of the present invention, which is a preferred embodiment for implementing an image processing algorithm in the case of a stand alone processor for operating the algorithm in a conventional unmanned automated device. As a specific device for realizing this, an image processing DSP including an automatic ROI setting 400, an algorithm 410 for obtaining a center point and an area of a face, and an algorithm 420 for determining the presence of eyes, nose, and mouth of a face ( Digital signal processor (300) and an OSD (Open Software Description) (310) chip and an image processing unit 330 consisting of a microprocessor 320 for controlling an image processing algorithm, a camera 200 for face image shooting, image HDD 340 for storing the data, and a portable storage device 350 such as a memory card reader and an FDD are required.
상기 알고리즘을 구현하는 바람직한 다른 실시 예로는 종래의 무인자동화 기기의 운영체제에 영상처리 프로그램을 부가하여 상기 알고리즘을 수행하는 것으로써, 이를 구현하기 위한 구체적인 장치로써 윈도우 운영체제를 사용하는 무인자동화 기기, 상기 영상처리용 DSP(Digital Signal Processor)(300) 및 OSD(Open Software Description)(310)용 칩과 영상처리 알고리즘을 제어하는 마이크로프로세서(320)의 기능을 담당할 수 있는 영상처리 프로그램으로 구성되며, 얼굴영상 촬영을 위한 카메라(200), 영상을 저장하기 위한 HDD(340), 취득한 디지털 영상을 사용자에게 배포하기 위한 메모리 카드리더기나, FDD 등의 휴대용 저장장치(350)가 요구된다.In another preferred embodiment of implementing the algorithm, an image processing program is added to an operating system of a conventional unmanned automated device to perform the algorithm, and as a specific device for implementing the algorithm, an unmanned automated device using the Windows operating system, the image It consists of a chip for processing Digital Signal Processor (DSP) 300 and Open Software Description (OSD) 310 and an image processing program that can function as a microprocessor 320 for controlling an image processing algorithm. A camera 200 for capturing an image, an HDD 340 for storing an image, a memory card reader for distributing the acquired digital image to a user, and a portable storage device 350 such as an FDD are required.
상기 영상처리용 DSP(300)는 디지털 연산에 의해 신호 처리를 하는 하나의 IC 칩으로 된 마이크로프로세서로써 범용 마이크로프로세서의 아키텍처를 대폭 개량하여 고속 연산과 소형화를 추구한 영상처리 전용 마이크로프로세서이다. 기본 조작은 필터링, 프리어 변환, 상관 함수의 산출, 부호화, 변복조, 미분, 적분 및 적응 신호 처리등이다. 음성 합성, 음성인식, 음성 부호화, 압축, 중고속 모뎀, 반향 소거장치(echocanceller) 등의 음성 및 통신 시스템에서 채용되고 있으며, 화상 처리나 서보 모터(servo motor) 제어 등의 고속 디지털 제어 분야에 대한 적용도 실용화되고 있다.The DSP 300 for image processing is a microprocessor made of a single IC chip that performs signal processing by digital calculation. The DSP 300 is an image processing dedicated microprocessor that greatly improves the architecture of a general-purpose microprocessor and seeks high speed operation and miniaturization. The basic operations are filtering, freer transform, calculation of correlation function, coding, modulation and demodulation, derivative, integration and adaptive signal processing. It is used in speech and communication systems such as speech synthesis, speech recognition, speech encoding, compression, medium and high speed modems, echocancers, etc., and is used for high-speed digital control fields such as image processing and servo motor control. Application is also practical.
상기 영상처리용 OSD(310)는 소프트웨어의 특징을 기술하기 위한 서식으로 하이퍼텍스트 생성 언어(HTML)의 차세대 버전으로 확장성 생성 언어(XML)를 기초로 하고 있다. 정의할 수 있는 소프트웨어 특징은 대응 운영 체계(OS), 버전 정보, 대응 중앙 처리 장치, 필요한 공 디스크의 용량 등이 있다. 소프트웨어 배포 시에 OSD로 기재한 파일을 한 번에 보낸다면 수취한 클라이언트 측에서 적절한 설치 및 처리를 실행할 수 있다.The image processing OSD 310 is a next-generation version of the hypertext generation language (HTML) as a format for describing software features, and is based on the extensible generation language (XML). Software features that can be defined include the corresponding operating system (OS), version information, the corresponding central processing unit, and the amount of blank disk required. If you send the files listed in the OSD at the time of software distribution, you can execute the proper installation and processing on the receiving client side.
본 발명의 산업상 이용 가능한 분야는 은행 및 전산화용 무인자동화 기기의 경우, 인터넷을 이용한 신용카드 인증의 경우 개인용 컴퓨터에 있는 카메라를 이용하여 본인인증을 요구하는 경우 등 범죄수사에 대비하기 위해 본인 인증이 필요한 모든 디지털 기기 보안을 포함한다.Industrial fields of the present invention can be used for banking and computerized unmanned automated devices, in the case of credit card authentication using the Internet, in the case of requiring a personal authentication using a camera on a personal computer, such as identity verification for crime investigation This includes all necessary digital device security.
상세히 설명된 본 발명에 의하여 본 발명의 특징부를 포함하는 변화들 및 변형들이 당해 기술 분야에서 숙련된 보통의 사람들에게 명백히 쉬워질 것임이 자명하다. 본 발명의 그러한 변형들의 범위는 본 발명의 특징부를 포함하는 당해 기술 분야에 숙련된 통상의 지식을 가진 자들의 범위 내에 있으며, 그러한 변형들은 본 발명의 청구항의 범위 내에 있는 것으로 간주된다.It will be apparent that changes and modifications incorporating features of the invention will be readily apparent to those skilled in the art by the invention described in detail. It is intended that the scope of such modifications of the invention be within the scope of those of ordinary skill in the art including the features of the invention, and such modifications are considered to be within the scope of the claims of the invention.
따라서, 본 발명의 영상처리를 이용한 지능형 무인자동화 기기는 비밀번호가 일치하고 얼굴 중 눈, 코, 입이 확보된 영상을 취득하였을 경우에만 현금 인출을 가능하게 하여 카드복제에 의한 인출을 방지할 수 있고, 범인이 얼굴을 노출한 채 인출했을 경우에는 그 얼굴영상을 확보하여 범인 검거를 손쉽게 할 수 있으며, 종래의 무인자동화 기기를 그대로 이용하기 때문에 저비용으로 금융범죄 등 각종 범죄 예방 및 사건 수사에 이용할 수 있을 뿐만 아니라, 얼굴 중 일부 정보의 유무를 판단하는 알고리즘은 얼굴인식기술에서 정확한 눈, 코, 입의 위치 검출에도 사용할 수 있으므로 얼굴 인식률 향상은 물론 영상처리의 속도 개선을 하는 효과가 있다.Therefore, the intelligent unmanned automated device using the image processing of the present invention can prevent the withdrawal by card duplication by enabling cash withdrawal only when the password matches and the image of the eye, nose and mouth secured in the face is acquired. In the case of a criminal withdrawing a face with an exposed face, it is possible to easily arrest the criminal by securing the face image, and use the conventional unmanned automated device as it is, and can use it for various crime prevention and case investigation at low cost. In addition, the algorithm for determining the presence or absence of some information on the face can be used for accurate position detection of eyes, nose and mouth in face recognition technology, thereby improving face recognition rate and speeding up image processing.
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020030030294A KR20040098134A (en) | 2003-05-13 | 2003-05-13 | Embedded method of intelligent automated teller machine by digital image processing |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020030030294A KR20040098134A (en) | 2003-05-13 | 2003-05-13 | Embedded method of intelligent automated teller machine by digital image processing |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20040098134A true KR20040098134A (en) | 2004-11-20 |
Family
ID=37376066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020030030294A KR20040098134A (en) | 2003-05-13 | 2003-05-13 | Embedded method of intelligent automated teller machine by digital image processing |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20040098134A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100825689B1 (en) * | 2006-08-18 | 2008-04-29 | 학교법인 포항공과대학교 | Facial Disguise Discrimination method |
KR101372365B1 (en) * | 2012-03-23 | 2014-03-13 | 아이포콤 주식회사 | Illegal access detecting device for atm |
-
2003
- 2003-05-13 KR KR1020030030294A patent/KR20040098134A/en not_active Application Discontinuation
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100825689B1 (en) * | 2006-08-18 | 2008-04-29 | 학교법인 포항공과대학교 | Facial Disguise Discrimination method |
KR101372365B1 (en) * | 2012-03-23 | 2014-03-13 | 아이포콤 주식회사 | Illegal access detecting device for atm |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9922238B2 (en) | Apparatuses, systems, and methods for confirming identity | |
KR102324706B1 (en) | Face recognition unlock method and device, device, medium | |
US8649575B2 (en) | Method and apparatus of a gesture based biometric system | |
US9652663B2 (en) | Using facial data for device authentication or subject identification | |
CN107438854B (en) | System and method for performing fingerprint-based user authentication using images captured by a mobile device | |
WO2019134536A1 (en) | Neural network model-based human face living body detection | |
US20170091550A1 (en) | Multispectral eye analysis for identity authentication | |
US20160019420A1 (en) | Multispectral eye analysis for identity authentication | |
US20160019421A1 (en) | Multispectral eye analysis for identity authentication | |
US8275174B2 (en) | Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration | |
JP2007257221A (en) | Face recognition system | |
KR101724971B1 (en) | System for recognizing face using wide angle camera and method for recognizing face thereof | |
CN204791017U (en) | Mobile terminal users authentication device based on many biological characteristics mode | |
US20230091865A1 (en) | Face image verification method and apparatus, electronic device, and storage medium | |
JP2020518879A (en) | Detection system, detection device and method thereof | |
KR100825689B1 (en) | Facial Disguise Discrimination method | |
CN111259757A (en) | Image-based living body identification method, device and equipment | |
WO2021166289A1 (en) | Data registration device, biometric authentication device, and recording medium | |
US8320639B2 (en) | Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration | |
Ma et al. | Multi-perspective dynamic features for cross-database face presentation attack detection | |
Amjed et al. | Noncircular iris segmentation based on weighted adaptive hough transform using smartphone database | |
KR20040098134A (en) | Embedded method of intelligent automated teller machine by digital image processing | |
CN113935004A (en) | Face recognition login method based on domestic CPU and operating system environment | |
JP2018169943A (en) | Face authentication processing device, face authentication processing method and face authentication processing system | |
CN113239774A (en) | Video face recognition system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |