KR20040098134A - Embedded method of intelligent automated teller machine by digital image processing - Google Patents

Embedded method of intelligent automated teller machine by digital image processing Download PDF

Info

Publication number
KR20040098134A
KR20040098134A KR1020030030294A KR20030030294A KR20040098134A KR 20040098134 A KR20040098134 A KR 20040098134A KR 1020030030294 A KR1020030030294 A KR 1020030030294A KR 20030030294 A KR20030030294 A KR 20030030294A KR 20040098134 A KR20040098134 A KR 20040098134A
Authority
KR
South Korea
Prior art keywords
image
face
image processing
nose
center point
Prior art date
Application number
KR1020030030294A
Other languages
Korean (ko)
Inventor
김영욱
성하경
정중기
이종배
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020030030294A priority Critical patent/KR20040098134A/en
Publication of KR20040098134A publication Critical patent/KR20040098134A/en

Links

Classifications

    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05CEMBROIDERING; TUFTING
    • D05C1/00Apparatus, devices, or tools for hand embroidering
    • D05C1/06Needles specially adapted for hand embroidering; Holders for needles or threads
    • DTEXTILES; PAPER
    • D05SEWING; EMBROIDERING; TUFTING
    • D05CEMBROIDERING; TUFTING
    • D05C15/00Making pile fabrics or articles having similar surface features by inserting loops into a base material
    • D05C15/04Tufting
    • D05C15/06Hand tufting needles ; Hand-held tufting apparatus

Abstract

PURPOSE: An intelligent typed ATM(Automated Teller Machine) using an image process and an implementation method thereof are provided to permit a user to withdraw cash only if eyes, a nose, and a mouse of the user are revealed to a camera embedded into the ATM although a password is identical, and store/use a pictured face image as evidence. CONSTITUTION: The ATM receives a card and the password. The camera(200) pictures an image of a moving object. An image processor(330) comprises an image processing DSP(Digital Signal Processor)(300) including an automatic ROI(Region Of Interest) setting algorithm, an algorithm for finding out a central point/area of the face, and the algorithm judging existence of the eyes/nose/mouse in the face, an OSD(Open Software Description) chip(310), and a microprocessor(320). An HDD(Hard Disk Drive)(340) stores the images. A portable storage(350) is used for distributing the image stored in the HDD to users.

Description

영상처리를 이용한 지능형 무인자동화 기기 및 그 구현방법{Embedded method of intelligent automated teller machine by digital image processing}Intelligent unmanned automated device using image processing and its implementation method {Embedded method of intelligent automated teller machine by digital image processing}

본 발명은 영상처리를 이용한 지능형 무인자동화 기기(Automated Teller Machine:ATM)의 구현방법에 관한 것으로, 보다 자세하게는 무인자동화 기기에서 비밀번호가 맞더라도 신체의 일부 즉, 눈, 코, 입 등을 노출하여야만 인출을 하고 그때 무인자동화 기기에 내장된 카메라로 디지털영상을 촬영하여 금융사고 방지 및 범인을 검거하는 시스템에 관한 것이다.The present invention relates to a method for implementing an automated automated teller machine (ATM) using image processing. More specifically, even if a password is correct in an unmanned automated device, a part of the body, such as an eye, a nose, and a mouth, must be exposed. The present invention relates to a system for preventing financial accidents and arresting criminals by taking digital images with a camera embedded in an unmanned automated device at that time.

최근 개인의 현금카드, 신용카드, 비밀번호의 불법 복제 및 도난으로 금융사고가 증가하고 있지만, 범행의 목적으로 돈을 인출하는 범인의 심리상 얼굴을 가리고 인출하는 경우가 많으므로 사건 후 남아 있는 DVR이나 CCTV 영상에는 범인의 얼굴 일부분만이 남아있어서 경찰 수사에 어려움이 많으며, 최근 정부, 금융권에서는이러한 복제가 가능한 마그네틱 카드를 복제가 불가능한 IC 칩(Chip) 탑재형 카드로 복제 방지에만 중점을 두어 시행하려고 하나, 전 금융권의 무인자동화 기기와 개인카드를 교체해야 하므로 막대한 예산을 필요로 한다.Recently, financial accidents have increased due to the illegal copying and theft of personal cash cards, credit cards, and passwords. In CCTV video, only a part of the criminal's face remains, which makes police investigations difficult. Recently, the government and financial institutions are trying to enforce the copying of magnetic cards that can not be copied with IC chip cards that cannot be copied. However, it requires a huge budget because the autonomous equipment and personal cards of all financial sectors must be replaced.

종래의 무인자동화 기기로써, 도 1은 무인자동화 기기의 일반적인 구성을 보인 것으로 카드 입력(100) 후 비밀번호를 확인(110)하여 현금을 인출(120)하는 종래의 기기에 관한 것이며, 도 2는 종래의 생채인식을 위한 얼굴 인식용 카메라(200), 홍채인식용 카메라(210) 및 지문인식 센서(220)에 관한 것으로 도 1의 일반적인 무인자동화 기기에 도 2의 생채 정보(얼굴인식, 홍채, 지문) 검출용 카메라를 이용하여 본인여부를 확인한 후 인출해주는 시스템이며, 휴대폰에 내장된 본인의 고유 정보를 이용한 것으로 휴대폰과 무인자동화 기기 간의 무선통신(블루투스, 적외선 통신, 유비쿼터스)이나 휴대폰의 위치기반 서비스를 이용하여 본인인증 후 현금을 인출해주는 시스템이 있다.As a conventional unmanned automated device, Figure 1 shows a general configuration of the unmanned automated device relates to a conventional device for withdrawing cash 120 by checking the password 110 after card input 100, Figure 2 is a conventional The facial recognition camera 200, the iris recognition camera 210 and the fingerprint sensor 220 for the biometric recognition of the biomedical information (face recognition, iris, fingerprint) of FIG. ) It is a system that checks whether the user is using the detection camera and withdraws it. It uses the unique information of the user embedded in the mobile phone, and wireless communication between the mobile phone and the unmanned automation device (Bluetooth, infrared communication, ubiquitous) or location-based service of the mobile phone. There is a system to withdraw cash after authentication.

상기 종래의 현금인출 방법들을 보다 상세히 설명하면 다음과 같다. 일반적인 무인자동화 기기와 휴대폰에 내장된 본인의 고유정보나 휴대폰의 위치기반 서비스를 이용하는 경우 타인의 현금카드, 신용카드, 휴대폰을 복제 또는 취득하고, 비밀번호를 아는 경우 100% 현금 인출이 가능하며, DVR이나 CCTV가 녹화하고 있지만 범인이 얼굴을 가리고 인출을 하는 경우 범인의 얼굴정보가 없기 때문에 수사가 매우 어려운 문제점이 있었다.The conventional cash withdrawal methods will be described in more detail as follows. If you use your own personal information or mobile phone's location-based service, you can duplicate or acquire another person's cash card, credit card, mobile phone, and 100% cash withdrawal if you know the password. DVR Or CCTV is recording, but if the criminal is covering the face and withdrawal because there is no face information of the criminal had a very difficult problem.

생채인식을 이용한 무인자동화 기기의 경우, 그 구성은 사용자가 카드로 비밀번호를 입력하여 상기 비밀번호가 일치할 경우에, 사용자의 생채정보(지문, 홍채, 얼굴, 정맥)를 취득하여 이 정보를 서버에 있는 데이터베이스와 일일이 비교하여 일치하는 정보가 있을 때 현금을 인출해 주는 방식을 사용하고 있으므로, 데이터베이스를 검색하기 위해 많은 시간이 소요되며 이러한 생채인식에는 본인 인증 오류율 및 타인 인증 오류율 등이 존재하여 100% 정확한 검증을 할 수 없기 때문에 사용자의 불편이 따른다.In the case of an unmanned automated device using biometric recognition, the configuration is that when the user inputs a password with a card and the password matches, the biometric information (fingerprint, iris, face, vein) of the user is obtained and the information is transmitted to the server. Because it uses a method of withdrawing cash when there is matching information compared to the existing database, it takes a lot of time to search the database, and the biometric recognition error rate and others authentication error rate exist 100% This is inconvenient for the user because it cannot be accurately verified.

상기 생채인식을 이용한 무인자동화 기기는 데이터베이스를 검색하는 시간을 단축하기 위하여, 생채인식 과정을 생략하고, 눈, 코, 입 등 얼굴의 특징점을 추출할 수 있는지의 여부만을 검사하는 알고리즘이었다. 그러나, 카메라의 시야 내에 얼굴이 존재하는가를 자동으로 판단하는 알고리즘과 컬러 영상을 변환하여 얼굴의 살색 부분을 찾는 영상처리 과정이 자동화되지 못하였고, 눈, 코, 입 등의 존재 유무를 판단하는 과정이 조명 등의 영향을 받으므로 상용화에 문제점이 있었다.In order to shorten the time required to search the database, the unmanned automated device using the raw vegetable recognition was an algorithm that checks whether the feature points of the face such as eyes, nose, and mouth can be extracted without omitting the raw vegetable recognition process. However, the algorithm for automatically determining whether a face exists in the field of view of the camera and the image processing process of finding a skin part by converting a color image have not been automated, and the process of determining the presence of eyes, nose, mouth, etc. There is a problem in commercialization because it is affected by the lighting.

상기 설명한 바와 같이 종래의 현금인출 방법들은 타인의 현금카드, 신용카드, 휴대폰을 복제하거나 취득하고, 비밀번호를 아는 경우 100% 현금인출을 해주는 실정이고, DVR이나 CCTV가 녹화하고 있지만 범인이 얼굴을 가리고 인출을 하는 경우 범인의 얼굴정보가 없기 때문에 수사가 매우 어려웠으며, 생채인식을 이용한 무인자동화 기기의 경우, 데이터베이스를 검색하기 위해 많은 시간이 소요되며 이러한 생채인식에는 본인 인증 오류율 및 타인 인증 오류율 등이 존재하는 문제점을 가지고 있었다.As described above, the conventional cash withdrawal methods duplicate or acquire another person's cash card, credit card, and mobile phone, and 100% cash withdrawal when the user knows the password. In the case of withdrawal, the investigation was very difficult because there was no face information of criminals, and in the case of unmanned automated devices using biometrics, it takes a lot of time to search the database. I had a problem that exists.

따라서, 본 발명은 상기와 같은 종래 기술의 제반 단점과 문제점을 해결하기 위한 것으로, 영상처리를 이용하여 사용자의 비밀번호가 일치하더라도 무인자동화 기기에 내장된 카메라를 이용하여 사용자의 눈, 코, 입 등 특정 부위가 노출되지 않으면 현금 인출을 막고, 노출되면 인출을 허용하되 증거자료로서 얼굴 사진을 확보하여 사후 금융 사건이 발생하였을 때 범죄 증거 자료로 활용하고자 함에 본 발명의 목적이 있다.Accordingly, the present invention is to solve the above-mentioned disadvantages and problems of the prior art, even if the user's password is matched using the image processing using the camera embedded in the unmanned automation device user's eyes, nose, mouth, etc. It is an object of the present invention to prevent cash withdrawal if a specific part is not exposed, to allow withdrawal if exposed, but to secure a face photograph as evidence and to use it as evidence of crime when a financial incident occurs.

도 1은 무인자동화 기기의 일반적인 구성을 보이는 도면.1 is a view showing a general configuration of an unmanned automation device.

도 2는 종래의 생채인식을 위한 얼굴 인식용 카메라, 홍채인식용 카메라, 지문인식 센서의 도면.Figure 2 is a view of a conventional face recognition camera for iris recognition, iris recognition camera, fingerprint recognition sensor.

도 3은 본 발명의 지능형 무인자동화 기기의 구성을 보이는 도면.Figure 3 is a view showing the configuration of the intelligent unmanned automated device of the present invention.

도 4는 본 발명의 지능형 무인자동화 기기의 블럭도.Figure 4 is a block diagram of the intelligent unmanned automated device of the present invention.

도 5는 본 발명에 의해 수행되는 지능형 무인자동화 기기를 구현하는 과정을 보이는 흐름도.5 is a flowchart showing a process of implementing an intelligent unmanned automated device performed by the present invention.

도 6은 자동 ROI 셋팅을 위해 3×3마스크를 이용한 저주파 통과영역 필터의 도면.6 is a diagram of a low pass filter using a 3x3 mask for automatic ROI setting.

도 7은 자동 ROI 셋팅을 위해 이미지 차감 방법을 사용하여 차분한 영상을 보이는 도면.7 is a view showing a calm image using an image subtraction method for automatic ROI setting.

도 8은 얼굴영상의 중심점 및 면적을 구하기 위해 Hue Histogram과 Low/High 임계치의 설정을 보이는 도면.8 is a diagram illustrating setting of a Hue Histogram and a Low / High threshold to obtain a center point and an area of a face image.

도 9는 얼굴영상의 중심점 및 면적을 구하기 위해 Low/High 임계치에 해당되는 픽셀 값을 푸른색으로 설정하여 얻은 영상을 보이는 도면.9 is a view showing an image obtained by setting the pixel value corresponding to the Low / High threshold value in blue to obtain the center point and the area of the face image.

<도면의 주요 부분에 대한 부호의 설명><Explanation of symbols for the main parts of the drawings>

100. 카드 입력부 110. 비밀번호 입력부100. Card input section 110. Password input section

120. 현금 인출부 200. 저가형 카메라120. Cash dispenser 200. Low-cost camera

330. 영상처리부 500. 움직이는 영상의 중심점330. Image Processing Unit 500. Center of Moving Image

700. 자동으로 검출된 얼굴 영역700. Automatically detected face areas

본 발명의 상기 목적은 사용자로부터 카드를 입력(100)받아 입력된 카드가 유효한 카드인지 은행 서버와 통신하며 확인한 후 사용자로부터 비밀번호를 입력(110)받아 상기 비밀번호를 확인하는 과정은 종래의 무인자동화 기기의 모듈을 그대로 사용하며, 카메라(200)로부터 촬영된 영상을 HSV컬러 모델로 변환하여 움직이는 물체의 후보 중심점이 자동으로 판단(400)되는 제 1단계, 움직이는 물체의 후보 중심점(500)을 기준으로 가상 사각형이 설정되고 그 사각형 내의 모든 픽셀에 대하여 Hue Histogram이 설정되어 얼굴의 중심점 및 면적(410)을 구하는 제 2단계, 얼굴영상의 중심부분에 코가 존재하는 경우, 코의 위치를 기준으로 사용자의 눈과 입의 유무를 검사(420)하여 영상이 저장(340)되는 제 3단계 및 상기 제 3단계로부터 얼굴영상이 저장되면 인출(120)을 해주고 사용자가 원할 경우 본인의 영상을 내장된 휴대용 저장장치로 저장하여 사용자에게 전달(350)되는 제 4단계로 이루어진 영상처리를 이용한 무인자동화 기기의 구현방법을 실현하는 데 있다.The object of the present invention is to receive a card from the user 100 and communicate with the bank server to check whether the input card is a valid card and then input the password from the user 110 to confirm the password is a conventional unmanned automated device Module as it is, and converts the image taken from the camera 200 into the HSV color model, the candidate center point of the moving object is automatically determined 400, based on the candidate center point 500 of the moving object When the virtual rectangle is set and the Hue Histogram is set for all pixels in the rectangle to obtain the center point and the area 410 of the face, when the nose exists in the center of the face image, the user is referred to the nose position. Examine the presence or absence of the eyes and mouth (420) and the image is stored (340) when the facial image is stored from the third step and the withdrawal (120) If the user wants it is to realize an implementation of the unmanned automation method using image processing comprising a fourth step is to save the transmission to the portable storage device 350 to the user stored in the I picture.

본 발명의 상기 목적과 기술적 구성 및 그에 따른 작용효과에 관한 자세한 사항은 본 발명의 바람직한 실시 예를 도시하고 있는 도면을 참조한 이하 상세한 설명에 의해 보다 명확하게 이해될 것이다.Details of the above objects and technical configurations and the effects thereof according to the present invention will be more clearly understood by the following detailed description with reference to the drawings showing preferred embodiments of the present invention.

도 3은 본 발명의 지능형 무인자동화 기기의 구성을 보이는 도면으로 도 1의 무인자동화 기기의 일반적인 구성에 저가형 카메라(200)와 눈, 코, 입의 존재유무 판단(420)을 위한 영상처리부(330)를 장착한 것으로 도 4의 지능형 무인자동화 기기의 블럭도에 상기 영상처리부(330)의 과정을 나타내었다.3 is a view showing the configuration of the intelligent unmanned automated device of the present invention, the image processing unit 330 for determining the presence of the low-cost camera 200 and the presence of eyes, nose, mouth in the general configuration of the unmanned automation device of FIG. FIG. 4 is a block diagram of the intelligent unmanned automated device of FIG.

도 5는 본 발명에 의해 수행되는 지능형 무인자동화 기기를 구현하는 과정을 보이는 흐름도로, 이하 각 단계의 알고리즘을 상세히 설명한다. 상기 제 1단계는 비밀번호가 승인(110)된 후 카메라(200)로부터 촬영된 영상을 컬러변환과 자동 ROI(Region of Interest) 셋팅(400)을 사용하여 움직이는 물체의 후보 중심점(500)을 자동으로 찾는다.5 is a flowchart illustrating a process of implementing an intelligent unmanned automated device performed by the present invention. Hereinafter, the algorithm of each step will be described in detail. In the first step, after the password is approved (110), the candidate center point 500 of the moving object is automatically formed by using color conversion and automatic ROI (Region of Interest) setting 400 of the image taken from the camera 200. Find.

컬러변환은 RGB(Red Green Blue) 영상을 HSV(Hue Saturation Value) 영상으로 변환하는 처리 시간을 단축시키기 위하여 원본(24bits)보다 적은 비트로 변환하여 프로세싱을 한다. 보통은 컬러 영상의 색을 나타내는 기본색인 적·녹·청의 색신호를 따로따로 개별적인 신호선으로 음극선관(CRT) 표시 장치나 컴퓨터 모니터에 입력하는 방식으로 3원색을 하나의 복합 색 신호로 합성하여 단일 신호 선으로 입력하는 방식에 비해 튜너나 영상회로는 복잡하지만 선명하고 깨끗한 화상이 표시되는 Normalized RGB 방식과 YUV 형태를 이용하나, 본 알고리즘에서는 조명 변화에 강인한 HSV 컬러 모델로 변환하여 사용한다.The color conversion process is performed by converting the RGB (Red Green Blue) image into less bits than the original (24 bits) in order to shorten the processing time for converting the RGB image into a Hue Saturation Value (HSV) image. Normally, the red, green, and blue color signals, which represent the colors of a color image, are input to the cathode ray tube (CRT) display device or computer monitor separately as separate signal lines, and the three primary colors are combined into a single composite color signal. Compared to the line input method, the tuner or image circuit uses a normalized RGB method and YUV type that displays a complex but clear and clear image. However, this algorithm converts and uses an HSV color model that is robust to light changes.

자동 ROI 셋팅(400)은 저주파 통과영역 필터와 이미지 차감 방법을 사용하여 움직이는 물체의 초기 위치를 자동으로 알아내는데, 도 6은 자동 ROI 셋팅을 위해 수행되는 3×3마스크를 이용한 저주파 통과영역 필터를 보이는 도면으로 저주파 통과영역 필터는 영상의 노이즈 성분을 제거해 주는 역할을 하며 보통 3×3, 5×5 마스크를 사용하여 컨벌루션(Convolution) 연산을 수행한다.The automatic ROI setting 400 automatically detects an initial position of a moving object using a low pass filter and an image subtraction method. FIG. 6 illustrates a low pass filter using a 3 × 3 mask performed for automatic ROI setting. As shown in the figure, the low pass filter removes the noise component of the image and usually performs a convolution operation using a 3x3 or 5x5 mask.

도 7은 본 발명에 의해 수행되는 이미지 차감 방법을 사용하여 차분한 영상을 보이는 도면으로 이미지 차감 방법에 의해 저주파 통과영역 필터를 통과한 영상과 다음 영상을 차분하여 움직이는 영상의 후보 중심점(500)을 찾은 결과를 나타낸 것으로 그림에서 흰색으로 표시되었다.FIG. 7 is a view showing a calm image using the image subtraction method performed by the present invention. The candidate center point 500 of the moving image is found by differentially dividing the image passing through the low pass filter and the next image by the image subtraction method. The results are shown in white in the figure.

상기 제 2단계는 얼굴의 중심점 및 면적(410)을 구하는 방법은 상기 자동 ROI 셋팅(400) 과정에서 움직임 후보 ROI 및 후보 중심점(500)이 결정되면 그 중심점을 기준으로 15×15의 가상 사각형을 설정하고, 그 사각형 내의 모든 픽셀에 대하여 Hue Histogram을 설정한 후 Low/High 임계치를 얻고, 상기 임계치에 해당되는 픽셀 값을 푸른색으로 설정하여 영상에서 푸른색 영역(700)의 중심점 및 면적을 구한다.In the second step, the method for obtaining the center point and the area 410 of the face is performed. When the motion candidate ROI and the candidate center point 500 are determined in the automatic ROI setting 400, a 15 × 15 virtual rectangle is determined based on the center point. After setting the Hue Histogram for all the pixels in the square, the Low / High threshold is obtained and the pixel value corresponding to the threshold is set to blue to obtain the center point and the area of the blue area 700 in the image. .

도 8은 얼굴영상의 중심점 및 면적을 구하기 위해 Hue Histogram과 Low/High 임계치의 설정을 보이는 도면으로 움직이는 물체의 중심점(500)을 기준으로 15×15의 가상 사각형 내의 모든 픽셀에 대하여 Hue Histogram을 설정한 후 Low/High 임계치를 구하는 과정을 도해한 것으로 MAX(620)는 Hi 임계치 값을 R1(600), R2(610)는 각기 Low 임계치 값을 나타내며, 세로 축은 value(630) 값(I)을 가로축은Hue(640) 값(H)을 나타낸다. 상기 Hue Histogram을 설정하고, Low/High 임계치를 구하는 구체적인 방법으로 모든 픽셀에 대하여 수학식 2에 의해 A, B값을 구한 후, 수학식 1에 의해 Hue(640) 값(H)이 계산되며, 수학식 3에 의해 Value(630) 값(I)이 계산되며 채도(Saturation)값은 수학식 4에 의해 계산된다. 상기 수학식 2, 수학식 3, 수학식 4의 R, G, B는 각 픽셀의 빨간색, 녹색, 푸른색 성분 값을 나타낸다.FIG. 8 is a diagram illustrating setting of Hue Histogram and Low / High thresholds to obtain a center point and an area of a face image. The Hue Histogram is set for all pixels in a 15 × 15 virtual rectangle based on the center point 500 of a moving object. Then, the process of obtaining the low / high threshold is illustrated. The MAX (620) represents the Hi threshold value, R1 (600), and the R2 (610) represents the low threshold value, respectively, and the vertical axis represents the value (630) value (I). The horizontal axis represents Hue 640 value (H). After the Hue Histogram is set and the A and B values are obtained for Equation 2 for all pixels in a specific method for obtaining a Low / High threshold, the Hue 640 value H is calculated by Equation 1. Value (630) value I is calculated by Equation 3 and saturation value is calculated by Equation 4. R, G, and B in Equations 2, 3, and 4 represent red, green, and blue component values of each pixel.

도 8은 얼굴영상의 중심점 및 면적을 구하기 위해 Low/High 임계치에 해당되는 픽셀 값을 푸른색(700)으로 설정하여 얻은 영상을 보이는 것으로, 추적하고자하는 물체가 사람의 얼굴인 경우, ROI의 Low/High에 해당되는 픽셀 값을 컴퓨터 프로그램 상에서 푸른색으로 변환하여 상기 푸른색 표시된 값의 위치를 이용하면 얼굴의 중심점 및 면적(410)을 구할 수 있다.FIG. 8 illustrates an image obtained by setting a pixel value corresponding to a low / high threshold to a blue color 700 to obtain a center point and an area of a face image. When an object to be tracked is a human face, a low ROI is obtained. By converting the pixel value corresponding to / High to blue in a computer program and using the location of the blue displayed value, the center point and the area 410 of the face can be obtained.

상기 제 3단계는 상기 제 2단계로부터 추출한 얼굴영상에서 코의 경우 그 특성상 상기 얼굴 영역의 가장 가운데 부분에 존재한다. 이를 이용하여 코가 있는지 판별할 수 있고, 만약 사용자가 모자를 썼을 경우 중심보다 위쪽에 코가 존재하게 되므로 사용자가 신분을 숨기는 경우로 간주할 수 있다. 코가 사각영역에 정확히 존재 할 경우 한국인 표준영상 템플릿(templet)에 의거하여 양쪽 눈의 유무를 패턴 매칭(Pattern matching) 방법으로 검사하고, 만약 사용자가 눈동자가 안보일 정도의 짙은 색안경을 썼을 경우도 인출 실패 메시지를 보낸다. 입의 경우는 코를 검출한 후 일정 비율 밑쪽을 검사하여 입의 유무를 판별해 내고 특히 마스크를 쓰고 얼굴을 노출하였을 경우를 집중적으로 검사하여 눈, 코, 입 존재유무를 판단(420)한다.In the third step, in the face image extracted from the second step, the nose is located at the center of the face region. This can be used to determine whether there is a nose, and if the user wears a hat, the nose exists above the center, so the user can be regarded as hiding the identity. If the nose is exactly in the rectangular area, the pattern of the two eyes is examined by pattern matching method based on the Korean standard image template, and even if the user wears dark glasses that are invisible to the eyes. Send a failure message. In the case of the mouth, after detecting the nose, a certain ratio is examined to determine the presence of the mouth, and in particular, when the face is exposed by wearing a mask to determine whether eyes, nose, and mouth exist (420).

상기 제 3단계로부터 눈, 코, 입 존재유무가 확인(420)되면 인출(120)을 해주고 사용자가 원할 경우 본인의 영상을 내장된 휴대용 저장장치로 저장하여 사용자에게 전달(350)하는 제 4단계로 이루어져있다.When the presence of eyes, nose, and mouth is confirmed from the third step (420), the withdrawal (120) is made and if the user desires, the fourth step of storing and transmitting the user's image to the built-in portable storage device (350). Consists of

도 4는 본 발명의 지능형 무인자동화 기기의 블럭도에 관한 것으로, 영상처리 알고리즘을 구현하는 바람직한 실시 예로써 상기 알고리즘을 종래의 무인자동화 기기에서 동작 가능하도록 독립 프로세서(Stand alone processor)하는 경우이다. 이를 구현하기 위한 구체적인 장치로써 자동 ROI 셋팅(400), 얼굴의 중심점 및 면적을 구하는 알고리즘(410) 및 얼굴의 눈, 코, 입 존재유무를 판단하는 알고리즘(420)을 포함하는 영상처리용 DSP(Digital Signal Processor)(300) 및 OSD(Open Software Description)(310)용 칩과 영상처리 알고리즘을 제어하는 마이크로프로세서(320)로 구성된 영상처리부(330), 얼굴영상 촬영을 위한 카메라(200), 영상을 저장하기 위한 HDD(340), 그리고 메모리 카드리더기 및 FDD 등의 휴대용 저장장치(350)가 요구된다.4 is a block diagram of an intelligent unmanned automated device of the present invention, which is a preferred embodiment for implementing an image processing algorithm in the case of a stand alone processor for operating the algorithm in a conventional unmanned automated device. As a specific device for realizing this, an image processing DSP including an automatic ROI setting 400, an algorithm 410 for obtaining a center point and an area of a face, and an algorithm 420 for determining the presence of eyes, nose, and mouth of a face ( Digital signal processor (300) and an OSD (Open Software Description) (310) chip and an image processing unit 330 consisting of a microprocessor 320 for controlling an image processing algorithm, a camera 200 for face image shooting, image HDD 340 for storing the data, and a portable storage device 350 such as a memory card reader and an FDD are required.

상기 알고리즘을 구현하는 바람직한 다른 실시 예로는 종래의 무인자동화 기기의 운영체제에 영상처리 프로그램을 부가하여 상기 알고리즘을 수행하는 것으로써, 이를 구현하기 위한 구체적인 장치로써 윈도우 운영체제를 사용하는 무인자동화 기기, 상기 영상처리용 DSP(Digital Signal Processor)(300) 및 OSD(Open Software Description)(310)용 칩과 영상처리 알고리즘을 제어하는 마이크로프로세서(320)의 기능을 담당할 수 있는 영상처리 프로그램으로 구성되며, 얼굴영상 촬영을 위한 카메라(200), 영상을 저장하기 위한 HDD(340), 취득한 디지털 영상을 사용자에게 배포하기 위한 메모리 카드리더기나, FDD 등의 휴대용 저장장치(350)가 요구된다.In another preferred embodiment of implementing the algorithm, an image processing program is added to an operating system of a conventional unmanned automated device to perform the algorithm, and as a specific device for implementing the algorithm, an unmanned automated device using the Windows operating system, the image It consists of a chip for processing Digital Signal Processor (DSP) 300 and Open Software Description (OSD) 310 and an image processing program that can function as a microprocessor 320 for controlling an image processing algorithm. A camera 200 for capturing an image, an HDD 340 for storing an image, a memory card reader for distributing the acquired digital image to a user, and a portable storage device 350 such as an FDD are required.

상기 영상처리용 DSP(300)는 디지털 연산에 의해 신호 처리를 하는 하나의 IC 칩으로 된 마이크로프로세서로써 범용 마이크로프로세서의 아키텍처를 대폭 개량하여 고속 연산과 소형화를 추구한 영상처리 전용 마이크로프로세서이다. 기본 조작은 필터링, 프리어 변환, 상관 함수의 산출, 부호화, 변복조, 미분, 적분 및 적응 신호 처리등이다. 음성 합성, 음성인식, 음성 부호화, 압축, 중고속 모뎀, 반향 소거장치(echocanceller) 등의 음성 및 통신 시스템에서 채용되고 있으며, 화상 처리나 서보 모터(servo motor) 제어 등의 고속 디지털 제어 분야에 대한 적용도 실용화되고 있다.The DSP 300 for image processing is a microprocessor made of a single IC chip that performs signal processing by digital calculation. The DSP 300 is an image processing dedicated microprocessor that greatly improves the architecture of a general-purpose microprocessor and seeks high speed operation and miniaturization. The basic operations are filtering, freer transform, calculation of correlation function, coding, modulation and demodulation, derivative, integration and adaptive signal processing. It is used in speech and communication systems such as speech synthesis, speech recognition, speech encoding, compression, medium and high speed modems, echocancers, etc., and is used for high-speed digital control fields such as image processing and servo motor control. Application is also practical.

상기 영상처리용 OSD(310)는 소프트웨어의 특징을 기술하기 위한 서식으로 하이퍼텍스트 생성 언어(HTML)의 차세대 버전으로 확장성 생성 언어(XML)를 기초로 하고 있다. 정의할 수 있는 소프트웨어 특징은 대응 운영 체계(OS), 버전 정보, 대응 중앙 처리 장치, 필요한 공 디스크의 용량 등이 있다. 소프트웨어 배포 시에 OSD로 기재한 파일을 한 번에 보낸다면 수취한 클라이언트 측에서 적절한 설치 및 처리를 실행할 수 있다.The image processing OSD 310 is a next-generation version of the hypertext generation language (HTML) as a format for describing software features, and is based on the extensible generation language (XML). Software features that can be defined include the corresponding operating system (OS), version information, the corresponding central processing unit, and the amount of blank disk required. If you send the files listed in the OSD at the time of software distribution, you can execute the proper installation and processing on the receiving client side.

본 발명의 산업상 이용 가능한 분야는 은행 및 전산화용 무인자동화 기기의 경우, 인터넷을 이용한 신용카드 인증의 경우 개인용 컴퓨터에 있는 카메라를 이용하여 본인인증을 요구하는 경우 등 범죄수사에 대비하기 위해 본인 인증이 필요한 모든 디지털 기기 보안을 포함한다.Industrial fields of the present invention can be used for banking and computerized unmanned automated devices, in the case of credit card authentication using the Internet, in the case of requiring a personal authentication using a camera on a personal computer, such as identity verification for crime investigation This includes all necessary digital device security.

상세히 설명된 본 발명에 의하여 본 발명의 특징부를 포함하는 변화들 및 변형들이 당해 기술 분야에서 숙련된 보통의 사람들에게 명백히 쉬워질 것임이 자명하다. 본 발명의 그러한 변형들의 범위는 본 발명의 특징부를 포함하는 당해 기술 분야에 숙련된 통상의 지식을 가진 자들의 범위 내에 있으며, 그러한 변형들은 본 발명의 청구항의 범위 내에 있는 것으로 간주된다.It will be apparent that changes and modifications incorporating features of the invention will be readily apparent to those skilled in the art by the invention described in detail. It is intended that the scope of such modifications of the invention be within the scope of those of ordinary skill in the art including the features of the invention, and such modifications are considered to be within the scope of the claims of the invention.

따라서, 본 발명의 영상처리를 이용한 지능형 무인자동화 기기는 비밀번호가 일치하고 얼굴 중 눈, 코, 입이 확보된 영상을 취득하였을 경우에만 현금 인출을 가능하게 하여 카드복제에 의한 인출을 방지할 수 있고, 범인이 얼굴을 노출한 채 인출했을 경우에는 그 얼굴영상을 확보하여 범인 검거를 손쉽게 할 수 있으며, 종래의 무인자동화 기기를 그대로 이용하기 때문에 저비용으로 금융범죄 등 각종 범죄 예방 및 사건 수사에 이용할 수 있을 뿐만 아니라, 얼굴 중 일부 정보의 유무를 판단하는 알고리즘은 얼굴인식기술에서 정확한 눈, 코, 입의 위치 검출에도 사용할 수 있으므로 얼굴 인식률 향상은 물론 영상처리의 속도 개선을 하는 효과가 있다.Therefore, the intelligent unmanned automated device using the image processing of the present invention can prevent the withdrawal by card duplication by enabling cash withdrawal only when the password matches and the image of the eye, nose and mouth secured in the face is acquired. In the case of a criminal withdrawing a face with an exposed face, it is possible to easily arrest the criminal by securing the face image, and use the conventional unmanned automated device as it is, and can use it for various crime prevention and case investigation at low cost. In addition, the algorithm for determining the presence or absence of some information on the face can be used for accurate position detection of eyes, nose and mouth in face recognition technology, thereby improving face recognition rate and speeding up image processing.

Claims (6)

영상처리를 이용한 지능형 무인자동화 기기의 얼굴영상을 취득하는 방법에 있어서,In the method for acquiring a face image of an intelligent unmanned automated device using image processing, 카메라로부터 촬영된 영상을 HSV컬러 모델로 변환하여 움직이는 물체의 중심점이 자동으로 판단되는 제 1단계;A first step of automatically determining a center point of a moving object by converting an image photographed from a camera into an HSV color model; 움직이는 물체의 중심점을 기준으로 가상 사각형이 설정되고 그 사각형 내의 모든 픽셀에 대하여 Hue Histogram이 설정되어 얼굴의 중심점 및 면적을 구하는 제 2단계;A second step of setting a virtual rectangle based on a center point of a moving object and setting a Hue Histogram for all pixels in the rectangle to obtain a center point and an area of a face; 얼굴영상의 중심부분에 코가 존재하는 경우, 코의 위치를 기준으로 사용자의 눈과 입의 유무를 검사하여 영상이 저장되는 제 3단계; 및A third step of, when the nose exists in the central portion of the face image, checking whether the eyes and the mouth of the user are based on the position of the nose and storing the image; And 상기 제 3단계로부터 얼굴영상이 저장되면 인출을 해주고 사용자가 원할 경우 본인의 영상을 내장된 휴대용 저장장치로 저장하여 사용자에게 전달되는 제 4단계When the face image is stored from the third step, withdraw the drawing and if the user wants, the fourth step is to store the user's image to the built-in portable storage device and deliver it to the user. 를 포함하여 이루어지는 것을 특징으로 하는 영상처리를 이용한 지능형 무인자동화 기기의 구현방법.Implementation method of an intelligent unmanned automated apparatus using image processing, characterized in that comprises a. 제 1항에 있어서,The method of claim 1, 상기 움직이는 물체의 중심점이 자동으로 판단되는 제 1단계는 저주파 통과영역 필터와 이미지 차감 방법이 사용되는 것을 특징으로 하는 영상처리를 이용한 지능형 무인자동화 기기의 구현방법.The first step of automatically determining the center point of the moving object is a low pass filter and image subtraction method is used, the method of implementing an intelligent unmanned automation device using image processing. 제 1항에 있어서,The method of claim 1, 상기 얼굴의 중심점 및 면적을 구하는 제 2단계는 Hue Histogram으로부터 Low, High 임계값을 추출하고 해당되는 픽셀 값을 푸른색으로 변환하여 이 영역으로부터 얼굴의 중심점 및 해당면적을 구하는 것을 특징으로 하는 영상처리를 이용한 지능형 무인자동화 기기의 구현방법.In the second step of calculating the center point and the area of the face, image processing is characterized by extracting the low and high threshold values from the Hue Histogram and converting the corresponding pixel values to blue to obtain the center point and the corresponding area of the face from this area. Implementation method of an intelligent unmanned automated device using. 제 1항에 있어서,The method of claim 1, 상기 제 3단계에서 눈의 존재유무를 검사하기 위해서는 코의 위치로부터 한국인 표준영상 템플릿에 의거하여 양쪽 눈의 유무를 패턴 매칭 방법으로 검사하는 것을 특징으로 하는 영상처리를 이용한 지능형 무인자동화 기기의 구현방법.In the third step, in order to check for the presence of eyes, the method of implementing an intelligent unmanned automated device using image processing, characterized by inspecting the presence or absence of both eyes from the position of the nose based on the Korean standard image template. . 제 1항에 있어서,The method of claim 1, 상기 제 3단계에서 입의 존재유무를 검사하기 위해서는 코의 위치로부터 일정 비율 밑쪽을 검사하여 입의 유무를 검사하는 것을 특징으로 하는 영상처리를 이용한 지능형 무인자동화 기기의 구현방법.In order to check the presence of the mouth in the third step, an implementation method of an intelligent unmanned automation device using image processing, characterized in that the inspection of the presence of the mouth by inspecting a certain proportion below the position of the nose. 영상처리를 이용한 지능형 무인자동화 기기에 있어서,In an intelligent unmanned automated device using image processing, 카드와 비밀번호를 입력할 수 있는 무인자동화 기기;An unmanned automated device capable of entering a card and a password; 움직이는 물체의 영상을 촬영하기 위한 카메라(200);A camera 200 for photographing an image of a moving object; 자동 ROI 셋팅(400), 얼굴의 중심점 및 면적을 구하는 알고리즘(410)과 얼굴의 눈, 코, 입 존재유무를 판단하는 알고리즘(420)을 포함하는 영상처리용 DSP(300) 및 OSD(310)용 칩과 제어용 마이크로프로세서(320)로 구성된 영상처리부(330);DSP 300 and OSD 310 for image processing, including automatic ROI setting 400, an algorithm 410 for determining the center point and the area of the face, and an algorithm 420 for determining the presence or absence of eyes, nose, and mouth of the face. An image processor 330 composed of a chip and a control microprocessor 320; 영상이 저장되는 HDD(340); 및HDD 340 in which the image is stored; And 상기 HDD(340)에 저장된 영상을 사용자에게 배포하기 위한 휴대용 저장장치(350)Portable storage device 350 for distributing the image stored in the HDD 340 to the user 를 포함하여 이루어진 것을 특징으로 하는 영상처리를 이용한 지능형 무인자동화 기기.Intelligent unmanned automated device using the image processing, characterized in that made.
KR1020030030294A 2003-05-13 2003-05-13 Embedded method of intelligent automated teller machine by digital image processing KR20040098134A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030030294A KR20040098134A (en) 2003-05-13 2003-05-13 Embedded method of intelligent automated teller machine by digital image processing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030030294A KR20040098134A (en) 2003-05-13 2003-05-13 Embedded method of intelligent automated teller machine by digital image processing

Publications (1)

Publication Number Publication Date
KR20040098134A true KR20040098134A (en) 2004-11-20

Family

ID=37376066

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030030294A KR20040098134A (en) 2003-05-13 2003-05-13 Embedded method of intelligent automated teller machine by digital image processing

Country Status (1)

Country Link
KR (1) KR20040098134A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100825689B1 (en) * 2006-08-18 2008-04-29 학교법인 포항공과대학교 Facial Disguise Discrimination method
KR101372365B1 (en) * 2012-03-23 2014-03-13 아이포콤 주식회사 Illegal access detecting device for atm

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100825689B1 (en) * 2006-08-18 2008-04-29 학교법인 포항공과대학교 Facial Disguise Discrimination method
KR101372365B1 (en) * 2012-03-23 2014-03-13 아이포콤 주식회사 Illegal access detecting device for atm

Similar Documents

Publication Publication Date Title
US9922238B2 (en) Apparatuses, systems, and methods for confirming identity
KR102324706B1 (en) Face recognition unlock method and device, device, medium
US8649575B2 (en) Method and apparatus of a gesture based biometric system
US9652663B2 (en) Using facial data for device authentication or subject identification
CN107438854B (en) System and method for performing fingerprint-based user authentication using images captured by a mobile device
WO2019134536A1 (en) Neural network model-based human face living body detection
US20170091550A1 (en) Multispectral eye analysis for identity authentication
US20160019420A1 (en) Multispectral eye analysis for identity authentication
US20160019421A1 (en) Multispectral eye analysis for identity authentication
US8275174B2 (en) Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration
JP2007257221A (en) Face recognition system
KR101724971B1 (en) System for recognizing face using wide angle camera and method for recognizing face thereof
CN204791017U (en) Mobile terminal users authentication device based on many biological characteristics mode
US20230091865A1 (en) Face image verification method and apparatus, electronic device, and storage medium
JP2020518879A (en) Detection system, detection device and method thereof
KR100825689B1 (en) Facial Disguise Discrimination method
CN111259757A (en) Image-based living body identification method, device and equipment
WO2021166289A1 (en) Data registration device, biometric authentication device, and recording medium
US8320639B2 (en) Vein pattern management system, vein pattern registration apparatus, vein pattern authentication apparatus, vein pattern registration method, vein pattern authentication method, program, and vein data configuration
Ma et al. Multi-perspective dynamic features for cross-database face presentation attack detection
Amjed et al. Noncircular iris segmentation based on weighted adaptive hough transform using smartphone database
KR20040098134A (en) Embedded method of intelligent automated teller machine by digital image processing
CN113935004A (en) Face recognition login method based on domestic CPU and operating system environment
JP2018169943A (en) Face authentication processing device, face authentication processing method and face authentication processing system
CN113239774A (en) Video face recognition system and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application