WO2010121959A1 - Verfahren zum erkennen von manipulationsversuchen an einem selbstbedienungsterminal und datenverarbeitungseinheit dafür - Google Patents

Verfahren zum erkennen von manipulationsversuchen an einem selbstbedienungsterminal und datenverarbeitungseinheit dafür Download PDF

Info

Publication number
WO2010121959A1
WO2010121959A1 PCT/EP2010/055016 EP2010055016W WO2010121959A1 WO 2010121959 A1 WO2010121959 A1 WO 2010121959A1 EP 2010055016 W EP2010055016 W EP 2010055016W WO 2010121959 A1 WO2010121959 A1 WO 2010121959A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
atm
camera
processing unit
data processing
Prior art date
Application number
PCT/EP2010/055016
Other languages
English (en)
French (fr)
Inventor
Christian Reimann
Holger Santelmann
Original Assignee
Wincor Nixdorf International Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wincor Nixdorf International Gmbh filed Critical Wincor Nixdorf International Gmbh
Priority to CN2010800177618A priority Critical patent/CN102414725A/zh
Priority to EP10717089A priority patent/EP2422326A1/de
Priority to US13/264,135 priority patent/US9165437B2/en
Publication of WO2010121959A1 publication Critical patent/WO2010121959A1/de

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F19/00Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
    • G07F19/20Automatic teller machines [ATMs]
    • G07F19/207Surveillance aspects at ATMs
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07FCOIN-FREED OR LIKE APPARATUS
    • G07F19/00Complete banking systems; Coded card-freed arrangements adapted for dispensing or receiving monies or the like and posting such transactions to existing accounts, e.g. automatic teller machines
    • G07F19/20Automatic teller machines [ATMs]

Definitions

  • the invention relates to a method for detecting manipulation attempts on a self-service terminal according to the preamble of claim 1. Furthermore, the invention relates to a device operating according to the method, in particular a data processing unit for processing image data, as well as a self-service terminal equipped therewith, in particular a self-service terminal designed as an ATM ,
  • the spied out Data is then transferred to a remote receiver via a transmitter built into the keyboard overlay, or stored in a data memory located in the keyboard overlay.
  • a transmitter built into the keyboard overlay or stored in a data memory located in the keyboard overlay.
  • Many of today's skimming devices are very difficult to distinguish with the human eye from original controls (keyboard, card reader, etc.).
  • monitoring systems which have one or more cameras which are mounted in the area of the location of the self-service terminal and detect the entire control panel and often also the area of residence of the user.
  • Such a solution is described for example in DE 201 02 477 Ul.
  • the local camera monitoring By means of the local camera monitoring, both the control panel itself and the user's area in front of it can be detected.
  • a sensor is provided in order to distinguish whether a person is in the occupied area.
  • devices and methods for detecting tampering attempts on a self-service terminal are basically known, a camera being mounted on at least one of the elements provided in the control panel, e.g. Keyboard, cash dispenser, etc., is aligned and wherein the image data generated by the camera are evaluated.
  • a camera being mounted on at least one of the elements provided in the control panel, e.g. Keyboard, cash dispenser, etc., is aligned and wherein the image data generated by the camera are evaluated.
  • Object of the present invention is therefore to provide a solution for a reliable and inexpensive to implement Propose camera monitoring with detection of tampering attempts.
  • the object is achieved by a method having the features of claim 1 and by a data processing unit operating thereafter and a self-service terminal equipped therewith.
  • At least one edge image is created from the image data generated by the camera by means of edge detection, and that the edge image is evaluated by means of a reference edge image.
  • edge detection not only causes a significant data reduction, but also increases the speed and reliability of the image analysis.
  • edge image data representing the edge image with reference edge image data representing the reference edge image is logically linked to first result image data representing a first result image, in particular by an exclusive-OR operation.
  • This data operation causes all the edges that coincide with the reference edge image to be hidden in this result image thus assembled, so that essentially only the edges or the elements or parts outlined therefrom that could be manipulated are visible.
  • the first result image data preferably with the reference edge image data become logical to second result image data
  • the second result image represent, in particular linked by an AND operation. This operation hides the areas that are not to be monitored so that only those edges or parts of them that belong to foreign objects that have been inserted into the area to be monitored are visible. These are in particular superstructures, spy cameras and similar manipulations.
  • the evaluation of the edge images can be realized very efficiently and quickly even with simple computer hardware and software, if in the second result image of the white component is determined and if it is checked to detect a manipulation attempt, if the white component is a vorgebaren threshold exceeds.
  • the respective edge image is calculated from a plurality of individual images, wherein in particular an average image is calculated by means of the formation of average values from the respective image data. These steps are performed to inter alia. to have as low-noise image data for the actual evaluation.
  • the reference edge image is also calculated from a plurality of reference individual images.
  • an average image is also calculated in particular by means of the formation of average values from the respective image data.
  • the Average values each determine the average color value for each pixel.
  • the respective average image is converted into a grayscale image.
  • Sobel filtering of the image data is preferably carried out for the actual edge detection, wherein in particular the respective gray scale image is subjected to Sobel filtering in order to produce the edge image or the reference edge image.
  • a combined Sobel filter in a normalized form e.g., 3x3 horizontal and 3x3 vertical may be used.
  • the edge detection is performed by means of a segmentation filtering of image data, wherein in particular the respective grayscale image subjected to Sobel filtering is subsequently subjected to segmentation filtering in order to produce the edge image or the reference edge image.
  • the edge image is decomposed by means of a threshold into its black and white parts, so that a mask of the edges is formed.
  • a manual image reworking then takes place, wherein in particular the respective gray scale image subjected to the segmentation filtering is subjected to a manual image reworking in which unimportant image elements are removed for the evaluation such as non-monitored areas or edges or artifacts caused by image noise.
  • unimportant image elements such as non-monitored areas or edges or artifacts caused by image noise.
  • a data processing unit implementing the method, e.g. as a PC, and a self-service terminal equipped therewith.
  • the recognition of superstructures on individual or several elements can be significantly improved and fully automated by the invention.
  • the camera detects the elements which are particularly suitable for manipulation and / or the elements arranged in particularly manipulation-suitable areas of the control panel, such as cash dispenser, keyboard, card slot and / or screen.
  • the elements are therefore preferably control elements in the strict sense, but can also be other elements, such as storage space in the operating area or an applied logo, signage lettering and the like.
  • the camera has a detection angle, which preferably detects multiple controls, such as the cash dispenser and the keyboard.
  • the camera preferably has a wide-angle lens with a coverage angle of at least 130 degrees. It can be advantageous if the camera is installed in that housing section of the self-service terminal which limits the control panel laterally or upwardly. This can be in particular the frame of the control panel.
  • the data processing unit connected to the at least one camera can be completely integrated in the self-service terminal.
  • the data processing unit has a first stage for image processing, in particular for shadow removal, edge detection, vectorization and / or segmentation, which receives the image data.
  • the data processing unit may have a second stage downstream of the first stage for feature extraction, wherein in particular a so-called blob analysis, edge position and / or color distribution is performed.
  • a third stage downstream of the second stage can be provided for classification.
  • the data processing unit if it detects a manipulation attempt on the detected elements by means of processing the image data, triggers an alarm, blocks the self-service terminal and / or triggers an additional camera (portrait camera).
  • the camera and / or the data processing unit is deactivated during the operation and / or maintenance of the self-service terminal.
  • Fig. 1 shows a flowchart of the method according to the invention
  • Figures 2 a) -d) show examples of generated edge images and result images
  • Fig. 3 a) -d) show examples of original recorded camera images and edge or result images
  • Fig. 4 shows a perspective view of the
  • Fig. 5 represents the detection range of the camera of Fig. 4;
  • Fig. 7 shows a block diagram of a data processing unit connected to the camera and a video surveillance unit connected thereto.
  • FIGS. 2 and 3 would actually have to represent white edge curves on a black background. To meet the requirements for patent drawings, these representations are inverted here displayed, ie black edge gradients are displayed on a white background.
  • FIG. 1 shows a schematic representation of a sequence diagram of the method 100 according to the invention, which can be subdivided into the following step sequences 110 to 130:
  • step sequence 110 with the individual steps 111 to 115, at least one reference edge image is generated from the camera image data. It is assumed that an unmanipulated state self-service terminals.
  • step sequence 120 with the individual steps 121 to 124, at least one edge image is generated from the camera image data.
  • the self-service terminal is in use, so that a manipulation attempt could be carried out, which is to be recognized by the method described here.
  • the at least one edge image is evaluated with the aid of the at least one reference edge image.
  • FIGS. 2a) -d) and FIGS. 3a) -d) show examples of the images produced and further processed in the method.
  • FIGS. 4 to 7 show a perspective view of the basic structure of a self-service terminal in the form of an ATM ATM, which has a control panel CP and is equipped with a camera CAM according to the invention for detecting attempts at manipulation.
  • the camera CAM is located in a lateral housing part, which surrounds or surrounds the control panel of the ATM ATM.
  • To the control panel include in particular a cash dispenser 1, also called shutter, and a keyboard 2.
  • the detection range or angle of the camera CAM comprises at least these two elements 1 and 2 and enables a reliable detection of such manipulation attempts.
  • FIG. 5 shows the detection range of the camera CAM from the camera viewing angle.
  • the camera is equipped with a wide-angle lens to capture at least these two elements or subregions of the control panel.
  • the ATM ATM is designed so that the said elements 1 and 2 preferably have the most homogeneous surfaces with delimiting edges. This simplifies object recognition. By attaching the camera CAM at this particularly suitable position, the subregions or elements 1 and 2 can be optically measured very reliably. It can be provided that the camera is focused in particular on certain areas. An alternative positioning of the camera is illustrated with reference to FIG. FIG.
  • FIG. 6 illustrates the detection field of a camera, which is similar to the camera CAM, but which is now installed in the upper area of the ATM ATM and detects the control panel CP from above.
  • other elements can be provided in the detection range of the camera, such as a shelf near the keyboard, a card input funnel 4, ie a feed part for the card reader, and eg a screen 5 or display.
  • These further mentioned elements 3, 4 and 5 represent potential targets for manipulation attempts.
  • the camera has optics optimized for this application as well as a resolution of, for example, 2 megapixels and more.
  • the camera CAM is connected to a special data processing unit 10 (see FIG. 7).
  • This data processing unit described later, makes it possible to optimally evaluate the image data generated by the camera so as to make a tampering attempt, such as tampering, with high certainty.
  • a superstructure of the keyboard 2 to recognize immediately and possibly trigger alarms and deactivations.
  • a superstructure to the cash box (shutter) and / or attaching items for receiving security information, in particular PIN no.
  • security information in particular PIN no.
  • an optical measurement of the detected elements, such as the keyboard 2 is carried out within the data processing unit 10 with the aid of the camera CAM in order to be able to clearly recognize deviations in the case of manipulation. Tests by the applicant have shown that even reference deviations in the millimeter range can be clearly recognized.
  • the invention is particularly suitable for detecting foreign objects (superstructures, scouting camera, etc.) and in particular comprises an edge detection, which is optionally combined with a segmentation in order to be able to clearly and reliably recognize the contours of foreign objects in the control panel.
  • the required image data processing takes place predominantly in the data processing unit described below.
  • FIG. 7 shows the block diagram of a data processing unit 10 according to the invention, to which the camera CAM is connected, as well as a video surveillance or CCTV unit 20, which is connected to the data processing unit 10.
  • the data processing unit 10 has, in particular, the following stages or modules, which are to be understood here as logical blocks, in which the aforementioned step sequences of the method (see 110 to 130 in FIG.
  • a first stage 11 data processing 10 executes the step sequence 110 for generating at least one reference Edge image REF (see also Fig. 1 and 2a).
  • an average image is calculated from a plurality of individual images in a first step 111.
  • the individual binders originate, for example, from a video stream which the camera CAM made after the installation of the ATM before the actual start-up, ie in an unmanipulated state.
  • the calculation of an average image whereby, for example, the average color value is calculated on a pixel-by-pixel basis, causes a noise suppression of the image noise occurring in the individual images.
  • a grayscale image is generated from the color average image.
  • edge detection is performed by Sobel filtering (eg, 3x3 horizontal, 3x3 vertical) to obtain a first reference edge image.
  • Sobel filtering eg, 3x3 horizontal, 3x3 vertical
  • a segmentation filter is applied in step 114, in which this first reference edge image is decomposed into its black and white components by means of a threshold value.
  • This second image is preferably improved in an optional step 115 by manual image processing.
  • disturbing picture elements which are not relevant for the later evaluation, are removed by hand. These are, for example, edges of a region that is not to be monitored or virtual edges or artifacts that have arisen due to image noise and the like.
  • This reference edge image REF reproduces the relevant edges in the view of the camera CAM (see also FIG. 5).
  • the edge images shown in FIGS. 2 and 3 should actually represent white edge curves on a black background. In order to meet the requirements for patent drawings, these representations are reproduced here in an inverted manner, ie black edge gradients are displayed on a white background.
  • a second stage 12 at least one edge image EM (see FIG.
  • the steps 121 to 124 are carried out, which are configured analogously to the steps 111 to 114. Accordingly, a colored average image is calculated in step 121 from a plurality of individual images recorded under real conditions.
  • a grayscale image is generated from this, which is then subjected to edge detection in step 123.
  • Sobel filtering is used, with a segmentation filter subsequently being used in step 124.
  • This segmented edge image EM is shown in FIG. 2b) (see also FIG. 5) and is used for the actual image evaluation.
  • this actual evaluation and detection of manipulation attempts now takes place on the basis of the step sequence 130 (see FIG.
  • the segmented edge image EM is logically linked to the reference edge image REF by an exclusive-OR operation (XOR).
  • XOR exclusive-OR
  • this first result image R1 is logically linked to the reference edge image REF by an AND operation (AND).
  • AND AND
  • this second result image R2 which is characterized in particular by the fact that areas not to be monitored are hidden (compare with FIG. 2a / b / c). Accordingly, this second result image R2 contains essentially only those edges that could be changed with respect to the reference and could indicate a manipulation attempt.
  • FIG. 2d shows a result image R2, which contains more or less no more noticeable edges and thus does not indicate a manipulation attempt.
  • FIG. 3c) again shows this result image R2 (edge image) and
  • FIG. 3d shows a result image R2 * (edge image) which was likewise obtained by the above-described data evaluation (step sequence 130) and contains very noticeable edges, which indicate a successful manipulation attempt.
  • Fig. 3b) shows the corresponding output image, so the representation of the original camera image (no edge image). The manipulation can be recognized on both images (FIG. 3b / d), namely that a superstructure has been attached to the ATM.
  • step 133 is carried out, in which the result image R2 or R2 * is examined for its white component. If a predefinable threshold value is exceeded, the high proportion of white indicates many manipulated edges. If so, it can System trigger a protection function (automatic alarm, locking the ATM, etc.).
  • the stage 13 is in turn connected to an interface 14 via which various alarm or monitoring devices can be activated or addressed.
  • the steps 11 and / or 12, which serve for image processing, may be connected to a second interface 15 via which a connection to the CCTV unit 20 is established. With the help of this CCTV unit, for example, a remote monitoring or remote diagnosis can be performed.
  • the data processing unit 10 is responsible for processing the image data D generated by the camera CAM.
  • the image data D first arrive at the first stage 11 or second stage 12, which generate edge images from the incoming image data, wherein besides the actual edge detection also measures such as shadow removal, vectorization and / or segmentation can be performed.
  • a feature extraction in particular in stage 12, which can be carried out, for example, by means of a so-called blob analysis, an edge positioning and / or a color distribution.
  • blob analysis is used to detect contiguous regions in an image and to take measurements on the blobs.
  • a Blob (Binary Large Object) is an area of adjacent pixels with the same logical state. All the pixels in a picture belonging to a blob are in the foreground. All other pixels are in the background. In a binary image, pixels in the background have values that equal zero, while every pixel other than zero is part of a binary object.
  • the actual evaluation it is also possible to provide a classification which, on the basis of the extracted features, determines whether hostile manipulation has occurred at the self-service terminal or ATM ATM or not.
  • the data processing unit 10 can be realized, for example, by means of a personal computer which is connected to the ATM ATM or which is integrated therein.
  • an additional camera CAMO can also be mounted on the ATM ATM (see Fig. 4), which is directed to the user or customer and in particular detects his face.
  • This additional also known as a portrait camera, camera CAMO can be triggered upon detection of a tampering attack to make a picture of the person located at the ATM. For example, once a skimming attack is detected, the described system can perform the following actions:
  • the size and nature of the actions taken or countermeasures can be configured by the operator of the ATM via the system described here.
  • a plurality of cameras can also be provided there, wherein a first camera detects the control panel from outside, a second camera e.g. the card entry funnel from inside detected.
  • a third camera corresponding to said portrait camera may be provided.
  • the camera CAM on the control panel and possibly also a camera in the card input are used.
  • the portrait camera CAMO is also used.
  • all cameras have a resolution of at least 2 megapixels.
  • the lenses used have a viewing angle of about 140 degrees and more.
  • the exposure time of the cameras used in a wide range for example, 0.25 msec. freely adjustable up to 8000 msec (8 sec.). This allows adaptation to a wide variety of lighting conditions.
  • Applicant's experiments have shown that a camera resolution of about 10 pixels per degree can be achieved. Based on a distance of one meter, an accuracy of 1.5 mm per pixel can be achieved. This in turn means that a manipulation from a reference deviation of already 2 to 3 mm safely detected can be. The closer the camera lens is to the detected element or object, the more accurate the measurement can be. Thus, in closer areas even an accuracy of less than 1 mm can be achieved.
  • the camera CAM mounts rather in the side case of the ATM ATM or in the upper housing area. Also arise depending on the camera position different monitoring options. When monitoring the various elements or subareas, the following is achieved in particular:
  • the detection of the cash dispenser (shutter) 1 makes it possible to check manipulations in the form of so-called cash trappers, i. special superstructures.
  • the detection of the keypad makes it possible to determine there manipulation attempts by superstructures or changes to light protection measures and the like.
  • the detection of the support surface makes it possible in particular to detect complete overbuilding.
  • the detection of the card input funnel 4, in particular by a camera integrated therein, makes it possible to detect local manipulations.
  • Deviations at the rear outer edge of the support surface can be detected as early as 4 mm. Deviations at the lower edge of the shutter can already be detected from 8 mm.
  • An optional connection of the system to the Internet via the interface 23 makes it possible to remotely control the camera or the various cameras.
  • the acquired image data can also be transmitted via the Internet connection to a video server.
  • the respective camera virtually acts as a virtual IP camera.
  • the above-described CCTV unit 20 serves such a video surveillance facility, wherein the interface 15 to the CCTV unit is designed for the following functions:
  • the system is designed so that no false alarms are generated by hands and / or objects in the picture during normal operation (eg withdrawing money, checking account balance, etc.). Therefore, the tamper detection is disabled during the period of normal machine use. Also, in time periods in which, for example, a cleaning or a short-term other use (storage of account statements, interactions before and after the start of a transaction) are not used for tamper detection. Essentially, therefore, only rigid and immovable manipulation attempts are preferably analyzed and recognized.
  • the system is designed to work in a wide variety of lighting conditions (day, night, rain, cloudy, etc.). Also be changing light conditions, such as light reflections, shadows and the like, in the Image processing compensated or ignored to avoid a false alarm. In addition, technically occurring events, such as the failure of a lighting and the like, are taken into account. These and other special cases are recognized and solved in particular by the third stage for classification.
  • the system described herein is preferably modular in design to allow for different configurations.
  • the actual image processing and the CCTV connection are realized in different modules (see FIG. 7).
  • the system presented here is also suitable for documenting the detected manipulations or digitally archiving them.
  • the captured images are provided with corresponding meta information, such as. Timestamp, type of manipulation, etc., stored on a hard disk in the system or in a connected PC.
  • messages may be forwarded to a platform, e.g. Error messages, status messages (deactivation, mode change), statistics, suspected manipulation and / or alarm messages.
  • a corresponding message with the respective alarm level can be forwarded to the administration interface or the interface.
  • the following options are also implemented at this interface:
  • Query camera data such as number of cameras, construction status, serial number, etc.,temperaturstarnmchal or setting of camera parameters and / or registration for alarms (notifications).
  • the invention presented here is particularly suitable for reliably detecting hostile manipulations on a self-service terminal, such as at an ATM.
  • the control panel is continuously and automatically monitored by at least one camera.
  • an image data processing which includes an edge detection
  • the elements detected by the camera are optically measured in order to detect deviations from reference data. It has been shown that even deviations in the millimeter range can be reliably detected.
  • a combination of edge detection and segmentation is preferably used, so that contours of left objects can be clearly recognized and marked. In the case of a manipulation attempt countermeasures or actions can be triggered.
  • the present invention has been exemplified by
  • ATMs are described, but not limited to, but can be applied to any type of self-service terminal.
  • ATM self-service terminal designed as an ATM, with a control panel CP, ia. having:
  • I cash dispenser 2 keypads, 3 shelves, 4 card slots, 5 screens
  • Video surveillance or CCTV unit with:

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Alarm Systems (AREA)

Abstract

Vorgeschlagen wird ein Verfahren (100) zum Erkennen von Manipulationsversuchen an einem Selbstbedienungsterminal, insbesondere an einem Geldautomaten, bei dem ein Bedienfeld mit darin angeordneten Elementen, wie z.B. Tastatur, Geldausgabefach usw., vorgesehen ist, wobei eine Kamera auf mindestens eines der Elemente ausgerichtet ist und wobei die von der Kamera erzeugten Bilddaten ausgewertet werden. Aus den erzeugten Bilddaten wird mittels einer Kantendetektion mindestens ein Kantenbild erstellt (Schrittfolge 120). Das Kantenbild wird mittels eines Referenz-Kantenbildes ausgewertet (Schrittfolge 130). Zur Erstellung des Referenz-Kantenbildes werden mehrere Einzelbilder herangezogen (Schrittfolge 110). Durch die Kantendetektion ist eine vollautomatisierte Auswertung und Erkennung von Manipulationsversuchen möglich.

Description

Verfahren zum Erkennen von Manipulationsversuchen an einem Selbstbedienungsterminal und Datenverarbeitungseinheit dafür
Die Erfindung betrifft ein Verfahren zum Erkennen von Manipulationsversuchen an einem Selbstbedienungsterminal nach dem Oberbegriff des Anspruchs 1. Außerdem betrifft die Erfindung eine nach dem Verfahren arbeitende Vorrichtung, insbesondere eine Datenverarbeitungseinheit zur Verarbeitung von Bilddaten, sowie ein damit ausgestattetes Selbstbedienungsterminal, insbesondere ein als Geldautomat ausgestaltetes Selbstbedienungsterminal .
Im Bereich von Selbstbedienungsautomaten, insbesondere Geldautomaten, werden häufig kriminelle Handlungen in Form von Manipulationen vorgenommen, die das Ziel verfolgen, sensitive Daten, insbesondere PINs (Personal Identification Numbers) und/oder Kartennummern, von Nutzern des Selbstbedienungsterminals auszuspähen. Insbesondere sind Manipulationsversuche bekannt, bei denen sogenannte Skimming- Vorrichtungen, wie beispielsweise Tastaturüberbauten und dergleichen, im Bedienbereich bzw. Bedienfeld widerrechtlich installiert werden. Solche Tastaturüberbauten verfügen häufig über eine eigene Stromversorgung, sowie einen Prozessor, einen Speicher und ein Betriebsprogramm, sodass ein ahnungsloser Nutzer bei Eingabe seiner PIN oder beim Einführen seiner Bankkarte ausgespäht wird. Die ausgespähten Daten werden dann über einen in dem Tastaturüberbau integrierten Sender an einen entfernten Empfänger übertragen oder werden in einem im Tastaturüberbau befindlichen Datenspeicher gespeichert. Viele der heutzutage anzutreffenden Skimming-Vorrichtungen können nur sehr schwer mit dem menschlichen Auge von originalen Bedienelementen (Tastatur, Kartenleser usw. ) unterschieden werden.
Um derartige Manipulationsversuche zu vereiteln, werden häufig Überwachungssysteme eingesetzt, die eine oder mehrere Kameras aufweisen, welche im Bereich des Standortes des Selbstbedienungsterminals montiert sind und das gesamte Bedienfeld und häufig auch den Aufenthaltsbereich des Nutzers erfassen. Eine solche Lösung ist beispielsweise in der DE 201 02 477 Ul beschrieben. Mittels der dortigen Kamera- Überwachung kann sowohl das Bedienfeld selbst wie auch der davor liegende Aufenthaltsbereich des Nutzers erfasst werden. Um zu unterscheiden, ob eine Person sich im Aufenthaltsbereich befindet, ist noch ein Sensor vorgesehen.
Es sind demnach grundsätzlich Vorrichtungen und Verfahren zum Erkennen von Manipulationsversuchen an einem Selbstbedienungsterminal bekannt, wobei eine Kamera auf mindestens eines der im Bedienfeld vorgesehenen Elemente, wie z.B. Tastatur, Geldausgabefach usw., ausgerichtet ist und wobei die von der Kamera erzeugten Bilddaten ausgewertet werden. Für den Einsatz von Verfahren, die eine vollautomatisierte Bildauswertung ermöglichen, sind in der Regel ein hoher Hardware- und Software-Aufwand und die damit verbundenen Kosten zu überwinden.
Aufgabe der vorliegenden Erfindung ist es daher, eine Lösung für eine zuverlässige und kostengünstig zu realisierende Kamera-Überwachung mit Erkennung von Manipulationsversuchen vorzuschlagen.
Gelöst wird die Aufgabe durch ein Verfahren mit den Merkmalen des Anspruchs 1 sowie durch eine danach arbeitende Datenverarbeitungseinheit und ein damit ausgestattetes Selbstbedienungsterminal .
Demnach wird vorgeschlagen, dass aus den von der Kamera erzeugten Bilddaten mittels einer Kantendetektion mindestens ein Kantenbild erstellt wird, und dass das Kantenbild mittels eines Referenz-Kantenbildes ausgewertet wird.
Der Einsatz einer Kantendetektion nach dem hier vorgeschlagenen Verfahren bewirkt nicht nur eine deutliche Datenreduktion, sondern erhöht auch die Schnelligkeit und Zuverlässigkeit der Bildauswertung.
Vorzugsweise werden dazu Kantenbilddaten, die das Kantenbild repräsentieren, mit Referenz-Kantenbilddaten, die das Referenz-Kantenbild repräsentieren, logisch zu ersten Ergebnisbilddaten, die ein erstes Ergebnisbild repräsentieren, insbesondere durch eine Exklusiv-ODER- Operation verknüpft. Diese Datenoperation bewirkt, dass in diesem derart zusammengefügten Ergebnisbild alle Kanten, die sich mit dem Referenz-Kantenbild decken, ausgeblendet werden, so dass im wesentlichen nur die Kanten bzw. die davon umrissenen Elemente oder Teile zu sehen sind, die manipuliert sein könnten.
Anschließend werden die ersten Ergebnisbilddaten bevorzugt mit den Referenz-Kantenbilddaten logisch zu zweiten Ergebnisbilddaten, die ein zweites Ergebnisbild repräsentieren, insbesondere durch eine UND-Operation verknüpft. Durch diese Operation werden die nicht zu überwachenden Bereiche ausgeblendet, so dass nur diejenigen Kanten oder Teile davon zu sehen sind, die zu Fremdobjekten gehören, die in den zu überwachenden Bereich eingefügt worden sind. Hierbei handelt es sich insbesondere um Überbauten, Späh-Kameras und ähnliche Manipulationen.
Aufgrund der hier vorgeschlagenen Kantendetektion kann das Auswerten der Kantenbilder sehr effizient und schnell auch mit einfacher Rechner-Hardware und -Software realisiert werden, wenn in dem zweiten Ergebnisbild der Weißanteil bestimmt wird und wenn zum Erkennen eines Manipulationsversuches geprüft wird, ob der Weißanteil einen vorgebaren Schwellwert übersteigt.
Diese und weitere besonders vorteilhafte Ausgestaltungen ergeben sich auch aus den Unteransprüchen.
Demnach ist es beim Berechnen das mindestens einen Kantenbildes vorteilhaft, wenn das jeweilige Kantenbild aus mehreren Einzelbildern berechnet wird, wobei insbesondere mittels Bildung von Durchschnittswerten aus den jeweiligen Bilddaten ein Durchschnittsbild berechnet wird. Diese Schritte werden durchgeführt, um u.a. möglichst rauscharme Bilddaten für die eigentliche Auswertung zu haben.
Die Anmelderin hat erkannt, dass es besonders vorteilhaft ist, wenn auch das Referenz-Kantenbild aus mehreren Referenz- Einzelbildern berechnet wird. Dabei wird ebenfalls insbesondere mittels Bildung von Durchschnittswerten aus den jeweiligen Bilddaten ein Durchschnittsbild berechnet. In diesem Zusammenhang wird bei der Bildung der Durchschnittswerte jeweils der durchschnittliche Farbwert für jeden Bildpunkt ermittelt. Anschließend wird das jeweilige Durchschnittsbild in ein Graustufenbild gewandelt.
Zur eigentlichen Kantendetektion wird vorzugsweise eine Sobel-Filterung der Bilddaten durchgeführt, wobei insbesondere das jeweilige Graustufenbild der Sobel-Filterung unterzogen wird, um das Kantenbild bzw. das Referenz- Kantenbild zu erstellen. Es kann ein kombiniertes Sobel- Filter in einer normalisierten Form (z.B. 3x3 horizontal und 3x3 vertikal) angewendet werden.
Auch ist es von Vorteil, wenn die Kantendetektion mittels einer Segmentierungs-Filterung von Bilddaten durchgeführt wird, wobei insbesondere das jeweilige der Sobel-Filterung unterzogene Graustufenbild anschließend der Segmentierungs- Filterung unterzogen wird, um das Kantenbild bzw. das Referenz-Kantenbild zu erstellen. Dabei wird das Kantenbild mittels eines Schwellwertes in seine Schwarz- und Weißanteile zerlegt, so dass eine Maske der Kanten entsteht.
Sofern es sich um das Referenz-Kantenbild bzw. um seine Maske handelt ist es vorteilhaft, wenn dann noch eine manuelle Bildüberarbeitung erfolgt, wobei insbesondere das jeweilige der Segmentierungs-Filterung unterzogene Graustufenbild einer manuellen Bildüberarbeitung unterzogen wird, bei der für die Auswertung unwesentliche Bildelemente entfernt werden, wie z.B. nicht zu überwachende Bereiche oder Kanten bzw. Artefakte, die durch Bildrauschen entstanden sind. Es verbleiben somit in der Referenz nur die wesentlichen Kanten, insbesondere die Umrisse der zu überwachenden Elemente. Dies hat auch den Vorteil, dass bei der zuvor genannten UND- Operation die unwesentlichen Bereiche nicht mehr im Ergebnisbild erscheinen.
Vorteilhaft ist es auch, wenn verschiedene Referenz- Kantenbilder in Abhängigkeit von vorherrschenden und/oder auftretenden Bedingungen, insbesondere von Beleuchtungs- und/oder Tageslicht- Bedingungen, erstellt werden. Somit stehen für die Auswertung der Kantenbilder verschiedene Referenzen zur Verfügung, die jeweils für eine typische Situation optimiert sind.
Vorgeschlagen werden auch eine das Verfahren ausführende Datenverarbeitungseinheit, die z.B. als PC ausgeführt werden kann, und ein damit ausgestattetes Selbstbedienungsterminal.
Durch die Erfindung kann insbesondere das Erkennen von Überbauten an einzelnen oder mehreren Elementen deutlich verbessert und vollautomatisiert werden. Vorzugsweise werden von der Kamera die besonders manipulationsgeeigneten Elemente und/oder die in besonders manipulationsgeeigneten Bereichen des Bedienfeldes angeordnete Elemente erfasst, wie z.B. Geldausgabefach, Tastatur, Karteneingabetrichter und/oder Bildschirm. Die Elemente sind also vorzugsweise Bedienelemente im engeren Sinne, können aber auch andere Elemente, wie z.B. Ablagefläche im Bedienbereich oder ein aufgebrachtes Logo, Hinweisschild Schriftzug und dergleichen sein. Die Kamera hat einen Erfassungswinkel, der vorzugsweise mehrere Bedienelemente, wie z.B. das Geldausgabefach und die Tastatur, erfasst. Dazu weist die Kamera bevorzugt ein Weitwinkelobjektiv mit einem Erfassungswinkel von mindestens 130 Grad auf. Es kann vorteilhaft sein, wenn die Kamera in demjenigen Gehäuseabschnitt des Selbstbedienungsterminals installiert ist, der das Bedienfeld seitlich oder nach oben begrenzt. Dies kann insbesondere der Rahmen des Bedienfeldes sein.
Die mit der mindestens einen Kamera verbundene Datenverarbeitungseinheit kann ganz in das Selbstbedienungsterminal integriert sein. Im Zusammenhang mit der hier vorgeschlagenen Bildverarbeitung kann vorgesehen sein, dass die Datenverarbeitungseinheit eine die Bilddaten empfangende erste Stufe zur Bildverarbeitung, insbesondere zur Schattenentfernung, Kantendetektion, Vektorisierung und/oder Segmentierung aufweist. Insbesondere kann die Datenverarbeitungseinheit eine der ersten Stufe nachgeschaltete zweite Stufe zur Merkmalsextraktion aufweisen, wobei insbesondere eine sog. Blobanalyse, Kantenposition und/oder Farbverteilung durchgeführt wird. Zudem kann eine der zweiten Stufe nachgeschaltete dritte Stufe zur Klassifikation vorgesehen sein.
Auch kann vorgesehen sein, dass die Datenverarbeitungseinheit, wenn sie mittels der Verarbeitung der Bilddaten einen Manipulationsversuch an den erfassten Elementen erkennt, einen Alarm auslöst, das Selbstbedienungsterminal sperrt und/oder eine zusätzliche Kamera (Portrait-Kamera) auslöst .
Bevorzugt wird die Kamera und/oder die Datenverarbeitungseinheit während der Bedienung und/oder Wartung des Selbstbedienungsterminals deaktiviert . Die Erfindung und die sich daraus ergebenen Vorteile werden nachfolgend anhand von Ausführungsbeispielen und unter Bezugnahme auf die beiliegenden schematischen Zeichnungen beschrieben, die folgendes darstellen:
Fig. 1 zeigt ein Ablaufdiagramm des erfindungsgemäßen Verfahrens;
Fig. 2 a)-d) zeigen Beispiele für erzeugte Kantenbilder und Ergebnisbilder;
Fig. 3 a)-d) zeigen Beispiele für original aufgenommene Kamera-Bilder und Kanten- bzw. Ergebnisbilder;
Fig. 4 zeigt eine perspektivische Ansicht auf das
Bedienfeld eines Selbstbedienungsterminals mit einer seitlich integrierten Kamera;
Fig. 5 gibt den Erfassungsbereich der Kamera aus Fig. 4 wieder;
Fig. 6 gibt den Erfassungsbereich einer Kamera wieder, die von Oben das Bedienfeld erfasst; und
Fig. 7 zeigt ein Blockschaltbild für eine mit der Kamera verbundene Datenverarbeitungseinheit und eine damit verbundene Videoüberwachungs-Einheit .
Die in den Fig. 2 und 3 dargestellten Kantenbilder müssten eigentlich weiße Kantenverläufe auf schwarzem Hintergrund darstellen. Um den Erfordernissen für Patentzeichnungen zu genügen, werden diese Darstellungen hier invertiert wiedergegeben, d.h. es werden schwarze Kantenverläufe auf weißen Hintergrund dargestellt.
Die Figur 1 zeigt in schematischer Darstellung ein Ablaufdiagrairim des erfindungsgemäßen Verfahrens 100, das sich in folgende Schrittfolgen 110 bis 130 unterteilen lässt:
In der Schrittfolge 110 mit den einzelnen Schritten 111 bis 115 wird aus den Kamera-Bilddaten mindestens eine Referenz- Kantenbild erzeugt. Dabei wird von einem unmanipulierten Zustand Selbstbedienungsterminals ausgegangen.
In der Schrittfolge 120 mit den einzelnen Schritten 121 bis 124 wird aus den Kamera-Bilddaten mindestens ein Kantenbild erzeugt. Dabei befindet sich das Selbstbedienungsterminal im Einsatz, so dass ein Manipulationsversuch erfolgt sein könnte, der durch das hier beschriebene Verfahren erkannt werden soll.
In der Schrittfolge 130 mit den einzelnen Schritten 131 bis 133 erfolgt eine Auswertung des mindestens einen Kantenbildes unter Zuhilfenahme des mindestens einen Referenz- Kantenbildes .
Die einzelnen Schritte des Verfahrens 100 werden nachfolgend unter Bezugnahme auf die weiteren Figuren beschrieben:
Die Figuren 2a) -d) sowie Figuren 3a) -d) zeigen Beispiele für die in dem Verfahren erzeugten und weiterverarbeiteten Bilder. Bevor auf weitere Details eingegangen wird, wird auf die Figuren 4 bis 7 verwiesen, die das hier vorgeschlagene Selbstbedienungsterminal, Kamera-Perspektiven davon sowie die das Verfahren ausführende Datenverarbeitung zeigen. Die Figur 4 zeigt in einer perspektivische Ansicht den prinzipiellen Aufbau eines Selbstbedienungsterminals in Gestalt eines Geldautomaten ATM, der ein Bedienfeld CP aufweist und mit einer erfindungsgemäßen Kamera CAM zum Erkennen von Manipulationsversuchen ausgestattet ist. Die Kamera CAM befindet sich in einem seitlichen Gehäuseteil, das das Bedienfeld des Geldautomaten ATM umrahmt bzw. einfasst. Zu dem Bedienfeld gehören insbesondere ein Geldausgabefach 1, auch Shutter genannt, sowie eine Tastatur 2. Dies sind Bedienelemente, an denen bevorzugt Manipulationsversuche, z.B. in Form von Überbauten, zwecks Skimming auftreten können. Der Erfassungsbereich bzw. -winkel der Kamera CAM umfasst zumindest diese beiden Elemente 1 und 2 und ermöglicht ein sicheres Erkennen solcher Manipulationsversuche .
Die Figur 5 zeigt aus dem Kamerablickwinkel den Erfassungsbereich der Kamera CAM. Darin befinden sich insbesondere das Geldausgabefach 1 und die Tastatur 2. Die Kamera ist mit einem Weitwinkelobjektiv ausgestattet, um zumindest diese beiden Elemente bzw. Teilbereiche des Bedienfeldes zu erfassen. Der Geldautomat ATM ist dabei so beschaffen, dass die genannten Elemente 1 und 2 vorzugsweise möglichst homogene Flächen mit abgrenzenden Kanten aufweisen. Dadurch wird eine Objekterkennung vereinfacht. Durch Anbringung der Kamera CAM an dieser besonders geeigneten Position können die genannten Teilbereiche bzw. Elemente 1 und 2 sehr zuverlässig optisch vermessen werden. Es kann vorgesehen werden, dass die Kamera insbesondere auf bestimmte Bereiche scharf eingestellt ist. Eine alternative Positionierung der Kamera wird anhand der Figur 6 verdeutlicht . Die Figur 6 veranschaulicht das Erfassungsfeld einer Kamera, die der Kamera CAM gleicht, die aber nun im oberen Bereich des Geldautomaten ATM installiert ist und das Bedienfeld CP von Oben erfasst. Neben dem Geldausgabefach 1 und der Tastatur 2 können in dem Erfassungsbereich der Kamera auch noch weitere Elemente vorgesehen sein, wie z.B. eine Ablagefläche in Nähe der Tastatur, ein Karteneingabetrichter 4, d.h. ein Zuführungsteil für den Kartenleser, sowie z.B. ein Bildschirm 5 bzw. Display. Auch diese weiteren genannten Elemente 3, 4 und 5 stellen potentielle Ziele für Manipulationsversuche dar.
Die Kamera weist eine auf diese Anwendung hin optimierte Optik sowie eine Auflösung von beispielsweise 2 Megapixeln und mehr auf. Die Kamera CAM ist mit einer speziellen Datenverarbeitungseinheit 10 verbunden (siehe Figur 7). Diese noch später beschriebene Datenverarbeitungseinheit ermöglicht es, die von der Kamera erzeugten Bilddaten optimal auszuwerten, um somit mit hoher Sicherheit einen Manipulationsversuch, wie z.B. einen Überbau der Tastatur 2, sofort zu erkennen und gegebenenfalls Alarme und Deaktivierungen auszulösen. Mittels der Datenverarbeitungseinheit sind unter anderem folgende Manipulationen sicher zu erkennen:
- Anbringen eines Tastaturüberbaus
- Anbringen eines Komplettüberbaus an der unteren Auflägefläche
- Anbringen eines Überbaus an dem Geldausgabefach (Shutter) und/oder das Anbringen von Gegenständen zur Aufnahme von Sicherheitsinformationen, insbesondere PIN-Nr., wie z.B. Minikameras, Kamerahandys und ähnliche Spähkameras. Für das Erkennen von Überbauten wird innerhalb der Datenverarbeitungseinheit 10 mit Hilfe der Kamera CAM eine optische Vermessung der erfassten Elemente, wie z.B. der Tastatur 2, durchgeführt, um somit Abweichungen im Manipulationsfall klar erkennen zu können. Versuche der Anmelderin haben gezeigt, dass bereits Referenzabweichungen im Millimeterbereich klar erkannt werden können. Die Erfindung ist besonders für eine Erkennung von Fremdobjekten (Überbauten, Spähkamera usw.) geeignet und umfasst insbesondere eine Kantendetektion, die ggf. mit einer Segmentierung kombiniert wird, um somit die Konturen von fremden Gegenständen im Bedienfeld klar und zuverlässig erkennen zu können. Die dazu erforderliche Bilddatenverarbeitung erfolgt überwiegend in der nachfolgend beschriebenen Datenverarbeitungseinheit .
Die Figur 7 zeigt das Blockschaltbild einer erfindungsgemäßen Datenverarbeitungseinheit 10, an welche die Kamera CAM angeschlossen ist, sowie einer Videoüberwachungs- bzw. CCTV- Einheit 20, die mit der Datenverarbeitungseinheit 10 verbunden ist. Die Datenverarbeitungseinheit 10 weist insbesondere folgende Stufen bzw. Module auf, die hier als logische Blöcke zu verstehen sind, in denen die zuvor genannten Schrittfolgen des Verfahrens (s. 110 bis 130 in Fig. 1) aufgeführt werden.
Im folgenden werden unter Bezugnahme aller Figuren, insbesondere aber der Figuren 1, 2, 3 und 7 der Aufbaue und die- Funktion der Datenverarbeitung und somit auch der Ablauf des Verfahrens im Detail beschrieben:
Eine erste Stufe 11 Datenverarbeitung 10 führt die Schrittfolge 110 zur Erstellung mindestens eines Referenz- Kantenbildes REF aus (s. auch Fig. 1 und 2a) . Dazu wird in einem ersten Schritt 111 aus mehreren Einzelbildern ein Durchschnittsbild berechnet. Die Einzelbinder stammen z.B. von einem Videostream, den die Kamera CAM nach der Installation des Geldautomaten vor der eigentlichen Inbetriebnahme, also in einem unmanipulierten Zustand, gemacht hat. Die Berechnung eines Durchschnittsbildes, wobei z.B. pixelweise der durchschnittliche Farbwert berechnet wird, bewirkt eine Rauschunterdrückung des in den Einzelbildern auftretenden Bildrauschens. In einem nächsten Schritt 112 wird aus dem farbigen Durchschnittsbild ein Graustufenbild erzeugt. Danach wird im Schritt 113 eine Kantendetektion mittels einer Sobel-Filterung (z.B. 3x3 horizontal, 3x3 vertikal) durchgeführt, um eine erstes Referenz-Kantenbild zu erhalten. Zur weiteren Optimierung wird im Schritt 114 ein Segmentierungs-Filter angewendet, bei dem dieses erste Referenz-Kantenbild mittels eines Schwellwertes in seine Schwarz- und Weißanteile zerlegt wird. Dadurch entsteht ein zweites Referenz-Kantenbild, das im Prinzip einer Maske entspricht. Dieses zweite Bild wird vorzugsweise in einem optionalen Schritt 115 noch durch eine manuelle Bildverarbeitung verbessert. Dabei werden insbesondere störende Bildelemente, die für die spätere Auswertung nicht maßgeblich sind, von Hand entfernt. Dies sind z.B. Kanten eines nicht zu überwachenden Bereiches oder virtuelle Kanten bzw. Artefakte, die aufgrund von Bildrauschen und dergleichen entstanden sind. Somit ergibt sich schließlich ein Referenz-Kantenbild REF, wie es in der Fig. 2a) dargestellt ist. Dieses Referenz-Kantenbild REF gibt die maßgeblichen Kanten in der Ansicht der Kamera CAM wieder (s . auch Fig. 5) . Es sei hier nochmals angemerkt, dass die in den Fig. 2 und 3 dargestellten Kantenbilder eigentlich weiße Kantenverläufe auf schwarzem Hintergrund darstellen müssten. Um den Erfordernissen für Patentzeichnungen zu genügen, werden diese Darstellungen hier invertiert wiedergegeben, d.h. es werden schwarze Kantenverläufe auf weißen Hintergrund dargestellt.
In einer zweiten Stufe 12 erfolgt nun die Erstellung mindestens eines Kantenbild EM (s. Fig. 2b) unter realen Einsatzbedingungen. Dabei werden die Schritte 121 bis 124 durchgeführt, die analog zu den Schritten 111 bis 114 ausgestaltet sind. Demnach wird im Schritt 121 aus mehreren unter Realbedingung aufgenommenen Einzelbildern ein farbiges Durchschnittsbild berechnet. In einem nächsten Schritt 122 wird daraus ein Graustufenbild erzeugt, das dann im Schritt 123 einer Kantendetektion unterzogen wird. Auch hier kommt eine Sobel-Filterung zum Einsatz, wobei anschließend im Schritt 124 noch ein Segmentierungs-Filter angewendet wird. Dieses segmentierte Kantenbild EM ist in der Fig. 2b) dargestellt (vergl. auch mit Fig. 5) und wird für die eigentliche Bildauswertung herangezogen.
In einer dritten Stufe 13 erfolgt nun diese eigentliche Auswertung und Erkennung von Manipulationsversuchen anhand der Schrittfolge 130 (s. Fig. 1) . In einem ersten Schritt 131 wird das segmentierte Kantenbild EM mit dem Referenz- Kantenbild REF logisch durch eine Exklusiv-ODER-Operation (XOR) verknüpft. Daraus ergibt sich ein erstes Ergebnisbild Rl (s. Fig. 2c), das sich insbesondere dadurch auszeichnet, dass überlappende Kanten ausgeblendet sind (vergl. mit Fig. 2a/b) . In einem weiteren Schritt 132 wird nun dieses erste Ergebnisbild Rl mit dem Referenz-Kantenbild REF durch eine UND-Operation (AND) logisch verknüpft. Dadurch ergibt sich ein zweites Ergebnisbild R2, das sich insbesondere dadurch auszeichnet, dass nicht zu überwachende Bereiche ausgeblendet sind (vergl. mit Fig. 2a/b/c) . Demnach enthält dieses zweite Ergebnisbild R2 im wesentlichen nur noch solche Kanten, die gegenüber der Referenz verändert sein könnten und auf einen Manipulationsversuch hinweisen könnten.
Die Fig. 2d) zeigt ein Ergebnisbild R2, das quasi keine auffälligen Kanten mehr enthält und somit keinen Manipulationsversuch anzeigt. Die Fig. 3c) zeigt nochmals dieses Ergebnisbild R2 (Kantenbild) und die Fig. 3a) das entsprechende Ausgangsbild, also das originale Kamerabild des unmanipulierten Geldautomaten (Darstellung des originalen Kamerabildes, kein Kantenbild) .
Um Unterschied dazu zeigt die Fig. 3d) ein Ergebnisbild R2* (Kantenbild) , das ebenfalls durch die oben beschriebene Datenauswertung (Schrittfolge 130) gewonnen wurde und sehr auffällige Kanten enthält, die auf einen erfolgten Manipulationsversuch hindeuten. Die Fig. 3b) zeigt das entsprechende Ausgangsbild, also die Darstellung des originalen Kamerabildes (kein Kantenbild). An beiden Bildern (Fig. 3b/d) ist die Manipulation zu erkennen, nämlich dass an dem Geldautomat einen Überbau angebracht worden ist.
Durch die hier vorgeschlagene Kantendetektion und die damit erzeugten Kantenbilder ist es nun leicht möglich eine vollautomatisierte Erkennung von Manipulationsversuchen zu realisieren. Dazu wird der Schritt 133 (s. Fig. 1) durchgeführt, bei dem das Ergebnisbild R2 bzw. R2* auf seinen Weißanteil hin untersucht wird. Wird ein vorgebbarer Schwellwert überschritten, so deutet der hohe Weißanteil auf viele manipulierte Kanten hin. Ist dies der Fall, so kann das System eine Schutzfunktion auslösen (automatischer Alarm, Sperren des Geldautomaten usw. ) .
Dazu ist die Stufe 13 wiederum mit einer Schnittstelle 14 verbunden, über die verschiedene Alarm- oder Überwachungsvorrichtungen aktiviert bzw. angesprochen werden können. Die Stufen 11 und/oder 12 wiederum, welche zur Bildverarbeitung dienen, können mit einer zweiten Schnittstelle 15 verbunden sein, über die eine Verbindung zu der CCTV-Einheit 20 hergestellt wird. Mit Hilfe dieser CCTV- Einheit kann beispielsweise eine Fernüberwachung bzw. Ferndiagnose ausgeführt werden.
Wie oben beschrieben wurde, ist für die Verarbeitung der von der Kamera CAM erzeugten Bilddaten D die Datenverarbeitungseinheit 10 zuständig. Die Bilddaten D gelangen zunächst an die erste Stufe 11 bzw. zweite Stufe 12, die aus den ankommenden Bilddaten Kantenbilder erzeugen, wobei neben der eigentlichen Kantendetektion auch noch Maßnahmen wie Schattenentfernung, Vektorisierung und/oder Segmentierung durchgeführt werden können. Auch kann insbesondere in der Stufe 12 ggf- noch eine Merkmalsextraktion durchgeführt werden, die beispielsweise mittels einer sogenannten Blobanalyse, einer Kantenpositionierung und/oder einer Farbverteilung durchgeführt werden kann. Beispielsweise dient die Blob- Analyse zur Erkennung von zusammenhängenden Regionen in einem Bild und zur Ausführung von Messungen an den Blobs. Ein Blob (Binary Large Object) ist ein Bereich angrenzender Bildpunkte mit demselben logischen Zustand. Alle Bildpunkte in einem Bild, die zu einem Blob gehören, sind im Vordergrund. Alle übrigen Bildpunkte sind im Hintergrund. In einem binären Bild haben Bildpunkte im Hintergrund Werte, die Null entsprechen, während jeder Bildpunkt ungleich Null Teil eines binären Objekts ist.
Anschließend erfolgt in der Stufe 13 die eigentliche Auswertung. Dabei kann auch noch eine Klassifikation vorgesehen sein, welche auf der Grundlage der extrahierten Merkmale bestimmt, ob eine feindliche Manipulation an dem Selbstbedienungsterminal bzw. Geldautomaten ATM aufgetreten ist oder nicht.
Die Datenverarbeitungseinheit 10 kann beispielsweise mittels eines Personalcomputers realisiert werden, der mit dem Geldautomaten ATM verbunden ist oder der darin integriert ist. Neben der beschriebenen Kamera CAM, welche die genannten Teilbereiche des Bedienfeldes CP erfasst, kann auch eine zusätzliche Kamera CAMO am Geldautomaten ATM montiert sein (s. Fig. 4), welche auf den Benutzer bzw. Kunden gerichtet ist und insbesondere sein Gesicht erfasst. Diese zusätzliche, auch als Portraitkamera bezeichnete, Kamera CAMO kann beim Erkennen eines Manipulationsangriffes ausgelöst werden, um ein Bild von der sich am Geldautomaten befindenden Person zu machen. Sobald ein Skimming-Angriff erkannt wird, kann das beschriebene System beispielsweise folgende Aktionen durchführen:
Abspeichern eines Fotos des Angreifers, wobei sowohl die Kamera CAM wie auch die zusätzliche Portraitkamera CAMO aktiviert werden können
- Alarmieren der laufenden Geldautomatenapplikation und/oder eines zentralen Managementservers und/oder einer Person, z.B. über E-Mail
Einleitung von Gegenmaßnahmen, die z.B. das Sperren bzw. Herunterfahren des Geldautomatens Übermittlung von Daten, insbesondere von Bildern, der erkannten Manipulation, beispielsweise über das Internet über eine Zentrale
Den Umfang und die Art der getroffenen Aktionen bzw. Gegenmaßnahmen kann der Betreiber des Geldautomaten über das hier beschriebene System konfigurieren.
Anstelle einer einzelnen direkt am Bedienfeld installierten Kamera (s. CAM in Fig. 4) können auch dort mehrere Kameras vorgesehen werden, wobei eine erste Kamera das Bedienfeld von Außen erfasst, eine zweite Kamera z.B. den Karteneingabetrichter von Innen erfasst. Außerdem kann eine dritte Kamera, die der genannten Portraitkamera entspricht (s. CAMO in Fig. 4) vorgesehen sein. Für die eigentliche Manipulationserkennung werden die Kamera CAM am Bedienfeld und ggf. auch eine Kamera in der Karteneingabe (hier nicht dargestellt) benutzt. Zum Zwecke der Dokumentation eines Manipulationsversuches wird auch die Portraitkamera CAMO benutzt.
Vorzugsweise haben alle Kameras eine Auflösung von mindestens 2 Megapixeln. Die benutzten Objektive weisen einen Blickwinkel von etwa 140 Grad und mehr auf. Außerdem ist die Belichtungszeit der eingesetzten Kameras in einem weiten Bereich von beispielsweise 0,25 msec. bis zu 8000 msec (8 sec.) frei einstellbar. Dadurch wird die Anpassung an die unterschiedlichsten Beleuchtungsbedingungen ermöglicht. Versuche der Anmelderin haben ergeben, dass eine Kameraauflösung von etwa 10 Pixeln pro Grad erreichbar ist. Bezogen auf einen Abstand von einem Meter kann somit eine Genauigkeit von 1,5 mm pro Pixel erreicht werden. Das wiederum bedeutet, dass eine Manipulation ab einer Referenzabweichung von bereits 2 bis 3 mm sicher erkannt werden kann. Je näher das Objektiv der Kamera an dem erfassten Element bzw. betrachteten Objekt ist, desto genauer kann die Messung erfolgen. Demnach kann in näheren Bereichen sogar eine Genauigkeit von weniger als 1 mm erreicht werden.
Je nach Einsatzbereich des Geldautomatens, z.B. im Außenbereich oder im Innenbereich, sowie der gegebenen Lichtverhältnisse, kann es vorteilhaft sein, die Kamera CAM eher im seitlichen Gehäuseteil des Geldautomatens ATM oder im oberen Gehäusebereich zu montieren. Auch ergeben sich je nach Kameraposition verschiedene Überwachungsmöglichkeiten. Bei der Überwachung der verschiedenen Elemente bzw. Teilbereiche wird insbesondere folgendes erreicht:
Das Erfassen des Geldausgabefachs (Shutter) 1 ermöglicht das Überprüfen von Manipulationen in Form sogenannter Cash- Trapper, d.h. spezieller Überbauten. Das Erfassen des Tastaturfeldes ermöglicht es, dort Manipulationsversuche durch Überbauten oder Veränderungen an Lichtschutzmaßnahmen und dergleichen festzustellen. Das Erfassen der Auflagefläche ermöglicht es insbesondere, Komplettüberbauen zu erkennen. Das Erfassen des Karteneingabetrichters 4, insbesondere durch eine darin integrierte Kamera, ermöglicht es, dortige Manipulationen zu erkennen.
Es hat sich gezeigt, dass insbesondere an dem Tastaturfeld und an dem Karteneingabetrichter bereits Abweichungen von 2 mm klar erkannt werden können. Abweichungen an der hinteren Außenkante der Auflagefläche können bereits ab 4 mm erkannt werden. Abweichungen an der unteren Kante des Shutters können bereits ab 8 mm erkannt werden. Eine optionale Anbindung des Systems an das Internet über die Schnittstelle 23 (siehe Figur 7) ermöglicht es, auch per Fernzugriff die Kamera bzw. die verschiedenen Kameras anzusteuern. Die gewonnenen Bilddaten können auch über den Internetanschluß an einen Video-Server übermittelt werden. Somit agiert die jeweilige Kamera quasi als virtuelle IP- Kamera. Die oben beschriebene CCTV-Einheit 20 dient insbesondere einer solchen Video-Überwachungsmöglichkeit, wobei die Schnittstelle 15 zur CCTV-Einheit für folgende Funktionen ausgelegt ist:
Abfrage eines Bildes, Einstellen der Bildrate, des Farbmodells, der Bildauflösung, Auslösen eines Ereignisses im CCTV-Dienst bei Bereitstellung eines neuen Bildes und/oder eventuell eine visuelle Hervorhebung von erkannten Manipulationen auf einem bereitgestellten Bild.
Das System ist so ausgelegt, dass im normalen Betrieb (z.B. Geldabheben, Kontostandsabfrage usw.) keine Fehlalarme durch Hände und/oder Gegenstände im Bild erzeugt werden. Deshalb wird die Manipulationserkennung im Zeitraum einer normalen Automatenbenutzung deaktiviert. Auch soll in Zeitbereichen, in denen beispielsweise eine Reinigung oder eine kurzfristige anderweitige Benutzung (Ablage von Kontoauszügen, Interaktionen vor und nach dem Start einer Transaktion) nicht zur Manipulationserkennung herangezogen werden. Im wesentlichen werden somit vorzugsweise nur starre und unbewegliche Manipulationsversuche analysiert und erkannt. Das System ist so ausgelegt, dass eine Überwachung auch bei unterschiedlichsten Lichtverhältnissen (Tag, Nacht, Regen, Bewölkung, usw.) funktioniert. Ebenfalls werden sich kurzzeitig verändernde Lichtverhältnisse, wie z.B. Lichtspiegelungen, Schattenverläufe und dergleichen, bei der Bildverarbeitung kompensiert bzw. ignoriert, um einen Fehlalarm zu vermeiden. Zudem können technisch auftretende Ereignisse, wie etwa das Ausfallen einer Beleuchtung und dergleichen, berücksichtigt werden. Diese und weitere Sonderfälle werden insbesondere durch die dritte Stufe zur Klassifikation erkannt und gelöst.
Das hier beschriebene System wird vorzugsweise modular aufgebaut, um verschiedene Konfirgurationen zu ermöglichen. Die eigentliche Bildverarbeitung sowie die CCTV-Anbindung werden in verschiedenen Modulen realisiert (siehe Figur 7).
Das hier vorgestellte System ist auch dazu geeignet, die erkannten Manipulationen zu dokumentieren bzw. digital zu archivieren. Im Falle einer erkannten Manipulation werden die aufgenommenen Bilder mit entsprechenden Meta-Informationen, wie z.B. Zeitstempel, Art der Manipulation usw., auf einer Festplatte im System bzw. in einem angeschlossenen PC abgespeichert. Auch können zwecks eines Reportings Meldungen an eine Plattform weitergeleitet werden, wie z.B. Fehlermeldungen, Statusmeldungen (Deaktivierung, Moduswechsel), Statistiken, Manipulationsverdacht und/oder Alarmmeldungen. Im Falle eines Alarms kann eine entsprechende Meldung mit der jeweiligen Alarmstufe an das Administrationsinterface bzw. die Schnittstelle weitergegeben werden. An dieser Schnittstelle werden außerdem noch folgende Möglichkeiten realisiert:
Abfrage von Kamera.daten, wie z.B. Anzahl der Kameras, Bauzustand, Seriennummer, usw., Kamerastarnmdaten bzw. Einstellen von Kameraparametern und/oder Registrierung für Alarme (Notifikationen) . Die hier vorgestellte Erfindung ist insbesondere dazu geeignet, feindliche Manipulationen an einem Selbstbedienungsterminal, wie z.B. an einem Geldautomaten, zuverlässig zu erkennen. Hierzu wird das Bedienfeld durch mindestens eine Kamera kontinuierlich und automatisch überwacht. Mittels einer Bilddatenverarbeitung, die eine Kantendetektion umfasst, werden die von der Kamera erfassten Elemente optisch vermessen, um Abweichungen von Referenzdaten zu erkennen. Es hat sich gezeigt, dass bereits Abweichungen im Millimeterbereich sicher erkannt werden können. Für die Erkennung von Fremdobjekten wird vorzugsweise eine Kombination aus Kantendetektion und Segmentierung benutzt, so dass Konturen von zurückgelassenen Gegenständen klar erkannt und markiert werden können. Im Falle eines Manipulationsversuches können Gegenmaßnahmen bzw. Aktionen ausgelöst werden.
Die vorliegende Erfindung wurde am Beispiel eines
Geldautomaten beschrieben, ist aber nicht hierauf beschränkt, sondern kann auf jede Art von Selbstbedienungsterminal angewendet werden.
Bezugszeichenliste
100 Verfahren mit folgenden Schrittfolgen:
110 Erstellung eines Referenz-Kantenbildes aus Einzelbildern (Referenzaufnahmen) ; 120 Berechnung min. eines Kantenbildes aus Einzelbildaufnahmen (im Einsatz) ; 130 Auswertung des Kantenbildes
ATM Selbstbedienungsterminal, als Geldautomat ausgebildet, mit einem Bedienfeld CP, das u.a. aufweist:
I Geldausgabefach, 2 Tastatur, 3 Ablagefläche, 4 Karteneingabetrichter, 5 Bildschirm
CAM Kamera, seitlich oder oberhalb des Bedienfeldes montiert
10 Datenverarbeitungseinheit mit:
II erster Stufe zur Bildverarbeitung
12 zweiter Stufe zur Merkmalsextraktion
13 dritte Stufe zur Klassifikation
14, 15 Schnittstellen zu Videoüberwachung (CCTV) bzw. Bildfälschungserkennung
20 Videoüberwachungs- bzw. CCTV-Einheit mit:
21 Stufe für Bildaufnahme
22 Stufe für Komprimierung
23 Schnittstelle zu einen IP-Netz
24 Stufe für Parametrisierung

Claims

Patentansprüche
1. Verfahren (100) zum Erkennen von Manipulationsversuchen an exnem Selbstbedienungsterminal (ATM) , das ein Bedienfeld (CP) mit darin angeordneten Elementen (1, 2, 3, 4, 5) aufweist, die für Nutzer des
Selbstbedienungstermmals (ATM) bereit gestellt sind, wobei eine Kamera (CAM) auf mindestens eines der Elemente ausgerichtet ist und wobei die von der Kamera (CAM) erzeugten Bilddaten (D) ausgewertet werden, dadurch gekennzeichnet, dass aus den erzeugten Bilddaten (D) mittels einer Kantendetektion mindestens ein Kantenbild (EM) erstellt wird (Schrittfolge 120), und dass das Kantenbild (EM) mittels eines Referenz-Kantenbildes (REF) ausgewertet wird (Schrittfolge 130) .
2. Verfahren (100) nach Anspruch 1, dadurch gekennzeichnet, dass zur Auswertung des mindestens einen Kantenbildes (EM) Kantenbilddaten (D_EM) , die das Kantenbild (EM) repräsentieren, mit Referenz- Kantenbilddaten (D_REF) , die das Referenz-Kantenbild (REF) repräsentieren, logisch zu ersten Ergebnisbilddaten (D_R1), die ein erstes Ergebnisbild (Rl) repräsentieren, verknüpft werden, insbesondere durch eine Exklusiv-ODER-Verknupfung verknüpft werden (Schritt 131) .
3. Verfahren (100) nach Anspruch 2, dadurch gekennzeichnet, dass die ersten Ergebnisbilddaten (D_RLT) , die das erste Ergebnisbild (Rl) repräsentieren, mit den Referenz-Kantenbilddaten (D_REF) , die das Referenz-Kantenbild (REF) repräsentieren, logisch zu zweiten Ergebnisbilddaten (D_R2), die ein zweites Ergebnisbild (R2) repräsentieren, verknüpft werden, insbesondere durch eine UND-Verknupfung verknüpft werden (Schritt 132) .
4. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in dem zweiten Ergebnisbild (R2) der Weißanteil bestimmt, und dass zum Erkennen eines Mampulatuionsversuches geprüft wird, ob der Weißanteil einen vorgebaren Schwellwert übersteigt
(Schritt 133) .
5. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Kantenbild (EM) aus mehreren Einzelbildern berechnet wird (Schritte 121-124), wobei insbesondere mittels Bildung von Durchschnittswerten aus den jeweiligen Bilddaten (D) ein Durchschmttsbild berechnet wird (Schritte 121) .
6. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Referenz-Kantenbild (EM) aus mehreren Referenz- Einzelbildern berechnet wird (Schritte 111-114), wobei insbesondere mittels Bildung von Durchschnittswerten aus den jeweiligen Bilddaten ein Durchschmttsbild berechnet wird (Schritt 111) .
7. Verfahren (100) nach einem der Ansprüche 5 oder 6, dadurch gekennzeichnet, dass das bei der Bildung der Durchschnittswerte jeweils der durchschnittliche Farbwert für jeden Bildpunkt ermittelt wird (Schritt 111 bzw . 121 ) .
8. Verfahren (100) nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass das jeweilige Durchschnittsbild m ein Graustufenbild gewandelt wird (Schritt 112 bzw. 122) .
9. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kantendetektion mittels einer Sobel-Filterung von Bilddaten durchgeführt wird, wobei insbesondere das jeweilige Graustufenbild der Sobel-Filterung unterzogen wird, um das Kantenbild (EM) bzw. das Referenz- Kantenbild (REF) zu erstellen (Schritt 113 bzw. 123) .
10. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Kantendetektion mittels einer Segmentierungs-Filterung von Bilddaten durchgeführt wird, wobei insbesondere das jeweilige der Sobel-Filterung unterzogene
Graustufenbild der Segmentierungs-Filterung unterzogen wird, um das Kantenbild (EM) bzw. das Referenz- Kantenbild (REF) zu erstellen (Schritt 114 bzw. 124) .
11. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das erstellte Referenz-Kantenbild (REF) einer manuellen Bilduberarbeitung unterzogen wird, wobei insbesondere das jeweilige der Segmentierungs-Filterung unterzogene Graustufenbild der manuellen Bilduberarbeitung unterzogen wird (Schritt 115)
12. Verfahren (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass verschiedene Referenz-Kantenbilder m Abhängigkeit von vorherrschenden und/oder auftretenden Bedingungen, insbesondere von Beleuchtungs- und/oder Tageslicht- Bedingungen, erstellt werden.
13. Datenverarbeitungseinheit (10) zum Erkennen von Manipulationsversuchen an einem
Selbstbedienungstermmal (ATM) , das ein Bedienfeld (CP) mit darin angeordneten Elementen (1, 2, 3, 4, 5) aufweist, die für Nutzer des Selbstbedienungsterminals (ATM) bereit gestellt sind, wobei eine Kamera (CAM) auf mindestens eines der Elemente ausgerichtet ist und wobei die Datenverarbeitungseinheit (10) die von der Kamera (CAM) erzeugten Bilddaten (D) auswertet, dadurch gekennzeichnet, dass die Vorrichtung (10) aus den erzeugten Bilddaten (D) mittels einer Kantendetektion mindestens ein Kantenbild (EM) erstellt, und dass die Datenverarbeitungseinheit (10) das Kantenbild (EM) mittels eines Referenz- Kantenbildes (REF) ausgewertet.
14. Datenverarbeitungseinheit (10) nach Anspruch 13, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit (10) m das Selbstbedienungstermmal (ATM) integriert ist.
15. Datenverarbeitungseinheit (10) nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die
Datenverarbeitungseinheit (10) eine die Bilddaten (D) empfangende erste Stufe (11) zur Bildverarbeitung, insbesondere zur Schattenentfernung, Kantendetektion, Vektoπsierung und/oder Segmentierung, aufweist.
16. Datenverarbeitungseinheit (10) nach Anspruch 15, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit (10) eine der ersten Stufe
(11) nachgeschaltete zweite Stufe (12) zur Merkmaisextraktion, insbesondere mittels Blobanalyse, Kantenposition und/oder Farbverteilung, aufweist.
17. Datenverarbeitungseinheit (10) nach Anspruch 16, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit (10) eine der zweiten Stufe
(12) nachgeschaltete dritte Stufe (13) zur Klassifikation aufweist.
18. Datenverarbeitungseinheit (10) nach einem der Ansprüche 13 bis 17, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit (10) Schnittstellen (14, 15) für Videouberwachungssysteme (20) und/oder Sicherheitssysteme aufweist.
19. Selbstbedienungstermmal (ATM) mit einer Datenverarbeitungseinheit (10) zum Erkennen von Manipulationsversuchen, wobei das
Selbstbedienungstermmal (ATM) ein Bedienfeld (CP) mit darin angeordneten Elementen (1, 2, 3, 4, 5) aufweist, die für Nutzer des Selbstbedienungsterminals (ATM) bereit gestellt sind, wobei eine Kamera (CAM) auf mindestens eines der Elemente ausgerichtet ist und wobei die Datenverarbeitungseinheit (10) die von der Kamera (CAM) erzeugten Bilddaten (D) auswertet, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit (10) aus den erzeugten Bilddaten (D) mittels einer Kantendetektion mindestens ein Kantenbild (EM) erstellt, und dass die Datenverarbeitungseinheit (10) das Kantenbild (EM) mittels eines Referenz-Kantenbildes (REF) ausgewertet.
20. Selbstbedienungstermmal (ATM) nach Anspruch 19, dadurch gekennzeichnet, dass zumindest die von der Kamera (CAM) erfassten Elemente (1, 2) manipulationsgeeignete Elemente darstellen und/oder in manipulationsgeeigneten Bereichen des Bedienfeldes (CP) angeordnete Elemente darstellen.
21. Selbstbedienungstermmal (ATM) nach Anspruch 19 oder 20, dadurch gekennzeichnet, dass die in. dem Bedienfeld vorgesehenen Elemente ein Geldausgabefach (1), eine Tastatur (2), eine Ablageflache (3), einen Karteneingabetrichter (4) und/oder einen Bildschirm (5) umfassen .
22. Selbstbedienungstermmal (ATM) nach einem der Ansprüche 19 bis 21, dadurch gekennzeichnet, dass die von der Kamera (CAM) erfassten Elemente Bedienelemente sind, die insbesondere ein Geldausgabefach (1) und eine Tastatur (2) umfassen.
23. Selbstbedienungstermmal (ATM) nach einem der Ansprüche 19 bis 22, dadurch gekennzeichnet, dass die Kamera (CAM) in demjenigen Gehauseabschnitt des Selbstbedienungstermmals (ATM) installiert ist, der das Bedienfeld (CP) seitlich oder nach Oben begrenzt.
24. Selbstbedienungstermmal (ATM) nach einem der Ansprüche 19 bis 23, dadurch gekennzeichnet, dass die Kamera (CAM) ein Weitwinkelobjektiv mit einem Offnungswinkel mindestens 130 Grad aufweist und/oder eine Auflösung von mindestens 2 Megapixeln aufweist.
25. Selbstbedienungsterminal (ATM) nach einem der Ansprüche 19 bis 24, dadurch gekennzeichnet, dass zumindest die von der Kamera (CAM) erfassten Elemente (1, 2) optisch eindeutig erkennbare Merkmale aufweisen, insbesondere sich von homogenen Flachen abgrenzende Kanten aufweisen.
26. Selbstbedienungsterminal (ATM) nach einem der Ansprüche 19 bis 25, dadurch gekennzeichnet, dass die Datenverarbeitungseinheit (10), wenn sie mittels der Verarbeitung der Bilddaten (D) einen
Manipulationsversuch an den erfassten Elementen (1, 2) erkennt, einen Alarm auslöst, das
Selbstbedienungsterminal (ATM) sperrt und/oder eine zusatzliche Kamera (CAMO) auslost.
27. Selbstbedienungsterminal (ATM) nach einem der Ansprüche 19 bis 26, dadurch gekennzeichnet, dass die Kamera (CAM) und/oder die Datenverarbeitungseinheit (10) wahrend der Bedienung und/oder Wartung des Selbstbedienungsterminal (ATM) deaktiviert ist.
28. Selbstbedienungsterminal (ATM) nach einem der Ansprüche 19 bis 27, dadurch gekennzeichnet, dass die Kamera (CAM) und/oder die Datenverarbeitungseinheit (10) eine Geldausgabe an dem Geldausgabefach (1) des Selbstbedienungsterminals (ATM) überwacht.
PCT/EP2010/055016 2009-04-22 2010-04-16 Verfahren zum erkennen von manipulationsversuchen an einem selbstbedienungsterminal und datenverarbeitungseinheit dafür WO2010121959A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN2010800177618A CN102414725A (zh) 2009-04-22 2010-04-16 识别针对自助终端的作案企图的方法及其数据处理单元
EP10717089A EP2422326A1 (de) 2009-04-22 2010-04-16 Verfahren zum erkennen von manipulationsversuchen an einem selbstbedienungsterminal und datenverarbeitungseinheit dafür
US13/264,135 US9165437B2 (en) 2009-04-22 2010-04-16 Method for recognizing attempts at manipulating a self-service terminal, and data processing unit therefor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009018320A DE102009018320A1 (de) 2009-04-22 2009-04-22 Verfahren zum Erkennen von Manipulationsversuchen an einem Selbstbedienungsterminal und Datenverarbeitungseinheit dafür
DE102009018320.5 2009-04-22

Publications (1)

Publication Number Publication Date
WO2010121959A1 true WO2010121959A1 (de) 2010-10-28

Family

ID=42651227

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/055016 WO2010121959A1 (de) 2009-04-22 2010-04-16 Verfahren zum erkennen von manipulationsversuchen an einem selbstbedienungsterminal und datenverarbeitungseinheit dafür

Country Status (5)

Country Link
US (1) US9165437B2 (de)
EP (1) EP2422326A1 (de)
CN (1) CN102414725A (de)
DE (1) DE102009018320A1 (de)
WO (1) WO2010121959A1 (de)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010060624A1 (de) * 2010-11-17 2012-05-24 Wincor Nixdorf International Gmbh Verfahren und Vorrichtung zur Abwehr von Manipulationsversuchen an einem Kamera-System
US8875992B2 (en) * 2011-05-30 2014-11-04 Anthony R. Bradley Automated teller machines, methods of making and using automated teller machines
US9208753B2 (en) 2012-09-17 2015-12-08 Elwha Llc Unauthorized viewer detection system and method
EP2736026B1 (de) 2012-11-26 2020-03-25 Wincor Nixdorf International GmbH Vorrichtung zum Auslesen einer Magnetstreifen- und/oder Chipkarte mit einer Kamera zur Detektion von eingeschobenen Skimmingmodulen
US10713876B2 (en) * 2013-10-10 2020-07-14 Giesecke+Devrient Currency Technology Gmbh System and method for processing value documents
EP2884417B1 (de) 2013-12-10 2019-09-04 Wincor Nixdorf International GmbH Verfahren zur Abwehr von Cold-Boot Angriffen auf einen Computer in einem Selbstbedienungs-Terminal
EP2897112B1 (de) 2014-01-17 2019-03-06 Wincor Nixdorf International GmbH Verfahren und Vorrichtung zur Vermeidung von Fehlalarmen bei Überwachungssystemen
CN105447998B (zh) * 2015-12-22 2018-04-27 深圳怡化电脑股份有限公司 一种确定钞口异物的方法及装置
DE102018204624A1 (de) 2018-03-27 2019-10-02 Robert Bosch Gmbh Verfahren und mikrofluidische Vorrichtung zur Aliquotierung einer Probenflüssigkeit unter Verwendung einer Versiegelungsflüssigkeit, Verfahren zum Herstellen einer mikrofluidischen Vorrichtung und mikrofluidisches System
US11348415B2 (en) * 2020-03-30 2022-05-31 Bank Of America Corporation Cognitive automation platform for providing enhanced automated teller machine (ATM) security
US11610457B2 (en) 2020-11-03 2023-03-21 Bank Of America Corporation Detecting unauthorized activity related to a computer peripheral device by monitoring voltage of the peripheral device
CN112819843B (zh) * 2021-01-20 2022-08-26 上海大学 一种夜间电力线的提取方法及系统
US11676460B1 (en) * 2022-02-04 2023-06-13 Ncr Corporation Currency trapping detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2351585A (en) * 1999-06-29 2001-01-03 Ncr Int Inc Fraud protection for a self-service terminal
DE20102477U1 (de) 2000-02-22 2001-05-03 Wincor Nixdorf Gmbh & Co Kg Einrichtung zum Schutz von SB-Automaten gegen Manipulationen
DE20318489U1 (de) * 2003-11-26 2004-02-19 Conect Kommunikations Systeme Gmbh Überwachungseinrichtung für Geldautomaten sowie Geldautomat
WO2005109315A2 (en) * 2004-04-30 2005-11-17 Utc Fire & Safety Corp. Atm security system
WO2007093977A1 (en) * 2006-02-13 2007-08-23 Fraudhalt Limited Method and apparatus for automated video surveillance

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7583290B2 (en) * 1998-10-09 2009-09-01 Diebold, Incorporated Cash dispensing automated banking machine with improved fraud detection capabilities
AT408377B (de) * 2000-03-31 2001-11-26 Oesterr Forsch Seibersdorf Verfahren und vorrichtung zur prüfung bzw. untersuchung von gegenständen
US7085404B2 (en) * 2001-10-11 2006-08-01 Industry-University Cooperation Foundation, Hangyang University Image analysis system and method of biochip
JP4229767B2 (ja) * 2003-06-30 2009-02-25 株式会社東京精密 画像欠陥検査方法、画像欠陥検査装置及び外観検査装置
US8209219B2 (en) * 2004-04-13 2012-06-26 Hyperactive Technologies, Inc. Vision-based measurement of bulk and discrete food products
US7901285B2 (en) * 2004-05-07 2011-03-08 Image Fidelity, LLC Automated game monitoring
US20060114322A1 (en) * 2004-11-30 2006-06-01 Romanowich John F Wide area surveillance system
EP1901822A2 (de) * 2005-05-19 2008-03-26 Image Fidelity Llc. Abgesetztes spielen mit live-tischspielen
US20090201372A1 (en) * 2006-02-13 2009-08-13 Fraudhalt, Ltd. Method and apparatus for integrated atm surveillance
JP4961158B2 (ja) 2006-04-12 2012-06-27 日立オムロンターミナルソリューションズ株式会社 自動取引装置および不審物検知システム
US7595815B2 (en) * 2007-05-08 2009-09-29 Kd Secure, Llc Apparatus, methods, and systems for intelligent security and safety
US7942315B2 (en) * 2007-09-05 2011-05-17 Ncr Corporation Self-service terminal
CN101344980B (zh) * 2008-08-21 2011-01-19 中国工商银行股份有限公司 一种atm设备安全检测系统及方法
US9147324B2 (en) * 2009-02-23 2015-09-29 Honeywell International Inc. System and method to detect tampering at ATM machines

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2351585A (en) * 1999-06-29 2001-01-03 Ncr Int Inc Fraud protection for a self-service terminal
DE20102477U1 (de) 2000-02-22 2001-05-03 Wincor Nixdorf Gmbh & Co Kg Einrichtung zum Schutz von SB-Automaten gegen Manipulationen
DE20318489U1 (de) * 2003-11-26 2004-02-19 Conect Kommunikations Systeme Gmbh Überwachungseinrichtung für Geldautomaten sowie Geldautomat
WO2005109315A2 (en) * 2004-04-30 2005-11-17 Utc Fire & Safety Corp. Atm security system
WO2007093977A1 (en) * 2006-02-13 2007-08-23 Fraudhalt Limited Method and apparatus for automated video surveillance

Also Published As

Publication number Publication date
US9165437B2 (en) 2015-10-20
CN102414725A (zh) 2012-04-11
US20120038774A1 (en) 2012-02-16
DE102009018320A1 (de) 2010-10-28
EP2422326A1 (de) 2012-02-29

Similar Documents

Publication Publication Date Title
EP2422326A1 (de) Verfahren zum erkennen von manipulationsversuchen an einem selbstbedienungsterminal und datenverarbeitungseinheit dafür
EP2422328B1 (de) Selbstbedienungsterminal mit mindestens einer kamera zum erkennen von manipulationsversuchen
EP2422325B1 (de) Selbstbedienungsterminal mit mindestens einer bilddaten erzeugenden kamera zum erkennen von manipulationsversuchen
DE102009018322A1 (de) Selbstbedienungsterminal mit Kamera zum Erkennen von Manipulationsversuchen
EP2897112B1 (de) Verfahren und Vorrichtung zur Vermeidung von Fehlalarmen bei Überwachungssystemen
CN105979210B (zh) 一种基于多枪多球摄像机阵列的行人识别系统
DE102008039130A1 (de) Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren
CH695003A5 (de) Verfahren und Vorrichtung zum Schutz von SB-Automaten gegen Manipulationen.
WO2014080031A1 (de) Vorrichtung zum auslesen einer magnetstreifen- und/oder chipkarte mit einer kamera zur detektion von eingeschobenen skimmingmodulen
EP2603905B1 (de) Verfahren und vorrichtung zum erkennen und verifizieren von manipulationsversuchen an einem selbstbedienungsterminal
EP2503354A1 (de) Selbstbedienungs-Terminal und Verfahren zur Überwachung eines Benutzer-Aufenthaltsbereichs
DE20318489U1 (de) Überwachungseinrichtung für Geldautomaten sowie Geldautomat
DE102009028212A1 (de) Verfahren zum Überwachen eines Bereichs
EP2422324B1 (de) Selbstbedienungsterminal mit kamera-anordnung zum erkennen von manipulationsversuchen
EP2321806B1 (de) Verfahren und vorrichtung zur abwehr von lauschversuchen bei der bilddaten-übertragung an einem selbstbedienungsterminal
EP2642315B1 (de) Erkennung von Signalstörungen eines optischen Sensors hervorgerufen durch Beschädigungen oder Verdeckungen
AT503008B1 (de) Interaktives optisches system und verfahren zum extrahieren und verwerten von interaktionen in einem optischen system
DE102010060921A1 (de) Verfahren und Vorrichtung zur Nutzung einer Kamera am SB-System als Barcodescanner und/oder zur Texterkennung (OCR)
DE102009044872A1 (de) Vorrichtung und Verfahren zur Vermeidung von Manipulationen an Automaten
DE102004020467A1 (de) Videoüberwachungs- und Alarmsystem

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080017761.8

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10717089

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13264135

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010717089

Country of ref document: EP