ES2331066T3 - Dispositivo de validacion de moneda. - Google Patents

Dispositivo de validacion de moneda. Download PDF

Info

Publication number
ES2331066T3
ES2331066T3 ES03760842T ES03760842T ES2331066T3 ES 2331066 T3 ES2331066 T3 ES 2331066T3 ES 03760842 T ES03760842 T ES 03760842T ES 03760842 T ES03760842 T ES 03760842T ES 2331066 T3 ES2331066 T3 ES 2331066T3
Authority
ES
Spain
Prior art keywords
function
subset
monetary
classification
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03760842T
Other languages
English (en)
Inventor
Gaston Baudat
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Crane Payment Innovations Inc
Original Assignee
MEI Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MEI Inc filed Critical MEI Inc
Application granted granted Critical
Publication of ES2331066T3 publication Critical patent/ES2331066T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • G07D7/2075Setting acceptance levels or parameters
    • G07D7/2083Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • G06F18/21355Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/95Pattern authentication; Markers therefor; Forgery detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Processing (AREA)
  • Testing Of Coins (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)

Abstract

Método de obtención de una función para clasificar artículos monetarios, comprendiendo el método procesar vectores de datos de aprendizaje correspondientes a características de una serie de artículos monetarios, y obtener una función de clasificación de una máquina de vectores de soporte que implica una serie de vectores de soporte, en el que la función de clasificación de la máquina de vectores de soporte implica una función núcleo correspondiente a un mapeo desde un primer espacio que se corresponde con el espacio de datos de entrada hasta un segundo espacio, caracterizado por determinar un subconjunto de los vectores de datos de aprendizaje cuya imagen en el segundo espacio es representativa de la imagen de los datos de aprendizaje en el segundo espacio, en el que la función de clasificación de la máquina de vectores de soporte está expresada en términos del mencionado subconjunto.

Description

Dispositivo de validación de moneda.
La invención se refiere a dispositivos de validación de moneda y a métodos para adaptar y manejar dispositivos de validación de moneda. En esta especificación, se entiende que los términos moneda y artículos monetarios comprenden monedas, fichas y similares, billetes de banco y billetes, otros papeles de valor tales como cheques, vales, bonos, y comprenden tanto artículos auténticos como falsificaciones, así como discos y arandelas.
Hay muchos métodos conocidos para determinar el valor nominal de un artículo monetario y distinguir entre artículos monetarios auténticos y falsos. En general, se detecta un artículo monetario por medio de uno o más sensores, tales como sensores electromagnéticos u ópticos, para producir señales representativas de ciertas características del artículo monetario, tales como el grosor de la moneda, el material de la moneda o la configuración de un billete de banco. A continuación, se comparan estas señales medidas con datos de referencia almacenados representativos de artículos monetarios conocidos y, dependiendo del resultado de la comparación, se clasifica el artículo monetario medido, por ejemplo, como un artículo monetario auténtico de un valor nominal concreto, como una falsificación conocida, o simplemente como desconocido.
Por ejemplo, se conoce el almacenamiento de datos de referencia para artículos monetarios conocidos en forma de conjuntos de "ventanas", que tienen límites superiores e inferiores. Si cada una de las señales medidas para un artículo concreto cae dentro de cada una de las ventanas correspondientes para un valor nominal concreto, este se clasifica como perteneciente a tal valor nominal concreto. En general, puede contemplarse este enfoque utilizando límites en el espa-
cio con ejes correspondientes a las características medidas, conocidos como límites de aceptación, que son lineales.
Por lo general, las distribuciones de las poblaciones de valores nominales concretos de los artículos monetarios son no lineales, en cuyo caso los límites lineales de aceptación pueden no ser lo suficientemente precisos para distinguir entre diferentes valores nominales. Otro método conocido almacena datos de referencia que describen límites elípticos correspondientes a valores nominales específicos de artículos monetarios. De forma análoga al enfoque mencionado antes, se clasifican los elementos monetarios medidos en función de si las características medidas caen, o no, dentro o fuera de tales límites elípticos. Tal método está descrito, por ejemplo, en el documento GB 2 254 949A.
En muchos casos, los límites entre diferentes valores nominales de artículos monetarios son complicados y no pueden reflejarse con la precisión suficiente por medio de límites lineales o elípticos. Las técnicas conocidas para encontrar límites de aceptación no lineales pueden producir resultados inferiores a los resultados ideales para los dispositivos de validación de moneda. Claramente, es especialmente importante poder clasificar y validar artículos monetarios con precisión, por ejemplo, en una máquina expendedora, donde existe una pérdida potencial de ingresos.
El documento US 5 678 677 trata de un método y un aparato para clasificar un artículo tal como un billete de banco utilizando una red neuronal.
El documento de BURGES C. J. C.: "A tutorial on support vector machines for pattern recognition" (Tutorial sobre máquinas de vectores de soporte para reconocimiento de configuraciones) JOURNAL OF DATA MINING AND KNOWLEDGE DISCOVERY, NORWELL, MA, US, volumen 2, número 2, páginas 121-167, es un comentario sobre la teoría de las máquinas de vectores de soporte.
El documento EPO 480 736 trata de un método para mejorar los criterios de aceptación para la validación de moneda.
La invención da a conocer un método alternativo para obtener y utilizar una función de clasificación, en concreto para clasificar artículos monetarios.
La invención da a conocer un método para obtener una función para clasificar artículos monetarios, tal como se expone en la reivindicación 1.
Por ejemplo, el método puede implicar obtener una serie de mediciones a partir, por lo menos, de un sensor monetario y de una serie de artículos, y formar un conjunto de datos a partir de las mediciones, correspondiendo los elementos del conjunto de datos a puntos en dicho primer espacio.
La invención da a conocer también una función de clasificación, un método de clasificación y un clasificador (aparato de clasificación) correspondiente.
Preferentemente, se utilizan aspectos de la invención con el fin de obtener una función para su utilización en la fabricación, la adaptación o el empleo de un dispositivo tal como un dispositivo de validación de moneda.
La invención está especialmente concebida para ser utilizada en relación con artículos monetarios, con objeto de obtener una función de clasificación y para clasificar, obtener el valor nominal o validar artículos monetarios (método y aparato). En tales casos, por ejemplo, los datos pueden ser obtenidos a partir de mediciones de una o más características de los artículos monetarios, o a partir de uno o más sensores para detectar artículos monetarios.
En las reivindicaciones anexas se exponen otros aspectos de la invención.
\vskip1.000000\baselineskip
Se describirán realizaciones de la invención haciendo referencia a los dibujos anexos, en los cuales:
la figura 1 es un gráfico que muestra una máquina de vectores de soporte;
la figura 2 es un gráfico que muestra distribuciones de datos y una función discriminante obtenida según una realización de la invención; y
la figura 3 es un gráfico que ilustra otra función discriminante.
\vskip1.000000\baselineskip
Según una realización preferente, la presente invención utiliza funciones núcleo para analizar datos obtenidos de artículos monetarios y sensores monetarios para obtener funciones de clasificación, o límites de aceptación, para dispositivos de validación. Más en concreto, los datos son datos medidos obtenidos de artículos monetarios, tales como monedas y billetes de banco, siendo los datos representativos de características de los artículos monetarios, tales como el grosor de la moneda, el material, el peso, la anchura o la configuración de un billete de banco.
Comenzaremos con una descripción generalizada de la teoría subyacente a la invención, haciendo referencia a distribuciones de datos relativamente simples, por claridad y para facilitar la comprensión. Después se describirá la invención con mayor detalle en relación con realizaciones relativas a la clasificación y validación de artículos monetarios.
Un aspecto de la invención se refiere a la utilización de funciones núcleo para seleccionar un subconjunto a partir de un conjunto de datos, siendo el subconjunto representativo del conjunto de datos, en el contexto del enfoque de funciones núcleo. Más en concreto, el subconjunto es representativo del conjunto de datos en el espacio de imagen de un mapeo \diameter correspondiente a una función núcleo k. Este aspecto de la invención permite llevar a cabo, utilizando menos datos, análisis de datos que utilicen funciones núcleo, lo que reduce la complejidad del análisis y de ese modo, por ejemplo, reduce los esfuerzos de cálculo y por consiguiente los costes para obtener funciones de clasificación para dispositivos de validación de moneda.
Otro aspecto de la invención se refiere a la utilización de máquinas de vectores de soporte, tal como se describe más adelante.
En lo que sigue, el subrayado se utiliza para indicar cantidades vectoriales, excepto cuando la cantidad vectorial sea implícita a partir del contexto, y en general se entiende que el término vector comprende cantidades escalares (es decir, un vector de dimensión 1).
En primer lugar, describiremos la selección de un subconjunto representativo de un conjunto de vectores.
Sea X un conjunto de vectores, de tamaño M.
1
\vskip1.000000\baselineskip
Supóngase que mapeamos cualquier vector desde el espacio de entrada X a un espacio de Hilbert, a través de una función de mapeo no lineal \varphi:
2
\vskip1.000000\baselineskip
Las funciones núcleo son funciones con valores escalares y que cumplen el teorema de Mercer.
Una función núcleo proporciona una forma directa de calcular un producto escalar en F utilizando solo los datos del espacio de entrada. Para simplificar la notación utilizamos \varphi_{i} = \varphi(x_{i}). A continuación, puede mostrarse que para una función núcleo k, existe un mapeo \varphi correspondiente tal que:
\vskip1.000000\baselineskip
3
\newpage
Ejemplos de funciones núcleo son:
\vskip1.000000\baselineskip
4
\vskip1.000000\baselineskip
Una consecuencia de esta propiedad es que si un algoritmo puede ser expresado solo con productos escalares, puede ser analizada la imagen de los datos en F utilizando solo los datos procedentes del espacio de entrada X, incluso sin conocer \varphi(x).
Con algunos núcleos, tales como la gaussiana, el grado dimensional de F es infinito. La transformación de X a F es no lineal y el grado dimensional de F es a menudo mayor que el de X.
Ahora, sea S un subconjunto de X de tamaño L,
5
\vskip1.000000\baselineskip
Asumimos que existe un subconjunto S que puede aproximar, o reconstruir, la imagen de los elementos de X en F. En otras palabras, S actúa como una base que expresa X en el espacio F.
6
(\varphi^( x_{i}) es la aproximación de \varphi( x_{i}) utilizando la imagen de S en F).
\vskip1.000000\baselineskip
Para simplificar, utilicemos la siguiente notación:
7
\vskip1.000000\baselineskip
de este modo la ecuación (1) puede escribirse como:
8
\vskip1.000000\baselineskip
Siendo
\Phi_{s} = [\varphi_{s,1},\varphi_{s,2},...,\varphi_{s,L}] una matriz formada a partir de la imagen de S en F, y
a_{i}=[a_{i},ai_{2},..., a_{iL}]' un vector que expresa \varphi _{i} utilizando la imagen de S en F.
Queremos encontrar valores para a_{i} que minimicen las diferencias respectivas \delta_{i} entre la imagen del i-ésimo elemento de X, \varphi_{i} y su reconstrucción utilizando el conjunto S, \varphi^_{i}.
9
\vskip1.000000\baselineskip
La minimización de los \delta_{i} conduce a:
10
(\Phi_{s}^{t} \Phi_{s})^{-1} existe si los elementos de la imagen de S en F son linealmente independientes. En otras palabras, el rango de \Phi_{s} es L.
\vskip1.000000\baselineskip
Utilizando las ecuaciones (3) y (4) podemos escribir:
11
Donde \beta_{i} es el ángulo entre los vectores \varphi _{i} y \varphi^ _{i}, esto implica que también hemos minimizado |\beta_{i}|.
Introduciendo ahora la notación del núcleo:
12
\vskip1.000000\baselineskip
la ecuación (5) puede expresarse como:
13
\vskip1.000000\baselineskip
donde
14
que es una matriz cuadrada L X L de los productos escalares de la imagen de S en F.
15
que es un vector de los productos escalares entre las imágenes de S y x_{i} en F.
Tal como es sabido, y se ha expresado anteriormente, la función núcleo k expresa el producto escalar en F en términos de X.
Minimizar \delta_{i} puede llevarse a cabo maximizando:
16
J_{i} puede ser considerada como una función de aptitud local que estima la calidad de la reconstrucción para el elemento x_{i}.
Se construye un conjunto S adecuado utilizando un enfoque heurístico. En un ejemplo, esto se realiza utilizando una función de aptitud global J_{s} que indica cuan fielmente la imagen de S representa todas las imágenes de X en F. Un ejemplo de una función de aptitud global es:
17
En mayor detalle, un ejemplo de cómo S se construye es como sigue.
En primer lugar, se selecciona el elemento de X que proporciona el mejor resultado de aptitud global. En otras palabras, se elige el elemento que tiene el mayor valor de aptitud global J_{s} utilizando la ecuación (8) en este ejemplo. Alternativamente, puede ser escogido un primer elemento de manera aleatoria, o por inspección, para formar el primer elemento de S, x_{s,1}.
A continuación, se escoge otro elemento de X y se toma como un elemento provisional de S, y se calcula el valor de J_{s} en tal base para la totalidad de los otros elementos de X. Después el elemento provisional de S es sustituido por otro elemento de X, y se calcula de nuevo J_{s}. Esas etapas se repiten para todos los elementos restantes de X. Como el segundo miembro permanente de S se elige el elemento de X para el cual la función de aptitud global es un máximo.
Las etapas presentadas en el párrafo anterior se repiten hasta encontrar elementos subsiguientes de S, buscando cada vez el mayor valor de la función de aptitud. El procedimiento se detiene cuando la función de aptitud excede un valor predeterminado. Alternativamente, el procedimiento se detiene cuando S alcanza un número predeterminado de elementos, o cuando S es una base completa para la imagen de X en F. Es necesario verificar el rango de la matriz K_{s,s} para asegurarse de que es posible invertirla. El procedimiento podría detenerse cuando K_{s,s} deja de ser invertible.
También pueden utilizarse otras heurísticas más complejas. Asimismo, pueden utilizarse funciones de aptitud alternativas. Por ejemplo, la función de aptitud global puede utilizar el promedio, la mediana o el mínimo de la función de aptitud local, u otras estrategias. Alternativamente, las funciones de aptitud, global y local pueden, por ejemplo, estar basadas en un "error", utilizando la ecuación (6), en cuyo caso se impone la optimización de S por medio de una reducción en el error global. No obstante, en cada caso se utiliza una expresión del núcleo, tal como en la ecuación (7).
La técnica anterior es un esquema de selección "hacia delante", pero pueden utilizarse también otras técnicas tales como aquellas que implican selección "hacia atrás". Como otro ejemplo, podrían considerarse todos los subconjuntos de un tamaño dado L, y seleccionarse el mejor ajuste. En términos generales, puede utilizarse cualquier algoritmo adecuado de selección basado en la aptitud.
De este modo, puede hallarse un subconjunto S de X en el que puede expresarse la imagen de todos los elementos de X en F bajo un mapeo \diameter, aproximadamente como combinaciones lineales de las imágenes de elementos de S en F.
El conjunto S seleccionado puede no ser único, pero proporciona un conjunto de un tamaño L dado que conserva la estructura de los datos en F. Puede mostrarse que para algunos núcleos tales como el polinómico, el valor óptimo de J_{s} se alcanza con solo unos pocos vectores seleccionados.
La totalidad de las muestras, o datos de prueba, en X, pueden ser proyectados sobre la imagen de S en F.
La transformación de una muestra x_{i} está dada por la proyección del producto escalar:
18
Nótese que z_{i} se obtiene mediante una transformación lineal. Pueden considerarse otras transformaciones, en concreto, una proyección ortogonal 19 que requiere más cálculo y no es necesaria para muchos algoritmos aplicados a los datos transformados.
El conjunto S puede ser utilizado para reducir el cálculo involucrado en diversos enfoques de la función núcleo para análisis de datos, tales como el núcleo PCA y el núcleo GDA, tal como se describe en nuestra solicitud co-pendiente EP00311253.9, cuyo contenido se incorpora al presente documento como referencia. El documento EP00311253.9 proporciona ejemplos de subconjuntos de datos seleccionados, según la técnica anterior, para diversas distribuciones de datos y funciones de núcleo.
A continuación describiremos máquinas de vectores de soporte (SVM (support vector machines) en adelante), y sigue una discusión de cómo se utiliza S en relación con una máquina de vectores de soporte.
La utilización de máquinas de vectores de soporte es una técnica conocida para la clasificación y la separación de datos. Puede encontrarse una explicación completa de la teoría subyacente en libros de texto y documentos académicos, tal como en el documento "A tutorial on support vector machines for pattern recognition" (Tutorial sobre máquinas de vectores de soporte para reconocimiento de configuraciones) por C.J.C. Burges, de "Data mining and knowledge discovery" (Extracción de datos y descubrimiento de conocimientos), 1998, páginas 121-167. Las características clave se resumen más adelante.
Las máquinas de vectores de soporte (SVM en adelante) utilizan datos de aprendizaje e implementan un esquema conocido de inducción con minimización del riesgo estructural (SRM, structural risk minimization). En términos generales, la SVM es un clasificador lineal en dos clases que implica un hiperplano que separa dos clases de datos mediante un margen, tal como se muestra en la figura 1.
La figura 1 ilustra un ejemplo básico de una SVM para datos separables.
La ecuación (10) proporciona una función discriminante en la que w es el vector normal al hiperplano (HP) y b es un sesgo, mientras que x es un vector de muestra.
20
\vskip1.000000\baselineskip
Las muestras que pertenecen al grupo #1 tienen la etiqueta +1, mientras que para el grupo #2 la etiqueta es -1.
Se define un conjunto de muestras de aprendizaje y sus etiquetas, como 21 Entonces para el HP óptimo (w_{0}, b_{0}) valen las siguientes restricciones, asumiendo que los datos son separables:
22
\vskip1.000000\baselineskip
Las relaciones (11) pueden reescribirse de forma más compacta como sigue:
23
\vskip1.000000\baselineskip
Las muestras concretas para las que son igualdades la primera o la segunda relación (11) se denominan vectores de soporte (SVs, support vectors).
Dado un conjunto de datos de aprendizaje, con N elementos, y la relación general (12), el objetivo es encontrar valores para w y b que minimicen el margen que separa los grupos.
Esto se expone más abajo.
Sea x^{s} un vector de soporte asociado con d^{s} su clase (+/-1).
\vskip1.000000\baselineskip
24
\vskip1.000000\baselineskip
Con (13) podemos calcular la distancia euclídea ||r|| desde SV hasta HP:
25
\vskip1.000000\baselineskip
Por lo tanto, el margen resulta:
\vskip1.000000\baselineskip
26
\vskip1.000000\baselineskip
Maximizar el margen conduce a minimizar la longitud de w, condicionado a la restricción que da la relación (12).
Este problema se conoce como optimización cuadrática (o programación cuadrática (QP, Quadratic Programming)). Es un caso de programación no lineal en el que la función coste es cuadrática en w mientras que las restricciones son lineales. El problema puede plantearse como sigue:
Para un conjunto de aprendizaje dado
27
, encontrar el vector de ponderación w y el sesgo b que minimizan la función coste:
28
con las condiciones:
29
Aquí el factor ½ es para simplificar la presentación (derivado). El problema se denomina primario. Puede asociarse con un problema dual, y este nos proporcionará una forma de expresar la solución solo con productos escalares de muestras de entrada. Podemos resolver el problema primario utilizando el método de los multiplicadores de Lagrange. Sea J la función lagrangiana:
\vskip1.000000\baselineskip
30
\vskip1.000000\baselineskip
Los \alpha_{i} son multiplicadores de Lagrange no negativos. Podemos demostrar para J que cuando se minimizan w y b se maximizan los \alpha_{i} (punto singular). Tras diferenciar e igualar los resultados a cero, obtenemos:
31
El vector solución w_{0} está definido en términos de una expansión que involucra las muestras de aprendizaje.
Sin embargo, aún tenemos que encontrar los coeficientes \alpha_{i}, lo que puede realizarse utilizando las condiciones de Kuhn-Tucker [7]:
\vskip1.000000\baselineskip
32
\vskip1.000000\baselineskip
Por lo tanto, los multiplicadores de Lagrange que solo satisfacen la ecuación (11) pueden asumir valores distintos de cero. El teorema de dualidad puede utilizarse ahora para encontrar tales coeficientes. Con (18) y (19) la ecuación (17) puede reescribirse como:
33
Esto es también un problema QP:
Para un conjunto de aprendizaje
34
dado, encontrar los multiplicadores de Lagrange
35
que maximizan la función coste:
\vskip1.000000\baselineskip
36
\vskip1.000000\baselineskip
con las condiciones:
-a-
37
\vskip1.000000\baselineskip
-b-
38
\vskip1.000000\baselineskip
El problema dual utiliza solo muestras de aprendizaje. La función coste depende solo de los productos escalares de la muestra; esto es una propiedad muy importante para poder generalizar SVM a problemas no lineales. Cuando se han encontrado los coeficientes de Lagrange, podemos entonces expresar el vector óptimo de ponderación como sigue:
39
\vskip1.000000\baselineskip
Los x_{i} asociados con multiplicadores de Lagrange distintos de cero son los SVs. En general hay menos SVs que N. Por lo tanto, la expansión (13) no necesita todos los términos. El sesgo óptimo b puede hallarse utilizando cualquier SV y la ecuación (12):
\vskip1.000000\baselineskip
40
Entonces la función discriminante resulta:
41
donde SVS es el conjunto de los vectores de soporte.
\vskip1.000000\baselineskip
Lo anterior describe el caso en el que los datos son separables. Las SVMs también pueden manejar casos en los que los datos se solapen. Pueden encontrarse detalles del análisis en la bibliografía pertinente, tal como el documento de Burges descrito anteriormente, y por sencillez y brevedad no lo repetiremos aquí.
El ejemplo anterior de una SVM describe una clasificación lineal.
Para construir SVMs no lineales, se utiliza una función núcleo, tal como se ha descrito anteriormente en relación con la selección de S.
Para tratar problemas no lineales se combinan la función núcleo y la SVM lineal. La ecuación (21) utiliza solo productos escalares de las muestras. Por lo tanto, ésta puede reescribirse con núcleos y conduce a una SVM no lineal que utiliza un mapeo implícito de los datos en el espacio característico F.
A continuación, el método QP es aplicado directamente en F buscando allí un HP óptimo (separación lineal), como sigue:
Para un conjunto dado de aprendizaje
42
encontrar los multiplicadores de Lagrange
43
que maximizan la función coste:
\vskip1.000000\baselineskip
44
\vskip1.000000\baselineskip
con las condiciones:
-a-
45
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
-b-
\vskip1.000000\baselineskip
46
\vskip1.000000\baselineskip
Incluso si el vector de ponderación w no puede expresarse explícitamente, podemos calcular su producto escalar con cualquier muestra en F. Por lo tanto, podemos recuperar la función discriminante como sigue (b_{0}, si lo hay, se estima utilizando la ecuación (23) tal como es habitual):
\vskip1.000000\baselineskip
47
Recuérdese que la expansión (26) está limitada a los multiplicadores de Lagrange distintos de cero. Por lo tanto ésta se define sobre todo el conjunto SV (SVS) y normalmente utiliza menos términos que el conjunto de aprendizaje (N):
48
\vskip1.000000\baselineskip
Incluso si la cardinalidad Ns de los SVs es, en términos generales, menor que N, puede seguir siendo muy alta, lo que tiene consecuencias en términos de costes, memoria y potencia de cálculo.
Una característica clave de la presente invención, es la utilización combinada de una SVM con el subconjunto S seleccionado. En lo que sigue, se describen los elementos de S como vectores de características (FVs, feature vectors) y se describe la selección de S como una selección del vector de características (FVS, feature vector selection).
La ecuación (27) puede ser modificada trabajando en F, utilizando S y la proyección de los datos de aprendizaje de acuerdo con (9), como sigue, teniendo presente que los vectores de soporte pertenecen a los datos de aprendizaje y por lo tanto pueden también ser expresados en F utilizando la imagen de S. Trabajando en F, la SVM es una SVM lineal.
En primer lugar, la ecuación (27) está expresada en términos de F, ó, en otras palabras, en términos de la imagen de los datos y los vectores de soporte en F.
49
en que SVSz representa la imagen del SVS en F.
\vskip1.000000\baselineskip
Los multiplicadores de Lagrange, d_{i}, y z_{i} definen un vector de ponderación w_{z0} explícito óptimo. Por lo tanto (28) puede ser expresado con solo la proyección z de cualquier muestra x sobre los FVs, resultando:
50
\vskip1.000000\baselineskip
Utilizando la notación que sigue en la ecuación (6) anterior, ésta se convierte en:
51
Debe observarse que la ecuación discriminante (30) implica solo L términos (es decir, el tamaño de S), lo que a menudo es mucho menos que el número de vectores de soporte. De este modo, el cálculo se reduce considerablemente, y se acelera el procesamiento involucrado en el cálculo de la función discriminante.
Cada una de las figuras 2 y 3 muestran un ejemplo de dos grupos de datos que tienen distribuciones normales en el espacio de entrada. En las figuras, las cruces representan datos procedentes de un grupo, los puntos representan datos procedentes del otro grupo, y los círculos alrededor tanto de puntos como de cruces indican vectores de características entre las muestras.
Las técnicas anteriores, que combinan FVS con SVM, fueron aplicadas a los datos, utilizando criterios ligeramente diferentes. Más concretamente, en el caso mostrado en la figura 2 se fijó un valor de aptitud de J_{s} = 0,8 y se seleccionó 12 FV. En el caso mostrado en la figura 3, el valor de aptitud se fijó a J_{s} = 0,999 y se seleccionó 38 FV.
En ambos casos, el número de SVs es 52. En otras palabras, utilizando el enfoque de SVM no lineal estándar, la función discriminante implica una expansión de 52 términos. Utilizando la FVS, la función discriminante puede ser expresada adecuadamente utilizando tan solo 12 FVs.
Las líneas negras continuas son el lugar geométrico de las funciones discriminantes (para g(x) = 0) en el espacio de entrada X (imagen del HP en F).
Experimentos sobre varios datos han comparado la función de discriminación utilizando SVM no lineal con la técnica SVM y FVS descrita anteriormente. Los experimentos han mostrado que la discriminación utilizando SVM y FVS es tan buena como cuando se utiliza SVM no lineal, y en algunos casos mejor.
La siguiente tabla 1 proporciona algunos ejemplos de funcionamiento en entornos reales utilizando un núcleo gaussiano y datos procedentes de bases de datos ampliamente utilizadas para probar máquinas de aprendizaje. Los datos pueden ser obtenidos en el depositario siguiente http://ida.first.gmd.de/\simraetsch/data/benchmarks.htm.
TABLA 1 Comportamientos de SVM Clásicas frente a FVS/SVM para datos de prueba, y magnitud de la reducción para la implementación
52
Hay muchas funciones núcleo, que satisfacen el teorema de Mercer (véase el documento WO 00/33262), que representan productos escalares en F y pueden ser utilizadas en la invención. A continuación se proporcionan algunos ejemplos más.
El núcleo polinómico por segmentos, donde x e y son escalares:
53
El núcleo sigmoideo 530 con a = 1.
Un núcleo polinómico de tercer orden: K (x,y)=(x^{t}\cdoty)^{d} (d=3,C=0).
Los anteriores ejemplos muestran buenos comportamientos en la generalización, lo que significa que se comportan bien con nuevos vectores que no estaban en el conjunto de datos original X.
Para conseguir este objetivo, es necesario escoger cuidadosamente el núcleo, su parámetro o parámetros (como \sigma), y el nivel de error.
La elección de un núcleo apropiado puede realizarse por experimentación y ensayo y error, haciendo pruebas para ver cual proporciona los mejores resultados para los datos sometidos a análisis. Alternativamente, la elección puede realizarse utilizando la experiencia y la inspección de la distribución de los datos.
Por ejemplo, en el caso de datos que tienen una distribución de tipo polinómico, un núcleo polinómico puede proporcionar buenos resultados. También es necesario elegir cuidadosamente varios parámetros, tales como \sigma en el núcleo gaussiano, y el nivel predeterminado para la función de aptitud. De nuevo, sirven como guías la experimentación, la experiencia y la forma de los datos.
Según las realizaciones preferentes de la invención, los principios generales de las propuestas descritas anteriormente son aplicados a artículos monetarios y a dispositivos de validación de moneda. En otras palabras, las propuestas son aplicadas a los datos que se extraen de sensores para obtener mediciones representativas de características de artículos monetarios. En referencia a la figura 2, por ejemplo, podría considerarse que los ejes de la figura 2 representan el grosor de la moneda y el material de la moneda para monedas de dos valores nominales diferentes, o de un valor nominal auténtico y uno falso, aunque de hecho las distribuciones mostradas pueden no necesariamente ser representativas de distribuciones en entornos reales. En muchos casos, tal como en un dispositivo de validación de billetes de banco, la dimensión del vector de características formado a partir de combinar mediciones del billete de banco es mucho mayor que 3 y por lo tanto no puede mostrarse gráficamente.
Una realización de la invención se refiere a un dispositivo de validación de monedas, tal como se muestra en forma de diagrama de bloques en la figura 4.
En la figura 4, la caja (1) designa un sistema de medición que comprende una entrada (2), un sistema de transporte en forma de una entrada de monedas y una trayectoria de transporte de monedas (no mostrada) para presentar una muestra (3) y un sistema de sensores (no mostrado) para medir cantidades físicas de la muestra. El sistema (1) de medición está conectado a un sistema (4) de procesamiento por medio de un bus (5) de datos. El sistema (4) de procesamiento está conectado a un clasificador (6) por medio de un bus (7) de datos. La salida del clasificador (6) está conectada a un sistema (8) de utilización por medio de un bus (9) de salida de datos. En este ejemplo, el sistema (8) de utilización es una máquina expendedora pero, por ejemplo, podría también ser una máquina de cambio de moneda.
El sistema (1) de medición, mide características de una moneda (3) insertada. Las características medidas son reunidas en un vector de características que tiene n elementos, en que cada elemento corresponde a una característica medida, por medio del sistema (4) de procesamiento. En el ejemplo presente, el sistema de sensores mide valores representativos del material, el grosor y el diámetro de una moneda insertada, utilizando técnicas conocidas (véase, por ejemplo, el documento GB 2 254 949 A) y tales valores son los tres elementos del vector de características correspondiente. En síntesis, cada sensor comprende una o más bobinas en un circuito auto-oscilatorio. En el caso de los sensores del diámetro y el grosor, un cambio en la inductancia de cada bobina provocado por la proximidad de una moneda insertada, provoca la alteración de la frecuencia del oscilador, mediante lo cual puede obtenerse una representación digital de la propiedad respectiva de la moneda. En el caso del sensor de conductividad, un cambio en la Q de la bobina provocado por la proximidad de una moneda insertada provoca la alteración de la tensión a través de la bobina, mediante lo cual puede obtenerse una salida digital representativa de la conductividad de la moneda. Aunque la estructura, el posicionamiento y la orientación de cada bobina, y la frecuencia de la tensión aplicada a ésta, están dispuestas de tal forma que la bobina proporciona una salida que depende fundamentalmente de una en concreto de las propiedades de conductividad, diámetro y grosor, se apreciará que cada medición estará afectada en algún grado por otras propiedades de las monedas.
Por supuesto, pueden medirse y utilizarse muchas características diferentes representativas de artículos monetarios como los elementos de los vectores de características, utilizando diversos sensores tales como sensores ópticos, sensores magnéticos y otros tipos de sensores, tal como es bien conocido en la técnica. Por ejemplo, en el caso de un billete de banco, las características medidas pueden comprender, por ejemplo, la anchura del billete, la longitud del billete, y la intensidad de la luz reflejada o transmitida por la totalidad o parte del billete. A modo de ejemplo, un sistema de mediciones puede estar dispuesto para escanear un billete de banco a lo largo de N líneas utilizando sensores ópticos. Cada línea de escaneado contiene L áreas individuales, que son escaneadas sucesivamente. En cada área, hay mediciones de M características diferentes. Más en concreto, para cada área se realizan mediciones de las intensidades de la reflectancia de radiación roja, verde e infrarroja. El número total de mediciones para un billete de banco es por lo tanto L x M x N. Estas mediciones forman los componentes de un vector de características para el ejemplar respectivo, de modo que el vector de características tiene L x M x N componentes. Alternativamente, las mediciones pueden ser procesadas de una forma diferente para obtener un vector de características representativo del ejemplar medido. Por ejemplo, pueden formarse vectores de características locales para cada área medida, compuestos por las M mediciones para tal área, de tal modo que cada vector de características local tiene M componentes. Después pueden sumarse los vectores de características locales sobre el área del billete de banco para obtener un vector de características de M dimensiones, representativo del ejemplar completo.
A continuación, el vector de características es introducido en el clasificador (6). El clasificador (6) determina si la muestra pertenece a cualquiera de las clases predeterminadas, utilizando el vector de características y criterios predeterminados de clasificación que comprenden una función de separación. Si se identifica que la muestra pertenece a un valor nominal aceptable, entonces ésta se acepta y se abona el valor correspondiente. Si se identifica que la muestra pertenece a un grupo de falsificación conocido, se rechaza.
En este ejemplo, el sistema es para clasificar monedas de dos valores nominales y una falsificación conocida.
La obtención de la función de separación se describirá más adelante.
La distribución de la población de los valores nominales es analizada tal como se describe a continuación.
Inicialmente, se realizan muestras de cada uno de los valores nominales de interés y de cada una de las falsificaciones conocidas, y se crean los vectores correspondientes. Las muestras pueden crearse utilizando el sistema de sensores del dispositivo de validación de interés pero, en esta realización, las muestras están extraídas de una serie de sistemas de sensores correspondientes, para tener en cuenta variaciones y tolerancias de fabricación, en sistemas de sensores de diferentes dispositivos de validación comercializados e instalados en este campo. Los vectores característicos procedentes de las muestras, cuando son representados, por ejemplo, en un gráfico de dispersión n-dimensional (donde n es el número de características medidas), quedan distribuidos aproximadamente en grupos. A continuación las muestras medidas son analizadas y utilizadas para extraer una función de separación. En este ejemplo, son utilizadas 50 muestras para cada valor nominal y 50 muestras de la falsificación, y son medidas sobre 10 muestras de sistemas de sensores. Los datos de los grupos resultantes son analizados y utilizados para obtener una función de clasificación, o función discriminante, utilizando el enfoque que se ha descrito anteriormente. Más en concreto, las muestras o los datos de aprendizaje, son procesados y utilizados para obtener el conjunto S, o FVS, y valores para W_{z0,j} y b_{0}, con el fin de producir la función discriminante g(x) en la ecuación (30). Aquí, el umbral se fija a cero. A continuación, la función de clasificación se almacena en una memoria del sistema (4) de procesamiento de un dispositivo de validación concreto.
Después se lleva a cabo la clasificación para monedas de un valor nominal desconocido, tal como sigue. Se inserta una moneda en el dispositivo de validación. La moneda insertada es detectada, y se obtienen mediciones representativas del material, del grosor y del diámetro. A continuación, el sistema de procesamiento lleva a cabo las siguientes etapas. Se obtiene un vector de características, x, a partir de los valores medidos. Se calculan los valores de g(x) utilizando la ecuación (30). En este ejemplo, si g(x) > 0 la moneda es clasificada como auténtica, y si g(x) < 0 la moneda es clasificada como falsa.
Según este enfoque, el dispositivo de validación necesita almacenar muy pocos datos (por ejemplo, los datos requeridos por la ecuación -30-, es decir S, k, w_{z0} y b_{0} y el umbral) para llevar a cabo la tarea de clasificación con un alto grado de precisión. Esto reduce costes y esfuerzos de cálculo e incrementa la velocidad de la clasificación.
Una SVM es esencialmente un clasificador en dos clases. Para que un dispositivo de validación de moneda valide una serie de valores nominales, puede ser necesaria una combinación de cierto número de SVMs. Por ejemplo, para cada valor nominal, puede ser utilizada una SVM para clasificar entre dos grupos de artículos auténticos y artículos falsos del valor nominal, o pueden combinarse SVMs en una estructura en árbol binario. La SVM puede combinarse con otras pruebas. Por ejemplo, una prueba preliminar puede determinar el valor nominal de un artículo monetario, utilizando una de las diversas técnicas conocidas para obtener el valor nominal de artículos monetarios, seguida por una técnica de validación adecuada, utilizando una SVM.
En el ejemplo anterior, el umbral de discriminación está puesto en cero, pero pueden utilizarse otros umbrales, tales como +/- 0,5.
El análisis de los valores de la muestra para el análisis de datos inicial y la obtención de la función de separación pueden realizarse, por ejemplo, utilizando un microprocesador. De forma similar, el clasificador (6) puede ser un microprocesador.
Los métodos de la realización descrita anteriormente son aplicables igualmente a un billete de banco o a otro artículo monetario, o por supuesto a la clasificación de otros tipos de elementos que son detectados por un sensor de artículos para producir valores medidos.
En la realización descrita, se utilizan muestras de los valores nominales de interés para obtener la función de clasificación. También pueden utilizarse otros elementos, tales como discos o arandelas.
Las técnicas anteriores pueden también ser utilizadas para otros tipos de datos, y no se limitan a la clasificación de datos extraídos de artículos monetarios.
El anterior comentario detallado se refiere a datos que son separables, pero la invención no está limitada a tales disposiciones. La invención puede ser modificada utilizando técnicas conocidas en la materia para márgenes "suaves", por ejemplo, cuando los datos de aprendizaje se solapan.

Claims (21)

1. Método de obtención de una función para clasificar artículos monetarios, comprendiendo el método procesar vectores de datos de aprendizaje correspondientes a características de una serie de artículos monetarios, y obtener una función de clasificación de una máquina de vectores de soporte que implica una serie de vectores de soporte, en el que la función de clasificación de la máquina de vectores de soporte implica una función núcleo correspondiente a un mapeo desde un primer espacio que se corresponde con el espacio de datos de entrada hasta un segundo espacio, caracterizado por determinar un subconjunto de los vectores de datos de aprendizaje cuya imagen en el segundo espacio es representativa de la imagen de los datos de aprendizaje en el segundo espacio, en el que la función de clasificación de la máquina de vectores de soporte está expresada en términos del mencionado subconjunto.
2. Método, según la reivindicación 1, en el que el mencionado subconjunto difiere respecto de los vectores de soporte, o en el que el tamaño del mencionado subconjunto es menor que el tamaño del conjunto de vectores de soporte.
3. Método, según cualquiera de las reivindicaciones precedentes, en el que la función de clasificación de los vectores de soporte es de la forma 54
4. Método, según cualquiera de las reivindicaciones precedentes, en el que el subconjunto es tal que la imagen de cada elemento del conjunto de datos de aprendizaje puede ser expresada aproximadamente como una combinación lineal de la imagen de los elementos del subconjunto.
5. Método, según la reivindicación 4, en el que el subconjunto es tal que una medición de la aproximación satisface una condición predeterminada.
6. Método, según cualquiera de las reivindicaciones 1 a 5, en el que la etapa de seleccionar un subconjunto comprende:
(a)
obtener un subconjunto provisional;
(b)
calcular el valor de una función de aptitud que representa la fidelidad de una aproximación de la imagen de los elementos restantes del conjunto de datos en términos de la imagen del subconjunto provisional;
(c)
obtener otro subconjunto provisional y repetir la etapa (b); y
(d)
comparar los valores de la función de aptitud para cada subconjunto provisional, y seleccionar el subconjunto provisional para el cual el valor de la función de aptitud indica la aproximación más fiel.
7. Método, según la reivindicación 6, en el que se repiten las etapas (a) hasta (d) para formar una secuencia de subconjuntos provisionales de tamaño creciente o decreciente.
8. Método, según la reivindicación 6 o la reivindicación 7, en el que se repiten las etapas (a) hasta (d) hasta que se satisface una condición predeterminada, por ejemplo, que el valor de la función de aptitud sea menor o igual que un valor predeterminado, o mayor o igual que un valor predeterminado, y/o que el subconjunto sea de un tamaño predeterminado, y/o hasta que K_{s,s}, tal como se ha definido anteriormente en el presente documento, deje de ser invertible numéricamente.
9. Método, según cualquiera de las reivindicaciones 6 a 8, en el que la función de aptitud utiliza la función núcleo.
10. Método, según cualquiera de las reivindicaciones 1 a 9, en el que la función de clasificación de los vectores de soporte es de la forma 55
11. Método, según cualquiera de las reivindicaciones precedentes, que comprende obtener una serie de mediciones procedentes por lo menos de un sensor monetario y de una serie de elementos monetarios, y formar el conjunto de datos de aprendizaje a partir de las mediciones.
12. Método, según cualquiera de las reivindicaciones precedentes, en el que los elementos individuales del conjunto de datos comprenden una serie de mediciones correspondientes a una serie de características de los artículos detectados.
13. Método, según la reivindicación 11 ó la reivindicación 12, en el que el sensor monetario es un sensor de documentos.
14. Método, según la reivindicación 13, en el que el sensor de documentos es un sensor de billetes de banco.
15. Método, según la reivindicación 11 ó la reivindicación 12, en el que el sensor monetario es un sensor de monedas.
16. Método, según cualquiera de las reivindicaciones 1 a 15, en el que la función núcleo es un núcleo gaussiano, polinómico, sigmoideo, de tangente hiperbólica o polinómico por segmentos.
17. Método de adaptación de un dispositivo de validación de moneda, que comprende almacenar una función de clasificación obtenida por medio de un método según cualquiera de las reivindicaciones anteriores.
18. Método de clasificación de un artículo monetario en un clasificador de moneda, que comprende obtener por lo menos una medición del artículo por lo menos desde un sensor monetario (1), que clasifica el artículo utilizando una función de clasificación obtenida mediante un método según cualquiera de las reivindicaciones 1 a 16.
19. Método, según la reivindicación 17 ó la reivindicación 18, en el que la función de clasificación es de la forma 56
20. Dispositivo de validación que comprende medios (1) para detectar artículos monetarios con el objeto de producir valores medidos que representan características de los artículos, medios (6) que almacenan una función obtenida mediante un método según cualquiera de las reivindicaciones 1 a 16, y medios (4) para validar un artículo monetario utilizando los valores medidos y la función.
21. Dispositivo de validación, según la reivindicación 20, en el que la función de clasificación es de la forma 57
ES03760842T 2002-06-19 2003-06-18 Dispositivo de validacion de moneda. Expired - Lifetime ES2331066T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US38994202P 2002-06-19 2002-06-19
US389942P 2002-06-19

Publications (1)

Publication Number Publication Date
ES2331066T3 true ES2331066T3 (es) 2009-12-21

Family

ID=30000488

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03760842T Expired - Lifetime ES2331066T3 (es) 2002-06-19 2003-06-18 Dispositivo de validacion de moneda.

Country Status (8)

Country Link
US (1) US7648016B2 (es)
EP (1) EP1516293B1 (es)
JP (1) JP4555078B2 (es)
CN (1) CN1675657B (es)
AU (1) AU2003247029B2 (es)
DE (1) DE60329596D1 (es)
ES (1) ES2331066T3 (es)
WO (1) WO2004001683A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545049A (ja) * 2006-07-28 2009-12-17 エムイーアイ インコーポレーテッド サポート・ベクタ・マシンおよび変数選択を使用する分類
DE102006053788A1 (de) * 2006-11-15 2008-05-21 Giesecke & Devrient Gmbh Verfahren zur Erkennung von Verschmutzungen im Bereich von Farbübergängen auf Wertdokumenten und Mittel zur Durchführung des Verfahrens
WO2009098761A1 (ja) * 2008-02-06 2009-08-13 Glory Ltd. 紙幣処理システム
WO2010014700A1 (en) * 2008-07-29 2010-02-04 Mei, Inc. Currency discrimination
US8517161B2 (en) * 2008-10-03 2013-08-27 Mei, Inc. Currency discrimination and evaluation
AT509022B1 (de) * 2009-08-14 2012-09-15 Ait Austrian Inst Technology Verfahren zur qualitätsprüfung eines digitalbilds
TWI423175B (zh) * 2010-09-01 2014-01-11 Univ Nat Sun Yat Sen 基於多核心支援向量機之偽鈔辨識方法
US8484253B2 (en) * 2010-12-31 2013-07-09 Microsoft Corporation Variational mode seeking
EP2810257B1 (en) 2012-02-03 2017-01-18 Crane Payment Innovations, Inc. Apparatus and method for characterizing items of currency
US9336638B2 (en) * 2014-03-25 2016-05-10 Ncr Corporation Media item validation
CN105184954B (zh) * 2015-08-14 2018-04-06 深圳怡化电脑股份有限公司 一种检测纸币的方法及验钞装置
CN106204893A (zh) * 2016-08-10 2016-12-07 恒银金融科技股份有限公司 一种基于支持向量机的纸币检测方法
CN106803306A (zh) * 2017-01-13 2017-06-06 湖南理工学院 一种公交车钱币自动识别装置及方法
CN109658583A (zh) * 2019-02-01 2019-04-19 广东工业大学 基于太赫兹光谱的发票鉴别方法、装置、设备及存储介质

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5167313A (en) 1990-10-10 1992-12-01 Mars Incorporated Method and apparatus for improved coin, bill and other currency acceptance and slug or counterfeit rejection
GB2254949B (en) 1991-04-18 1994-09-28 Mars Inc Method and apparatus for validating money
CH684856A5 (de) * 1992-11-30 1995-01-13 Mars Inc Verfahren zur Klassifizierung eines Musters - insbesondere eines Musters einer Banknote oder einer Münze - und Einrichtung zur Durchführung des Verfahrens.
US5649068A (en) * 1993-07-27 1997-07-15 Lucent Technologies Inc. Pattern recognition system using support vectors
GB2284293B (en) 1993-11-30 1998-06-03 Mars Inc Article classifying method and apparatus
US5757001A (en) * 1996-05-01 1998-05-26 The Regents Of The University Of Calif. Detection of counterfeit currency
US6134344A (en) 1997-06-26 2000-10-17 Lucent Technologies Inc. Method and apparatus for improving the efficiency of support vector machines
GB2344446A (en) 1998-12-02 2000-06-07 Mars Inc Classifying currency items
DE60033535T2 (de) * 2000-12-15 2007-10-25 Mei, Inc. Geldechtheitsprüfer
EP1367546B1 (en) 2002-05-22 2013-06-26 MEI, Inc. Currency Validator

Also Published As

Publication number Publication date
JP4555078B2 (ja) 2010-09-29
US7648016B2 (en) 2010-01-19
JP2005530271A (ja) 2005-10-06
EP1516293A1 (en) 2005-03-23
US20060254876A1 (en) 2006-11-16
CN1675657A (zh) 2005-09-28
AU2003247029B2 (en) 2009-07-16
DE60329596D1 (de) 2009-11-19
WO2004001683A1 (en) 2003-12-31
AU2003247029A1 (en) 2004-01-06
CN1675657B (zh) 2010-06-16
EP1516293B1 (en) 2009-10-07

Similar Documents

Publication Publication Date Title
ES2280179T3 (es) Dispositivo para la validacion de dinero.
ES2331066T3 (es) Dispositivo de validacion de moneda.
US9019567B2 (en) Methods and apparatuses for creating authenticatable printed articles and subsequently verifying them
ES2241342T3 (es) Metodo y aparato de clasificacion.
US8421625B2 (en) System and method for article authentication using thumbnail signatures
US20080294900A1 (en) Authenticity Verification of Articles Using a Database
RU2562758C2 (ru) Способ и устройство для определения эталонного набора данных класса для классификации ценных документов
JP7018129B2 (ja) 紙葉類処理装置及び紙葉類処理方法
ES2426416T3 (es) Dispositivo de validación de moneda
JP5502111B2 (ja) 紙葉類識別装置および紙葉類識別方法
ES2621841T3 (es) Aparato y método para caracterizar elementos de moneda
ES2403458T3 (es) Discriminación de efectivo
KR102095511B1 (ko) 딥 러닝 기반의 지폐 적합 판단 장치 및 방법
JP3151034B2 (ja) 紙幣鑑別装置
JPH11219461A (ja) 紙幣鑑別装置および記録媒体