ES2331066T3 - Dispositivo de validacion de moneda. - Google Patents
Dispositivo de validacion de moneda. Download PDFInfo
- Publication number
- ES2331066T3 ES2331066T3 ES03760842T ES03760842T ES2331066T3 ES 2331066 T3 ES2331066 T3 ES 2331066T3 ES 03760842 T ES03760842 T ES 03760842T ES 03760842 T ES03760842 T ES 03760842T ES 2331066 T3 ES2331066 T3 ES 2331066T3
- Authority
- ES
- Spain
- Prior art keywords
- function
- subset
- monetary
- classification
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07D—HANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
- G07D7/00—Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
- G07D7/20—Testing patterns thereon
- G07D7/2075—Setting acceptance levels or parameters
- G07D7/2083—Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
- G06F18/2115—Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2132—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
- G06F18/21355—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis nonlinear criteria, e.g. embedding a manifold in a Euclidean space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/95—Pattern authentication; Markers therefor; Forgery detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Inspection Of Paper Currency And Valuable Securities (AREA)
- Image Processing (AREA)
- Testing Of Coins (AREA)
- Image Analysis (AREA)
- Complex Calculations (AREA)
Abstract
Método de obtención de una función para clasificar artículos monetarios, comprendiendo el método procesar vectores de datos de aprendizaje correspondientes a características de una serie de artículos monetarios, y obtener una función de clasificación de una máquina de vectores de soporte que implica una serie de vectores de soporte, en el que la función de clasificación de la máquina de vectores de soporte implica una función núcleo correspondiente a un mapeo desde un primer espacio que se corresponde con el espacio de datos de entrada hasta un segundo espacio, caracterizado por determinar un subconjunto de los vectores de datos de aprendizaje cuya imagen en el segundo espacio es representativa de la imagen de los datos de aprendizaje en el segundo espacio, en el que la función de clasificación de la máquina de vectores de soporte está expresada en términos del mencionado subconjunto.
Description
Dispositivo de validación de moneda.
La invención se refiere a dispositivos de
validación de moneda y a métodos para adaptar y manejar dispositivos
de validación de moneda. En esta especificación, se entiende que
los términos moneda y artículos monetarios comprenden monedas,
fichas y similares, billetes de banco y billetes, otros papeles de
valor tales como cheques, vales, bonos, y comprenden tanto
artículos auténticos como falsificaciones, así como discos y
arandelas.
Hay muchos métodos conocidos para determinar el
valor nominal de un artículo monetario y distinguir entre artículos
monetarios auténticos y falsos. En general, se detecta un artículo
monetario por medio de uno o más sensores, tales como sensores
electromagnéticos u ópticos, para producir señales representativas
de ciertas características del artículo monetario, tales como el
grosor de la moneda, el material de la moneda o la configuración de
un billete de banco. A continuación, se comparan estas señales
medidas con datos de referencia almacenados representativos de
artículos monetarios conocidos y, dependiendo del resultado de la
comparación, se clasifica el artículo monetario medido, por
ejemplo, como un artículo monetario auténtico de un valor nominal
concreto, como una falsificación conocida, o simplemente como
desconocido.
Por ejemplo, se conoce el almacenamiento de
datos de referencia para artículos monetarios conocidos en forma de
conjuntos de "ventanas", que tienen límites superiores e
inferiores. Si cada una de las señales medidas para un artículo
concreto cae dentro de cada una de las ventanas correspondientes
para un valor nominal concreto, este se clasifica como
perteneciente a tal valor nominal concreto. En general, puede
contemplarse este enfoque utilizando límites en el espa-
cio con ejes correspondientes a las características medidas, conocidos como límites de aceptación, que son lineales.
cio con ejes correspondientes a las características medidas, conocidos como límites de aceptación, que son lineales.
Por lo general, las distribuciones de las
poblaciones de valores nominales concretos de los artículos
monetarios son no lineales, en cuyo caso los límites lineales de
aceptación pueden no ser lo suficientemente precisos para
distinguir entre diferentes valores nominales. Otro método conocido
almacena datos de referencia que describen límites elípticos
correspondientes a valores nominales específicos de artículos
monetarios. De forma análoga al enfoque mencionado antes, se
clasifican los elementos monetarios medidos en función de si las
características medidas caen, o no, dentro o fuera de tales límites
elípticos. Tal método está descrito, por ejemplo, en el documento
GB 2 254 949A.
En muchos casos, los límites entre diferentes
valores nominales de artículos monetarios son complicados y no
pueden reflejarse con la precisión suficiente por medio de límites
lineales o elípticos. Las técnicas conocidas para encontrar límites
de aceptación no lineales pueden producir resultados inferiores a
los resultados ideales para los dispositivos de validación de
moneda. Claramente, es especialmente importante poder clasificar y
validar artículos monetarios con precisión, por ejemplo, en una
máquina expendedora, donde existe una pérdida potencial de
ingresos.
El documento US 5 678 677 trata de un método y
un aparato para clasificar un artículo tal como un billete de banco
utilizando una red neuronal.
El documento de BURGES C. J. C.: "A tutorial
on support vector machines for pattern recognition" (Tutorial
sobre máquinas de vectores de soporte para reconocimiento de
configuraciones) JOURNAL OF DATA MINING AND KNOWLEDGE DISCOVERY,
NORWELL, MA, US, volumen 2, número 2, páginas
121-167, es un comentario sobre la teoría de las
máquinas de vectores de soporte.
El documento EPO 480 736 trata de un método para
mejorar los criterios de aceptación para la validación de
moneda.
La invención da a conocer un método alternativo
para obtener y utilizar una función de clasificación, en concreto
para clasificar artículos monetarios.
La invención da a conocer un método para obtener
una función para clasificar artículos monetarios, tal como se
expone en la reivindicación 1.
Por ejemplo, el método puede implicar obtener
una serie de mediciones a partir, por lo menos, de un sensor
monetario y de una serie de artículos, y formar un conjunto de datos
a partir de las mediciones, correspondiendo los elementos del
conjunto de datos a puntos en dicho primer espacio.
La invención da a conocer también una función de
clasificación, un método de clasificación y un clasificador
(aparato de clasificación) correspondiente.
Preferentemente, se utilizan aspectos de la
invención con el fin de obtener una función para su utilización en
la fabricación, la adaptación o el empleo de un dispositivo tal como
un dispositivo de validación de moneda.
La invención está especialmente concebida para
ser utilizada en relación con artículos monetarios, con objeto de
obtener una función de clasificación y para clasificar, obtener el
valor nominal o validar artículos monetarios (método y aparato). En
tales casos, por ejemplo, los datos pueden ser obtenidos a partir de
mediciones de una o más características de los artículos
monetarios, o a partir de uno o más sensores para detectar artículos
monetarios.
En las reivindicaciones anexas se exponen otros
aspectos de la invención.
\vskip1.000000\baselineskip
Se describirán realizaciones de la invención
haciendo referencia a los dibujos anexos, en los cuales:
la figura 1 es un gráfico que muestra una
máquina de vectores de soporte;
la figura 2 es un gráfico que muestra
distribuciones de datos y una función discriminante obtenida según
una realización de la invención; y
la figura 3 es un gráfico que ilustra otra
función discriminante.
\vskip1.000000\baselineskip
Según una realización preferente, la presente
invención utiliza funciones núcleo para analizar datos obtenidos de
artículos monetarios y sensores monetarios para obtener funciones de
clasificación, o límites de aceptación, para dispositivos de
validación. Más en concreto, los datos son datos medidos obtenidos
de artículos monetarios, tales como monedas y billetes de banco,
siendo los datos representativos de características de los artículos
monetarios, tales como el grosor de la moneda, el material, el
peso, la anchura o la configuración de un billete de banco.
Comenzaremos con una descripción generalizada de
la teoría subyacente a la invención, haciendo referencia a
distribuciones de datos relativamente simples, por claridad y para
facilitar la comprensión. Después se describirá la invención con
mayor detalle en relación con realizaciones relativas a la
clasificación y validación de artículos monetarios.
Un aspecto de la invención se refiere a la
utilización de funciones núcleo para seleccionar un subconjunto a
partir de un conjunto de datos, siendo el subconjunto representativo
del conjunto de datos, en el contexto del enfoque de funciones
núcleo. Más en concreto, el subconjunto es representativo del
conjunto de datos en el espacio de imagen de un mapeo \diameter
correspondiente a una función núcleo k. Este aspecto de la invención
permite llevar a cabo, utilizando menos datos, análisis de datos
que utilicen funciones núcleo, lo que reduce la complejidad del
análisis y de ese modo, por ejemplo, reduce los esfuerzos de cálculo
y por consiguiente los costes para obtener funciones de
clasificación para dispositivos de validación de moneda.
Otro aspecto de la invención se refiere a la
utilización de máquinas de vectores de soporte, tal como se describe
más adelante.
En lo que sigue, el subrayado se utiliza para
indicar cantidades vectoriales, excepto cuando la cantidad vectorial
sea implícita a partir del contexto, y en general se entiende que
el término vector comprende cantidades escalares (es decir, un
vector de dimensión 1).
En primer lugar, describiremos la selección de
un subconjunto representativo de un conjunto de vectores.
Sea X un conjunto de vectores, de tamaño M.
\vskip1.000000\baselineskip
Supóngase que mapeamos cualquier vector desde el
espacio de entrada X a un espacio de Hilbert, a través de una
función de mapeo no lineal \varphi:
\vskip1.000000\baselineskip
Las funciones núcleo son funciones con valores
escalares y que cumplen el teorema de Mercer.
Una función núcleo proporciona una forma directa
de calcular un producto escalar en F utilizando solo los datos del
espacio de entrada. Para simplificar la notación utilizamos
\varphi_{i} = \varphi(x_{i}). A
continuación, puede mostrarse que para una función núcleo k, existe
un mapeo \varphi correspondiente tal que:
\vskip1.000000\baselineskip
\newpage
Ejemplos de funciones núcleo son:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Una consecuencia de esta propiedad es que si un
algoritmo puede ser expresado solo con productos escalares, puede
ser analizada la imagen de los datos en F utilizando solo los datos
procedentes del espacio de entrada X, incluso sin conocer
\varphi(x).
Con algunos núcleos, tales como la gaussiana, el
grado dimensional de F es infinito. La transformación de X a F es
no lineal y el grado dimensional de F es a menudo mayor que el de
X.
Ahora, sea S un subconjunto de X de tamaño
L,
\vskip1.000000\baselineskip
Asumimos que existe un subconjunto S que puede
aproximar, o reconstruir, la imagen de los elementos de X en F. En
otras palabras, S actúa como una base que expresa X en el espacio
F.
(\varphi^( x_{i}) es la
aproximación de \varphi( x_{i}) utilizando la
imagen de S en F).
\vskip1.000000\baselineskip
Para simplificar, utilicemos la siguiente
notación:
\vskip1.000000\baselineskip
de este modo la ecuación (1) puede
escribirse
como:
\vskip1.000000\baselineskip
Siendo
\Phi_{s} =
[\varphi_{s,1},\varphi_{s,2},...,\varphi_{s,L}] una
matriz formada a partir de la imagen de S en F, y
a_{i}=[a_{i},ai_{2},...,
a_{iL}]' un vector que expresa
\varphi _{i} utilizando la imagen de S en F.
Queremos encontrar valores para
a_{i} que minimicen las diferencias respectivas
\delta_{i} entre la imagen del i-ésimo elemento de X,
\varphi_{i} y su reconstrucción utilizando el conjunto S,
\varphi^_{i}.
\vskip1.000000\baselineskip
La minimización de los \delta_{i}
conduce a:
(\Phi_{s}^{t}
\Phi_{s})^{-1} existe si los elementos de la imagen de
S en F son linealmente independientes. En otras palabras, el rango
de \Phi_{s} es L.
\vskip1.000000\baselineskip
Utilizando las ecuaciones (3) y (4) podemos
escribir:
Donde \beta_{i} es el ángulo entre
los vectores \varphi _{i} y
\varphi^ _{i}, esto implica que también hemos
minimizado |\beta_{i}|.
Introduciendo ahora la notación del núcleo:
\vskip1.000000\baselineskip
la ecuación (5) puede expresarse
como:
\vskip1.000000\baselineskip
donde
que es una matriz cuadrada L X L de
los productos escalares de la imagen de S en
F.
que es un vector de los productos
escalares entre las imágenes de S y x_{i} en
F.
Tal como es sabido, y se ha expresado
anteriormente, la función núcleo k expresa el producto escalar en F
en términos de X.
Minimizar \delta_{i} puede llevarse a
cabo maximizando:
J_{i} puede ser considerada como una
función de aptitud local que estima la calidad de la reconstrucción
para el elemento x_{i}.
Se construye un conjunto S adecuado utilizando
un enfoque heurístico. En un ejemplo, esto se realiza utilizando
una función de aptitud global J_{s} que indica cuan fielmente la
imagen de S representa todas las imágenes de X en F. Un ejemplo de
una función de aptitud global es:
En mayor detalle, un ejemplo de cómo S se
construye es como sigue.
En primer lugar, se selecciona el elemento de X
que proporciona el mejor resultado de aptitud global. En otras
palabras, se elige el elemento que tiene el mayor valor de aptitud
global J_{s} utilizando la ecuación (8) en este ejemplo.
Alternativamente, puede ser escogido un primer elemento de manera
aleatoria, o por inspección, para formar el primer elemento de S,
x_{s,1}.
A continuación, se escoge otro elemento de X y
se toma como un elemento provisional de S, y se calcula el valor de
J_{s} en tal base para la totalidad de los otros elementos de X.
Después el elemento provisional de S es sustituido por otro
elemento de X, y se calcula de nuevo J_{s}. Esas etapas se repiten
para todos los elementos restantes de X. Como el segundo miembro
permanente de S se elige el elemento de X para el cual la función
de aptitud global es un máximo.
Las etapas presentadas en el párrafo anterior se
repiten hasta encontrar elementos subsiguientes de S, buscando cada
vez el mayor valor de la función de aptitud. El procedimiento se
detiene cuando la función de aptitud excede un valor
predeterminado. Alternativamente, el procedimiento se detiene cuando
S alcanza un número predeterminado de elementos, o cuando S es una
base completa para la imagen de X en F. Es necesario verificar el
rango de la matriz K_{s,s} para asegurarse de que es posible
invertirla. El procedimiento podría detenerse cuando K_{s,s} deja
de ser invertible.
También pueden utilizarse otras heurísticas más
complejas. Asimismo, pueden utilizarse funciones de aptitud
alternativas. Por ejemplo, la función de aptitud global puede
utilizar el promedio, la mediana o el mínimo de la función de
aptitud local, u otras estrategias. Alternativamente, las funciones
de aptitud, global y local pueden, por ejemplo, estar basadas en un
"error", utilizando la ecuación (6), en cuyo caso se impone la
optimización de S por medio de una reducción en el error global. No
obstante, en cada caso se utiliza una expresión del núcleo, tal
como en la ecuación (7).
La técnica anterior es un esquema de selección
"hacia delante", pero pueden utilizarse también otras técnicas
tales como aquellas que implican selección "hacia atrás". Como
otro ejemplo, podrían considerarse todos los subconjuntos de un
tamaño dado L, y seleccionarse el mejor ajuste. En términos
generales, puede utilizarse cualquier algoritmo adecuado de
selección basado en la aptitud.
De este modo, puede hallarse un subconjunto S de
X en el que puede expresarse la imagen de todos los elementos de X
en F bajo un mapeo \diameter, aproximadamente como combinaciones
lineales de las imágenes de elementos de S en F.
El conjunto S seleccionado puede no ser único,
pero proporciona un conjunto de un tamaño L dado que conserva la
estructura de los datos en F. Puede mostrarse que para algunos
núcleos tales como el polinómico, el valor óptimo de J_{s}
se alcanza con solo unos pocos vectores seleccionados.
La totalidad de las muestras, o datos de prueba,
en X, pueden ser proyectados sobre la imagen de S en F.
La transformación de una muestra
x_{i} está dada por la proyección del producto
escalar:
Nótese que z_{i} se obtiene mediante
una transformación lineal. Pueden considerarse otras
transformaciones, en concreto, una proyección ortogonal
19 que requiere más cálculo y no es necesaria para
muchos algoritmos aplicados a los datos transformados.
El conjunto S puede ser utilizado para reducir
el cálculo involucrado en diversos enfoques de la función núcleo
para análisis de datos, tales como el núcleo PCA y el núcleo GDA,
tal como se describe en nuestra solicitud
co-pendiente EP00311253.9, cuyo contenido se
incorpora al presente documento como referencia. El documento
EP00311253.9 proporciona ejemplos de subconjuntos de datos
seleccionados, según la técnica anterior, para diversas
distribuciones de datos y funciones de núcleo.
A continuación describiremos máquinas de
vectores de soporte (SVM (support vector machines) en adelante), y
sigue una discusión de cómo se utiliza S en relación con una máquina
de vectores de soporte.
La utilización de máquinas de vectores de
soporte es una técnica conocida para la clasificación y la
separación de datos. Puede encontrarse una explicación completa de
la teoría subyacente en libros de texto y documentos académicos,
tal como en el documento "A tutorial on support vector machines
for pattern recognition" (Tutorial sobre máquinas de vectores de
soporte para reconocimiento de configuraciones) por C.J.C. Burges,
de "Data mining and knowledge discovery" (Extracción de datos
y descubrimiento de conocimientos), 1998, páginas
121-167. Las características clave se resumen más
adelante.
Las máquinas de vectores de soporte (SVM en
adelante) utilizan datos de aprendizaje e implementan un esquema
conocido de inducción con minimización del riesgo estructural (SRM,
structural risk minimization). En términos generales, la SVM es un
clasificador lineal en dos clases que implica un hiperplano que
separa dos clases de datos mediante un margen, tal como se muestra
en la figura 1.
La figura 1 ilustra un ejemplo básico de una SVM
para datos separables.
La ecuación (10) proporciona una función
discriminante en la que w es el vector normal al hiperplano
(HP) y b es un sesgo, mientras que x es un vector de
muestra.
\vskip1.000000\baselineskip
Las muestras que pertenecen al grupo #1 tienen
la etiqueta +1, mientras que para el grupo #2 la etiqueta es
-1.
Se define un conjunto de muestras de aprendizaje
y sus etiquetas, como 21 Entonces para el HP óptimo
(w_{0}, b_{0}) valen las siguientes
restricciones, asumiendo que los datos son separables:
\vskip1.000000\baselineskip
Las relaciones (11) pueden reescribirse de forma
más compacta como sigue:
\vskip1.000000\baselineskip
Las muestras concretas para las que son
igualdades la primera o la segunda relación (11) se denominan
vectores de soporte (SVs, support vectors).
Dado un conjunto de datos de aprendizaje, con N
elementos, y la relación general (12), el objetivo es encontrar
valores para w y b que minimicen el margen que separa
los grupos.
Esto se expone más abajo.
Sea x^{s} un vector de soporte asociado con
d^{s} su clase (+/-1).
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Con (13) podemos calcular la distancia euclídea
||r|| desde SV hasta HP:
\vskip1.000000\baselineskip
Por lo tanto, el margen resulta:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Maximizar el margen conduce a minimizar la
longitud de w, condicionado a la restricción que da la relación
(12).
Este problema se conoce como optimización
cuadrática (o programación cuadrática (QP, Quadratic Programming)).
Es un caso de programación no lineal en el que la función coste es
cuadrática en w mientras que las restricciones son lineales. El
problema puede plantearse como sigue:
con las
condiciones:
Aquí el factor ½ es para simplificar la
presentación (derivado). El problema se denomina primario. Puede
asociarse con un problema dual, y este nos proporcionará una forma
de expresar la solución solo con productos escalares de muestras de
entrada. Podemos resolver el problema primario utilizando el método
de los multiplicadores de Lagrange. Sea J la función
lagrangiana:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Los \alpha_{i} son multiplicadores de
Lagrange no negativos. Podemos demostrar para J que cuando se
minimizan w y b se maximizan los \alpha_{i} (punto singular).
Tras diferenciar e igualar los resultados a cero, obtenemos:
El vector solución w_{0} está definido en
términos de una expansión que involucra las muestras de
aprendizaje.
Sin embargo, aún tenemos que encontrar los
coeficientes \alpha_{i}, lo que puede realizarse utilizando las
condiciones de Kuhn-Tucker [7]:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Por lo tanto, los multiplicadores de Lagrange
que solo satisfacen la ecuación (11) pueden asumir valores distintos
de cero. El teorema de dualidad puede utilizarse ahora para
encontrar tales coeficientes. Con (18) y (19) la ecuación (17)
puede reescribirse como:
Esto es también un problema QP:
Para un conjunto de aprendizaje
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
con las
condiciones:
- -a-
\vskip1.000000\baselineskip
- -b-
\vskip1.000000\baselineskip
El problema dual utiliza solo muestras de
aprendizaje. La función coste depende solo de los productos
escalares de la muestra; esto es una propiedad muy importante para
poder generalizar SVM a problemas no lineales. Cuando se han
encontrado los coeficientes de Lagrange, podemos entonces expresar
el vector óptimo de ponderación como sigue:
\vskip1.000000\baselineskip
Los x_{i} asociados con multiplicadores de
Lagrange distintos de cero son los SVs. En general hay menos SVs
que N. Por lo tanto, la expansión (13) no necesita todos los
términos. El sesgo óptimo b puede hallarse utilizando cualquier SV
y la ecuación (12):
\vskip1.000000\baselineskip
Entonces la función discriminante resulta:
donde SVS es el conjunto de los
vectores de
soporte.
\vskip1.000000\baselineskip
Lo anterior describe el caso en el que los datos
son separables. Las SVMs también pueden manejar casos en los que
los datos se solapen. Pueden encontrarse detalles del análisis en la
bibliografía pertinente, tal como el documento de Burges descrito
anteriormente, y por sencillez y brevedad no lo repetiremos
aquí.
El ejemplo anterior de una SVM describe una
clasificación lineal.
Para construir SVMs no lineales, se utiliza una
función núcleo, tal como se ha descrito anteriormente en relación
con la selección de S.
Para tratar problemas no lineales se combinan la
función núcleo y la SVM lineal. La ecuación (21) utiliza solo
productos escalares de las muestras. Por lo tanto, ésta puede
reescribirse con núcleos y conduce a una SVM no lineal que utiliza
un mapeo implícito de los datos en el espacio característico F.
A continuación, el método QP es aplicado
directamente en F buscando allí un HP óptimo (separación lineal),
como sigue:
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
con las
condiciones:
- -a-
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
- -b-
\vskip1.000000\baselineskip
\vskip1.000000\baselineskip
Incluso si el vector de ponderación w no
puede expresarse explícitamente, podemos calcular su producto
escalar con cualquier muestra en F. Por lo tanto, podemos recuperar
la función discriminante como sigue (b_{0}, si lo hay, se
estima utilizando la ecuación (23) tal como es habitual):
\vskip1.000000\baselineskip
Recuérdese que la expansión (26) está limitada a
los multiplicadores de Lagrange distintos de cero. Por lo tanto
ésta se define sobre todo el conjunto SV (SVS) y normalmente utiliza
menos términos que el conjunto de aprendizaje (N):
\vskip1.000000\baselineskip
Incluso si la cardinalidad Ns de los SVs es, en
términos generales, menor que N, puede seguir siendo muy alta, lo
que tiene consecuencias en términos de costes, memoria y potencia de
cálculo.
Una característica clave de la presente
invención, es la utilización combinada de una SVM con el subconjunto
S seleccionado. En lo que sigue, se describen los elementos de S
como vectores de características (FVs, feature vectors) y se
describe la selección de S como una selección del vector de
características (FVS, feature vector selection).
La ecuación (27) puede ser modificada trabajando
en F, utilizando S y la proyección de los datos de aprendizaje de
acuerdo con (9), como sigue, teniendo presente que los vectores de
soporte pertenecen a los datos de aprendizaje y por lo tanto pueden
también ser expresados en F utilizando la imagen de S. Trabajando en
F, la SVM es una SVM lineal.
En primer lugar, la ecuación (27) está expresada
en términos de F, ó, en otras palabras, en términos de la imagen de
los datos y los vectores de soporte en F.
en que SVSz representa la imagen
del SVS en
F.
\vskip1.000000\baselineskip
Los multiplicadores de Lagrange, d_{i},
y z_{i} definen un vector de ponderación w_{z0} explícito
óptimo. Por lo tanto (28) puede ser expresado con solo la proyección
z de cualquier muestra x sobre los FVs, resultando:
\vskip1.000000\baselineskip
Utilizando la notación que sigue en la ecuación
(6) anterior, ésta se convierte en:
Debe observarse que la ecuación discriminante
(30) implica solo L términos (es decir, el tamaño de S), lo que a
menudo es mucho menos que el número de vectores de soporte. De este
modo, el cálculo se reduce considerablemente, y se acelera el
procesamiento involucrado en el cálculo de la función
discriminante.
Cada una de las figuras 2 y 3 muestran un
ejemplo de dos grupos de datos que tienen distribuciones normales
en el espacio de entrada. En las figuras, las cruces representan
datos procedentes de un grupo, los puntos representan datos
procedentes del otro grupo, y los círculos alrededor tanto de puntos
como de cruces indican vectores de características entre las
muestras.
Las técnicas anteriores, que combinan FVS con
SVM, fueron aplicadas a los datos, utilizando criterios ligeramente
diferentes. Más concretamente, en el caso mostrado en la figura 2 se
fijó un valor de aptitud de J_{s} = 0,8 y se seleccionó 12
FV. En el caso mostrado en la figura 3, el valor de aptitud se fijó
a J_{s} = 0,999 y se seleccionó 38 FV.
En ambos casos, el número de SVs es 52. En otras
palabras, utilizando el enfoque de SVM no lineal estándar, la
función discriminante implica una expansión de 52 términos.
Utilizando la FVS, la función discriminante puede ser expresada
adecuadamente utilizando tan solo 12 FVs.
Las líneas negras continuas son el lugar
geométrico de las funciones discriminantes (para g(x) = 0) en
el espacio de entrada X (imagen del HP en F).
Experimentos sobre varios datos han comparado la
función de discriminación utilizando SVM no lineal con la técnica
SVM y FVS descrita anteriormente. Los experimentos han mostrado que
la discriminación utilizando SVM y FVS es tan buena como cuando se
utiliza SVM no lineal, y en algunos casos mejor.
La siguiente tabla 1 proporciona algunos
ejemplos de funcionamiento en entornos reales utilizando un núcleo
gaussiano y datos procedentes de bases de datos ampliamente
utilizadas para probar máquinas de aprendizaje. Los datos pueden
ser obtenidos en el depositario siguiente
http://ida.first.gmd.de/\simraetsch/data/benchmarks.htm.
Hay muchas funciones núcleo, que satisfacen el
teorema de Mercer (véase el documento WO 00/33262), que representan
productos escalares en F y pueden ser utilizadas en la invención. A
continuación se proporcionan algunos ejemplos más.
El núcleo polinómico por segmentos, donde x e y
son escalares:
El núcleo sigmoideo 530 con a =
1.
Un núcleo polinómico de tercer orden: K
(x,y)=(x^{t}\cdoty)^{d} (d=3,C=0).
Los anteriores ejemplos muestran buenos
comportamientos en la generalización, lo que significa que se
comportan bien con nuevos vectores que no estaban en el conjunto de
datos original X.
Para conseguir este objetivo, es necesario
escoger cuidadosamente el núcleo, su parámetro o parámetros (como
\sigma), y el nivel de error.
La elección de un núcleo apropiado puede
realizarse por experimentación y ensayo y error, haciendo pruebas
para ver cual proporciona los mejores resultados para los datos
sometidos a análisis. Alternativamente, la elección puede
realizarse utilizando la experiencia y la inspección de la
distribución de los datos.
Por ejemplo, en el caso de datos que tienen una
distribución de tipo polinómico, un núcleo polinómico puede
proporcionar buenos resultados. También es necesario elegir
cuidadosamente varios parámetros, tales como \sigma en el núcleo
gaussiano, y el nivel predeterminado para la función de aptitud. De
nuevo, sirven como guías la experimentación, la experiencia y la
forma de los datos.
Según las realizaciones preferentes de la
invención, los principios generales de las propuestas descritas
anteriormente son aplicados a artículos monetarios y a dispositivos
de validación de moneda. En otras palabras, las propuestas son
aplicadas a los datos que se extraen de sensores para obtener
mediciones representativas de características de artículos
monetarios. En referencia a la figura 2, por ejemplo, podría
considerarse que los ejes de la figura 2 representan el grosor de
la moneda y el material de la moneda para monedas de dos valores
nominales diferentes, o de un valor nominal auténtico y uno falso,
aunque de hecho las distribuciones mostradas pueden no
necesariamente ser representativas de distribuciones en entornos
reales. En muchos casos, tal como en un dispositivo de validación
de billetes de banco, la dimensión del vector de características
formado a partir de combinar mediciones del billete de banco es
mucho mayor que 3 y por lo tanto no puede mostrarse
gráficamente.
Una realización de la invención se refiere a un
dispositivo de validación de monedas, tal como se muestra en forma
de diagrama de bloques en la figura 4.
En la figura 4, la caja (1) designa un sistema
de medición que comprende una entrada (2), un sistema de transporte
en forma de una entrada de monedas y una trayectoria de transporte
de monedas (no mostrada) para presentar una muestra (3) y un
sistema de sensores (no mostrado) para medir cantidades físicas de
la muestra. El sistema (1) de medición está conectado a un sistema
(4) de procesamiento por medio de un bus (5) de datos. El sistema
(4) de procesamiento está conectado a un clasificador (6) por medio
de un bus (7) de datos. La salida del clasificador (6) está
conectada a un sistema (8) de utilización por medio de un bus (9) de
salida de datos. En este ejemplo, el sistema (8) de utilización es
una máquina expendedora pero, por ejemplo, podría también ser una
máquina de cambio de moneda.
El sistema (1) de medición, mide características
de una moneda (3) insertada. Las características medidas son
reunidas en un vector de características que tiene n elementos, en
que cada elemento corresponde a una característica medida, por
medio del sistema (4) de procesamiento. En el ejemplo presente, el
sistema de sensores mide valores representativos del material, el
grosor y el diámetro de una moneda insertada, utilizando técnicas
conocidas (véase, por ejemplo, el documento GB 2 254 949 A) y tales
valores son los tres elementos del vector de características
correspondiente. En síntesis, cada sensor comprende una o más
bobinas en un circuito auto-oscilatorio. En el caso
de los sensores del diámetro y el grosor, un cambio en la
inductancia de cada bobina provocado por la proximidad de una
moneda insertada, provoca la alteración de la frecuencia del
oscilador, mediante lo cual puede obtenerse una representación
digital de la propiedad respectiva de la moneda. En el caso del
sensor de conductividad, un cambio en la Q de la bobina provocado
por la proximidad de una moneda insertada provoca la alteración de
la tensión a través de la bobina, mediante lo cual puede obtenerse
una salida digital representativa de la conductividad de la moneda.
Aunque la estructura, el posicionamiento y la orientación de cada
bobina, y la frecuencia de la tensión aplicada a ésta, están
dispuestas de tal forma que la bobina proporciona una salida que
depende fundamentalmente de una en concreto de las propiedades de
conductividad, diámetro y grosor, se apreciará que cada medición
estará afectada en algún grado por otras propiedades de las
monedas.
Por supuesto, pueden medirse y utilizarse muchas
características diferentes representativas de artículos monetarios
como los elementos de los vectores de características, utilizando
diversos sensores tales como sensores ópticos, sensores magnéticos
y otros tipos de sensores, tal como es bien conocido en la técnica.
Por ejemplo, en el caso de un billete de banco, las características
medidas pueden comprender, por ejemplo, la anchura del billete, la
longitud del billete, y la intensidad de la luz reflejada o
transmitida por la totalidad o parte del billete. A modo de
ejemplo, un sistema de mediciones puede estar dispuesto para
escanear un billete de banco a lo largo de N líneas utilizando
sensores ópticos. Cada línea de escaneado contiene L áreas
individuales, que son escaneadas sucesivamente. En cada área, hay
mediciones de M características diferentes. Más en concreto, para
cada área se realizan mediciones de las intensidades de la
reflectancia de radiación roja, verde e infrarroja. El número total
de mediciones para un billete de banco es por lo tanto L x M x N.
Estas mediciones forman los componentes de un vector de
características para el ejemplar respectivo, de modo que el vector
de características tiene L x M x N componentes. Alternativamente,
las mediciones pueden ser procesadas de una forma diferente para
obtener un vector de características representativo del ejemplar
medido. Por ejemplo, pueden formarse vectores de características
locales para cada área medida, compuestos por las M mediciones para
tal área, de tal modo que cada vector de características local
tiene M componentes. Después pueden sumarse los vectores de
características locales sobre el área del billete de banco para
obtener un vector de características de M dimensiones,
representativo del ejemplar completo.
A continuación, el vector de características es
introducido en el clasificador (6). El clasificador (6) determina
si la muestra pertenece a cualquiera de las clases predeterminadas,
utilizando el vector de características y criterios predeterminados
de clasificación que comprenden una función de separación. Si se
identifica que la muestra pertenece a un valor nominal aceptable,
entonces ésta se acepta y se abona el valor correspondiente. Si se
identifica que la muestra pertenece a un grupo de falsificación
conocido, se rechaza.
En este ejemplo, el sistema es para clasificar
monedas de dos valores nominales y una falsificación conocida.
La obtención de la función de separación se
describirá más adelante.
La distribución de la población de los valores
nominales es analizada tal como se describe a continuación.
Inicialmente, se realizan muestras de cada uno
de los valores nominales de interés y de cada una de las
falsificaciones conocidas, y se crean los vectores
correspondientes. Las muestras pueden crearse utilizando el sistema
de sensores del dispositivo de validación de interés pero, en esta
realización, las muestras están extraídas de una serie de sistemas
de sensores correspondientes, para tener en cuenta variaciones y
tolerancias de fabricación, en sistemas de sensores de diferentes
dispositivos de validación comercializados e instalados en este
campo. Los vectores característicos procedentes de las muestras,
cuando son representados, por ejemplo, en un gráfico de dispersión
n-dimensional (donde n es el número de
características medidas), quedan distribuidos aproximadamente en
grupos. A continuación las muestras medidas son analizadas y
utilizadas para extraer una función de separación. En este ejemplo,
son utilizadas 50 muestras para cada valor nominal y 50 muestras de
la falsificación, y son medidas sobre 10 muestras de sistemas de
sensores. Los datos de los grupos resultantes son analizados y
utilizados para obtener una función de clasificación, o función
discriminante, utilizando el enfoque que se ha descrito
anteriormente. Más en concreto, las muestras o los datos de
aprendizaje, son procesados y utilizados para obtener el conjunto
S, o FVS, y valores para W_{z0,j} y b_{0}, con el
fin de producir la función discriminante g(x) en la ecuación
(30). Aquí, el umbral se fija a cero. A continuación, la función de
clasificación se almacena en una memoria del sistema (4) de
procesamiento de un dispositivo de validación concreto.
Después se lleva a cabo la clasificación para
monedas de un valor nominal desconocido, tal como sigue. Se inserta
una moneda en el dispositivo de validación. La moneda insertada es
detectada, y se obtienen mediciones representativas del material,
del grosor y del diámetro. A continuación, el sistema de
procesamiento lleva a cabo las siguientes etapas. Se obtiene un
vector de características, x, a partir de los valores
medidos. Se calculan los valores de g(x) utilizando la
ecuación (30). En este ejemplo, si g(x) > 0 la moneda es
clasificada como auténtica, y si g(x) < 0 la moneda es
clasificada como falsa.
Según este enfoque, el dispositivo de validación
necesita almacenar muy pocos datos (por ejemplo, los datos
requeridos por la ecuación -30-, es decir S, k, w_{z0} y b_{0} y
el umbral) para llevar a cabo la tarea de clasificación con un alto
grado de precisión. Esto reduce costes y esfuerzos de cálculo e
incrementa la velocidad de la clasificación.
Una SVM es esencialmente un clasificador en dos
clases. Para que un dispositivo de validación de moneda valide una
serie de valores nominales, puede ser necesaria una combinación de
cierto número de SVMs. Por ejemplo, para cada valor nominal, puede
ser utilizada una SVM para clasificar entre dos grupos de artículos
auténticos y artículos falsos del valor nominal, o pueden
combinarse SVMs en una estructura en árbol binario. La SVM puede
combinarse con otras pruebas. Por ejemplo, una prueba preliminar
puede determinar el valor nominal de un artículo monetario,
utilizando una de las diversas técnicas conocidas para obtener el
valor nominal de artículos monetarios, seguida por una técnica de
validación adecuada, utilizando una SVM.
En el ejemplo anterior, el umbral de
discriminación está puesto en cero, pero pueden utilizarse otros
umbrales, tales como +/- 0,5.
El análisis de los valores de la muestra para el
análisis de datos inicial y la obtención de la función de
separación pueden realizarse, por ejemplo, utilizando un
microprocesador. De forma similar, el clasificador (6) puede ser un
microprocesador.
Los métodos de la realización descrita
anteriormente son aplicables igualmente a un billete de banco o a
otro artículo monetario, o por supuesto a la clasificación de otros
tipos de elementos que son detectados por un sensor de artículos
para producir valores medidos.
En la realización descrita, se utilizan muestras
de los valores nominales de interés para obtener la función de
clasificación. También pueden utilizarse otros elementos, tales como
discos o arandelas.
Las técnicas anteriores pueden también ser
utilizadas para otros tipos de datos, y no se limitan a la
clasificación de datos extraídos de artículos monetarios.
El anterior comentario detallado se refiere a
datos que son separables, pero la invención no está limitada a
tales disposiciones. La invención puede ser modificada utilizando
técnicas conocidas en la materia para márgenes "suaves", por
ejemplo, cuando los datos de aprendizaje se solapan.
Claims (21)
1. Método de obtención de una función para
clasificar artículos monetarios, comprendiendo el método procesar
vectores de datos de aprendizaje correspondientes a características
de una serie de artículos monetarios, y obtener una función de
clasificación de una máquina de vectores de soporte que implica una
serie de vectores de soporte, en el que la función de clasificación
de la máquina de vectores de soporte implica una función núcleo
correspondiente a un mapeo desde un primer espacio que se
corresponde con el espacio de datos de entrada hasta un segundo
espacio, caracterizado por determinar un subconjunto de los
vectores de datos de aprendizaje cuya imagen en el segundo espacio
es representativa de la imagen de los datos de aprendizaje en el
segundo espacio, en el que la función de clasificación de la
máquina de vectores de soporte está expresada en términos del
mencionado subconjunto.
2. Método, según la reivindicación 1, en el que
el mencionado subconjunto difiere respecto de los vectores de
soporte, o en el que el tamaño del mencionado subconjunto es menor
que el tamaño del conjunto de vectores de soporte.
3. Método, según cualquiera de las
reivindicaciones precedentes, en el que la función de clasificación
de los vectores de soporte es de la forma 54
4. Método, según cualquiera de las
reivindicaciones precedentes, en el que el subconjunto es tal que la
imagen de cada elemento del conjunto de datos de aprendizaje puede
ser expresada aproximadamente como una combinación lineal de la
imagen de los elementos del subconjunto.
5. Método, según la reivindicación 4, en el que
el subconjunto es tal que una medición de la aproximación satisface
una condición predeterminada.
6. Método, según cualquiera de las
reivindicaciones 1 a 5, en el que la etapa de seleccionar un
subconjunto comprende:
- (a)
- obtener un subconjunto provisional;
- (b)
- calcular el valor de una función de aptitud que representa la fidelidad de una aproximación de la imagen de los elementos restantes del conjunto de datos en términos de la imagen del subconjunto provisional;
- (c)
- obtener otro subconjunto provisional y repetir la etapa (b); y
- (d)
- comparar los valores de la función de aptitud para cada subconjunto provisional, y seleccionar el subconjunto provisional para el cual el valor de la función de aptitud indica la aproximación más fiel.
7. Método, según la reivindicación 6, en el que
se repiten las etapas (a) hasta (d) para formar una secuencia de
subconjuntos provisionales de tamaño creciente o decreciente.
8. Método, según la reivindicación 6 o la
reivindicación 7, en el que se repiten las etapas (a) hasta (d)
hasta que se satisface una condición predeterminada, por ejemplo,
que el valor de la función de aptitud sea menor o igual que un
valor predeterminado, o mayor o igual que un valor predeterminado,
y/o que el subconjunto sea de un tamaño predeterminado, y/o hasta
que K_{s,s}, tal como se ha definido anteriormente en el presente
documento, deje de ser invertible numéricamente.
9. Método, según cualquiera de las
reivindicaciones 6 a 8, en el que la función de aptitud utiliza la
función núcleo.
10. Método, según cualquiera de las
reivindicaciones 1 a 9, en el que la función de clasificación de los
vectores de soporte es de la forma 55
11. Método, según cualquiera de las
reivindicaciones precedentes, que comprende obtener una serie de
mediciones procedentes por lo menos de un sensor monetario y de una
serie de elementos monetarios, y formar el conjunto de datos de
aprendizaje a partir de las mediciones.
12. Método, según cualquiera de las
reivindicaciones precedentes, en el que los elementos individuales
del conjunto de datos comprenden una serie de mediciones
correspondientes a una serie de características de los artículos
detectados.
13. Método, según la reivindicación 11 ó la
reivindicación 12, en el que el sensor monetario es un sensor de
documentos.
14. Método, según la reivindicación 13, en el
que el sensor de documentos es un sensor de billetes de banco.
15. Método, según la reivindicación 11 ó la
reivindicación 12, en el que el sensor monetario es un sensor de
monedas.
16. Método, según cualquiera de las
reivindicaciones 1 a 15, en el que la función núcleo es un núcleo
gaussiano, polinómico, sigmoideo, de tangente hiperbólica o
polinómico por segmentos.
17. Método de adaptación de un dispositivo de
validación de moneda, que comprende almacenar una función de
clasificación obtenida por medio de un método según cualquiera de
las reivindicaciones anteriores.
18. Método de clasificación de un artículo
monetario en un clasificador de moneda, que comprende obtener por lo
menos una medición del artículo por lo menos desde un sensor
monetario (1), que clasifica el artículo utilizando una función de
clasificación obtenida mediante un método según cualquiera de las
reivindicaciones 1 a 16.
19. Método, según la reivindicación 17 ó la
reivindicación 18, en el que la función de clasificación es de la
forma 56
20. Dispositivo de validación que comprende
medios (1) para detectar artículos monetarios con el objeto de
producir valores medidos que representan características de los
artículos, medios (6) que almacenan una función obtenida mediante
un método según cualquiera de las reivindicaciones 1 a 16, y medios
(4) para validar un artículo monetario utilizando los valores
medidos y la función.
21. Dispositivo de validación, según la
reivindicación 20, en el que la función de clasificación es de la
forma 57
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US38994202P | 2002-06-19 | 2002-06-19 | |
US389942P | 2002-06-19 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2331066T3 true ES2331066T3 (es) | 2009-12-21 |
Family
ID=30000488
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES03760842T Expired - Lifetime ES2331066T3 (es) | 2002-06-19 | 2003-06-18 | Dispositivo de validacion de moneda. |
Country Status (8)
Country | Link |
---|---|
US (1) | US7648016B2 (es) |
EP (1) | EP1516293B1 (es) |
JP (1) | JP4555078B2 (es) |
CN (1) | CN1675657B (es) |
AU (1) | AU2003247029B2 (es) |
DE (1) | DE60329596D1 (es) |
ES (1) | ES2331066T3 (es) |
WO (1) | WO2004001683A1 (es) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009545049A (ja) * | 2006-07-28 | 2009-12-17 | エムイーアイ インコーポレーテッド | サポート・ベクタ・マシンおよび変数選択を使用する分類 |
DE102006053788A1 (de) * | 2006-11-15 | 2008-05-21 | Giesecke & Devrient Gmbh | Verfahren zur Erkennung von Verschmutzungen im Bereich von Farbübergängen auf Wertdokumenten und Mittel zur Durchführung des Verfahrens |
WO2009098761A1 (ja) * | 2008-02-06 | 2009-08-13 | Glory Ltd. | 紙幣処理システム |
WO2010014700A1 (en) * | 2008-07-29 | 2010-02-04 | Mei, Inc. | Currency discrimination |
US8517161B2 (en) * | 2008-10-03 | 2013-08-27 | Mei, Inc. | Currency discrimination and evaluation |
AT509022B1 (de) * | 2009-08-14 | 2012-09-15 | Ait Austrian Inst Technology | Verfahren zur qualitätsprüfung eines digitalbilds |
TWI423175B (zh) * | 2010-09-01 | 2014-01-11 | Univ Nat Sun Yat Sen | 基於多核心支援向量機之偽鈔辨識方法 |
US8484253B2 (en) * | 2010-12-31 | 2013-07-09 | Microsoft Corporation | Variational mode seeking |
EP2810257B1 (en) | 2012-02-03 | 2017-01-18 | Crane Payment Innovations, Inc. | Apparatus and method for characterizing items of currency |
US9336638B2 (en) * | 2014-03-25 | 2016-05-10 | Ncr Corporation | Media item validation |
CN105184954B (zh) * | 2015-08-14 | 2018-04-06 | 深圳怡化电脑股份有限公司 | 一种检测纸币的方法及验钞装置 |
CN106204893A (zh) * | 2016-08-10 | 2016-12-07 | 恒银金融科技股份有限公司 | 一种基于支持向量机的纸币检测方法 |
CN106803306A (zh) * | 2017-01-13 | 2017-06-06 | 湖南理工学院 | 一种公交车钱币自动识别装置及方法 |
CN109658583A (zh) * | 2019-02-01 | 2019-04-19 | 广东工业大学 | 基于太赫兹光谱的发票鉴别方法、装置、设备及存储介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5167313A (en) | 1990-10-10 | 1992-12-01 | Mars Incorporated | Method and apparatus for improved coin, bill and other currency acceptance and slug or counterfeit rejection |
GB2254949B (en) | 1991-04-18 | 1994-09-28 | Mars Inc | Method and apparatus for validating money |
CH684856A5 (de) * | 1992-11-30 | 1995-01-13 | Mars Inc | Verfahren zur Klassifizierung eines Musters - insbesondere eines Musters einer Banknote oder einer Münze - und Einrichtung zur Durchführung des Verfahrens. |
US5649068A (en) * | 1993-07-27 | 1997-07-15 | Lucent Technologies Inc. | Pattern recognition system using support vectors |
GB2284293B (en) | 1993-11-30 | 1998-06-03 | Mars Inc | Article classifying method and apparatus |
US5757001A (en) * | 1996-05-01 | 1998-05-26 | The Regents Of The University Of Calif. | Detection of counterfeit currency |
US6134344A (en) | 1997-06-26 | 2000-10-17 | Lucent Technologies Inc. | Method and apparatus for improving the efficiency of support vector machines |
GB2344446A (en) | 1998-12-02 | 2000-06-07 | Mars Inc | Classifying currency items |
DE60033535T2 (de) * | 2000-12-15 | 2007-10-25 | Mei, Inc. | Geldechtheitsprüfer |
EP1367546B1 (en) | 2002-05-22 | 2013-06-26 | MEI, Inc. | Currency Validator |
-
2003
- 2003-06-18 EP EP03760842A patent/EP1516293B1/en not_active Expired - Fee Related
- 2003-06-18 WO PCT/IB2003/003128 patent/WO2004001683A1/en active Application Filing
- 2003-06-18 JP JP2004515380A patent/JP4555078B2/ja not_active Expired - Fee Related
- 2003-06-18 DE DE60329596T patent/DE60329596D1/de not_active Expired - Lifetime
- 2003-06-18 AU AU2003247029A patent/AU2003247029B2/en not_active Ceased
- 2003-06-18 US US10/518,691 patent/US7648016B2/en not_active Expired - Fee Related
- 2003-06-18 CN CN03819439.2A patent/CN1675657B/zh not_active Expired - Fee Related
- 2003-06-18 ES ES03760842T patent/ES2331066T3/es not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP4555078B2 (ja) | 2010-09-29 |
US7648016B2 (en) | 2010-01-19 |
JP2005530271A (ja) | 2005-10-06 |
EP1516293A1 (en) | 2005-03-23 |
US20060254876A1 (en) | 2006-11-16 |
CN1675657A (zh) | 2005-09-28 |
AU2003247029B2 (en) | 2009-07-16 |
DE60329596D1 (de) | 2009-11-19 |
WO2004001683A1 (en) | 2003-12-31 |
AU2003247029A1 (en) | 2004-01-06 |
CN1675657B (zh) | 2010-06-16 |
EP1516293B1 (en) | 2009-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2280179T3 (es) | Dispositivo para la validacion de dinero. | |
ES2331066T3 (es) | Dispositivo de validacion de moneda. | |
US9019567B2 (en) | Methods and apparatuses for creating authenticatable printed articles and subsequently verifying them | |
ES2241342T3 (es) | Metodo y aparato de clasificacion. | |
US8421625B2 (en) | System and method for article authentication using thumbnail signatures | |
US20080294900A1 (en) | Authenticity Verification of Articles Using a Database | |
RU2562758C2 (ru) | Способ и устройство для определения эталонного набора данных класса для классификации ценных документов | |
JP7018129B2 (ja) | 紙葉類処理装置及び紙葉類処理方法 | |
ES2426416T3 (es) | Dispositivo de validación de moneda | |
JP5502111B2 (ja) | 紙葉類識別装置および紙葉類識別方法 | |
ES2621841T3 (es) | Aparato y método para caracterizar elementos de moneda | |
ES2403458T3 (es) | Discriminación de efectivo | |
KR102095511B1 (ko) | 딥 러닝 기반의 지폐 적합 판단 장치 및 방법 | |
JP3151034B2 (ja) | 紙幣鑑別装置 | |
JPH11219461A (ja) | 紙幣鑑別装置および記録媒体 |