ES2214115B1 - Sistema de reconocimiento automatico de objetos por proyeccion en una base algebraica y controlado remotamente por realidad virtual. - Google Patents
Sistema de reconocimiento automatico de objetos por proyeccion en una base algebraica y controlado remotamente por realidad virtual.Info
- Publication number
- ES2214115B1 ES2214115B1 ES200202362A ES200202362A ES2214115B1 ES 2214115 B1 ES2214115 B1 ES 2214115B1 ES 200202362 A ES200202362 A ES 200202362A ES 200202362 A ES200202362 A ES 200202362A ES 2214115 B1 ES2214115 B1 ES 2214115B1
- Authority
- ES
- Spain
- Prior art keywords
- base
- virtual reality
- projection
- agent
- objects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Sistema de reconocimiento automático de objetos por proyección en una base algebraica y controlado remotamente por realidad virtual. La invención consiste en un sistema de reconocimiento de objetos que consta de un agente autónomo móvil dotado de sistemas de captura de imágenes y procesamiento, y de una estación externa donde, usando un equipo de realidad virtual formado por gafas y guante, se puede controlar el sistema de percepción visual del agente móvil. El proceso de reconocimiento es, sin embargo, automático y se basa en proyectar la forma del objeto encontrado sobre una base algebraica fija.
Description
Sistema de reconocimiento automático de objetos
por proyección en una base algebraica y controlado remotamente por
realidad virtual.
La invención se encuadra en el sector técnico de
la robótica, y más concretamente en el relativo al del control de
agentes autónomos móviles empleando herramientas de realidad
virtual.
Actualmente, el concepto de robótica ha
evolucionado hacia los sistemas móviles autónomos, que son capaces
de desenvolverse por sí mismo en entornos desconocidos y
parcialmente cambiantes sin necesidad de supervisión. De esta
forma, el mundo de la robótica se debate entre modelos sumamente
ambiciosos, como es el caso del IT, diseñado para expresar
emociones, el COG, también conocido como el robot de los cuatro
sentidos, el famoso SOUJOURNER o el LUNAR ROVER, vehículo de
turismo con control remoto, y otros mucho más específicos y
sencillos (Delgado, L. y Lozano, D., "Robots, el sueño
inalcanzable de Pigmalión", El Semanal, pp.
24-35, 1999). Entre estos últimos se puede destacar
a ROBODOC, empleado en cirugía para operaciones de cadera, CYPHER,
un helicóptero robot de uso militar, el guardia de tráfico japonés
ANZEN TARO, los robots mascota de Sony, el PIONEER, encargado de la
limpieza en la central nuclear de Chernobyl o el DANTE II, que
exploró el volcán Mt. Spurr en Alaska (Rosheim, M., "Robot
evolution: the development of antrobotics", New York: John Wiley
& Sons, Inc., pp. 1-36, 1994). En muchos de
estos casos, especialmente en aquellos destinados a aplicaciones
que se pueden calificar como críticas por su peligrosidad, resulta
obligado contar con una estación de control remoto que permita
supervisar el estado del agente autónomo, seguir su evolución por el
entorno y evitar en la medida de lo posible, de esta forma,
cualquier problema que pudiera surgir, no sólo por la acción del
agente sobre el entorno, sino también por el daño que pueda sufrir
el agente. En estas situaciones resulta especialmente importante
contar con un sistema de control que actúe rápidamente, cuestión
difícil si todo el procesamiento se centra en un único computador o
si se deja prácticamente en manos del operador humano. De entre las
tareas que debe llevar a cabo un agente autónomo móvil,
posiblemente sean las relacionadas con la visión artificial las que
precisan una mayor capacidad de procesamiento (Levine, M.,
"Vision in man and machine", New York: McGraw Hill, 1985),
especialmente cuando deben de resolver la cuestión del
reconocimiento no supervisado de objetos. Es, por ello, normal que
hayan aparecido numerosos trabajos relacionados con el tema,
algunos de ellos referidos a patentes de invención (ES 2 081 204,
17.12.92, Hendrik Höfer, Procedimiento y dispositivo para el
reconocimiento automático de objetos). Pese a todo, el
reconocimiento de objetos plantea aún numerosos problemas en las
distintas etapas en que se puede dividir dicha tarea. Así, en la
primera fase, de representación del propio objeto, puede darse el
caso de que el grado de rotación, escala o ruido en la captura no
sean siempre los mismos, por lo que algunos autores recurren a usar
etapas de preproceso (Shrikantan, G., Lam, S., y Srihari, S.,
Gradient-based contour encoding for character
recognition, Pattern Recognition 7 (29), pp.
1147-1160, 1996; Hsu, J. y Hwang, S. A machine
learning approach for acquiring descriptive classification rules of
shape contour, Pattern Recognition 2(30), pp.
245-252, 1997), pero esto incrementa excesivamente
el tiempo de proceso, siendo inviable para situaciones de actuación
en las que el tiempo es el factor más importante. La implementación
de un sistema de extracción de características que sea tan
independiente como sea posible de las distorsiones que pueda sufrir
el objeto es posible, pero difícil. Por ello, algunos autores usan
enormes bases de datos, en las que guardan información sobre el
objeto obtenida del estudio de numerosas versiones distorsionadas.
Esto conduce a sistemas en las que el volumen de información a
manejar es excesivo y, por tanto, a nuevos problemas de tiempo de
procesado (Cyganski, D., Orr, J., Cott, T., y Dobson, R.
Development, implementation, testing and application of an affine
transform invariant curvature function, Proc. of the First Int.
Conf. on Computer Vision, pp. 496-500, 1987).
Una vez caracterizado el objeto, y dado que la
cantidad de información relacionada con el mismo es generalmente
muy elevada, surge el problema de determinar qué características
emplear finalmente para representar el objeto. Las desventajas que
presentan las soluciones adoptadas para ello son, principalmente,
el excesivo tamaño del vector de características (Campbell, N.,
MacKeown, W., Thomas, B. y Troscianko, T. Interpreting image
databases by region classification, Pattern Recognition
4(30), pp. 555-563, 1997; Romero, R.,
Touretzky, D. Y Thibadeau, R. Optical chinese character recognition
using probabilistic neural network, Pattern Recognition
8(30), pp. 1279-1292, 1997), y la necesidad
de usar sistemas expertos para extraer el conjunto de
características, lo cual implica llevar a cabo un profundo estudio
sobre el conjunto de patrones que entran al sistema y, por ello,
restringir el sistema de reconocimiento a una aplicación muy
específica (Cao, J., Ahmadi, M. y Shridhar, M. A hierarchical
neural network architecture for handwritten numeral recognition,
Pattern Recognition 2(30), pp. 289-294,
1997). En este trabajo se presenta una posible solución a estos
problemas, desarrollando una etapa de reconocimiento que actúa de
forma rápida y que no presenta limitaciones en el espacio de
objetos de entrada. No se debe olvidar, sin embargo, que dicho
sistema es sólo una de las partes del sistema que se describe, que
consta de un agente autónomo móvil dotado de sistemas de captura de
imágenes y procesamiento, pero también de una estación externa
donde, usando un equipo de realidad virtual formado por gafas y
guante, se puede controlar este sistema de percepción visual del
agente móvil.
La invención consiste en un sistema de
reconocimiento de objetos que consta de un agente autónomo móvil
dotado de sistemas de captura de imágenes y procesamiento, y de una
estación externa donde, usando un equipo de realidad virtual
formado por gafas y guante, se puede controlar el sistema de
percepción visual del agente móvil. El proceso de reconocimiento
es, sin embargo, automático y se basa en proyectar la forma del
objeto encontrado sobre una base algebraica fija. Esto es, si bien
la estación externa permite identificar nuevos objetos y dirigir
la atención del agente hacía una determinada región del espacio,
el agente realiza la extracción y caracterización de los posibles
objetos presentes en su campo visual de manera no supervisada.
La principal finalidad del sistema es conseguir
el control remoto de un agente autónomo con la finalidad de que
éste reconozca de forma automática los objetos presentes en su
entorno. Como se ha comentado, aunque dicho reconocimiento es
llevado a cabo de forma automática, puede ser supervisado
externamente. De igual forma, la interfaz externa permite que un
operario controle, ayudado por un equipo de realidad virtual, la
operación del agente. Inicialmente, este control se realiza con el
único objetivo de que el agente autónomo explore su entorno, por
lo que sólo se interactúa sobre el movimiento del cuerpo del
agente y sobre las cámaras que capturan la imagen. Para llevar a
cabo este movimiento de cámaras, el agente incorpora una cabeza con
tres grados de libertad (pan, tilt y vergencia). La
aplicación de un sistema de este tipo puede resultar especialmente
interesante para la exploración o identificación de determinados
objetos en entornos de difícil acceso o en situaciones en las que
resulte conveniente ejercer un control remoto (reconocimiento de
matrículas, trabajo en centrales nucleares, etc.).
- 1.
- Módulo de captura de imagen
- 2.
- Módulo de procesamiento
- 2.1.
- Submódulo de procesamiento ubicado en el agente
- 2.2.
- Submódulo de procesamiento externo
- 3.
- Módulo de usuario
- 4.
- Módulo de control de movimiento
C. Vector curvatura del contorno del objeto
A_{0}, A_{1}, A_{N}. Vector resultante de
la comparación de C con distintos vectores previamente almacenados
en memoria.
- 1.
- Agente autónomo móvil
- 1.a.
- Computador de procesamiento interno
- 1.b.
- Enlace inalámbrico para comunicación
- 1.c.
- Cámaras
- 1.d.
- Cabeza para soporte de cámaras con tres grados de libertad
- 1.e.
- Control de la cabeza 1.d
- 1.f.
- Capturadora de imagen
- 2.
- Red externa de procesamiento y control
- 2.a.
- Computador de procesamiento externo
- 2.b.
- Computador de control del agente
- 2.c.
- Guante de realidad virtual para control de movimiento
- 2.d.
- Gafas de realidad virtual y sensor de posición
En la Figura 1 se presenta la arquitectura del
sistema. En concreto, el sistema se caracteriza porque consta
de:
- a)
- un módulo de captura de imagen (1), residente en el agente autónomo, y que se encarga de capturar las imágenes del entorno. Estas imágenes son enviadas al
- b)
- módulo de procesamiento (2), que a su vez se divide en dos submódulos, uno de ellos ubicado en el agente autónomo -submódulo 1 (2.1)-, y encargado principalmente de gestionar el paso de comandos e imágenes entre el agente y el exterior, y otro externo -submódulo 2 (2.2)-, donde se lleva a cabo la mayor parte del proceso de tratamiento de imagen. Por lo tanto, una vez que las imágenes llegan al submódulo 1, éste las comprime y transmite vía radio al submódulo 2. Este segundo submódulo se encarga de detectar los posibles objetos, enviando esta información al
- c)
- módulo de usuario (3), donde se lleva a cabo la clasificación de las entidades detectadas. Este módulo permite al usuario decidir hacia donde seguir la exploración y, para hacerle esta tarea más flexible y ayudar a la integración del mismo en el entorno percibido por el agente autónomo, se emplea un equipo de realidad virtual. En caso de que el usuario decida que debe cambiar el entorno visual percibido, mandará sus órdenes al módulo de procesamiento que, a su vez, las guiará al
- d)
- módulo de control de movimiento (4),
que permite mover el robot por el entorno y girar las cámaras que
lleva para que se dirijan hacia el punto seleccionado del mismo.
Una vez completada la maniobra, se informa al módulo de
procesamiento, que vuelve a comenzar el
\hbox{proceso.}
El sistema también se caracteriza porque el
proceso de reconocimiento de objetos, ubicado en los módulos de
procesamiento y de usuario, se subdivide en:
- a)
- una
fase de detección de objetos, en la cual se detectan, sobre la
imagen matricial de entrada, aquellas entidades de puntos que
presentan un nivel de gris o color homogéneo, suficientemente
distinto del que presentan los puntos que los rodean. Si estas
entidades tienen unas características de área y compacidad
suficientes se considerarán como objetos potenciales, a expensas de
que puedan ser descartados como objetos reales en las siguientes
fases del
\hbox{proceso;}
- b)
- una fase de caracterización, en la que se estudia la forma de los objetos detectados en la fase anterior. Aunque en la detección se hayan tenido en cuenta otros factores (área, nivel de gris o color, etc.), la característica que identificará finalmente al objeto será su forma. En particular, la forma del contorno del objeto se cuantifica calculando su curvatura, que se define, en cada punto del contorno, como el cambio de orientación relativa del contorno;
- c)
- una fase de representación (Figura 2), en la cual el vector curvatura del contorno del objeto (C) se compara con distintos vectores previamente almacenados en memoria. El resultado de estas comparaciones será un vector de características (A), que se asocia al objeto de entrada, y que permitirá posteriormente su clasificación;
- d)
- una fase de clasificación, en la que utilizando el vector de características asociado al objeto y un algoritmo de agrupación no supervisado se puede clasificar el objeto de entrada en alguna de las clases ya existentes, crear una clase nueva o descartarlo, si el usuario estima que su forma no coincide con ningún objeto real. Hay que destacar que el proceso de clasificación es automático, quedando sólo como tareas del usuario el renombrar cada clase recién creada con el nombre real asociado al objeto, o el ya comentado descarte de objetos no reales.
Las tres primeras fases se encontrarán
físicamente ubicadas en el submódulo 2 de procesamiento y la última
fase en el módulo de usuario.
En la fase de caracterización, a su vez, hay que
señalar el empleo de un algoritmo que calcula la curvatura en cada
punto del contorno de manera adaptativa, con lo cual la estimación
presenta una relación señal a ruido mayor y permite caracterizar el
contorno, sin depender de las escalas naturales que éste
presente.
La fase de representación se caracteriza por
realizar una proyección del vector curvatura del objeto sobre una
base algebraica almacenada en memoria. Para ello, se llevan a cabo
las siguientes acciones:
- a)
- Cálculo de la transformada de Fourier del vector curvatura del contorno del objeto;
- b)
- Multiplicación de dicha transformada con otras transformadas de Fourier de vectores de curvatura previamente almacenadas en memoria. Estas transformadas almacenadas constituyen una base, sobre la cual se proyecta la transformada de entrada. Los resultados de estas multiplicaciones constituyen el vector de características que identifica al objeto de entrada.
A continuación se describe un ejemplo de
realización práctica, no limitativo, del presente invento. No se
descartan, sin embargo, otros modos de realización en los que se
introduzcan cambios accesorios que no desvirtúen su fundamento.
El sistema descrito se muestra en la Figura 3. En
este caso, el módulo de procesamiento se reparte entre el Pentium
PC 133 MHz (1.a) residente en un agente móvil Nomad200 (1)
de Nomadic Technologies y un Pentium PC 200 MHz externo
(2.a) conectado a la red local. Al estar el módulo de procesamiento
repartido en dos computadoras independientes, se podrá trabajar en
paralelo, aumentando con ello la velocidad del sistema. Sin
embargo, ya que se debe mantener la autonomía del agente móvil, la
comunicación interna a este módulo se resuelve mediante un enlace
radio (1.b) que conecta al agente con la red local. En este caso,
el enlace es del tipo RangeLan2 7510. Las rutinas del módulo
de procesamiento que se ejecutan en el interior del Nomad200
se encargan de controlar la captura de imagen y el movimiento de la
cabeza del agente. De cualquier forma, en estas dos misiones el
consumo computacional es mínimo, pues en el control de la cabeza se
realiza un simple intercambio de comandos con el exterior, y el
control de imagen se reduce a su compresión y transmisión por el
enlace radio. De esta manera, la práctica totalidad de las
funciones del sistema de reconocimiento se ejecutan en el Pentium PC
externo conectado a la red local, que recibirá del agente las
imágenes, llevará a cabo las fases de detección de objetos,
caracterización y representación, y, con ayuda del módulo de
usuario, la de clasificación. Como datos de salida, este PC externo
solicitará al residente en el agente que dirija las cámaras hacía
una determinada región del campo visual.
Para la captura de imágenes se emplea una cabeza
que consta de dos cámaras KP-D50 (1.c), lo
que permite implementar un sistema de visión binocular. Estas dos
cámaras obtienen imágenes en color o niveles de gris y formato
NTSC/PAL del entorno usando un sistema entrelazado de 2:1. La
transmisión de imágenes estéreo en tiempo real por un enlace radio
es un problema complejo que requiere, en muchas ocasiones, un
enorme ancho de banda.
En el sistema implementado las imágenes recogidas
por ambas cámaras presentan una resolución variable en el espacio,
de manera que la resolución de la escena se mantiene al máximo
sólo en una zona denominada fóvea, a partir de la cual la resolución
baja progresivamente formando los denominados anillos foveales. Si
se mantiene la zona de máxima resolución en el área de atención,
no se percibe disminución en la cantidad de información óptima,
reduciéndose los requisitos de memoria y la carga computacional
necesaria para procesar dichas imágenes.
Las cámaras se sustentan en una cabeza Zebra
Pan/Tilt/Vergence Head (1.d) que presenta tres grados de
libertad (giros horizontal, vertical y vergencia), controlada
mediante un circuito de control (Zebra Controller (1.e)) que
se conecta a través de un puerto serie con el módulo de
procesamiento residente en el propio agente autónomo. Las imágenes
captadas por ambas cámaras se reciben usando una tarjeta
capturadora/digitalizadora de imagen modelo TMS320C44 (1.f),
igualmente conectada con el módulo de procesamiento residente en
el agente móvil. Este dispositivo se encargará únicamente de
capturar las imágenes a una velocidad lo más constante posible,
suministrando éstas al módulo de procesamiento cuando éste lo desee.
La conexión entre la tarjeta capturadora/digitalizadora y el
módulo de procesamiento presenta el problema de establecerse a
través de un bus que siempre presentará un ancho de banda pequeño
para la transmisión de imágenes estéreo.
Dadas las limitaciones propias al sistema, se
trabaja con imágenes de 256x256 píxeles con 256 niveles de gris,
que ocuparían, a resolución uniforme, 65 Kbytes cada una. Para
alcanzar una calidad de vídeo de al menos 8 imágenes por segundo,
el ancho de banda del enlace debería ser de 520 Mbytes/s,
disponiéndose, con el equipo descrito, de tan sólo un 13'56% de
dicho valor. Si las imágenes son de resolución variable (fóvea
centrada de 64x64 píxeles y 2 anillos de resolución), cada imagen
se reduce a 10240 bytes. De esta forma, la tarjeta
capturadora/digitalizadora transmite hasta 100 imágenes por segundo
al módulo de procesamiento interno al agente autónomo. Si se reduce
la captura a 9 imágenes por segundo en estéreo, el flujo de
información supondría tan sólo 90 Kbytes/s. Aunque podría parecer
que el trabajar con una imagen de resolución variable puede
resultar incómodo para el observador interesado en áreas
periféricas de la imagen, el desarrollo de fóveas móviles ha
permitido solventar dicho problema. Asimismo, se dispone de
algoritmos de procesado de imágenes multirresolución basados en
estructuras jerárquicas que trabajan a velocidades mucho mayores
que sus equivalentes en imagen de resolución uniforme con niveles
de calidad muy similares.
Finalmente, el usuario podrá supervisar o
simplemente seguir el funcionamiento del agente autónomo a través
de un módulo de usuario residente en un PC externo al sistema
(2.b), y conectado por red al módulo de procesamiento.
Adicionalmente, este módulo de usuario cuenta con un equipo de
apoyo consistente en un guante y un casco de realidad virtual.
El guante empleado (2.c) es el 5^{th}
Glove desarrollado por 5DT (Fith Dimension
Technologies), que dispone de cinco sensores de flexión para los
dedos de la mano y de un detector de posición del guante con dos
grados de libertad (inclinación y rotación). La misión del guante
es ubicar la fóvea móvil sobre el objeto de interés. Por otro lado,
el casco de realidad virtual es el I-Glasses
de Virtual I-O (2.d), que se compone de unas
gafas, encargadas de la visión, y de un detector de posición, que
transmite al PC los distintos movimientos de la cabeza. Con el
casco se controla la posición de las cámaras.
Cada una de las imágenes que finalmente llegan al
extremo usuario será analizada, para así detectar, caracterizar e
identificar cada uno de los objetos presentes en el campo visual.
Para acelerar el proceso de detección de entidades que se distinguen
del fondo, la imagen de resolución variable recibida se segmenta
empleando una estructura tridimensional denominada polígono foveal.
Los sucesivos niveles de esta estructura presentan porciones
mayores de la imagen a una resolución progresivamente menor. El
algoritmo de detección de objetos trabaja de forma descendente y se
basa tanto en criterios descriptivos como proposicionales. El
sistema de detección implementado da buenos resultados tanto en
imágenes artificiales como con imágenes reales siempre y cuando el
fondo sea relativamente homogéneo y es capaz de trabajar con figuras
planas y volúmenes, concentrando los recursos del sistema sobre el
objeto de estudio. Los tiempos de detección son, además,
inferiores al segundo, lo cual permite actualizar el conjunto de
posibles objetos a analizar con una frecuencia relativamente
elevada.
Una vez detectados los posibles objetos, éstos se
caracterizan mediante el cálculo adaptativo de la función de
curvatura asociada a su contorno. El hecho de que la curvatura se
calcule de forma adaptativa permite eliminar gran parte del ruido de
cuantificación sin pérdida de puntos significativos. De forma
básica, el método de cálculo de la curvatura de cada punto del
contorno compara iterativamente la distancia euclídea entre el
punto en estudio y el ubicado k puntos delante,
d(i,i+k), con la distancia en píxeles entre ambos
puntos. Si ambas distancias son muy similares se aumenta k,
si son muy distintas se decrementa k. Una vez determinado
el k asociado a cada punto, se usa una tabla de
pendiente-k para obtener la curvatura de cada punto. La
simplicidad del método permite que su tiempo de procesado sea de
tan sólo 4-5 milisegundos, consumiendo escasos
recursos del módulo de procesamiento.
Para comprimir la información contenida en una
función de curvatura se proyecta la transformada de Fourier (DFT)
de dicha función sobre una base previamente calculada del conjunto
de transformadas de Fourier de funciones de curvatura (CFDFTs). A
efectos de construir la base del subespacio de las CFDFTs se empleó
un conjunto de tan sólo 27 objetos. Tras extraer las DFT de sus
funciones de curvatura, éstas se agruparon mediante un algoritmo
c-medias donde el número de clases c varió desde 2
hasta 15. Cada uno de los prototipos obtenidos por este algoritmo
será uno de los elementos de la base buscada. Mientras c
fue inferior a 10, los ángulos medios entre vectores presentaron
variaciones de aproximadamente 0.0245°. En la transición de 10 a 11
el ángulo medio entre vectores disminuyó en 3.63°. En vista de
este decremento se optó por una base de 10 elementos. Si bien el
ángulo medio entre vectores está más cerca de 60° que de 90°, los
resultados posteriores prueban que el método funciona
correctamente.
Una vez se dispone de la base de 10 elementos
descrita, para obtener el vector de características de un objeto
cualquiera sólo son necesarios tres pasos: a) cálculo de su
función de curvatura, b) cálculo de su CFDFT, y c) proyección de
dicha CFDFT sobre los vectores de la base. Este proceso lleva un
tiempo aproximado de 0.07 s por objeto. Sobre la base de 10
elementos propuesta, cada vector de características ocupa
únicamente 40 bytes, dado que son necesarios 4 bytes para
representar cada número real en punto flotante.
Finalmente, los resultados de clasificación en
pruebas no supervisadas proporcionan errores inferiores al 10%, aún
trabajando con espacios muestrales cuyos objetos no formaron parte
de los seleccionados para construir la base. Estos datos permiten
que el agente autónomo pueda resolver sin supervisión la mayoría de
las situaciones que se le presentan, y sólo requiere la intervención
del usuario para resolver determinadas situaciones o nombrar los
distintos tipos de objetos. Todo ello posibilita que la exploración
del entorno sea rápida y prácticamente autónoma.
Claims (3)
1. Sistema de reconocimiento automático de
objetos por proyección en una base algebraica y controlado
remotamente por realidad virtual, caracterizado porque
consta de:
- a)
- un módulo de captura de imagen, que se encarga de capturar las imágenes del entorno y enviarlas a
- b)
- un módulo de procesamiento, dividido en dos submódulos internamente conectados por un enlace radio, lo que permite la autonomía del agente, así como el disponer de una gran capacidad computacional, de modo que una vez detectados los posibles objetos presentes en el entorno, esta información es transmitida a
- c)
- un módulo de usuario, en el cual se clasifican las entidades detectadas, que incorpora un equipo de realidad virtual que consta de gafas y guante para permitir al usuario que el control de la exploración sea lo más flexible e interactivo posible, y a través del cual el usuario envía sus órdenes al
- d)
- módulo de control de movimiento, que mueve al agente autónomo por el entorno y permite que sus cámaras se dirijan al punto seleccionado del mismo.
2. Sistema de reconocimiento automático de
objetos por proyección en una base algebraica y controlado
remotamente por realidad virtual, según reivindicación anterior,
caracterizado porque el proceso de reconocimiento de objetos
se subdivide en:
- a)
- una fase de detección de objetos, en la que se detectan sobre la imagen matricial de entrada las entidades de nivel de gris o color homogéneo;
- b)
- una fase de caracterización, en la que se extrae de forma adaptativa la función de curvatura asociada al contorno de los objetos detectados;
- c)
- una fase de representación, en la cual el objeto se representa mediante un vector de características cuyas componentes resultan del producto de la Transformada de Fourier de la función de curvatura extraída en b) por un conjunto de vectores previamente calculados y que representan una pseudo-base del conjunto de Transformadas de Fourier de las funciones de curvatura del conjunto de objetos;
- d)
- una fase de clasificación, en la que el vector de características permite identificar el objeto o, si el agente desconoce la naturaleza de éste, proceder a su identificación por el usuario.
3. Sistema de reconocimiento automático de
objetos por proyección en una base algebraica y controlado
remotamente por realidad virtual, según reivindicaciones
anteriores, caracterizado porque el proceso de representación
de objetos se subdivide en:
- a)
- Cálculo previo al proceso de reconocimiento de una base del conjunto de Transformadas de Fourier de las funciones de curvatura de los objetos, que se lleva a cabo sólo una vez y de manera externa al proceso de reconocimiento, no siendo necesario que en el proceso de construcción de la base entren todos los posibles objetos que posteriormente se reconocerán, aunque si es necesario que los empleados sean bastante significativos.
- b)
- Obtención de la Transformada de Fourier de la función de curvatura del objeto.
- c)
- Proyección de la Transformada de Fourier obtenida en b) sobre la base calculada en a), lo que origina un vector del mismo tamaño que la base, que será el vector de características empleado en el proceso de clasificación.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200202362A ES2214115B1 (es) | 2002-10-15 | 2002-10-15 | Sistema de reconocimiento automatico de objetos por proyeccion en una base algebraica y controlado remotamente por realidad virtual. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200202362A ES2214115B1 (es) | 2002-10-15 | 2002-10-15 | Sistema de reconocimiento automatico de objetos por proyeccion en una base algebraica y controlado remotamente por realidad virtual. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2214115A1 ES2214115A1 (es) | 2004-09-01 |
ES2214115B1 true ES2214115B1 (es) | 2005-07-16 |
Family
ID=32921734
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200202362A Expired - Fee Related ES2214115B1 (es) | 2002-10-15 | 2002-10-15 | Sistema de reconocimiento automatico de objetos por proyeccion en una base algebraica y controlado remotamente por realidad virtual. |
Country Status (1)
Country | Link |
---|---|
ES (1) | ES2214115B1 (es) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105334692B (zh) * | 2015-09-28 | 2018-06-29 | 联想(北京)有限公司 | 信息处理方法及电子设备 |
GB201906420D0 (en) | 2019-05-07 | 2019-06-19 | Farley Adam | Virtual augmented and mixed reality systems with physical feedback |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5495576A (en) * | 1993-01-11 | 1996-02-27 | Ritchey; Kurtis J. | Panoramic image based virtual reality/telepresence audio-visual system and method |
DE69423338T2 (de) * | 1993-09-06 | 2001-02-15 | Ouyo Keisoku Kenkyusho Tokio T | Verarbeitungs-und anzeigevorrichtung für zeitlich variable bilder |
JP3463379B2 (ja) * | 1994-10-19 | 2003-11-05 | カシオ計算機株式会社 | 画像制御装置及び画像制御方法 |
JPH1040381A (ja) * | 1996-07-22 | 1998-02-13 | Kubota Corp | 物体検査方法及び装置 |
US6016385A (en) * | 1997-08-11 | 2000-01-18 | Fanu America Corp | Real time remotely controlled robot |
AU1251101A (en) * | 1999-09-09 | 2001-04-10 | Rutgers, The State Of University Of New Jersey | Remote mechanical mirroring using controlled stiffness and actuators (memica) |
-
2002
- 2002-10-15 ES ES200202362A patent/ES2214115B1/es not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
ES2214115A1 (es) | 2004-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Guzov et al. | Human poseitioning system (hps): 3d human pose estimation and self-localization in large scenes from body-mounted sensors | |
US11436437B2 (en) | Three-dimension (3D) assisted personalized home object detection | |
KR102648770B1 (ko) | 홍채 식별을 위한 딥 뉴럴 네트워크 | |
Gallego et al. | Event-based vision: A survey | |
KR101645722B1 (ko) | 자동추적 기능을 갖는 무인항공기 및 그 제어방법 | |
US7912253B2 (en) | Object recognition method and apparatus therefor | |
US11715231B2 (en) | Head pose estimation from local eye region | |
Natarajan et al. | Hand gesture controlled drones: An open source library | |
CN102971768B (zh) | 姿势状态估计装置及姿势状态估计方法 | |
KR20190028493A (ko) | 각막 곡률을 이용한 홍채 경계 추정 | |
CN108135469A (zh) | 使用眼睛姿态测量的眼睑形状估计 | |
KR101769601B1 (ko) | 자동추적 기능을 갖는 무인항공기 | |
US10169880B2 (en) | Information processing apparatus, information processing method, and program | |
Cottone et al. | Motion sensors for activity recognition in an ambient-intelligence scenario | |
CN111091075A (zh) | 人脸识别方法、装置、电子设备及存储介质 | |
CN113614784A (zh) | 利用稀疏rgb-d slam和交互感知对对象进行检测、跟踪和三维建模 | |
WO2021204449A1 (en) | Method for eye gaze tracking | |
KR20220136806A (ko) | Npu, 엣지 디바이스 그리고 동작 방법 | |
CN110647782A (zh) | 三维人脸重建与多姿态人脸识别方法及装置 | |
CN114761997A (zh) | 目标检测方法、终端设备和介质 | |
WO2022261381A1 (en) | Localization processing service | |
Asadi-Aghbolaghi et al. | Supervised spatio-temporal kernel descriptor for human action recognition from RGB-depth videos | |
Glandon et al. | 3d skeleton estimation and human identity recognition using lidar full motion video | |
US20180182094A1 (en) | Proprioception training method and apparatus | |
ES2214115B1 (es) | Sistema de reconocimiento automatico de objetos por proyeccion en una base algebraica y controlado remotamente por realidad virtual. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
EC2A | Search report published |
Date of ref document: 20040901 Kind code of ref document: A1 |
|
FG2A | Definitive protection |
Ref document number: 2214115B1 Country of ref document: ES |
|
FD2A | Announcement of lapse in spain |
Effective date: 20221026 |