ES2883277T3 - Cambio adaptativo entre una estimación de pose de cámara inercial asistida con visión y una estimación de pose de cámara basada solo en visión - Google Patents

Cambio adaptativo entre una estimación de pose de cámara inercial asistida con visión y una estimación de pose de cámara basada solo en visión Download PDF

Info

Publication number
ES2883277T3
ES2883277T3 ES13730774T ES13730774T ES2883277T3 ES 2883277 T3 ES2883277 T3 ES 2883277T3 ES 13730774 T ES13730774 T ES 13730774T ES 13730774 T ES13730774 T ES 13730774T ES 2883277 T3 ES2883277 T3 ES 2883277T3
Authority
ES
Spain
Prior art keywords
target
pose
vision
contribution
inertial sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13730774T
Other languages
English (en)
Inventor
Arvind Ramanandan
Christopher Brunner
Mahesh Ramachandran
Abhishek Tyagi
Daniel Knoblauch
Murali Ramaswamy Chari
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qualcomm Inc
Original Assignee
Qualcomm Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qualcomm Inc filed Critical Qualcomm Inc
Application granted granted Critical
Publication of ES2883277T3 publication Critical patent/ES2883277T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/78Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic or electromagnetic waves, or particle emission, not having a directional significance, are being received using electromagnetic waves other than radio waves
    • G01S3/782Systems for determining direction or deviation from predetermined direction
    • G01S3/785Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system
    • G01S3/786Systems for determining direction or deviation from predetermined direction using adjustment of orientation of directivity characteristics of a detector or detector system to give a desired condition of signal derived from that detector or detector system the desired condition being maintained automatically
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

Un método que comprende: realizar el seguimiento (202) de una pose relativa entre una cámara (108) y un objetivo (101) utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión, estando basadas las mediciones basadas en visión en imágenes del objetivo (101) capturado por la cámara (108); en donde la contribución de las mediciones de sensor inercial es una contribución ponderada y la contribución de las mediciones basadas en visión es una contribución ponderada; detectar (204) movimiento del objetivo (101); y reducir (208) la contribución ponderada de las mediciones de sensor inercial para realizar el seguimiento de la pose relativa entre la cámara (108) y el objetivo (101) cuando se detecta movimiento del objetivo (101); el método caracterizado por que la ponderación de la contribución de las mediciones de sensor inercial se varía en función de una confianza en la detección de movimiento del objetivo.

Description

DESCRIPCIÓN
Cambio adaptativo entre una estimación de pose de cámara inercial asistida con visión y una estimación de pose de cámara basada solo en visión
Referencia cruzada con solicitud(es) relacionada(s)
La presente solicitud reivindica prioridad de la solicitud de los EE.UU. n.° 13/523.634, presentada el 14 de junio de 2012, y titulada "Adaptive Switching Between Vision Aided INS and Vision Only Pose", la cual se asigna al cesionario de la misma.
Antecedentes
Antecedentes del campo
Las realizaciones de la materia objeto descrita en el presente documento están relacionadas con la determinación de la pose y, más particularmente, el uso de técnicas basadas en la visión para la determinación de la pose.
Antecedentes relevantes
En aplicaciones de tipo realidad aumentada (RA), se determina y se realiza un seguimiento de la pose (traslación y actitud) de la cámara con respecto al entorno de la imagen. En un enfoque de pose de solo visión, la pose de la cámara con respecto a un objetivo rico en características en el entorno se determina y se realiza el seguimiento utilizando imágenes capturadas, por ejemplo, fotogramas de vídeo. La pose de solo visión se estima, por ejemplo, en cada fotograma y se utilizan modelos estadísticos para predecir la pose en el siguiente fotograma, proporcionando un punto de inicialización para el algoritmo de refinamiento de pose.
Los dispositivos modernos, tales como los teléfonos móviles, suelen estar equipados con sensores inerciales que son capaces de medir la velocidad de cambio en la pose del dispositivo en relación con el fotograma inercial, que se conoce como sistema de navegación inercial (INS, por sus siglas en inglés). La información proporcionada por el INS se puede utilizar para mejorar estimaciones de la pose con solo visión de la cámara en relación con el objetivo porque la pose absoluta, es decir, la pose del dispositivo con respecto al fotograma inercial, y las poses relativas, es decir, la pose de la cámara con respecto a un objetivo, se diferencian por una transformación constante. La combinación de pose de solo visión e INS se denomina generalmente INS asistida por visión (VINS, por sus siglas en inglés).
El enfoque de VINS utiliza más información que la pose de solo visión o el INS por separado y, por lo tanto, en general, el VINS funciona mejor que cualquier método solo. Sin embargo, en determinadas circunstancias, el enfoque de VINS funciona mal en comparación con el enfoque de solo visión. Además, el rendimiento del enfoque de VINS puede degradarse en función de condiciones externas al dispositivo móvil y, por tanto, la degradación puede ser impredecible.
El documento US 6.064.749 A describe sistemas, métodos y productos de programas informáticos que tienen la precisión de registro de los sistemas de seguimiento basados en visión y la solidez de los sistemas de seguimiento magnético. El seguimiento por vídeo de puntos de referencia se utiliza como método principal para determinar la posición y orientación de la cámara, pero se mejora mediante el movimiento y la orientación magnéticos u de otras formas de seguimiento físico de la cámara. Un seguidor físico reduce el área de búsqueda de puntos de referencia en las imágenes, lo que acelera el proceso de búsqueda de puntos de referencia. La información del seguidor físico también se puede utilizar para seleccionar una de varias soluciones de una ecuación no lineal resultante del seguidor basado en visión. El seguidor físico también puede actuar como seguidor principal si el analizador de imágenes no puede ubicar suficientes puntos de referencia para proporcionar un registro adecuado, evitando así la pérdida completa del registro.
El documento US 2011/206236 A1 desvela un sistema de guiado automático para un fotograma móvil. El sistema de guiado automático tiene un sistema de imágenes dispuesto en el fotograma; un sistema de detección de movimiento acoplado al fotograma y configurado para detectar el movimiento del fotograma; y un procesador conectado de forma comunicable al sistema de visión para recibir datos de imagen del sistema de visión y generar flujo óptico a partir de los datos de imagen del fotograma de alrededor. El procesador está conectado de forma comunicable al sistema de detección de movimiento para recibir datos de movimiento del fotograma desde el sistema de detección de movimiento. El procesador está configurado para determinar, desde la corrección de flujo óptico denso asistido cinemáticamente hasta errores cinemáticos de fotograma, debido a errores en los datos de movimiento del sistema de detección de movimiento.
Resumen
De acuerdo con la presente invención, se proporciona un método tal como se establece en la reivindicación 1, un dispositivo móvil como se establece en la reivindicación 10 y un medio legible por ordenador como se establece en la reivindicación 15. Las realizaciones de la invención se reivindican en las reivindicaciones dependientes.
Un dispositivo móvil realiza un seguimiento de una pose relativa entre una cámara y un objetivo utilizando el sistema de navegación inercial asistida por visión (VINS), que incluye una contribución de las mediciones del sensor inercial y una contribución de las mediciones basadas en visión. Cuando el dispositivo móvil detecta el movimiento del objetivo, se reduce o elimina la contribución de las mediciones del sensor inercial para realizar un seguimiento de la pose relativa entre la cámara y el objetivo. El movimiento del objetivo puede detectarse comparando las mediciones de solo visión de las imágenes capturadas y las mediciones basadas en la inercia para determinar si existe una discrepancia que indique que el objetivo se ha movido. De forma adicional o alternativa, el movimiento del objetivo puede detectarse utilizando proyecciones de vectores de características extraídas de imágenes capturadas.
En una implementación, un método incluye realizar el seguimiento de una pose relativa entre una cámara y un objetivo utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión; detectar movimiento del objetivo y reducir la contribución de las mediciones del sensor inercial para realizar uel seguimiento de la pose relativa entre la cámara y el objetivo cuando se detecta el movimiento del objetivo.
En una implementación, un dispositivo móvil incluye una cámara capaz de capturar imágenes de un objetivo; sensores inerciales y un procesador acoplado para recibir imágenes capturadas del objetivo y acoplado para recibir señales de los sensores inerciales, el procesador configurado produce mediciones basadas en la visión utilizando las imágenes capturadas del objetivo y las mediciones del sensor inercial utilizando las señales de los sensores inerciales, estando configurado el procesador para realizar el seguimiento de una pose relativa entre la cámara y el objetivo utilizando una contribución de las mediciones del sensor inercial y una contribución de las mediciones basadas en visión, estando configurado adicionalmente el procesador para detectar el movimiento del objetivo y reducir la contribución de las mediciones del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo cuando se detecta movimiento del objetivo.
En una implementación, un dispositivo móvil incluye medios para realizar el seguimiento de una pose relativa entre una cámara y un objetivo utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión; medios para detectar el movimiento del objetivo y medios para reducir la contribución de las mediciones del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo cuando se detecta movimiento del objetivo.
En una implementación, un medio legible por ordenador no transitorio que incluye código de programa almacenado en el mismo, incluye código de programa para realizar el seguimiento de una pose relativa entre una cámara y un objetivo utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión; código de programa para detectar el movimiento del objetivo y código de programa para reducir la contribución de las mediciones del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo cuando se detecta movimiento del objetivo.
Breve descripción del dibujo
La figura 1 ilustra un dispositivo móvil capaz de detectar y realizar el seguimiento de un objetivo cambiando de forma adaptativa entre un enfoque de seguimiento de VINS y un enfoque de seguimiento de solo visión.
La figura 2 ilustra una vista superior de un objetivo fijo y un dispositivo móvil en movimiento en diferentes momentos y poses generadas utilizando un enfoque de solo visión y un enfoque de VINS.
La figura 3 es similar a la figura 2, pero ilustra una vista superior de un dispositivo móvil en movimiento y un objetivo en movimiento en diferentes momentos y poses generadas utilizando un enfoque de solo visión y un enfoque de VINS.
La figura 4 es un diagrama de flujo que ilustra un método de detección y seguimiento de un objetivo cambiando de forma adaptativa entre un enfoque de VINS cuando el objetivo se está fijo y un enfoque de solo visión cuando el objetivo se está moviendo.
La figura 5 es un diagrama de flujo que ilustra un método para determinar si un objetivo se está moviendo utilizando al menos una parte de las poses determinadas por las mediciones basadas en la visión y las mediciones del sensor inercial.
La figura 6 es un diagrama de flujo que ilustra otro método para determinar si un objetivo se está moviendo utilizando vectores de características proyectadas.
La figura 7 es un diagrama de bloques del dispositivo móvil capaz de detectar y realizar un seguimiento de un objetivo cambiando de forma adaptativa entre un enfoque de VINS y un enfoque de solo visión.
Descripción detallada
La figura 1 ilustra un dispositivo móvil 100 capaz de detectar y realizar el seguimiento de un objetivo 101 cambiando de forma adaptativa entre un enfoque de VINS cuando el objetivo 101 está fijo y un enfoque de solo visión cuando el objetivo se está moviendo. En algunas implementaciones, el dispositivo móvil 100 puede reducir sustancialmente las contribuciones de las mediciones del sensor inercial cuando se detecta movimiento del objetivo 101 en lugar de eliminar por completo las contribuciones de las mediciones del sensor inercial.
Tal como se utiliza en el presente documento, un dispositivo móvil se refiere a cualquier dispositivo electrónico portátil, tal como un teléfono móvil u otro dispositivo de comunicación inalámbrico, dispositivo de sistema de comunicación personal (PCS, por sus siglas en inglés), dispositivo de navegación personal (PND, por sus siglas en inglés), asistente digital personal (PDA, por sus siglas en inglés) u otro dispositivo móvil adecuado, incluidos dispositivos de comunicación inalámbricos, ordenadores, ordenadores portátiles, tabletas, etc., que sean capaces de capturar imágenes del entorno, que pueden utilizarse en el seguimiento basado en visión o VINS. El dispositivo móvil puede ser capaz de recibir comunicaciones inalámbricas y/o señales de navegación, tales como señales de posicionamiento de navegación. El término "dispositivo móvil" también incluye los dispositivos que se comunican con un dispositivo de navegación personal (DNP) como, por ejemplo, mediante conexión inalámbrica, infrarroja, por cable de corto alcance u otra conexión, independientemente de si la recepción de la señal satelital o la recepción de datos de asistencia y/o el procesamiento relacionado con la posición se produce en el dispositivo o en el DNP. El dispositivo móvil 100 incluye una pantalla 102, que puede ser una pantalla táctil. El dispositivo móvil 100 incluye una cámara 108 orientada hacia adelante para obtener imágenes del entorno tal como el objetivo 101, que se ilustra como que se muestra en la pantalla 102. Las imágenes o fotogramas producidos por la cámara 108 se utilizan por el módulo de pose de visión 112 para generar una pose basada en visión por ordenador. Debe entenderse que la cámara 108 puede capturar imágenes y/o fotogramas de vídeo, y que los términos imagen y fotograma se utilizan aquí de forma intercambiable. El dispositivo móvil 100 también incluye sensores inerciales 110, tales como acelerómetros, giroscopios o similares, que pueden utilizarse para ayudar a determinar la pose del dispositivo móvil 100. La emisión de los sensores inerciales 110 se utiliza por un módulo de sistema sensorial inercial (INS, por sus siglas en inglés) 114 para determinar un cambio de pose del dispositivo móvil y puede producir una pose de INS. El dispositivo móvil 100 incluye además un módulo de VINS 116 que combina la pose del módulo de pose basada en visión 112 y la pose del módulo del INS 114. Si bien el módulo del INS 114 y el módulo del VINS 116 se ilustran por separado, debe entenderse que el módulo del INS 114 puede ser parte del módulo del VINS 116. En funcionamiento, el dispositivo móvil 100 utiliza el módulo del VINS 116 para determinar la pose con respecto al objetivo 101 cuando el objetivo 101 está fijo, es decir, en relación con el fotograma de referencia inercial, y cambia al módulo de pose basada en visión 112 para determinar la pose relativa al objetivo 101 cuando el objetivo 101 se está moviendo.
El dispositivo móvil 100 también puede incluir otras características que no son relevantes para la presente divulgación, tales como un altavoz 104 y un micrófono 106, por ejemplo, si el dispositivo móvil 100 es un teléfono móvil.
La figura 2 ilustra una vista superior de un objetivo 101 fijo y un dispositivo móvil 100 en movimiento en el primer tiempo t1 y un segundo tiempo t2, tal como se identifica mediante los números de referencia 100t1 y 100t2. En el primer tiempo t-i, el módulo de pose basada en visión 112 del dispositivo móvil 100 produce una primera pose C(t-i) con respecto al objetivo 101. En el segundo tiempo t2, el módulo de pose basada en visión 112 del dispositivo móvil 100 genera una segunda pose C(t2) con respecto al objetivo 101. Entre el primer tiempo t1 y el segundo tiempo t2, el dispositivo móvil 100 se mueve como se ilustra por la trayectoria G(ti, t2). El módulo del INS 114 utiliza señales maestreadas de los sensores inerciales 110 para medir el cambio en la posición G(ti, t2) del dispositivo móvil. Como se ilustra con la línea discontinua en la figura 2, cuando se combinan el cambio en la posición G(t1, t2) y la primera pose C(ti), es decir, G(ti,t2) * C(t1), lo cual se puede realizar por el módulo del INS 114 o el módulo del VINS 116, el resultado es idealmente el mismo que el de la segunda pose C(t2). El módulo del VINS 116 combina los resultados de la pose C(t2) del módulo de pose basada en visión 112 y la pose G(t1, t2) * C(ti) resultante del módulo del INS 114, por ejemplo, utilizando un filtro de Kalman extendido, para producir una pose final. Debe entenderse que el uso de un filtro de Kalman extendido es simplemente uno de los posibles estimadores de pose y que, si se desea, se pueden utilizar otros estimadores de pose.
La figura 3 es similar a la figura 2, pero ilustra una vista superior de un dispositivo móvil 100 en movimiento y un objetivo 101 en movimiento en el primer tiempo t1 y el segundo tiempo t2, tal como se identifica mediante los números de referencia. El módulo de pose basada en visión 112 estima la pose relativa entre el objetivo 101 y la cámara 108, mientras que el módulo del INS 114 muestrea señales de los sensores inerciales 110 para medir la velocidad de cambio de pose entre los sensores inerciales 110 y el fotograma inercial. Si el objetivo 101 está fijo con respecto al fotograma inercial, las mediciones del sensor inercial pueden, en principio, seguir la velocidad de cambio de la pose de la cámara 108 con respecto al objetivo 101, tal como se ilustra en la figura 2. Sin embargo, si el objetivo 101 se mueve, entonces el movimiento del objetivo 101 afecta al módulo de pose basada en visión 112, pero no al módulo del INS 114. Así, tal como se ilustra en la figura 3, debido a que el objetivo 101 se ha movido entre el tiempo t1 y el tiempo t2, el módulo de pose basada en visión 112 producirá una pose C'(t2), que es distinta de la pose C(t2) generada para un objetivo 101 fijo tal como se muestra en la figura 2. El módulo del INS 114, sin embargo, utiliza solo señales muestreadas de los sensores inerciales 110 y, por lo tanto, produce el cambio de pose G(t1, t2) del dispositivo móvil, que es independiente del cambio de posición del objetivo 101. Tal como se ilustra por la línea discontinua en la figura 3, la pose resultante G(t1, t2) * C(ti) del módulo del INS 114 es relativa a la posición del objetivo 101 en el tiempo t1 y, por lo tanto, será diferente a la pose basada en visión C'(t2), que es relativa al objetivo 101 en el tiempo t2 después de haberse movido. El módulo del VINS 116 combina los resultados de la pose C'(t2) del módulo de pose basada en visión 112 y la pose G(t1, t2) * C ti) resultante del módulo del INS 114, para producir una pose combinada 118 que es imprecisa. Por tanto, se puede observar que cuando el objetivo 101 se está moviendo, la pose producida por el módulo de pose basada en visión 112 por sí mismo es más precisa que la pose producida por el módulo del VINS 116. Por consiguiente, cuando el objetivo 101 se está moviendo con respecto al sistema inercial, la pose del módulo de pose basada en visión 112 debería utilizarse como la pose más precisa.
La figura 4 es un diagrama de flujo que ilustra un método de detección y seguimiento de un objetivo cambiando de forma adaptativa entre un enfoque de VINS cuando el objetivo se está fijo y un enfoque de solo visión cuando el objetivo se está moviendo. Tal como se ilustra, se realiza un seguimiento de una pose relativa entre una cámara y un objetivo utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión (202). En otras palabras, el VINS se realiza para realizar el seguimiento de la pose entre la cámara y el objetivo. El VINS abordado se describe en general anteriormente haciendo referencia a las figuras 2 y 3 y es bien conocido por los expertos en la técnica. En general, el enfoque de VINS puede estimar una pose combinando la pose determinada utilizando técnicas basadas en visión y una pose generada utilizando sensores inerciales. Si se desea, las poses de las diferentes técnicas pueden ponderarse para generar la pose de VINS estimada. A modo de ejemplo, utilizando los parámetros de las figuras 2 y 3, la pose del VINS se puede determinar de la siguiente manera, donde W1 y W2 son factores de ponderación ajustables.
Figure imgf000005_0001
Si el objetivo no se mueve (204), continúa utilizándose el enfoque del VINS (206). Por otro lado, si se determina que el objetivo se está moviendo (204), se reduce la contribución de mediciones del sensor inercial para seguir la pose relativa entre la cámara y el objetivo (208). A modo de ejemplo, la contribución de las mediciones del sensor inercial puede eliminarse de modo que solo se utilice el seguimiento basado en visión cuando se detecte movimiento del objetivo. El uso de seguimiento basado en visión se describe en general anteriormente haciendo referencia a las figuras 2 y 3 y es bien conocido por los expertos en la técnica. Debe entenderse que la presente divulgación contempla reducir sustancialmente, pero no necesariamente eliminar completamente, la contribución de las mediciones del sensor inercial, por ejemplo, ajustando los factores de ponderación en la ecuación 1 para eliminar un efecto significativo de la influencia de la pose generada utilizando sensores inerciales. La ponderación se varía en función de la confianza en la detección de movimiento del objetivo. La variación en la confianza puede ser el resultado de, por ejemplo, la calidad de los fotogramas de la imagen, el ruido, etc. Por ejemplo, si la detección de movimiento indica que el objetivo 101 se está moviendo, pero con una confianza muy baja, el peso de la pose basada en la inercia, por ejemplo, w1 en la ecuación 1, puede ser mayor que 0, por ejemplo, w1 = 0,3. Si, por otro lado, si la confianza en la detección es alta, entonces el peso de la pose basada en la inercia puede ser más cercano o igual a cero. Cuando se detecta que el movimiento del objetivo se ha detenido, el dispositivo móvil puede volver al enfoque de VINS, en el que se utiliza la contribución de las mediciones del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo.
Además, tal como se ilustra, la detección del movimiento del objetivo (204) puede realizarse solo cuando se determina que la cámara está fija (203), es decir, ignorando los pequeños movimientos causados por la fluctuación de la mano o similar. Se puede determinar que la cámara está fija o en movimiento basándose en mediciones de los sensores inerciales 110. Por ejemplo, la desviación estándar de la norma de mediciones de los sensores inerciales 110, que pueden ser, por ejemplo, giroscopios, puede calcularse durante un período de tiempo predeterminado y si la desviación estándar está por encima de un cierto umbral, entonces se puede concluir que el dispositivo móvil está en movimiento. Si se determina que el dispositivo móvil 100 se está moviendo, entonces continúa utilizándose el VINS (206). Si se determina que el dispositivo móvil 100 está fijo, entonces el dispositivo móvil 100 puede proceder a evaluar si el objetivo se está moviendo (204) tal como se ha analizado anteriormente. Determinar que el dispositivo móvil 100 está fijo resulta útil ya que las estimaciones de pose basadas en visión son más precisas en general cuando el dispositivo móvil está fijo, ya que se mitigan los artefactos de movimiento como el desenfoque por movimiento y el efecto de persiana enrollable. Por tanto, la robustez aumenta y existe una menor probabilidad de detección falsa del movimiento del objetivo.
Hay varias formas de detectar el movimiento del objetivo (204). Tal como se ha analizado anteriormente, cuando el objetivo 101 está fijo, la estimación de pose producida utilizando mediciones de sensor inercial será aproximadamente la misma que la estimación de pose producida utilizando técnicas basadas en visión. Por otro lado, cuando el objetivo 101 se mueve, el movimiento del objetivo afectará a la estimación de pose producida utilizando técnicas basadas en visión, pero no a la estimación de pose producida utilizando mediciones de sensor inercial. Por tanto, la discrepancia en las estimaciones de pose o en determinados cambios en las poses puede utilizarse para determinar si el objetivo 101 está fijo o en movimiento.
La figura 5 es un diagrama de flujo que ilustra un método para determinar si un objetivo se está moviendo utilizando al menos una parte de las poses determinadas por las mediciones basadas en visión y las mediciones del sensor inercial. Tal como se ilustra, se determina al menos una parte de una pose basada en visión para la cámara con respecto al objetivo (302). A modo de ejemplo, si se desea, solo se puede determinar la actitud basada en visión, por ejemplo, del módulo de pose basada en visión 112, detectando de este modo la rotación del objetivo con respecto a la cámara. De modo alternativo, se puede utilizar el vector de traslación, en lugar de la actitud. Un cambio en al menos una parte de la pose de la cámara basada en la inercia se determina basándose en mediciones del sensor inercial (304). De nuevo, si se desea, solo se puede determinar la actitud basada en la inercia, por ejemplo, del módulo del INS 114. De modo alternativo, se puede utilizar el vector de traslación, en lugar de la actitud. El cambio en al menos una parte de la pose basada en la inercia puede determinarse, por ejemplo, integrando las señales de muestras de los sensores inerciales 110 durante una ventana de tiempo predeterminada. La cantidad de tiempo, es decir, el intervalo de integración, debe ser lo suficientemente pequeño como para limitar los efectos de la integración de los sesgos del sensor y los componentes de la gravedad que resultan de los errores de actitud, pero lo suficientemente largo para que los efectos del movimiento del objetivo sean de forma detectable distintos del ruido de fondo del sensor. Debe entenderse que el uso del vector de traslación y la actitud para detectar movimiento es matemáticamente equivalente al uso de aceleración de traslación, velocidad de traslación, aceleración angular y velocidad angular.
La al menos una parte de la pose basada en visión y el cambio en la al menos una parte de la pose basada en la inercia se utilizan para detectar el movimiento del objetivo (306). En un ejemplo, la pose basada en visión puede compararse con una pose basada en la inercia, determinada utilizando el cambio en la pose basada en la inercia, que se compara con un umbral para determinar si se ha movido el objetivo. En otro ejemplo, un cambio en la pose basada en la inercia se puede comparar con un cambio en la pose basada en visión, determinada utilizando poses basadas en visión múltiple, que se compara con un umbral para determinar si se ha movido el objetivo. Las diferencias entre las poses o los cambios en las poses pueden determinarse como la norma de la diferencia de pose o el cambio de pose escalada para el ruido de medición del sensor de inercia. Los umbrales utilizados deben ser lo suficientemente pequeños para detectar movimientos pequeños, pero lo suficientemente grandes como para excluir movimientos involuntarios, como el temblor de la mano.
En el ejemplo en el que la pose basada en visión se compara con una pose basada en la inercia, se determina al menos una parte de una pose basada en la inercia utilizando el cambio en al menos la parte de la pose basada en la inercia. A modo de ilustración, el cambio en una actitud basada en la inercia puede combinarse con una actitud basada en la visión anterior para determinar una actitud basada en la inercia actual. Se puede determinar una diferencia entre al menos la parte de la pose basada en visión y al menos la parte de la pose basada en la inercia y compararla con un umbral para determinar que se ha movido el objetivo.
En el ejemplo en el que el cambio en la pose basada en la inercia se compara con un cambio en la pose basada en visión, se puede determinar un cambio en al menos una parte de la pose basada en visión basándose en la al menos una parte de la pose basada en visión y la al menos una parte de una pose anterior basada en visión. A modo de ilustración, una primera actitud basada en visión puede compararse con una segunda actitud basada en visión para determinar el cambio en la actitud basada en visión. Se puede determinar una diferencia entre el cambio en la al menos una parte de la pose basada en la inercia y el cambio en la al menos una parte de la pose basada en visión y compararlo con un umbral para determinar si se ha movido el objetivo.
De modo adicional o alternativo, el movimiento del objetivo 101 puede detectarse proyectando vectores de características en las imágenes capturadas cuando se usa un enfoque de VINS estrechamente acoplado. La figura 6 es un diagrama de flujo que ilustra el uso de vectores de características proyectadas para detectar el movimiento del objetivo. Tal como se ilustra, las características se extraen de las imágenes capturadas (402). Las características se pueden extraer utilizando características robustas aceleradas (SURF, por sus siglas en inglés), transformación de características invariantes de escala (SIFT, por sus siglas en inglés) o cualquier otra técnica de extracción de características deseada. La proyección de los vectores de características se predice basándose en las mediciones de los sensores inerciales (404). Las proyecciones predichas de los vectores de características se comparan con las características extraídas en una imagen capturada posteriormente (406). La diferencia, que puede ser una diferencia promedio u otra métrica estadística, se compara con un umbral para determinar si el objetivo se está moviendo (408).
La figura 7 es un diagrama de bloques del dispositivo móvil 100 capaz de detectar y realizar el seguimiento de un objetivo 101 cambiando de forma adaptativa entre un enfoque de VINS y un enfoque de solo visión cuando el objetivo se está moviendo utilizando el proceso descrito. El dispositivo móvil 100 incluye la cámara 108, que captura imágenes del objetivo 101, por ejemplo, como fotogramas de vídeo, y sensores inerciales 110. Los sensores inerciales 110 pueden ser, por ejemplo, acelerómetros, giroscopios o similares. El dispositivo móvil 100 puede incluir una interfaz de usuario 120 que incluye la pantalla 102 y un teclado 122 u otro dispositivo de entrada a través del cual el usuario puede introducir información en el dispositivo móvil 100. La interfaz de usuario 120 también puede incluir el altavoz 104 y el micrófono 106, por ejemplo, cuando el dispositivo móvil es un teléfono móvil o similar. Por supuesto, el dispositivo móvil 100 puede incluir otros elementos no relacionados con la presente divulgación.
El dispositivo móvil 100 también incluye una unidad de control 150 que está conectada y se comunica con la cámara 108 y los sensores inerciales 110. La unidad de control 150 se puede proporcionar por un bus 150b, un procesador 152 y la memoria asociada 154, y puede incluir hardware 156, software 158 y firmware 160. La unidad de control 150 puede incluir un módulo de pose basada en visión 112, que determina la pose de la cámara 108 y, por lo tanto, el dispositivo móvil 100, con respecto a un objetivo utilizando imágenes capturadas por los sensores inerciales 110. La unidad de control 150 puede incluir además un módulo de INS 114, que determina el cambio de pose del dispositivo móvil basándose en señales muestreadas de los sensores inerciales 110. El módulo de INS 114 puede determinar la pose del dispositivo móvil con respecto al objetivo utilizando el cambio de pose determinado a partir de los sensores inerciales y una pose previamente determinada del dispositivo móvil a partir del módulo de pose basada en visión 112. La unidad de control 150 además del módulo del VINS 116 que combina la pose del módulo de pose basada en visión 112 y la pose (o cambio de pose) del módulo del INS 114. La unidad de control 150 incluye adicionalmente un módulo de detección de movimiento del objetivo 162, que detecta si el objetivo se está moviendo como se ha analizado anteriormente.
Las diversas unidades de procesamiento, por ejemplo, el módulo de pose basada en visión 112, el módulo del INS 114, el módulo del VINS 116 y el módulo de detección de movimiento del objetivo 162, se ilustran por separado entre sí y del procesador 152 para mayor claridad, pero pueden combinarse juntos, por ejemplo, el módulo del INS 114 puede ser parte del módulo del VINS 116 y/o parte del procesador 152 o implementarse en el procesador basándose en instrucciones en el software 158 que se ejecuta en el procesador 152. Se comprenderá tal como se utiliza en el presente documento que el procesador 152, y/o las diversas unidades de procesamiento, pueden, pero no necesariamente, incluir uno o más microprocesadores, procesadores integrados, controladores, circuito integrado para aplicaciones específicas (ASIC, por sus siglas en inglés), procesadores de señales digitales (DSP, por sus siglas en inglés) y similares. El término procesador está destinado a describir las funciones implementadas por el sistema en lugar de hardware específico. Además, tal como se utiliza en el presente documento, el término "memoria" se refiere a cualquier tipo de medio de almacenamiento informático, incluida la memoria a largo plazo, a corto plazo u otra memoria asociada con el dispositivo móvil, y no se limita a ningún tipo particular de memoria o número de memorias o tipo de medio en el que se almacena la memoria.
Las metodologías descritas en el presente documento pueden implementarse por diversos medios dependiendo de la aplicación. Por ejemplo, estas metodologías pueden implementarse en hardware 156, firmware 160, software 158 o cualquier combinación de los mismos. Para una implementación de hardware, las unidades de procesamiento se pueden implementar dentro de uno o más circuitos integrados para aplicaciones específicas (ASIC), procesadores de señales digitales (DSP), dispositivos de procesamiento de señales digitales (DSPD, por sus siglas en inglés), dispositivos lógicos programables (PLD, por sus siglas en inglés), matrices de puertas lógicas programable en campo (FPGA, por sus siglas en inglés), procesadores, controladores, microcontroladores, microprocesadores, dispositivos electrónicos, otras unidades electrónicas diseñadas para realizar las funciones descritas en el presente documento, o una combinación de los mismos.
Para una implementación de firmware y/o software, se pueden implementar las metodologías con módulos (por ejemplo, procedimientos, funciones, etc.) que realizan las funciones descritas en el presente documento. Se puede utilizar cualquier medio legible por máquina que incorpore de forma tangible instrucciones para implementar las metodologías descritas en el presente documento. Por ejemplo, los códigos de software pueden almacenarse en la memoria 154 y ser ejecutados por el procesador 152. La memoria puede implementarse dentro o fuera del procesador 152. Si se implementa en firmware y/o software, las funciones pueden almacenarse como una o más instrucciones o códigos en un medio legible por ordenador. Los ejemplos incluyen medios legibles por ordenador no transitorios codificados con una estructura de datos y medios legibles por ordenador codificados con un programa de ordenador. Los medios legibles por ordenador incluyen medios físicos de almacenamiento de ordenador. Un medio de almacenamiento puede ser cualquier medio disponible al que se pueda acceder mediante un ordenador. A modo de ejemplo, y no de limitación, dichos medios legibles por ordenador pueden comprender RAM, ROM, EEPROM, CD-ROM u otro almacenamiento en disco óptico, almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que pueda utilizarse para almacenar código de programa deseado en forma de instrucciones o estructuras de datos y al que se puede acceder mediante un ordenador; disco (disk) y disco (disc), tal como se emplea en el presente documento, incluye disco compacto (CD), disco láser, disco óptico, disco versátil digital (DVD), disquete y disco Blu-ray donde los discos (disks) generalmente reproducen datos magnéticamente, mientras que los discos (discs) reproducen datos ópticamente con láser. Las combinaciones de los anteriores también deben incluirse dentro del alcance de los medios legibles por ordenador.
En una implementación, el dispositivo móvil incluye un medio para realizar el seguimiento de una pose relativa entre una cámara y un objetivo utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión, que puede ser, por ejemplo, el módulo del VINS 116 o el procesador 152. El dispositivo móvil puede incluir además un medio para detectar movimiento del objetivo, que puede ser el módulo de detección de movimiento del objetivo 162 o el procesador 152. El dispositivo móvil puede incluir además un medio para reducir la contribución de mediciones de sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo cuando se detecta el movimiento del objetivo, que puede ser el módulo del VINS 116, el módulo de pose basada en visión 112, o el procesador 152. Además, los medios para detectar movimiento del objetivo pueden incluir los medios para determinar al menos una parte de una pose basada en visión de la cámara en relación con el objetivo, que puede ser, por ejemplo, el módulo de pose basada en visión 112 o el procesador 152; medios para determinar un cambio en al menos una parte de una pose basada en la inercia de la cámara en base a las mediciones del sensor de inercia, que puede ser el módulo del INS 114 o el procesador 152, y un medio para utilizar al menos la parte de la pose basada en visión y el cambio en al menos la parte de la pose basada en la inercia para detectar el movimiento del objetivo, que puede ser, por ejemplo, el módulo de detección de movimiento del objetivo 162 o el procesador 152. El dispositivo móvil puede incluir adicionalmente medios para determinar que la cámara está fija antes de detectar el movimiento del objetivo, que puede ser, por ejemplo, los sensores de inercia 110, el módulo del INS 114 o el procesador 152. Además, los medios para detectar el movimiento del objetivo pueden incluir los medios para utilizar proyecciones de vectores de características basadas en las mediciones del sensor inercial, que pueden ser, por ejemplo, el módulo de pose basado en visión 112, el módulo del INS 114, el módulo de detección de movimiento del objetivo 162 o el procesador 152.
Aunque la presente invención se ilustra en relación con realizaciones específicas con fines de instrucción, la presente invención no se limita a las mismas. Pueden realizarse diversas adaptaciones y modificaciones sin alejarse del alcance de la invención.

Claims (19)

REIVINDICACIONES
1. Un método que comprende:
realizar el seguimiento (202) de una pose relativa entre una cámara (108) y un objetivo (101) utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión, estando basadas las mediciones basadas en visión en imágenes del objetivo (101) capturado por la cámara (108);
en donde la contribución de las mediciones de sensor inercial es una contribución ponderada y la contribución de las mediciones basadas en visión es una contribución ponderada;
detectar (204) movimiento del objetivo (101); y
reducir (208) la contribución ponderada de las mediciones de sensor inercial para realizar el seguimiento de la pose relativa entre la cámara (108) y el objetivo (101) cuando se detecta movimiento del objetivo (101);
el método caracterizado por que la ponderación de la contribución de las mediciones de sensor inercial se varía en función de una confianza en la detección de movimiento del objetivo.
2. El método de la reivindicación 1, en donde reducir (208) la contribución de las mediciones del sensor inercial comprende eliminar la contribución de las mediciones del sensor inercial, en donde se realiza el seguimiento de la pose relativa entre la cámara (108) y el objetivo (101) utilizando solo mediciones basadas en visión cuando se detecta (204) el movimiento del objetivo (101).
3. El método de la reivindicación 1, en donde detectar (204) movimiento del objetivo (101) comprende:
determinar (302) al menos una parte de una pose basada en visión de la cámara (108) con respecto al objetivo (101);
determinar (304) un cambio en al menos una parte de una pose basada en la inercia de la cámara (108) en base a mediciones del sensor de inercia; y
utilizar (306) la al menos la parte de la pose basada en visión y el cambio en la al menos la parte de la pose basada en la inercia para detectar (204) movimiento del objetivo (101).
4. El método de la reivindicación 2, en donde:
la al menos la parte de la pose basada en visión comprende una actitud basada en visión;
el cambio en la al menos la parte de la pose basada en la inercia comprende un cambio en una actitud basada en la inercia; y
utilizar la al menos la parte de la pose basada en visión y el cambio en la al menos la parte de la pose basada en la inercia comprende utilizar la actitud basada en visión y el cambio en la actitud basada en la inercia para detectar el movimiento del objetivo (101).
5. El método de la reivindicación 2, que comprende adicionalmente:
determinar (302) un cambio en la al menos la parte de la pose basada en visión;
en donde utilizar (306) la al menos la parte de la pose basada en visión y el cambio en la al menos la parte de la pose basada en la inercia comprende:
determinar una diferencia entre el cambio en la al menos la parte de la pose basada en la inercia y el cambio en la al menos la parte de la pose basada en visión;
comparar la diferencia con un umbral para determinar que se ha movido el objetivo (101).
6. El método de la reivindicación 2, que comprende adicionalmente:
determinar al menos una parte de una pose basada en la inercia utilizando el cambio en la al menos la parte de la pose basada en la inercia;
en donde utilizar (306) la al menos la parte de la pose basada en visión y el cambio en la al menos la parte de la pose basada en la inercia comprende:
determinar una diferencia entre la al menos la parte de la pose basada en visión y la al menos la parte de la pose basada en la inercia;
comparar la diferencia con un umbral para determinar que se ha movido el objetivo (101).
7. El método de la reivindicación 1, que comprende adicionalmente determinar que la cámara (108) está fija antes de detectar el movimiento del objetivo (101).
8. El método de la reivindicación 1, en donde detectar (204) movimiento del objetivo (101) comprende utilizar proyecciones de vectores de características basadas en las mediciones del sensor inercial.
9. El método de la reivindicación 7, que comprende adicionalmente:
extraer (402) características de imágenes capturadas prediciendo (404) las proyecciones de vectores de características en base a las mediciones del sensor inercial;
comparar (406) las proyecciones de vectores de características con vectores de características extraídas, extraídas de una imagen capturada para determinar una diferencia; y
comparar (408) la diferencia con un umbral para determinar que se ha movido el objetivo (101).
10. Un dispositivo móvil (100) que comprende:
medios para realizar el seguimiento de una pose relativa entre una cámara (108) y un objetivo (101) utilizando una contribución de mediciones de sensor inercial y una contribución de mediciones basadas en visión, basándose las mediciones basadas en visión en imágenes del objetivo (101) capturadas por la cámara (108);
en donde la contribución de las mediciones del sensor inercial es una contribución ponderada y la contribución de las mediciones basadas en visión es una contribución ponderada;
medios para detectar movimiento del objetivo (101); y
medios para reducir la contribución ponderada de las mediciones del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara (108) y el objetivo (101) cuando se detecta movimiento del objetivo (101);
el dispositivo móvil caracterizado por que la ponderación de la contribución de las mediciones del sensor inercial se varía en función de una confianza en la detección de movimiento del objetivo.
11. El dispositivo móvil (100) de la reivindicación 10, en donde los medios para reducir la contribución de las mediciones del sensor inercial eliminan la contribución de las mediciones del sensor inercial.
12. El dispositivo móvil (100) de la reivindicación 10, en donde los medios para detectar movimiento del objetivo (101) comprenden:
medios para determinar al menos una parte de una pose basada en visión de la cámara (108) con respecto al objetivo (101);
medios para determinar un cambio en al menos una parte de una pose basada en la inercia de la cámara (108) en base a mediciones del sensor de inercia; y
medios para utilizar la al menos la parte de la pose basada en visión y el cambio en la al menos la parte de la pose basada en la inercia para detectar movimiento del objetivo (101).
13. El dispositivo móvil (100) de la reivindicación 10, que comprende adicionalmente medios para determinar que la cámara (108) está fija antes de detectar el movimiento del objetivo (101).
14. El dispositivo móvil (100) de la reivindicación 10, en donde los medios para detectar movimiento del objetivo (101) comprende medios para utilizar proyecciones de vectores de características basadas en las mediciones del sensor inercial.
15. Un medio legible por ordenador no transitorio que comprende instrucciones que, cuando son ejecutadas por un ordenador, hacen que el ordenador lleve a cabo el método de las reivindicaciones 1 a 9.
16. El dispositivo móvil (100) de la reivindicación 10, en donde los medios para reducir la contribución ponderada de las mediciones del sensor inercial comprenden medios para reducir la contribución ponderada del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo cuando se detecta movimiento del objetivo.
17. El dispositivo móvil (100) de la reivindicación 10, en donde los medios para detectar el movimiento del objetivo están configurados para detectar el movimiento basándose en una diferencia entre características extraídas de una primera imagen y características extraídas de una imagen posterior de las imágenes capturadas.
18. El dispositivo móvil (100) de la reivindicación 17, en donde la diferencia se determina basándose en una comparación entre proyecciones predichas de vectores de características extraídas de la primera imagen y vectores de características extraídas de la imagen posterior.
19. El dispositivo móvil (100) de la reivindicación 10, en donde los medios para reducir la contribución ponderada de las mediciones del sensor inercial comprenden medios para reducir la contribución ponderada del sensor inercial para realizar el seguimiento de la pose relativa entre la cámara y el objetivo cuando las proyecciones predichas de los vectores de características extraídas de la primera imagen difieren de los vectores de características extraídas de la imagen posterior.
ES13730774T 2012-06-14 2013-06-10 Cambio adaptativo entre una estimación de pose de cámara inercial asistida con visión y una estimación de pose de cámara basada solo en visión Active ES2883277T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/523,634 US9123135B2 (en) 2012-06-14 2012-06-14 Adaptive switching between vision aided INS and vision only pose
PCT/US2013/045012 WO2013188308A1 (en) 2012-06-14 2013-06-10 Adaptive switching between a vision aided intertial camera pose estimation and a vision based only camera pose estimation

Publications (1)

Publication Number Publication Date
ES2883277T3 true ES2883277T3 (es) 2021-12-07

Family

ID=48670855

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13730774T Active ES2883277T3 (es) 2012-06-14 2013-06-10 Cambio adaptativo entre una estimación de pose de cámara inercial asistida con visión y una estimación de pose de cámara basada solo en visión

Country Status (9)

Country Link
US (1) US9123135B2 (es)
EP (1) EP2862146B1 (es)
JP (1) JP6140278B2 (es)
KR (1) KR102029896B1 (es)
CN (1) CN104364823B (es)
ES (1) ES2883277T3 (es)
IN (1) IN2014MN02390A (es)
TW (1) TWI518640B (es)
WO (1) WO2013188308A1 (es)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9766074B2 (en) * 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US9159133B2 (en) * 2012-11-05 2015-10-13 Qualcomm Incorporated Adaptive scale and/or gravity estimation
US9243916B2 (en) 2013-02-21 2016-01-26 Regents Of The University Of Minnesota Observability-constrained vision-aided inertial navigation
US9367811B2 (en) * 2013-03-15 2016-06-14 Qualcomm Incorporated Context aware localization, mapping, and tracking
US9607401B2 (en) 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
US10055009B2 (en) * 2014-05-30 2018-08-21 Apple Inc. Dynamic display refresh rate based on device motion
US10012504B2 (en) * 2014-06-19 2018-07-03 Regents Of The University Of Minnesota Efficient vision-aided inertial navigation using a rolling-shutter camera with inaccurate timestamps
US9658070B2 (en) 2014-07-11 2017-05-23 Regents Of The University Of Minnesota Inverse sliding-window filters for vision-aided inertial navigation systems
TWI524758B (zh) 2014-12-09 2016-03-01 財團法人工業技術研究院 電子裝置及其漸增式姿態估算及攝影方法
US9984301B2 (en) * 2015-04-20 2018-05-29 Qualcomm Incorporated Non-matching feature-based visual motion estimation for pose determination
KR102462799B1 (ko) * 2015-11-05 2022-11-03 삼성전자주식회사 자세 추정 방법 및 자세 추정 장치
US10203209B2 (en) 2016-05-25 2019-02-12 Regents Of The University Of Minnesota Resource-aware large-scale cooperative 3D mapping using multiple mobile devices
US11466990B2 (en) 2016-07-22 2022-10-11 Regents Of The University Of Minnesota Square-root multi-state constraint Kalman filter for vision-aided inertial navigation system
JP6601352B2 (ja) * 2016-09-15 2019-11-06 株式会社デンソー 車両姿勢推定装置
US10503245B2 (en) 2016-09-21 2019-12-10 Apple Inc. Relative intertial measurement system
CN106550188B (zh) * 2016-10-13 2019-04-02 中国科学院上海技术物理研究所 一种基于惯导信息的长线列红外电子稳像方法
US10510160B2 (en) * 2016-12-20 2019-12-17 Samsung Electronics Co., Ltd. Multiscale weighted matching and sensor fusion for dynamic vision sensor tracking
CN106851050B (zh) * 2017-03-13 2020-04-24 Oppo广东移动通信有限公司 运动检测方法和装置、移动设备
US10529074B2 (en) * 2017-09-28 2020-01-07 Samsung Electronics Co., Ltd. Camera pose and plane estimation using active markers and a dynamic vision sensor
US10839547B2 (en) * 2017-09-28 2020-11-17 Samsung Electronics Co., Ltd. Camera pose determination and tracking
GB2567012B (en) * 2017-10-02 2021-05-12 Advanced Risc Mach Ltd Motion Sensing
US10907971B2 (en) 2017-12-08 2021-02-02 Regents Of The University Of Minnesota Square root inverse Schmidt-Kalman filters for vision-aided inertial navigation and mapping
JP2021060627A (ja) * 2018-02-07 2021-04-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11940277B2 (en) 2018-05-29 2024-03-26 Regents Of The University Of Minnesota Vision-aided inertial navigation system for ground vehicle localization
CN109598688A (zh) * 2018-12-06 2019-04-09 联想(北京)有限公司 一种处理方法及电子设备
CN111371982B (zh) * 2018-12-25 2021-11-30 北京初速度科技有限公司 一种数据同步方法及处理器、车载终端
US10955245B2 (en) 2019-04-30 2021-03-23 Samsung Electronics Co., Ltd. System and method for low latency, high performance pose fusion
US11776153B2 (en) * 2019-10-08 2023-10-03 Zebra Technologies Corporation Method, system and apparatus for mobile dimensioning
CN112272757A (zh) * 2019-11-22 2021-01-26 深圳市大疆创新科技有限公司 一种探测装置的外参数标定方法、装置及可移动平台
KR20220122287A (ko) * 2021-02-26 2022-09-02 삼성전자주식회사 증강 현실 제공 장치의 포즈 결정 방법 및 장치
CN113074726A (zh) * 2021-03-16 2021-07-06 深圳市慧鲤科技有限公司 位姿确定方法及装置、电子设备和存储介质

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6064749A (en) * 1996-08-02 2000-05-16 Hirota; Gentaro Hybrid tracking for augmented reality using both camera motion detection and landmark tracking
JP2003281504A (ja) * 2002-03-22 2003-10-03 Canon Inc 撮像部位置姿勢推定装置及びその制御方法並びに複合現実感提示システム
JP4185052B2 (ja) * 2002-10-15 2008-11-19 ユニバーシティ オブ サザン カリフォルニア 拡張仮想環境
US7272467B2 (en) 2002-12-17 2007-09-18 Evolution Robotics, Inc. Systems and methods for filtering potentially unreliable visual data for visual simultaneous localization and mapping
JP4532856B2 (ja) * 2003-07-08 2010-08-25 キヤノン株式会社 位置姿勢計測方法及び装置
US20100013917A1 (en) * 2003-08-12 2010-01-21 Keith Hanna Method and system for performing surveillance
US7650016B2 (en) * 2004-07-30 2010-01-19 Lockheed Martin Corporation System and method for tracking motion of an object image
US20070070069A1 (en) 2005-09-26 2007-03-29 Supun Samarasekera System and method for enhanced situation awareness and visualization of environments
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
US8059887B2 (en) * 2006-09-25 2011-11-15 Sri International System and method for providing mobile range sensing
CN100543775C (zh) * 2007-07-26 2009-09-23 上海交通大学 基于多目相机的三维人体运动跟踪的方法
US8229163B2 (en) 2007-08-22 2012-07-24 American Gnc Corporation 4D GIS based virtual reality for moving target prediction
US20090110267A1 (en) 2007-09-21 2009-04-30 The Regents Of The University Of California Automated texture mapping system for 3D models
US8374388B2 (en) * 2007-12-28 2013-02-12 Rustam Stolkin Real-time tracking of non-rigid objects in image sequences for which the background may be changing
US9766074B2 (en) 2008-03-28 2017-09-19 Regents Of The University Of Minnesota Vision-aided inertial navigation
US8731239B2 (en) * 2009-12-09 2014-05-20 Disney Enterprises, Inc. Systems and methods for tracking objects under occlusion
TWI393074B (zh) * 2009-12-10 2013-04-11 Ind Tech Res Inst 移動物體偵測裝置與方法
US8335348B2 (en) * 2009-12-14 2012-12-18 Indian Institute Of Technology Bombay Visual object tracking with scale and orientation adaptation
US8494225B2 (en) 2010-02-19 2013-07-23 Julian L. Center Navigation method and aparatus
JP5455124B2 (ja) * 2010-04-01 2014-03-26 国立大学法人鳥取大学 カメラ姿勢パラメータ推定装置
US8531504B2 (en) 2010-06-11 2013-09-10 Intel Corporation System and method for 3D video stabilization by fusing orientation sensor readings and image alignment estimates
JP5738569B2 (ja) 2010-10-15 2015-06-24 任天堂株式会社 画像処理プログラム、装置、システムおよび方法

Also Published As

Publication number Publication date
TW201411555A (zh) 2014-03-16
CN104364823B (zh) 2017-07-18
CN104364823A (zh) 2015-02-18
EP2862146B1 (en) 2021-07-14
EP2862146A1 (en) 2015-04-22
US9123135B2 (en) 2015-09-01
JP2015528936A (ja) 2015-10-01
TWI518640B (zh) 2016-01-21
IN2014MN02390A (es) 2015-08-21
JP6140278B2 (ja) 2017-05-31
KR20150023720A (ko) 2015-03-05
US20130335562A1 (en) 2013-12-19
WO2013188308A1 (en) 2013-12-19
KR102029896B1 (ko) 2019-10-08

Similar Documents

Publication Publication Date Title
ES2883277T3 (es) Cambio adaptativo entre una estimación de pose de cámara inercial asistida con visión y una estimación de pose de cámara basada solo en visión
EP2936060B1 (en) Display of separate computer vision based pose and inertial sensor based pose
US9116001B2 (en) Adaptive estimation of frame time stamp latency
EP3407302B1 (en) Information processing device, information processing method, and recording medium
JP5774226B2 (ja) 方位センサに基づくホモグラフィ分解の曖昧性の解決
US9159133B2 (en) Adaptive scale and/or gravity estimation
KR20160122709A (ko) 디바이스의 모션의 추정을 결정하기 위한 방법들 및 시스템들
US20140253737A1 (en) System and method of tracking an object in an image captured by a moving device
JP2012080439A (ja) 撮像装置及び方法、並びにプログラム
KR20120111857A (ko) 로봇물고기의 물체 추적 방법
JP2013125301A (ja) 車両移動量推定装置および障害物検出装置
KR20200009040A (ko) 휴대용 장치의 방위를 추정하기 위한 방법
US9354247B2 (en) Method for calibrating a rotation rate sensor, and electrical device
JP2021148709A (ja) 計測装置、計測方法およびプログラム
CN105719299A (zh) 分离的计算机视觉位置及方向与惯性传感器位置及方向的显示
KR20180068348A (ko) 스마트폰 기반 가상현실 환경에서 사용자의 자세 추론 방법