ES2911400T3 - Sistema SLAM basado en cámara RGB-D y método del mismo - Google Patents

Sistema SLAM basado en cámara RGB-D y método del mismo Download PDF

Info

Publication number
ES2911400T3
ES2911400T3 ES17733432T ES17733432T ES2911400T3 ES 2911400 T3 ES2911400 T3 ES 2911400T3 ES 17733432 T ES17733432 T ES 17733432T ES 17733432 T ES17733432 T ES 17733432T ES 2911400 T3 ES2911400 T3 ES 2911400T3
Authority
ES
Spain
Prior art keywords
constraints
keyframe
loop closure
loop
graph
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES17733432T
Other languages
English (en)
Inventor
Soohwan Kim
Benzun Pious Wisely Babu
Zhixin Yan
Liu Ren
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Application granted granted Critical
Publication of ES2911400T3 publication Critical patent/ES2911400T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20072Graph-based image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Un método para calcular localización y mapeo simultáneos (SLAM) visuales que comprende: generar, mediante un módulo de odometría visual (100A), una estimación de odometría (112); crear, mediante un generador de cuadros clave (114), cuadros clave y una gráfica de cuadros clave (116); añadir restricciones a la gráfica de cuadros clave (116), usando un evaluador de restricción de bucle (118), con base en un cierre de bucle, donde el cierre de bucle es el retorno a ubicaciones previamente visitadas; y optimizar, utilizando un optimizador de gráfica (120), la gráfica de cuadros clave (116) obtenida en el paso anterior, con restricciones para producir un mapa optimizado con una trayectoria (112); caracterizado porque las restricciones de cierre de bucle se ponderan con base en el cuadrado inverso de la distancia métrica entre los cuadros clave que forman el cierre de bucle.

Description

DESCRIPCIÓN
Sistema SLAM basado en cámara RGB-D y método del mismo
Campo
Esta divulgación se refiere en general a sistemas SLAM y, más en particular, a un sistema SLAM basado en cámara RGB-D y un método del mismo.
Antecedentes
“Dense Visual SLAM for RGB-D Cameras", por Christian Kerl et al. divulga un método SLAM visual denso para cámaras RGB-D que minimiza tanto el error fotométrico como el error de profundidad en todos los píxeles. A diferencia de los escasos métodos basados en características, este método permite aprovechar mejor la información disponible en los datos de imagen, que conduce a una mayor precisión de postura. Además, se propone una medición de similitud basada en entropía para selección de cuadros clave y detección de cierre de bucle.
“Robust odometry estimation for RGB-D cameras", Christian Kerl et al. divulga un método rápido y preciso para estimar el movimiento de la cámara a partir de imágenes RGB-D. El enfoque registra dos cuadros RGB-D consecutivos directamente uno sobre el otro al minimizar el error fotométrico. El movimiento de cámara se estima utilizando minimización no lineal en combinación con un esquema de grueso a fino. Para permitir ruido y valores atípicos en los datos de imagen, el documento propone utilizar una función de error robusta que reduce la influencia de los residuos grandes. Además, la formulación divulgada permite la inclusión de un modelo de movimiento que se puede basar en conocimiento previo, filtrado temporal o sensores adicionales como una IMU.
Breve descripción
La invención proporciona un método para calcular localización y mapeo simultáneos (SLAM) visuales, así como un sistema SLAM visual como se menciona en las reivindicaciones independientes. Se establecen realizaciones ventajosas en las reivindicaciones dependientes.
Breve descripción de los dibujos
Estas y otras características, aspectos, y ventajas de esta divulgación se comprenderán mejor cuando la siguiente descripción detallada se lee con referencia a las figuras anexas en las que caracteres similares representan técnicas similares a lo largo de las figuras, donde:
La figura 1 es un diagrama de bloques que ilustra un sistema SLAM visual;
La figura 2 es un diagrama de bloques que ilustra la estructura de un evaluador de restricción de bucle y gráfica de cuadros clave de ejemplo;
La figura 3 ilustra un modelo de sensor de cámara RGB-D;
La figura 4 es un diagrama de bloques de una propagación de incertidumbre; y
La figura 5 ilustra un ejemplo de un mapa generado por un sistema SLAM a-DVO
Descripción detallada
La figura 1 es un diagrama de bloques que ilustra un sistema de localización y mapeo simultáneos (SLAM) visuales 100 dividido en extremo frontal 100a y extremo trasero 100b. En el extremo frontal 100a, el sistema 100 utiliza un enfoque de odometría visual al hacer un uso completo de toda la información de píxeles de una cámara RGB-D para generar una estimación de transformación local 112. Es decir, la odometría visual densa 108 o 110 proporciona una estimación de transformación por pares entre dos cuadros de imagen 102, 104, 106. Como se ilustra, la estimación de transformación por pares se realiza entre el cuadro clave 102 y el cuadro actual 104 usando odometría visual densa 108. La segunda estimación de transformación por pares se realiza entre el cuadro actual 104 y el cuadro anterior 106 usando odometría visual densa 110. Se utiliza un generador de cuadros clave 114 para generar un cuadro clave Vk con base en la calidad de la estimación de odometría. En el extremo trasero 100b del sistema 100, se crea una gráfica de cuadros clave G c {Vk} 116 usando el generador de cuadros clave 114. En un evaluador de restricción de bucle 118, las restricciones basadas en el retorno, por ejemplo, el cierre de bucle a ubicaciones previamente visitadas, se añaden a la gráfica de cuadros clave para mejorar su conectividad. Luego, el optimizador de gráfica 120 optimiza la gráfica final con restricciones para producir un mapa optimizado con la trayectoria 122. Más adelante se describirán más detalles sobre la gráfica de cuadros clave 116 y el evaluador de restricción de bucle 118. Se utiliza un modelo de sensor probabilístico en el extremo frontal 100a y realiza la generación de cuadros clave 114, y detección de restricción de bucle 118 y optimización de gráfica 120 en el extremo trasero 100b.
La figura 2 es un diagrama de bloques que ilustra una estructura de una gráfica de cuadros clave 200 de ejemplo que comprende una optimización de gráfica de extremo trasero 202 y un entorno local 204. En la optimización de gráfica de extremo trasero 202, se optimizan las restricciones de bucle L.kj combinadas con las restricciones de odometría ponderadas por Ikj.kj. El cuadro clave K1 reciente y los cuadros rastreados con respecto a K1, (f1, fn) se incluyen en el entorno local 204. Los cuadros clave K1 y los cuadros rastreados (f1, ..., fn) se determinan con base en la relación de entropías HK1,f1/HK1,fn. Cuando el cuadro actual no contiene suficiente información para rastrear un nuevo cuadro, se genera un nuevo cuadro clave al usar entropía de una estimación de pose de cámara. La estimación de postura de cámara genera un nuevo cuadro clave cuando la entrada estimada entre el cuadro clave y el cuadro actual cae por debajo de un umbral normalizado por la mayor entropía estimada en el entorno local 204. Se asume que la mayor entropía de estimación es la que se encuentra entre el cuadro clave y el primer cuadro. Se propone una estrategia adicional de generación de cuadros clave basada en la estimación de curva de la trayectoria de cámara. La estimación de curva p¡,k entre los cuadros i y k se define como la relación de la suma de las traslaciones entre los cuadros (5¡,m) en el entorno local N con respecto a la traslación entre el cuadro clave y el último cuadro (Si,k).
Figure imgf000003_0001
ecuación (1)
El retorno a una ubicación previamente visitada ayuda a identificar restricciones adicionales a la gráfica llamada cierre de bucle en el evaluador de restricciones de bucle 118 como se ilustra en la figura 2. Después de la optimización, la gráfico de postura se ajusta con base en los factores de ponderación de borde de diferentes restricciones en la gráfica. Una restricción de bucle errónea en algún momento puede conducir a una trayectoria final mal optimizada. Al extender los métodos anteriores de generación de restricciones de bucle, se pueden usar dos técnicas adicionales para reducir el impacto de restricciones de bucle incorrectas. En primer lugar, las restricciones de cierre de bucle se ponderan con base en el cuadrado inverso de la distancia métrica entre los cuadros clave que forman el cierre de bucle. Esto se basa en la intuición de que la restricción de bucle entre cuadros lejanos es propensa a un error mayor que los cuadros cercanos entre sí. En segundo lugar, se realiza filtrado de oclusión para eliminar falsas restricciones de cierre de bucle. La imagen de profundidad proporciona información de geometría que se puede usar para realizar el filtrado de oclusión entre dos cuadros clave. La desviación estándar de la incertidumbre de modelo de sensor de un punto de profundidad proporciona un límite en el desplazamiento de profundidad máximo posible de la siguiente ecuación:
Figure imgf000003_0002
ecuación (2)
Todos los puntos que violan esta suposición se consideran como oclusión.
En la generación de un nuevo cuadro clave, la gráfica de extremo trasero se actualiza con la información de cuadro clave anterior y se crea una estructura de gráfica de doble ventana 200. La gráfica de postura en el extremo trasero se optimiza utilizando, por ejemplo, una biblioteca de código abierto, g2o. Se realiza una optimización final en la terminación de la odometría visual para generar una estimación optimizada de trayectoria de cámara.
En general, las cámaras RGB-D proyectan patrones infrarrojos y recuperan la profundidad de las correspondencias entre dos vistas de imágenes con un pequeño paralaje. Durante este proceso, la disparidad se cuantifica en subpíxeles. Esto introduce un error de cuantificación en la medición de profundidad. El ruido debido al error de cuantificación en la medición de profundidad se define como
Figure imgf000003_0003
ecuación (3)
donde qpix es la resolución de subpíxeles del dispositivo, b es la línea de referencia y f es la longitud focal. Este error incrementa cuadráticamente con el intervalo Zi, evitando así el uso de observaciones de profundidad de objetos lejanos. El ruido de sensor 3D de las cámaras RGB-D se puede modelar con una distribución gaussiana multivariable de media cero cuya matriz de covarianza tiene los siguientes componentes diagonales:
Figure imgf000003_0004
ecuación (4)
donde la dirección a332 está a lo largo del rayo, y px y py denotan las resoluciones angulares en direcciones x e y. La figura 3 ilustra un modelo de sensor de cámara RGB-D. La cámara se encuentra en el origen y está mirando hacia arriba en la dirección z. Para cada intervalo de 1, 2 y 3 metros, se toman muestras de 80 puntos y sus incertidumbres se expresan con elipsoides. El error en la dirección de rayo incrementa cuadráticamente.
La figura 4 es un diagrama de bloques de una propagación de incertidumbre. Cada punto 3D pi en la figura 4 se asocia con una distribución gaussiana cuyas matrices de covarianza son !i y I¡, respectivamente,
Figure imgf000004_0001
ecuación (5)
donde
Figure imgf000004_0002
ecuación (6)
Rray denota la matriz de rotación entre el rayo y las coordenadas de cámara.
Se utiliza un método de linealización para propagar la incertidumbre a los residuos y la función de probabilidad se puede expresar como una distribución gaussiana,
Figure imgf000004_0003
ecuación (7)
donde
Figure imgf000004_0007
En la presente, [I ¡]3,3 denota la varianza del punto q¡ retroproyectado en el eje z de las coordenadas de cámara actuales como se muestra en la figura 4. La estimación de probabilidad máxima es,
Figure imgf000004_0004
ecuación (11)
La matriz de precisión individual se divide en dos raíces cuadradas I r 1 = I f 1/2 I f 1/2 y se normaliza al aplicar la matriz de precisión individual de los residuos ponderados I -1 como
Figure imgf000004_0005
ecuación (12)
Los errores fotométricos y geométricos se pueden definir como,
Figure imgf000004_0006
ecuación (13)
donde Zi = Zi(xi) y []z denota el componente z del vector.
Para encontrar la postura relativa de cámara que minimiza los errores fotométricos y geométricos, la función de energía es la suma de los errores cuadrados ponderados como
Figure imgf000005_0001
ecuación (14)
donde n es el número total de píxeles válidos, y W 6 R2x2 denota los factores de ponderación para diferentes errores. Dado que la función de energía no es lineal con respecto a la postura relativa de cámara el algoritmo de Gauss-Newton se aplica en general para encontrar numéricamente la solución óptima y la ecuación (14) se actualiza ahora a:
4m = S*+A$, (Jt(I„®W)J)AS = -JT (I„®W)r ecuación (15)
donde □ denota el producto de Kronecker, r = (n, ..., rn)T 6 R2nx1, y la matriz jacobiana se define como
Figure imgf000005_0002
ecuación (16)
La ecuación (14) es equivalente con estimación de probabilidad máxima donde cada residuo es independiente y sigue una distribución gaussiana idéntica,
Figure imgf000005_0003
ecuación (17)
donde p(r¡|£) = N(0 ,I) . Se señala que esto corresponde al caso de W=I -1 en la ecuación (14). La ecuación (17) se puede reescribir como:
Figure imgf000005_0004
ecuación (18)
donde w¡ = (v 2)/(v r1! "1^ . Se señala que esto corresponde al caso de W = w! -1 en la ecuación (14).
Una distribución T para errores fotométricos y propagar un modelo de sensor de una distribución gaussiana para errores geométricos al combinar la ecuación (11) y ecuación (18) para ahora definirse como odometría visual a-densa (a-DVO):
Figure imgf000005_0005
ecuación (19)
donde la matriz de factores de ponderación Wi = diag(WiI, w¡z) y
Figure imgf000005_0006
ecuación (21)
El algoritmo a-DVO se puede implementar en cualquier dispositivo cliente adecuado, tal como teléfono inteligente, tableta, teléfono móvil, asistente digital personal (PDA) y cualquier dispositivo. Volviendo a la figura 1, el sistema SLAM 100 con algoritmo a-DVO integrado utiliza un número menor de cuadros clave y se debe a una desviación reducida en el sistema. Un número reducido de cuadros clave indica menos requisitos de cálculo en el extremo trasero del sistema. La figura 5 ilustra un ejemplo de un mapa generado por un sistema SLAM a-DVO 100. Como se puede ver, se genera una trayectoria consistente usando el sistema SLAM a-DVO 100.
Las realizaciones también se pueden poner en práctica en entornos informáticos distribuidos donde se realizan tareas mediante dispositivos de procesamiento locales y remotos que se enlazan (ya sea mediante enlaces cableados, enlaces inalámbricos o mediante una combinación de los mismos) a través de una red de comunicaciones.
Las instrucciones ejecutables por computadora incluyen, por ejemplo, instrucciones y datos que hacen que una computadora de propósito general, computadora de propósito especial o dispositivo de procesamiento de propósito especial realicen una cierta función o grupo de funciones. Instrucciones ejecutables por computadora también incluyen módulos de programa que se ejecutan por computadoras en entornos independientes o de red. En general, los módulos de programa incluyen rutinas, programas, objetos, componentes y estructuras de datos, etc. que realizan tareas particulares o implementan tipos de datos abstractos particulares. Las instrucciones ejecutables por computadora, estructuras de datos asociadas y módulos de programa representan ejemplos de los medios de código de programa para ejecutar los pasos de los métodos divulgados en la presente. La secuencia particular de estas instrucciones ejecutables o estructuras de datos asociadas representa ejemplos de actos correspondientes para implementar las funciones descritas en estos pasos.

Claims (3)

REIVINDICACIONES
1. Un método para calcular localización y mapeo simultáneos (SLAM) visuales que comprende:
generar, mediante un módulo de odometría visual (100A), una estimación de odometría (112);
crear, mediante un generador de cuadros clave (114), cuadros clave y una gráfica de cuadros clave (116);
añadir restricciones a la gráfica de cuadros clave (116), usando un evaluador de restricción de bucle (118), con base en un cierre de bucle, donde el cierre de bucle es el retorno a ubicaciones previamente visitadas; y
optimizar, utilizando un optimizador de gráfica (120), la gráfica de cuadros clave (116) obtenida en el paso anterior, con restricciones para producir un mapa optimizado con una trayectoria (112);
caracterizado porque
las restricciones de cierre de bucle se ponderan con base en el cuadrado inverso de la distancia métrica entre los cuadros clave que forman el cierre de bucle.
2. El método de la reivindicación 1, que comprende además:
generar un nuevo cuadro clave entre un cuadro clave y un cuadro actual antes de generar la estimación de odometría (112).
3. Un sistema de localización y mapeo simultáneos (SLAM) visuales, que comprende:
un módulo de odometría visual (100A) configurado para generar una estimación de odometría (112);
un generador de cuadros clave (114) configurado para crear cuadros clave y una gráfica de cuadros clave (116);
un evaluador de restricción de bucle (118) configurado para añadir restricciones a la gráfica de cuadros clave (116) con base en un cierre de bucle, donde el cierre de bucle es el retorno a ubicaciones previamente visitadas; y
un optimizador de gráfica (120) configurado para optimizar la gráfica de cuadros clave (116) con restricciones para producir un mapa optimizado con una trayectoria (112);
caracterizado porque
el evaluador de restricción de bucle (118) se adapta para ponderar las restricciones de cierre de bucle con base en el cuadrado inverso de la distancia métrica entre los cuadros clave que forman el cierre de bucle.
ES17733432T 2016-06-24 2017-06-26 Sistema SLAM basado en cámara RGB-D y método del mismo Active ES2911400T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201662354251P 2016-06-24 2016-06-24
PCT/EP2017/065677 WO2017220815A1 (en) 2016-06-24 2017-06-26 Rgb-d camera based tracking system and method thereof

Publications (1)

Publication Number Publication Date
ES2911400T3 true ES2911400T3 (es) 2022-05-19

Family

ID=59227732

Family Applications (1)

Application Number Title Priority Date Filing Date
ES17733432T Active ES2911400T3 (es) 2016-06-24 2017-06-26 Sistema SLAM basado en cámara RGB-D y método del mismo

Country Status (7)

Country Link
US (1) US11093753B2 (es)
EP (1) EP3475917B1 (es)
JP (1) JP2019522288A (es)
KR (1) KR102471301B1 (es)
CN (1) CN109478330B (es)
ES (1) ES2911400T3 (es)
WO (1) WO2017220815A1 (es)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3474230B1 (en) * 2017-10-18 2020-07-22 Tata Consultancy Services Limited Systems and methods for edge points based monocular visual slam
CN108564625B (zh) * 2018-04-27 2019-08-23 百度在线网络技术(北京)有限公司 图优化方法、装置、电子设备及存储介质
CN108648274B (zh) * 2018-05-10 2020-05-22 华南理工大学 一种视觉slam的认知点云地图创建系统
TWI679511B (zh) * 2018-08-22 2019-12-11 和碩聯合科技股份有限公司 軌跡規劃方法與系統
CA3028708A1 (en) * 2018-12-28 2020-06-28 Zih Corp. Method, system and apparatus for dynamic loop closure in mapping trajectories
CN110516527B (zh) * 2019-07-08 2023-05-23 广东工业大学 一种基于实例分割的视觉slam回环检测改进方法
CN110956651B (zh) * 2019-12-16 2021-02-19 哈尔滨工业大学 一种基于视觉和振动触觉融合的地形语义感知方法
CN111292420B (zh) * 2020-02-28 2023-04-28 北京百度网讯科技有限公司 用于构建地图的方法和装置
CN112016612A (zh) * 2020-08-26 2020-12-01 四川阿泰因机器人智能装备有限公司 一种基于单目深度估计的多传感器融合slam方法
US11899469B2 (en) 2021-08-24 2024-02-13 Honeywell International Inc. Method and system of integrity monitoring for visual odometry

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2619742B1 (en) * 2010-09-24 2018-02-28 iRobot Corporation Systems and methods for vslam optimization
US8913055B2 (en) 2011-05-31 2014-12-16 Honda Motor Co., Ltd. Online environment mapping
GB201202344D0 (en) * 2012-02-10 2012-03-28 Isis Innovation Method of locating a sensor and related apparatus
US9269003B2 (en) * 2013-04-30 2016-02-23 Qualcomm Incorporated Diminished and mediated reality effects from reconstruction
US9607401B2 (en) 2013-05-08 2017-03-28 Regents Of The University Of Minnesota Constrained key frame localization and mapping for vision-aided inertial navigation
CN104374395A (zh) * 2014-03-31 2015-02-25 南京邮电大学 基于图的视觉slam方法
WO2015194864A1 (ko) * 2014-06-17 2015-12-23 (주)유진로봇 이동 로봇의 맵을 업데이트하기 위한 장치 및 그 방법

Also Published As

Publication number Publication date
US20190377952A1 (en) 2019-12-12
JP2019522288A (ja) 2019-08-08
US11093753B2 (en) 2021-08-17
CN109478330A (zh) 2019-03-15
WO2017220815A1 (en) 2017-12-28
KR102471301B1 (ko) 2022-11-29
CN109478330B (zh) 2022-03-29
EP3475917A1 (en) 2019-05-01
KR20190021257A (ko) 2019-03-05
EP3475917B1 (en) 2022-01-26

Similar Documents

Publication Publication Date Title
ES2911400T3 (es) Sistema SLAM basado en cámara RGB-D y método del mismo
CN109084746B (zh) 用于具有辅助传感器的自主平台引导系统的单目模式
CN108765487B (zh) 重建三维场景的方法、装置、设备和计算机可读存储介质
Gui et al. A review of visual inertial odometry from filtering and optimisation perspectives
US8913055B2 (en) Online environment mapping
US9746327B2 (en) Fusion of sensor and map data using constraint based optimization
CN110849374A (zh) 地下环境定位方法、装置、设备及存储介质
CN114185427A (zh) 用于并发测距和建图的系统和方法
CN108829116B (zh) 基于单目摄像头的避障方法及设备
CN111665512B (zh) 基于3d激光雷达和惯性测量单元的融合的测距和绘图
Mehralian et al. EKFPnP: extended Kalman filter for camera pose estimation in a sequence of images
Pöppl et al. Integrated trajectory estimation for 3D kinematic mapping with GNSS, INS and imaging sensors: A framework and review
CA2894863A1 (en) Indoor localization using crowdsourced data
Xiaoji et al. A pedestrian POS for indoor Mobile Mapping System based on foot-mounted visual–inertial sensors
Zhao et al. Linear SFM: A hierarchical approach to solving structure-from-motion problems by decoupling the linear and nonlinear components
CN110648353A (zh) 一种基于单目传感器的机器人室内定位方法和装置
Huai Collaborative slam with crowdsourced data
CN114111769A (zh) 一种视觉惯性定位方法、装置及自动驾驶装置
CN117422764B (zh) 空地视角图像协同的车载系统定位方法、终端及存储介质
US20240085977A1 (en) Bundle adjustment using epipolar constraints
Naimark et al. Vision-Aided Navigation for Aerial Platforms
Li et al. Stereo Visual Inertial Odometry Using Incremental Smoothing
Menke Towards Ubiquitous Augmented Reality in Structured Environments
Vyas Feature detection in an indoor environment using Hardware Accelerators for time-efficient Monocular SLAM
CN117824667A (zh) 一种基于二维码和激光的融合定位方法及介质