BR112018000704B1 - Dispositivo de estimativa da própria posição e método de estimativa da própria posição - Google Patents

Dispositivo de estimativa da própria posição e método de estimativa da própria posição Download PDF

Info

Publication number
BR112018000704B1
BR112018000704B1 BR112018000704-8A BR112018000704A BR112018000704B1 BR 112018000704 B1 BR112018000704 B1 BR 112018000704B1 BR 112018000704 A BR112018000704 A BR 112018000704A BR 112018000704 B1 BR112018000704 B1 BR 112018000704B1
Authority
BR
Brazil
Prior art keywords
vehicle
reference point
straight line
position data
straight lines
Prior art date
Application number
BR112018000704-8A
Other languages
English (en)
Other versions
BR112018000704A2 (pt
Inventor
Toshihiro Asai
Original Assignee
Nissan Motor Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd filed Critical Nissan Motor Co., Ltd
Publication of BR112018000704A2 publication Critical patent/BR112018000704A2/pt
Publication of BR112018000704B1 publication Critical patent/BR112018000704B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/005Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 with correlation of navigation data from several sources, e.g. map or contour matching
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/04Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by terrestrial means
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/16Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using electromagnetic waves other than radio waves
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

A presente invenção refere-se a um dispositivo de estimativa da própria posição: detecta posições de pontos de referência presentes em torno de um veículo (V); acumula as posições detectadas dos pontos de referência como dados de posição de ponto de referência com base em uma quantidade de movimento do veículo (V); extrai linhas retas dos dados de posição de ponto de referência acumulados; seleciona partes dos dados de posição de ponto de referência utilizados para a estimativa da própria posição com base em ângulos formados por interseções das linhas retas extraídas; e estima uma posição do veículo (V), combinando as partes selecionadas dos dados de posição de ponto de referência e as posições dos pontos de referência na informação de mapa (41).

Description

CAMPO DA TÉCNICA
[001] A presente invenção refere-se a um dispositivo de estimativa da própria posição e a um método de estimativa da própria posição que estimam a posição de um veículo.
FUNDAMENTOS DA INVENÇÃO
[002] É conhecido um método para estimar a posição de um veículo combinando informação de mapa e informação detectada por sensores, tal como uma câmera e um telêmetro. A precisão da estimativa da própria posição pode ser melhorada usando informação de mapa com informação tridimensional, mas esse método tem problemas de aumento no custo de criar a informação de mapa e aumento na carga de processamento da estimativa da própria posição. Enquanto isso, propõe-se uma técnica na qual um corpo móvel estima a própria posição usando informação de mapa com informação sobre referências descritos como informação bidimensional (ver Literatura de Patente 1). Essa técnica pode reduzir o custo de criar a informação de mapa e a carga de processamento da estimativa da própria posição. Lista de Citações Literatura de Patente Literatura de Patente 1: Publicação de Pedido de Patente Japonesa No. 2008-250906
SUMÁRIO DA INVENÇÃO Problema Técnico
[003] No entanto, a técnica descrita na Literatura de Patente 1 baseia-se na premissa de que a informação obtida pelos sensores e combinada com a informação de mapa para a estimativa da própria posição é informação obtida dentro de uma distância predeterminada a partir de sua última posição. Nesse caso, quando uma rota linear continua por uma distância predeterminada ou mais e a informação no ponto de referência é descrita como uma linha reta paralela à rota, há um certo grau de liberdade na direção ao longo da linha reta e isso pode causar uma diminuição na precisão da estimativa da própria posição.
[004] Em vista dos problemas descritos acima, um objetivo da presente invenção é fornecer um dispositivo de estimativa da própria posição e um método de estimativa da própria posição que possa melhorar a precisão da estimativa da própria posição.
Solução Para o Problema
[005] Um dispositivo de estimativa da própria posição seleciona, com base em ângulos formados por linhas de cruzamento entre linhas retas obtidas usando referências em torno, partes de dados de posição de ponto de referência a serem usadas para a estimativa da própria posição, e corresponde às partes selecionadas de dados de posição de ponto de referência e as posições dos referências na informação de mapa para estimar a posição do veículo.
EFEITOS VANTAJOSOS
[006] A presente invenção pode fornecer o dispositivo de estimativa da própria posição e o método de estimativa da própria posição que pode melhorar a precisão da estimativa da própria posição, selecionando, com base nos ângulos formados pelas linhas retas de interseção entre as linhas retas obtidas usando referências em torno, partes de dados de posição de ponto de referência a serem usados para a estimativa da própria posição, as partes de dados a serem utilizadas na estimativa da própria posição.
DESCRIÇÃO DOS DESENHOS
[007] A Figura 1 é um diagrama de blocos explicando um exemplo de uma configuração de um dispositivo de estimativa da própria posição de acordo com uma modalidade da presente invenção.
[008] A Figura 2 é um exemplo ilustrando telêmetros laser e câmeras montadas em um veículo.
[009] A Figura 3 é um fluxograma que explica um fluxo de processamento do dispositivo de estimativa da própria posição de acordo com a modalidade da presente invenção.
[010] A Figura 4 é um exemplo que ilustra um ambiente no qual viaja o veículo montado com o dispositivo de estimativa da própria posição de acordo com a modalidade da presente invenção.
[011] A Figura 5 é uma vista que explica uma região especificada por um especificador de região incluído no dispositivo de estimativa da própria posição de acordo com a modalidade da presente invenção.
[012] A Figura 6 é um diagrama que explica o processamento executado por um detector de posição de ponto de referência incluído no dispositivo de estimativa da própria posição de acordo com a modalidade da presente invenção.
[013] A Figura 7 é um diagrama que explica o processamento executado por um detector de quantidade de movimento incluído no dispositivo de estimativa da própria posição de acordo com a modalidade da presente invenção.
[014] A Figura 8 é um diagrama que explica o processamento executado por um extrator de linha reta incluído no dispositivo de estimativa da própria posição de acordo com a modalidade da presente invenção.
[015] A Figura 9 é um exemplo que ilustra partes de informação de linha reta extraídas pelo extrator de linha reta enquanto o veículo está viajando.
[016] A Figura 10 é uma tabela que ilustra partes de informação de linha reta extraídas pelo extrator de linha reta e os tempos obtidos.
[017] A Figura 11 é uma tabela que explica um estado em que uma prioridade é definida para cada combinação de partes de informação de linha reta, com base em ângulos formados pelas linhas retas que se cruzam.
[018] A Figura 12 é uma tabela que explica um estado em que a prioridade é definida para cada parte de informação de linha reta de acordo com os tempos obtidos e os ângulos formados pelas linhas retas que se cruzam.
DESCRIÇÃO DETALHADA
[019] Uma modalidade da presente invenção é descrita com referência aos desenhos. Na descrição dos desenhos, as mesmas partes ou partes similares são denotadas pelos mesmos números de referência ou números similares e a descrição sobreposta é omitida.
(Dispositivo de Estimativa da Própria Posição)
[020] A Figura 1 é uma vista que explica uma configuração de um dispositivo de estimativa da própria posição de acordo com a modalidade. O dispositivo de estimativa da própria posição de acordo com a modalidade inclui um grupo de sensores periféricos 1, um dispositivo de processamento 3, um dispositivo de armazenamento 4 e um grupo de sensores de veículo 5. O dispositivo de estimativa da própria posição de acordo com a modalidade está montado em um veículo V (ver a Figura 2) e estima a posição do veículo V.
[021] Na modalidade, a posição e o ângulo de atitude com um total de três graus de liberdade em um plano bidimensional são estimados, os três graus de liberdade incluindo: a posição (coordenada X [m]) na direção leste-oeste (direção do eixo X) e a posição (coordenada Y [m]) na direção norte-sul (direção do eixo Y) que são a própria posição estimada do veículo V; e o ângulo de azimute θ (ângulo de guinada [rad]) do veículo, que é a informação do ângulo de atitude.
[022] O grupo de sensores periféricos 1 inclui, por exemplo, vários telêmetros laser (LRFs) 101, 102, cada um configurado para detectar a distância a um alvo, usando a reflexão da luz laser moldada no alvo e múltiplas câmeras 201, 202, cada uma configurada para capturar uma imagem digital que pode ser submetida a processamento de imagem. Conforme descrito acima, o grupo de sensores periféricos 1 inclui múltiplos sensores que detectam pontos de referência presentes em torno do veículo V.
[023] A Figura 2 é um exemplo que ilustra um estado em que o grupo de sensores periféricos 1 está montado no veículo V. Os LRFs 101, 102 podem ser montados, por exemplo, perto dos para-lamas dianteiros esquerdo e direito do veículo V. Por exemplo, cada um dos LRFs 101, 102 executa varredura dentro de um ângulo de varredura predeterminado θ (por exemplo, 90°) com um eixo de varredura que se estende na direção da frente para trás D do veículo V, de modo que as trajetórias da luz laser emitida formem um plano perpendicular à superfície da estrada. Os LRFs 101, 102 podem, assim, detectar pontos de referência tais como meios-fios presentes na direção esquerda-direita do veículo V. Os LRFs 101, 102 produzem as formas dos pontos de referência detectados um após o outro para o dispositivo de processamento 3 como resultados de detecção.
[024] Por exemplo, as câmeras 201, 202 podem ser montadas nos retrovisores esquerdo e direito do veículo V. As câmeras 201, 202 capturam imagens usando, por exemplo, elementos de imagem de estado sólido tal como CCDs ou CMOSs. As câmeras 201, 202 capturam, por exemplo, imagens da superfície da estrada nas laterais do veículo V. As câmeras 201, 202 emitem as imagens capturadas para o dispositivo de processamento 3 uma após a outra.
[025] O dispositivo de armazenamento 4 é um armazenador de informação de mapa configurado para armazenar informação de mapa 41 incluindo as posições de pontos de referência presentes em torno das estradas. O dispositivo de armazenamento 4 pode ser formado de uma memória semicondutora, um disco magnético ou similar. Os pontos de referência registrados na informação de mapa 41 incluem, por exemplo, sinais de superfície de estrada que indicam linhas de parada, cruzamentos de pedestres, sinais de passagem para pedestres, linhas de seção e similares, estruturas tais como meios-fios, e várias instalações que podem ser detectadas pelo grupo de sensores periféricos 1. Na informação de mapa 41, os pontos de referência que realmente têm certas alturas, tais como os meios-fios, também são descritos apenas por informação de posição em um plano bidimensional. Na informação de mapa 41, a informação de posição em cada um dos meios-fios, linhas brancas e similares é definida por uma coleção de partes de informação de linha reta tendo informação bidimensional em ambas as suas extremidades. Na informação de mapa 41, quando uma forma de um ponto de referência em um ambiente real é uma curva, o ponto de referência é descrito como partes de informação de linha reta no plano bidimensional aproximadamente desenhando a curva por linhas poligonais.
[026] O grupo de sensores de veículo 5 inclui um receptor de GPS 51, um sensor de aceleração 52, um sensor de direção 53, um sensor de freio 54, um sensor de velocidade do veículo 55, um sensor de aceleração 56, um sensor de velocidade da roda 57 e outros sensores 58, tal como um sensor de taxa de guinada. Os sensores 51 a 58 são conectados ao dispositivo de processamento 3 e produzem vários resultados de detecção para o dispositivo de processamento 3 um após o outro. O dispositivo de processamento 3 pode calcular uma posição aproximada do veículo V na informação de mapa 41 usando os resultados de detecção do grupo de sensores do veículo 5 e calcular odometria indicando a quantidade de movimento do veículo V em um tempo unitário.
[027] O dispositivo de processamento 3 inclui um detector de posição de ponto de referência 31, um detector de quantidade de movimento 32, um acumulador de posição de ponto de referência 33, um extrator de linha reta 34, um seletor de posição de ponto de referência 35, e um estimador da posição própria 36. O dispositivo de processamento 3 pode ser formado, por exemplo, de um microcontrolador que é um circuito integrado que inclui uma unidade de processamento central (CPU), uma memória, uma entrada/saída I/F e similares. Neste caso, os múltiplos processadores de informação (31 a 36) que formam o dispositivo de processamento 3 são implementados pela CPU executando um programa de computador instalado de antemão no microcontrolador. As partes que formam o dispositivo de processamento 3 podem ser formadas por uma parte integrada de hardware ou partes separadas de hardware. O microcontrolador também pode servir como uma unidade eletrônica de controle (ECU) usada para outro controle associado ao veículo V, tal como, por exemplo, controle de direção automática.
[028] O detector de posição de ponto de referência 31 detecta as posições de pontos de referência presentes em torno do veículo V em relação ao veículo V, com base nos resultados de detecção de ao menos um dos LRF 101, 102 e das câmeras 201, 202. As posições detectadas pelo detector de posição de ponto de referência 31 são posições em um sistema de coordenadas do veículo. O sistema de coordenadas do veículo é, por exemplo, um sistema em que o centro do eixo traseiro do veículo V é configurado como uma origem, uma direção para a frente é definida como uma direção positiva do eixo dos x, uma direção para a esquerda é definida como uma direção positiva do eixo y, e uma direção ascendente é definida como uma direção positiva do eixo z. Além disso, uma fórmula para a conversão dos sistemas de coordenadas dos LRFs 101, 102 e das câmeras 201, 202 para o sistema de coordenadas do veículo é definida antecipadamente no detector de posição de ponto de referência 31. Os parâmetros das superfícies das estradas no sistema de coordenadas do veículo são configurados de forma similar.
[029] O detector de quantidade de movimento 32 detecta a odometria que é a quantidade de movimento do veículo V no tempo unitário, com base na informação de resultado de detecção de ao menos um dos sensores incluídos no grupo de sensores do veículo 5. A quantidade de movimento do veículo V é detectada como uma quantidade de movimento em um sistema de coordenadas de odometria. O acumulador de posição de ponto de referência 33 acumula, como partes de dados de posição de ponto de referência, as posições de pontos de referência detectadas pelo detector de posição de ponto de referência 31 no passado em intervalos predeterminados, com base na quantidade de movimento detectada pelo detector de quantidade de movimento 32.
[030] O extrator de linha reta 34 extrai partes de informação de linha reta usando as partes de dados de posição de ponto de referência acumulados no acumulador de posição de ponto de referência 33. O seletor de posição de ponto de referência 35 seleciona as partes de dados de posição de ponto de referência de linhas retas indicadas pelas partes de informação de linha reta extraídas pelo extrator de linha reta 34, com base nos ângulos de 90° ou menores formados pelas combinações das linhas retas que se cruzam. O estimador da própria posição 36 estima a posição do veículo V combinando as partes de dados de posição de ponto de referência selecionados pelo seletor de posição de ponto de referência 35 e as posições de pontos de referência na informação de mapa 41.
[031] O seletor de posição de ponto de referência 35 define as prioridades das partes de informação de linha reta, de modo que as combinações de linhas retas que formam os ângulos de 90° ou menores recebem uma alta prioridade na ordem decrescente do ângulo formado. Em seguida, o seletor de posição de ponto de referência 35 seleciona as partes de dados de posição de ponto de referência na ordem decrescente das prioridades definidas para as partes de informação de linha reta. Especificamente, o seletor de posição de ponto de referência 35 seleciona, a partir das partes de dados de posição de ponto de referência acumulados no acumulador de posição de ponto de referência 33, as partes de dados de posição de ponto de referência correspondentes a partes de informação de linha reta sobre ao menos a combinação das linhas retas que se cruzam formando o maior ângulo entre os ângulos de 90° ou menores formados por combinações das linhas retas que se cruzam.
[032] O seletor de posição de ponto de referência 35 define uma alta prioridade para cada parte de informação em linha reta em ordem decrescente de tempo de obter a parte correspondente de dados de posição de ponto de referência. Em seguida, o seletor de posição do referência 35 seleciona as partes de dados de posição de ponto de referência na ordem decrescente das prioridades definidas para as partes de informação de linha reta. A prioridade definida para cada informação de linha reta é alterada de tempos em tempos com base no tempo de obter as partes correspondentes de dados de posição de ponto de referência e do ângulo formado pela linha reta, que é uma linha estendida da parte de informação de linha reta.
[033] O acumulador de posição de ponto de referência 33 determina as partes de dados de posição de ponto de referência a serem acumulados com base na prioridade de cada parte de informação de linha reta estabelecida pelo seletor de posição de ponto de referência 35. Especificamente, o acumulador de posição de ponto de referência 33 acumula preferencialmente as partes de dados de posição de ponto de referência correspondentes à parte de informação de linha reta com uma alta prioridade, e deleta preferencialmente as partes de dados de posição de ponto de referência correspondentes à parte de informação de linha reta com baixa prioridade.
(Método de Estimativa da Própria Posição)
[034] Um exemplo de um método de estimativa da própria posição utilizando o dispositivo de estimativa da própria posição de acordo com a modalidade é descrito com referência ao fluxograma da Figura 3.
[035] Primeiro, na etapa S10, o detector de posição de ponto de referência 31 detecta a posição de cada referência em torno do veículo V, com base nos resultados de detecção do grupo de sensores periféricos 1. O detector de posição de ponto de referência 31 obtém os resultados de detecção dos LRF 101, 102 e das câmeras 201, 202 e detecta as posições dos sinais da superfície da estrada, tais como linhas de seção e linhas de parada e estruturas tais como meios-fios e edifícios no sistema de coordenadas do veículo.
[036] A Figura 4 é um exemplo que ilustra um ambiente no qual o veículo V viaja ao realizar a estimativa da própria posição. No exemplo ilustrado na Figura 4, a luz laser emitida a partir do LRF 101 é moldada sobre uma superfície de estrada incluindo um meio-fio 61 como ilustrado por uma linha 64. O detector de posição de ponto de referência 31 extrai uma posição em que uma forma muda muito como a posição do meio-fio 61, usando a direção e a distância da luz laser fundida, e detecta a posição (x, y, z) desse no sistema de coordenadas do veículo. Uma vez que é possível assumir que a superfície da estrada está constantemente presente na direção verticalmente descendente dos LRFs 101, 102, o meio-fio pode ser detectado comparando a altura de cada ponto com a altura da superfície da estrada e extraindo um ponto de grande alteração de altura.
[037] Além disso, o detector de posição de ponto de referência 31 detecta as linhas brancas 62, 63 presentes em ambos os lados do veículo V, utilizando a informação de luminância de imagens capturadas pelas câmeras 201, 202. Por exemplo, o detector de posição de ponto de referência 31 pode detectar um padrão de alteração na luminância em que a luminância muda de escura para clara e depois para escura, em imagens em escala de cinza capturadas pelas câmeras 201, 202 e, assim, detecta os centros de partes de luz como as linhas brancas 62, 63. As posições (x, y, z) das linhas brancas 62, 63 no sistema de coordenadas do veículo podem ser detectadas usando relações posicionais entre a superfície da estrada e as câmeras 201, 202. A informação de altura (componente do eixo z) das posições (x, y, z) no sistema de coordenadas do veículo detectado na etapa S10 é excluída e as posições são manipuladas posteriormente como dados bidimensionais.
[038] A parte (a) a (d) da Figura 5 são diagramas que ilustram a posição 71 do meio-fio 61 e as posições 72, 73 das linhas brancas 62, 63 no sistema de coordenadas do veículo que são detectadas pelo detector de posição de ponto de referência 31 em um período desde o tempo t1 até t4 no exemplo ilustrado na Figura 4. O tempo t1 é o tempo mais antigo e o tempo t4 é o tempo mais recente.
[039] Na etapa S20, o detector de quantidade de movimento 32 integra a quantidade de movimento do veículo V calculada com base nos resultados de detecção do grupo de sensores de veículo 5 para calcular a posição do veículo V no sistema de coordenadas de odometria. O sistema de coordenadas de odometria pode ser, por exemplo, um sistema em que a posição do veículo V no momento em que o dispositivo de estimativa da própria posição é ativado ou quando o processamento é reiniciado é configurada como uma origem e o ângulo de azimute do veículo V neste momento é definido como 0°. A integração da quantidade de movimento do veículo V é realizada no sistema de coordenadas de odometria.
[040] A Figura 6 é um diagrama que ilustra o resultado de integrar a quantidade de movimento do veículo V calculada com base nos resultados de detecção do grupo de sensores do veículo 5 no exemplo ilustrado nas partes (a) a (d) da Figura 5. O detector de quantidade de movimento 32 calcula assim a posição (Xo, Yo) do veículo V no sistema de coordenadas de odometria.
[041] A Figura 7 é um diagrama que ilustra as partes de dados de posição de ponto de referência convertidos em partes de dados no sistema de coordenadas de odometria nos exemplos ilustrados nas Figuras 5 e 6. O acumulador de posição de ponto de referência 33 converte a posição de cada ponto de referência detectado na etapa S10 em uma parte de dados no sistema de coordenadas de odometria com base na quantidade de movimento detectada na etapa S20 e acumula a parte de dados convertidos como a parte de dados de posição de ponto de referência.
[042] Na etapa S30, o extrator de linha reta 34 extrai cada parte de informação de linha reta usando as partes de dados de posição de ponto de referência acumuladas no acumulador de posição de ponto de referência 33. O extrator de linha reta 34 extrai uma linha reta usando as partes de dados de posição de ponto de referência obtidos em um período desde o tempo t0 até t0 + Δt, onde Δt é um tempo unitário. O número de partes de dados de posição de ponto de referência obtidas no tempo unitário Δt é determinado dependendo dos períodos de amostragem dos LRFs 101, 102 e das câmeras 201, 202. Além disso, o extrator de linha reta 34 pode determinar se a posição de cada ponto de referência está no lado esquerdo ou no lado direito do veículo V, determinando se o valor da coordenada y no sistema de coordenadas do veículo é positivo ou negativo. Consequentemente, o extrator de linha reta 34 agrupa as partes de dados de posição de ponto de referência em partes de dados no lado direito e as partes de dados no lado esquerdo e, em seguida, executa a estimativa de parâmetros de cada linha reta.
[043] A Figura 8 é um diagrama que ilustra partes de informação de linha reta N1, N2, N3 extraídas pelo extrator de linha reta 34 no exemplo ilustrado na Figura 7. As nuvens de pontos indicadas pelas partes de dados de posição de ponto de referência são informação bidimensional. Consequentemente, o extrator de linha reta 34 pode estimar cada linha reta aplicando uma linha reta ax + by + c = 0 aos pontos pi = (xi, yi) detectados como a linha branca ou o meio-fio e obtendo parâmetros ótimos a, b, c. O extrator de linha reta 34 obtém a soma das distâncias entre a linha reta estimada e os respectivos pontos utilizados para a estimativa e, quando a soma é igual ou maior que um limite predeterminado, não extrai a linha reta estimada como a parte de informação de linha reta. Quando a soma é inferior ao limite, o extrator de linha reta 34 obtém pontos na linha reta mais próximos dos respectivos pontos utilizados para a estimativa, seleciona dois dos pontos obtidos entre os quais a distância é maior como pontos finais, e extrai os dois pontos selecionados como os pontos finais da parte de informação de linha reta. Os pontos 71a e 71d são extraídos como os pontos finais da parte de informação de linha reta N1, os pontos 72a e 72d são extraídos como os pontos finais da parte de informação de linha reta N2, e os pontos 73a e 73d são extraídos como os pontos finais da informação da linha reta N3. O acumulador de posição de ponto de referência 33 acumula a nuvem de pontos (dados de posição de ponto de referência) utilizados para a estimativa da linha reta, os elementos de informação de linha reta e o tempo obtido t0 + Δt em associação um com o outro.
[044] Na etapa S40, o seletor de posição de ponto de referência 35 lê os pontos finais das partes de informação de linha reta acumulados no acumulador de posição de ponto de referência 33 e obtém os ângulos de 90° ou menores formados por linhas retas que passam os pontos finais das partes de informação de linha reta e que são linhas estendidas das partes de informação de linha reta. Uma vez que cada informação de linha reta é acumulada como dois pontos finais no acumulador de posição de ponto de referência 33, quando os dois pontos finais são expressos como ps = (xs, ys), pe (xe, ye), o vetor de direção da parte de informação de linha reta pode ser expresso como V = (xe-xs, ye-ys).
[045] Além disso, quando os vetores de direção de certas duas partes de informação de linha reta são expressos como Vi e Vj, um ângulo argij de 90° ou menos formado por linhas estendidas das duas partes de informação de linha reta pode ser obtido da seguinte maneira: aj= cos-1 ((Vi • Vj) / (| Vi || Vj |)) (quando aij excede 90 graus) argij = 180-aij (quando aij é 90 graus ou menos) argij = aij.
[046] O seletor de posição referência 35 define as prioridades das partes de informação de linha reta, de modo que as combinações de linhas retas que formam os ângulos arg recebem uma alta prioridade na ordem decrescente do ângulo formado. Quando as prioridades das partes de informação de linha reta com base nos ângulos são iguais, o seletor de posição de ponto de referência 35 pode estabelecer uma alta prioridade para cada parte de informação de linha reta na ordem decrescente do tempo de obtenção da parte correspondente de dados de posição de ponto de referência.
[047] A Figura 9 é um diagrama que explica o caso em que cinco partes de informação de linha reta a a e são extraídas pelo extrator de linha reta 34 enquanto o veículo V está viajando. Conforme ilustrado na Figura 10, as partes de informação de linha reta a, b, c, d e e são obtidas no tempo t1, t2, t3, t4 e t5, respectivamente. O tempo t1 é o momento mais antigo e o tempo t5 é o tempo mais recente. Neste caso, como ilustrado na Figura 11, o seletor de posição de ponto de referência 35 primeiro obtém combinações de partes de informação de linha reta a a e e os ângulos de 90° ou menos formados por linhas estendidas das combinações de partes de informação de linha reta a a e, e define as prioridades para as combinações de modo que as combinações de linhas retas que formam os ângulos de 90° ou menos recebem uma alta prioridade na ordem decrescente do ângulo formado. As prioridades das respectivas combinações das partes de informação de linha reta a a e são assim determinadas como representado na Figura 11.
[048] No estado representado na Figura 11, a prioridade é definida para cada combinação de partes de informação de linha reta. O seletor de posição de ponto de referência 35, assim, define ainda a prioridade de cada parte de informação de linha reta de tal forma que uma alta prioridade é definida para cada pedaço de informação de linha reta em ordem decrescente de tempo de obtenção da parte de informação de linha reta ou da parte de dados de posição de ponto de referência. Por exemplo, os tempos de obtenção das partes de informação de linha reta a, b, d que estão configurados para ter a maior prioridade na Figura 11 são t1, t2, t4, respectivamente, na Figura 10, e o tempo de obtenção da parte de informação de linha reta d é, portanto, o mais recente seguido por b e a. Portanto, a prioridade da parte de informação de linha reta d é definida como a mais alta seguida de b e a como ilustrado na Figura 12. Além disso, as prioridades das partes de informação de linha direta c e e que são definidas como a segunda mais alta seguindo as prioridades das partes de informação de linha reta a, b, d na Figura 11 são determinadas de tal forma que a prioridade da parte de informação de linha reta e é superior a c.
[049] Na etapa S50, o acumulador de posição de ponto de referência 33 armazena as partes de informação de linha reta e as partes de dados de posição de ponto de referência em associação, de acordo com as prioridades definidas na etapa S40. Quando a capacidade de armazenamento do acumulador de posição de ponto de referência 33 é limitada, o acumulador de posição de ponto de referência 33 pode eliminar as partes de informação de linha reta na ordem de prioridade ascendente.
[050] Na etapa S60, o estimador da própria posição 36 corresponde às partes de dados de posição de ponto de referência acumulados no acumulador de posição de ponto de referência 33 e às posições dos pontos de referência na informação de mapa 41 para estimar a posição do veículo V. Especificamente, o estimador da própria posição 36 estima a posição e o ângulo de atitude do veículo V com um total de três graus de liberdade que incluem a posição (coordenada X) do veículo V na direção leste-oeste, a posição (coordenada Y) do veículo V em a direção norte-sul, e o ângulo de azimute θ (ângulo de guinada θ) do veículo V.
[051] Um algoritmo ICP (Algoritmo Iterativo de Pontos Mais Próximos) pode ser usado para a correspondência realizada na etapa S50. Neste caso, o estimador da posição própria 36 executa correspondência, por exemplo, para linhas de seção, fora das posições dos pontos de referência incluídos na informação de mapa 41, usando os pontos finais em ambas as extremidades de cada linha de seção como pontos de avaliação. Além disso, quanto mais próximos os dados de posição de ponto de referência estão do veículo V (grupo de sensores periféricos 1), menor será o efeito do erro de odometria. Consequentemente, o estimador da própria posição 36 pode aumentar o número de pontos de avaliação para áreas próximas ao veículo V, realizando interpolação linear e reduzindo o número de pontos de avaliação para áreas distantes do veículo V.
[052] Conforme descrito acima, o dispositivo de estimativa da própria posição de acordo com a modalidade extrai as partes de informação de linha reta usando as partes de dados de posição de ponto de referência e seleciona as partes de dados de posição de ponto de referência necessários para estimar de maneira exclusiva a própria posição, com base nos ângulos formados pelas linhas estendidas das partes extraídas de informação de linha reta. O dispositivo de estimativa da própria posição de acordo com a modalidade pode assim melhorar a precisão da estimativa da própria posição do veículo. Além disso, uma vez que o dispositivo de estimativa da própria posição de acordo com a modalidade extrai as partes de informação de linha reta com base nos pontos de referência em torno do veículo e extrai ao menos uma combinação de partes extraídas de informação de linha reta cujas linhas estendidas se cruzam, o dispositivo de estimativa da própria posição pode estimar de forma exclusiva a própria posição.
[053] Além disso, o dispositivo de estimativa da própria posição de acordo com a modalidade pode realizar a estimativa da própria posição usando as partes de dados de posição de ponto de referência correspondentes às partes de informação de linha reta na combinação das linhas retas que se cruzam formando o maior ângulo entre os ângulos de 90° ou menos, formado por combinações das linhas retas que se cruzam. O dispositivo de estimativa da própria posição de acordo com a modalidade pode assim selecionar a parte de dados mais confiável a partir das partes de dados de posição de ponto de referência necessários para estimar de maneira exclusiva a própria posição.
[054] Além disso, o dispositivo de estimativa da própria posição de acordo com a modalidade define as prioridades das partes de informação de linha reta de tal modo que as combinações de linhas retas que formam os ângulos de 90° ou menos recebem uma alta prioridade na ordem decrescente do ângulo formado. As prioridades são, portanto, definidas para as partes de dados de posição de ponto de referência na ordem decrescente de utilidade na estimativa da própria posição e a precisão da própria estimativa de posição do veículo pode ser melhorada.
[055] Além disso, o dispositivo de estimativa da própria posição de acordo com a modalidade estabelece uma alta prioridade para cada parte de informação de linha reta em ordem decrescente do tempo de obtenção da parte correspondente de dados de posição de ponto de referência. O dispositivo de estimativa da própria posição de acordo com a modalidade pode, assim, selecionar uma parte recente de dados de posição de ponto de referência que contribuem muito para a estimativa da própria posição, e melhorar a precisão da estimativa da própria posição do veículo.
[056] Além disso, no dispositivo de estimativa da própria posição de acordo com a modalidade, o acumulador de posição de ponto de referência 33 determina as partes de dados de posição de ponto de referência a serem acumuladas, com base nas prioridades estabelecidas. O dispositivo de estimativa da própria posição de acordo com a modalidade pode assim deletar as partes de dados com baixas prioridades quando a deleção de dados se torna necessária por razões tais como capacidade de armazenamento limitada. Consequentemente, o dispositivo de estimativa da própria posição de acordo com a modalidade pode continuar segurando as partes de dados de posição de ponto de referência necessárias para estimar de forma exclusiva a própria posição.
[057] Embora a presente invenção tenha sido descrita acima usando a modalidade mencionada acima, dever-se-ia entender que a descrição e os desenhos que fazem parte desta descrição não limitam a presente invenção. A partir desta descrição, as diferentes modalidades, exemplos e técnicas de operação serão encontradas pelos versados na técnica. A presente invenção inclui várias modalidades e similares que não são aqui descritas, tais como configurações que adotam mutuamente as configurações mencionadas acima, como é claro. Por conseguinte, o escopo técnico da presente invenção deveria ser determinado apenas pelas questões que especificam a invenção no escopo das reivindicações consideradas apropriadas com base na descrição mencionada acima.
Aplicabilidade Industrial
[058] A presente invenção pode fornecer o dispositivo de estimativa da própria posição e o método de estimativa da própria posição que pode melhorar a precisão da estimativa da própria posição, selecionando as partes de dados utilizados para a estimativa da própria posição com base nos ângulos formados pelas linhas retas obtidas usando os pontos de referência na periferia. Lista de Sinais de Referência V Veículo 4 Dispositivo de armazenamento (armazenador de informação de mapa) 31 Detector de posição de ponto de referência 32 Detector de quantidade de movimento 33 Acumulador de posição de ponto de referência 34 Extrator de linha reta 35 Seletor de posição de ponto de referência 36 Estimador da própria posição 41 Informação de mapa

Claims (6)

1. Dispositivo de estimativa da própria posição CARACTERIZADO pelo fato de que compreende: um detector de posição de ponto de referência (31) montado em um veículo (V) e configurado para detectar posições de pontos de referência presentes em torno do veículo (V) em relação ao veículo (V); um detector de quantidade de movimento (32) configurado para detectar uma quantidade de movimento do veículo (V); um acumulador de posição de ponto de referência (33) configurado para acumular as posições dos pontos de referência em relação ao veículo (V) detectadas pelo detector de posição de ponto de referência (31) como dados de posição de ponto de referência por coordenadas com base na quantidade de movimento detectada pelo detector de quantidade de movimento (32); um extrator de linha reta (34) configurado para extrair linhas retas a partir dos dados de posição de ponto de referência acumulados em uma pluralidade de tempos no acumulador de posição de ponto de referência (33); um seletor de posição de ponto de referência (35) configurado para selecionar partes dos dados de posição de ponto de referência com base em ângulos formados por linhas retas que se cruzam dentre as linhas retas extraídas pelo extrator de linha reta (34); um armazenador de informação de mapa (4) configurado para armazenar informação de mapa (41) incluindo posições de pontos de referência; e um estimador da própria posição (36) configurado para estimar uma posição do veículo (V) combinando as partes dos dados de posição de ponto de referência selecionados pelo seletor de posição de ponto de referência (35) e as posições dos pontos de referência na informação de mapa (41).
2. Dispositivo de estimativa da própria posição, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o seletor de posição de ponto de referência (35) seleciona as partes dos dados de posição de ponto de referência correspondentes a partes de informação de linha reta em ao menos uma combinação das linhas retas que se cruzam formando um maior ângulo entre ângulos de 90° ou menores formado por combinações das linhas retas que se cruzam.
3. Dispositivo de estimativa da própria posição, de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que o seletor de posição de ponto de referência (35) define prioridades de partes de informação de linha reta de modo que quanto maiores os ângulos iguais ou inferiores a 90° formados pelas linhas retas que se cruzam dentre as linhas retas são, maior a prioridade é definida para combinações das linhas retas que se cruzam dentre as linhas retas, e seleciona as partes dos dados de posição de ponto de referência em uma ordem decrescente das prioridades definidas para as partes de informação de linhas retas.
4. Dispositivo de estimativa da própria posição, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que a posição de ponto de referência define prioridades das partes de informação de linha reta de tal modo que quanto mais recentes os tempos de obtenção das partes dos dados de posição de ponto de referência são, maior a prioridade é definida para as partes de informação de linha reta correspondentes às partes dos dados de posição de ponto de referência, e seleciona as partes dos dados de posição de ponto de referência em uma ordem decrescente das prioridades estabelecidas para as partes de informação de linha reta.
5. Dispositivo de estimativa da própria posição, de acordo com a reivindicação 3 ou 4, CARACTERIZADO pelo fato de que o acumulador de posição de ponto de referência (33) determina as partes dos dados de posição de ponto de referência a serem acumuladas com base nas prioridades.
6. Método de estimativa da própria posição CARACTERIZADO pelo fato de que compreende: detectar posições de pontos de referência presentes em torno de um veículo (V) em relação ao veículo (V) por um detector de posição de ponto de referência (31) montado no veículo (V); detectar uma quantidade de movimento do veículo (V) por um detector de quantidade de movimento (32); acumular as posições dos pontos de referência em relação ao veículo (V) detectadas pelo detector de posição de ponto de referência (31) como dados de posição de ponto de referência por coordenadas com base na quantidade de movimento detectada pelo detector de quantidade de movimento (32); extrair linhas retas dos dados de posição de ponto de referência acumulados em uma pluralidade de tempos; selecionar partes dos dados de posição de ponto de referência com base em ângulos formados por linhas retas que se cruzam dentre as linhas retas extraídas; e estimar uma posição do veículo (V) combinando as partes selecionadas dos dados de posição de ponto de referência e posições de pontos de referência em informação de mapa (41).
BR112018000704-8A 2015-07-13 2015-07-13 Dispositivo de estimativa da própria posição e método de estimativa da própria posição BR112018000704B1 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2015/070008 WO2017009923A1 (ja) 2015-07-13 2015-07-13 自己位置推定装置及び自己位置推定方法

Publications (2)

Publication Number Publication Date
BR112018000704A2 BR112018000704A2 (pt) 2018-09-18
BR112018000704B1 true BR112018000704B1 (pt) 2022-11-29

Family

ID=57757193

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112018000704-8A BR112018000704B1 (pt) 2015-07-13 2015-07-13 Dispositivo de estimativa da própria posição e método de estimativa da própria posição

Country Status (10)

Country Link
US (1) US10145693B2 (pt)
EP (1) EP3324152B1 (pt)
JP (1) JP6477882B2 (pt)
KR (1) KR101887335B1 (pt)
CN (1) CN107850446B (pt)
BR (1) BR112018000704B1 (pt)
CA (1) CA2992006C (pt)
MX (1) MX366083B (pt)
RU (1) RU2669652C1 (pt)
WO (1) WO2017009923A1 (pt)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3343174B1 (en) * 2015-08-28 2020-04-15 Nissan Motor Co., Ltd. Vehicle position estimation device, vehicle position estimation method
KR101847836B1 (ko) * 2015-12-24 2018-04-11 현대자동차주식회사 도로 경계 검출 시스템 및 방법과 이를 이용한 차량
JP6987797B2 (ja) 2016-03-11 2022-01-05 カールタ インコーポレイテッド リアルタイムオンラインエゴモーション推定を有するレーザスキャナ
US11567201B2 (en) 2016-03-11 2023-01-31 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US11573325B2 (en) 2016-03-11 2023-02-07 Kaarta, Inc. Systems and methods for improvements in scanning and mapping
WO2018140701A1 (en) * 2017-01-27 2018-08-02 Kaarta, Inc. Laser scanner with real-time, online ego-motion estimation
US10989542B2 (en) 2016-03-11 2021-04-27 Kaarta, Inc. Aligning measured signal data with slam localization data and uses thereof
CN109477724B (zh) * 2016-07-26 2020-06-30 日产自动车株式会社 自身位置推定方法及自身位置推定装置
US10678240B2 (en) 2016-09-08 2020-06-09 Mentor Graphics Corporation Sensor modification based on an annotated environmental model
US11067996B2 (en) 2016-09-08 2021-07-20 Siemens Industry Software Inc. Event-driven region of interest management
US10802450B2 (en) 2016-09-08 2020-10-13 Mentor Graphics Corporation Sensor event detection and fusion
US10317901B2 (en) 2016-09-08 2019-06-11 Mentor Graphics Development (Deutschland) Gmbh Low-level sensor fusion
US10650270B2 (en) * 2017-04-21 2020-05-12 X Development Llc Methods and systems for simultaneous localization and calibration
US20180314253A1 (en) 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
WO2019099605A1 (en) 2017-11-17 2019-05-23 Kaarta, Inc. Methods and systems for geo-referencing mapping systems
JP2019109332A (ja) * 2017-12-18 2019-07-04 パイオニア株式会社 地図データ構造
JP7251918B2 (ja) * 2017-12-18 2023-04-04 ジオテクノロジーズ株式会社 車両位置推定装置及び車両位置推定システム
US11145146B2 (en) 2018-01-31 2021-10-12 Mentor Graphics (Deutschland) Gmbh Self-diagnosis of faults in an autonomous driving system
US10553044B2 (en) 2018-01-31 2020-02-04 Mentor Graphics Development (Deutschland) Gmbh Self-diagnosis of faults with a secondary system in an autonomous driving system
WO2019165194A1 (en) 2018-02-23 2019-08-29 Kaarta, Inc. Methods and systems for processing and colorizing point clouds and meshes
WO2020008221A1 (ja) * 2018-07-04 2020-01-09 日産自動車株式会社 走行支援方法及び走行支援装置
WO2020009826A1 (en) 2018-07-05 2020-01-09 Kaarta, Inc. Methods and systems for auto-leveling of point clouds and 3d models
US11761787B2 (en) * 2020-04-08 2023-09-19 Nissan Motor Co., Ltd. Map information correction method, driving assistance method, and map information correction device
US11872965B2 (en) * 2020-05-11 2024-01-16 Hunter Engineering Company System and method for gyroscopic placement of vehicle ADAS targets
JP7241839B1 (ja) 2021-10-06 2023-03-17 三菱電機株式会社 自己位置推定装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7287884B2 (en) * 2002-02-07 2007-10-30 Toyota Jidosha Kabushiki Kaisha Vehicle operation supporting device and vehicle operation supporting system
JP2007303841A (ja) * 2006-05-08 2007-11-22 Toyota Central Res & Dev Lab Inc 車両位置推定装置
JP4437556B2 (ja) * 2007-03-30 2010-03-24 アイシン・エィ・ダブリュ株式会社 地物情報収集装置及び地物情報収集方法
JP2008250906A (ja) 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
CN101968940B (zh) * 2009-07-28 2012-08-22 钰程科技股份有限公司 具有定位与照相能力的手持装置及其地理定位方法
JP2012194860A (ja) * 2011-03-17 2012-10-11 Murata Mach Ltd 走行車
JP2013068482A (ja) * 2011-09-21 2013-04-18 Nec Casio Mobile Communications Ltd 方位補正システム、端末装置、サーバ装置、方位補正方法及びプログラム
JP5810939B2 (ja) * 2012-01-26 2015-11-11 トヨタ自動車株式会社 車両走行道路特定装置
JP5761162B2 (ja) * 2012-11-30 2015-08-12 トヨタ自動車株式会社 車両位置推定装置
KR102027771B1 (ko) * 2013-01-31 2019-10-04 한국전자통신연구원 차량 속도 적응형 장애물 검출 장치 및 방법
JP6233706B2 (ja) * 2013-04-02 2017-11-22 パナソニックIpマネジメント株式会社 自律移動装置及び自律移動装置の自己位置推定方法
CN103398717B (zh) * 2013-08-22 2016-04-20 成都理想境界科技有限公司 全景地图数据库采集系统及基于视觉的定位、导航方法
JP2016176769A (ja) * 2015-03-19 2016-10-06 クラリオン株式会社 情報処理装置、及び、車両位置検出方法

Also Published As

Publication number Publication date
JPWO2017009923A1 (ja) 2018-06-14
JP6477882B2 (ja) 2019-03-06
WO2017009923A1 (ja) 2017-01-19
KR101887335B1 (ko) 2018-08-09
EP3324152A4 (en) 2018-08-08
CA2992006C (en) 2018-08-21
MX2018000438A (es) 2018-05-17
EP3324152A1 (en) 2018-05-23
BR112018000704A2 (pt) 2018-09-18
CN107850446B (zh) 2019-01-01
RU2669652C1 (ru) 2018-10-12
KR20180016567A (ko) 2018-02-14
EP3324152B1 (en) 2019-04-03
US10145693B2 (en) 2018-12-04
CN107850446A (zh) 2018-03-27
MX366083B (es) 2019-06-27
CA2992006A1 (en) 2017-01-19
US20180202815A1 (en) 2018-07-19

Similar Documents

Publication Publication Date Title
BR112018000704B1 (pt) Dispositivo de estimativa da própria posição e método de estimativa da própria posição
JP7336604B2 (ja) 自律ナビゲーションの間の物体回避の方法
JP6445995B2 (ja) センサデータの空間的集約を用いる適応マッピング
JP6567659B2 (ja) レーン検出装置およびレーン検出方法
JP6222353B2 (ja) 物標検出装置及び物標検出方法
US20220012509A1 (en) Overhead-view image generation device, overhead-view image generation system, and automatic parking device
BR112019006057B1 (pt) Método de estimativa de auto-posição e dispositivo de estimativa de auto-posição
JP2014034251A (ja) 車両走行制御装置及びその方法
JP2008249555A (ja) 位置特定装置、位置特定方法および位置特定プログラム
BR112019001441B1 (pt) Método de estimativa de autoposição e dispositivo de estimativa de autoposição
BR112016027098B1 (pt) Aparelho para reconhecimento de sinal de tráfego e método para reconhecimento de sinal de tráfego
KR101100827B1 (ko) 도로주행 로봇의 자기 위치 인식방법
BR112016019589B1 (pt) Dispositivo de cálculo de autolocalização e método de cálculo de autolocalização
JP2019056629A (ja) 距離推定装置及び方法
JP6834401B2 (ja) 自己位置推定方法及び自己位置推定装置
JP6838365B2 (ja) 自己位置推定方法及び自己位置推定装置
JP6594008B2 (ja) 移動体制御装置、ランドマーク、および、プログラム
JP6477340B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法
JP7142468B2 (ja) 移動体追跡装置
BR112018002423B1 (pt) Dispositivo de detecção de passo e método de detecção de passo
JP6756507B2 (ja) 環境認識装置
Schwarze et al. Robust ground plane tracking in cluttered environments from egocentric stereo vision
JP6789440B2 (ja) 物体同定装置
JP6451544B2 (ja) 道路境界検出装置、自己位置推定装置及び道路境界検出方法

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 13/07/2015, OBSERVADAS AS CONDICOES LEGAIS