BR112019006057B1 - Método de estimativa de auto-posição e dispositivo de estimativa de auto-posição - Google Patents

Método de estimativa de auto-posição e dispositivo de estimativa de auto-posição Download PDF

Info

Publication number
BR112019006057B1
BR112019006057B1 BR112019006057-0A BR112019006057A BR112019006057B1 BR 112019006057 B1 BR112019006057 B1 BR 112019006057B1 BR 112019006057 A BR112019006057 A BR 112019006057A BR 112019006057 B1 BR112019006057 B1 BR 112019006057B1
Authority
BR
Brazil
Prior art keywords
target
target position
position data
self
moving object
Prior art date
Application number
BR112019006057-0A
Other languages
English (en)
Other versions
BR112019006057A2 (pt
Inventor
Yasuhito Sano
Chikao Tsuchiya
Takuya Nanri
Hiroyuki Takano
Original Assignee
Nissan Motor Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd filed Critical Nissan Motor Co., Ltd
Publication of BR112019006057A2 publication Critical patent/BR112019006057A2/pt
Publication of BR112019006057B1 publication Critical patent/BR112019006057B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0248Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0088Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

Um método de estimativa de auto-posição inclui: detectar uma posição relativa entre um alvo presente nos arredores de um objeto em movimento e o objeto em movimento; armazenar uma posição onde a posição relativa é movida pela quantidade movida do objeto em movimento, como dados da posição do alvo; selecionar os dados da posição do alvo com base na confiabilidade da posição relativa dos dados da posição do alvo em relação ao objeto em movimento; e comparar os dados da posição do alvo selecionados com informação de mapa incluindo a informação de posição no alvo presente em uma estrada ou em torno da estrada, desse modo, estimando uma auto-posição que é uma posição atual do objeto em movimento.

Description

CAMPO DA INVENÇÃO
[001] A presente invenção refere-se a um método de estimativa de auto- posição e um dispositivo de estimativa de auto-posição.
ANTECEDENTES DA INVENÇÃO
[002] Sabe-se que existe uma tecnologia de estimar uma auto- posição de um robô móvel autônomo (ver Literatura de Patente 1: Publicação de Pedido de Patente Japonesa Aberta ao Público No 2008-250906). Em Literatura de Patente 1, um resultado (informação do ambiente circundante) de ter detectado uma região móvel de um robô móvel por meio de um sensor é restrito em uma região que é predeterminada com base no robô móvel, e essa informação do ambiente circundante restrita é comparada com um mapa ambiental previamente armazenado no robô móvel, desse modo, estimando uma auto-posição do mesmo.
SUMÁRIO DA INVENÇÃO PROBLEMA TÉCNICO
[003] A propósito, de modo a estimar uma auto-posição de um veículo, existe casos de usar linhas brancas posicionadas em ambos os lados do veículo em uma direção na largura do veículo. Geralmente, quando ambas as linhas brancas são simultaneamente detectadas, um erro pode ser incluído na posição detectada das linhas brancas. Em particular, a posição das linhas brancas na direção na largura do veículo em relação ao veículo é constantemente compensada devido a um erro de calibração ou semelhantes. Por esta razão, um resultado de estimativa da auto-posição se torna instável, ou uma precisão de estimativa da auto-posição é reduzida.
[004] A presente invenção foi feita em luz do problema acima mencionado, e o objeto da presente invenção é fornecer um método de estimativa de auto-posição e um dispositivo de estimativa de auto-posição para melhorar uma precisão de estimativa da auto-posição eliminando-se os dados da posição do alvo estimados tendo muitos erros de uma posição relativa.
SOLUÇÃO PARA O PROBLEMA
[005] O método de estimativa de auto-posição de acordo com um aspecto da presente invenção incluindo: detectar uma posição relativa entre um alvo presente nos arredores de um objeto em movimento e o objeto em movimento; armazenar uma posição onde a posição relativa detectada é movida por uma quantidade movida do objeto em movimento, como dados da posição do alvo; selecionar t=14e dados da posição do alvo a serem comparados com informação de mapa dos dados da posição do alvo armazenados com base na confiabilidade da posição relativa em relação ao objeto em movimento dos dados da posição do alvo; e comparar os dados da posição do alvo selecionados com a informação de mapa incluindo a informação de posição no alvo presente em uma estrada ou em torno da estrada, desse modo estimando uma auto-posição que é uma posição atual do objeto em movimento.
EFEITOS VANTAJOSOS DA INVENÇÃO
[006] De acordo com o método de estimativa de auto-posição de acordo com um aspecto da presente invenção, visto que os dados da posição do alvo estimados para ter muitos erros da posição relativa podem ser eliminados, a precisão de estimativa da auto-posição pode ser melhorada.
BREVE DESCRIÇÃO DOS DESENHOS
[007] A Figura 1 é um diagrama de blocos que mostra um exemplo de uma configuração de um dispositivo de estimativa de auto-posição de acordo com uma modalidade.
[008] A Figura 2 é um diagrama em perspectiva que mostra um estado onde um grupo de sensor circundante 1 é montado em um veículo V.
[009] A Figura 3 é um gráfico de fluxo que mostra um exemplo de um método de estimativa de auto-posição usando o dispositivo de estimativa de auto-posição mostrado na Figura 1.
[010] A Figura 4 é um diagrama em perspectiva que mostra um ambiente em que o veículo V viaja quando a estimativa de auto-posição é executada.
[011] As Figuras 5(a) a 5(d) são diagramas que respectivamente mostram posições 71 de meios-fios 61 e dados da posição do alvo 72 e 73 de linhas brancas 62 e 63 em um sistema de coordenadas do veículo detectado pelo detector de posição alvo 31 durante o tempo t1 a tempo t4, no exemplo mostrado na Figura 4.
[012] A Figura 6 é um diagrama que mostra um resultado de integração de uma quantidade movida do veículo V calculada com base de um resultado de detecção por um grupo de sensor de veículo 5, no exemplo mostrado nas Figuras 5(a) a 5(d).
[013] A Figura 7 é um diagrama que mostra dados da posição do alvo convertidos em um sistema de coordenadas de odometria, no exemplo mostrado nas Figuras 5 e 6.
[014] A Figura 8 é um diagrama conceitual que mostra informação linear (N1, N2 e N3) extraída dos dados da posição do alvo (71a a 71d, 72a a 72d e 73a a 73d).
[015] A Figura 9 é o diagrama que mostra linhas retas (N2 e N3) aproximadas aos dados da posição do alvo (72 e 73) que indicam os limites de faixa de deslocamento.
[016] A Figura 10 é um diagrama que mostra um aspecto que limites de faixa de deslocamento (72j, 72k, 73j, e 73k) que podem ser linearmente aproximados são detectados, que indicam limites de faixa de deslocamento que especificam uma faixa de deslocamento em que o veículo V está viajando.
[017] A Figura 11 é um diagrama que mostra um aspecto que limites de faixa de deslocamento (72m, 72n, 73m, e 73n) que podem ser curvilineamente aproximados são detectados, que indicam limites de faixa de deslocamento que especificam uma faixa de deslocamento em que o veículo V está viajando.
DESCRIÇÃO DE REALIZAÇÕES DA INVENÇÃO
[018] Uma modalidade será agora explicada com referência aos desenhos. Na descrição dos desenhos, o número de referência idêntico ou similar é anexado à parte idêntica ou similar, e uma explicação do mesmo é omitida.
[019] Com referência à Figura 1, uma configuração de um dispositivo de estimativa de auto-posição de acordo com a presente modalidade será agora explicada. O dispositivo de estimativa de auto- posição de acordo com a presente modalidade inclui um grupo de sensor circundante 1, uma unidade de processamento 3, uma unidade de armazenamento 4, e um grupo de sensor de veículo 5. O dispositivo de estimativa de auto-posição de acordo com a presente modalidade é montado em um veículo V (consulte a Figura 2), e está configurado para estimar uma auto-posição do veículo V.
[020] Na presente modalidade, está configurado para estimar três graus de liberdade no total incluindo posições e ângulo de atitude (isto é, uma posição na direção Leste-Oeste (direção axial X) (coordenada X [m]) e uma posição na direção norte-sul (direção axial Y) (coordenada Y [m]) como a auto-posição do veículo V a ser estimada, e um ângulo de azimute θ do veículo (ângulo de guinada [rad]) como os dados do ângulo de atitude do veículo V a serem estimados) no plano bidimensional.
[021] O grupo de sensor circundante 1 inclui uma pluralidade de Medidores de Distância a Laser (LRFs) 101 e 102 e uma pluralidade de câmeras 201 e 202, por exemplo. Os Medidores de Distância a Laser (LRFs) 101 e 102 são respectivamente configurados para detectar uma distância e azimute a um alvo recebendo-se luz refletida do alvo a que luz de laser é emitida. As câmeras 201 e 202 são configuradas para capturar os arredores do veículo V, e obter a imagem digital capaz de processar a imagem. Assim, o grupo de sensor circundante 1 é composto de uma pluralidade de sensores respectivamente configurados para detectar alvos presentes nos arredores do veículo V. Além da pluralidade de sensores, o grupo de sensor circundante 1 pode incluir sonar e/ou radar. Os alvos que estão presentes nos arredores do veículo V incluem: alvos que indicam limites de faixa de deslocamento presentes em uma faixa de deslocamento nos arredores do veículo V, por exemplo, linhas brancas, meios-fios, faixas medianas, grades de proteção e refletores; marcadores de superfície de estrada, por exemplo, linhas de parada, travessias de pedestres e marcadores de limite de velocidade; e estruturas rodoviárias, por exemplo, sinais de trânsito, semáforos e o poste da linha de serviço público.
[022] A Figura 2 mostra um exemplo que ilustra um estado onde o grupo de sensor circundante 1 é montado no veículo V. Os LRFs 101 e 102 podem ser respectivamente montados perto dos para-lamas dianteiros de ambos os lados do veículo V, por exemplo. Os LRFs 101 e 102 são configurados para varrer luz de laser em um ângulo de varredura predeterminado (por exemplo, 90 graus) para que um trajeto da luz de laser a ser emitida pode, por exemplo, formar um plano vertical em relação a uma superfície de estrada como um eixo de rotação ao longo de uma direção D para frente e para trás do veículo V. Consequentemente, os LRFs 101 e 102 podem detectar alvos, tais como meios-fios ou semelhantes, que estão presentes em uma direção para direita e para esquerda do veículo V. Os LRFs 101 e 102 são configurados para sequencialmente emitir um formato do alvo detectado para a unidade de processamento 3 como um resultado de detecção.
[023] As câmeras 201 e 202 podem ser respectivamente montadas em espelhos retrovisores de ambos os lados do veículo V, por exemplo. As câmeras 201 e 202 são configuradas para capturar uma imagem por meio de elementos de imageamento de estado sólido, por exemplo, um Dispositivo de Carga Acoplada (CCD) e um Semicondutor de Óxido de Metal Complementar (CMOS), por exemplo. As câmeras 201 e 202 são configuradas para capturar uma superfície de estrada de uma direção lateral do veículo V, por exemplo. As câmeras 201 e 202 são configuradas para emitir sequencialmente a imagem capturada para a unidade de processamento 3.
[024] Voltando à Figura 1, a unidade de armazenamento 4 é uma unidade de armazenamento de informação de mapa configurada para armazenar informação de mapa 41 incluindo informação de posição em alvos presentes em uma estrada ou em torno da estrada. A unidade de armazenamento 4 pode ser composta incluindo-se uma memória semicondutora, um disco magnético, ou semelhantes. Os alvos (ponto de referência) registrados na informação de mapa 41 incluem, por exemplo, várias instalações que podem ser detectadas pelo grupo de sensor circundante 1 além de: os marcadores de rodovia que indicam linhas de parada, travessias de pedestres, avisos antecipados de travessia de pedestres, linhas de seção, e semelhantes; estruturas, por exemplo, meios- fios, e semelhantes, etc. Também em relação a um alvo realmente tendo uma estrutura tridimensional tais como meios-fios, a informação de mapa 41 é descrita com apenas informação de posição em um plano bidimensional. Na informação de mapa 41, a informação de posição, por exemplo, meios-fios e linhas brancas, é definida pelo agregado de informação linear tendo informação de posição bidimensional em ambos os pontos finais. A informação de mapa 41 é descrita como informação linear em um plano bidimensional aproximado com uma linha poligonal, quando um formato de ambiente real é uma curva.
[025] O grupo de sensor de veículo 5 inclui um receptor de GPS 51, um sensor de acelerador 52, um sensor de direção 53, um sensor de freio 54, um sensor de velocidade do veículo 55, um sensor de aceleração 56, um sensor de velocidade da roda 57 e outros sensores, tais como um sensor de taxa de guinada. Cada sensor 51 a 57 é conectado à unidade de processamento 3 e está configurado para emitir sequencialmente vários resultados de detecção para a unidade de processamento 3. A unidade de processamento 3 pode calcular uma posição do veículo V na informação de mapa 41 ou pode calcular a odometria que indica uma quantidade movida do veículo V em uma unidade de tempo, usando-se cada resultado de detecção do grupo de sensor de veículo 5. Por exemplo, como um método de medição da quantidade movida do veículo V, podem ser considerados vários esquemas, por exemplo, um método de medição de odometria na frequência rotacional de um pneu, um método de medição de inércia usando um giroscópio ou um sensor de aceleração, um método ao receber ondas elétricas de satélites, por exemplo, um Sistema Global de Navegação por Satélite (GNSS), e Localização e Mapeamento Simultâneos (SLAM) para estimar uma quantidade movida de mudança de um valor de medição de sensores externos; mas pode ser usado qualquer método.
[026] A unidade de processamento 3 inclui: uma unidade de detecção de posição alvo 31, uma unidade de estimativa de quantidade movida 32, uma unidade de armazenamento de posição alvo 33, uma unidade de extração de linha reta 34, uma unidade de seleção de posição alvo 35, uma unidade de estimativa de auto-posição 36 e uma unidade de estimativa de atributo alvo 37. A unidade de processamento 3 pode ser composta incluindo-se um microcontrolador que é um circuito integrado fornecido com uma Unidade Central de Processamento (CPU), uma memória, uma interface de entrada/saída (I/F), e semelhantes, por exemplo. Neste caso, uma pluralidade de unidades de processamento de informação (31 a 37) que constituem a unidade de processamento 3 são realizadas pela CPU que executa um programa de computador pré-instalado no microcontrolador. Cada unidade que constitui a unidade de processamento 3 pode ser composta incluindo-se hardware integrado ou pode ser composta incluindo- se hardware discreto. O microcontrolador também pode ser usado como uma Unidade de Controle Eletrônico (ECU) usada para outro controle em relação ao veículo V, por exemplo, controle de direção automático, por exemplo. Um “circuito de estimativa de auto-posição” é fornecido incluindo- se a unidade de estimativa de quantidade movida 32, a unidade de armazenamento de posição alvo 33, a unidade de extração de linha reta 34, a unidade de seleção de posição alvo 35, a unidade de estimativa de auto- posição 36 e a unidade de estimativa de atributo alvo 37.
[027] A unidade de detecção de posição alvo 31 detecta uma posição relativa entre um alvo presente nos arredores do veículo V e o veículo V com base de um resultado de detecção de pelo menos qualquer um dos LRFs 101 e 102 e das câmeras 201 e 202. A posição relativa detectada pela unidade de detecção de posição alvo 31 é uma posição em um sistema de coordenadas do veículo. O sistema de coordenadas do veículo pode adotar o centro de um eixo de roda traseiro do veículo V como um ponto de origem, uma direção à frente do veículo V como uma direção positiva do eixo x, uma direção V para a esquerda do veículo V como uma direção positiva do eixo y, e uma direção a montante como uma direção positiva do eixo z. Além disso, uma fórmula de conversão do sistema de coordenadas (sistema de coordenadas do sensor) dos LRFs 101 e 102 e das câmeras 201 e 202 para o sistema de coordenadas do veículo é previamente ajustada na unidade de detecção de posição alvo 31. Um “sensor de detecção alvo” é fornecido incluindo-se o grupo de sensor de veículo 5 e a unidade de detecção de posição alvo 31.
[028] A unidade de estimativa de quantidade movida 32 detecta uma odometria que é uma quantidade movida do veículo V em uma unidade de tempo com base na informação de resultado de detecção de pelo menos qualquer um dos sensores incluídos no grupo de sensor de veículo 5. A quantidade movida do veículo V é detectada como uma quantidade movida no sistema de coordenadas de odometria. A unidade de armazenamento de posição alvo 33 armazena uma posição onde a posição relativa do alvo detectado pela unidade de detecção de posição alvo 31 é movida pela quantidade movida do veículo V detectada pela unidade de estimativa de quantidade movida 32, como dados da posição do alvo, em uma unidade de armazenamento principal ou a unidade de armazenamento 4 na unidade de processamento 3.
[029] A unidade de extração de linha reta 34 extrai informação linear dos dados da posição do alvo armazenados na unidade de armazenamento de posição alvo 33. A unidade de estimativa de atributo alvo 37 estima um atributo do alvo com base de um resultado de detecção de pelo menos qualquer um dos LRFs 101 e 102 e das câmeras 201 e 202. A unidade de seleção de posição alvo 35 seleciona dados da posição do alvo com base na confiabilidade da posição relativa em relação ao veículo de dados da posição do alvo. A unidade de seleção de posição alvo 35 determina a confiabilidade da posição relativa dos dados da posição do alvo em relação ao veículo V com base na informação linear extraída pela unidade de extração de linha reta 34 e o atributo do alvo estimado pela unidade de estimativa de atributo alvo 37. A unidade de estimativa de auto-posição 36 estima uma auto-posição que é uma posição atual do veículo V comparando- se os dados da posição do alvo selecionados com a informação de mapa incluindo a informação de posição no alvo presente na estrada ou em torno da estrada.
[030] Com referência à Figura 3, um exemplo de um método de estimativa de auto-posição usando o dispositivo de estimativa de auto-posição mostrado na Figura 1 será agora explicado. Em primeiro lugar, na Etapa S01, o dispositivo de estimativa de auto-posição mede os arredores do veículo V usando o grupo de sensor circundante 1.
[031] Prosseguindo à Etapa S03, o grupo de sensor circundante 1 respectivamente detecta alvos presentes nos arredores do veículo V. Prosseguindo à Etapa S05, a unidade de detecção de posição alvo 31 estima uma posição do alvo em relação aos LRFs 101 e 102 e as câmeras 201 e 202 (isto é, uma posição relativa do alvo no sistema de coordenadas do sensor) com base no resultado de detecção de pelo menos qualquer um dos LRFs 101 e 102 e das câmeras 201 e 202. Por exemplo, em um caso das câmeras 201 e 202, uma relação entre a posição em uma imagem e a distância real pode ser previamente medida. Alternativamente, é possível utilizar um sistema de movimento estéreo. O método de estimativa não é limitado a esse método, e outros métodos conhecidos também podem ser utilizados. Se um outro sensor (por exemplo, sonar, LRF, ou radar) capaz de obter informação de distância for usado, um valor a ser obtido pode ser diretamente utilizado.
[032] A Figura 4 é um exemplo que ilustra um ambiente em que o veículo V viaja quando a estimativa de auto-posição é executada. No exemplo mostrado na Figura 4, uma superfície de estrada incluindo meios- fios 61 é irradiada com luz de laser emitida do LRF 101, como mostrado pela linha 64. A unidade de detecção de posição alvo 31 extrai um lugar onde a mudança de um formato é grande, como uma posição dos meios-fios 61, com base em uma direção e uma distância da luz de laser emitida e, desse modo, detecta uma posição no sistema de coordenadas do sensor. Visto que, pode ser considerado que existe sempre uma superfície de estrada em uma direção vertical a jusante dos LRFs 101 e 102, os meios-fios 61 podem ser detectados extraindo-se um ponto onde há uma grande mudança quando a superfície de estrada é comparada com a altura da mesma.
[033] Além disso, a unidade de detecção de posição alvo 31 detecta linhas brancas 62 e 63 que estão presentes em ambos os lados do veículo V, respectivamente com base na informação de brilho das imagens capturadas pelas câmeras 201 e 202. Por exemplo, a unidade de detecção de posição alvo 31 detecta o padrão do qual a luminância é alterada na ordem de uma porção escura, uma porção brilhante, e uma porção brilhante, com base na imagem em escala de cinza capturada pela câmera (201, 202) e, desse modo, pode detectar o centro da porção brilhante como a linha branca (62, 63). As posições das linhas brancas 62 e 63 no sistema de coordenadas do sensor podem ser respectivamente detectadas com base em uma relação posicional entre as câmeras 201, 202 e a superfície de estrada. A posição no sistema de coordenadas do sensor detectada na Etapa S05 é em seguida manejada como dados bidimensionais a partir dos quais a informação de altura é excluída.
[034] Prosseguindo à Etapa S07, a unidade de detecção de posição alvo 31 converte a posição relativa do alvo no sistema de coordenadas do sensor em uma posição relativa do alvo no sistema de coordenadas do veículo usando a fórmula de conversão previamente ajustada no mesmo.
[035] As Figuras 5(a) a 5(d) são diagramas respectivamente que mostram posições 71 de meios-fios 61 e dados da posição do alvo 72 e 73 de linhas brancas 62 e 63 em um sistema de coordenadas do veículo detectado pelo detector de posição alvo 31 durante o tempo t1 a tempo t4, no exemplo mostrado na Figura 4. O tempo t1 é o tempo mais antigo, e o tempo t4 é o tempo mais recente.
[036] Em seguida, na Etapa S07, a unidade de estimativa de quantidade movida 32 integra a quantidade movida do veículo V calculada com base no resultado de detecção do grupo de sensor de veículo 5 e, desse modo, calcula uma posição do veículo V no sistema de coordenadas de odometria. Para o sistema de coordenadas de odometria, o ângulo de azimute do veículo V pode ser ajustado para 0 grau, com referência a uma posição do veículo V, como o ponto de origem, no tempo quando a energia é fornecida ao dispositivo de estimativa de auto-posição ou o processamento é redefinido. A integração da quantidade movida do veículo V é executada no sistema de coordenadas de odometria.
[037] A Figura 6 é um diagrama que mostra um resultado de integração de uma quantidade movida (M1, M2, M3 e M4) do veículo V calculada com base em um resultado de detecção por um grupo de sensor de veículo 5, no exemplo mostrado nas Figuras 5(a) a 5(d). A quantidade movida inclui uma mudança em posição e atitude (θ: ângulo de guinada) no sistema de coordenadas bidimensional. Desta maneira, a unidade de estimativa de quantidade movida 32 calcula uma posição (Xo, Yo) do veículo V no sistema de coordenadas de odometria.
[038] Na Etapa S07, a unidade de armazenamento de posição alvo 33 armazena uma posição onde a posição relativa do alvo no sistema de coordenadas do veículo detectado pela unidade de detecção de posição alvo 31 é movida pela quantidade movida do veículo V detectada pela unidade de estimativa de quantidade movida 32, como dados da posição do alvo.
[039] A Figura 7 é um diagrama que mostra os dados da posição do alvo (71a a 71d, 72a a 72d e 73a a 73d) convertidos em um sistema de coordenadas de odometria, no exemplo mostrado nas Figuras 5 e 6. Assim, a unidade de armazenamento de posição alvo 33 converte a posição do alvo no sistema de coordenadas do sensor medido no passado (t1, t2, t3, ...) em uma posição do alvo no sistema de coordenadas de odometria com base na quantidade movida (M1, M2, M3, M4) do veículo V, e armazena os dados de posição convertidos como dados da posição do alvo.
[040] Prosseguindo à Etapa S09, a unidade de seleção de posição alvo 35 extrai dados da posição do alvo (71a a 71d, 72a a 72d e 73a a 73d) que indicam limite de faixa de deslocamento com base em uma pluralidade de dados da posição do alvo armazenados, e calcula a confiabilidade da posição relativa em relação ao veículo V em relação aos dados da posição do alvo extraídos (71a a 71d, 72a a 72d e 73a a 73d).
[041] Em primeiro lugar, como mostrado na Figura 8, a unidade de extração de linha reta 34 extrai informação linear (N1, N2, e N3) com base dos dados da posição do alvo (71a a 71d, 72a a 72d e 73a a 73d) armazenados na unidade de armazenamento de posição alvo 33. Uma aproximação linear é aplicada ao resultado de detecção da linha branca (dados da posição do alvo). Além disso, a unidade de seleção de posição alvo 35 determina a confiabilidade da posição relativa dos dados da posição do alvo em relação ao veículo V de acordo com uma diferença entre a distância do veículo V para o alvo obtido com base na posição relativa do alvo e a distância considerada do veículo V para o alvo. A unidade de seleção de posição alvo 35 determina que a confiabilidade é maior conforme a diferença anteriormente mencionada é menor.
[042] Por exemplo, a unidade de extração de linha reta 34 aproxima as linhas retas (N2 e N3) em relação aos dados da posição do alvo (72 e 73) que indicam o limite de faixa de deslocamento mostrado na Figura 9. A unidade de seleção de posição alvo 35 mede as respectivas distâncias em uma direção na largura do veículo do veículo V para as respectivas linhas retas (N2 e N3). Quando a largura da faixa de deslocamento são de 4 metros e o veículo V está viajando no centro da faixa de deslocamento, as respectivas distâncias consideradas do centro do veículo V para as respectivas linhas brancas são de 2 metros. Quando o valor absoluto da diferença entre a distância do veículo V para a linha reta (N2, N3) e a distância considerada (2 metros) incluindo um desvio da posição do veículo V em relação à faixa de deslocamento, um erro de detecção, e semelhantes é 1 metro ou mais, é determinado que existe uma grande possibilidade que a distância do veículo V para a linha reta (N2, N3) é imprecisa. No exemplo mostrado na Figura 3, o valor absoluto da diferença entre a distância WL e a distância estimada (2 metros) é menor do que 1 metro, mas o valor absoluto da diferença entre a distância LR e a distância estimada (2 metros) é igual a ou maior do que 1 metro. Consequentemente, a unidade de seleção de posição alvo 35 avalia de forma inferior a confiabilidade dos dados da posição do alvo 73 que indicam o limite de faixa de deslocamento do lado direito, e avalia de forma superior a confiabilidade dos dados da posição do alvo 72 que indicam o limite de faixa de deslocamento do lado esquerdo. A unidade de seleção de posição alvo 35 elimina os dados da posição do alvo 73 dos quais a confiabilidade é avaliada de forma inferior, e adota apenas os dados da posição do alvo 72 dos quais a confiabilidade é avaliada de forma superior.
[043] O método de determinação acima mencionado da confiabilidade com base na diferença com a distância considerada é aplicável não apenas aos limites de faixa de deslocamento, por exemplo, linhas brancas e meios-fios, mas é aplicável também a outros alvos. Por exemplo, estruturas rodoviárias, por exemplo, sinais de trânsito, semáforos e postes de serviço público, estão presentes em faixas laterais. Consequentemente, a distância considerada pode ser ajustada com base na largura da faixa de deslocamento e, portanto, a diferença entre a distância relativa para a estrutura rodoviária detectada do veículo V e a distância considerada pode ser calculada.
[044] A unidade de seleção de posição alvo 35 ainda determina a confiabilidade com base no atributo do alvo em relação aos dados da posição do alvo 72 selecionados com base na diferença acima mencionada com a distância considerada. Mais especificamente, a unidade de seleção de posição alvo 35 determina a confiabilidade dos dados da posição do alvo 72 com base no atributo do alvo estimado pela unidade de estimativa de atributo alvo 37, e ainda restringe os dados da posição do alvo a serem usados para a estimativa de auto-posição.
[045] Por exemplo, visto que um região detectável da linha sólida é maior do que uma região detectável da linha tracejada mesmo se ambas as linhas são a mesma linha branca, pode ser determinado que a precisão de detecção (isto é, confiabilidade) da posição relativa é relativamente alta. Com referência à informação de mapa, é possível especificar previamente se a linha branca detectada é uma linha sólida ou uma linha tracejada. Quando se descobriu que a linha branca posicionada em um lado do veículo V é uma linha sólida e a linha branca posicionada do outro lado é uma linha tracejada, é determinado que a confiabilidade dos dados da posição do alvo que indicam a linha branca posicionada em um lado é relativamente alta mesmo se os erros de detecção de ambos os lados ou as respectivas distâncias do veículo V são aproximadamente os mesmos. Consequentemente, os dados da posição do alvo que indicam a linha branca posicionada em um lado é selecionada.
[046] O tipo da linha branca é meramente um exemplo do atributo dos alvos e, portanto, outros atributos dos alvos também podem ser aplicados a eles. Por exemplo, em relação a uma cor da linha de seção, é mais fácil para detectar linhas brancas do que as linhas amarelas e, portanto, a confiabilidade das linhas brancas é altamente determinada. Além disso, a confiabilidade do alvo diferente pode ser determinada uma da outra. Por exemplo, comparar as linhas de parada e as travessias de pedestres entre si, visto que o número de partes características das travessias de pedestres é maior do que das linhas de parada, a confiabilidade das travessias de pedestres é altamente determinada.
[047] A unidade de seleção de posição alvo 35 ainda determina a confiabilidade dos dados da posição do alvo com base em um período de tempo quando os dados da posição do alvo podem ser continuamente detectados, em relação aos dados da posição do alvo selecionados com base no atributo do alvo acima mencionado.
[048] Não apenas linhas brancas mas quaisquer alvos presentes em ambientes gerais nem sempre podem ser continuamente detectados com confiabilidade constante devido à degradação de envelhecimento, oclusão, e outros efeitos. Além disso, em um caso de adotar um sistema de fusão do sensor para cobrir diferentes direções por meio de uma pluralidade de sensores, também é considerado que uma detecção de apenas uma certa direção é sempre incerta. Portanto, a informação na linha branca ou o limite de faixa de deslocamento é avaliado em conjunto com o período de detecção de tempo da mesma. Então, apenas quando é continuamente detectado por um certo período de tempo (por exemplo, 10 segundos) ou mais, é determinado que a confiabilidade do mesmo é alta e esses dados da posição do alvo devem ser selecionados.
[049] A unidade de seleção de posição alvo 35 ainda determina a confiabilidade dos dados da posição do alvo com base na distribuição de erros quando os dados da posição do alvo do limite de faixa de deslocamento são linearmente aproximados, em relação aos dados da posição do alvo selecionados com base no período de detecção de tempo contínuo acima mencionado. Em outras palavras, a unidade de seleção de posição alvo 35 determina a confiabilidade dos dados da posição do alvo com base na informação linear (linha reta de aproximação) extraída pela unidade de extração de linha reta 34, e ainda restringe os dados da posição do alvo a serem usados para a estimativa de auto-posição.
[050] A unidade de seleção de posição alvo 35 determina se ou não uma pluralidade de limites de faixa de deslocamento paralela é detectada como dados da posição do alvo que indicam limites de faixa de deslocamento (por exemplo, linhas brancas) para especificar uma faixa de deslocamento em que o veículo V está viajando. Além disso, quando uma pluralidade dos limites de faixa de deslocamento paralela é detectada, a confiabilidade dos dados da posição do alvo em uma faixa que pode ser aproximada com a linha reta nos resultados de detecção das linhas brancas (dados da posição do alvo) é avaliada de forma superior, e seleciona os dados da posição do alvo altamente avaliados como dados da posição do alvo a serem usados para a estimativa de auto-posição. Por exemplo, como mostrado na Figura 10, são detectados os dados da posição do alvo (72j, 72k, 73j, e 73k), que indicam uma pluralidade dos limites de faixa de deslocamento paralela, que especificam uma faixa de deslocamento em que o veículo V está viajando. A unidade de extração de linha reta 34 aplica uma aproximação linear aos dados da posição do alvo que indicam o limite de faixa de deslocamento. A unidade de seleção de posição alvo 35 seleciona os dados da posição do alvo (72j e 73j) incluídos na faixa LA que podem ser aproximados com as linhas retas, entre os dados da posição do alvo (72j, 72k, 73j, e 73k). Neste momento, a unidade de seleção de posição alvo 35 expande a faixa LA que pode ser aproximada com as linhas retas em relação ao veículo V. Por exemplo, uma seção em que o número de dados da posição do alvo tendo uma distância mínima dos dados da posição do alvo estando dentro de uma faixa de -15 cm a +15 cm em relação à linha aproximada é igual a ou maior do que 80 % é ajustada conforme a faixa LA que pode ser aproximada com as linhas retas. Por outro lado, os dados da posição do alvo (72k e 73k) não estão incluídos na faixa LA que pode ser aproximada com as linhas retas são eliminados.
[051] Em adição, como mostrado na Figura 11, quando a faixa de deslocamento em que o veículo V está viajando é uma seção curva, a linha aproximada não é sempre uma linha reta. Neste caso, a unidade de extração de linha reta 34 executa uma aproximação de curva em vez da aproximação linear (aproximação de linha reta). A unidade de seleção de posição alvo 35 avalia de forma superior a confiabilidade dos dados da posição do alvo (72m e 73m) incluídos na faixa LB que pode ser aproximada com as linhas curvas (N2 e N3), e seleciona os dados da posição do alvo altamente avaliados como dados da posição do alvo a serem usados para a estimativa de auto- posição. Por outro lado, os dados da posição do alvo (72n e 73n) não estão incluídos na faixa LB que pode ser aproximada com as linhas curvas são eliminados.
[052] Na presente modalidade, foi mostrado o exemplo em que a unidade de seleção de posição alvo 35 determina a confiabilidade da posição relativa dos dados da posição do alvo em relação ao veículo V na ordem de (1) a diferença entre a distância do veículo V para o alvo e a distância considerada, (2) o atributo do alvo, (3) o período de detecção de tempo contínuo, e (4) a distribuição de erros quando os dados da posição do alvo que indicam o limite de faixa de deslocamento são linearmente aproximados. A presente invenção não é limitada a tal exemplo, mas a sequência da determinação de confiabilidade pode ser arbitrariamente substituída. Alternativamente, apenas uma parte do processamento de determinação entre o processamento de determinação (1) a (4) também pode ser executada. Além disso, uma avaliação abrangente pode ser executada quantificando-se cada determinação de confiabilidade. Por exemplo, em cada determinação de confiabilidade, pontos de avaliação podem ser dados em múltiplos estágios a serem adicionados a eles, e desse modo um ponto de avaliação total pode ser calculado. Consequentemente, a confiabilidade do alvo detectado pode ser quantificada para ser determinada.
[053] Em seguida, prosseguindo à Etapa S13, a unidade de estimativa de auto-posição 36 compara os dados da posição do alvo selecionados pela unidade de seleção de posição alvo 35 com a posição do alvo na informação de mapa 41. Em outras palavras, a posição do alvo na informação de mapa 41 e os dados da posição do alvo determinados de modo a ter alta confiabilidade pela unidade de seleção de posição alvo 35 são combinados entre si.
[054] Prosseguindo à Etapa S15, a unidade de estimativa de auto- posição 36 estima uma auto-posição do veículo V executando-se a comparação acima mencionada (correspondência de mapa) da posição do alvo. Mais especificamente, a unidade de estimativa de auto-posição 36 estima uma posição e um ângulo de atitude do total de três graus de liberdade compostos de uma posição na direção Leste-Oeste do veículo V (coordenada X), uma posição na direção norte-sul dos mesmos (coordenada Y), e um ângulo de azimute (ângulo de guinada θ). Um método de estimativa de auto-posição conhecido pode ser usado como o método de estimar a posição no mapa. Prosseguindo à Etapa S17, a unidade de estimativa de auto-posição 36 produz a auto-posição do veículo V estimada.
[055] Em adição, um algoritmo Iterative Closest Point (ICP - algoritmo iterativo para registro de imagens) pode ser usado para a comparação na Etapa S13. Neste momento, em relação às linhas de seção, por exemplo, a unidade de estimativa de auto-posição 36 corresponde a pontos finais de ambas as extremidades dos mesmos como um ponto de avaliação, entre as posições do alvo incluídas na informação de mapa 41. Além disso, visto que os dados da posição do alvo não são mais afetados por um erro de odometria uma vez que está mais próximo ao veículo V (grupo de sensor circundante 1), a unidade de estimativa de auto-posição 36 pode aumentar o número de pontos de avaliação para o alvo na vizinhança do veículo V complementando-se linearmente o alvo, e pode diminuir o número dos pontos de avaliação para o alvo longe do veículo V.
[056] Como mencionado acima, de acordo com as modalidades, as seguintes operações/efeitos de trabalho podem ser obtidos.
[057] Visto que os dados da posição do alvo são selecionados com base na confiabilidade da posição relativa de dados da posição do alvo em relação ao veículo V, os dados da posição do alvo estimados para ter muitos erros da posição relativa podem ser eliminados, e desse modo a precisão de estimativa da auto-posição é melhorada. [0049]
[058] A seção de seleção de posição alvo 35 determina que a confiabilidade da posição relativa dos dados da posição do alvo em relação ao veículo é maior conforme a diferença entre a distância do veículo V para o alvo e a distância considerada é menor. Como um resultado, visto que os dados da posição do alvo estimados de modo a ter um grande erro na posição relativa podem ser apropriadamente eliminados, a precisão de estimativa da auto- posição pode ser melhorada.
[059] A unidade de seleção de posição alvo 35 determina a confiabilidade da posição relativa dos dados da posição do alvo em relação ao veículo V com base no atributo do alvo. Por exemplo, comparar a linha sólida e a linha tracejada de linhas brancas entre si, a unidade de seleção de posição alvo 35 determina que a linha sólida capaz de obter de forma constante os dados da posição do alvo é mais confiável do que a linha tracejada. Consequentemente, visto que os dados da posição do alvo estimados de modo a ter muitos erros na posição relativa podem ser apropriadamente determinados, a precisão de estimativa da auto-posição pode ser melhorada.
[060] A unidade de seleção de posição alvo 35 determina a confiabilidade da posição relativa dos dados da posição do alvo em relação ao veículo V com base no período de tempo quando os dados da posição do alvo podem ser continuamente detectados. Como um resultado, é possível estimar de maneira estável e precisa a auto-posição.
[061] A unidade de seleção de posição alvo 35 seleciona dados da posição do alvo tendo alta confiabilidade da posição relativa em relação ao veículo V, quando dados da posição do alvo que indicam uma pluralidade de limites de faixa de deslocamento paralela, que especificam uma faixa de deslocamento em que o veículo V viaja, é detectada. Consequentemente, o limite de faixa de deslocamento tendo alta precisão de posição pode ser selecionado, e a precisão da estimativa de auto-posição se torna maior.
[062] A seção de seleção de posição alvo 35 determina que a confiabilidade da posição relativa dos dados da posição do alvo que indicam o limite de faixa de deslocamento em relação ao veículo V é maior, como um erro da linha aproximada ao aproximar o limite de faixa de deslocamento é menor. Consequentemente, o limite de faixa de deslocamento tendo alta precisão da posição detectada pode ser selecionado, e a precisão de estimativa da estimativa de auto-posição ainda se torna maior.
[063] As modalidades da presente invenção foram descritas acima, como uma divulgação incluindo descrição associada e desenhos a serem interpretados como ilustrativos, não restritivos. Essa divulgação torna clara uma variedade de modalidades alternativas, exemplos de trabalho, e técnicas operacionais para as pessoas versadas na técnica.
[064] O objeto em movimento não é limitado ao veículo V como objetos em movimento que se movem em terra, mas inclui vasos, aeronaves, espaçonaves e outros objetos em movimento.
[065] As funções descritas nas respectivas modalidades podem ser implementadas em um ou mais circuitos de processamento. Tal circuito de processamento inclui um dispositivo de processamento programado, tal como um dispositivo de processamento incluindo um circuito elétrico. Além disso, o dispositivo de processamento inclui um Circuito Integrado de Aplicação Específica (ASIC) e/ou um dispositivo tal como um componente de circuito convencional, configurado para executar as funções descritas nas respectivas modalidades. LISTA DE SINAIS DE REFERÊNCIA 1 Grupo de sensor circundante (Sensor de detecção alvo) 31 Unidade de detecção de posição alvo (Sensor de detecção alvo) 32 Unidade de estimativa de quantidade movida (Circuito de estimativa de auto-posição) 33 Unidade de armazenamento de posição alvo (Circuito de estimativa de auto-posição) 34 Unidade de extração de linha reta (Circuito de estimativa de auto- posição) 35 Unidade de seleção de posição alvo (Circuito de estimativa de auto- posição) 36 Unidade de estimativa de auto-posição (Circuito de estimativa de auto-posição) 37 Unidade de estimativa de atributo alvo (Circuito de estimativa de auto-posição) 41 Informação de mapa 61 Altura da etapa (Alvo) 62, 63 Linha branca (Alvo) 72j, 72k, 72m, 72n Dados da posição do alvo 73j, 73k, 73n, 73m Dados da posição do alvo M1 a M4 Quantidade movida de objeto em movimento N1, N2, N3 Linha que aproxima uma pluralidade de dados da posição do alvo V Veículo (Objeto em movimento)

Claims (7)

1. Método de estimativa de auto-posição usando um sensor de detecção alvo (1, 31) e um circuito de estimativa de auto-posição (32, 33, 34, 35, 36, 37), o sensor de detecção alvo (1, 31) sendo montado em um objeto em movimento (V), o sensor de detecção alvo (1, 31) configurado para detectar uma posição relativa entre um alvo (61, 62, 63) presente nos arredores do objeto em movimento (V) e o objeto em movimento (V), o circuito de estimativa de auto- posição (32, 33, 34, 35, 36, 37) configurados para converter uma posição relativa em uma posição de alvo em um sistema de coordenadas de odometria com base em uma quantidade movida (M1 a M4) enquanto o objeto em movimento (V) está se movendo, e para converter dados de posição como dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m), o método de estimativa de auto- posição CARACTERIZADO pelo fato de que compreende as etapas de: selecionar os dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) para serem comparados com uma informação de mapa (41) dos dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) com base na confiabilidade da posição relativa dos dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) em relação ao objeto em movimento (V); e comparar os dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) selecionados com uma informação de mapa (41), incluindo informação de posição no alvo (61, 62, 63) presente em uma estrada ou em torno da estrada, desse modo estimando uma auto-posição que é uma posição atual do objeto em movimento (V).
2. Método de estimativa de auto-posição, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a confiabilidade é determinada tal que a confiabilidade é maior como uma diferença entre uma distância do objeto em movimento (V) para o alvo (61, 62, 63) obtido da posição relativa e uma distância considerada do objeto em movimento (V) para o alvo (61, 62, 63) é menor.
3. Método de estimativa de auto-posição, de acordo com qualquer uma das reivindicações 1 a 2, CARACTERIZADO pelo fato de que a confiabilidade é determinada com base em um atributo do alvo (61, 62, 63).
4. Método de estimativa de auto-posição, de acordo com qualquer uma das reivindicações 1 a 3, CARACTERIZADO pelo fato de que a confiabilidade é determinada com base em um período de tempo quando os dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) podem ser continuamente detectados.
5. Método de estimativa de auto-posição, de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que os dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) tendo alta confiabilidade da posição relativa em relação ao objeto em movimento (V) é selecionada, quando dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) que indicam uma pluralidade de limites de faixa de deslocamento paralela, especificam uma faixa de deslocamento em que objeto em movimento (V) viaja, é detectado.
6. Método de estimativa de auto-posição, de acordo com a reivindicação 5, CARACTERIZADO pelo fato de que a confiabilidade é determinada tal que a confiabilidade da posição relativa dos dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) que indicam o limite de faixa de deslocamento em relação ao objeto em movimento (V) é maior, como um erro entre uma linha que se aproxima de uma pluralidade dos dados da posição do alvo (N1, N2, N3) que indicam o limite de faixa de deslocamento e a pluralidade dos dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) é menor.
7. Dispositivo de estimativa de auto-posição CARACTERIZADO pelo fato de que compreende: um sensor de detecção alvo (1, 31) montado em um objeto em movimento (V), o sensor de detecção alvo (1, 31) configurado para detectar uma posição relativa entre um alvo (61, 62, 63) presente nos arredores do objeto em movimento (V) e o objeto em movimento (V); e um circuito de estimativa de auto-posição (32, 33, 34, 35, 36, 37) configurado para converter uma posição relativa em uma posição de alvo em um sistema de coordenadas de odometria com base uma quantidade movida (M1 a M4) enquanto o objeto em movimento (V) está se movendo, e para converter dados de posição como dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m), para selecionar os dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) para ser comparado com informação de um mapa (41) dos dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) com base na confiabilidade da posição relativa dos dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) em relação ao objeto em movimento (V), e comparar os dados da posição do alvo (72j, 72k, 72m, 72n, 73j, 73k, 73n, 73m) selecionados com informação de mapa (41) incluindo a informação de posição no alvo (61, 62, 63) presente em um mapa, desse modo estimando uma auto-posição que é uma posição atual do objeto em movimento (V).
BR112019006057-0A 2016-09-27 2016-09-27 Método de estimativa de auto-posição e dispositivo de estimativa de auto-posição BR112019006057B1 (pt)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/078428 WO2018061084A1 (ja) 2016-09-27 2016-09-27 自己位置推定方法及び自己位置推定装置

Publications (2)

Publication Number Publication Date
BR112019006057A2 BR112019006057A2 (pt) 2019-06-18
BR112019006057B1 true BR112019006057B1 (pt) 2022-12-06

Family

ID=61759367

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112019006057-0A BR112019006057B1 (pt) 2016-09-27 2016-09-27 Método de estimativa de auto-posição e dispositivo de estimativa de auto-posição

Country Status (10)

Country Link
US (1) US11321572B2 (pt)
EP (1) EP3521962B1 (pt)
JP (1) JP6881464B2 (pt)
KR (1) KR20190045220A (pt)
CN (1) CN109791408B (pt)
BR (1) BR112019006057B1 (pt)
CA (1) CA3038643A1 (pt)
MX (1) MX2019002985A (pt)
RU (1) RU2720140C1 (pt)
WO (1) WO2018061084A1 (pt)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6421782B2 (ja) * 2016-04-22 2018-11-14 トヨタ自動車株式会社 周辺情報収集システム
EP3591381A4 (en) * 2017-03-29 2021-01-13 Pioneer Corporation DEVICE FOR IDENTIFYING A deteriorated GROUND-BASED OBJECT, SYSTEM FOR IDENTIFYING a deteriorated GROUND-BASED OBJECT, METHOD FOR IDENTIFYING a deteriorated GROUND-BASED OBJECT, PROGRAM FOR IDENTIFYING a deteriorated GROUND BASED POINTS AND COMPUTER READABLE RECORDING MEDIUM WITH recorded thereon PROGRAM FOR IDENTIFYING a deteriorated GROUND BASED POINTS
US11294380B2 (en) 2018-05-11 2022-04-05 Arnold Chase Passive infra-red guidance system
US11062608B2 (en) 2018-05-11 2021-07-13 Arnold Chase Passive infra-red pedestrian and animal detection and avoidance system
US10467903B1 (en) 2018-05-11 2019-11-05 Arnold Chase Passive infra-red pedestrian detection and avoidance system
US10750953B1 (en) 2018-05-11 2020-08-25 Arnold Chase Automatic fever detection system and method
DE112019003433T5 (de) * 2018-09-25 2021-04-15 Hitachi Automotive Systems, Ltd. Erkennungsvorrichtung
JP7332403B2 (ja) * 2019-09-11 2023-08-23 株式会社東芝 位置推定装置、移動体制御システム、位置推定方法およびプログラム
JP7409330B2 (ja) * 2021-01-28 2024-01-09 トヨタ自動車株式会社 自己位置推定精度検証方法、自己位置推定システム
JP2023039626A (ja) * 2021-09-09 2023-03-22 日立Astemo株式会社 車載処理装置、車両制御装置、及び自己位置推定方法
JP7241839B1 (ja) 2021-10-06 2023-03-17 三菱電機株式会社 自己位置推定装置

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3029360B2 (ja) 1993-05-21 2000-04-04 三菱電機株式会社 自動車用白線検出装置
US6581005B2 (en) * 2000-11-30 2003-06-17 Nissan Motor Co., Ltd. Vehicle position calculation apparatus and method
KR100495635B1 (ko) * 2002-09-02 2005-06-16 엘지전자 주식회사 네비게이션 시스템의 위치오차 보정방법
JP4392389B2 (ja) * 2005-06-27 2009-12-24 本田技研工業株式会社 車両及び車線認識装置
US7912633B1 (en) * 2005-12-01 2011-03-22 Adept Mobilerobots Llc Mobile autonomous updating of GIS maps
JP4978099B2 (ja) 2006-08-03 2012-07-18 トヨタ自動車株式会社 自己位置推定装置
JP2008250906A (ja) 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd 移動ロボット、自己位置補正方法および自己位置補正プログラム
JP4985166B2 (ja) * 2007-07-12 2012-07-25 トヨタ自動車株式会社 自己位置推定装置
JP4254889B2 (ja) * 2007-09-06 2009-04-15 トヨタ自動車株式会社 車両位置算出装置
JP4950858B2 (ja) * 2007-11-29 2012-06-13 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識プログラム
US9026315B2 (en) * 2010-10-13 2015-05-05 Deere & Company Apparatus for machine coordination which maintains line-of-site contact
JP5142047B2 (ja) * 2009-02-26 2013-02-13 アイシン・エィ・ダブリュ株式会社 ナビゲーション装置及びナビゲーション用プログラム
US8306269B2 (en) * 2009-03-12 2012-11-06 Honda Motor Co., Ltd. Lane recognition device
JP5206740B2 (ja) * 2010-06-23 2013-06-12 株式会社デンソー 道路形状検出装置
KR101472615B1 (ko) * 2010-12-21 2014-12-16 삼성전기주식회사 차선이탈 경보 시스템 및 방법
JP2012194860A (ja) * 2011-03-17 2012-10-11 Murata Mach Ltd 走行車
CN103827632B (zh) * 2012-09-06 2017-02-15 株式会社东芝 位置检测装置以及位置检测方法
JP6325806B2 (ja) 2013-12-06 2018-05-16 日立オートモティブシステムズ株式会社 車両位置推定システム
EP2918974B1 (en) * 2014-03-11 2019-01-16 Volvo Car Corporation Method and system for determining a position of a vehicle
JP6185418B2 (ja) * 2014-03-27 2017-08-23 トヨタ自動車株式会社 走路境界区画線検出装置
KR102255432B1 (ko) * 2014-06-17 2021-05-24 팅크웨어(주) 전자 장치 및 그의 제어 방법
JP6397663B2 (ja) * 2014-06-18 2018-09-26 シャープ株式会社 自走式電子機器
KR20160002178A (ko) * 2014-06-30 2016-01-07 현대자동차주식회사 자차 위치 인식 장치 및 방법
JP6189815B2 (ja) * 2014-10-29 2017-08-30 株式会社Soken 走行区画線認識システム
WO2016093028A1 (ja) 2014-12-08 2016-06-16 日立オートモティブシステムズ株式会社 自車位置推定装置
EP3032221B1 (en) * 2014-12-09 2022-03-30 Volvo Car Corporation Method and system for improving accuracy of digital map data utilized by a vehicle
CA2976344A1 (en) * 2015-02-10 2016-08-18 Mobileye Vision Technologies Ltd. Sparse map for autonomous vehicle navigation
CN105718860B (zh) * 2016-01-15 2019-09-10 武汉光庭科技有限公司 基于驾驶安全地图及双目交通标志识别的定位方法及系统
CN105929364B (zh) * 2016-04-22 2018-11-27 长沙深之瞳信息科技有限公司 利用无线电定位的相对位置测量方法及测量装置
US10346797B2 (en) * 2016-09-26 2019-07-09 Cybernet Systems, Inc. Path and load localization and operations supporting automated warehousing using robotic forklifts or other material handling vehicles

Also Published As

Publication number Publication date
JP6881464B2 (ja) 2021-06-02
CA3038643A1 (en) 2018-04-05
RU2720140C1 (ru) 2020-04-24
BR112019006057A2 (pt) 2019-06-18
US11321572B2 (en) 2022-05-03
CN109791408B (zh) 2022-04-26
EP3521962B1 (en) 2021-07-21
MX2019002985A (es) 2019-07-04
US20200019792A1 (en) 2020-01-16
KR20190045220A (ko) 2019-05-02
WO2018061084A1 (ja) 2018-04-05
CN109791408A (zh) 2019-05-21
EP3521962A4 (en) 2019-08-07
EP3521962A1 (en) 2019-08-07
JPWO2018061084A1 (ja) 2019-07-04

Similar Documents

Publication Publication Date Title
BR112019006057B1 (pt) Método de estimativa de auto-posição e dispositivo de estimativa de auto-posição
Schreiber et al. Laneloc: Lane marking based localization using highly accurate maps
Rose et al. An integrated vehicle navigation system utilizing lane-detection and lateral position estimation systems in difficult environments for GPS
KR102425272B1 (ko) 디지털 지도에 대한 위치를 판별하기 위한 방법 및 시스템
Cui et al. Real-time global localization of robotic cars in lane level via lane marking detection and shape registration
RU2668459C1 (ru) Устройство оценки положения и способ оценки положения
AU2012376428B2 (en) Map data creation device, autonomous movement system and autonomous movement control device
KR102627453B1 (ko) 위치 추정 장치 및 방법
Schlichting et al. Localization using automotive laser scanners and local pattern matching
CA3066341A1 (en) Map data correcting method and device
BR112018000704B1 (pt) Dispositivo de estimativa da própria posição e método de estimativa da própria posição
JP2002511614A (ja) 物体位置の追跡・検知方法
JP6758160B2 (ja) 車両位置検出装置、車両位置検出方法及び車両位置検出用コンピュータプログラム
JP2009110250A (ja) 自律走行移動体の走行経路決定用地図作成装置及び走行経路決定用地図作成方法
JP2008249555A (ja) 位置特定装置、位置特定方法および位置特定プログラム
US10983530B2 (en) Method and system for determining an accurate position of an autonomous vehicle
US20190331496A1 (en) Locating a vehicle
GB2370706A (en) Determining the position of a vehicle
JP6834401B2 (ja) 自己位置推定方法及び自己位置推定装置
Khoshelham et al. Vehicle positioning in the absence of GNSS signals: Potential of visual-inertial odometry
JP6838365B2 (ja) 自己位置推定方法及び自己位置推定装置
JP6370234B2 (ja) 地図データ生成装置、地図データ生成方法及び地図データ生成用コンピュータプログラムならびに車両位置検出装置
JP6819441B2 (ja) 物標位置推定方法及び物標位置推定装置
KR20210037468A (ko) 레인을 검출하는 차량 및 방법
Bukin et al. A computer vision system for navigation of ground vehicles: Hardware and software

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 27/09/2016, OBSERVADAS AS CONDICOES LEGAIS