BR112016018603B1 - Aparelho de cálculo de própria posição e processo de cálculo de própria posição - Google Patents
Aparelho de cálculo de própria posição e processo de cálculo de própria posição Download PDFInfo
- Publication number
- BR112016018603B1 BR112016018603B1 BR112016018603-6A BR112016018603A BR112016018603B1 BR 112016018603 B1 BR112016018603 B1 BR 112016018603B1 BR 112016018603 A BR112016018603 A BR 112016018603A BR 112016018603 B1 BR112016018603 B1 BR 112016018603B1
- Authority
- BR
- Brazil
- Prior art keywords
- vehicle
- orientation
- angle
- characteristic points
- detected
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000004364 calculation method Methods 0.000 claims abstract description 51
- 230000002123 temporal effect Effects 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 38
- 238000005096 rolling process Methods 0.000 abstract description 2
- 230000010365 information processing Effects 0.000 description 27
- 230000010354 integration Effects 0.000 description 22
- 230000007423 decrease Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 10
- 239000010426 asphalt Substances 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 230000001133 acceleration Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 239000002245 particle Substances 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000002187 spin decoupling employing ultra-broadband-inversion sequences generated via simulated annealing Methods 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 235000019587 texture Nutrition 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/28—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
- G05D1/0251—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
- G06T2207/30256—Lane; Road marking
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Automation & Control Theory (AREA)
- Optics & Photonics (AREA)
- Electromagnetism (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Navigation (AREA)
- Image Analysis (AREA)
- Lighting Device Outwards From Vehicle And Optical Signal (AREA)
Abstract
aparelho de cálculo de própria posição e processo de cálculo de própria posição. um aparelho de autocálculo de posição inclui: um projetor de luz 11, configurado para projetar um feixe de luz modelado 32a em uma superfície de rolamento 31 em torno de um veículo; e uma unidade de captura de imagem 12, configurada para capturar uma imagem 38 da superfície de rolamento 31 em torno do veículo, incluindo uma área na qual o feixe de luz modelado 32a é projetado. o aparelho de autocálculo de posição calcula um ângulo de orientação do veículo 10, relativo à superfície de rolamento 31, de uma posição do feixe de luz modelado na imagem obtida pela unidade de captura de imagem, e calcula um grau de variação na orientação do veículo, com base em mudanças temporais em múltiplos pontos característicos na superfície de rolamento, que são detectadas da imagem. o aparelho de autocálculo de posição calcula a posição e o ângulo de orientação atuais do veículo por adição do grau de variação na orientação da posição inicial e no ângulo de orientação do veículo. se uma condição, sob a qual os múltiplos pontos característicos são detectados, não satisfizer um primeiro critério, o aparelho de autocálculo de posição ajusta a posição atual do veículo naquele momento e o ângulo de orientação do veículo, calculado da posição do feixe de luz modelado nas posição e ângulo de orientação iniciais do veículo, e começa a adicionar o grau de variação na orientação às posição e ângulo de orientação iniciais.
Description
[001]A presente invenção se refere a um aparelho para calcular a própria posição e a um processo para calcular a própria posição.
[002] Uma tecnologia é conhecida na qual: câmeras instaladas em um veícu-lo capturam imagens das vizinhanças do veículo; e uma quantidade de movimento do veículo é obtida com base nas mudanças nas imagens (consultar literatura de patente 1). A literatura de patente 1 objetiva obter precisamente a quantidade de movimento do veículo, mesmo quando o veículo se movimenta ligeiramente a uma baixa velocidade. Para esse fim, um ponto característico é detectado de cada ima-gem; a posição do ponto característico na imagem é obtida; e, desse modo, a quan-tidade de movimento do veículo é obtida de uma direção e de uma distância de mo-vimento (quantidade de movimento) do ponto característico.LISTA DE CITAÇÕESLITERATURA DE PATENTES
[003]Literatura de patente 1: publicação do pedido de patente japonesa de n° 2008-175717.
[004]Se, no entanto, o ponto característico for detectado sob uma má condi-ção, ficar difícil obter precisamente a quantidade de movimento do veículo a partir da posição do ponto característico.
[005]A presente invenção foi feita com a situação mencionada acima consi-derada. Um objeto da presente invenção é proporcionar um aparelho de cálculo de própria posição processo de cálculo de própria posição, que são capazes de estimar, precisa e estavelmente, uma posição atual do veículo, independentemente da condi- ção sob a qual os pontos característicos são detectados.
[006] Um aparelho de cálculo de própria posição, de acordo com um aspecto da presente invenção, inclui: um projetor de luz, configurado para projetar um feixe de luz padronizado em uma superfície de estrada em torno de um veículo; e uma unidade de captura de imagem, configurada para capturar uma imagem da superfície de estrada em torno do veículo, incluindo uma área na qual o feixe de luz padro-nizado é projetado. O aparelho de cálculo de própria posição calcula um ângulo de orientação do veículo, relativo à superfície de estrada, a partir de uma posição do feixe de luz padronizado na imagem obtida pela unidade de captura de imagem, e calcula uma quantidade de variação na orientação do veículo, com base em mudan-ças temporais em múltiplos pontos característicos na superfície de estrada, que são detectadas da imagem. Além do mais, o aparelho de cálculo de própria posição cal-cula a posição e o ângulo de orientação atuais do veículo por adição da quantidade de variação na orientação da posição inicial e no ângulo de orientação do veículo. Se uma condição, sob a qual os múltiplos pontos característicos são detectados, for muito ruim para satisfazer um primeiro critério, o aparelho de cálculo de própria posi-ção ajusta a posição e o ângulo de orientação iniciais do veículo na posição atual do veículo nesse momento, e o ângulo de orientação do veículo calculado da posição do feixe de luz padronizado, respectivamente. Então, o aparelho de cálculo de pró-pria posição começa a adicionar a quantidade de variação na orientação.
[007]A Figura 1 é um diagrama de blocos mostrando uma configuração geral de um aparelho de cálculo de própria posição de uma primeira concretização.
[008]A Figura 2 é uma vista externa mostrando um exemplo de como um projetor de luz 11 e uma câmera 12 são instalados em um veículo 10.
[009]A Figura 3(a) é um diagrama mostrando como as posições de locais em uma superfície de estrada 31, na qual refletores de luz são, respectivamente, proje- tados, são calculadas de um comprimento de base Lb, entre o projetor de luz 11 e a câmera 12, bem como as coordenadas (Uj, Vj) de cada refletor de luz. A Figura 3(b) é um diagrama esquemático mostrando como uma direção 34 de movimento da câ-mera 12 é obtida de mudanças temporais em pontos característicos, detectados de outra área 33, que é diferente de uma área na qual o feixe de luz padronizado 32a é projetado.
[010]As Figuras 4(a) e 4(b) são diagramas, mostrando ambos uma imagem do feixe de luz padronizado 32a, que é obtida por aplicação de um processo de bina- rização em uma imagem, obtida pela câmera 12. A Figura 4(a) é um diagrama mos-trando uma imagem do feixe de luz padronizado 32a como um todo. A Figura 4(b) é um diagrama aumentado mostrando uma imagem de um refletor de luz Sp. A Figura 4(c) é um diagrama mostrando uma posição Hc do centro de gravidade de cada re-fletor de luz Sp, extraída por um extrator de feixe de luz padronizado 21.
[011]A Figura 5 é um diagrama esquemático para explicar como calcular as quantidades de variação em distância e ângulo de orientação.
[012]A Figura 6(a) mostra um exemplo de um primeiro quadro (imagem) 38 obtido no tempo t. A Figura 6(b) mostra um segundo quadro 38' obtido no tempo (t + Δt) até que o temo Δt passe do tempo t.
[013]A Figura 7 é um gráfico mostrando um resultado da determinação sob a qual os pontos característicos de condições Te são detectados, visto que os pontos característicos Te correspondem ao número de pontos característicos entre os qua-dros anterior e atual.
[014]A Figura 8 é um fluxograma mostrando um exemplo de um processo de cálculo de própria posição, usando o aparelho de cálculo de própria posição mostra-do na Figura 1.
[015]A Figura 9 é um fluxograma mostrando um procedimento detalhado pa-ra a etapa S09 na Figura 8.
[016]As Figuras 10(a) e 10(b) são gráficos mostrando um erro na estimativa de um ângulo de rolagem do veículo 10, e um erro na estimativa de uma quantidade de movimento do veículo 10 em uma direção pela largura do veículo.
[017]A Figura 11 é um diagrama de blocos mostrando uma configuração global de um aparelho de cálculo de própria posição de uma segunda concretização.
[018]A Figura 12 é um diagrama de blocos mostrando uma configuração global de um aparelho de cálculo de própria posição de uma terceira concretização.
[019]Com referência aos desenhos, descrições vão ser proporcionadas para as concretizações. Os mesmos componentes ao longo dos desenhos vão ser indica-dos pelos mesmos sinais de referência. As descrições para esses componentes vão ser omitidas.[Primeira concretização][Configuração de hardware]
[020] Para início, com referência à Figura 1, descrições vão ser proporciona-das para uma configuração de hardware de um aparelho de cálculo de própria posi-ção de uma primeira concretização. O aparelho de cálculo de própria posição inclui um projetor de luz 11, uma câmera 12 e uma unidade de controle de motor (ECU) 13. O projetor de luz 11 é instalado em um veículo, e projeta um feixe de luz padronizado em uma superfície de estrada em torno do veículo. A câmera 12 é instalada no veículo, e é um exemplo de uma unidade de captura de imagem, configurada para capturar e, desse modo, obter imagens da superfície de estrada em torno do veículo, incluindo uma área na qual o feixe de luz padronizado é projetado. A ECU 13 é um exemplo de um controlador, configurado para controlar o projetor de luz 11, e executar uma série de ciclos de processamento de informações, para estimar uma quantidade de movimento do veículo das imagens obtidas pela câmera 12.
[021]A câmera 12 é uma câmera digital, que usa um sensor de imagem no estado sólido, tal como um CCD e um CMOS, e obtém imagens digitais processáveis. O que a câmera captura é a superfície de estrada em torno do veículo. A superfície de estrada em torno do veículo inclui as superfícies de estrada em frente, na traseira, nos lados e abaixo do veículo. Como mostrado na Figura 2, a câmera 12 pode ser instalada na seção frontal do veículo 10, mais especificamente acima de, por exemplo, um para-choque frontal.
[022]A altura e a direção para ajuste da câmera 12 são ajustadas em um modo que permite que a câmera 12 capture imagens de pontos característicos (tex-turas) na superfície de estrada 31, em frente do veículo 10, e o feixe de luz padroni-zado 32b projetado do projetor de luz 11. O foco e o diafragma da lente da câmera 12 são também ajustados automaticamente. A câmera 12 captura, repetidamente, imagens a intervalos de tempo predeterminado, e, desse modo, obtém uma série de grupos de imagens (quadros). Os dados de imagem obtidos pela câmera 12 são transferidos para a ECU 13, e são armazenados em uma memória, incluída na ECU 13.
[023]Como mostrado na Figura 2, o projetor de luz 11 projeta o feixe de luz padronizado tendo uma forma predeterminada, incluindo uma forma de retículo qua-drada ou retangular, na superfície de estrada 31 dentro de uma amplitude de captura de imagem da câmera 12. A câmera 12 captura imagens do feixe de luz padronizado projetadas na superfície de estrada 31. O projetor de luz 11 inclui um apontador de laser e uma grade de difração, por exemplo. A grade de difração difrata o feixe de luz padronizado do apontador. Desse modo, como mostrado nas Figuras 2 a 4, o projetor de luz 11 gera o feixe de luz padronizado (32b, 32a), que inclui múltiplos refletores de luz Sp, dispostos em um modelo de retículo ou matriz. Nos exemplos mostrados nas Figuras 3 e 4, o projetor de luz 11 gera o feixe de luz padronizado 32a, incluindo 5 x 5 refletores de luz SP.
[024]Voltando à Figura 1, a ECU 13 inclui uma CPU, uma memória, e um microcontrolador, que inclui uma seção de entrada - saída. Por execução de programas de computador pré-instalado, a ECU 13 forma múltiplos processadores de informações, que são dotados com um aparelho de cálculo de própria posição. Para cada imagem (quadro), a ECU 13 executa repetidamente a série de ciclos de processamento de informações, para calcular a própria posição do veículo de imagens obtidas pela câmera 12. A ECU 13 também pode ser usada como uma ECU, para controlar outros sistemas relativos ao veículo 10.
[025]Os múltiplos processadores de informações incluem um extrator de fei-xe de luz padronizado 21, um calculador de ângulo de orientação 22, um calculador de quantidade de mudança de orientação 24, um calculador de própria posição 26, um controlador de feixe de luz padronizado 27, uma seção de determinação de con-dição de detecção 30 e uma seção de determinação de estado de cálculo 35. O cal-culador de quantidade de mudança de orientação 24 inclui um detector de ponto ca-racterístico 23.
[026]O extrator de feixe de luz padronizado 21 lê uma imagem, obtida pela câmera 12 da memória, e extrai a posição do feixe de luz padronizado dessa imagem. Por exemplo, como mostrado na Figura 3(a), o projetor de luz 11 projeta o feixe de luz padronizado 32a, que inclui os múltiplos refletores de luz dispostos em um modelo de matriz, na superfície de estrada 31, enquanto a câmera 12 detecta o feixe de luz padronizado 32a, refletido da superfície de estrada 31. O extrator de feixe de luz padronizado 21 aplica um processo de binarização à imagem obtida pela câmera 12, e, desse modo, extrai apenas uma imagem dos refletores de luz Sp, como mostrado nas Figuras 4(a) e 4(b). Depois, como mostrado na Figura 4(c), o extrator de feixe de luz padronizado 21 extrai a posição do feixe de luz padronizado 32a por cálculo da posição do centro de gravidade He de cada refletor de luz Sp, isto é, as coordenadas (Uj, Vj) de cada refletor de luz Sp na imagem. As coordenadas são expressas por uso do número atribuído a um pixel correspondente no sensor de imagem da câmera 12. Em um caso no qual o feixe de luz padronizado inclui 5 x 7 refletores de luz Sp, "j" é um número inteiro não inferior a 1, mas não superior a 35. A memória armazena as coordenadas (Uj, Vj) do refletor de luz Sp na imagem, como dados na posição do feixe de luz padronizado 32a.
[027]O calculador de ângulo de orientação 22 lê os dados na posição da fei-xe de luz padronizado 32a da memória, e calcula a distância e o ângulo de orienta-ção do veículo 10 relativos à superfície de estrada 31, a partir da posição do feixe de luz padronizado 32a na imagem obtida pela câmera 12. Por exemplo, como mostrado na Figura 3(a), usando o princípio de medida trigonométrica, o calculador de ângulo de orientação 22 calcula a posição de cada área refletida na superfície de estrada 31, como a posição da área refletida relativa à câmera 12, de um comprimento de base Lb, entre o projetor de luz 11 e a câmera 12, bem como as coordenadas (Uj, Vj) de cada refletor de luz Sp na imagem. Depois, o calculador de ângulo de orientação 22 calcula uma equação de plano da superfície de estrada 31, na qual o feixe de luz padronizado 32a é projetado, isto é, a distância e o ângulo de orientação (vetor normal) da câmera 12 relativos à superfície de estrada 31, a partir da posição de cada refletor de luz relativa à câmera 12. Deve-se notar que, na concretização, a distância e o ângulo de orientação da câmera 12, relativos à superfície de estrada 31, são calculados como um exemplo da distância e do ângulo de orientação do veículo 10, relativos à superfície de estrada 31, desde que a posição de instalação da câmera 12 no veículo 10 e o ângulo para que câmera 12 capture imagens já sejam conhecidos. A seguir, a distância e o ângulo de orientação da câmera 12, relativos à superfície de estrada 31, vão ser referidos como "distância e ângulo de orientação". A distância e ângulo de orientação, calculados pelo calculador de ângulo de orientação 22, são armazenados na memória.
[028] Mais especificamente, uma vez que a câmera 12 e o projetor de luz 11 estejam fixos no veículo 10, a direção na qual se projeta o feixe de luz padronizado 32a e a distância (o comprimento de base Lb), entre a câmera 12 e o projetor de luz 11, já são conhecidas. Por essa razão, usando-se o princípio de medida trigonomé-trica, o calculador de ângulo de orientação 22 é capaz de obter a posição de cada área refletida na superfície de estrada 31 como a posição (Xj, Yj, Zj) de cada refletor de luz relativa à câmera 12, das coordenadas (Uj, Vj) de cada refletor de luz na ima-gem.
[029]Deve-se notar que, em muitos casos, a posição (Xj, Yj, Zj) de cada refle-tor de luz relativa à câmera 12 não está presente no mesmo plano. Isso é porque a posição relativa de cada refletor de luz muda de acordo com as irregularidades do asfalto da superfície de estrada 31. Por essa razão, o processo dos mínimos qua-drados pode ser usado para obter uma equação do plano, que faz com que a soma dos quadrados da diferença de distância de cada refletor de luz fique mínima.
[030]O detector de ponto característico 23 lê a imagem obtida pela câmera 12 da memória, e detecta os pontos característicos na superfície de estrada 31 da imagem lida da memória. Para detectar os pontos característicos na superfície de estrada 31, o detector de ponto característico 23 pode usar um processo descrito por D. G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints", Int. J. Comput. Vis., vol. 60, n° 2, pág. 91 - 110, nov. 200". De outro modo, o detector de ponto característico 23 pode usar um processo descrito por Kanazawa Yahsushi, Kanatani Kenichi, "Detection of Feature Points for Computer Vision", IEICE Journal, vol. 87, n° 12, pág. 1043 - 1048, dez. de 2004".
[031] Mais especificamente, por exemplo, o detector de ponto característico 23 usa o operador Harris ou o operador SUSAN como esses pontos, tais como os ápices de um objeto, cujos valores de luminância são bastante diferentes daqueles das vizinhanças dos pontos detectados como os pontos característicos. Em vez dis-so, no entanto, o detector de ponto característico 23 pode usar uma quantidade ca-racterística SIFT (Transformação de Característica Invariante em Escala), de modo que os pontos, em torno dos quais os valores de luminância variam com certa regu-laridade, são detectados como os pontos característicos. Após detecção dos pontos característicos, o detector de ponto característico 23 conta o número total N de pontos característicos detectados de uma imagem, e atribui números de identificação (i; 1 < i < N) aos respectivos pontos característicos. A posição (Ui, Vi) de cada ponto característico na imagem é armazenada na memória dentro da ECU 13. As Figuras 6(a) e 6(b) mostram ambas exemplos dos pontos característicos Te, que são detec-tados da imagem obtida pela câmera 12. As posições (Ui, Vi) dos respectivos pontos característicos na imagem são armazenadas na memória.
[032] Deve-se notar que a concretização trata de partículas de mistura asfál- tica, com um tamanho de partícula não inferior a 1 cm, mas não superior a 2 cm, como os pontos característicos na superfície de estrada 31. A câmera 12 emprega o modo de resolução VGA (aproximadamente de 300 mil pixels), para detectar os pon-tos característicos. Além disso, a distância da câmera 12 para a superfície de estrada 31 é de aproximadamente 70 cm. Além do mais, a direção, na qual a câmera 12 captura imagens, é inclinada a aproximadamente 45 graus com a superfície de es-trada 31 do plano horizontal. Ainda mais, o valor da luminância de cada imagem ob-tida pela câmera 12, e depois enviado para a ECU 13, está dentro de uma faixa de 0 a 255 (0: mais escuro, 255: mais brilhante).
[033]O calculador de quantidade de variação de orientação 24 lê, da memó-ria, as posições (Ui, Vi) dos respectivos múltiplos pontos característicos em uma imagem incluída em um quadro prévio, que está entre os quadros capturados duran-te cada um dos determinados ciclos de processamento de informações. Além do mais, o calculador de quantidade de variação de orientação 24 lê, da memória, as posições (Ui, Vi) dos respectivos múltiplos pontos característicos em uma imagem incluída em um quadro atual. Depois, com base nas mudanças de posições dos múl-tiplos pontos característicos nas imagens, o calculador de quantidade de variação de orientação 24 obtém uma quantidade de variação na orientação do veículo. Nesse aspecto, o "quantidade de variação na orientação do veículo" incluem ambos as quantidades de variação nas "distância e ângulo de orientação" do veículo, relativos à superfície de estrada 31, e uma "quantidade de movimento do veículo (a câmera 12)" na superfície de estrada. Vão ser proporcionadas descrições a seguir de como calcular as quantidades de variação nas distância e ângulo de orientação e a quanti-dade de movimento do veículo.
[034]A Figura 6(a) mostra um exemplo de um primeiro quadro (imagem) 38 obtido no tempo t. Vai-se considerar que, como mostrado na Figura 5 ou 6(a), uma posição relativa (Xi, Yi, Zi) de cada um dos três pontos característicos Te1, Te2, Te3 é calculada, por exemplo, no primeiro quadro 38. Nesse caso, um plano G, identificado pelos pontos característicos Te1, Te2, Te3, pode ser considerado como a superfície de estrada. Consequentemente, o calculador de quantidade de variação de orientação 24 é capaz de obter as distância e ângulo de orientação (vetor normal) da câmera 12, relativos à superfície de estrada (o plano G) da posição relativa (Xi, Yi, Zi). Além do mais, de um modelo de câmera já conhecido, o calculador de quantidade de variação de orientação 24 é capaz de obter uma distância I1 entre os pontos característicos Te1, Te2, uma distância I2 entre os pontos característicos Te2, Te3, e uma distância I3 entre os pontos característicos Te3, Te1, bem como um ângulo entre uma linha reta, unindo os pontos característicos Te1, Te2, e uma linha reta, unindo os pontos característicos Te2, Te3, um ângulo entre uma linha reta, unindo os pontos característicos Te2, Te3, e uma linha reta, unindo os pontos característicos Te3, Te1, e um ângulo entre uma linha reta, unindo os pontos característicos Te3, Te1, e a linha reta, unindo os pontos característicos Te1, Te2. A câmera 12 na Figura 5 mostra onde a câmera é localizada, quando esta é para o primeiro quadro.
[035] Deve-se notar que as coordenadas tridimensionais (Xi, Yi, Zi), da posi-ção relativa com a câmera 12, são mostradas em um modo que: a coordenada do eixo Z coincide com a direção na qual a câmera 12 captura a imagem; e os eixos X e Y, ortogonais entre si em um plano incluindo a câmera 12, são linhas normais à dire-ção na qual a câmera 12 captura a imagem. Nesse meio tempo, as coordenadas na imagem 38 são ajustadas de modo que o eixo V coincida com a direção horizontal e o eixo U coincida com a direção vertical.
[036]A Figura 6(b) mostra um segundo quadro, obtido no tempo (t + Δt), em que o período de tempo Δt passou do tempo t. Uma câmera 12', na Figura 5, mostra onde a câmera é localizada, quando a câmera captura o segundo quadro 38'. Como mostrado na Figura 5 ou 6(b), a câmera 12' captura uma imagem incluindo os pontos característicos Te1, Te2, Te3, como o segundo quadro 38', e o detector de ponto ca-racterístico 23 detecta os pontos característicos Te1, Te2, Te3 da imagem. Nesse caso, o calculador de quantidade de variação de orientação 24 é capaz de calcular não apenas uma quantidade ΔL de movimento da câmera 12, no intervalo de tempo Δt, mas também quantidades de variação nas distância e ângulo de orientação da câ-mera 12 no intervalo de tempo Δt de: a posição relativa (Xi, Yi, Zi) dos pontos carac-terísticos Te1, Te2, Te3 no tempo t; uma posição P1(Ui, Vi) de cada ponto característico no segundo quadro 38'; e o modelo de câmera da câmera 12. Por exemplo, o calcu-lador de quantidade de variação de orientação 24 é capaz de calcular a quantidade ΔL de movimento da câmera 12 (o veículo) e as quantidades de variação nas distân-cia e ângulo de orientação da câmera 12 (o veículo) por resolução do sistema apre-sentado a seguir de equações simultâneas (1) a (4). Eventualmente, a equação é baseada em uma câmera de furo ideal, livre de desalinhamento por deformação e axial óptico, que é padronizado após a câmera 12, em que Ài e f denotam uma cons-tante e um comprimento focal. Os parâmetros do modelo da câmera podem ser cali-brados de antemão.
[037]A Figura 6(b) mostra como uma direção 34 de movimento da câmera 12 é obtida de variações temporais em pontos característicos, detectadas de outra área 33 dentro da amplitude de captura de imagem da câmera 12, que é diferente da área na qual o feixe de luz padronizado 32a é projetado. Além do mais, as Figuras 6(a) e 6(b) mostram ambas um exemplo de uma imagem, na qual cada vetor representa uma direção e uma quantidade de variação na posição do seu ponto característico Te correspondente. O calculador de quantidade de variação de orientação 24 é capaz de calcular não apenas a quantidade (ΔL) de movimento da câmera para o período de tempo Δt, mas também as quantidades de variação nas distância e ângulo de orientação para o período de tempo Δt, simultaneamente. Por essa razão, com as quantidades de variação nas distância e ângulo de orientação considerados, o calcu-lador de quantidade de variação de orientação 24 é capaz de calcular com precisão a quantidade (ΔL) de movimento em seis graus de liberdade. Em outras palavras, um erro na estimativa da quantidade (ΔL) de movimento pode ser minimizado, mesmo quando as distância e ângulo de orientação são alterados pela rolagem ou grau de inclinação, devido à curva, aceleração ou desaceleração do veículo 10.
[038] Deve-se notar que, em vez de usar todos os pontos característicos cujas posições relativas são calculadas, o calculador de quantidade de variação de orientação 24 pode selecionar os pontos característicos ótimos, com base nas rela- ções de posição entre os pontos característicos. Um exemplo de um processo de seleção útil para esse fim é a geometria epipolar (a geometria de linha epipolar descrita por R. I. Hartley, "A linear method for reconstruction from lines and points", Proc. 5th International Conference on Computer Vision, Cambridge, Massachusetts, pág. 882 - 887 - 1995).
[039]A associação dos pontos característicos no quadro atual com os pontos característicos no quadro anterior pode ser obtida, por exemplo, por: armazenamento de uma imagem de uma pequena área, em torno de cada ponto característico na memória; e para cada ponto característico, fazer uma determinação de uma similaridade em informações de luminância e de uma similaridade em informações de cor. Mais especificamente, a ECU 13 armazena uma imagem de 5 (horizontais) x 5 (verticais) pixels em torno de cada ponto característico detectado na memória. Se, por exemplo, a diferença nas informações de luminância entre 20 ou mais pixels é igual ou inferior a 1%, o calculador de quantidade de variação de orientação 24 determina que o ponto característico em questão está associado entre os quadros atual e prévio.
[040]Se como nesse caso, os pontos característicos Te1, Te2, Te3, cujas posições relativas (Xi, Yi, Zi) são calculadas, forem detectados da imagem do quadro 38', obtida também na sincronização seguinte, o calculador de quantidade de variação de orientação 24 é capaz de calcular a "quantidade de variação na orientação do veículo" das variações temporais nos múltiplos pontos característicos na superfície de estrada.
[041]O calculador de própria posição 26 calcula a distância e o ângulo de orientação dos "quantidades de variação na distância e no ângulo de orientação", calculados pelo calculador de quantidade de variação de orientação 24. Além disso, o calculador de cálculo de própria posição 26 calcula a posição de momento do veículo da "quantidade de movimento do veículo", calculada pelo calculador de quanti- dade de variação de orientação 24.
[042]Mais especificamente, em um caso no qual a distância e o ângulo de orientação, calculados pelo calculador de própria posição 26 (Figura 1), são estabe-lecidos como os pontos de partida, o calculador de própria posição 26 atualiza a dis-tância e o ângulo de orientação com os valores numéricos mais recentes por adição sequencial (execução de uma operação de integração nos) das quantidades de vari-ação nas distância e ângulo de orientação calculados para cada quadro pelo calculador de quantidade de variação de orientação 24 aos pontos de partida (as distância e ângulo de orientação). Além disso, o calculador de própria posição 26 calcula a posição atual do veículo por: estabelecimento do ponto de partida (a posição inicial do veículo) na posição do veículo obtida quando o calculador de ângulo de orientação 22 calcula as distância e ângulo de orientação; e, sequencialmente, adição (execução de uma operação de integração na) da quantidade de movimento à sua posição inicial assim estabelecida. Por exemplo, se o ponto de partida (a posição inicial do veículo) for estabelecida para ser associada à posição do veículo em um mapa, o calculador de própria posição 26 é capaz de, sequencialmente, calcular a posição atual do veículo no mapa.
[043]Mais especificamente, se três ou mais pontos característicos, todos cor-respondentes entre os quadros prévio e atual, puderem ser detectados continuamente dos dois quadros, a continuação do processo (operação de integração) de adição das quantidades de variação nas distância e ângulo de orientação, fica possível atualizar continuamente as distância e ângulo de orientação sem usar o feixe de luz padronizado 32a. Não obstante, as distância e ângulo de orientação, calculados por uso do feixe de luz padronizado 32a, ou uma distância e um ângulo de orientação iniciais predeterminados, podem ser usados para o primeiro ciclo de processamento de informações. Em outras palavras, as distância e ângulo de orientação, que são pontos de partida da operação de integração, podem ser calculados por uso do feixe de luz padronizado 32a, ou podem ser estabelecidos como valores iniciais predeterminados. É desejável que a distância limite predeterminada e o ângulo de orientação limite predeterminado sejam uma distância e um ângulo de orientação determinado, com pelo menos os ocupantes e a carga do veículo 10 considerados. Por exemplo, as distância e ângulo de orientação, calculados por uso do feixe de luz padronizado 32a, que é projetado enquanto a chave de ignição do veículo está ativa e quando a posição da chave é movimentada da posição de estacionamento para outra posição, podem ser usados como a distância limite predeterminada e o ângulo de orientação limite predeterminado. Desse modo, é possível obter as distância e ângulo de orientação, que não são afetados pela rolagem ou inclinação do veículo 10, devido uma curva, aceleração ou desaceleração do veículo 10.
[044]A concretização é configurada de modo que: as quantidades de variação nas distância e ângulo de orientação são calculados repetidamente, e são a cada momento adicionados a eles, e, desse modo, as quantidades de variação nas distância e ângulo de orientação são atualizados com os valores numéricos mais recentes. Diferentemente, no entanto, a concretização pode ser configurada de modo que: apenas a quantidade de variação no ângulo de orientação da câmera 12, relativo à superfície de estrada 31, é calculado repetidamente, e é a todo momento atualizado. Nesse caso, pode-se supor que a distância entre a superfície de estrada 31 e a câmera 12 se mantém constante. Isso possibilita reduzir a carga operacional na ECU 13, enquanto minimizando o erro na estimativa da quantidade (ΔL) de movimento com a quantidade de variação no ângulo de orientação sendo considerado, e aumentar a velocidade operacional da ECU 13.
[045]A seção de determinação de condição de detecção 30 determina se ou não uma condição, sob a qual o detector de ponto característico 23 detecta os pontos característicos Tc, é muito ruim para satisfazer um primeiro critério. Por exemplo, se no caso de um pavimento de concreto dentro de um túnel, a superfície de estrada for menos modelada e irregular com partículas de mistura asfáltica, os pontos carac-terísticos, detectáveis de uma imagem da superfície de estrada, diminuem em número. O menor número de pontos característicos detectáveis dificulta a detecção contínua de pontos característicos, que são associados entre os quadros prévio e atual, e diminui a precisão com a qual as distância e ângulo de orientação são atualizados.
[046]Como uma medida contra esse problema, a seção de determinação de condição de detecção 30 determina que a condição para detectar os pontos caracte-rísticos é muito ruim, para satisfazer o primeiro critério, se, por exemplo, o número de pontos característicos, cujas posições relativas à câmera 12 são calculadas e que podem ser detectadas de uma imagem, obtida no ciclo de processamento de infor-mações subsequente, for igual ou inferior a um valor limite predeterminado (três, por exemplo). Em outras palavras, como mostrado na Figura 7, se quatro ou mais pontos característicos, associados entre os quadros prévio e atual, não puderem ser detectados, a seção de determinação de condição de detecção 30 determina que a condição, sob a qual os pontos característicos Te são detectados, é muito ruim para satisfazer o primeiro critério. Eventualmente, como mostrado na Figura 6, pelo menos três pontos característicos, associados entre os quadros prévio e atual, são necessários para obter as quantidades de variação nas distância e ângulo de orientação. Isso é porque três pontos característicos são necessários para definir o plano G. Uma vez que mais pontos característicos são necessários para aumentar a precisão de estimativa, é desejável que o valor inicial correspondente seja quatro, cinco ou mais.
[047]Se a seção de determinação de condição de detecção 30 determinar que a condição, sob a qual os pontos característicos são detectados, satisfaz o primeiro critério, o calculador de própria posição 26 mantém os pontos das operações de integração. Por outro lado, se a calculador de própria posição 26 determinar que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério, o calculador de própria posição 26 restaura os pontos característicos das operações de integração (o ângulo de orientação e a posição inicial do veículo) nas distância e ângulo de orientação calculados pelo calculador de ângulo de orientação 22 (ver Figura 1), e a posição do veículo, obtida no momento do cálculo, no mesmo ciclo de processamento de informações. Depois, o calculador de própria posição 26 começa a adicionar a quantidade de variação na orientação do veículo aos pontos de partida assim restaurados.
[048] Deve-se notar que na primeira concretização, com base no número de pontos característicos associados entre os quadros prévio e atual, a seção de de-terminação de condição de detecção 30 determina sob que condição os pontos ca-racterísticos são detectados. Não obstante, a seção de determinação de condição de detecção 30 pode ser configurada de modo que, com base no número total de pontos característicos detectados de uma imagem, a seção de determinação de condição de detecção 30 determina sob que condição os pontos característicos são detectados. Mais especificamente, a configuração pode ser tal que, se o número total N de pontos característicos, detectados de uma imagem, for igual ou inferior a um valor limite predeterminado (9, por exemplo), a seção de determinação de condição de detecção 30 determina que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério. Um valor numérico (9) pode ser estabelecido como esse valor inicial, porque há a probabilidade de que alguns dos pontos característicos detectados não estarem associados entre os quadros prévio e atual.
[049]A seção de determinação de estado de cálculo 35 determina se ou não um estado de cálculo das distância e ângulo de orientação, pelo calculador de ângulo de orientação 22, é muito ruim para satisfazer um segundo critério. Por exemplo, em um caso no qual o feixe de luz padronizado é projetado em uma saliência na superfície de estrada 31, a precisão do cálculo das distância e ângulo de orientação diminui significativamente, porque a saliência na superfície de estrada 31 é maior do que dentes e projeções do pavimento de asfalto. Se a condição, sob a qual os pontos característicos são detectados, for pior do que o primeiro critério, e, concorrentemente, se o estado de cálculo das distância e ângulo de orientação for muito ruim, para satisfazer o segundo critério, pode haver, então, nenhum meio para detectar as distância e ângulo de orientação, bem como as quantidades de variação nas distância e ângulo de orientação.
[050]Com isso considerado, a seção de determinação de estado de cálculo 35 determina que o estado do cálculo das distância e ângulo de orientação pelo calculador de ângulo de orientação 22 é muito ruim para satisfazer o segundo critério, se os desvios-padrão das distância e ângulo de orientação, calculados pelo calculador de ângulo de orientação 22, forem superiores a valores iniciais predeterminados. Além do mais, se o número de refletores de luz, detectados dos 35 refletores de luz, for inferior a três, a seção de determinação de estado de cálculo 35 determina que o estado do cálculo das distância e ângulo de orientação, pelo calculador de ângulo de orientação 22, é muito ruim para satisfazer o segundo critério, uma vez que, teoricamente, a equação do plano é obtida por uso do processo de mínimos quadrados, se um valor absoluto de um valor máximo, de entre as diferenças entre os refletores de luz e o plano, obtidas pela equação do plano, for igual ou superior a um determinado valor inicial (0,05 m, por exemplo). a seção de determinação de estado de cálculo 35 pode determinar que o estado das distância e ângulo de orientação, pelo calculador de ângulo de orientação 22, é muito ruim para satisfazer o segundo critério.
[051]Se a seção de determinação de condição de detecção 30 determinar que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério, e, concorrentemente, se a seção de determinação de estado de cálculo 35 determinar que o estado do cálculo das distância e ângulo de orientação, pelo calculador de ângulo de orientação 22, é muito ruim para satisfazer o segundo critério, o calculador de própria posição 26 usa as distância e ângulo de orientação obtidas no ciclo de processamento de informações prévio, bem como a posição atual do veículo, como os pontos de partida das operações de integração. Isso possibilita minimizar um erro no cálculo da quantidade de movimento do veículo.
[052]O controlador de feixe de luz padronizado 27 controla como o projetor de luz 11 projeta o feixe de luz padronizado 32a. Por exemplo, o controlador de feixe de luz padronizado 27 começa a projetar o feixe de luz padronizado 32a ao mesmo tempo em que o aparelho de cálculo de própria posição começa a ser ativado, após a chave de ignição do veículo 10 ser ligada. Depois, o controlador de feixe de luz padronizado 27 continua a projetar o feixe de luz padronizado 32a, até que o aparelho de cálculo de própria posição interrompa sua operação. Diferentemente, o aparelho de cálculo de própria posição pode ser configurado para alternadamente projetar e interromper a projeção da luz a intervalos de tempo predeterminados. De outro modo, o aparelho de cálculo de própria posição pode ser configurado para, temporariamente, projetar o feixe de luz padronizado 32a apenas em um caso no qual a seção de determinação de condição de detecção 30 determinar que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério.(Ciclo de processamento de informações)
[053]A seguir, como um exemplo de processo de cálculo de própria posição de estimativa da quantidade de movimento do veículo 10, da imagem 38 obtida pela câmera 12, o ciclo de processamento de informações, a ser executado repetidamente pela ECU 13, vai ser descrito com referência às Figuras 8 e 9. O ciclo de processamento de informações, mostrado em um fluxograma da Figura 8, é iniciado ao mesmo tempo em que o aparelho de cálculo de própria posição é ativado, após a chave de ignição do veículo 10 ser ligada, e é executado repetidamente até que o aparelho de cálculo de própria posição interrompa sua operação.
[054] Na etapa S01 na Figura 8, o controlador de feixe de luz padronizado 27 projeta o feixe de luz padronizado 32a na superfície de estrada 31 em torno do veículo por controle do projetor de luz 11. Um exemplo no qual o feixe de luz padronizado 32a continua sendo projetado vai ser descrito por uso de um fluxograma na Figura 8.
[055]Seguindo para a etapa S03, a ECU 13 controla a câmera 12, para obter a imagem 38 ao fazer com que a câmera 12 atinja da superfície de estrada 31 em torno do veículo, incluindo uma área na qual o feixe de luz padronizado 32a é projetado. A ECU 13 armazena os dados na imagem obtida pela câmera 12 na memória.
[056]Deve-se notar que a ECU 13 é capaz de controlar automaticamente o diafragma da câmera 12. A ECU 13 pode ser configurada para executar um controle de realimentação do diafragma da câmera 12, em um modo que faça com que um valor de brilho da imagem seguinte seja igual um valor médio, entre os valores mínimo e máximo, de acordo com uma média do brilho da imagem 38, obtida no ciclo de processamento de informações prévio. De outro modo, uma vez que o valor do brilho da área, na qual o feixe de luz padronizado 32a é projeto, a ECU 13 pode obter um valor médio do brilho da imagem 38 obtida previamente de uma área fora de uma parte, da qual o feixe de luz padronizado 32a é extraído.
[057]O fluxo segue para a etapa S05, na qual o extrator de feixe de luz pa-dronizado 21, primeiro de tudo, lê a imagem 38, obtida pela câmera 12 da memória, e extrai a posição do feixe de luz padronizado 32a da imagem 38, como mostrado na Figura 4(c). O extrator de feixe de luz padronizado 21 armazena na memória as po-sições (Ui, Vi) dos respectivos refletores de luz Sp na imagem, que são calculadas como dados de posição do feixe de luz padronizado 32a.
[058] Na etapa S05, o calculador de ângulo de orientação 22 lê os dados na posição do feixe de luz padronizado 32a da memória, calcula as distância e ângulo de orientação da posição do feixe de luz padronizado 32a, e armazena os resultados de cálculo na memória.
[059]Seguindo para a etapa S07, a ECU 13 detecta os pontos característicos da imagem 38, extrai todos os pontos característicos correspondentes entre os ciclos de processamento de informações prévio e atual dos pontos característicos detectados, e calcula as quantidades de variação nas distância e ângulo de orientação, e a quantidade de movimento do veículo das posições (Ui, Vi) dos respectivos pontos característicos extraídos na imagem.
[060] Mais especificamente, para início, o detector de ponto característico 23 lê a imagem 38, obtida pela câmera 12 da memória, detecta os pontos característicos na superfície de estrada 31 da imagem 38, e armazena as posições (Ui, Vi) dos respectivos pontos característicos na imagem na memória. O calculador de quantidade de variação de orientação 24 lê as posições (Ui, Vi) dos respectivos pontos característicos na imagem da memória, e calcula as posições (Xi, Yi, Zi) dos respectivos pontos característicos, relativos à câmera 12, das distância e ângulo de orientação, bem como as posições (Ui, Vi) dos respectivos pontos característicos na imagem. Eventualmente, o calculador de quantidade de variação de orientação 24 usa os pontos de partida (as distância e ângulo de orientação), que são estabelecidos na etapa 09, no ciclo de processamento de informações prévio. Depois, o calculador de quantidade de variação de orientação 24 armazena as posições (Xi, Yi, Zi) dos respectivos pontos característicos, relativos à câmera 12, na memória.
[061] Depois, o calculador de quantidade de variação de orientação 24 lê as posições (Ui, Vi) dos respectivos pontos característicos na imagem, e as posições (Xi, Yi, Zi) dos respectivos pontos característicos, calculados na etapa S07, no ciclo de processamento de informações prévio, da memória. O calculador de quantidade de variação de orientação 24 calcula as quantidades de variação nas distância e ân- gulo de orientação usando: as posições (Xi, Yi, Zi) de todos os respectivos pontos característicos correspondentes entre os ciclos de processamento de informações prévio e atual, e as posições (Xi, Yi, Zi) dos respectivos pontos característicos assim correspondentes na imagem. Além do mais, o calculador de quantidade de variação de orientação 24 calcula a quantidade de movimento do veículo das posições (Xi, Yi, Zi) relativas prévias dos respectivos pontos característicos no ciclo de processamento de informações prévio e as posições (Xi, Yi, Zi) relativas atuais dos respectivos pontos característicos no ciclo de processamento de informações atual. Os "quantidades de variação nas distância e ângulo de orientação" e a "quantidade de movimento do veículo", que são calculados na etapa S07, são usados para o processo na etapa S11.
[062]Seguindo para a etapa S09, a ECU 13 estabelece os pontos de partida das operações de integração dependendo de: a condição sob a qual os pontos ca-racterísticos são detectados; e o estado de cálculo das distância e ângulo de orientação do feixe de luz padronizado. Os detalhes vão ser descritos abaixo com referência à Figura 9.
[063]Seguindo para a etapa S11, o calculador de própria posição 26 calcula a posição atual do veículo de: os pontos de partida das operações de integração es-tabelecidas na etapa S09; e a quantidade de movimento do veículo calculada na etapa S07.
[064] Desse modo, o aparelho de cálculo de própria posição da concretização é capaz de calcular a posição atual do veículo 10 por execução repetida da série mencionada acima de ciclos de processamento de informações, para integrar a quantidade de movimento do veículo 10.
[065]Com referência a um fluxograma mostrado na Figura 9, descrições vão ser proporcionadas para um procedimento detalhado para a etapa S09 na Figura 8. Na etapa S900, a ECU 13 determina se ou não o ciclo de processamento de infor- mações atual é um primeiro dos ciclos. Se o ciclo de processamento de informações for um primeiro dos ciclos, isto é, se nenhum dado no ciclo de processamento de informações está disponível, o procedimento avança a um processo na etapa S905. Por outro lado, se o ciclo de processamento de informações não for um primeiro dos ciclos, o procedimento avança a um processo na etapa S901. Na etapa S901, a seção de determinação de condição de detecção 30 determina se ou não a condição, na qual o detector de ponto característico 23 detecta os pontos característicos Te, é muito ruim para satisfazer o primeiro critério. Se a seção de determinação de condição de detecção 30 determinar que a condição é ruim (se SIM na etapa S901), o procedimento avança à etapa S903. Se a seção de determinação de condição de detecção 30 determinar que a condição não é ruim (se NÃO na etapa S901), o procedimento avança para a etapa S909.
[066] Na etapa S909, a ECU 13 mantém os pontos de partida atualmente es-tabelecidos das operações de integração como são.
[067] Na etapa S903, a seção de determinação de estado de cálculo 35 de-termina se ou não o estado do cálculo da distância e do ângulo de orientação, pelo calculador de ângulo de orientação 22, é muito ruim para satisfazer o segundo critério. Por exemplo, a seção de determinação de estado de cálculo 35 determina se ou não o calculador de ângulo de orientação 22 foi bem-sucedido no cálculo das distância e ângulo de orientação na etapa S509, no mesmo ciclo de processamento de informações. Se a seção de determinação de estado de cálculo 35 determinar que o calculador de ângulo de orientação 22 é bem-sucedido (se SIM na etapa S903), o procedimento avança para a etapa S905. Se a seção de determinação de estado de cálculo 35 determinar que o calculador de ângulo de orientação 22 falha (se NÃO na etapa S903), o procedimento avança para a etapa S907.
[068]Na etapa S905, a ECU 13 estabelece o ponto de partida da operação de integração na quantidade de movimento do veículo, na posição atual do veículo, e estabelece os pontos de partida das operações de integração das distância e ângulo de orientação, calculados na etapa S05, no mesmo ciclo de processamento de informações. Por uso das distância e ângulo de orientação como os pontos de partida, as operações de integração são reiniciadas. Além disso, por uso da posição atual do veículo como o ponto de partida, a operação de integração na quantidade de movimento do veículo é reiniciada.
[069]Na etapa S907, a ECU 13 estabelece o ponto de partida da operação de integração na quantidade de movimento do veículo na posição atual do veículo, e estabelece os pontos de partida das pontos característicos nas distância e ângulo de orientação empregados no ciclo de processamento de informações prévio. Por uso das distância e ângulo de orientação como os pontos de partida, as operações de integração são reiniciadas. Além disso, por uso da posição atual do veículo como o ponto de partida, a operação de integração na quantidade de movimento do veículo é reiniciada. Depois, o processo avança para a etapa S11 na Figura 8.
[070]O seguinte efeito de trabalho / operacional pode ser obtido da primeira concretização, como descrito acima.
[071]A detecção dos pontos característicos sob uma condição ruim resulta em uma diminuição na precisão, com a qual o calculador de quantidade de variação de orientação 24 calcula as distância e ângulo de orientação, e, consequentemente, acarreta um aumento no erro na estimativa da quantidade de movimento do veículo 10. As Figuras 10(a) e 10(b) são gráficos mostrando, respectivamente, um exemplo de um erro na estimativa de um ângulo de rolagem (um exemplo do ângulo de orientação) do veículo 10, e um exemplo de um erro na estimativa da quantidade de movimento (na direção da largura do veículo) do veículo 10. A Figura 10(a) mostra uma variação temporal em um valor do ângulo de rolagem, que é calculado em um caso no qual o veículo 10 está rodando em linha reta em uma superfície de estrada plana, sem inclinações, enquanto que a Figura 10(b) mostra uma variação temporal em um valor da quantidade de movimento, que é calculado no mesmo caso. Os sinais de referência "P1" e "P2" nas Figuras 10(a) e 10(b), representam, respectivamente, um valor estimado do ângulo de rolagem e um valor calculado da quantidade de movi-mento, que são obtidos em um exemplo comparativo, no qual o ponto de partida, para calcular a quantidade de movimento, e os pontos de partida, para execução da operação de integração nas distância e ângulo de orientação, são mantidos inalterados, independentemente da condição sob a qual os pontos característicos são detectados. Os sinais de referência "Q1" e "Q2", nas Figuras 10(a) e 10(b), representam, respectivamente, um valor real do ângulo de rolagem e um valor real da quantidade de movimento. Uma vez que o veículo 10 está rodando em linha reta, o valor verdadeiro (Q1) do ângulo de rolagem e o valor real (Q2) da quantidade de movimento, na direção da largura do veículo, se mantêm inalterados em zero. No entanto, em um intervalo de tempo do tempo t1 para o tempo t2, um erro ocorre na equação do plano da superfície de estrada, e esse erro provoca um erro na estimativa do ângulo de rolagem, porque o veículo 10 roda em um pavimento de concreto, o que provoca uma má condição para detecção dos pontos característicos. O erro no ângulo de rolagem fica refletido na quantidade de movimento na direção da largura do veículo. No exemplo comparativo, independentemente da condição, sob a qual os pontos característicos são detectados, os pontos de partida para execução de uma operação de integração não ângulo de rolagem não são restaurados, ou o ponto de partida para calcular a quantidade de movimento não é restaurado. Isso amplifica o erro na quantidade de movimento do veículo 10.
[072]De acordo com a primeira concretização, se a condição, na qual os pontos característicos são detectados, for muito ruim para satisfazer o primeiro critério, as operações de integração podem ser reiniciadas por uso dos pontos de partida, que são restaurados nas distância e ângulo de orientação de erros minimizados, calculados do feixe de luz padronizado 32a. Consequentemente, a posição atual do veículo 10 pode ser estimada precisa e estavelmente.
[073]Além do mais, a superfície de estrada, que produz os pontos característicos sob uma condição ruim, inclui, por exemplo, uma superfície de estrada que oferece pequenos números de modelos, dentes e projeções, a serem usados como pontos característicos. Uma vez que a superfície de estrada, que oferece pequenos números de modelos, dentes e projeções, é muito plana, menos componentes de ruído são incluídos nas distância e ângulo de orientação, calculados do feixe de luz padronizado 32a. Por outro lado, no caso da superfície de estrada 31, da qual os pontos característicos podem ser detectados sob uma boa condição, as posições da superfície de estrada 31, das quais o feixe de luz padronizado é refletido, não são estáveis, devido a dentes e projeções do pavimento asfáltico, e, consequentemente, mais componentes de ruído são incluídos nas distância e ângulo de orientação, calculados do feixe de luz padronizado 32a. De acordo com a primeira concretização, as distância e ângulo de orientação podem ser obtidos precisa e estavelmente por atualização das distância e ângulo de orientação usando os pontos característicos, ou por cálculo das distância e ângulo de orientação usando o feixe de luz padronizado 32a, dependendo das condições, sob as quais os pontos característicos são detectados.
[074]Além do mais, em alguns casos, a condição, sob a qual os pontos ca-racterísticos são detectados, fica ruim, por causa de uma redução no contraste da imagem 38, devido a uma mudança súbita na iluminância da superfície de estrada 31. De acordo com a primeira concretização, nenhum sensor, tal como um iluminô- metro, precisa ser proporcionado adicionalmente ao aparelho de cálculo de própria posição, uma vez que a condição, sob a qual os pontos característicos são detectados, é determinada diretamente. Isso contribui para uma redução nos custos, além de uma redução no peso do aparelho.
[075]Se o número de pontos característicos, associados pelo calculador de quantidade de variação de orientação 24, entre os quadros prévio e atual, for igual ou inferior a um valor limite predeterminado, a seção de determinação de condição de detecção 30 determina qual a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer a primeira condição (SIM na etapa S901). Se o número de pontos característicos, associados entre os quadros prévio e atual, ficar menor, a precisão de atualização das distância e ângulo de orientação diminui. Nesse caso, é possível inibir uma diminuição na precisão de atualização das distância e ângulo de orientação, e uma diminuição na precisão de cálculo da quantidade de movimento do veículo 10, por restauração dos pontos de partida, para calcular a quantidade de movimento nas distância e ângulo de orientação calculadas do feixe de luz padronizado 32a.
[076]Se a condição, na qual os pontos característicos são detectados, for pior do que o primeiro critério (SIM na etapa S901), e se o estado de cálculo das distância e ângulo de orientação for muito ruim para satisfazer o segundo critério (NÃO na etapa S903), os pontos de partida para calcular a quantidade de movimento são restaurados nas distância e ângulo de orientação, calculados no ciclo de processamento de informações prévio. Em outras palavras, as distância e ângulo de orientação, calculados pelo calculador de própria posição 26, antes da seção de determinação de condição de detecção 30 determinar que a condição, sob qual os múltiplos pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério, são usadas como os pontos de partida para, ou para calcular a quantidade de movimento. Desse modo, é possível inibir o erro na estimativa da quantidade de movimento do veículo 10.
[077]A determinação pela seção de determinação de condição de detecção 30 da condição, sob a qual os pontos característicos Te são detectados, pode ser baseada na distribuição de pontos característicos, em vez do número de pontos ca- racterísticos. Por exemplo, a seção de determinação de condição de detecção 30 pode ser configurada para determinar que a condição, sob a qual os pontos característicos são detectado, é muito ruim para satisfazer o primeiro critério, em um caso no qual a densidade dos pontos característicos, detectada da imagem 38, é igual ou inferior a uma densidade limite predeterminada. Quando a densidade dos pontos característicos fica menor, um número total de N de pontos característicos diminui, e o número de pontos característicos, associados aos quatros prévio e atual, diminui. De outro modo, a seção de determinação de condição de detecção 30 pode ser configurada para determinar que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério, em um caso no qual nenhum ponto característico é detectado das respectivas regiões, nas quais a imagem 38 é dividida igualmente. Por exemplo, a configuração pode ser feita de modo que: a imagem 38 seja igualmente dividida em quatro regiões; e a seção de determinação de condição de detecção 30 determina se ou não os pontos característicos são detectados de todas as regiões.
[078]Quando a seção de determinação de condição de detecção 30 determina a condição, sob a qual os pontos característicos são detectados, com base na densidade dos pontos característicos detectados da imagem 38, é possível inibir uma diminuição na precisão de atualização das distância e ângulo de orientação, e uma diminuição na precisão de cálculo da quantidade de movimento do veículo 10.
[079]Além do mais, uma diminuição na densidade dos pontos característicos detectados aumenta as distâncias entre os pontos característicos. Isso faz com que o plano, definido pelos pontos característicos, fique, provavelmente, diferente da su-perfície de estrada 31, e dificulta o cálculo preciso das distância e ângulo de orientação. Isso é porque, de uma maneira geral, a superfície de estrada 31 não é plana, devido a um declive (inclinação) proporcionada na superfície de estrada, para facilitar a drenagem. Além disso, uma menor densidade de pontos característicos detec- táveis significa que, como descrito acima, a superfície de estrada 31 é menos irregular e modelada. Isso diminui a quantidade de componentes de ruído, que são incluídos nas distância e ângulo de orientação calculados do feixe de luz padronizado 32a. Não obstante, as distância e ângulo de orientação podem ser obtidos precisa e estavelmente por seletivamente atualizar as distância e ângulo de orientação, usando os pontos característicos, ou calcular as distância e ângulo de orientação, usando o feixe de luz padronizado 32a, dependendo das condições sob as quais os pontos característicos são detectados.
[080]Além do mais, a determinação pela seção de determinação de condição de detecção 30 da condição, sob a qual os pontos característicos são detectados, é pode ser baseada em uma média de brilho da imagem 38 obtida pela câmera 12. Por exemplo, a seção de determinação de condição de detecção 30 pode ser configurada para determinar que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério, se a média do brilho da imagem 38 é maior do que um valor de limite superior Bmax ou inferior um valor de limite inferior Bmin. Em outras palavras, a seção de determinação de condição de detecção 30 determina que a condição, sob a qual os pontos característicos são detectados, é ruim se for muito brilhante ou escura. Por exemplo, o valor de limite superior Bmax e o valor de limite superior Bmin podem ser estabelecidos, respectivamente, a 200 e 50.
[081]Na etapa S907 na Figura 9, a ECU 13 pode ser configurada para esta-belecer os pontos de partida das operações de integração nas distância e ângulo de orientação iniciais predeterminados, em vez das distância e ângulo de orientação empregados no ciclo de processamento de informações prévio. Em detalhes, o cal-culador de própria posição 26 pode ser configurado para estabelecer os pontos de partida das operações de integração nas distância e ângulo de orientação iniciais predeterminados, obtidos com pelo menos os ocupantes e a carga do veículo 10 considerados, se a seção de determinação de condição de detecção 30 determinar a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério, e, concorrentemente, se a seção de determinação de estado de cálculo 35 determinar que o estado do cálculo das distância e ângulo de orientação pelo calculador de ângulo de orientação 22 é muito ruim para satisfazer o segundo critério. Por exemplo, as distância e ângulo de orientação calculados na etapa S05, no ciclo de processamento de informações imediatamente após o aparelho de cálculo de própria posição ser ativado, podem ser usados como os pontos de partida. Desse modo, as distância e ângulo de orientação podem ser utilizados e a quantidade de movimento pode ser calculada por estabelecimento dos pontos de partida nas distância e ângulo de orientação, que não são afetados pela estrada ou inclinação do veículo 10, devido a uma curva, aceleração ou desaceleração do veículo 10.
[082]Como mostrado na Figura 11, um aparelho de cálculo de própria posição, de uma segunda concretização, é diferente do aparelho de cálculo de própria posição, mostrado na Figura 1, pelo fato de que a ECU 13 inclui um calculador de plano 36. O calculador de plano 36 calcula o plano G, que inclui os pontos característicos Te1, Te2, Te3 mostrados na Figura 6 das posições relativas (Xi, Yi, Zi) de alguns pontos característicos. Se a precisão com a qual o calculador de plano 36 calcula o plano G for igual ou inferior à precisão limite predeterminada, a seção de determinação de condição de detecção 30 determina que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério. A outra configuração é igual àquela da primeira concretização. Por essa razão, as descrições para a outra configuração vão ser omitidas.
[083] Por exemplo, em um caso no qual os pontos característicos, cujas posi-ções relativas (Xi, Yi, Zi) são calculadas, estão em uma linha reta, o calculador de plano 36 determina que a precisão, com a qual o plano G é calculado, é igual ou inferior à precisão limite predeterminada. Especificamente, por uso da transformada de Hough, o calculador de plano 36 calcula uma distribuição dos gradientes dos pontos característicos e as distâncias dos pontos característicos do centro do plano G. Se 90% dos pontos característicos detectados satisfazem ambas a condição de que seus gradientes ficam dentro de uma faixa, entre ± 5 graus de um determinado ângulo, e uma condição de que suas distâncias do centro do plano ficam dentro de uma faixa, entre ± 10 pixels, o calculador de plano 36 determina que os pontos característicos estão em uma linha reta. Eventualmente, as coordenadas dos pontos característicos, que vão ser usadas para a transformada de Hough, são suas posições (Ui, Vi) na imagem.
[084]Quando sinais da estrada, incluindo travessia de pedestres e uma mar-cação de pavimento, são pintados na superfície de estrada 31, há uma probabilidade de que os pontos característicos, detectados dela, seja distribuídos concentrada- mente na forma de uma determinada tira ou linha. Nesse caso, os pontos característicos detectados ficam em uma linha reta com alto grau de exatidão. Isso diminui a precisão com a qual o plano G, definido pelos pontos característicos, é calculado. Uma diminuição na precisão não pode ser provada dos vários pontos característicos ou da densidade dos pontos característicos. A segunda concretização, no entanto, pode determinar adequadamente a condição, sob a qual os pontos característicos são detectados, de acordo com a precisão com a qual o plano G, definido pelos pontos característicos, é calculado.
[085]Como mostrado na Figura 12, um aparelho de cálculo de própria posição, de uma terceira concretização, é diferente do aparelho de cálculo de própria posição, mostrado na Figura 1, pelo fato de que o aparelho de cálculo de própria posição da terceira concretização inclui ainda um sensor de iluminância 37, como um exemplo de detector de iluminância, para detectar uma quantidade de variação na iluminância em torno do veículo. Se a quantidade de variação na iluminância, de-tectado pelo sensor de iluminância 37, for igual ou superior a uma iluminância limite predeterminada, a seção de determinação de condição de detecção 30 determina que a condição, sob a qual os pontos característicos são detectados, é muito ruim para satisfazer o primeiro critério. A outra configuração é igual àquela da primeira concretização. Por essa razão, as descrições para a outra configuração vão ser omi-tidas.
[086]No diafragma da câmera 12 ou um ajuste automático de sensibilidade ISO não puder seguir uma variação brusca na iluminância em torno do veículo, pontos iluminados de extinção ou sombras bloqueadas ocorrem na imagem obtida pela câmera 12. Isso dificulta detectar os pontos característicos da invenção, e, consequentemente, piora a condição sob a qual os pontos característicos são detectados. Com isso considerado, como a câmera 12 e o projetor de luz 11, o sensor de ilumi- nância 37 é instalado na frente do veículo, e uma determinação é feita na condição, sob a qual os pontos característicos são detectados, de acordo com a quantidade de variação na iluminância detectada pelo sensor de iluminância 37. Por detecção da probabilidade de antemão de que nenhum ponto característico vai ser capaz de ser detectado pela câmera 12, as distância e ângulo de orientação são calculados do feixe de luz padronizado 32a, projetado na superfície de estrada 31. Isso possibilita determinar adequadamente a condição sob a qual os pontos característicos são detectados.
[087]Embora as primeira à terceira concretizações tenham sido descritas como acima, nenhuma das descrições e desenhos, que constituem partes da descrição, devem ser considerados como limitantes da presente invenção. A descrição vai produzir várias concretizações, exemplos e técnicas operacionais alternativos claros para aqueles versados na técnica.
[088]Eventualmente, embora a Figura 2 mostre o exemplo no qual a câmera 12 e o projetor de luz 11 são instalados na frente do veículo 10, a câmera 12 e o projetor de luz 11 podem ser instalados nas partes laterais, traseira ou fundo do veículo 10. Além do mais, embora a Figura 2 mostre o carro de passeio de quatro rodas, como um exemplo do veículo 10 da concretização, a presente invenção é aplicável a todos os corpos móveis (veículos), tais como motocicletas, caminhões e veículos especiais para transporte de máquinas de construção, desde que os pontos característicos nas superfícies de estrada e nas superfícies das paredes possam ser capturados desses corpos móveis.
[089] 10 - veículo
[090] 11 - projetor de luz
[091] 12 - câmera (unidade de captura de imagem)
[092]21 - extrator de feixe de luz padronizado
[093]22 - calculador de ângulo de orientação
[094]23 - detector de ponto característico
[095]24 - calculador de quantidade de variação de orientação
[096]26 - calculador de própria posição
[097]30 - seção de determinação de condição de detecção
[098]31 - superfície de estrada
[099]32a, 32b - feixe de luz padronizado
[0100]35 - seção de determinação de estado de cálculo
[0101]36 - calculador de plano
[0102]37 - sensor de iluminância (detector de iluminância)
[0103]Te - ponto característico
Claims (8)
1. Aparelho de cálculo de própria posição, CARACTERIZADO pelo fato de que compreende:um projetor de luz (11), configurado para projetar um feixe de luz (32a, 32b) padronizado em uma superfície de estrada (31) em torno de um veículo (10);uma unidade de captura de imagem (12), instalada no veículo (10) e configu-rada para capturar uma imagem da superfície de estrada (31) em torno do veículo (10), incluindo uma área na qual o feixe de luz padronizado (32a, 32b) é projetado;um calculador de ângulo de orientação (22), configurado para calcular um ângulo de orientação do veículo (10), relativo à superfície de estrada (31), a partir de uma posição do feixe de luz padronizado (32a, 32b), na imagem obtida pela unidade de captura de imagem (12);um calculador de quantidade de variação de orientação (24), configurado para calcular uma quantidade de variação na orientação do veículo (10), com base em mudanças temporais em vários pontos característicos na superfície de estrada (31), que são detectadas da imagem obtida pela unidade de captura de imagem (12);um calculador de própria posição (26), configurado para calcular a posição e o ângulo de orientação atuais do veículo (10) por adição da quantidade de variação na orientação da posição inicial e no ângulo de orientação do veículo (10); euma seção de determinação de condição de detecção (30), configurada para determinar sob que condição os vários pontos característicos (Te) são detectados pelo calculador de quantidade de variação de orientação (24), em que:se a condição, sob a qual os múltiplos pontos característicos (Te) são detec-tados, não satisfizer um primeiro critério, o aparelho de cálculo de própria posição (26) ajusta a posição atual do veículo (10) nesse momento e o ângulo de orientação do veículo (10), calculado pelo calculador de ângulo de orientação (22), na posição e ângulo de orientação iniciais do veículo (10), e começa a adicionar a quantidade de variação na orientação à posição e ângulo de orientação iniciais.
2. Aparelho de cálculo de própria posição, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se o número dos vários pontos característicos (Te), usados pelo calculador de quantidade de variação de orientação (24), for igual ou inferior a um valor limite predeterminado, a seção de determinação de condição de detecção (30) determina que a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz o primeiro critério.
3. Aparelho de cálculo de própria posição, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que se a densidade dos pontos característicos (Te), detectada da imagem, for igual ou inferior a uma densidade limite predeterminada, a seção de determinação de condição de detecção (30) determina que a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz o primeiro critério.
4. Aparelho de cálculo de própria posição, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que compreende ainda:um calculador de plano (36), configurado para calcular um plano incluindo os vários pontos característicos (Te) de posições relativas dos vários pontos característicos (Te), detectados da imagem, em que se a precisão, com a qual o calculador de plano (36) calcula o plano, for igual ou inferior a uma precisão limite predeterminada, a seção de determinação de condição de detecção (30) determina que a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz o primeiro critério.
5. Aparelho de cálculo de própria posição, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que compreende ainda um detector de iluminância (37), configurado para detectar uma quantidade de variação em uma iluminância em torno do veículo (10), em que, se a quantidade de variação em uma iluminância, detectada pelo detector de iluminância (37), for igual ou superior a uma iluminância limite predeterminada, a seção de determinação de condição de detecção (30) de-termina que a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz o primeiro critério.
6. Aparelho de cálculo de própria posição, de acordo com qualquer uma das reivindicações de 1 a 5, CARACTERIZADO pelo fato de que compreende ainda:uma seção de determinação de estado de cálculo (35), configurada para de-terminar um estado de cálculo do ângulo de orientação pelo calculador de ângulo de orientação (22), em que se a seção de determinação de condição de detecção (30) determinar que a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz o primeiro critério, e se a seção de determinação de condição de detecção (35) determinar que o estado do cálculo do ângulo de orientação não satisfaz um segundo critério, o calculador de própria posição (26) começa a adicionar a quantidade de variação na orientação ao ângulo de orientação inicial, que é estabelecido com pelo menos os ocupantes e a carga do veículo (10) considerados.
7. Aparelho de cálculo de própria posição, de acordo com qualquer uma das reivindicações de 1 a 5, CARACTERIZADO pelo fato de que compreende ainda:uma seção de determinação de estado de cálculo (35), configurada para de-terminar um estado de cálculo do ângulo de orientação pelo calculador de ângulo de orientação (22), em que se a seção de determinação de condição de detecção (30) determinar que a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz o primeiro critério, e se a seção de determinação de condição de detecção (35) determinar que o estado do cálculo do ângulo de orientação não satisfaz um segundo critério, o calculador de própria posição (26) começa a adicionar a quantidade de variação na orientação a um ângulo de orientação, que é calculado antes que a seção de determinação de condição de detecção (30) determine que a condição, sob a qual os pontos característicos são detectados, não satisfaz o primeiro critério.
8. Processo de cálculo de própria posição, CARACTERIZADO pelo fato de que compreende:uma etapa de projeção de um feixe de luz padronizado (32a, 32b) em uma superfície de estrada (31) em torno de um veículo (10), por um projetor de luz (11) instalado no veículo (10);uma etapa de captura de uma imagem da superfície de estrada (31) em torno do veículo (10), incluindo uma área na qual o feixe de luz padronizado (32a, 32b) é projetado, por uma unidade de captura de imagem (12) instalada no veículo;uma etapa de cálculo de um ângulo de orientação do veículo (10) relativo à superfície de estrada (31), a partir de uma posição do feixe de luz padronizado (32a, 32b) na imagem, por um controlador (13) do veículo (10);uma etapa de cálculo de quantidade de variação de ângulo de orientação de cálculo de uma quantidade de variação na orientação do veículo (10), com base em variações temporais em vários pontos característicos (Te) na superfície de estrada (31), que são detectadas da imagem, pelo controlador (13);uma etapa de cálculo de própria posição de cálculo das posição e ângulo de orientação atuais do veículo (10) por adição da quantidade de variação na orientação para a posição e ângulo de orientação iniciais do veículo (10), pelo controlador (13); euma etapa de determinação sob que condição os vários pontos característicos (Te) são detectados na etapa de cálculo de quantidade de variação de orientação, pelo controlador (13), em quese a condição, sob a qual os pontos característicos (Te) são detectados, não satisfaz um primeiro critério, a etapa de cálculo de própria posição ajusta a posição atual do veículo (10) naquele momento e o ângulo de orientação do veículo (10), calculado a partir da posição do feixe de luz padronizado (32a, 32b) nas posição e ângulo de orientação iniciais do veículo (10), e começa a adicionar a quantidade de variação na orientação à posição e ângulo de orientação iniciais.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2014/054310 WO2015125296A1 (ja) | 2014-02-24 | 2014-02-24 | 自己位置算出装置及び自己位置算出方法 |
Publications (3)
Publication Number | Publication Date |
---|---|
BR112016018603A2 BR112016018603A2 (pt) | 2017-08-08 |
BR112016018603A8 BR112016018603A8 (pt) | 2020-06-23 |
BR112016018603B1 true BR112016018603B1 (pt) | 2022-01-04 |
Family
ID=53877829
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112016018603-6A BR112016018603B1 (pt) | 2014-02-24 | 2014-02-24 | Aparelho de cálculo de própria posição e processo de cálculo de própria posição |
Country Status (8)
Country | Link |
---|---|
US (1) | US10026196B2 (pt) |
EP (1) | EP3113145B1 (pt) |
JP (1) | JP6237874B2 (pt) |
CN (1) | CN105981086B (pt) |
BR (1) | BR112016018603B1 (pt) |
MX (1) | MX349023B (pt) |
RU (1) | RU2628553C1 (pt) |
WO (1) | WO2015125296A1 (pt) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6299319B2 (ja) * | 2014-03-25 | 2018-03-28 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
JP6269838B2 (ja) * | 2014-08-04 | 2018-01-31 | 日産自動車株式会社 | 自己位置算出装置及び自己位置算出方法 |
CN109328292B (zh) * | 2017-12-28 | 2022-10-11 | 深圳配天智能技术研究院有限公司 | 一种车辆定位方法、装置及存储介质 |
EP3746744A1 (en) * | 2018-03-07 | 2020-12-09 | Google LLC | Methods and systems for determining geographic orientation based on imagery |
CN110617821B (zh) * | 2018-06-19 | 2021-11-02 | 北京嘀嘀无限科技发展有限公司 | 定位方法、装置及存储介质 |
CN109064506B (zh) * | 2018-07-04 | 2020-03-13 | 百度在线网络技术(北京)有限公司 | 高精度地图生成方法、装置及存储介质 |
KR20200046437A (ko) * | 2018-10-24 | 2020-05-07 | 삼성전자주식회사 | 영상 및 맵 데이터 기반 측위 방법 및 장치 |
WO2021024290A1 (ja) * | 2019-08-02 | 2021-02-11 | 日産自動車株式会社 | 画像処理装置及び画像処理方法 |
US20210206403A1 (en) * | 2020-01-03 | 2021-07-08 | Westinghouse Air Brake Technologies Corporation | Systems and methods for vehicle orientation determination |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5155775A (en) * | 1988-10-13 | 1992-10-13 | Brown C David | Structured illumination autonomous machine vision system |
AU642638B2 (en) | 1989-12-11 | 1993-10-28 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
US5610815A (en) * | 1989-12-11 | 1997-03-11 | Caterpillar Inc. | Integrated vehicle positioning and navigation system, apparatus and method |
JPH06325298A (ja) | 1993-05-13 | 1994-11-25 | Yazaki Corp | 車両周辺監視装置 |
JP2004198212A (ja) | 2002-12-18 | 2004-07-15 | Aisin Seiki Co Ltd | 移動体周辺監視装置 |
JP2004198211A (ja) | 2002-12-18 | 2004-07-15 | Aisin Seiki Co Ltd | 移動体周辺監視装置 |
BRPI0620380B1 (pt) * | 2005-12-23 | 2018-04-24 | Gcoder Systems Ab | Padrão de posicionamento |
JP5151050B2 (ja) * | 2006-03-23 | 2013-02-27 | 日産自動車株式会社 | 車両用環境認識装置及び車両用環境認識方法 |
JP4914726B2 (ja) * | 2007-01-19 | 2012-04-11 | クラリオン株式会社 | 現在位置算出装置、現在位置算出方法 |
JP5092613B2 (ja) * | 2007-08-06 | 2012-12-05 | 日産自動車株式会社 | 距離計測方法および装置、ならびに距離計測装置を備えた車両 |
JP5251419B2 (ja) * | 2008-10-22 | 2013-07-31 | 日産自動車株式会社 | 距離計測装置および距離計測方法 |
US20120022739A1 (en) * | 2010-07-20 | 2012-01-26 | Gm Global Technology Operations, Inc. | Robust vehicular lateral control with front and rear cameras |
CN103154666B (zh) * | 2011-06-14 | 2015-03-18 | 日产自动车株式会社 | 距离测量装置以及环境地图生成装置 |
JP5898475B2 (ja) * | 2011-11-28 | 2016-04-06 | クラリオン株式会社 | 車載カメラシステム及びその較正方法、及びその較正プログラム |
JP2013147114A (ja) * | 2012-01-18 | 2013-08-01 | Toyota Motor Corp | 周辺環境取得装置およびサスペンション制御装置 |
JP5992184B2 (ja) * | 2012-03-09 | 2016-09-14 | 株式会社トプコン | 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム |
US9446652B2 (en) | 2012-08-02 | 2016-09-20 | Toyota Jidosha Kabushiki Kaisha | Road surface state obtaining device and suspension system |
FR3014553A1 (fr) * | 2013-12-11 | 2015-06-12 | Parrot | Procede de calibration angulaire de la position d'une camera video embarquee dans un vehicule automobile |
-
2014
- 2014-02-24 JP JP2016503895A patent/JP6237874B2/ja active Active
- 2014-02-24 BR BR112016018603-6A patent/BR112016018603B1/pt active IP Right Grant
- 2014-02-24 US US15/118,240 patent/US10026196B2/en active Active
- 2014-02-24 RU RU2016137788A patent/RU2628553C1/ru active
- 2014-02-24 MX MX2016010589A patent/MX349023B/es active IP Right Grant
- 2014-02-24 EP EP14882853.6A patent/EP3113145B1/en active Active
- 2014-02-24 CN CN201480074969.1A patent/CN105981086B/zh active Active
- 2014-02-24 WO PCT/JP2014/054310 patent/WO2015125296A1/ja active Application Filing
Also Published As
Publication number | Publication date |
---|---|
RU2628553C1 (ru) | 2017-08-18 |
EP3113145A1 (en) | 2017-01-04 |
CN105981086A (zh) | 2016-09-28 |
JP6237874B2 (ja) | 2017-11-29 |
MX349023B (es) | 2017-07-07 |
EP3113145B1 (en) | 2019-11-27 |
US10026196B2 (en) | 2018-07-17 |
US20170186186A1 (en) | 2017-06-29 |
EP3113145A4 (en) | 2017-03-08 |
MX2016010589A (es) | 2016-10-26 |
BR112016018603A2 (pt) | 2017-08-08 |
JPWO2015125296A1 (ja) | 2017-03-30 |
CN105981086B (zh) | 2017-07-25 |
WO2015125296A1 (ja) | 2015-08-27 |
BR112016018603A8 (pt) | 2020-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112016018603B1 (pt) | Aparelho de cálculo de própria posição e processo de cálculo de própria posição | |
BR112016019548B1 (pt) | Dispositivo de cálculo de auto-localização e metodo de cálculo de auto-localização | |
BR112016019519B1 (pt) | Aparelho e método de cálculo de auto-posição para calcular uma auto-posição de um veículo | |
BR112016019494B1 (pt) | Aparelho de cálculo de autoposição e método de cálculo de autoposição | |
BR112016019593B1 (pt) | Aparelho de cálculo de autoposição e método de cálculo de autoposição | |
BR112016019589B1 (pt) | Dispositivo de cálculo de autolocalização e método de cálculo de autolocalização | |
JP6547362B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6398218B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6398217B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6492974B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6398219B2 (ja) | 自己位置算出装置及び自己位置算出方法 | |
JP6369898B2 (ja) | 自己位置算出装置及び自己位置算出方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B06U | Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 24/02/2014, OBSERVADAS AS CONDICOES LEGAIS. |