BR112015001861B1 - Dispositivo de detecção de objeto tridimensional - Google Patents

Dispositivo de detecção de objeto tridimensional Download PDF

Info

Publication number
BR112015001861B1
BR112015001861B1 BR112015001861-0A BR112015001861A BR112015001861B1 BR 112015001861 B1 BR112015001861 B1 BR 112015001861B1 BR 112015001861 A BR112015001861 A BR 112015001861A BR 112015001861 B1 BR112015001861 B1 BR 112015001861B1
Authority
BR
Brazil
Prior art keywords
dimensional object
area
detection
image
unit
Prior art date
Application number
BR112015001861-0A
Other languages
English (en)
Other versions
BR112015001861A2 (pt
Inventor
Yasuhisa Hayakawa
Osamu Fukata
Original Assignee
Nissan Motor Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd filed Critical Nissan Motor Co., Ltd
Publication of BR112015001861A2 publication Critical patent/BR112015001861A2/pt
Publication of BR112015001861B1 publication Critical patent/BR112015001861B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

DISPOSITIVO DE DETECÇÃO DE OBJETO TRIDIMENSIONAL. São fornecidas: uma câmera (10) montada em um veículo e adaptada para capturar uma imagem para trás do veículo; uma unidade de detecção de objeto tridimensional (33, 37) para detectar um objeto tridimensional presente em uma área de detecção do lado direito (A1) ou uma área de detecção do lado esquerdo (A2) para trás do veículo com base em informação de imagem a partir da câmera (10); uma unidade de determinação de objeto tridimensional (34) para determinar se um objeto tridimensional detectado pela unidade de detecção de objeto tridimensional (33, 37) é outro veículo (VX) presente na área de detecção do lado direito (A1) ou área de detecção do lado esquerdo (A2); uma unidade de determinação de área de luminância elevada (38) para detectar uma primeira área de detecção (A1, A2) incluindo uma área de luminância elevada predeterminada nas áreas de detecção esquerda e direita (A1, A2); e um controlador (39) para suprimir detecção de outro veículo com base em informações de imagem da primeira área de detecção detectada (A1, A2), e manter ou promover detecção de outro veículo com base na informação de imagem de uma segunda área de detecção (A1, A2) diferente da primeira área de detecção (A1, A2).

Description

CAMPO TECNOLÓGICO
[001] A presente invenção refere-se a um dispositivo de detecção de objeto tridimensional.
[002] O presente pedido reivindica direito de prioridade com base no pedido de patente japonesa no. 2012-166516 depositado em 27 de julho de 2012, e nos estados designados que aceitam incorporação de um documento por referência, os teores descritos nos pedidos acima mencionados são incorporados aqui a título de referência e são considerados como parte da descrição do presente pedido.
Tecnologia antecedente
[003] É conhecido um dispositivo de detecção de obstáculo no qual imagens capturadas na periferia de um veículo são convertidas em vistas aéreas e uma diferença entre duas imagens convertidas em vistas aéreas diferindo ao longo do tempo é usada para detectar obstáculos (vide o documento de patente 1).
Documentos da técnica anterior Documentos de patente
[004] Documento de patente 1: pedido de patente em aberto japonesa no. 2008-227646.
REVELAÇÃO DA INVENÇÃO Problemas a serem resolvidos pela invenção
[005] Ao utilizar uma imagem capturada na traseira de um veículo para detectar um obstáculo outro veículo se deslocando em uma pista adjacente, adjacente a uma pista na qual um veículo hospedeiro está se deslocando, e ao executar processamento para detectar um objeto tridimensional com as mesmas condições para uma área de um ambiente brilhante iluminado pelo sol ou outra luz intensa e uma área de um ambiente escuro estando na sombra do veículo hospedeiro, outro veículo ou outro objeto, embora a precisão de detecção do objeto tridimensional possa ser aperfeiçoada no ambiente brilhante ou ambiente escuro, há um problema de que a precisão de detecção do objeto tridimensional diminui no outro ambiente.
[006] Especificamente, em um ambiente brilhante no qual luz solar entrando na área de detecção é refletida na superfície da estrada, o brilho de uma imagem de reflexo (imagem virtual) formada pelo reflexo da luz solar ou outra luz intensa na superfície da estrada excede um valor limiar de brilho para detectar um objeto tridimensional, e a imagem pode ser erroneamente detectada como um objeto tridimensional. Por outro lado, em um ambiente escuro no qual luz solar que entra ou outra luz é bloqueada por outro veículo, ou similar, o brilho da imagem capturada diminui, o brilho de uma imagem (imagem real) de outro veículo efetivamente presente não excede o valor limiar de brilho para detectar um objeto tridimensional, e a imagem pode ser erroneamente detectada como não sendo um objeto tridimensional.
[007] Um objetivo da presente invenção é fornecer um dispositivo de detecção de objeto tridimensional que evita detecção errônea de uma imagem de reflexo (imagem virtual) devido à luz solar ou outra luz intensa formada na área de detecção de um ambiente brilhante como uma imagem (imagem real) de outro veículo se deslocando em uma pista adjacente, adjacente à pista na qual um veículo hospedeiro está se deslocando, e detecta outro veículo se deslocando na pista adjacente, sob circunstâncias nas quais uma área de detecção de um ambiente brilhante e uma área de detecção de um ambiente escuro são formadas. Meios usados para resolver os problemas acima mencionados
[008] A presente invenção obtém o objetivo acima mencionado por suprimir avaliação de que um objeto tridimensional é outro veículo com base em informações de imagem de uma primeira área de detecção incluindo uma área de luminância elevada compreendida em uma área de detecção do lado direito ou uma área de detecção do lado esquerdo, e por manter ou promover avaliação de que um objeto tridimensional é outro veículo com base em informações de imagem de uma segunda área de detecção do que a primeira área de detecção.
EFEITO DA INVENÇÃO
[009] De acordo com a presente invenção, detecção errônea de uma imagem de reflexo (imagem virtual) de luz solar como uma imagem (imagem real) de outro veículo se deslocando em uma pista adjacente, adjacente a uma pista na qual um veículo hospedeiro está se deslocando pode ser evitada com relação a uma primeira área de detecção tendo um ambiente brilhante, e detecção errônea de uma imagem (imagem real) de outro veículo efetivamente presente em uma pista adjacente como não sendo outro veículo pode ser evitada com relação a uma segunda área de detecção tendo um ambiente relativamente escuro, quando ambientes brilhantes diferem entre uma área de detecção do lado direito e uma área de detecção do lado esquerdo. Um sistema de detecção de objeto tridimensional que detecta com precisão elevada outro veículo se deslocando em uma pista adjacente, adjacente a uma pista na qual um veículo hospedeiro está se deslocando pode ser fornecida como um resultado.
BREVE DESCRIÇÃO DOS DESENHOS
[010] A figura 1 é uma vista geral esquemática de um veículo de acordo com uma modalidade na qual o dispositivo de detecção de objeto tridimensional da presente invenção é aplicado.
[011] A figura 2 é uma vista plana ilustrando um estado de deslocamento do veículo na figura 1.
[012] A figura 3 é uma vista de bloco ilustrando detalhes do computador na figura 1.
[013] A figura 4 é uma vista para descrever uma vista geral de processamento da unidade de alinhamento na figura 3. A figura 4(a) é uma vista plana ilustrando um estado de deslocamento do veículo, e a figura 4(b) é uma imagem ilustrando uma vista geral de alinhamento.
[014] A figura 5 é uma vista esquemática ilustrando o modo de geração de uma forma de onda diferencial pela unidade de detecção de objeto tridimensional na figura 3.
[015] A figura 6 é uma vista ilustrando áreas pequenas divididas pela unidade de detecção de objeto tridimensional na figura 3.
[016] A figura 7 é uma vista ilustrando um exemplo de um histograma obtido pela unidade de detecção de objeto tridimensional na figura 3.
[017] A figura 8 é uma vista ilustrando ponderação realizada pela unidade de detecção de objeto tridimensional na figura 3.
[018] A figura 9 é uma vista ilustrando processamento realizado pela unidade de detecção de mancha na figura 3 e processamento de cálculo de uma forma de onda diferencial com base na mesma.
[019] A figura 10 é uma vista ilustrando outro exemplo de um histograma obtido pela unidade de detecção de objeto tridimensional na figura 3.
[020] A figura 11 é um fluxograma (parte 1) ilustrando o método de detecção de objeto tridimensional utilizando informações de forma de onda de diferencial realizadas pela unidade de conversão de ponto de visão, unidade de alinhamento, unidade de detecção de mancha, e unidade de detecção de objeto tridimensional na figura 3.
[021] A figura 12 é um fluxograma (parte 2) ilustrando o método de detecção de objeto tridimensional utilizando informações de forma de onda de diferencial realizadas pela unidade de conversão de ponto de visão, unidade de alinhamento, unidade de detecção de mancha, e unidade de detecção de objeto tridimensional na figura 3.
[022] A figura 13 é uma vista (detecção de objeto tridimensional utilizando informações de borda) ilustrando um estado de deslocamento do veículo na figura 1. A figura 13(a) é uma vista plana ilustrando as relações posicionais da área de detecção, e similares, e a figura 13(b) é uma vista em perspectiva ilustrando as relações posicionais da área de detecção, e similares, em espaço real.
[023] A figura 14 é uma vista para descrever a operação da unidade de cálculo de diferença de luminância na figura 3. A figura 14(a) é uma vista ilustrando as relações posicionais entre linhas de atenção, linhas de referência, pontos de atenção e pontos de referência em uma imagem de vista aérea, e a figura 14(b) é uma vista ilustrando as relações posicionais entre linhas de atenção, linhas de referência, pontos de atenção e pontos de referência em espaço real.
[024] A figura 15 é uma vista para descrever a operação detalhada da unidade de cálculo de diferença de luminância na figura 3. A figura 15(a) é uma vista ilustrando uma área de detecção em uma imagem de vista aérea, e a figura 15(b) é uma vista ilustrando as relações posicionais entre linhas de atenção, linhas de referência, pontos de atenção e pontos de referência em uma imagem de vista aérea.
[025] A figura 16 é uma vista ilustrando uma linha de borda e uma distribuição de luminância na linha de borda. A figura 16(a) é uma vista ilustrando a distribuição de luminância quando um objeto tridimensional (veículo) está presente na área de detecção, e (b) é uma vista ilustrando a distribuição de luminância quando um objeto tridimensional não está presente na área de detecção.
[026] A figura 17 é um fluxograma (parte 1) ilustrando o método de detecção de objeto tridimensional utilizando informações de borda realizadas pela unidade de conversão de ponto de visão, unidade de cálculo de diferença de luminância, unidade de detecção de linha de borda, e unidade de detecção de objeto tridimensional na figura 3.
[027] A figura 18 é um fluxograma (parte 2) ilustrando o método de detecção de objeto tridimensional utilizando informações de borda realizadas pela unidade de conversão de ponto de visão, unidade de cálculo de diferença de luminância, unidade de detecção de linha de borda, e unidade de detecção de objeto tridimensional na figura 3.
[028] A figura 19 é uma vista ilustrando um exemplo de uma imagem para descrever a operação de detecção de borda.
[029] A figura 20A é uma vista para descrever uma área de luminância elevada formada quando a luz solar entra na área de detecção.
[030] A figura 20B é uma vista para descrever uma área de luminância elevada e uma área de luminância baixa formadas quando luz solar entra na área de detecção e outro veículo está presente na área de detecção.
[031] A figura 21 é um fluxograma ilustrando o procedimento de controle do dispositivo de detecção de objeto tridimensional da presente modalidade.
[032] A figura 22 é uma vista ilustrando um exemplo da relação entre a área de luminância elevada e o valor limiar.
MODALIDADES PREFERIDAS DA INVENÇÃO
[033] A figura 1 é uma vista geral esquemática de um veículo de acordo com uma modalidade na qual o dispositivo de detecção de objeto tridimensional 1 da presente invenção é aplicado. O dispositivo de detecção de objeto tridimensional 1 do presente exemplo é um dispositivo para detectar como um obstáculo outro veículo ao qual o motorista do veículo hospedeiro V deve estar prestando atenção durante a direção, por exemplo, outro veículo com o qual haja possiblidade de conato quando o veículo hospedeiro muda as pistas. Em particular, o dispositivo de detecção de objeto tridimensional 1 do presente exemplo é usado para detectar outro veículo se deslocando em uma pista adjacente à pista na qual o veículo hospedeiro está se deslocando (abaixo também mencionado simplesmente como “pista adjacente”). O dispositivo de detecção de objeto tridimensional 1 do presente exemplo também pode calcular uma distância de deslocamento e uma velocidade de deslocamento do outro veículo detectado. O exemplo descrito abaixo, portanto é um exemplo no qual o dispositivo de detecção de objeto tridimensional 1 é montado no veículo hospedeiro V e é usado para detectar outro veículo se deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro V está se deslocando, entre objetos tridimensionais detectados na periferia do veículo hospedeiro. Como ilustrado na mesma vista, o dispositivo de detecção de objeto tridimensional 1 do presente exemplo é dotado de uma câmera 10, um sensor de velocidade 20, um computador 30 e um dispositivo de detecção de posição 50.
[034] A câmera 10 é fixada ao veículo hospedeiro V em direção à traseira do veículo hospedeiro V em um lugar em uma altura h e é disposto de modo que o eixo ótico seja levado para baixo em um ângulo θ a partir da horizontal, como ilustrado na figura 1. A câmera 10 captura uma imagem de uma área predeterminada no ambiente periférico do veículo hospedeiro V a partir dessa posição. Na presente modalidade, uma câmera 1 é fornecida para detectar um objeto tridimensional em direção à traseira do veículo hospedeiro V, porém outra câmera pode ser fornecida para outro uso, por exemplo, para adquirir uma imagem na periferia do veículo. O sensor de velocidade 20 detecta uma velocidade de deslocamento do veículo hospedeiro V, por exemplo, a velocidade do veículo é calculada a partir de uma velocidade de roda detectada por um sensor de velocidade de roda para sentir um número de rotação em uma roda. O computador 30 detecta um objeto tridimensional em direção à traseira do veículo e, no presente exemplo, calcula uma distância de deslocamento e uma velocidade de deslocamento com relação ao objeto tridimensional. O dispositivo de detecção de posição 50 detecta uma posição de deslocamento do veículo hospedeiro V.
[035] A figura 2 é uma vista plana ilustrando um estado de deslocamento do veículo hospedeiro V na figura 1. Como ilustrado na mesma vista, a câmera 10 captura uma imagem no lado traseiro do veículo em um ângulo predeterminado a. nesse momento, o ângulo de vista a da câmera 10 é ajustado em um ângulo de vista no qual uma imagem pode ser capturada nas pistas esquerda e direita bem como a pista na qual o veículo hospedeiro V está se deslocando. A área na qual uma imagem pode ser capturada inclui pistas de detecção de objeto A1 e A2 em direção à traseira do veículo hospedeiro V e em pistas adjacentes, adjacentes à esquerda e direita da pista na qual o veículo hospedeiro V está se deslocando. Em direção à traseira do veículo na presente modalidade inclui não somente diretamente atrás do veículo como também em direção ao lado do lado traseiro do veículo. A área em direção à traseira do veículo na qual uma imagem é capturada é ajustada de acordo com o ângulo de visão da câmera 10. Também esse é um exemplo, o ângulo pode ser ajustado de modo a incluir uma área de 0 grau a 90 graus, preferivelmente 9 graus a 70 graus, ou similar a partir diretamente atrás, quando diretamente atrás do veículo seguindo a direção de comprimento do veículo é zero grau.
[036] A figura 3 é uma vista de bloco que ilustra detalhes do computador 30 na figura 1. Na figura 3, a câmera 10 sensor de velocidade 20 e dispositivo de detecção de posição 50 são também ilustrados para clarificação da relação de conexão.
[037] Como ilustrado na figura 3, o computador 30 é dotado de uma unidade de conversão de ponto de visão 31, uma unidade de alinhamento 32, uma unidade de detecção de objeto tridimensional 33, uma unidade de avaliação de objeto tridimensional 34, uma unidade de avaliação de área de luminância elevada 38, um controlador 39, e uma unidade de detecção de mancha 40. A unidade de computação 30 da presente modalidade é configurada em relação a um bloco para detectar um objeto tridimensional utilizando informações de forma de onda de diferencial. A unidade de computação 30 da presente invenção pode ser configurada também em relação a um bloco para detectar um objeto tridimensional utilizando informações de borda. Nesse caso, na configuração ilustrada na figura 3, configuração é possível por substituir a configuração de bloco A configurada com a unidade de alinhamento 32 e unidade de detecção de objeto tridimensional 33 com a configuração de bloco B configurada com a unidade de cálculo de diferença de luminância 35, unidade de detecção de linha de borda 36, e unidade de detecção de objeto tridimensional 37 circundada pelas linhas descontínuas. Como será evidente, tanto a configuração de bloco A como a configuração de bloco B pode ser fornecida de modo a ser capaz de executar detecção de um objeto tridimensional utilizando informações de forma de onda de diferencial bem como detecção de um objeto tridimensional utilizando informações de borda. Quando a configuração de bloco A e a configuração de bloco B são fornecidas, a configuração de bloco A ou a configuração de bloco B pode ser operada, por exemplo, de acordo com brilho ou outros fatores ambientais. Cada configuração é descrita abaixo.
Detecção de objeto tridimensional por informações de forma de onda de diferencial
[038] O dispositivo de detecção de objeto tridimensional 1 da presente modalidade é usado para detectar um objeto tridimensional presente em uma área de detecção de lado direito ou uma área de detecção do lado esquerdo para trás a partir do veículo com base em informações de imagem obtidas por uma câmera de reflexo de lente única para capturar uma imagem para trás a partir do veículo.
[039] Dados de imagem capturados da área predeterminada obtidos por captura realizada pela câmera 10 são entrados na unidade de conversão de ponto de visão 31, e os dados de imagem capturados desse modo entrados são convertidos em dados de imagem de vista aérea, que é um estado de vista aérea. Um estado de vista aérea é um estado de visão a partir de um ponto de visão de uma câmera imaginária que está olhando para baixo a partir de cima, por exemplo, verticalmente para baixo. Conversão de ponto de visão pode ser realizada no modo descrito, por exemplo, no pedido de patente em aberto japonesa no. 2008-219063. O motivo em que dados de imagem capturados são convertidos em dados de imagem de vista aérea se baseia no princípio de que bordas perpendiculares exclusivas para um objeto tridimensional são convertidas em um grupo de linha reta que passa através de um ponto fixo específico por conversão de ponto de visão em dados de imagem de vista aérea, e utilizando esse princípio permite que um objeto planar e um objeto tridimensional sejam distinguidos. O resultado de processamento de conversão de imagem realizado pela unidade de conversão de ponto de visão 31 é utilizado também na detecção de um objeto tridimensional utilizando informações de borda a serem descritas posteriormente.
[040] Os dados de imagem de vista aérea obtidos pela conversão de ponto de visão realizada pela unidade de conversão de ponto de visão 31 são sequencialmente entrados na unidade de alinhamento 32, e as posições entradas dos dados de imagem de vista aérea em pontos diferentes em tempo são alinhadas. A figura 4 é uma vista para descrever uma visão geral de processamento da unidade de alinhamento 32. A figura 4(a) é uma vista plana ilustrando um estado de deslocamento do veículo hospedeiro V, e a figura 4(b) é uma imagem ilustrando uma visão geral de alinhamento.
[041] Como ilustrado na figura 4(a), o veículo hospedeiro V no momento atual é posicionado em V1, e o veículo hospedeiro V em um único momento antes é posicionado em V2. É assumido que outro veículo VX é posicionado na direção do lado traseiro do veículo hospedeiro V e está se deslocando paralelo ao veículo hospedeiro V, e que o outro veículo VX no momento atual é posicionado em V3 e o outro veículo VX em um único momento antes é posicionado em V4. É adicionalmente assumido que o veículo hospedeiro V moveu por uma distância d em um único momento. A frase “em um momento único antes” pode ser um momento no passado por um tempo definido antecipadamente (por exemplo, um único ciclo de controle) a partir do momento atual, ou pode ser um momento no passado por um tempo arbitrário.
[042] Em tal estado, uma imagem de vista aérea PBt no momento atual se torna como ilustrado na figura 4(b). As linhas brancas traçadas na superfície da estrada são retangulares nessa imagem de vista aérea PBt e são relativamente precisas em uma vista plana, porém o outro veículo VX na posição V3 é cedido. O mesmo se aplica à imagem de vista aérea PBt-1 em um único momento antes, as linhas brancas traçadas na superfície da estrada são retangulares e são relativamente precisas em uma vista plana, porém o outro veículo VX na posição V4 é cedido. Como anteriormente descrito, bordas perpendiculares de um objeto tridimensional (bordas que estão eretas em espaço tridimensional a partir da superfície da estrada são também incluídas em um significado rigoroso de borda perpendicular) aparecem como um grupo de linhas retas ao longo de uma direção de colapso devido ao processo para converter o ponto de visão em dados de imagem de vista aérea, porém como uma imagem plana na superfície da estrada não inclui bordas perpendiculares, tal colapso não ocorre mesmo quando o ponto de visão foi convertido.
[043] A unidade de alinhamento 32 alinha as imagens de vista aérea PBt e PBt- 1, como aquelas descritas acima, em termos de dados. Quando isso é realizado, a unidade de alinhamento 32 desloca a imagem de vista aérea PBt-1 em um momento único antes, e casa a posição com a imagem de vista aérea PBt no momento atual. A imagem do lado esquerdo e a imagem central na figura (b) ilustram o estado de deslocamento por uma distância de deslocamento d’. A quantidade de deslocamento d’ é a quantidade de movimento nos dados de imagem de vista aérea que corresponde à distância de deslocamento efetiva d do veículo hospedeiro V ilustrado na figura 4(a), e é decidida com base em um sinal a partir do sensor de velocidade 20 e o tempo a partir de um único momento antes do momento atual.
[044] Após alinhamento, a unidade de alinhamento 32 obtém a diferença entre as imagens de vista aérea PBt e PBt-1 e gera dados de PDt de imagem diferencial. Aqui, os valores de pixel da imagem diferencial PDt podem ser tomados como o valor absoluto da diferença nos valores de pixel das imagens de vista aérea PBt e PBt-1 ou podem ser ajustados em “1” quando o valor absoluto excede um valor limiar predeterminado p, ou em “0” quando o valor absoluto não excede o valor limiar, para corresponder à variação no ambiente de iluminação. A imagem do lado direito na figura 4(b) ilustra a imagem diferencial PBt . O valor limiar p pode ser ajustado antecipadamente.
[045] Voltando para a figura 3, a unidade de detecção de objeto tridimensional 33 detecta um objeto tridimensional com base nos dados de imagem diferencial PDt na figura 4(b). Nesse caso, a unidade de detecção de objeto tridimensional 33 do presente exemplo calcula a distância de deslocamento do objeto tridimensional em espaço efetivo. A unidade de detecção de objeto tridimensional 33 primeiramente gera uma forma de onda diferencial quando o objeto tridimensional é detectado e a distância de deslocamento deve ser calculada. a distância de deslocamento ao longo do tempo do objeto tridimensional para calcular a velocidade de deslocamento do objeto tridimensional. A velocidade de deslocamento do objeto tridimensional pode ser também usada para avaliar se o objeto tridimensional é um veículo.
[046] Ao gerar a forma de onda diferencial, a unidade de detecção de objeto tridimensional 33 da presente modalidade define uma área de detecção na imagem diferencial PDt. O dispositivo de detecção de objeto tridimensional 1 do presente exemplo é um dispositivo para detectar como um objeto a ser detectado outro veículo ao qual o motorista do veículo hospedeiro V deve estar prestando atenção, por exemplo, outro veículo, se deslocando em uma pista adjacente à pista na qual o veículo hospedeiro V está se deslocando, com o qual haja possibilidade de contato quando o veículo hospedeiro V muda de pista. Portanto, no presente exemplo no qual um objeto tridimensional é detectado com base em informações de imagem, duas áreas de detecção são definidas no lado direito e lado esquerdo do veículo hospedeiro V na imagem obtida pela câmera 10. Especificamente, na presente modalidade, áreas de detecção retangulares A1 e A2 são definidas nos lados esquerdo e direito atrás do veículo hospedeiro V, como ilustrado na figura 2. Outro veículo detectado nessas áreas de detecção A1 e A2 é detectado como um obstáculo se deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro V está se deslocando. Tais áreas de detecção A1 e A2 podem ser definidas a partir de uma posição relativa ao veículo hospedeiro V, ou podem ser definidas com base na posição das linhas brancas. Quando definido com base na posição das linhas brancas, o dispositivo de detecção de distância de deslocamento 1 pode utilizar, por exemplo, técnicas conhecidas de reconhecimento de linha branca.
[047] A unidade de detecção de objeto tridimensional 33 reconhece como linhas de solo L1, L2 (figura 2) as margens das áreas de detecção A1 e A2 desse modo definidas, no lado do veículo hospedeiro V (lado ao longo da direção de deslocamento). Genericamente, uma linha de solo se refere a uma linha na qual um objeto tridimensional está em contato com o solo, porém na presente modalidade, uma linha de solo não é uma linha em contato com o solo, porém é ao invés disso definida no modo descrito acima. Mesmo em tal caso, a diferença entre a linha de solo de acordo com a presente modalidade e a linha de solo normal determinada a partir da posição do outro veículo VX não é excessivamente grande como determinado por experiência, e não há problema na realidade.
[048] A figura 5 é uma vista esquemática ilustrando o modo de geração de uma forma de onda diferencial pela unidade de detecção de objeto tridimensional 33 na figura 3. Como ilustrado na figura 5, a unidade de detecção de objeto tridimensional 33 gera uma forma de onda diferencial DWt a partir da porção que corresponde às áreas de detecção A1 e A2 na imagem diferencial PDt (desenho à direita na figura (b)) calculada pela unidade de alinhamento 32. Nesse caso, a unidade de detecção de objeto tridimensional 33 gera uma forma de onda diferencial DWt ao longo da direção na qual o objeto tridimensional cede por conversão de ponto de visão. No exemplo ilustrado na figura 5, somente a área de detecção A1 será descrita para fins de conveniência, porém a forma de onda diferencial DWt é gerada para a área de detecção A2 também utilizando o mesmo procedimento.
[049] Mais especificamente, primeiramente, a unidade de detecção de objeto tridimensional 33 define uma linha La na direção na qual o objeto tridimensional cede nos dados da imagem diferencial DWt. a unidade de detecção de objeto tridimensional 33 então conta o número de pixels de diferença DP indicando uma diferença predeterminada na linha La. Aqui, os pixels de diferença DP indicando a distância predeterminada são pixels excedendo um valor limiar predeterminado quando os valores de pixel da imagem diferencial DWt são tomados como o valor absoluto da diferença nos valores de pixel das imagens de vista aérea PBt e PBt-1, e são pixels indicando “1” quando os valores de pixel da imagem diferencial DWt são expressos como “0” e “1”.
[050] A unidade de detecção de objeto tridimensional 33 conta o número de pixels de diferença DP, e posteriormente determina o ponto de cruzamento CP da linha La e a linha de solo L1. A unidade de detecção de objeto tridimensional 33 então correlaciona o ponto de cruzamento CP e o número de contagem, decide a posição de eixo horizontal, isto é, a posição no eixo na direção longitudinal no desenho à direita na figura 5, com base na posição do ponto de cruzamento CP, decide a posição de eixo vertical, isto é, a posição no eixo na direção lateral no desenho à direita na figura 5, a partir do número de contagem, e traça as posições como o número de contagem no ponto de cruzamento CP.
[051] Similarmente, a unidade de detecção de objeto tridimensional 33 define as linhas Lb, Lc, ..., na direção na qual o objeto tridimensional cede, conta o número de pixels de diferença DP, decide a posição de eixo horizontal com base na posição de cada ponto de cruzamento CP, decide a posição de eixo vertical a partir do número de contagem (o número de pixels de diferença DP), e traça as posições. A unidade de detecção de objeto tridimensional 33 repete o acima em sequencia para formar uma distribuição de frequência e desse modo gerar uma forma de onda diferencial DWt como ilustrado no desenho à direita na figura 5.
[052] As linhas La e Lb na direção na qual o objeto tridimensional cede têm distâncias diferentes que sobrepõem a área de detecção A1, como ilustrado no desenho à esquerda na figura 5. Portanto, o número de pixels de diferença DP é maior na linha La que na linha Lb quando é assumido que a área de detecção A1 é preenchida com os pixels de diferença DP. Por esse motivo, a unidade de detecção de objeto tridimensional 33 executa normalização com base na distância que as linhas La e Lb na direção na qual o objeto tridimensional cede e a área de detecção A1 sobrepõem quando a posição de eixo vertical é decidida a partir do número de contagem dos pixels de diferença DP. Em um exemplo específico, há seis pixels de diferença DP na linha La e há cinco pixels de diferença DP na linha Lb no desenho à esquerda na figura 5. Portanto, quando a posição do eixo vertical é decidida a partir do número de contagem na figura 5, a unidade de detecção de objeto tridimensional 33 divide o número de contagem pela distância de sobreposição ou executa normalização em outro modo. Os valores da forma de onda diferencial DWt que correspondem às linhas La e Lb na direção na qual o objeto tridimensional cede são desse modo feitos substancialmente iguais.
[053] Após a forma de onda diferencial DWt ter sido gerada, a unidade de detecção de objeto tridimensional 33 calcula a distância de deslocamento por comparar com a forma de onda diferencial DWt-1 em um único momento antes. Em outras palavras, a unidade de detecção de objeto tridimensional 33 calcula a distância de deslocamento a partir da mudança em tempo das formas de onda diferenciais DWt e DWt-1.
[054] Mais especificamente, a unidade de detecção de objeto tridimensional 33 divide a forma de onda diferencial DWt em uma pluralidade de áreas pequenas DWt1 a DWtn (onde n é um número inteiro arbitrário de 2 ou maior) como ilustrado na figura 6. A figura 6 é uma vista ilustrando áreas pequenas DWt1 a DWtn divididas pela unidade de detecção de objeto tridimensional 33. As áreas pequenas DWt1 a DWtn são divididas de modo a estarem mutuamente sobrepondo como ilustrado, por exemplo, na figura 6. Por exemplo, a área pequena DWt1 e a área pequena DWt2 sobrepõem entre si, e a área pequena DWt2 e a área pequena DWt3 sobrepõem entre si.
[055] A seguir, a unidade de detecção de objeto tridimensional 33 determina a quantidade de deslocamento (a quantidade de movimento na direção de eixo horizontal (direção longitudinal na figura 6) da forma de onda diferencial) para cada das áreas pequenas DWt1 a DWtn. Aqui, a quantidade de deslocamento é determinada a partir da diferença (distância na direção de eixo horizontal) entre a forma de onda diferencial DWt-1 em um momento único antes e a forma de onda diferencial DWt no momento atual. Nesse caso, a unidade de detecção de objeto tridimensional 33 move a forma de onda diferencial DWt-1 em um momento único antes na direção de eixo horizontal para cada das áreas pequenas DWt1 a DWtn, e após isso determina a posição (a posição na direção de eixo horizontal) na qual o erro a partir da forma de onda diferencial DWt, no momento atual está em um mínimo, e determina como a quantidade de deslocamento a quantidade de movimento na direção de eixo horizontal entre a posição original da forma de onda diferencial DWt-1 e a posição na qual o erro está em um mínimo. A unidade de detecção de objeto tridimensional 33 então conta a quantidade de deslocamento determinada para cada das áreas pequenas DWt1 a DWtn e forma um histograma.
[056] A figura 7 é uma vista ilustrando um exemplo de um histograma obtido pela unidade de detecção de objeto tridimensional 33. Como ilustrado na figura 7, alguma quantidade de variabilidade ocorre na quantidade de deslocamento, que é a quantidade de movimento na qual o erro entre as áreas pequenas DWt1 a DWtn e a forma de onda diferencial DWt-1 em um único momento antes está em um mínimo. Portanto, a unidade de detecção de objeto tridimensional 33 forma as quantidades de deslocamento incluindo a variabilidade em um histograma e calcula a distância de deslocamento a partir do histograma. Nesse ponto, a unidade de detecção de objeto tridimensional 33 calcula a distância de deslocamento do objeto tridimensional a partir do valor máximo no histograma. Em outras palavras, no exemplo ilustrado na figura 7, a unidade de detecção de objeto tridimensional 33 calcula a quantidade de deslocamento indicando o valor máximo do histograma como a distância de deslocamento T*. A distância de deslocamento T* é a distância de deslocamento relativa do outro veículo VX em relação ao veículo hospedeiro V. Portanto, a unidade de detecção de objeto tridimensional 33 calcula a distância de deslocamento absoluta com base na distância de deslocamento t* desse modo obtida e o sinal a partir do sensor de velocidade 20 quando a distância de deslocamento absoluta deve ser calculada.
[057] Quando um histograma deve ser formado, a unidade de detecção de objeto tridimensional 33 pode transmitir uma ponderação para a pluralidade de áreas pequenas DWt1 a DWtn e contar as quantidades de deslocamento determinadas para cada das áreas pequenas DWt1 a DWtn de acordo com ponderação para formar um histograma. A figura 8 é uma vista ilustrando ponderação realizada pela unidade de detecção de objeto tridimensional 33.
[058] Como ilustrado na figura 8, uma pequena área DWm (onde m é um número inteiro 1 ou maior e n - 1 ou menor) é plana. Em outras palavras, na área pequena DWm, há pouca diferença entre os valores máximo e mínimo da contagem de número de pixels indicando uma diferença predeterminada. A unidade de detecção de objeto tridimensional 33 reduz a ponderação desse tipo de área pequena DWm. isso é porque a área pequena plana DWm não tem uma característica e há uma possibilidade elevada de que um erro será ampliado quando a quantidade de deslocamento é calculada.
[059] Por outro lado, uma área pequena DWm+k (onde k é um número inteiro n - m ou menos) tem ondulação abundante. Em outras palavras, na área pequena DWm, há diferença considerável entre os valores máximo e mínimo da contagem de número de pixels indicando uma diferença predeterminada. A unidade de detecção de objeto tridimensional 33 aumenta a ponderação desse tipo de área pequena DWm. Isso é porque a área pequena DWm+k abundante em ondulação é característica e há uma possibilidade elevada de que a quantidade de deslocamento será precisamente calculada. Ponderar as áreas pequenas desse modo torna possível aperfeiçoar a precisão de cálculo da distância de deslocamento.
[060] A forma de onda diferencial DWt é dividida em uma pluralidade de áreas pequenas DWt1 até DWtn na presente modalidade para aperfeiçoar a precisão de calcular a distância de deslocamento, porém a divisão nas áreas pequenas DWt1 a DWtn não é exigida quando a precisão de calcular a distância de deslocamento não é desse modo necessário. Nesse caso, a unidade de detecção de objeto tridimensional 33 calcula a distância de deslocamento a partir da quantidade de deslocamento da forma de onda diferencial DWt quando o erro entre a forma de onda diferencial DWt e a forma de onda diferencial DWt-1 está em um mínimo. Em outras palavras, o método para determinar a quantidade de deslocamento entre a forma de onda diferencial DWt-1 em um momento único antes e a forma de onda diferencial DWt no momento atual não é limitado aos detalhes descritos acima.
[061] Voltando para a figura 3, o computador 30 é dotado de uma unidade de detecção de mancha 40. A unidade de detecção de mancha 40 gera uma mancha a partir de dados de uma imagem capturada obtida por captura realizada pela câmera 10. Como uma mancha é um fenômeno de risco branco produzido por um sensor de imagem CCD, ou similar, a unidade de detecção de mancha 40 pode ser omitida ao utilizar uma câmera 10 utilizando um sensor de imagem CMOS, ou similar, que não produz tal mancha.
[062] A figura 9 é uma vista ilustrando processamento realizado pela unidade de detecção de mancha 40 e processamento de cálculo de uma forma de onda diferencial DWt baseado na mesma. Primeiramente, dados de uma imagem capturada P tendo uma mancha S são entrados na unidade de detecção de mancha 40. Nesse momento, a unidade de detecção de mancha 40 detecta a mancha S a partir da imagem capturada P. há uma variedade de métodos para detectar mancha S, porém, por exemplo, no caso de uma câmera CCD comum (dispositivo acoplado de carga), uma mancha S é produzido somente na direção descendente a partir da fonte de luz. Portanto, na presente modalidade uma busca é realizada a partir do lado inferior da imagem para cima para uma área tendo um valor de luminância maior que ou igual a um valor predeterminado e continuando na direção vertical, e isso é identificado como uma área de ocorrência de uma mancha S.
[063] A unidade de detecção de mancha 40 gera dados de uma imagem de mancha SP, definindo um valor de pixel em “1” para um local de ocorrência da mancha S e “0” para outros locais. Após geração, a unidade de detecção de mancha 40 envia os dados de imagem de mancha SP para a unidade de conversão de ponto de visão 31. A unidade de conversão de ponto de visão 31 tendo entrado os dados de imagem de mancha SP converte os dados em um estado na vista aérea. A unidade de conversão de ponto de visão 31 desse modo gera dados de uma imagem de vista aérea de mancha SBt. A unidade de conversão de pontos de visão 31 envia dados da imagem de vista aérea de mancha SBt para a unidade de alinhamento 33. A unidade de conversão de ponto de visão 31 também envia dados de uma imagem de vista aérea de mancha SBt-1 de um único momento antes para a unidade de alinhamento 33.
[064] A unidade de alinhamento 32 alinha as imagens de vista aérea de mancha SBt e SBt-1 nos dados. O alinhamento específico é igual à ao alinhar as imagens de vista aérea PBt e PBt-1 nos dados. Após alinhamento, a unidade de alinhamento 32 logicamente soma as áreas de ocorrência de cada dos manchas S nas imagens de vista aérea de mancha SBt e SBt-1. A unidade de alinhamento 32 desse modo gera dados de uma imagem de máscara MP. Após geração, a unidade de alinhamento 32 envia os dados de imagem de máscara MP para a unidade de detecção de objeto tridimensional 33.
[065] A unidade de detecção de objeto tridimensional 33 define um número de contagem da distribuição de frequência para zero para um local que corresponde a uma área de ocorrência de uma mancha S na imagem de máscara MP. Em outras palavras, quando uma forma de onda diferencial DWt como ilustrado na figura 9 é gerada, a unidade de detecção de objeto tridimensional 33 define o número de contagem SC de acordo com a mancha S em zero, e gera uma forma de onda diferencial corrigida DWt’.
[066] A unidade de detecção de objeto tridimensional 33 na presente modalidade determina a velocidade de deslocamento do veículo hospedeiro V (câmera 10) e determina a quantidade de deslocamento para um objeto estacionário a partir da velocidade de deslocamento determinada. Após a quantidade de deslocamento do objeto estacionário ter sido determinada, a unidade de detecção de objeto tridimensional 33 ignora a quantidade de deslocamento que corresponde ao objeto estacionário no valor máximo do histograma, e calcula a distância de deslocamento do objeto tridimensional.
[067] A figura 10 é uma vista ilustrando outro exemplo de um histograma obtido pela unidade de detecção de objeto tridimensional 33. Quando um objeto estacionário diferente do outro veículo VX está presente no ângulo de visão da câmera 20, dois valores máximos T1 e T2 aparecem no histograma resultante. Nesse caso, um dos dois valores máximos T1 e T2 é a quantidade de deslocamento do objeto estacionário. Portanto, a unidade de detecção de objeto tridimensional 33 determina a quantidade de deslocamento para o objeto estacionário a partir da velocidade de deslocamento, ignora o valor máximo que corresponde à quantidade de deslocamento, e calcula a distância de deslocamento do objeto tridimensional utilizando o valor máximo restante.
[068] Mesmo quando a quantidade de deslocamento correspondendo ao objeto estacionário é ignorada, pode haver uma pluralidade de outros veículos VX presentes no ângulo de visão da câmera 10 quando há uma pluralidade de valores máximos. Entretanto, uma pluralidade de outros veículos VX presentes nas áreas de detecção A1 e A2 ocorre muito raramente. Portanto, a unidade de detecção de objeto tridimensional 33 para de calcular a distância de deslocamento.
[069] O procedimento para detectar um objeto tridimensional utilizando informações de forma de onda diferencial é descrito a seguir. As figuras 11 e 12 são fluxogramas ilustrando o procedimento de detecção de objeto tridimensional da presente modalidade. Como ilustrado na figura 11, primeiramente, os dados de uma imagem capturada P adquiridos pela câmera 10 são entrados no computador 30, e uma imagem mancha SP é gerada pela unidade de detecção de mancha 40 (S1). A seguir, a unidade de conversão de ponto de visão 31 gera dados da imagem de vista aérea PBt a partir dos dados da imagem capturada P a partir da câmera 10, e gera dados da imagem de vista aérea de mancha SBt a partir dos dados da imagem mancha SP (S2).
[070] A unidade de alinhamento 33 alinha os dados de imagem de vista aérea PBt com os dados da imagem de vista aérea PBt-1 de um momento único antes, e alinha os dados de imagem de vista aérea de mancha SBt com os dados de imagem de vista aérea de mancha SBt-1 de um único momento antes (S3). Após alinhamento, a unidade de alinhamento 33 gera dados de imagem de diferencial PDt, e gera dados de imagem de máscara MP (S4). A unidade de detecção de objeto tridimensional 33 então uma forma de onda diferencial DWt a partir dos dados da imagem de diferencial PDt e dados de imagem de diferencial PDt-1 de um único momento antes (S5). Após geração da forma de onda de diferencial DWt, a unidade de detecção de objeto tridimensional 33 define o número de contagem correspondendo à área de ocorrência da mancha S em zero na forma de onda de diferencial DWt, e suprime a influência da mancha S (S6).
[071] A unidade de detecção de objeto tridimensional 33 então determina se o pico na forma de onda diferencial DWt está em um primeiro valor limiar α ou maior (S7). O primeiro valor limiar α pode ser definido antecipadamente, e pode ser alterado de acordo com um comando de controle a partir do controlador 39 ilustrado na figura 3, porém os detalhes serão descritos posteriormente. Aqui, quando o pico da forma de onda diferencial DWt não está no primeiro valor limiar α ou maior, isto é, quando não há essencialmente diferença, pensa-se que um objeto tridimensional não está presente na imagem capturada P., portanto, quando foi determinado que o pico da forma de onda diferencial DWt não está no primeiro valor limiar α ou maior (S7: NÃO), a unidade de detecção de objeto tridimensional 33 avalia que outro veículo não está presente visto que um obstáculo não está presente (figura 12: S16). O processamento ilustrado nas figuras 11 e 12 termina.
[072] Por outro lado, quando o pico na forma de onda diferencial DWt é determinado como estando em um valor limiar α ou maior (S7: SIM), a unidade de detecção de objeto tridimensional 33 determina que um objeto tridimensional esteja presente, e divide a forma de onda diferencial DWt em uma pluralidade de áreas pequenas DWt1 a DWtn (S8). A unidade de detecção de objeto tridimensional 33 transmite a seguir ponderação a cada uma das áreas pequenas DWt1 a DWtn (S9). A unidade de detecção de objeto tridimensional 33 então calcula a quantidade de deslocamento para cada das áreas pequenas DWt1 até DWtn (S10), e gera um histograma com consideração dada às ponderações (S11).
[073] A unidade de detecção de objeto tridimensional 33 calcula a distância de deslocamento relativa, que é a distância de deslocamento do objeto tridimensional em relação ao veículo hospedeiro V, com base no histograma (S12). A unidade de detecção de objeto tridimensional 33 então calcula a velocidade de deslocamento absoluta do objeto tridimensional a partir da distância de deslocamento reativa (S13). Nesse momento, a unidade de detecção de objeto tridimensional 33 diferencia em tempo a distância de deslocamento relativa para calcular a velocidade de deslocamento relativa, e adiciona a velocidade de veículo detectada pelo sensor de velocidade 20 para calcular a velocidade de deslocamento absoluta.
[074] A unidade de detecção de objeto tridimensional 33 então determina se a velocidade de deslocamento absoluta do objeto tridimensional é 10 km/h ou mais e se a velocidade de deslocamento relativa do objeto tridimensional em relação ao veículo hospedeiro V é +60 km/h ou menos (S14). Quando as duas condições são atendidas (S14: SIM), a unidade de detecção de objeto tridimensional 33 determina que o objeto tridimensional seja outro veículo VX (S15). O processamento ilustrado nas figuras 11 e 12 termina. Por outro lado, quando qualquer uma das condições não é atendida (S14: NÃO), a unidade de detecção de objeto tridimensional 33 determina que outro veículo não está presente (S16). O processamento ilustrado nas figuras 11 e 12 termina.
[075] Na presente modalidade, as áreas de detecção A1 e A2 são as direções laterais para trás do veículo hospedeiro V, e foco é colocado na detecção de outro veículo VX, deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro está deslocando, para o qual atenção deve ser prestada durante deslocamento do veículo hospedeiro V, e particularmente se o veículo hospedeiro V pode possivelmente fazer contato com outro veículo caso seja feita uma mudança de pista. Portanto, o processo de etapa S14 é implementado. Em outras palavras, assumindo que o sistema na presente modalidade é acionado em um modo expresso, quando a velocidade de um objeto tridimensional é menor que 10 km/h, seria raramente um problema mesmo se outro veículo VX fosse para estar presente porque o outro veículo seria posicionado tem atrás do veículo hospedeiro V quando uma mudança de pista é feita. Similarmente, quando a velocidade de deslocamento relativa de um objeto tridimensional excede +60 km/h em relação ao veículo hospedeiro V (isto é, quando o objeto tridimensional está se movendo em uma velocidade 60 km/h maior que a velocidade do veículo hospedeiro V), seria raramente um problema porque o outro veículo estaria posicionado à frente do veículo hospedeiro V quando uma mudança de pista é feita. Portanto, a etapa S14 pode ser também considerada para fazer uma determinação de outro veiculo VX que se tornaria um problema caso mudasse de pistas.
[076] Na etapa S14, é determinado se a velocidade de deslocamento absoluta do objeto tridimensional 10 km/h ou maior, e se a velocidade de deslocamento relativa do objeto tridimensional em relação ao veículo hospedeiro V é +60 km/h ou menos, desse modo obtendo o seguinte efeito. Por exemplo, um caso possível é que a velocidade de deslocamento absoluta de um objeto estacionário é detectada como sendo vários km/h dependendo do erro de fixação da câmera 10. Por conseguinte, a determinação de se a velocidade é 10 km/h ou maior torna possível reduzir a possibilidade de que o objeto estacionário seja determinado como sendo outro veículo VX. Também, é possível que a velocidade relativa de um objeto tridimensional em relação ao veículo hospedeiro V será detectada como estando em excesso de +60 km/h devido a ruído. Por conseguinte, a determinação de se a velocidade relativa é +60 km/h ou menos torna possível reduzir a possibilidade de detecção errônea devido a ruído.
[077] Além disso, pode ser determinado que a velocidade de deslocamento absoluta não seja negativa ou não é 0 km/h ao invés do processamento na etapa S14. Na presente modalidade, como atenção é prestada a se há possibilidade de contato quando o veículo hospedeiro V muda de pistas, um som de alerta pode ser emitido para o motorista do veículo hospedeiro ou um display equivalente a um alerta pode ser exibido em um dispositivo de display predeterminado quando outro veículo VX é detectado na etapa S15.
[078] Desse modo, de acordo com o procedimento para detectar um objeto tridimensional usando informações de forma de onda diferencial no presente exemplo, uma forma de onda diferencial DWt é gerada por contar o número de pixels indicando uma diferença predeterminada nos dados da imagem diferencial PDt ao longo da direção na qual o objeto tridimensional cede por conversão de ponto de visão e formando uma distribuição de frequência. Aqui, os pixels indicando uma diferença predeterminada nos dados de imagem diferencial PDt são pixels que mudaram na imagem em pontos diferentes em tempo, em outras palavras, locais que podem ser interpretados como sendo onde um objeto tridimensional estava presente. Portanto, em locais onde um objeto tridimensional estava presente, o número de pixels é contado ao longo da direção na qual o objeto tridimensional cede para formar uma distribuição de frequência e desse modo gerar uma forma de onda diferencial DWt. em particular, como o número de pixels é contato ao longo da direção na qual o objeto tridimensional cede, uma forma de onda diferencial DWt é gerada a partir de informações sobre a direção de altura em relação ao objeto tridimensional. A distância de deslocamento do objeto tridimensional é calculada a partir da mudança em tempo da forma de onda diferencial DWt que inclui informações de direção de altura. Portanto, em contraste com o foco sendo exclusivamente no movimento de um ponto único, o local de detecção antes da mudança em tempo e o local de detecção após mudança em tempo são especificados com informações de direção de altura incluídas e, por conseguinte terminam prontamente sendo o mesmo local: a distância de deslocamento é calculada a partir da mudança em tempo no mesmo local; e a precisão de cálculo da distância de deslocamento pode ser melhorada.
[079] O número de contagem da distribuição de frequência é ajustado em zero para um local que corresponde a uma área de ocorrência de uma mancha S na forma de onda diferencial DWt. A porção de forma de onda produzida pela mancha S na forma de onda diferencial DWt é desse modo eliminada; e reconhecimento errôneo da mancha S como um objeto tridimensional pode ser evitado.
[080] A distância de deslocamento do objeto tridimensional é calculada a partir da quantidade de deslocamento da forma de onda diferencial DWt quando o erro na forma de onda diferencial DWt gerado em pontos de diferença em tempo está em um mínimo. A diferença de movimento, portanto é calculada a partir da quantidade de deslocamento de informações unidimensionais, isto é, uma forma de onda, e o custo de computação para calcular a distância de deslocamento pode ser mantido baixo.
[081] As formas de onda de diferencial DWt geradas em pontos diferentes em tempo são divididas em uma pluralidade de áreas pequenas DWt1 a DWtn. A divisão em uma pluralidade de áreas pequenas DWt1 a DWtn desse modo resulta em uma pluralidade de formas de onda expressando locais respectivos de um objeto tridimensional. A distância de deslocamento do objeto tridimensional é calculada por determinar a quantidade de deslocamento quando o erro nas formas de onda respectivas está em um mínimo para cada das áreas pequenas DWt1 a DWtn, contando as quantidades de deslocamento determinadas para cada das áreas pequenas DWt1 a DWtn, e formando um histograma. Portanto, a quantidade de deslocamento é calculada para cada local no objeto tridimensional, a distância de deslocamento é determinada a partir de uma pluralidade de quantidades de deslocamento, e a precisão de cálculo da distância de deslocamento pode ser aperfeiçoada.
[082] Ponderação é transmitida para cada da pluralidade de áreas pequenas DWt1 a DWtn, e a quantidade de deslocamento determinada para cada das áreas pequenas DWt1 a DWtn é contada de acordo com ponderação para formar um histograma. Portanto, a distância de deslocamento a ser determinada um nível mais adequadamente por aumentar ponderação para áreas características e diminuir o peso para áreas não características. Por conseguinte, a precisão de calcular a distância de deslocamento pode ser aperfeiçoada um nível a mais.
[083] Para cada área pequena DWt1 a DWtn na forma de onda diferencial DWt, a ponderação é aumentada quando a diferença entre o valor máximo e o valor mínimo da contagem do número de pixel sindicando uma diferença predeterminada é maior. Portanto, a ponderação é aumentada quando a área de ondulação característica tem uma diferença maior entre o valor máximo e valor mínimo, e a ponderação é diminuída para áreas planas tendo pouca ondulação. Aqui, como a quantidade de deslocamento é mais fácil de calcular em termos de formato para uma área tendo ondulação maior do que uma área plana, a precisão de calcular a distância de deslocamento a ser aperfeiçoada um nível a mais por aumentar a ponderação visto que a área tem uma diferença maior entre o valor máximo e o valor mínimo.
[084] A distância de deslocamento do objeto tridimensional também é calculada a partir do valor máximo do histograma obtido por contar as quantidades de deslocamento determinadas para cada das áreas pequenas DWtt1 a DWtn. Portanto, a distância de deslocamento pode ser calculada com precisão mais elevada a partir do valor máximo mesmo quando haja variabilidade na quantidade de deslocamento.
[085] Como a quantidade de deslocamento para um objeto estacionário é determinada e essa quantidade de deslocamento é ignorada, uma situação na qual na precisão de calcular a distância de deslocamento do objeto tridimensional diminui devido a um objeto estacionário pode ser evitada. Também, em ter ignorado a quantidade de deslocamento que corresponde a um objeto estacionário, o cálculo da distância de deslocamento do objeto tridimensional é parado quando há uma pluralidade de valores máximos. Portanto, uma situação na qual uma distância de deslocamento errôneo é calculada tal como quando há uma pluralidade de valores máximos pode ser evitada.
[086] Na modalidade acima, a velocidade do veículo hospedeiro V é determinada com base em sinais a partir do sensor de velocidade 20, porém nenhuma limitação é imposta desse modo, e a velocidade pode ser estimada a partir de imagens de uma pluralidade de pontos diferentes em tempo. Nesse caso, o sensor de velocidade se torna desnecessário, e a configuração pode ser simplificada.
[087] Na modalidade acima, uma imagem de um momento atual capturado e uma imagem de um momento único antes são convertidas em vistas aéreas, uma imagem diferencial PDt é gerada após ter alinhado as vistas aéreas convertidas, e a imagem diferencial gerada PDt é determinada ao longo da direção de colapso (a direção na qual o objeto tridimensional cede quando a imagem capturada é convertida em uma vista aérea) para gerar uma forma de onda diferencial DWt, porém nenhuma limitação é imposta desse modo. Por exemplo, a forma de onda diferencial DWt pode ser gerada por converter somente uma imagem de um momento único antes em uma vista aérea, converter no equivalente de uma imagem capturada novamente após alinhar a vista aérea convertida, gerar uma imagem diferencial entre essa imagem e a imagem do momento atual, e determinar a imagem diferencial gerada ao longo de uma direção equivalente à direção de colapso (isto é, uma direção tendo convertido a direção de colapso na direção na imagem capturada). Em outras palavras, não é necessário que vistas aéreas sejam geradas distintamente desde que uma imagem de um momento atual e uma imagem de um momento único anterior sejam alinhadas, um imagem diferencial PDt é gerada a partir da diferença entre as duas imagens alinhadas, e a imagem diferencial PDt é determinada ao longo da direção na qual o objeto tridimensional cede ao ser convertido em uma vista aérea.
DETECÇÃO DE OBJETO TRIDIMENSIONAL POR INFORMAÇÃO DE BORDA
[088] É descrito a seguir um bloco de detecção de objeto tridimensional B, que pode ser acionado ao invés do bloco de detecção de objeto tridimensional A ilustrado na figura 3. O bloco de detecção de objeto tridimensional B é configurado com uma unidade de cálculo de diferença de luminância 35, uma unidade de detecção de linha de borda 36 e uma unidade de detecção de objeto tridimensional 37, e detecta um objeto tridimensional utilizando informações de borda. A figura 13 é uma vista ilustrando a pista de imagem da câmera 10 na figura 3, a figura 13(a) é uma vista plana, e a figura 13(b) é uma vista em perspectiva em espaço real para trás a partir do veículo hospedeiro V. A câmera 10 é ajustada em um ângulo de visão predeterminado a, e o lado para trás do veículo hospedeiro V incluído no ângulo de visão predeterminado a é capturado, como ilustrado na figura 13(a). o ângulo de visão a da câmera 10 é ajustado de modo que pistas adjacentes sejam incluídas na pista de captura da câmera 10 além da pista na qual o veículo hospedeiro V está se deslocando, no mesmo modo como ilustrado na figura 2.
[089] As áreas de detecção A1 e A2 no presente exemplo são trapezoidais em uma vista plana (estado de vista aérea), e a posição, tamanho e formato das áreas de detecção A1, A2 são decididas com base em distâncias d1 a d4. As áreas de detecção A1 e A2 do exemplo ilustrado no desenho não são limitadas a serem trapezoidais, e também podem ser retangulares ou outro formato em um estado de vista aérea, como ilustrado na figura 2.
[090] Aqui, a distância d1 é a distância a partir do veículo hospedeiro V até as linhas de solo L1 e L2. As linhas de solo L1 e L2 se referem a uma linha na qual um objeto tridimensional, que está presente em uma pista adjacente à pista na qual o veículo hospedeiro V está se deslocando, está em contato com o solo. Na presente modalidade, um objetivo é detectar outro veículo VX ou similar (incluindo veículos de duas rodas ou similares) se deslocando na pista esquerda ou direita atrás do veículo hospedeiro V e adjacente à pista do veículo hospedeiro V. Portanto, a distância d1, que é a posição das linhas de solo L1 e L2 do outro veículo VX, pode ser decidida de modo a ser substancialmente fixa a partir da distância d11 a partir do veículo hospedeiro V até uma linha branca W e a distância d12 a partir da linha branca W até a posição na qual o outro veículo VX é previsto deslocar.
[091] A distância d1 não é limitada a ser fixamente decidida, e pode ser variável. Nesse caso, o computador 30 reconhece a posição da linha branca W em relação ao veículo hospedeiro V utilizando reconhecimento de linha branca ou outra técnica, e a distância d11 é decidida com base na posição da linha branca reconhecida W. A distância d1 é desse modo variavelmente definida utilizando a distância decidida d11. Na presente modalidade descrita abaixo, a posição na qual o outro veículo VX está se deslocando (a distância d12 a partir da linha branca W) e a posição na qual o veículo hospedeiro V está se deslocando (a distância d11 a partir da linha branca W) é na maior parte previsível, e a distância d1 é fixamente decidida.
[092] Uma distância d2 é a distância estendendo a partir da parte extrema traseira do veículo hospedeiro V na direção de deslocamento de veículo. A distância d2 é decidida de modo que as áreas de detecção A1 e A2 sejam acomodadas pelo menos no ângulo de visão a da câmera 10. Na presente modalidade em particular, a distância d2 é definida de modo a estar em contato com uma pista dividida no ângulo de visão a. A distância d3 indica o comprimento das áreas de detecção A1 e A2 na direção de avanço do veículo. A distância d3 é decidida com base no tamanho do objeto tridimensional a ser detectado. Na presente modalidade, o objeto a ser detectado é outro veículo VX ou similar, e, portanto a distância d3 é definida em um comprimento que inclui o outro veículo VX.
[093] A distância d4 indica a altura, que foi definida de modo que os pneus do outro veículo VX, ou similar, sejam incluídos no espaço real, como ilustrado na figura 13(b). em uma imagem de vista aérea, a distância d4 é o cumprimento ilustrado na figura 13(a). A distância d4 pode ser também um comprimento que não inclui pistas adicionalmente adjacentes às pistas adjacentes esquerda e direita na imagem da vista aérea (isto é, pistas adjacentes a duas pistas distantes). Isso é porque quando as pistas duas pistas distantes a partir da pista do veículo hospedeiro V são incluídas, não mais é possível distinguir se outro veículo VX está presente nas pistas adjacentes à esquerda e direita da pista na qual o veículo hospedeiro V está se deslocando, ou se outro veículo VX está presente em uma pista adjacente duas pistas distantes.
[094] Como descrito acima, as distâncias d1 a d4 são decididas, e a posição, tamanho e formato das áreas de detecção A1 e A2 são desse modo decididos. Mais especificamente, a posição do lado superior b1 das áreas de detecção A1 e A2 que formam um trapezoide é decidida pela distância d1. A posição de partida C1 do lado superior b1 é decidida pela distância d2. A posição final C2 do lado superior b1 é decidida pela distância d3. O lado lateral b2 das áreas de detecção A1 e A2 que formam um trapezoide é decidido por uma linha reta L3 estendendo a partir da câmera 10 em direção à posição de partida C1. Similarmente, o lado lateral b3 das áreas de detecção A1 e A2 que formam um trapezoide é decidido por uma linha reta L4 estendendo a partir da câmera 10 em direção à posição final C2. A posição do lado inferior b4 das áreas de detecção A1 e A2 que formam um trapezoide é decidida pela distância d4. Desse modo, as áreas circundadas pelos lados b1 a b4 são as áreas de detecção A1 e A2. As áreas de detecção A1 e A2 são quadrados regulares (retângulos) em espaço real para trás a partir do veículo hospedeiro V, como ilustrado na figura 13(b).
[095] Voltando para a figura 3, a unidade de conversão de ponto de visão 31 aceita entrada de dados de imagem capturada de uma área predeterminada capturada pela câmera 10. A unidade de conversão de ponto de visão 31 converte o ponto de visão dos dados de imagem capturada entrados em dados de imagem de vista aérea, que é um estado de vista aérea. Um estado de vista aérea é um estado de visualização a partir do ponto de visão de uma câmera imaginária que está olhando para baixo a partir de cima, por exemplo, verticalmente para baixo (ou levemente inclinado para baixo). A conversão de ponto de visão pode ser realizada utilizando a técnica descrita, por exemplo, no pedido de patente em aberto japonesa no. 2008-219063.
[096] A unidade de cálculo de diferença de luminância 35 calcula diferenças de luminância nos dados de imagem de vista aérea, que foram submetidos à conversão de ponto de visão pela unidade de conversão de ponto de visão 31, para detectar as bordas de um objeto tridimensional incluído na imagem de vista aérea. A unidade de cálculo de diferença de luminância 35 calcula, para cada de uma pluralidade de posições ao longo de uma linha imaginária perpendicular estendendo ao longo da direção perpendicular em espaço real, a diferença de luminância entre dois pixels perto de cada posição. A unidade de cálculo de diferença de luminância 35 é capaz de calcular a diferença de luminância por um método para definir uma linha imaginária perpendicular única estendendo na direção perpendicular em espaço real, ou um método para definir duas linhas imaginárias perpendiculares.
[097] O método específico para definir duas linhas imaginárias perpendiculares é descrito. A unidade de cálculo de diferença de luminância 35 define uma primeira linha imaginária perpendicular que corresponde a um segmento de linha estendendo na direção perpendicular em espaço real, e uma segunda linha imaginária perpendicular que é diferente da primeira linha imaginária perpendicular e que corresponde a um segmento de linha estendendo na direção perpendicular em espaço real. A unidade de cálculo de diferença de luminância 35 determina a diferença de luminância entre um ponto na primeira linha imaginária perpendicular e um ponto na segunda linha imaginária perpendicular em modo contínuo ao longo da primeira linha imaginária perpendicular e a segunda linha imaginária perpendicular. A operação da unidade de cálculo de diferença de luminância 35 é descrita em detalhe abaixo.
[098] A unidade de cálculo de diferença de luminância 35 define uma primeira linha imaginária perpendicular La (a seguir mencionada como "linha de atenção La”) que corresponde a um segmento de linha estendendo na direção perpendicular em espaço real e que passa através da área de detecção A1, como ilustrado na figura 14(a). A unidade de cálculo de diferença de luminância 35 define uma segunda linha imaginária perpendicular Lr (a seguir mencionada como “linha de referência Lr”) que é diferente a partir da linha de atenção La, corresponde a um segmento de linha estendendo na direção perpendicular em espaço real, e passa através da área de detecção A1. Aqui, a linha de referência Lr é definida para uma posição em uma distância a partir da linha de atenção La por uma distância predeterminada em espaço real. As linhas que correspondem aos segmentos de linha estendendo na direção perpendicular em espaço real são linhas que espalham na direção radial a partir da posição Ps da câmera 10 em uma imagem de vista aérea. Essas linhas espalhando na direção radial são linhas que seguem a direção na qual o objeto tridimensional cede quando é convertido em uma vista aérea.
[099] A unidade de cálculo de diferença de luminância 35 define um ponto de atenção Pa na linha de atenção La (um ponto na primeira linha imaginária perpendicular). A unidade de cálculo de diferença de luminância 35 define um ponto de referência Pr na linha de referência Lr (um ponto na segunda linha imaginária perpendicular). A linha de atenção La, o ponto de atenção Pa, alinha de referência Lr, e o ponto de referência Pr têm a relação em espaço real ilustrada na figura 14(b). é evidente a partir da figura 14(b) que a linha de atenção La e a linha de referência Lr são linhas estendendo na direção perpendicular em espaço real, e que o ponto de atenção Pa no ponto de referência Pr são pontos definidos substancialmente na mesma altura em espaço real. O ponto de atenção Pa e o ponto de referência Pr não são necessariamente exigidos serem rigorosamente mantidos na mesma altura, e certa quantidade de erro que permite que o ponto de atenção Pa e o ponto de referência Pr sejam considerados como estando na mesma altura é permitida.
[0100] A unidade de cálculo de diferença de luminância 35 determina a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr. Se a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr for grande, é possível que uma borda esteja presente entre o ponto de atenção Pa e o ponto de referência Pr. Portanto, a unidade de detecção de linha de borda 36 ilustrada na figura 3 detecta uma linha de borda baseada na diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr.
[0101] Esse ponto será descrito em maior detalhe. A figura 15 é uma vista ilustrando a operação detalhada da unidade de cálculo de diferença de luminância 35. A figura 15(a) ilustra uma imagem de vista aérea do estado de vista aérea, e a figura 15(b) é uma vista ampliada de uma porção B1 da imagem de vista aérea ilustrada na figura 15(a). na figura 15, somente a área de detecção A1 é ilustrada e descrita, porém a diferença de luminância é calculada utilizando o mesmo procedimento para área de detecção A2.
[0102] Quando o outro veículo VX está sendo exibido na imagem obtida capturada pela câmera 10, o outro veículo VX aparece na área de detecção A1 na imagem de vista aérea, como ilustrado na figura 15(a). A linha de atenção La é definida em uma porção de borracha de um pneu do outro veículo VX na imagem de vista aérea na figura 15(b), como ilustrado na vista ampliada da área B1 na figura 15(a). Nesse estado, primeiramente, a unidade de cálculo de diferença de luminância 35 define a linha de referência Lr. A linha de referência Lr é definida ao longo da direção perpendicular em uma posição definida em uma distância predeterminada em espaço real a partir da linha de atenção La. Especificamente, no dispositivo de detecção de objeto tridimensional 1a de acordo com a presente modalidade, a linha de referência Lr é definida em uma posição em uma distância de 10 cm para longe em espaço real a partir da linha de atenção La. A linha de referência Lr é desse modo definida na roda do pneu do outro veículo VX ajustado, por exemplo, a uma distância que corresponde a 10 cm a partir da borracha do pneu do outro veículo VX na imagem de vista aérea.
[0103] A seguir, a unidade de cálculo de diferença de luminância 35 define uma pluralidade de pontos de atenção Pa1 a PaN na linha de atenção La. Na figura 15(b), seis pontos de atenção Pa1 a Pa6 (abaixo mencionados como “Ponto de atenção Pai” ao indicar um ponto arbitrário) são definidos para conveniência de descrição. Um número arbitrário de pontos de atenção Pa pode ser definido na linha de atenção La. Na descrição abaixo, N pontos de atenção Pa são definidos na linha de atenção La.
[0104] A unidade de cálculo de diferença de luminância 35 define subsequentemente os pontos de referência Pr1 a PrN de modo a ter a mesma altura que os pontos de atenção Pa1 a PaN em espaço real. A unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre pares de ponto de atenção Pa e o ponto de referência Pr na mesma altura. A unidade de cálculo de diferença de luminância 35 desse modo calcula a diferença de luminância entre dois pixels para cada da pluralidade de posições (1 a N) ao longo da linha imaginária perpendicular estendendo na direção perpendicular em espaço real. A unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre, por exemplo, um primeiro ponto de atenção Pa1 e um primeiro ponto de referência Pr1, e calcula a diferença de luminância entre um segundo ponto de atenção Pa2 e um segundo ponto de referência Pr2. A unidade de cálculo de diferença de luminância 35 desse modo determina a diferença de luminância em modo contínuo ao longo da linha de atenção La e a linha de referência Lr. Em outras palavras, a unidade de cálculo de diferença de luminância 35 determina sequencialmente a diferença de luminância entre o terceiro até N° pontos de atenção Pa3 a PaN e o terceiro até N° pontos de referência Pr3 a PrN.
[0105] A unidade de cálculo de diferença de luminância 35 repete o processo de definir a linha de referência acima descrita Lr, definir o ponto de atenção Pa, definir o ponto de referência Pr, e calcular a diferença de luminância enquanto desloca a linha de atenção La na área de detecção A1. Em outras palavras, a unidade de cálculo de diferença de luminância 35 executa repetidamente o processo acima descrito enquanto muda as posições da linha de atenção La e linha de referência Lr pela mesma distância em espaço real ao longo da direção na qual a linha de solo L1 estende. A unidade de cálculo de diferença de luminância 35, por exemplo, define a linha que era a linha de referência Lr no processo anterior como sendo a linha de atenção La, define a linha de referência Lr em relação à linha de atenção La e sequencialmente determina a diferença de luminância.
[0106] Voltando à figura 3, a unidade de detecção de linha de borda 36 detecta a linha de borda a partir da diferença de luminância contínua calculada pela unidade de cálculo de diferença de luminância 35. Por exemplo, no caso ilustrado na figura 15(b), o primeiro ponto de atenção Pa1 e o primeiro ponto de referência Pr1 são posicionados na mesma porção de pneu, e a diferença de luminância é, portanto pequena. Por outro lado, o segundo até sexto pontos de atenção Pa2 a Pa6 são posicionados nas porções de borracha do pneu, e o segundo até sexto pontos de referência Pr2 a Pr6 são posicionados na porção de roda do pneu. Por conseguinte, a diferença de luminância entre os segundo até sexto pontos de atenção Pa2 a Pa6 e os segundo até sexto pontos de referências Pr2 a Pr6 é grande. Portanto, a unidade de detecção de linha de borda 36 é capaz de detectar que uma linha de borda está presente entre o segundo até sexto pontos de atenção Pa2 a Pa6 e o segundo até sexto pontos de referência Pr2 a Pr6 onde a diferença de luminância é elevada.
[0107] Especificamente, quando uma linha de borda deve ser detectada, a unidade de detecção de linha de borda 36 primeiramente determina um atributo para o i° ponto de atenção Pai a partir da diferença de luminância entre o i°ponto de atenção Pai (coordenadas (xi, yi)) até o i° ponto de referência Pri (coordenadas (xi’, yi’)) de acordo com a fórmula 1 mencionada abaixo. Fórmula 1 Quando I(xi, yi) > I(xi’, yi’) + t S(xi, yi) = 1 Quando I(xi, yi) < I(xi’, yi’) - t S (xi, yi) = 1 De outro modo S(xi, yi) = 0
[0108]Na fórmula 1 acima, t representa um valor limiar, I(xi, yi) representa o valor de luminância do i° ponto de atenção Pai, e I(xi’, yi’) representa o valor de luminância do i° ponto de referência Pri. De acordo com a fórmula 1, o atributo s(xi, yi) do ponto de atenção Pai é ‘1’ quando o valor de luminância do ponto de atenção Pai é maior que o valor de luminância obtido por adicionar o valor limiar t ao ponto de referência Pri. Por outro lado, o atributo s(xi, yi) do ponto de atenção Pai é ‘-1’ quando o valor de luminância do ponto de atenção Pai é menor que o valor de luminância obtido por subtrair o valor limiar t a partir do ponto de referência Pri. O atributo s(xi, yi) do ponto de atenção Pai é ‘0’ quando o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri estão em uma relação diferente daquela mencionada acima. Esse primeiro valor limiar pode ser definido antecipadamente, e pode ser alterado de acordo com um comando de controle emitido pelo controlador 39 ilustrado na figura 3, porém os detalhes serão descritos posteriormente.
[0109] A seguir, a unidade de detecção de linha de borda 326 determina se a linha de atenção La é uma linha de borda a partir da continuidade c(xi, yi) do atributo s ao longo da linha de atenção La com base na seguinte fórmula 2. Fórmula 2 Quando s(xi, yi) = s(xi + 1, yi + 1) (excluindo quando 0 = 0) C(xi, yi) = 1 De outro modo C(xi, yi) = 0
[0110] A continuidade c(xi, yi) é ‘1’ quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção adjacente Pai + 1 são iguais. A continuidade c(xi, yi( é ‘0’ quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção adjacente Pai + 1 não são iguais.
[0111] A seguir, a unidade de detecção de linha de borda 36 determina a soma das continuidades c de todos os pontos de atenção Pa na linha de atenção La. A unidade de detecção de linha de borda 36 divide a soma das continuidades c desse modo determinadas pelo número N de pontos de atenção Pa para desse modo normalizar a continuidade c. A unidade de detecção de linha de borda 36 determina a linha de atenção La como sendo uma linha de borda quando o valor normalizado excedeu um valor limiar θ. O valor limiar θ é definido antecipadamente por experimentação ou outro meio. O valor limiar θ pode ser definido antecipadamente.
[0112] Em outras palavras, a unidade de detecção de linha de borda 36 determina se a linha de atenção La é uma linha de borda baseada na fórmula 3 mencionada abaixo. A unidade de detecção de linha de borda 36 então determina se todas as linhas de atenção La traçadas na área de detecção A1 são linhas de borda. Fórmula 3 ∑ c(xi, yi) / N > θ
[0113] Voltando para a figura 3, a unidade de detecção de objeto tridimensional 37 detecta um objeto tridimensional baseado na quantidade de linhas de borda detectadas pela unidade de detecção de linha de borda 36. Como descrito acima, o dispositivo de detecção de objeto tridimensional 1 de acordo com a presente modalidade detecta uma linha de borda estendendo na direção perpendicular em espaço real. A detecção de muitas linhas de borda estendendo na direção perpendicular indica que há uma possibilidade elevada de que um objeto tridimensional esteja presente nas áreas de detecção A1 e A2. Portanto, a unidade de detecção de objeto tridimensional 37 detecta um objeto tridimensional com base na quantidade de linhas de borda detectadas pela unidade de detecção de linha de borda 36. Além disso, antes da detecção do objeto tridimensional, a unidade de detecção de objeto tridimensional 37 determina se as linhas de borda detectadas pela unidade de detecção de linha de borda 36 são corretas. A unidade de detecção de objeto tridimensional 37 determina se uma alteração em luminância nas linhas de borda é maior que um valor limiar predeterminado ao longo das linhas de borda da imagem de vista aérea. Quando a alteração em luminância nas linhas de borda na imagem de vista aérea é maior que um valor limiar predeterminado, as linhas de borda são determinadas como tendo sido detectadas por determinação errônea. Por outro lado, quando a alteração em luminância nas linhas de borda na imagem de vista aérea não é maior que um valor limiar predeterminado, é determinado que as linhas de borda sejam corretas. O valor limiar é definido antecipadamente por experimentação ou outro meio.
[0114] A figura 16 é uma vista ilustrando a distribuição de luminância na linha de borda, a figura 16(a) ilustra a linha de borda e a distribuição de luminância quando outro veículo VX como um objeto tridimensional está presente na área de detecção A1, e a figura 16(b) ilustra a linha de borda e a distribuição de luminância quando um objeto tridimensional não está presente na área de detecção A1.
[0115] Como ilustrado na figura 16(a), é assumido que foi determinado que a linha de atenção La definida na porção de borracha de pneu do outro veículo VX em uma linha de borda na imagem de vista aérea. Nesse caso, a alteração em luminância na linha de atenção La na imagem de vista aérea é gradual. Isso é devido à imagem capturada pela câmera 10 sendo convertida em ponto de visão em uma imagem de vista aérea, pelo que o pneu do outro veículo VX é aumentado na imagem de vista aérea. Por outro lado, a linha de atenção La definida na porção de caractere branco “50” traçada na superfície da estrada na imagem de vista aérea é assumida como tendo sido erroneamente determinado como sendo uma linha de borda, como ilustrado na figura 16(b). nesse caso, a alteração em luminância na linha de atenção La na imagem de vista aérea tem ondulações consideráveis. Isso é porque a superfície da estrada e outras porções de baixa luminância são misturadas com as porções de elevada luminância nos caracteres brancos na linha de borda.
[0116] A unidade de determinação de objeto tridimensional 37 determina se uma linha de borda foi detectada por determinação errônea com base em diferenças na distribuição de luminância na linha de atenção La como descrito acima. A unidade de detecção de objeto tridimensional 37 determina que a linha de borda fosse detectada por determinação errônea quando a alteração em luminância ao longo da linha de borda é maior que um valor limiar predeterminado. A linha de borda não é usada para detecção de um objeto tridimensional. Uma redução em precisão de detectar um objeto tridimensional é desse modo suprimida quando caracteres brancos como “50” na superfície da estrada, vegetação longo da estrada, e similares, são determinados como sendo linhas de borda.
[0117] Especificamente, a unidade de detecção de objeto tridimensional 37 calcula a alteração em luminância da linha de borda utilizando a fórmula 4 ou 5 mencionada abaixo. A alteração em luminância da linha de borda corresponde ao valor de avaliação em espaço real na direção perpendicular. A fórmula 4 avalia a distribuição de luminância utilizando o valor total do quarado da diferença entre i° valor de luminância I(xi, yi) e o i° + 1 valor de luminância adjacente (xi + 1, yi + 1) na linha de atenção La. A fórmula 5 avalia a distribuição de luminância utilizando o valor total do valor absoluto da diferença entre o i° de valor de luminância I(xi, yi) e o i° + 1 valor de luminância adjacente I(xi + 1, yi + 1) na linha de atenção La. Fórmula 4 Valor de avaliação em direção equivalente perpendicular = ∑ [{I(xi, yi) - I(xi + 1, yi + 1)}2] Fórmula 5 Valor de avaliação em direção equivalente perpendicular = ∑|I(xi, yi) - I(xi + 1, yi +1)|
[0118] Nenhuma limitação é importa no uso da fórmula 5, e também é possível binarizar um atributo b de um valor de luminância adjacente utilizando um valor limiar t2, e então somar o atributo binarizado b para todos os pontos de atenção Pa, como na fórmula 6 mencionada abaixo. Fórmula 6 Valor de avaliação em direção equivalente perpendicular = ∑ b(xi, yi) onde, quando |I(xi, yi) - I(xi + 1, yi + 1)| > t2 B(xi, yi) = 1 De outro modo B(xi, yi) = 0
[0119] O atributo b(xi, yi) do ponto de atenção Pa(xi, yi) é ‘1’ quando o valor absoluto da diferença de luminância entre o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri é maior que um valor limiar t2. Quando a relação é de outro modo, o atributo b(xi, yi) do ponto de atenção Pai é ‘0’’. O valor limiar t2 é definido antecipadamente por experimentação ou outro meio de modo que a linha de atenção La não é determinada como estando no mesmo objeto tridimensional. A unidade de detecção de objeto tridimensional 37 então soma o atributo b para todos os pontos de atenção Pa na linha de atenção La e determina o valor de avaliação na direção equivalente perpendicular para desse modo determinar se uma linha de borda está correta.
[0120] A seguir, o método para detectar um objeto tridimensional utilizando informações de borda de acordo com a presente modalidade será descrito. As figuras 17 e 18 são fluxogramas ilustrando os detalhes do método para detectar um objeto tridimensional de acordo com a presente modalidade. Na figura 17 e 18, o processo envolvido com a área de detecção A1 será descrito para fins de conveniência, porém o mesmo processo é executado para a área de detecção A2 também.
[0121] Primeiramente, na etapa S21, a câmera 10 captura uma área predeterminada especificada pelo ângulo de visão a e a posição de fixação, como ilustrado na figura 17. A seguir, na etapa S22, a unidade de conversão de ponto de visão 31 aceita entrada da imagem obtida capturada pela câmera 10 na etapa S21, e converte o ponto de visão para gerar dados de imagem de vista aérea.
[0122] A seguir, na etapa S23, a unidade de cálculo de diferença de luminância 35 define a linha de atenção La na área de detecção A1. Nesse momento, a unidade de cálculo de diferença de luminância 35 define uma linha correspondendo a uma linha estendendo na direção perpendicular em espaço real como a linha de atenção La. Também, na etapa S24, a unidade de cálculo de diferença de luminância 35 também define a linha de referência Lr na área de detecção A1. Nesse momento, a unidade de cálculo de diferença de luminância 35 define como a linha de referência Lr, uma linha que corresponde a um segmento de linha estendendo na direção perpendicular em espaço real e é separada por uma distância predeterminada em espaço real a partir da linha de atenção La.
[0123] A seguir, na etapa S25, a unidade de cálculo de diferença de luminância 35 define uma pluralidade de pontos de atenção na linha de atenção La. Nesse momento, a unidade de cálculo de diferença de luminância 35 define um certo número de pontos de atenção Pa que não será problemático durante detecção de borda pela unidade de detecção de linha de borda 36. Na etapa S26, a unidade de cálculo de diferença de luminância 35 define pontos de referência Pr de modo que os pontos de atenção Pa e os pontos de referência Pr estejam substancialmente na mesma altura em espaço real. Os pontos de atenção Pa e os pontos de referência Pr desse modo alinham substancialmente na direção horizontal, e a linha de borda estendendo na direção perpendicular em espaço real é mais facilmente detectada.
[0124] A seguir, na etapa S27, a unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre os pontos de atenção Pa e os pontos de referência Pr na mesma altura em espaço real. A seguir, a unidade de detecção de linha de borda 36 calcula o atributo s dos pontos de atenção Pa de acordo com a fórmula 1 descrita acima. A seguir, na etapa S28, a unidade de detecção de linha de borda 36 calcula a continuidade c do atributo s dos pontos de atenção Pa de acordo com a fórmula 2. A seguir, na etapa S29, a unidade de detecção de linha de borda 36 determina se um valor obtido por normalizar a soma das continuidades c é maior que um valor limiar θ de acordo com a fórmula 3. Quando foi determinado que o valor normalizado é maior que o valor limiar θ (S29: SIM), a unidade de detecção de linha de borda 36 detecta a linha de atenção La como a linha de borda na etapa S30. O processo então prossegue para a etapa S31. Quando foi determinado que o valor normalizado não é maior que o valor limiar θ (S29: NÃO), a unidade de detecção de linha de borda 36 não detecta que a linha de atenção La é uma linha de borda, e o processo prossegue para a etapa S31. Esse valor limiar θ pode ser definido antecipadamente, porém pode ser alterado de acordo com um comando de controle pelo controlador 39.
[0125] Na etapa S31, o computador 30 determina se os processos das etapas acima S23 a S30 foram executados para todas as linhas de atenção La que podem ser definidas na área de detecção A1. Quando foi determinado que os processos acima não foram realizados para todas as linhas de atenção La (S31: Não), o processo retorna para a etapa S23, define uma nova linha de atenção La, e repete o processo através da etapa S31. Por outro lado, quando foi determinado que os processos foram realizados para todas as linhas de atenção La (S31: SIM), o processo prossegue para a etapa S21 na figura 18.
[0126] Na etapa S32 na figura 18, a unidade de detecção de objeto tridimensional 37 calcula a mudança em luminância ao longo da linha de borda para cada linha de borda detectada na etapa S30 na figura 17. A unidade de detecção de objeto tridimensional 37 calcula a mudança em luminância de linhas de borda de acordo com quaisquer das fórmulas 4, 5 e 6. A seguir, na etapa S33, a unidade de detecção de objeto tridimensional 37 exclui, entre as linhas de borda, linhas de borda nas quais a alteração em luminância é maior que um valor limiar predeterminado. Em outras palavras, quando uma linha de borda tendo uma alteração grande em luminância não é determinada como sendo uma linha de borda correta, a linha de borda não é usada para detectar um objeto tridimensional. Isso é feito para suprimir a detecção de caracteres na superfície da estrada, vegetação ao longo da estrada, e similares, incluídos na área de detecção A1 como linhas de borda, como descrito acima. Por conseguinte, o valor limiar predeterminado é um valor que é determinado por experimentação ou outro meio antecipadamente e é definido com base na alteração em luminância que ocorre devido a caracteres na superfície da estrada, vegetação ao lado da estrada e similares.
[0127] A seguir, na etapa S34, a unidade de detecção de objeto tridimensional 37 determina se a quantidade de linhas de borda está em um segundo valor limiar β ou mais elevado. Esse segundo valor limiar β pode ser definido como determinado por experimentação ou outro meio antecipadamente, e pode ser alterado de acordo com um comando de controle emitido pelo controlador 39 ilustrado na figura 3, porém os detalhes serão descritos posteriormente. Por exemplo, quando um veículo de quatro rodas é definido como o objeto tridimensional a ser detectado, o segundo valor limiar β é definido antecipadamente por experimentação ou outro meio com base no número de linhas de borda de um veículo de quatro rodas que aparece na área de detecção A1. Quando foi determinado que a quantidade de linhas de borda está em um segundo valor limiar β ou maior (S34: SIM), a unidade de detecção de objeto tridimensional 37 determina na etapa S35 que um objeto tridimensional está presente na área de detecção A1. Por outro lado, quando foi determinado que a quantidade de linhas de borda não está em um valor limiar β ou mais elevado (S34: Não), a unidade de detecção de objeto tridimensional 37 determina que um objeto tridimensional não está presente na área de detecção A1. O processamento ilustrado nas figuras 17 e 18 então termina. O objeto tridimensional detectado pode ser determinado como sendo outro veículo VX que desloca em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro V está se deslocando, ou pode ser determinado como sendo outro veículo VX se deslocando em uma pista adjacente com consideração dada à velocidade relativa do objeto tridimensional detectado em relação ao veículo hospedeiro V. esse segundo valor limiar β pode ser definido antecipadamente, porém pode ser alterado de acordo com um comando de controle pelo controlador 39.
[0128] Como descrito acima, de acordo com o método para detectar um objeto tridimensional utilizando informações de borda da presente invenção, uma linha imaginária perpendicular como um segmento de linha estendendo na direção perpendicular em espaço real em relação à imagem de vista aérea é definido para detectar um objeto tridimensional presente nas áreas de detecção A1 e A2. A diferença de luminância entre dois pixels próximos a cada posição é calculada para cada de uma pluralidade de posições ao longo da linha imaginária perpendicular, e a presença ou ausência de um objeto tridimensional pode ser determinada com base em continuidade da diferença de luminância.
[0129] Especificamente, uma linha de atenção que corresponde a um segmento de linha estendendo na direção perpendicular em espaço real e uma linha de referência Lr que é diferente da linha de atenção La são definidas em relação às áreas de detecção A1 e A2 na imagem da vista aérea. A diferença de luminância entre um ponto de atenção Pa na linha de atenção La e um ponto de referência Pr na linha de referência Lr é determinada em um modo contínuo ao longo da linha de atenção La e a linha de referência La. A diferença de luminância entre a linha de atenção e a linha de referência Lr é obtida por determinar a diferença de luminância entre os pontos em um modo contínuo. Há uma possibilidade elevada de que haja uma borda de um objeto tridimensional no local onde a linha de atenção La foi definida quando a diferença de luminância entre a linha de atenção La e a linha de referência Lr é elevada. O objeto tridimensional pode ser detectado com base em diferença de luminância contínua desse modo. Em particular, o processo para detectar um objeto tridimensional não é afetado mesmo quando o objeto tridimensional é aumentado de acordo com a altura a partir da superfície de estrada por conversão em uma imagem de vista aérea para comparar a luminância entre as linhas imaginárias perpendiculares estendendo na direção perpendicular em espaço real. Por conseguinte, a precisão de detectar um objeto tridimensional pode ser aperfeiçoada de acordo com o método do presente exemplo.
[0130] No presente exemplo, a diferença de luminância entre dois pontos substancialmente na mesma altura perto da linha imaginária perpendicular é determinada. Especificamente, a diferença de luminância é determinada a partir de um ponto de atenção Pa na linha de atenção La e um ponto de referência Pr na linha de referência Lr estando substancialmente na mesma altura. Portanto, a diferença de luminância quando uma borda estendendo na direção perpendicular está presente pode ser distintamente detectada.
[0131] No presente exemplo, um atributo é atribuído ao ponto de atenção Pa com base na diferença de luminância entre o ponto de atenção Pa na linha de atenção La e o ponto de referência Pr na linha de referência Lr, e é determinado se a linha de atenção La é uma linha de borda com base na continuidade c dos atributos ao longo da linha de atenção. Portanto, os limites entre áreas tendo elevada luminância e áreas tendo baixa luminância são detectados como linhas de borda, e bordas podem ser detectadas de acordo com os sentidos naturais de um ser humano. Os resultados do acima serão descritos. A figura 19 é uma vista ilustrando um exemplo de imagem para descrever o processamento da unidade de detecção de linha de borda 36. Esse exemplo de imagem é uma imagem na qual um primeiro padrão de listra 101 e um segundo padrão de listra 102 são adjacentes entre si, o primeiro padrão de listra 101 indicando um padrão de listra no qual áreas de luminância elevada e áreas de luminância baixa são repetidas, e o segundo padrão de listra 102 indicando um padrão de listra no qual áreas de luminância baixa e áreas de luminância elevada são repetidas. Também, nesse exemplo de imagem áreas do primeiro padrão de listra 101 nas quais a luminância é elevada, e áreas do segundo padrão de listra 102 nas quais a luminância é baixa são adjacentes entre si, e áreas do primeiro padrão de listra 101 nas quais a luminância é baixa, e áreas do segundo padrão de listra 102 nas quais a luminância é elevada são adjacentes entre si. O local 103 posicionado no limite entre o primeiro padrão de listra 101 e o segundo padrão de listra 102 tende a não ser percebido como uma borda por sentidos humanos.
[0132] Ao contrário, como as áreas de baixa luminância e as áreas de elevada luminância são adjacentes entre si, o local 103 é reconhecido como uma borda quando uma borda é detectada somente por diferença de luminância. Entretanto, a unidade de detecção de linha de borda 36 determina o local 103 como sendo uma linha de borda somente quando há continuidade dos atributos da diferença de luminância, além da diferença de luminância na área 103. Portanto, a unidade de detecção de linha de borda 36 é capaz de suprimir determinação errônea no local 103, que não é reconhecido como uma linha de borda por sentidos humanos é reconhecido como uma linha de borda, e bordas podem ser detectadas em um modo consistente com sentidos humanos.
[0133] No presente exemplo, é determinado se uma linha de borda foi detectada por determinação errônea quando a alteração em luminância da linha de borda detectada pela unidade de detecção de linha de borda 36 é maior que um valor limiar predeterminado. Um objeto tridimensional incluído em uma imagem capturada tende a aparecer em um estado ampliado em uma imagem de vista aérea quando a imagem capturada adquirida pela câmera 10 é convertida em uma imagem de vista aérea. Por exemplo, como descrito acima, quando o pneu de outro veículo VX é aumentado, alterações na luminância da imagem de vista aérea na direção aumentada tendem a ser pequenas porque o pneu como um local único é aumentado. Ao contrário, quando um caractere, ou similar, traçado na superfície da estrada foi erroneamente determinado como sendo uma linha de borda, áreas como a porção de caractere tendo luminância elevada e áreas como a porção de superfície de estrada tendo baixa luminância são incluídas na imagem da vista aérea em um modo intermisturado. Nesse caso, alterações em luminância na direção aumentada tendem a serem maiores na imagem da vista aérea. Por conseguinte, uma linha de borda detectada por determinação errônea pode ser reconhecida por determinar a alteração em luminância na imagem de vista aérea ao longo da linha de borda, e a precisão de detecção de um objeto tridimensional pode ser aumentada.
Determinação final de objeto tridimensional
[0134] Com referência à figura 3, o dispositivo de detecção de objeto tridimensional 1 do presente exemplo é dotado de duas unidades de detecção de objeto tridimensional 33 (ou unidade de detecção de objeto tridimensional 37), uma unidade de determinação de objeto tridimensional 34, uma unidade de determinação de área de luminância elevada 38 e um controlador 38, como descrito acima. A unidade de determinação de objeto tridimensional 34 determina se um objeto tridimensional detectado é afinal, outro veículo VX na área de detecção A1 ou A2 com base no resultado de detecção pela unidade de detecção de objeto tridimensional 33 (ou unidade de detecção de objeto tridimensional 37). A unidade de determinação de área de luminância elevada 38 determina qualquer uma das áreas de detecção A1 e A2 que contém uma área de luminância elevada. O controlador 39 suprime determinação de que um objeto tridimensional detectado a partir de informações de imagem da área de detecção A1 ou A2 é outro veículo VX quando é determinado que uma área de luminância elevada é incluída em qualquer uma das áreas de detecção A1 e A2.
[0135] Especificamente, o controlador 39 transmite um comando de controle para controlar cada unidade (incluindo o controlador 39) constituindo o computador 30 para suprimir determinação de que o objeto tridimensional detectado é outro veículo V presente na área de detecção A1 ou A2. Por exemplo, o controlador 39 gera um comando de controle para ajustar um valor limiar ou um valor de saída usado para detecção ou determinação para suprimir emissão de um resultado de detecção pela unidade de detecção de objeto tridimensional 33 (ou a unidade de detecção de objeto tridimensional 37) que um objeto tridimensional está presente, ou um resultado de determinação pela unidade de determinação de objeto tridimensional 34 que o objeto tridimensional, é afinal, outro veículo VX, e envia o comando de controle para a unidade de detecção de objeto tridimensional 33 (ou a unidade de detecção de objeto tridimensional 37) ou a unidade de determinação de objeto tridimensional 34.
[0136] O controlador 39 também gera um comando de controle para parar processamento para detectar um objeto tridimensional ou determinação de que o objeto tridimensional seja outro veículo VX, e um comando de controle para transmitir um resultado de que um objeto tridimensional não é detectado ou que o objeto tridimensional não é outro veículo VX, e envia o comando de controle para a unidade de detecção de objeto tridimensional 33 (ou a unidade de detecção de objeto tridimensional 37) ou a unidade de determinação de objeto tridimensional 34.
[0137] A unidade de detecção de objeto tridimensional 33 da presente modalidade ajusta o valor limiar ou valor de saída de acordo com o comando de controle a partir do controlador 39, detecta um objeto tridimensional sob um padrão rigoroso, e transmite um resultado de detecção que um objeto tridimensional não é detectado, ou para o próprio processamento para detectar um objeto tridimensional. De modo semelhante, a unidade de determinação de objeto tridimensional 38 ajusta o valor limiar ou valor de saída de acordo com o comando de controle a partir do controlador 39, determina se um objeto tridimensional detectado sob um padrão rigoroso é outro veículo VX, e transmite uma determinação de que um objeto tridimensional é outro veículo VX, ou para o próprio processamento para determinar um objeto tridimensional. O processamento de controle acima é realizado quando uma primeira área de detecção A1 ou A2 que inclui uma área de luminância elevada se conformando a uma referência predeterminada, sendo qualquer uma das áreas de detecção do lado direito e lado esquerdo A1 e A2, é detectada pela unidade de determinação de área de luminância elevada 38.
[0138] As figuras 20A e 20B são vistas para descrever áreas de luminância elevada formadas na área de detecção A1 e A2.
[0139] Na situação ilustrada na figura 20A, uma área de luminância elevada L1 é formada na área de detecção A1 da superfície da estrada quando luz intensa SUL a partir do sol SU ou outra fonte de luz entra na área de detecção A1 e é refletida na superfície da estrada. A maior parte da luz refletida na área de luminância elevada L1 é incidente na lente da câmera 10 no veículo hospedeiro V, e, portanto capturada nesse estado. Por outro lado, embora uma área de luminância elevada seja formada do mesmo modo na área de detecção A2 quando luz intensa SUL a partir do sol SU, ou similar, entra na área de detecção A2 e é refletida, a maior parte dessa luz refletida não é incidente na lente da câmera 10 no veículo hospedeiro V, e, portanto, uma área de luminância elevada correspondendo à área de luminância elevada L1 na área de detecção A1 não é formada na área de detecção A2. Desse modo, em uma situação na qual luz solar SUL ou outra luz intensa entra na área de detecção A1 ou A2 a partir do lado (a partir de uma direção excluindo a frente e a parte traseira) do veículo hospedeiro V, uma área de luminância elevada L é formada em qualquer uma das áreas de detecção A1 e A2 resultando em um ambiente relativamente brilhante, e uma área de luminância elevada L não é formada na outra área de detecção resultando em um ambiente relativamente escuro.
[0140] Como luz refletida a partir do reflexo da luz solar ou outra luz intensa também é luz intensa, uma diferença de luminância maior que ou igual a uma quantidade predeterminada se origina em volta da área L1, e uma borda em uma denominada técnica de processamento de imagem é formada. A imagem de reflexo é continuamente observada na área de detecção A1 ou A2 do veículo hospedeiro V, impedindo uma mudança de circunstâncias, como o sol sendo cortado ou luz a partir de outra fonte de luz de certo modo sendo bloqueada, ou alteração da direção de deslocamento do veículo hospedeiro V. a borda (pixels ou grupo de pixel no qual a diferença de luminância é maior que ou igual a um valor predeterminado) da imagem de reflexo na área L1 tende a aparecer ao longo da direção na qual o objeto tridimensional cede quando sendo convertido em uma imagem de vista aérea, e nesse caso a imagem de reflexo (imagem virtual) da área L1 é determinada como tendo a característica de uma imagem (imagem real) de um objeto tridimensional. Como a imagem de reflexo da área L1 é continuamente observada na área de detecção A1 ou A2, uma velocidade de deslocamento estável é detectada e tende a se tornar um valor menor que a velocidade relativa em relação ao veículo hospedeiro V. Nesse caso, a imagem de reflexo (imagem virtual) na área L1 pode ser determinada como tendo a característica de uma imagem (imagem real) de outro veículo VX.
[0141] Na situação ilustrada na figura 20B, outo veículo VX está presente respectivamente em cada das áreas de detecção A1 e A2, e luz intensa a partir do sol SU ou outra fonte de luz entra nas áreas de detecção A1 e A2. Nesse caso, a luz do sol SUL é refletida no lado direito do outro veículo VX na área de detecção A2 no lado direito do desenho e uma área de luminância elevada é formada na área L2. Por outro lado, a luz é refletida em uma área a partir do lado direito para a parte traseira do outro veículo VX na área de detecção A1 no lado esquerdo do desenho, uma sombra é produzida no lado esquerdo do outro veículo VX, e uma área de luminância baixa é formada na área D1. Quando imagens das áreas de detecção A1 e A2 são capturadas pela câmera 10 no veículo hospedeiro 10, uma área de luminância elevada L2 causada pela imagem de reflexo (imagem virtual) é incluída na área de detecção A2, e uma área de luminância baixa D1 causada pela sombra do outro veículo VX é incluída na área de detecção A1. Desse modo, em uma situação na qual luz solar SUL ou outra luz intensa entra nas áreas de detecção A1 e A2 a partir do lado (a partir de uma direção excluindo a frente e a parte traseira) do veículo hospedeiro V e outro veículo VX está presente respetivamente em cada das áreas de detecção A1 e A2, qualquer uma das áreas de detecção A1 e A2 se torna um ambiente brilhante incluindo uma área de luminância elevada L e a outra área de detecção se torna um ambiente escuro não incluindo uma área de luminância elevada.
[0142] Na situação da figura 20B, luz refletida intensa se origina na área de detecção A2 quando luz solar atinge o lado direito (carroceria) do outro veículo VX. A luminância da imagem capturada na área de detecção A2 desloca para elevado em geral devido a essa luz refletida, e, portanto o valor da informação de forma de onda diferencial ou informação de borda na porção não correspondendo às características do outro veículo VX pode ser transmitido maior, ou as características da informação de forma de onda diferencial ou informação de borda na porção correspondendo às características do outro veículo VX podem ser transmitidas claramente. Por outro lado, quando luz solar, ou similar, atinge do lado esquerdo para a parte traseira do outro veículo VX, a luminância na área de detecção A1 desloca para baixo em geral devido à luz solar, ou similar, ser bloqueada, e, portanto, o valor da informação de forma de onda diferencial ou informação de borda na porção correspondendo às características do outro veículo VX pode ser transmitido mais baixo, ou as características da informação de forma de onda diferencial ou informação de borda na porção correspondendo às características do outro veículo VX podem não ser transmitidas claramente.
[0143] No dispositivo de detecção de objeto tridimensional 1 de acordo com a presente invenção, o valor limiar usado para processamento para detectar um objeto tridimensional pode ser alterado uniformemente (sem distinguir entre as áreas de detecção A1 e A2) para controlar a detecção de um objeto tridimensional, por exemplo, quando a lente é ocluída por adesão de matéria estranha, o controle pode ser realizado para diminuir o valor limiar para promover detecção de um objeto tridimensional de modo que o objeto tridimensional possa ser detectado mesmo com uma lente ocluída. Entretanto, quando o valor limiar é desse modo uniformemente diminuído em cada controle, o valor de pixel ou um valor calculado com base nesse valor de pixel da imagem de reflexo causada pela luz solar acima descrita ou similar, pode exceder o valor limiar na área de detecção A1 ou A2 tendo um ambiente brilhante incluindo uma área de luminância elevada. Em outras palavras, a imagem de reflexo (imagem virtual) na área acima descrita L1 pode ser erroneamente detectada como uma imagem (imagem real) de um objeto tridimensional ou outro veículo VX. Por outro lado, na área de detecção A1 ou A2 tendo um ambiente escuro não incluindo uma área de luminância elevada ou incluindo uma área de luminância baixa, o valor de pixel ou um valor calculado com base nesse valor de pixel da imagem (imagem real) de outro veículo VX efetivamente presente pode não exceder o valor limiar. Em outras palavras, a imagem (imagem real) do outro veículo VX efetivamente presente pode ser erroneamente detectada como uma imagem ou imagem virtual de um objeto plano ou objeto estacionário. No presente exemplo, um exemplo é descrito no qual a fonte de luz é o sol e a luz intensa entrando nas áreas de detecção A1 e A2 é luz solar, porém a luz formando a área de luminância elevada não é particularmente limitada, e pode ser um farol de outro veículo VX, um holofote montado perto da estrada, ou uma luz de iluminação para construção ou similar.
[0144] Portanto, no dispositivo de detecção de objeto tridimensional 1 da presente modalidade, uma primeira área de detecção incluindo uma área de luminância elevada é detectada, determinação de um objeto tridimensional detectado com base nas informações de imagem dessa primeira área de detecção à medida que outro veículo VX, e determinação de um objeto tridimensional detectado com base em informações de imagem de uma segunda área de detecção diferente da primeira área de detecção quando outro veículo VX é mantido ou promovido.
[0145] A unidade de determinação de área de luminância elevada 38 para determinar uma primeira área de detecção é descrita a seguir. A unidade de determinação de área de luminância elevada 38 da presente modalidade determina como uma primeira área de detecção qualquer uma das áreas de detecção A1 e A2 que inclui uma área de luminância elevada em conformidade com uma referência predeterminada, sendo qualquer uma das áreas de detecção A1 e A2 no lado direito ou lado esquerdo, e determina como uma segunda área de detecção uma área de detecção diferente da primeira área de detecção.
[0146] A “referência predeterminada” utilizada ao determinar a área de luminância elevada não é particularmente limitada, porém a unidade de determinação de área de luminância elevada 38 da presente modalidade determina como uma área de luminância elevada uma área na qual pixels em ou acima de uma luminância predeterminada são incluídas em ou acima de uma densidade predeterminada (densidade de pixel) nas áreas de detecção do lado direito e lado esquerdo A1 e A2. A área de luminância elevada pode desse modo ser quantitativamente determinada com base no valor dos pixels. Na unidade de determinação de área de luminância elevada 38 da presente modalidade, a “referência predeterminada” pode ser também definida com base na percentagem do número de pixels de pixels em ou acima da luminância predeterminada em uma distribuição de valores de luminância nas áreas de detecção A1 e A2, a percentagem do número de pixels de pixels distribuídos em um valor limiar predeterminado centrado em um pico em uma distribuição de valores de luminância nas áreas de detecção A1 e A2, um grau de similaridade quando casado com um gráfico de distribuição definindo uma área de luminância elevada em uma distribuição de valores de luminância nas áreas de detecção A1 e A2, e similares.
[0147] A unidade de determinação de área de luminância elevada 38 da presente modalidade também determina uma primeira área de detecção com base na direção de deslocamento e a direção na qual o sol está presente para cada local de deslocamento do veículo hospedeiro V. especificamente, a unidade de determinação de área de luminância elevada 38 da presente modalidade detecta uma direção de deslocamento e um local de deslocamento do veículo hospedeiro V, e acessivelmente armazena uma correlação 381 tendo correlacionado antecipadamente identificadores esquerdo e direito (informações adicionais para distinguir a área de detecção do lado direito A1 e a área de detecção do lado esquerdo A2) de uma primeira área de detecção incluindo uma área de luminância elevada em relação à direção de deslocamento do veículo hospedeiro V e a direção na qual o sol está presente. A unidade de determinação de área de luminância elevada 38 também determina em um ciclo predeterminado a direção na qual o sol está presente em um local de deslocamento a partir do local de deslocamento detectado do veículo hospedeiro V e informações de calendário 391 tendo correlacionado com o momento a direção na qual o sol está presente em cada ponto. A unidade de determinação de área de luminância elevada 38 também se refere à correlação 381 e determina como uma primeira área de detecção incluindo uma área de luminância elevada qualquer uma da área de detecção do lado direito A1 ou área de detecção do lado esquerdo A2, com base na direção na qual o sol está presente no local de deslocamento e a direção de deslocamento do veículo hospedeiro V. A primeira área de detecção A1 ou A2 incluindo uma área de luminância elevada pode desse modo ser corretamente detectada de acordo com o ambiente com base na relação posicional entre o veículo hospedeiro V e o sol.
[0148] Nesse caso, a unidade de determinação de área de luminância elevada 38 da presente modalidade armazena preferivelmente antecipadamente uma primeira correlação 381(1) mencionada quando um objeto tridimensional não é detectado na área de detecção A1 ou A2 pela unidade de detecção de objeto tridimensional 33 ou 37, e uma segunda correlação 381(2) mencionado quando um objeto tridimensional é detectado na área de detecção A1 ou A2 pela unidade de detecção de objeto tridimensional 33 ou 37. Isso é porque a área de detecção A1 ou A2 na qual a área de luminância elevada é formada difere dependendo de se um objeto tridimensional está presente na área de detecção A1 ou A2, mesmo quando o sol está brilhando na área de detecção A1 ou A2 a partir da mesma direção. Por exemplo, como ilustrado na figura 20A, quando o sol SU está no oeste, a primeira área de detecção incluindo uma área de luminância elevada é a área de detecção do lado direito A1 quando objetos tridimensionais não estão presentes nas áreas de detecção A1 e A2; porém, como ilustrado na figura 20B, de modo semelhante quando o sol SU está no oeste, a primeira área de detecção incluindo uma área de luminância elevada é a área de detecção do lado esquerdo A2 quando objetos tridimensionais estão presentes nas áreas de detecção A1 e A2.
[0149] Nenhuma limitação é imposta em particular, porém na primeira correlação 381(1) que é aplicável quando um objeto tridimensional não está presente na área de detecção A1 ou A2, quando a direção na qual o sol está presente está em um ângulo predeterminado (por exemplo, 100 graus a 170 graus no sentido horário; ângulo W1 na figura 20A) em relação à direção de deslocamento do veículo hospedeiro, a correlação pode ser definida como em que a primeira área de detecção é a área de detecção do lado direito A1, e a segunda área de detecção é a área de detecção do lado esquerdo A2. De modo semelhante, na segunda correlação 381(2) que é aplicável quando um objeto tridimensional está presente na área de detecção A1 ou A2, quando a direção na qual o sol está presente está em um ângulo predeterminado (por exemplo, 100 graus a 170 graus no sentido horário; ângulo W1 na figura 20B) em relação à direção de deslocamento do veículo hospedeiro, a correlação pode ser definida como em que a primeira área de detecção é a área de detecção do lado esquerdo A2, e a segunda área de detecção é a área de detecção do lado esquerdo A1. A área de detecção A1 ou A2 incluindo a área de luminância elevada pode desse modo ser corretamente determinada de acordo com a situação. O mesmo se aplica também quando a direção na qual o sol está presente é, por exemplo, 100 graus a 170 graus no sentido anti-horário (ângulo W2 ilustrado nas figuras 20A e B) em relação à direção de deslocamento do veículo hospedeiro.
[0150] A unidade de determinação de luminância elevada 38 da presente modalidade se refere à primeira correlação 381(1) quando um resultado de detecção foi adquirido de que a unidade de detecção de objeto tridimensional 33 ou 37 não detectou um objeto tridimensional, se refere à segunda correlação 381(2) quando um resultado de detecção foi adquirido de que a unidade de detecção de objeto tridimensional 33 ou 37 detectou um objeto tridimensional, e determina a primeira área de detecção A1 ou A2 pelo método descrito acima.
[0151] A unidade de determinação de área de luminância elevada 38 da presente modalidade realiza processamento para determinar a primeira área de detecção tendo se referido à correlação acima descrita 381, somente quando a altura do sol é menor que uma altura predeterminada. Nenhuma limitação é imposta em particular, porém quando a altura do sol está em uma altura predeterminada ou mais baixa, por exemplo, em 65 graus ou mais baixa, 40 graus ou mais baixa, ou 20 graus ou mais baixa, a luz entrando nas áreas de detecção A1 e A2 se torna mais intensa como com o sol ocidental no Japão, e pode ser considerado como um ambiente no qual uma área de luminância elevada é facilmente formado. Especificamente, a unidade de determinação de área de luminância elevada 38 detecta o local de deslocamento e o momento de deslocamento do veículo hospedeiro V, se refere às informações de calendário 391 nas quais a altura do sol em cada ponto é correlacionada com um momento, se refere à correlação 381 quando a altura na qual o sol está presente no local de deslocamento detectado do veículo hospedeiro V está na altura predeterminada ou mais baixa, e determina a área de luminância elevada. Nesse caso, a área de luminância elevada pode ser determinada se referindo à correlação 381 quando a altura do sol está em um momento de se tornar em um valor predeterminado ou mais baixo (o momento de nascer do sol, o momento do pôr do sol). Desse modo, na presente modalidade, como processamento para determinar a primeira área de detecção utilizando a correlação 381 é realizado em um ambiente no qual o sol está baixo e uma área de luminância elevada é facilmente formada, o custo de processamento pode ser reduzido e a precisão de detecção da primeira área de detecção pode ser melhorada.
[0152] A esse respeito, o local de deslocamento do veículo hospedeiro V utilizado na presente determinação é detectado por um dispositivo de detecção de posição 50 equipado com um GPS (Sistema de posicionamento global) carregado no veículo hospedeiro V. o dispositivo de detecção de posição 50 utilizado pode ser um que é carregado em um dispositivo de navegação no veículo hospedeiro V. a direção de deslocamento pode ser detectada com base na alteração ao longo do tempo da posição detectada. As informações de calendário tendo correlacionado com o momento a direção na qual o sol está presente em cada ponto podem ser armazenadas antecipadamente no controlador 39.
[0153] A unidade de determinação de área de luminância elevada 38 transmite para o controlador 39 um identificador esquerdo ou direito da área de detecção do lado direito A1 ou a área de detecção do lado esquerdo A2 determinada como a primeira área de detecção. Os identificadores esquerdo e direito são informações para identificar a primeira área de detecção.
[0154] O controlador 39 é descrito a seguir. O controlador 39 da presente modalidade gera um comando de controle a ser executado na unidade de detecção de objeto tridimensional 33 ou 37, ou a unidade de determinação de objeto tridimensional 34, quando foi determinado pela unidade de determinação de área de luminância elevada 38 que “qualquer uma da área de detecção do lado direito A1 ou área de detecção do lado esquerdo A2 inclui uma área de luminância elevada em conformidade com uma referência predeterminada,” e quando o identificador esquerdo ou direito da primeira área de detecção foi adquirido.
[0155] O controlador 39 da presente modalidade suprime determinação de que um objeto tridimensional detectado é outro veículo VX com base nas informações de imagem da primeira área de detecção A1 ou A2 incluindo a área de luminância elevada determinada, e mantém ou promove determinação de que um objeto tridimensional detectado é outro veículo VX com base em informações de imagem de uma segunda área de detecção diferente da primeira área de detecção na área de detecção do lado direito A1 ou área de detecção do lado esquerdo A2.
[0156] Um comando de controle da presente modalidade é uma instrução para controlar a operação de cada unidade para suprimir detecção de um objeto tridimensional a partir de informações de imagem da primeira área de detecção A1 ou A2 e determinação de que o objeto tridimensional detectado é outro veículo VX, e manter ou promover detecção de um objeto tridimensional a partir de informações de imagem da segunda área de detecção A1 ou A2 e determinação de que o objeto tridimensional detectado é outro veículo VX. Isso é feito para evitar detecção errônea de outro veículo VX com base em uma imagem na área de detecção A1 ou A2 que inclui uma área de luminância elevada. Como o computador 30 da presente modalidade é um computador, os comandos de controle para processamento para detectar um objeto tridimensional e processamento para determinar um objeto tridimensional podem ser incorporados antecipadamente em um programa para cada processamento, e podem ser enviados durante execução. O comando de controle da presente modalidade pode ser uma instrução tendo como objetivo um resultado de descontinuar processamento para determinar como outro veículo um objeto tridimensional detectado com base em informações de imagem da primeira área de detecção, ou um resultado de determinar que o objeto tridimensional detectado não é outro veículo; ou pode ser uma instrução para diminuir a sensibilidade ao detectar um objeto tridimensional com base em informações de forma de onda diferencial geradas a partir de informações de imagem da primeira detecção, ou uma instrução para ajustar a sensibilidade ao detectar um objeto tridimensional com base em informações de borda geradas a partir de informações de imagem da primeira área detectada.
[0157] Na presente modalidade, as informações de imagem como objeto de controle são adicionalmente estreitadas, e a determinação de um objeto tridimensional detectado como outro veículo VX com base em informações de imagem correspondendo a uma área de luminância elevada contida na primeira área de detecção, ao invés da totalidade da primeira área de detecção, é suprimida. Desse modo, o controle de supressão de detecção pode ser realizado ajustando a sensibilidade de detecção somente para informações de imagem correspondendo a uma imagem de reflexo causada por luz solar, e, portanto outro veículo VX pode ser detectado com sensibilidade de detecção comum em uma porção não sujeita à influência de luz solar, e, portanto a precisão de detecção do outro veículo VX pode ser aperfeiçoada.
[0158] Cada transmissão de comando de controle pelo controlador 39 é descrita.
[0159] Os comandos de controle usados ao detectar um objeto tridimensional com base em informações de forma de onda diferencial são primeiramente descritos. A unidade de detecção de objeto tridimensional 33 detecta um objeto tridimensional com base em informações de forma de onda diferencial e um primeiro valor limiar α. O controlador 39 da presente modalidade transmite para a unidade de detecção de objeto tridimensional 33 um comando de controle para aumentar o primeiro valor limiar α usado ao processar informações de imagem da primeira área de detecção ou informações de imagem da área de luminância elevada na primeira área de detecção quando a primeira área de detecção foi determinada pela unidade de determinação de área de luminância elevada 38. O primeiro valor limiar α é um primeiro valor limiar α para determinar o pico na forma de onda diferencial DWt na etapa S7 ilustrada na figura 11 (vide a figura 5). O controlador 39 transmite para a unidade de detecção de objeto tridimensional 33 um comando de controle para manter no mesmo valor ou reduzir o primeiro valor limiar α usado ao processar informações de imagem da segunda área de detecção. O controlador 39 também transmite para a unidade de detecção de objeto tridimensional 33 um comando de controle para aumentar o valor limiar p relacionado à diferença de valores de pixel nas informações de forma de onda diferencial.
[0160] O controlador 39 determina que haja uma possibilidade de que uma imagem em uma área de luminância elevada formada na área de detecção A1 ou A2 possa ser detectada como informações indicando a presença de um objeto tridimensional quando a primeira área de detecção é determinada. Quando um objeto tridimensional é detectado com sensibilidade de detecção uniforme nessa condição, a área de luminância elevada refletida por luz solar ou outra luz intensa pode ser erroneamente detectada como a imagem de outro veículo VX se deslocando na área de detecção A1 ou A2, apesar do fato de que outro veículo VX não está presente na primeira área de detecção A1 ou A2. Portanto, o controlador 39 aumenta o primeiro valor limiar a, ou o valor limiar p relacionado à diferença de valores de pixel ao gerar informações de forma de onda diferencial, de modo que o objeto tridimensional não é detectado na primeira área de detecção. Desse modo, o valor limiar para avaliação é aumentado somente para processamento de informações de imagem da primeira área de detecção, e o valor limiar para avaliação é mantido diminuído para processamento de informações de imagem da segunda área de detecção, pelo que detecção errônea de uma imagem em uma área de luminância elevada formada na primeira área de detecção como outro veículo VX pode ser evitada, e outro veículo VX pode ser detectado em um valor limiar adequado também em uma segunda área de detecção na qual uma área de luminância elevada não é formada.
[0161] O controlador 39 da presente modalidade pode transmitir para a unidade de detecção de objeto tridimensional 33 um comando de controle para transmitir um valor mais baixo obtido por contar o número de pixels indicando uma diferença predeterminada em uma imagem diferencial das imagens de vista aérea na primeira área de detecção A1 ou A2 e formar uma distribuição de frequência, e transmitir um valor igual ou mais elevado obtido por contar o número de pixels indicando uma diferença predeterminada em uma imagem diferencial das imagens de vista aérea na primeira área de detecção A1 ou A2 e formar uma distribuição de frequência, quando uma primeira área de detecção A1 ou A2 foi detectada pela unidade de determinação de área de luminância elevada 38. O valor obtido por contar o número de pixels indicando uma diferença predeterminada na imagem diferencial das imagens de vista aérea e formar uma distribuição de frequência é um valor no eixo vertical da forma de onda diferencial DWt gerado na etapa S5 na figura 11. Como é determinado que uma área de luminância elevada é formada na área de detecção A1 ou A2 ao receber o resultado de determinação da primeira área de detecção A1 ou A2, o controlador 39 diminui o valor obtido por formar uma distribuição de frequência da forma de onda diferencial DWt de modo que seja mais difícil detectar um objeto tridimensional a partir da informação de imagem dessa primeira área de detecção. Desse modo, a sensibilidade de detecção pode ser ajustada para cada área de detecção por diminuir o valor de saída com base na informação de imagem da primeira área de detecção A1 ou A2 e manter ou aumentar o valor de saída da informação de imagem da primeira área de detecção A1 ou A2. Portanto, é possível evitar detecção errônea de uma imagem na área de luminância elevada na primeira área de detecção A1 ou A2 como outro veículo CX, e evitar detecção errônea que um objeto tridimensional na segunda área de detecção A1 ou A2 não é um objeto tridimensional.
[0162] Os comandos de controle para detectar um objeto tridimensional baseado em informações de borda são descritos a seguir. O controlador 39 da presente modalidade transmite para a unidade de detecção de objeto tridimensional 37 um comando de controle para aumentar um valor limiar predeterminado relacionado à luminância usada ao detectar informações de borda com base em informações de imagem da primeira área de detecção A1 ou A2, e manter ou diminuir o valor limiar predeterminado relacionado à luminância usada ao detectar informações de borda com base em informações de imagem da segunda área de detecção A1 ou A2, quando uma primeira área de detecção A1 ou A2 é determinada pela unidade de determinação de área de luminância elevada 38. O valor limiar predeterminado relacionado à luminância usada ao detectar informações de borda é o valor limiar θ usado ao determinar o valor tendo normalizada a soma das continuidades c dos atributos dos pontos de atenção Pa na etapa S29 na figura 17, ou o segundo valor limiar β para avaliar a quantidade de linhas de borda na etapa 34 na figura 18. O controlador 39 pode transmitir um comando de controle para a unidade de detecção de objeto tridimensional 33 para aumentar o valor limiar θ usado ao detectar linhas de borda ou o segundo valor limiar β para avaliar a quantidade de linhas de borda com base nas informações de imagem da primeira área de detecção A1 ou A2, e manter ou diminuir o valor limiar θ usado ao detectar linhas de borda ou o segundo valor limiar β para avaliar a quantidade de linhas de borda com base em informações de imagem da segunda área de detecção A1 ou A2. Desse modo, o valor limiar para determinação é aumentado somente para a primeira área de detecção, e o valor limiar para determinação é mantido para diminuído para a segunda área de detecção, pelo que detecção errônea de uma imagem em uma área de luminância elevada formada na primeira área de detecção A1 ou A2 como outro veículo VX pode ser evitada, e outro veículo VX pode ser detectado em um valor limiar adequado também em uma segunda área de detecção na qual uma área de luminância elevada não é formada.
[0163] O controlador 39 da presente modalidade transmite para a unidade de detecção de objeto tridimensional 37 um comando de controle para transmitir a quantidade mais baixa de informações de borda detectadas a partir da primeira área de detecção A1 ou A2, e manter ou transmitir a quantidade mais elevada de informações de borda detectadas a partir da segunda área de detecção A1 ou A2, quando a primeira área de detecção A1 ou A2 foi determinada pela unidade de determinação de área de luminância elevada 38. A quantidade de informações de borda detectadas é um valor tendo normalizada a soma das continuidades c dos atributos dos pontos de atenção Pa na etapa S29 na figura 17, ou a quantidade de linhas de borda na etapa 34 na figura 18. Quando a primeira área de detecção A1 ou A2 é detectada, o controlador 39 diminui o valor tendo normalizada a soma das continuidades c dos atributos dos pontos de atenção Pa ou a quantidade de linhas de borda da informação de imagem da primeira área de detecção A1 ou A2, e mantém ou aumenta o valor tendo normalizada a soma das continuidades c dos atributos dos pontos de atenção Pa ou a quantidade de linhas de borda da informação de imagem da segunda área de detecção A1 ou A2. Desse modo, a sensibilidade de detecção pode ser ajustada para cada área de detecção por diminuir o valor de saída com base nas informações de imagem da primeira área de detecção A1 ou A2 e manter ou aumentar o valor de saída com base nas informações de imagem da primeira área de detecção A1 ou A2. Portanto, é possível evitar detecção errônea de uma imagem em uma área de luminância elevada formada na primeira área de detecção A1 ou A2 como outro veículo VX, e evitar detecção errônea de um objeto tridimensional na segunda área de detecção A1 ou A2 como não sendo um objeto tridimensional.
[0164] O dispositivo de detecção de objeto tridimensional 1 da presente modalidade aumenta um valor limiar ou diminui um valor de saída para processamento para detectar um objeto tridimensional com base na primeira área de detecção A1 ou A2, e diminui um valor limiar ou aumenta um valor de saída para processamento para detectar um objeto tridimensional com base na segunda área de detecção A1 ou A2. Portanto, na primeira área de detecção A1 ou A2 tendo um ambiente brilhante, é possível evitar detecção errônea de uma imagem de reflexo (imagem virtual) de luz solar ou outra luz intensa como uma imagem (imagem real) de outra imagem deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro está se deslocando, enquanto na segunda área de detecção A1 ou A2 tendo um ambiente escuro, é possível evitar detecção errônea de uma imagem (imagem real) de outro veículo efetivamente presente em uma pista adjacente como não sendo outro veículo.
[0165] O dispositivo de detecção de objeto tridimensional 1 da presente modalidade também aumenta o valor limiar ou diminui o valor de saída para processamento para detectar um objeto tridimensional com base na primeira área de detecção A1 ou A2, e diminui o valor limiar ou aumenta o valor de saída para processamento para detectar um objeto tridimensional com base na segunda área de detecção A1 ou A2. Portanto, na primeira área de detecção A1 ou A2 na qual a luminância detectada é elevada devido à luz refletida pela carroceria de outro veículo VX, ou similar, a luz refletida (imagem real) de uma transmissão de objeto tridimensional no lado elevado pode ser corretamente detectada como a imagem (imagem real) de outro veículo se deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro está se deslocando, enquanto na segunda área de detecção A1 ou A2 na qual a luminância detectada é baixa devido ao bloqueio da luz pela carroceria de outro veículo VX, ou similar, a luz refletida (imagem real) de uma transmissão de objeto tridimensional no lado baixo pode ser corretamente detectada como a imagem (imagem real) de outro veículo efetivamente presente em uma pista adjacente.
[0166] O procedimento de controle do dispositivo de detecção de objeto tridimensional 1 da presente modalidade é descrito abaixo com referência à figura 21.
[0167] Primeiramente, na etapa S41 ilustrada na figura 21, a unidade de determinação de área de luminância elevada 38 detecta uma primeira área de detecção A1 ou A2 incluindo uma área de luminância elevada, e determina essa como uma primeira área de detecção A1 ou A2. A unidade de determinação de área de luminância elevada 38 detecta uma área de luminância elevada em conformidade com uma referência predeterminada baseada na informação de imagem da área de detecção A1 ou A2, e detecta e determina uma área de detecção A1 ou A2 como uma primeira área de detecção A1 ou A2 incluindo a área de luminância elevada quando essa área de luminância elevada é incluída em qualquer uma da área de detecção A1 e A2 à esquerda e a direita. A área de detecção do lado esquerdo A2 é uma segunda área de detecção quando a área de detecção do lado direito A1 é determinada como sendo a primeira área de detecção.
[0168] Quando a primeira área de detecção A1 ou A2 foi detectada na etapa S42, em outras palavras, quando o resultado de determinação da primeira área de detecção A1 ou A2 foi transmitido, o processo prossegue para a etapa S51. Quando a primeira área de detecção A1 ou A2 não foi detectada, em outras palavras, quando um resultado de determinação de que a primeira área de detecção A1 ou A2 não foi detectada foi transmitido, o processo prossegue para a etapa S43.
[0169] Na etapa S51, o controlador 39 aumenta (muda de modo que a detecção se torna mais difícil) cada valor limiar usado em cada processo em relação ao valor inicial, valor padrão ou o outro valor definido, ou diminui (muda de modo que a detecção se torne mais difícil) o valor de saída em comparação com cada valor limiar, para suprimir a detecção de um objeto tridimensional pela unidade de detecção de objeto tridimensional 33 ou 37, ou suprimir determinação de que um objeto tridimensional é determinado como sendo outro veículo pela unidade de determinação de objeto tridimensional 37. Quando o controlador 39 realiza processamento de promoção, processamento de promoção se torna o controle determinado como processamento de supressão.
[0170] Os detalhes específicos do processamento são como a seguir.
[0171] Quando a unidade de detecção de objeto tridimensional 33 usada para detectar um objeto tridimensional utilizando informações de forma de onda diferencial detecta um objeto tridimensional quando a informação de forma de onda diferencial está em ou acima de um primeiro valor limiar predeterminado a, o controlador 39 gera um comando de controle para aumentar o primeiro valor limiar a de modo que a detecção de um objeto tridimensional seja mais difícil de detectar, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 33.
[0172] De modo semelhante, quando a unidade de detecção de objeto tridimensional 33 detecta um objeto tridimensional quando a informação de forma de onda diferencial está em ou acima de um primeiro valor limiar predeterminado a, o controlador 39 gera um comando de controle para transmitir o valor mais baixo obtido pela contagem do número de pixels indicando uma diferença predeterminada na imagem diferencial na imagem da vista aérea e formando uma distribuição de frequência, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 38.
[0173] Quando a unidade de detecção de objeto tridimensional 33 usada para detectar um objeto tridimensional utilizando informações de forma de onda diferencial extrai um número de pixels indicando um valor de pixel em ou acima de um valor limiar p como um número de pixels indicando uma diferença predeterminada, o controlador 39 gera um comando de controle para aumentar o valor limiar p de modo que um objeto tridimensional seja mais difícil de detectar, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 38.
[0174] De modo semelhante, quando a unidade de detecção de objeto tridimensional 33 extrai um número de pixels indicando um valor de pixel em ou acima de um valor limiar p como um número de pixels indicando uma diferença predeterminada, o controlador 39 gera um comando de controle para transmitir o número mais baixo de pixels extraídos na imagem diferencial ao longo da direção na qual o objeto tridimensional cede ao ser convertido em uma imagem de vista aérea, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 38.
[0175] Quando a unidade de detecção de objeto tridimensional 37 utilizada para detectar um objeto tridimensional utilizando informações de borda extrai uma linha de borda com base em pixels indicando uma diferença de luminância maior ou igual a um valor limiar predeterminado t, o controlador 39 gera um comando de controle para aumentar o valor limiar predeterminado t de modo que um objeto tridimensional seja mais difícil de detectar, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 37.
[0176] De modo semelhante, quando a unidade de detecção de objeto tridimensional 37 utilizada para detectar um objeto tridimensional utilizando informações de borda extrai uma linha de borda com base em pixels indicando uma diferença de luminância maior ou igual a um valor limiar predeterminado t, o controlador 39 gera um comando de controle para transmitir o valor de luminância mais baixo do pixel, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 37.
[0177] Quando a unidade de detecção de objeto tridimensional 37 utilizada para detectar um objeto tridimensional utilizando informações de borda detecta um objeto tridimensional com base em uma linha de borda tendo um comprimento maior ou igual a um valor limiar predeterminado θ, o controlador 39 gera um comando de controle para aumentar o valor limiar θ de modo que um objeto tridimensional seja mais difícil de detectar, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 37.
[0178] De modo semelhante, quando a unidade de detecção de objeto tridimensional 37 usada para detectar um objeto tridimensional utilizando informações de borda detecta um objeto tridimensional com base em uma linha de borda tendo um comprimento maior ou igual a um valor limiar predeterminado θ, o controlador 39 gera um comando de controle para transmitir o valor mais baixo do comprimento da linha de borda na linha de borda detectada, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 37.
[0179] Quando a unidade de detecção de objeto tridimensional 37 utilizada para detectar um objeto tridimensional utilizando informações de borda detecta um objeto tridimensional com base em uma determinação de que o número de linhas de borda tendo um comprimento predeterminado ou mais longo incluído na informação de borda, por exemplo, loinhas de borda tendo um comprimento maior ou igual a um valor limiar θ, é maior ou igual a um segundo valor limiar β, o controlador 39 gera um comando de controle para aumentar o segundo valor limiar β de modo que um objeto tridimensional seja mais difícil de detectar, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 37.
[0180] Quando a unidade de detecção de objeto tridimensional 37 utilizada para detectar um objeto tridimensional usando informações de borda detecta um objeto tridimensional com base em uma determinação de que o número de linhas de borda tendo um comprimento predeterminado ou mais longo incluído na informação de borda, por exemplo, linhas de borda tendo um comprimento maior ou igual a um valor limiar θ, é maior ou igual a um segundo valor limiar β, o controlador 39 gera um comando de controle para transmitir o número detectado mais baixo de linhas de borda tendo um comprimento predeterminado ou mais longo, e transmite o comando de controle para a unidade de detecção de objeto tridimensional 37.
[0181] Quando a unidade de determinação de objeto tridimensional 34 determina um objeto tridimensional detectado como outro veículo quando a velocidade de deslocamento desse objeto tridimensional é maior ou igual a uma velocidade predeterminada definida antecipadamente, o controlador 39 gera um comando de controle para aumentar a velocidade predeterminada servindo como o limite mais baixo ao determinar um objeto tridimensional como outro veículo de modo que um objeto tridimensional seja mais difícil de detectar, e transmite o comando de controle para a unidade de determinação de objeto tridimensional 34.
[0182] De modo semelhante, quando a unidade de determinação de objeto tridimensional 34 determina um objeto tridimensional detectado como outro veículo quando a velocidade de deslocamento desse objeto tridimensional é maior ou igual a uma velocidade predeterminada definida antecipadamente, o controlador 39 gera um comando de controle para transmitir a velocidade de deslocamento mais baixa do objeto tridimensional a ser comparada com a velocidade predeterminada servindo como o limite mais baixo ao determinar um objeto tridimensional como outro veículo, e transmite o comando de controle para a unidade de determinação de objeto tridimensional 34.
[0183] Quando a unidade de determinação de objeto tridimensional 3 determina um objeto tridimensional como outro veículo quando a velocidade de deslocamento desse objeto tridimensional é menor que uma velocidade predeterminada definida antecipadamente, o controlador 39 gera um comando de controle para diminuir a velocidade predeterminada servindo como o limite superior ao determinar um objeto tridimensional como outro veículo, e transmite o comando de controle para a unidade de determinação de objeto tridimensional 34.
[0184] De modo semelhante, quando a unidade de determinação de objeto tridimensional 34 determina um objeto tridimensional detectado como outro veículo quando a velocidade de deslocamento desse objeto tridimensional é menor que uma velocidade predeterminada definida antecipadamente, o controlador 39 gera um comando de controle para aumentar a velocidade de deslocamento do objeto tridimensional a ser comparada com a velocidade predeterminada como o limite superior ao determinar um objeto tridimensional como outro veículo, e transmite o comando de controle para a unidade de determinação de objeto tridimensional 34.
[0185] “Velocidade de deslocamento” aqui inclui a velocidade absoluta do objeto tridimensional e a velocidade relativa do objeto tridimensional em relação ao veículo hospedeiro. A velocidade absoluta do objeto tridimensional pode ser calculada a partir da velocidade relativa do objeto tridimensional, e a velocidade relativa do objeto tridimensional pode ser calculada a partir da velocidade absoluta do objeto tridimensional.
[0186] A esse respeito, o primeiro valor limiar a é o valor limiar para determinar o pico na forma de onda diferencial DWt na etapa S7 na figura 11. O valor limiar p é o valor limiar para extrair pixels tendo um valor de pixel predeterminado. O valor limiar predeterminado t é o valor limiar para extrair pixels ou componentes de borda tendo uma diferença de luminância predeterminada. O valor limiar θ é o valor limiar para determinar o valor (comprimento da borda) obtido por normalizar a soma das continuidades c dos atributos dos pontos de atenção Pa na etapa S29 na figura 17, e o segundo valor limiar β é o valor limiar para avaliar a quantidade (número) de linhas de borda na etapa 3 na figura 18. Desse modo por aumentar o valor limiar para determinação, a sensibilidade de detecção pode ser ajustada de modo que é mais difícil detectar outro veículo VX se deslocando adjacente à pista na qual o veículo hospedeiro V está se deslocando, e detecção errônea de outro veículo VX, portanto pode ser evitada.
[0187] O controlador 39 da presente modalidade transmite para a unidade de detecção de objeto tridimensional 33 um comando de controle para transmitir o valor mais baixo obtido por contar o número de pixels indicando uma diferença predeterminada na imagem diferencial na imagem da vista aérea e formar uma distribuição de frequência. O valor obtido por contar o número de pixels indicando uma diferença predeterminada na imagem diferencial na imagem de vista aérea e formar uma distribuição de frequência é o valor no eixo vertical da forma de onda diferencial DWt gerada na etapa S5 na figura 11. O controlador 39 da presente modalidade também transmite para a unidade de detecção de objeto tridimensional 37 um comando de controle para transmitir a informação de borda detectada mais baixa. A informação de borda detectada é o comprimento da linha de borda que é o valor obtido por normalizar a soma das continuidades c dos atributos dos pontos de atenção Pa na etapa S29 na figura 17, bem como a quantidade de linhas de borda na etapa 34 na figura 18. O controlador 39 diminui o valor obtido por normalizar a soma das continuidades c dos atributos dos pontos de atenção Pa ou a quantidade de linhas de bordas, de modo que um objeto tridimensional seja mais difícil de detectar no round seguinte de processamento. Desse modo, por diminuir o valor de saída, a sensibilidade de detecção pode ser ajustada de modo que é mais difícil detectar outro veículo VX deslocando adjacente à pista na qual o veículo hospedeiro V está se deslocando, e detecção errônea de outro veículo VX se deslocando em uma pista adjacente pode ser, portanto, evitada.
[0188] Como descrito acima, o controlador 39 da presente modalidade aumenta cada valor limiar (primeiro valor limiar a, valor limiar θ e segundo valor limiar β) e/ou diminui o valor de saída, de modo que a determinação de um objeto tridimensional detectado com base em informações de imagem de uma primeira área de detecção A1 ou A2 como outro veículo VX é suprimida. O objeto desse processamento pode ser informação de imagem da totalidade da primeira área de detecção, ou pode ser uma área de imagem correspondendo a uma área de luminância elevada nas informações de imagem da totalidade da primeira área de detecção. Cada valor limiar (primeiro valor limiar a, valor limiar θ, e segundo valor limiar β) é aumentado visto que a luminância (luminância máxima, luminância média ou luminância padrão) da área de luminância elevada é maior.
[0189] A figura 22 ilustra um exemplo da relação entre esse valor de luminância e cada valor limiar. As bordas ou similares, de uma imagem virtual produzida por reflexo de luz solar que entra ou outra luz intensa aparece mais distintamente visto que a luminância da área de luminância elevada é mais elevada. Desse modo, por ajustar cada valor limiar de acordo com a luminância da área de luminância elevada, detecção de outro veículo é mais firmemente suprimida quando a luminância da área de luminância elevada é elevada, e a precisão de detecção de um objeto tridimensional pode ser mantida.
[0190] Na mesma etapa S51, o controlador 39 mantém no mesmo valor ou diminui cada valor limiar (primeiro valor limiar a, valor limiar θ, e segundo valor limiar β), e/ou mantém no mesmo valor ou aumenta o valor de saída, de modo que a determinação de um objeto tridimensional detectado com base nas informações de imagem de uma segunda área de detecção A1 ou A2 como outro veículo VX é mantida ou promovida. O objetivo desse processamento é informação de imagem da totalidade da segunda área de detecção. Após o valor limiar ser definido na etapa S51, o processo prossegue para a etapa S43.
[0191] Quando a primeira área de detecção A1 ou A2 foi detectada na etapa S42, em outras palavras, quando foi determinado que haja uma área de luminância elevada, o processo prossegue para a etapa S47, a informação de imagem dessa área de luminância elevada é mascarada (excluída do processamento), e o processo prossegue para a etapa S43. Quando a primeira área de detecção A1 ou A2 foi detectada na etapa S42 e o resultado de determinação da primeira área de detecção A1 ou A2 foi transmitida, o processo pode prosseguir para a etapa S48 e o presente round de processamento para detectar um objeto tridimensional pode ser parado.
[0192] Na etapa S43 seguinte, o dispositivo de detecção de objeto tridimensional 1 realiza processamento para detectar um objeto tridimensional. Esse processamento para detectar um objeto tridimensional é realizado de acordo com o processo utilizando informações de forma de onda diferencial nas figuras 11 e 12 que é realizado pela unidade de detecção de objeto tridimensional 33, ou o processo utilizando informações de borda nas figuras 17 e 18 que é realizado pela unidade de detecção de objeto tridimensional 37. Quando um objeto tridimensional foi detectado em uma área de detecção A1 ou A2 pela unidade de detecção de objeto tridimensional 33 ou 37 na etapa 44, o processo prossegue para a etapa S45 e é determinado que o objeto tridimensional detectado seja outro veículo VX. Por outro lado, quando um objeto tridimensional não é detectado em uma área de detecção A1 ou A2 pela unidade de detecção de objeto tridimensional 33 ou 37, o processo prossegue para a etapa 47 e é determinado que outro veículo VX não está presente na área de detecção A1 ou A2.
[0193] O dispositivo de detecção de objeto tridimensional 1 da presente modalidade da presente invenção, que é configurado e opera como acima, realiza os seguintes efeitos. (1) com o dispositivo de detecção de objeto tridimensional 2 da presente modalidade, quando o ambiente de brilho difere entre uma área de detecção do lado direito A1 e uma área de detecção do lado esquerdo A2, na primeira área de detecção A1 ou A2 tendo um ambiente brilhante, é possível evitar detecção errônea de uma imagem de reflexo (imagem virtual) de luz solar ou outra luz intensa como uma imagem (imagem real) de outra imagem deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro está se deslocando, enquanto na segunda área de detecção A1 ou A2 tendo um ambiente escuro, é possível evitar detecção errônea de uma imagem (imagem real) de outro veículo efetivamente presente em uma pista adjacente como não sendo outro veículo.
[0194] Com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, quando ambientes de brilho diferente são formados pela presença de um objeto tridimensional entre a área de detecção do lado direito A1 e a área de detecção do lado esquerdo A2, na primeira área de detecção A1 ou A2 na qual a luminância detectada é elevada devido à luz refletida pela carroceria do outro veículo VX, ou similar, a luz refletida (imagem real) de uma transmissão de objeto tridimensional no lado elevado pode ser corretamente detectada como a imagem (imagem real) de outro modo veículo deslocando em uma pista adjacente, adjacente à pista na qual o veículo hospedeiro está se deslocando; enquanto isso na segunda área de detecção A1 ou A2 na qual a luminância detectada é baixa devido ao bloqueio da luz pela carroceria do outro veículo VX, ou similar, a luz refletida (imagem real) de uma transmissão de objeto tridimensional no lado baixo pode ser corretamente detectada como a imagem (imagem real) de outro veículo efetivamente presente em uma pista adjacente.
[0195] Como resultado, pode ser fornecido um dispositivo de detecção de objeto tridimensional que detecta com precisão elevada outro veículo deslocando em uma pista adjacente, adjacente a pista na qual o veículo hospedeiro está se deslocando. Esse efeito é realizado do mesmo modo se o outro veículo VX for detectado com base em informações de forma de onda diferencial ou se o outro veículo VX for detectado com base em informações de borda. (2) de acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, uma primeira área de detecção A1 ou A2 incluindo uma área de luminância elevada pode ser quantitativamente detectada com base no valor de pixels de informações de imagem na primeira área de detecção A1 ou A2. (3) de acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, uma primeira área de detecção A1 ou A2 incluindo uma área de luminância elevada pode ser detectada com base em circunstâncias baseadas em uma relação posicional entre o veículo hospedeiro V e o sol. (4) De acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, uma primeira área de detecção A1 ou A2 incluindo uma área de luminância elevada pode ser precisamente detectada e determinada com base em circunstâncias baseadas em uma relação posicional entre o veículo hospedeiro V e o sol, por preparar uma primeira correlação quando um objeto tridimensional não é detectado e uma segunda correlação quando um objeto tridimensional é detectado. (5) de acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, o processamento para detectar e determinar a primeira área de detecção com referência à correlação 381 é realizado quando a altura do sol é menor que uma altura predeterminada. Portanto, o processamento para determinar a primeira área de detecção utilizando a correlação 381 é realizado quando a altura do sol é baixa e a luz entrando na área de detecção A1 ou A2 é intensa (quando o sol ocidental no Japão entra). Portanto, o custo de processamento pode ser reduzido e a precisão de detecção da primeira área de detecção pode ser melhorada. (6) De acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, a informação de imagem como objeto de controle pode ser adicionalmente estreitada por suprimir determinação de um objeto tridimensional detectado como outro veículo VX com base em informação de imagem correspondendo a uma área de luminância elevada contida na primeira área de detecção. Portanto, outro veículo VX pode ser detectado com sensibilidade de detecção comum em uma porção não sujeita à influência de luz solar, e, portanto, a precisão de detecção do outro veículo VX pode ser aperfeiçoada. (7) De acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, o primeiro valor limiar a é aumentado quando uma primeira área de detecção A1 ou A2 foi detectada, pelo que a sensibilidade de detecção pode ser ajustada de modo que seja mais difícil detectar outro veículo VX se deslocando adjacente à pista na qual o veículo hospedeiro está se deslocando, e, portanto, detecção errônea de uma imagem de uma área de luminância elevada formada na primeira área de detecção A1 ou A2 como outro veículo VX se deslocando em uma pista adjacente pode ser evitada. (8) de acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, o valor de saída ao gerar informação de forma de onda diferencial é diminuído quando uma primeira área de detecção A1 ou A2 foi detectada e determinada, pelo que a sensibilidade de detecção pode ser ajustada de modo que seja mais difícil detectar outro veículo VX se deslocando adjacente à pista na qual o veículo hospedeiro V está se deslocando, e, portanto, detecção errônea de uma imagem de uma área de luminância elevada formada na primeira área de detecção A1 ou A2 como outro veículo VX se deslocando em uma pista adjacente pode ser evitada. (9) de acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, o valor limiar para determinação ao gerar informações de borda é aumentado quando a primeira área de detecção A1 ou A2 foi detectada e determinada, pelo que a sensibilidade de detecção pode ser ajustada de modo que seja mais difícil detectar outro veículo VX se deslocando adjacente à pista na qual o veículo hospedeiro está se deslocando, e, portanto detecção errônea de uma imagem de uma área de luminância elevada formada na primeira área de detecção A1 ou A2 como outro veículo VX se deslocando em uma pista adjacente pode ser evitada. (10) de acordo com o dispositivo de detecção de objeto tridimensional 1 da presente modalidade, o valor de saída ao gerar informação de borda é diminuído quando a primeira área de detecção A1 ou A2 foi detectada e determinada, pelo que a sensibilidade de detecção pode ser ajustada de modo que seja mais difícil detectar outro veículo VX se deslocando adjacente à pista na qual o veículo hospedeiro V está se deslocando, e, portanto detecção errônea de uma imagem de uma área de luminância elevada formada na primeira área de detecção A1 ou A2 como outro veículo VX se deslocando em uma pista adjacente pode ser evitada.
[0196] A mesma operação e efeitos como do dispositivo de detecção de objeto tridimensional 1 descrito acima podem ser obtidos também no método para detectar um objeto tridimensional na presente modalidade.
[0197] A câmera acima mencionada 10 corresponde ao meio de captura de imagem de acordo com a presente invenção, a unidade de conversão 31 corresponde ao meio de conversão de imagem de acordo com a presente invenção, a unidade de alinhamento 32 e a unidade de detecção de objeto tridimensional 33 correspondem ao meio de detecção de objeto tridimensional de acordo com a presente invenção, a unidade de cálculo de diferença de luminância 35, unidade de detecção de linha de borda 36, e unidade de detecção de objeto tridimensional 37 correspondem ao meio de detecção de objeto tridimensional de acordo com a presente invenção, a unidade de determinação de objeto tridimensional 34 corresponde ao meio de determinação de objeto tridimensional, a unidade de determinação de área de luminância elevada 38 corresponde ao meio de determinação de área de luminância elevada e o controlador 39 corresponde ao meio de controle.
[0198] A unidade de alinhamento 21 na presente modalidade alinha as posições das imagens de vista aérea de pontos diferentes em tempo em uma vista aérea, e a vista aérea alinhada é obtida, porém esse processamento de “alinhamento” pode ser realizado com precisão correspondendo ao tipo de objeto detectado ou a precisão de detecção. Processamento de alinhamento rigoroso pode ser realizado, no qual alinhamento se baseia em pontos idênticos em tempo e posições idênticas, ou processamento de alinhamento realizado até certo grau pode ser realizado, no qual as coordenadas de cada vista aérea são compreendidas. Lista de sinais de referência 1: dispositivo de detecção de objeto tridimensional 10: câmera 20: sensor de velocidade 30: computador 31: unidade de conversão de ponto de visão 32: unidade de alinhamento 33: 37: unidade de detecção de objeto tridimensional 34: unidade de determinação de objeto tridimensional 35: unidade de cálculo de diferença de luminância 36: unidade de detecção de borda 38: unidade de determinação de área de luminância elevada 39: controlador 40: unidade de detecção de mancha 50: dispositivo de detecção de posição A: ângulo de visão A1, A2: área de detecção CP: ponto de cruzamento DP: pixels de diferença DWt, DWt’: forma de onda diferencial DWt1 a DWm, DWm+k até DWtn: área pequena L1, L2: linha de solo La, Lb: linha na direção na qual o objeto tridimensional cede P: imagem capturada PBt: imagem de vista aérea PDt: imagem diferencial MP: imagem de máscara S: mancha SP imagem de mancha SBt: imagem de vista aérea de mancha 1. veículo hospedeiro VX: outro veículo

Claims (8)

1. Dispositivo de detecção de objeto tridimensional (1) compreendendo: uma unidade de captura de imagem (10) configurada para capturar imagens de uma área incluindo uma área de detecção do lado direito e uma área de detecção do lado esquerdo para trás de um veículo; uma unidade de detecção de objeto tridimensional (33, 37) programada para detectar um objeto tridimensional com base em uma imagem adquirida pela unidade de captura de imagem (10); uma unidade de conversão de imagem (31) para realizar a conversão de ponto de vista de uma imagem obtida pela unidade de captura de imagem (10) para uma imagem de vista aérea (PBt, PBt-1); uma unidade de determinação de objeto tridimensional (33) para avaliar se um objeto tridimensional detectado pela unidade de detecção de objeto tridimensional (33) é outro veículo (VX); a unidade de detecção de objeto tridimensional (33, 37) alinha, em uma vista aérea, as posições de imagens de vista aérea (PBt, PBt-1) em pontos diferentes no tempo conforme obtidas pela unidade de conversão de imagem (31), conta, em uma imagem diferencial (PDt) nas imagens de vista aérea alinhadas (PBt, PBt-1), o número de pixels nos quais uma diferença predeterminada é indicada por uma diferença de luminância na imagem diferencial (PDt) ao longo de uma direção de colapso do objeto tridimensional na imagem capturada (P) quando a conversão de ponto de vista da imagem de vista aérea (PBt, PBt-1) é realizada, e forma uma distribuição de frequência , gerando, assim, informação de forma de onda diferencial para a área de detecção de lado direito (A1) e para a área de detecção de lado esquerdo (A2), e detecta um controlador (39) que suprime, mantém ou promove a detecção do objeto tridimensional ou a avaliação de que o objeto tridimensional é outro veículo (VX), CARACTERIZADO pelo fato de que compreende ainda: uma unidade de determinação de área de luminância elevada (38) configurada para detectar como uma primeira área de detecção ou a área de detecção de lado direito (A1) ou a área de detecção de lado esquerdo (A2) incluindo uma área de luminância elevada (L) na qual pixels em ou acima de uma luminância predeterminada são incluídos em ou acima de uma densidade predeterminada, e para detectar como uma segunda área de detecção ou a área de detecção de lado direito (A1) ou a área de detecção de lado esquerdo (A2) não incluindo a referida área de luminância elevada (L), em que a unidade de detecção de objeto tridimensional (33, 37) é configurada para detectar um objeto tridimensional com base na informação de forma de onda diferencial e um primeiro valor limiar (α); e quando a primeira área de detecção é avaliada pela unidade de determinação de área de luminância elevada (38), o controlador (39) é configurado para emitir à unidade de detecção de objeto tridimensional (33, 37) um comando de controle para ajustar para cima o primeiro valor limiar (α) quando realizar o processamento da detecção de objeto tridimensional com base em uma informação de imagem correspondendo à primeira área de detecção, e ajustar para baixo ou manter no mesmo valor o primeiro valor limiar (α) quando realizar o processamento da detecção de objeto tridimensional com base na informação de imagem correspondente à segunda área de detecção de modo a tornar a detecção do objeto tridimensional na primeira área de detecção mais difícil do que a detecção do objeto tridimensional na segunda área de detecção.
2. Dispositivo de detecção de objeto tridimensional (1) compreendendo: uma unidade de captura de imagem (10) configurada para capturar uma imagem de uma área incluindo uma área de detecção do lado direito ou uma área de detecção do lado esquerdo para trás de um veículo; uma unidade de detecção de objeto tridimensional (33, 37) programada para detectar um objeto tridimensional com base em uma imagem adquirida pela unidade de captura de imagem (10); uma unidade de conversão de imagem (31) programada para realizar conversão de ponto de vista, para uma imagem de vista aérea (PBt, PBt-1), de uma imagem obtida pela unidade de captura de imagem (10); uma unidade de determinação de objeto tridimensional para determinar se um objeto tridimensional detectado pela unidade de detecção de objeto tridimensional (33) é outro veículo (VX); a unidade de detecção de objeto tridimensional (33) detectando, em uma imagem de vista aérea (PBt, PBt-1) obtida pela unidade de conversão de imagem (31), um componente de borda que inclui pixels nos quais uma diferença de luminância entre áreas de imagem mutuamente adjacentes é maior que ou igual a uma diferença predeterminada ao longo de uma direção de colapso do objeto tridimensional na área de detecção do lado direito (A1) e na área de detecção do lado esquerdo (A2) quando a conversão de ponto de vista da imagem de vista aérea (PBt, PBt-1) é realizada, e detectar um objeto tridimensional com base na informação de borda derivada do componente de borda; e um controlador (39) suprimindo, mantendo ou promovendo a detecção do objeto tridimensional ou a determinação de que o objeto tridimensional é outro veículo (VX), CARACTERIZADO pelo fato de que compreende ainda: uma unidade de determinação de área de luminância elevada (38) configurada para detectar como uma primeira área de detecção ou a área de detecção de lado direito (A1) ou a área de detecção de lado esquerdo (A2) incluindo uma área de luminância elevada (L) em que pixels em ou acima de uma luminância predeterminada são incluídos em ou sobre uma densidade predeterminada, e para detectar como uma segunda área de detecção ou a área de detecção de lado direito (A1) ou a área de detecção de lado esquerdo (A2) que não inclui a referida área de luminância elevada (L), em que a unidade de detecção de objeto tridimensional (33, 37) é configurada para detectar um objeto tridimensional com base na informação de borda e em um valor limiar (β); e quando a primeira área de detecção é determinada pela unidade de determinação de área de luminância elevada (38), o controlador (39) é configurado para emitir para a unidade de detecção de objeto tridimensional (37) um comando de controle para ajustar para cima o valor limiar (β) quando realizar o processamento da detecção de objeto tridimensional com base em informação de imagem correspondente à primeira área de detecção, e ajustar para baixo ou não alterar o valor limiar (β) quando realiza o processamento da detecção de objeto tridimensional com base em informação de imagem correspondente à segunda área de detecção de modo a tornar a detecção do objeto tridimensional na primeira área de detecção mais difícil que a detecção do objeto tridimensional na segunda área de detecção.
3. Dispositivo de detecção de objeto tridimensional (1), de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que a unidade de determinação de área de luminância elevada (38): adquire, a partir de um veículo (V), uma direção de deslocamento e uma localização de deslocamento do veículo (V); referencia uma correlação obtida pela associação de identificadores esquerdo e direito de uma primeira área de detecção prevista para incluir uma área de luminância elevada (L) em uma relação entre uma direção de deslocamento do veículo (V) e uma direção na qual o sol (SU) está presente; e determinar, referenciando a correlação de uma primeira área de detecção que inclui uma área de luminância elevada (L) dentro da área de detecção de lado direito (A1) ou da área de detecção de lado esquerdo (A2) com base em uma direção na qual o sol (SU) está presente na localização de deslocamento adquirida tal como determinada a partir da localização de deslocamento adquirida e informação de calendário (391) que associa a direção na qual o sol (SU) está presente nas localizações de deslocamento individuais e um ponto no tempo, e com base na direção de deslocamento na localização de deslocamento do veículo (V) detectada. 5. Dispositivo de detecção de objeto tridimensional (1), de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que: a correlação inclui uma primeira correlação para quando um objeto tridimensional não foi detectado pela unidade de detecção de objeto tridimensional (33, 37) e uma segunda correlação para quando um objeto tridimensional foi detectado pela unidade de detecção de objeto tridimensional (33, 37); e a unidade de determinação de área de luminância elevada (38) determina a primeira área de detecção referenciando a primeira correlação ao adquirir de um resultado de detecção que a unidade de detecção de objeto tridimensional (33, 37) não detectou um objeto tridimensional. e referencia a segunda correlação ao adquirir de um resultado de detecção que a unidade de detecção de objeto tridimensional (33, 37) detectou um objeto tridimensional.
4. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 3 ou 4, CARACTERIZADO pelo fato de que a unidade de determinação de área de luminância elevada (38) detecta uma localização de deslocamento e um ponto de tempo de deslocamento do veículo (V), referencia informação de calendário (391) que associa uma altura do sol (SU) em localizações individuais com um ponto no tempo, e referencia a correlação para determinar uma área de luminância elevada (L) quando a altura do sol (SU) na localização de deslocamento do veículo (V) detectada é menor que uma altura predeterminada.
5. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 3 ou 4, CARACTERIZADO pelo fato de que a unidade de determinação de área de luminância elevada (38) detecta uma localização de deslocamento e um ponto de tempo de deslocamento do veículo (V), referencia informação de calendário (391) que associa uma altura do sol (SU) em localizações individuais com um ponto no tempo, e referencia a correlação para determinar uma área de luminância elevada (L) quando a altura do sol (SU) na localização de deslocamento do veículo (V) detectada é menor que uma altura predeterminada.
6. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 1 ou com qualquer uma das reivindicações 3 a 5 quando dependentes da 1, CARACTERIZADO pelo fato de que, quando a primeira área de detecção foi determinada pela unidade de determinação da área de luminância elevada (38), o controlador (39) emite para a unidade de detecção de objeto tridimensional (33) um comando de controle para transmitir um valor ajustado para baixo obtido pela contagem do número de pixels indicando uma diferença predeterminada na imagem diferencial (PDt) da imagem de vista aérea (PBt, PBt-1) e formando a distribuição de frequência em um processo de detecção de objeto tridimensional com base na informações de imagem correspondendo à primeira área de detecção, e a emissão de um valor ajustado para cima, ou do mesmo valor, obtido pela contagem do número de pixels indicando uma diferença predeterminada em uma imagem diferencial (PDt) da imagem de vista aérea (PBt, PBt-1) e formando uma distribuição de frequência em um processo de detecção de objeto tridimensional com base em informação de imagem correspondendo à segunda área de detecção.
7. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 2 ou qualquer uma das reivindicações 3 a 5, quando dependentes da 2, CARACTERIZADO pelo fato de que, quando a primeira área de detecção é determinada pela unidade de determinação de área de luminância elevada (38), o controlador (39) é programado para emitir para a unidade de detecção de objeto tridimensional (37) um comando de controle para emitir uma quantidade ajustada para baixo de informação de borda detectada no processamento de detecção de objeto tridimensional com base em informação de imagem correspondente à primeira área de detecção, e uma quantidade ajustada para cima, ou a mesma, de informação de borda detectada no processamento de detecção de objeto tridimensional com base em informação de imagem que corresponde à segunda área de detecção.
8. Dispositivo de detecção de objeto tridimensional, de acordo com qualquer uma das reivindicações 1 a 7, CARACTERIZADO pelo fato de que o controlador (39) suprime a determinação de que o objeto tridimensional detectado é outro veículo (VX) com base em informação de imagem correspondente à área de luminância elevada (L) dentro da primeira área de detecção.
BR112015001861-0A 2012-07-27 2013-07-24 Dispositivo de detecção de objeto tridimensional BR112015001861B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012166516 2012-07-27
JP2012-166516 2012-07-27
PCT/JP2013/070010 WO2014017521A1 (ja) 2012-07-27 2013-07-24 立体物検出装置

Publications (2)

Publication Number Publication Date
BR112015001861A2 BR112015001861A2 (pt) 2019-12-31
BR112015001861B1 true BR112015001861B1 (pt) 2022-05-31

Family

ID=49997330

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015001861-0A BR112015001861B1 (pt) 2012-07-27 2013-07-24 Dispositivo de detecção de objeto tridimensional

Country Status (10)

Country Link
US (1) US9349059B2 (pt)
EP (1) EP2879115B1 (pt)
JP (1) JP5874831B2 (pt)
CN (1) CN104508728B (pt)
BR (1) BR112015001861B1 (pt)
IN (1) IN2015KN00339A (pt)
MX (1) MX341888B (pt)
MY (1) MY156198A (pt)
RU (1) RU2571367C1 (pt)
WO (1) WO2014017521A1 (pt)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101448411B1 (ko) * 2010-08-19 2014-10-07 닛산 지도우샤 가부시키가이샤 입체물 검출 장치 및 입체물 검출 방법
CN107206901B (zh) * 2015-02-20 2019-06-14 Jvc 建伍株式会社 车辆用显示装置
JP6631796B2 (ja) * 2016-05-31 2020-01-15 パナソニックIpマネジメント株式会社 移動物体検出装置、プログラムおよび記録媒体
WO2018179281A1 (ja) * 2017-03-30 2018-10-04 三菱電機株式会社 物体検出装置及び車両
JP6548312B2 (ja) * 2017-09-19 2019-07-24 株式会社Subaru 画像処理装置
CN110775049A (zh) * 2018-07-27 2020-02-11 上海汽车集团股份有限公司 一种泊车系统及泊车控制方法
JP7327992B2 (ja) 2019-05-10 2023-08-16 フォルシアクラリオン・エレクトロニクス株式会社 立体物検出装置、及び立体物検出方法
DE112019007916T5 (de) * 2019-11-28 2022-10-13 Mitsubishi Electric Corporation Objekterkennungsvorrichtung, Objekterkennungsverfahren und Objekterkennungsprogramm

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3522317B2 (ja) * 1993-12-27 2004-04-26 富士重工業株式会社 車輌用走行案内装置
US6891563B2 (en) * 1996-05-22 2005-05-10 Donnelly Corporation Vehicular vision system
DE60139236D1 (de) * 2000-05-12 2009-08-27 Toyota Jidoshokki Kariya Kk Hilfe beim rückwärtsfahren einen fahrzeugs
RU2370817C2 (ru) * 2004-07-29 2009-10-20 Самсунг Электроникс Ко., Лтд. Система и способ отслеживания объекта
JP4270183B2 (ja) * 2005-08-22 2009-05-27 トヨタ自動車株式会社 白線検出装置
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) * 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
EP3594853A3 (en) * 2007-05-03 2020-04-08 Sony Deutschland GmbH Method for detecting moving objects in a blind spot region of a vehicle and blind spot detection device
JP5108605B2 (ja) 2008-04-23 2012-12-26 三洋電機株式会社 運転支援システム及び車両
US8605947B2 (en) * 2008-04-24 2013-12-10 GM Global Technology Operations LLC Method for detecting a clear path of travel for a vehicle enhanced by object detection
US8208022B2 (en) * 2008-06-05 2012-06-26 Lg Electronics Inc. Apparatus and method for removing blooming of camera image
RU2388010C1 (ru) * 2008-08-28 2010-04-27 Государственное унитарное предприятие "Конструкторское бюро приборостроения" Система сопровождения подвижных объектов
JP4876118B2 (ja) 2008-12-08 2012-02-15 日立オートモティブシステムズ株式会社 立体物出現検知装置
JP5035284B2 (ja) * 2009-03-25 2012-09-26 株式会社日本自動車部品総合研究所 車両周辺表示装置
JP2010256995A (ja) 2009-04-21 2010-11-11 Daihatsu Motor Co Ltd 物体認識装置
EP2465092B1 (en) 2009-09-03 2015-02-11 Honda Motor Co., Ltd. Vehicle vicinity monitoring apparatus
JP4970516B2 (ja) * 2009-09-30 2012-07-11 日立オートモティブシステムズ株式会社 周囲確認支援装置
JP5035643B2 (ja) * 2010-03-18 2012-09-26 アイシン精機株式会社 画像表示装置
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
KR101448411B1 (ko) * 2010-08-19 2014-10-07 닛산 지도우샤 가부시키가이샤 입체물 검출 장치 및 입체물 검출 방법
JP5682304B2 (ja) * 2010-12-27 2015-03-11 トヨタ自動車株式会社 画像提供装置
JP5370413B2 (ja) * 2011-06-06 2013-12-18 株式会社デンソー 認識対象検出装置
JP5892876B2 (ja) * 2011-07-28 2016-03-23 クラリオン株式会社 車載用環境認識装置

Also Published As

Publication number Publication date
EP2879115B1 (en) 2018-09-05
BR112015001861A2 (pt) 2019-12-31
JP5874831B2 (ja) 2016-03-02
JPWO2014017521A1 (ja) 2016-07-11
MY156198A (en) 2016-01-20
MX341888B (es) 2016-09-07
CN104508728A (zh) 2015-04-08
WO2014017521A1 (ja) 2014-01-30
IN2015KN00339A (pt) 2015-07-10
EP2879115A4 (en) 2015-12-23
US20150125031A1 (en) 2015-05-07
EP2879115A1 (en) 2015-06-03
US9349059B2 (en) 2016-05-24
CN104508728B (zh) 2016-06-15
MX2015001230A (es) 2015-04-10
RU2571367C1 (ru) 2015-12-20

Similar Documents

Publication Publication Date Title
US11854272B2 (en) Hazard detection from a camera in a scene with moving shadows
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
BR112015001861B1 (pt) Dispositivo de detecção de objeto tridimensional
US9558546B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9569675B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9754172B2 (en) Three-dimenisional object detection device
US8737689B2 (en) Environment recognition device and environment recognition method
US8625850B2 (en) Environment recognition device and environment recognition method
US9135511B2 (en) Three-dimensional object detection device
US9117115B2 (en) Exterior environment recognition device and exterior environment recognition method
US9589193B2 (en) Three-dimensional object detection device and three-dimensional object detection method
US9189691B2 (en) Three-dimensional object detection device and three-dimensional object detection method
US9830519B2 (en) Three-dimensional object detection device
US9832444B2 (en) Three-dimensional object detection device

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B06A Patent application procedure suspended [chapter 6.1 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 24/07/2013, OBSERVADAS AS CONDICOES LEGAIS