BR112015001865B1 - Dispositivo de detecção de objetos tridimensionais - Google Patents

Dispositivo de detecção de objetos tridimensionais Download PDF

Info

Publication number
BR112015001865B1
BR112015001865B1 BR112015001865-3A BR112015001865A BR112015001865B1 BR 112015001865 B1 BR112015001865 B1 BR 112015001865B1 BR 112015001865 A BR112015001865 A BR 112015001865A BR 112015001865 B1 BR112015001865 B1 BR 112015001865B1
Authority
BR
Brazil
Prior art keywords
dimensional object
detection
vehicle
detection area
image
Prior art date
Application number
BR112015001865-3A
Other languages
English (en)
Other versions
BR112015001865A2 (pt
Inventor
Osamu Fukata
Yasuhisa Hayakawa
Original Assignee
Nissan Motor Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd. filed Critical Nissan Motor Co., Ltd.
Publication of BR112015001865A2 publication Critical patent/BR112015001865A2/pt
Publication of BR112015001865B1 publication Critical patent/BR112015001865B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30168Image quality inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

dispositivo de detecção de objetos tridimensionais, e método de detecção de objetos tridimensionais trata-se de um dispositivo de detecção de objetos tridimensionais dotado de: uma unidade de ajuste da área de detecção (41) para ajustar uma área de detecção tanto no lado direito como no lado esquerdo atrás do veículo; unidades de detecção de objetos tridimensionais (33, 37) para detectar um objeto tridimensional que esteja presente na área de detecção do lado direito (a1) ou na área de detecção do lado esquerdo (a2) atrás do veículo, com base nas informações de imagem provenientes de uma câmera (10) atrás do veículo; uma unidade de avaliação de objeto tridimensional (34) para determinar se o objeto tridimensional detectado é ou não outro veículo vx que esteja presente na área de detecção do lado direito (a1) ou na área de detecção do lado esquerdo (a2); em que a unidade de ajuste da área de detecção (41), quando um estado molhado da lente for detectado, troca a posição de uma primeira área de detecção, que é primeiramente ajustada como a área de detecção, de modo que essa área não inclua uma área de exibição de uma linha branca no lado de pista de direção de um veículo (v) dentre as linhas brancas nas pistas adjacentes, que são adjacentes à pista na qual o veículo v se desloca, e ajusta uma se-gunda área de detecção como as novas áreas de detecção (a1, a2).

Description

CAMPO TECNOLÓGICO
[001] A presente invenção refere-se a um dispositivo de detecção de objetos tridimensionais e a um método de detecção de objetos tridimensionais.
[002] O presente pedido reivindica o direito de prioridade baseado no Pedido de Patente Japonês No. 2012-166515 depositado em 27 de julho de 2012; nos estados designados que aceitem a incorporação de um documento a título de referência, estando os conteúdos descritos no pedido supracitado aqui incorporados a título de referência e considerados como parte da descrição do presente pedido.
FUNDAMENTOS TECNOLÓGICOS
[003] Em um dispositivo de detecção de obstáculos conhecido, as imagens capturadas dos arredores de um veículo são convertidas em uma vista em perspectiva aérea, e um obstáculo é detectado usando as diferenças entre as duas imagens de vista em perspectiva aérea convertidas capturadas em diferentes momentos (vide o Documento de Patente 1).
Documentos da Técnica Anterior Documentos de Patente
[004] Documento de Patente 1: Pedido de Patente Japonês Aberto à Inspeção Pública No. 2008-227646
REVELAÇÃO DA INVENÇÃO Problemas a serem solucionados pela invenção
[005] Ao detectar outro veículo deslocando-se em uma pista adjacente de uma pista de direção de um veículo hospedeiro como um obstáculo usando uma imagem que capturou a traseira do veículo, caso água se adira à lente e a lente estiver molhada, a imagem da linha branca, que consiste em um marcador de pista de direção na rodovia, ficará distorcida; portanto, há um problema no qual a imagem da linha branca distorcida será erroneamente identificada de modo indevido como uma imagem de outro veículo deslocando-se na pista adjacente.
[006] O problema a ser solucionado pela presente invenção consiste em proporcionar um dispositivo de detecção de objetos tridimensionais e um método de detecção de objetos tridimensionais que sejam capazes de detectar outro veículo deslocando-se em uma pista adjacente com um alto grau de precisão evitando-se uma detecção errônea de uma imagem de uma linha branca que seja capturada quando a lente estiver molhada como outro veículo que esteja deslocando-se em uma pista adjacente que seja adjacente à pista de direção de um veículo hospedeiro.
Meios usados para solucionar os problemas supramencionados
[007] Quando for feita uma determinação que a lente se encontra em um estado molhado, a presente invenção soluciona o problema trocando-se a posição de uma primeira área de detecção que é primeiramente ajustada como uma área de detecção, de modo que essa área não inclua uma área de exibição para um marcador de pista de direção no lado de pista de direção do veículo dos marcadores da pista de direção na pista adjacente, que seja adjacente à pista na qual o veículo está se deslocando, e ajustando-se uma segunda área de detecção.
EFEITO DA INVENÇÃO
[008] Quando for feita uma determinação que a lente se encontra em um estado molhado, a presente invenção troca a posição de uma primeira área de detecção que é primeiramente ajustada como a área de detecção, ao longo da direção de largura e ajusta uma segunda área de detecção na qual se remove uma área de exibição de um marcador de pista de direção no lado de pista de direção do veículo dentre os marcadores de pista de direção nas pistas adjacentes que sejam adjacentes à pista na qual o veículo se desloca; portanto, é possível evitar que o marcador de pista de direção na pista adjacente seja incluído na área de detecção; e é possível evitar que uma detecção errônea de um marcador de pista de direção distorcido seja capturada usando a lente úmida como outro veículo que esteja se deslocando em uma pista adjacente à pista de direção de um veículo hospedeiro. Como resultado, é possível proporcionar um dispositivo de detecção de objetos tridimensionais que detecte outro veículo deslocando-se em uma pista adjacente à pista de direção do veículo hospedeiro com um alto grau de precisão.
BREVE DESCRIÇÃO DOS DESENHOS
[009] A Figura 1 é uma visão geral esquemática de um veículo de acordo com uma modalidade à qual se aplica o dispositivo de detecção de objetos tridimensionais da presente invenção.
[010] A Figura 2 é uma vista em planta (detecção de objetos tridimensionais por informações de forma de onda diferencial) que ilustra o estado de direção do veículo na Figura 1.
[011] A Figura 3 é uma vista de bloco que ilustra os detalhes do computador na Figura 1.
[012] A Figura 4 é uma vista que mostra a visão geral do processamento da unidade de alinhamento na Figura 3. A Figura 4(a) é uma vista em planta que ilustra o estado de deslocamento do veículo, e a Figura 4(b) é uma imagem que ilustra uma visão geral do alinhamento.
[013] A Figura 5 é uma vista esquemática que ilustra a maneira na qual uma forma de onda diferencial é gerada pela unidade de detecção de objetos tridimensionais na Figura 3.
[014] A Figura 6 é uma vista que ilustra as áreas pequenas divididas pela unidade de detecção de objetos tridimensionais na Figura 3.
[015] A Figura 7 é uma vista que ilustra um exemplo do histograma obtido pela unidade de detecção de objetos tridimensionais na Figura 3.
[016] A Figura 8 é uma vista que ilustra a ponderação usada pela unidade de detecção de objetos tridimensionais na Figura 3.
[017] A Figura 9 é uma vista que ilustra a operação da unidade de detecção de truncamento na Figura 3, bem como a operação de cálculo para uma forma de onda diferencial obtida dessa forma.
[018] A Figura 10 é uma vista que ilustra outro exemplo do histograma obtido pela unidade de detecção de objetos tridimensionais na Figura 3.
[019] A Figura 11 é um fluxograma (primeiro) que ilustra o método de detecção de objetos tridimensionais usando as informações de forma de onda diferencial que são executadas pela unidade de conversão de ponto de vista, pela unidade de alinhamento, pela unidade de detecção de truncamento, e pela unidade de detecção de objetos tridimensionais na Figura 3.
[020] A Figura 12 é um fluxograma (segundo) que ilustra o método de detecção de objetos tridimensionais usando as informações de forma de onda diferencial que são executadas pela unidade de conversão de ponto de vista, pela unidade de alinhamento, pela unidade de detecção de truncamento, e pela unidade de detecção de objetos tridimensionais na Figura 3.
[021] A Figura 13 é uma vista que ilustra o estado de direção do veículo (detecção de objetos tridimensionais pelas informações de borda) na Figura 1. A Figura 13(a) é uma vista em planta que ilustra a relação posicional entre as áreas de detecção, e a Figura 13(b) é uma vista em perspectiva que ilustra a relação posicional entre as áreas de detecção no espaço real.
[022] A Figura 14 é uma vista que mostra a operação da unidade de cálculo de diferença de luminância na Figura 3. A Figura 14(a) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção, e o ponto de referência na imagem de vista em perspectiva aérea, e a Figura 14(b) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção, e o ponto de referência no espaço real.
[023] A Figura 15 é uma vista que mostra a operação detalhada da unidade de cálculo de diferença de luminância na Figura 3. A Figura 15(a) é uma vista que ilustra a área de detecção na imagem de vista em perspectiva aérea, e a Figura 15(b) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção, e o ponto de referência na imagem de vista em perspectiva aérea.
[024] A Figura 16 é uma vista que ilustra a linha de borda e a distribuição de luminância sobre a linha de borda. A Figura 16(a) é uma vista que ilustra a distribuição de luminância quando um objeto tridimensional (um veículo) estiver presente na área de detecção, e a Figura 16(b) é uma vista que ilustra a distribuição de luminân- cia quando um objeto tridimensional não estiver presente na área de detecção.
[025] A Figura 17 é um fluxograma (primeiro) que ilustra o método de detecção de objetos tridimensionais que usa as informações de borda que são executadas pela unidade de conversão de ponto de vista, pela unidade de cálculo de diferença de luminância, pela unidade de detecção de linha de borda, e a unidade de detecção de objetos tridimensionais na Figura 3.
[026] A Figura 18 é um fluxograma (segundo) que ilustra o método de detecção de objetos tridimensionais que usa as informações de borda que são executadas pela unidade de conversão de ponto de vista, pela unidade de cálculo de diferença de luminância, pela unidade de detecção de linha de borda, e pela unidade de detecção de objetos tridimensionais na Figura 3.
[027] A Figura 19 é uma vista que ilustra um exemplo de imagem que mostra uma operação de detecção de borda.
[028] A Figura 20 é uma vista que ilustra um exemplo de uma imagem capturada de uma câmera.
[029] A Figura 21 é uma vista que mostra as informações que são geradas no caso em que uma linha branca é distorcida.
[030] A Figura 22 é uma vista que ilustra um exemplo de uma primeira área de detecção padrão.
[031] A Figura 23 é uma vista que ilustra um primeiro exemplo de uma segunda área de detecção.
[032] A Figura 24 é uma vista que ilustra um segundo exemplo da segunda área de detecção.
[033] A Figura 25 é uma vista que ilustra um terceiro exemplo da segunda área de detecção.
[034] A Figura 26 é uma vista que ilustra um quarto exemplo da segunda área de detecção.
[035] A Figura 27 é uma vista que ilustra um exemplo da relação entre o grau de desalinhamento da área de detecção e o valor limiar usado para a detecção de um objeto tridimensional.
[036] A Figura 28 é um fluxograma de outro exemplo que ilustra o procedimento de controle do dispositivo de detecção de objetos tridimensionais da presente modalidade.
MODALIDADES PREFERENCIAIS DA INVENÇÃO
[037] A Figura 1 é uma visão geral esquemática de um veículo de acordo com uma modalidade à qual se aplica o dispositivo de detecção de objetos tridimensionais 1 da presente invenção; o dispositivo de detecção de objetos tridimensionais 1 da presente exemplo é um dispositivo que serve para detectar outro veículo, ao qual um motorista de um veículo hospedeiro V deve prestar atenção enquanto dirige, por exemplo, outro veículo onde o contato é possível quando o veículo hospedeiro V trocar de pistas, como um obstáculo. Em particular, o dispositivo de detecção de objetos tridimensionais 1 do presente exemplo detecta outro veículo que esteja se deslocando em uma pista adjacente à pista na qual o veículo hospedeiro está se deslocando (doravante denominada simplesmente como pista adjacente). Da mesma forma, o dispositivo de detecção de objetos tridimensionais 1 do presente exemplo é capaz de calcular a distância percorrida e a velocidade de deslocamento do outro veículo que é detectado. De modo correspondente, no exemplo descrito abaixo, ilustra-se um exemplo no qual o dispositivo de detecção de objetos tridimensionais 1 é montado a um veículo hospedeiro V, e dos objetos tridimensionais detectados nos arredores do veículo hospedeiro, detecta-se outro veículo que esteja se deslocando em uma pista adjacente à pista na qual o veículo hospedeiro está se deslocando. Conforme ilustrado no desenho, o dispositivo de detecção de objetos tridimensionais 1 do presente exemplo é dotado de uma câmera 10, um sensor de velocidade do veículo 20, um computador 30, um sensor de pingo de chuva 50, um limpador 60, um dispositivo de navegação 70 que compreende um dispositivo de comunicação 71 e um dispositivo de GPS 72, e um dispositivo de limpeza de lente 80.
[038] A câmera 10 é fixada ao veículo hospedeiro V de modo que o eixo geométrico óptico seja um ângulo θ descendente a partir do horizonte em um local em uma altura h na traseira do veículo hospedeiro V, conforme ilustrado na Figura 1. A partir dessa posição, a câmera 10 captura uma área predeterminada do ambiente circundante do veículo hospedeiro V. Existe uma câmera 1 que é proporcionada para detectar um objeto tridimensional na traseira do veículo hospedeiro V na presente modalidade, mas outras câmeras podem ser proporcionadas para outros propósitos, por exemplo, para obter uma imagem dos arredores do veículo. O sensor de velocidade do veículo 20 detecta a velocidade de direção do veículo hospedeiro V e calcula a velocidade do veículo a partir de uma velocidade de roda detectada, por exemplo, por um sensor de velocidade de roda para detectar a velocidade giratória de uma roda. O computador 30 detecta um objeto tridimensional na traseira do veículo e no presente exemplo, calcula a distância percorrida e a velocidade de deslocamento do objeto tridimensional. O sensor de pingo de chuva 50, o limpador 60, o dispositivo de navegação 70, e o dispositivo de limpeza de lente 80 detectam a pre- sença/ausência de pingos de chuva que tenham se aderido ao veículo hospedeiro V, a quantidade de pingos de chuva, a presença/ausência de líquido de limpeza que se aderiu à lente 11, e a quantidade de líquido de limpeza e envia os resultados de detecção a uma unidade de avaliação 38 mencionada abaixo. Cada dispositivo será descrito em detalhes abaixo.
[039] A Figura 2 é uma vista em planta que ilustra o estado de direção do veículo hospedeiro V na Figura 1. Conforme ilustrado no desenho, a câmera 10 captura o lado traseiro do veículo em um ângulo de visão predeterminado a. Nesse momento, o ângulo de visão a da câmera 10 é ajustado a um ângulo de visão que permite que as pistas esquerda e direita sejam capturadas alem da pista na qual o veículo hospedeiro V está se deslocando. As áreas que podem ser capturadas incluem as áreas de objeto de detecção A1, A2 nas pistas adjacentes à esquerda e à direita da pista de direção do veículo hospedeiro V na traseira do veículo hospedeiro V. A traseira do veículo na presente modalidade inclui não somente diretamente atrás do veículo, mas também as laterais do lado traseiro do veículo. A área traseira do veículo que é capturada é ajustada de acordo com o ângulo de visão da câmera 10. Como um exemplo, quando estiver diretamente atrás do veículo, supõe-se o ângulo longo da direção de comprimento do veículo como sendo igual zero grau, mas o mesmo pode ser ajustado para incluir uma área que tenha 0 grau a 90 graus, de preferência, 0 grau a 70 graus, ou similares, à esquerda e à direita da direção diretamente atrás.
[040] A Figura 3 é uma vista de bloco que ilustra os detalhes do computador 30 na Figura 1. A câmera 10, bem como o sensor de velocidade do veículo 20, o sensor de pingo de chuva 50, o limpador 60, o dispositivo de navegação 70, e o dispositivo de limpeza de lente 80, também são ilustrados na Figura 3 a fim de indicar distintamente as relações de conexão. O sensor de velocidade do veículo 20, o sensor de pingo de chuva 50, o limpador 60, o dispositivo de navegação 70, e o dispositivo de limpeza de lente 80 são montados a um veículo e podem enviar e receber informações para e a partir do computador 30 através de uma rede de comunicação a bordo, tal como uma CAN (Rede de Área de Controlador).
[041] Conforme ilustrado na Figura 3, o computador 30 é dotado de uma unidade de conversão de ponto de vista 31, uma unidade de alinhamento 32, uma unidade de detecção de objetos tridimensionais 33, uma unidade de avaliação de objeto tridimensional 34, uma unidade de avaliação do estado da lente 38, uma unidade de ajuste da área de detecção 41, um controlador 39, e uma unidade de detecção de truncamento 40. O computador 30 da presente modalidade é uma configuração relacionada a um bloco de detecção para um objeto tridimensional que utiliza informações de forma de onda diferencial. O computador 30 da presente modalidade também pode ter uma configuração relacionada a um bloco de detecção para um objeto tridimensional que utiliza as informações de borda. Nesse caso, a configuração pode ser de modo que, na configuração ilustrada na Figura 3, a configuração de bloco A, configurada pela unidade de alinhamento 32 e pela unidade de detecção de objetos tridimensionais 33, seja trocada pela configuração de bloco B, configurada pela unidade de cálculo de diferença de luminância 35 circundada pela linha pontilhada, pela unidade de detecção de linha de borda 36, e pela unidade de detecção de objetos tridimensionais 37. Naturalmente, a configuração pode ser de modo que tanto a configuração de bloco A como a configuração de bloco B sejam proporcionadas a fim de permitir a possibilidade de detectar objetos tridimensionais usando as informações de forma de onda diferencial, bem como detectar objetos tridimensionais usando as informações de borda. No caso onde a configuração de bloco A e a configuração de bloco B são proporcionadas, a configuração de bloco A ou a configuração de bloco B podem ser operadas de acordo com fatores ambientais, tal como brilho. Cada uma das configurações será descrita abaixo.
<<Detecção de um objeto tridimensional através do uso das informações de forma de onda diferencial>>
[042] O dispositivo de detecção de objetos tridimensionais 1 da presente modalidade detecta um objeto tridimensional que esteja presente em uma área de detecção A1 no lado direito pista adjacente ou uma área de detecção A2 na pista adjacente à esquerda na traseira do veículo, com base nas informações de imagem obtidas por uma câmera monocular que captura a traseira do veículo. A unidade de ajuste da área de detecção 41 ajusta as áreas de detecção A1, A2 tanto no lado direito como no lado esquerdo atrás do veículo hospedeiro V nas informações de imagem capturada e troca essas posições. As posições dessas áreas de detecção A2, A2 não são particularmente limitadas e podem ser apropriadamente ajustadas de acordo com as condições de processamento. Em particular, quando a unidade de avaliação do estado da lente 38 mencionada abaixo determinar que a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 da presente modalidade troca as posições das primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como as áreas de detecção A1, A2, de modo que não incluam uma área de exibição de uma linha branca no lado de pista de direção do veículo hospedeiro V dentre as linhas brancas na pista adjacente, que seja adjacente à pista na qual o veículo hospedeiro V se desloca, e ajusta as segundas áreas de detecção A12, A22 como as novas áreas de detecção A1, A2. O ajuste das novas segundas áreas de detecção A12, A22 será descrito em detalhes abaixo.
[043] A seguir, descreve-se a unidade de conversão de ponto de vista. Os dados de imagem capturada da área predeterminada obtida pela câmera 10 são inseridos na unidade de conversão de ponto de vista 31, e os dados de imagem capturada inseridos são convertidos em dados de imagem de vista em perspectiva aérea, que consiste em um estado de vista em perspectiva aérea. Um estado de vista em perspectiva aérea é um estado de visualização de um objeto a partir de um ponto de vista de uma câmera imaginária que esteja voltada para baixo por cima, em particular, verticalmente para baixo. A conversão de ponto de vista pode ser realizada da maneira descrita, por exemplo, no Pedido de Patente Japonesa Aberto à Inspeção Pública No. 2008-219063. A razão pela qual os dados de imagem capturada são convertidos em dados de imagem de vista em perspectiva aérea se baseia no princípio que as bordas perpendiculares exclusivas a um objeto tridimensional são convertidas em um grupo de linha reta que passa através de um ponto fixo específico pela conversão de ponto de vista em dados de imagem de vista em perspectiva aérea; usar esse princípio permite que um objeto plano e um objeto tridimensional sejam diferenciados. Os resultados do processo de conversão de imagem pelo objeto plano 31 também são usados na detecção de objetos planos pelas informações de borda, conforme descrito abaixo.
[044] Os dados de imagem de vista em perspectiva aérea obtidos pela conversão de ponto de vista, que é realizada pela unidade de conversão de ponto de vista 31, são sequencialmente inseridos na unidade de alinhamento 32, e as posições de entrada dos dados de imagem de vista em perspectiva aérea em diferentes momentos são alinhadas. A Figura 4 é uma vista que mostra a visão geral do processamento da unidade de alinhamento 32; a Figura 4(a) é uma vista em planta que ilustra o estado de deslocamento do veículo hospedeiro V, e a Figura 4(b) é uma imagem que ilustra uma visão geral do alinhamento.
[045] Conforme ilustrado na Figura 4(a), supõe-se que o veículo hospedeiro V no momento atual esteja posicionado em V1 e que o veículo hospedeiro V em um momento único anterior estava posicionado em V2. Supõe-se, também, que outro veículo VX esteja posicionado na traseira do veículo hospedeiro V e esteja se deslocando paralelamente ao veículo hospedeiro V, que o outro veículo VX mo momento atual esteja posicionado em V3, e que o outro veículo VX em um momento único anterior estava posicionado em V4. Da mesma forma, supõe-se que o veículo hospedeiro V se moveu a uma distância d em um momento único. A frase “em um momento único anterior” pode ser um momento no passado que seja um tempo ajusta- do antecipadamente (por exemplo, um ciclo de controle único) a partir do momento atual, ou pode ser um momento no passado que seja um tempo arbitrário.
[046] Nesse estado, uma imagem de vista em perspectiva aérea PBt no momento atual é ilustrada na Figura 4(b). As linhas brancas desenhadas sobre a superfície rodoviária são retangulares nessa imagem de vista em perspectiva aérea PBt e são relativamente precisos em uma vista plana, mas a posição do outro veículo VX na posição V3 é deformada. Adicionalmente, as linhas brancas desenhadas sobre a superfície rodoviária também são retangulares em uma imagem de vista em perspectiva aérea PBt em um momento único anterior e são relativamente precisas em uma vista plana, mas outro veículo VX na posição V4 é deformado. Conforme descrito previamente, as bordas perpendiculares de um objeto tridimensional (as bordas que permanecem eretas no espaço tridimensional a partir da superfície rodoviária também são incluídas em um significado estrito de borda perpendicular) aparecem como um grupo de linha reta ao longo de uma direção de deformação devido à operação para converter o ponto de vista em dados de imagem de vista em perspectiva aérea; no entanto, devido ao fato de uma imagem plana sobre a superfície rodoviária não incluir bordas perpendiculares, essa deformação não ocorre mesmo quando o ponto de vista tiver sido convertido.
[047] A unidade de alinhamento 32 alinha as imagens de vista em perspectiva aérea PBt e PBt-1, tais como aquelas descritas anteriormente, em termos de dados. Quando isso for realizado, a unidade de alinhamento 32 desloca a imagem de vista em perspectiva aérea PBt-1 em um momento único anterior e corresponde a posição com a imagem de vista em perspectiva aérea PBt no momento atual. A imagem à esquerda e a imagem central na Figura 4(b) ilustram o estado de deslocamento a uma distância de deslocamento d'. A quantidade de deslocamento d' é a quantidade de movimento nos dados de imagem de vista em perspectiva aérea que correspondem à distância de deslocamento real d do veículo hospedeiro V, conforme ilustrado na Figura 4(a), e é determinada com base em um sinal proveniente do sensor de velocidade do veículo 20 e no tempo em um momento único anterior ao momento atual.
[048] Após o alinhamento, a unidade de alinhamento 32 obtém a diferença entre as imagens de vista em perspectiva aérea PBt e PBt-1 e gera dados de imagem diferencial PDt. No presente documento, os valores de pixel da imagem diferencial PDt podem ser os valores absolutos da diferença nos valores de pixel das imagens de vista em perspectiva aérea PBt e PBt-1; alternativamente, podem ser ajustados para “1” quando o valor absoluto exceder um valor limiar predeterminado p e ajustado para “0” quando o mesmo não tiver sido excedido a fim de corresponder a uma variação no ambiente de iluminação. A imagem à direita na Figura 4 é a imagem diferencial PDt.
[049] Retornando-se à Figura 3, a unidade de detecção de objetos tridimensionais 33 detecta um objeto tridimensional com base nos dados de imagem diferencial PDt ilustrados na Figura 4(b). Nesse caso, a unidade de detecção de objetos tridimensionais 33 da presente exemplo calcula a distância de deslocamento do objeto tridimensional no estado real. A unidade de detecção de objetos tridimensionais 33 primeiramente gera uma primeira forma de onda diferencial quando o objeto tridimensional for detectado e quando a distância de deslocamento precisar ser calculada. A distância de deslocamento por unidade de tempo do objeto tridimensional é usada para calcular a velocidade de deslocamento do objeto tridimensional. A velocidade de deslocamento do objeto tridimensional pode ser usada para determinar se o objeto tridimensional é ou não um veículo.
[050] Na geração da forma de onda diferencial, a unidade de detecção de objetos tridimensionais 33 da presente modalidade ajusta uma área de detecção na imagem diferencial PDt. O dispositivo de detecção de objetos tridimensionais 1 da presente exemplo detecta outro veículo ao qual um motorista do veículo hospedeiro V presta atenção e, em particular, outro veículo deslocando-se em uma pista adjacente à pista na qual o veículo hospedeiro V se desloca quando um contato for possível se o veículo hospedeiro V mudar de pistas, como um objeto a ser detectado. De modo correspondente, no presente exemplo, no qual os objetos tridimensionais são detectados com base nas informações de imagem, duas áreas de detecção ao lado direito e ao lado esquerdo do veículo hospedeiro V são ajustadas nas imagens obtidas a partir da câmera 1. De modo específico, na presente modalidade, as áreas de detecção retangulares A1, A2 são ajustadas no esquerdo e no lado direito na traseira do veículo hospedeiro V, conforme ilustrado na Figura 2. Outro veículo que é detectado nessas áreas de detecção A1, A2 é detectado como um obstáculo que está se deslocando em uma pista adjacente à pista na qual o veículo hospedeiro V está se deslocando. Essas áreas de detecção A1, A2 podem ser ajustadas a partir de uma posição relativa ao veículo hospedeiro V, ou podem ser ajustadas com base na posição das linhas brancas. Quando ajustado com base na posição das linhas brancas, o dispositivo de detecção de objetos tridimensionais 1 pode usar, por exemplo, técnicas de reconhecimento de linha branca.
[051] A unidade de detecção de objetos tridimensionais 33 reconhece como linhas de solo L1, L2 (Figura 2) os limites das áreas de detecção A1, A2 ajustados no lado do veículo hospedeiro V (o lado na linha com a direção de condução). Em geral, uma linha de solo se refere a uma linha na qual um objeto tridimensional está em contato com o solo; no entanto, na presente modalidade, uma linha de solo não é uma linha em contato com o solo, mas é preferencialmente ajustada da maneira descrita anteriormente. Mesmo nesse caso, a diferença entre a linha de solo de acordo com a presente modalidade e a linha de solo normal determinada a partir da posição do outro veículo VX não é consideravelmente grande conforme determinado por experiência, e realmente não há problema.
[052] A Figura 5 é uma vista esquemática que ilustra a maneira na qual uma forma de onda diferencial é gerada pela unidade de detecção de objetos tridimensi-onais 33 ilustrada na Figura 3. Conforme ilustrado na Figura 5, a unidade de detecção de objetos tridimensionais 33 gera uma forma de onda diferencial DWt a partir da porção que corresponde às áreas de detecção A1, A2 na imagem diferencial PDt (o desenho à direita na Figura 4(b)) calculada pela unidade de alinhamento 32. Nesse caso, a unidade de detecção de objetos tridimensionais 33 gera uma forma de onda diferencial DWt ao longo da direção de deformação do objeto tridimensional por conversão de ponto de vista. No exemplo ilustrado na Figura 5, somente a área de detecção A1 será mostrada por motivos de conveniência, mas a forma de onda diferencial DWt também é gerada para a área de detecção A2 usando o mesmo pro-cedimento.
[053] De modo mais específico, a unidade de detecção de objetos tridimensionais 33 define uma linha La na direção de deformação do objeto tridimensional nos dados para a imagem diferencial DWt. Então, a unidade de detecção de objetos tridimensionais 33 conta o número de pixels de diferença DP indicando uma diferença predeterminada na linha La. No presente documento, o pixel de diferença DP que indica uma diferença predeterminada é um pixel que excede um valor limiar predeterminado no caso onde o valor de pixel da imagem diferencial DWt é o valor absoluto da diferença nos valores de pixel das imagens de vista em perspectiva aérea PBt, PBt-1; o pixel de diferença é um pixel que indica “1” no caso onde o valor de pixel da imagem diferencial DWt é expressado por “0” ou “1.”
[054] A unidade de detecção de objetos tridimensionais 33 conta o número de pixels de diferença DP e, posteriormente, determine o ponto de cruzamento CP da linha La e da linha de solo L1. Então, a unidade de detecção de objetos tridimensionais 33 correlaciona o ponto de cruzamento CP e o número de contagem, decide a posição de eixo geométrico horizontal, em particular, a posição no eixo geométrico na direção vertical no desenho à direita na Figura 5, com base na posição do ponto de cruzamento CP; então, a unidade de detecção de objetos tridimensionais decide a posição de eixo geométrico vertical, em particular, a posição no eixo geométrico na direção lateral no desenho à direita na Figura 5, a partir do número de contagem e representa graficamente as posições como o número de contagem no ponto de cruzamento CP.
[055] De modo similar, a unidade de detecção de objetos tridimensionais 33 define as linhas Lb, Lc, ... na direção na qual o objeto tridimensional se deforma, conta o número de pixels de diferença DP, decide a posição de eixo geométrico horizontal com base na posição de cada ponto de cruzamento CP, decide a posição de eixo geométrico vertical a partir do número de contagem (o número de pixels de diferença DP), e representa graficamente as posições. A unidade de detecção de objetos tridimensionais 33 repete o que foi dito anteriormente em sequência para formar uma distribuição de frequência, gerando, assim uma forma de onda diferencial DWt, conforme ilustrado no desenho à direita na Figura 5.
[056] As linhas La e Lb na direção na qual o objeto tridimensional se deforma têm diferentes distâncias que sobrepõem a área de detecção A1, conforme ilustrado mo desenho à esquerda na Figura 5. De modo correspondente, o número de pixels de diferença DP é maior na linha La do que na linha Lb quando for suporto que a área de detecção A1 é preenchida com os pixels de diferença DP. Por essa razão, a unidade de detecção de objetos tridimensionais 33 realiza uma normalização com base na distância que as linhas La, Lb na direção na qual o objeto tridimensional se deforma e a área de detecção A1 se sobrepõe quando a posição de eixo geométrico vertical for determinada a partir do número de contagem dos pixels de diferença DP. Em um exemplo específico, existem seis pixels de diferença DP na linha La, e cinco pixels de diferença DP na linha Lb no desenho à esquerda na Figura 5. De modo correspondente, quando a posição de eixo geométrico vertical for determinada a partir do número de contagem na Figura 5, a unidade de detecção de objetos tridimen- sionais 33 divide o número de contagem pela distância de sobreposição ou realiza uma normalização de outra maneira. Os valores da forma de onda diferencial DWt que correspondem às linhas La, Lb na direção na qual o objeto tridimensional se deforma são induzidos a se tornarem substancialmente iguais, conforme ilustrado na forma de onda diferencial DWt.
[057] Após a forma de onda diferencial DWt ter sido gerada, a unidade de detecção de objetos tridimensionais 33 calcula a distância de deslocamento por uma comparação com a forma de onda diferencial DWt-1 em um momento único anterior. Em outras palavras, a unidade de detecção de objetos tridimensionais 33 calcula a distância de deslocamento a partir da troca em tempo das formas de onda diferenciais DWt, DWt-1.
[058] De modo mais específico, a unidade de detecção de objetos tridimensionais 33 divide a forma de onda diferencial DWt em uma pluralidade de áreas pequenas DWt1 a DWtn (onde n é um número inteiro arbitrário igual a 2 ou maior), conforme ilustrado na Figura 6. A Figura 6 é uma vista que ilustra as áreas pequenas DWt1 a DWtn divididas pela unidade de detecção de objetos tridimensionais 33. As áreas pequenas DWt1 a DWtn são divididas de modo que se sobreponham mutuamente, conforme ilustrado, por exemplo, na Figura 6. Por exemplo, a área pequena DWt1 e a área pequena DWt2 se sobrepõem entre si, e a área pequena DWt2 e a área pequena DWt3 se sobrepõem entre si.
[059] A seguir, a unidade de detecção de objetos tridimensionais 33 determina a quantidade de deslocamento (a quantidade de movimento na direção de eixo geométrico horizontal (a direção vertical na Figura 6) da forma de onda diferencial) para cada uma das áreas pequenas DWt1 a DWtn. No presente documento, a quantidade de deslocamento é determinada a partir da diferença (a distância na direção de eixo geométrico horizontal) entre a forma de onda diferencial DWt-1 em um momento único anterior e a forma de onda diferencial DWt no momento atual. Nesse caso, a unidade de detecção de objetos tridimensionais 33 move a forma de onda diferencial DWt-1 em um momento único anterior na direção de eixo geométrico horizontal para cada uma das áreas pequenas DWt1 a DWtn, e, então, avalia a posição (a posição na direção de eixo geométrico horizontal) na qual o erro a partir da forma de onda diferencial DWt no momento atual se encontra em seu valor mínimo; então, a unidade de detecção de objetos tridimensionais determina como a quantidade de deslocamento a quantidade de movimento na direção de eixo geométrico horizontal na posição onde o erro a partir da posição original da forma de onda diferencial DWt- 1 se encontra em seu valor mínimo. A seguir, a unidade de detecção de objetos tridimensionais 33 conta a quantidade de deslocamento determinada para cada uma das áreas pequenas DWt1 a DWtn e forma um histograma.
[060] A Figura 7 é uma vista que ilustra um exemplo do histograma obtido pela unidade de detecção de objetos tridimensionais 33. Conforme ilustrado na Figura 7, certo grau de variabilidade ocorre na quantidade de deslocamento, que é a quantidade de movimento na qual o erro entre as áreas pequenas DWt1 a DWtn e a forma de onda diferencial DWt-1 em um momento único anterior se encontra em um valor mínimo. De modo correspondente, a unidade de detecção de objetos tridimensionais 33 forma a quantidade de deslocamentos, incluindo a variabilidade, em um histograma e calcula a distância de deslocamento a partir do histograma. Nesse ponto, a unidade de detecção de objetos tridimensionais 33 calcula a distância de deslo-camento do objeto tridimensional a partir do valor máximo no histograma. Em outras palavras, no exemplo ilustrado na Figura 7, a unidade de detecção de objetos tridimensionais 33 calcula a quantidade de deslocamento indicando o valor máximo do histograma como a distância de deslocamento T*. A distância de deslocamento T* é a distância de deslocamento relativa do outro veículo VX em relação ao veículo hospedeiro V. De modo correspondente, a unidade de detecção de objetos tridimensionais 33 calcula a distância de deslocamento absoluta com base na distância de des- locamento T* obtida e um sinal proveniente do sensor de velocidade do veículo 20 quando a distância de deslocamento absoluta precisar ser calculada.
[061] Quando um histograma precisar ser formado, a unidade de detecção de objetos tridimensionais 33 pode ponderar a pluralidade de áreas pequenas DWt1 a DWtn e contar a quantidade de deslocamentos determinada para cada uma das áreas pequenas DWt1 a DWtn de acordo com a ponderação para formar um histograma. A Figura 8 é uma vista que ilustra a ponderação usada pela unidade de detecção de objetos tridimensionais 33.
[062] Conforme ilustrado na Figura 8, uma área pequena DWm (onde m é um número inteiro igual a 1 ou maior, e n é - 1 ou menor) é lisa. Em outras palavras, na área pequena DWm, há uma pequena diferença entre os valores máximo e mínimo da contagem do número de pixels indicando uma diferença predeterminada. A unidade de detecção de objetos tridimensionais 33 reduz a ponderação desse tipo de área pequena DWm. Isso porque a área pequena lisa DWm é desprovida de uma característica e porque há uma grande possibilidade que um erro seja ampliado quando a quantidade de deslocamento for calculada.
[063] Por outro lado, uma área pequena DWm+k (onde k é um número inteiro igual a n - m ou menor) tem ondulações abundantes. Em outras palavras, na área pequena DWm, há uma diferença considerável entre os valores máximo e mínimo da contagem do número de pixels indicando uma diferença predeterminada. A unidade de detecção de objetos tridimensionais 33 reduz a ponderação desse tipo de área pequena DWm. Isso porque a área pequena DWm+k que tem ondulações abundantes é característica e porque há uma grande possibilidade que a quantidade de deslocamento seja precisamente calculada. A ponderação das áreas pequenas dessa maneira facilita a acentuação da precisão do cálculo da distância de deslocamento.
[064] A primeira forma de onda diferencial DWt é dividida em uma pluralidade de áreas pequenas DWt1 a DWtn na presente modalidade a fim de acentuar a preci são do cálculo da distância de deslocamento, mas essa divisão em áreas pequenas DWt1 a DWtn não é requerida quando um cálculo preciso da distância de deslocamento não for necessário. Nesse caso, a unidade de detecção de objetos tridimensionais 33 calcula a distância de deslocamento a partir da quantidade de deslocamento da forma de onda diferencial DWt quando o erro entre a forma de onda diferencial DWt e a forma de onda diferencial DWt-1 se encontrar em um valor mínimo. Em outras palavras, o método para determinar a quantidade de deslocamento entre a forma de onda diferencial DWt-1 em um momento único anterior e a forma de onda diferencial DWt no momento atual não é limitado aos detalhes descritos anteriormente.
[065] Retornando-se à Figura 3, o computador 30 é dotado de uma unidade de detecção de truncamento 40. A unidade de detecção de truncamento 40 detecta as áreas geradas por truncamento a partir dos dados de imagem capturada capturados pela câmera 10. Visto que um truncamento é um fenômeno de auréola que ocorre em um sensor de imagem CCD, ou similares, a unidade de detecção de truncamento 40 pode ser omitida ao usar uma câmera 10 que usa um sensor de imagem CMOS, ou similares, que não gera esses truncamentos.
[066] A Figura 9 é uma vista de imagem que mostra o processamento da unidade de detecção de truncamento na Figura 3, bem como a operação de cálculo para a forma de onda diferencial DWt. Primeiramente, supõe-se que os dados de imagem capturada P, nos quais um truncamento S está presente, sejam inseridos na unidade de detecção de truncamento 40. Nesse momento, a unidade de detecção de truncamento 40 detecta o truncamento S a partir da imagem capturada P. Existem vários métodos para detectar truncamentos S, mas, por exemplo, no caso de uma câmera CCD (Dispositivo Acoplado à Carga), truncamentos S ocorrem somente abaixo da fonte de luz na imagem. De modo correspondente, na presente modalidade, uma região que tem um valor de a luminância de um valor predeterminado, ou maior, a partir do lado inferior da imagem em direção ao topo da imagem e que seja contínua na direção vertical é buscada e especificada como a área gerada por truncamento S.
[067] A unidade de detecção de truncamento 40 também gera dados de imagem de truncamento SP, nos quais os valores de pixel para o local gerado por truncamento S são ajustados para “1” e os outros locais são ajustados para “0.” Após a geração, a unidade de detecção de truncamento 40 transmite os dados de imagem de truncamento SP à unidade de conversão de ponto de vista 31. A unidade de conversão de ponto de vista 31, à qual os dados de imagem de truncamento SP foram inseridos, converte os dados em um estado de vista em perspectiva aérea. A unidade de conversão de ponto de vista 31 gera dados de imagem de truncamento de vista em perspectiva aérea SBt. Após a geração, a unidade de conversão de ponto de vista 31 transmite os dados de imagem de truncamento de vista em perspectiva aérea SBt à unidade de alinhamento 33. Além disso, a unidade de conversão de ponto de vista 31 transmite os dados de imagem de truncamento de vista em perspectiva aérea SBt-1 em um momento único anterior à unidade de alinhamento 33.
[068] A unidade de alinhamento 32 alinha as imagens de truncamento de vista em perspectiva aérea SBt e SBt-1 em termos de dados. As especificações do alinhamento são as mesmas quando se alinham imagens de vista em perspectiva aérea PBt e PBt-1 em termos de dados. Após o alinhamento, a unidade de alinhamento 32 adota a soma lógica das áreas geradas por truncamento S em cada uma das imagens de truncamento de vista em perspectiva aérea SBt e SBt-1. Desse modo, a unidade de conversão de ponto de vista 32 gera dados de imagem de máscara MP. Após a geração, a unidade de alinhamento 32 transmite os dados de imagem de máscara MP à unidade de detecção de objetos tridimensionais 33.
[069] A unidade de detecção de objetos tridimensionais 33 zera o número de contagem da distribuição de frequência para os locais que correspondem à área gerada por truncamento S dentro da imagem de máscara MP. Em outras palavras, quando uma forma de onda diferencial DWt, tal como aquela ilustrada na Figura 9, tiver sido gerada, a unidade de detecção de objetos tridimensionais 33 zera o número de contagem SC pelo truncamento S e gera uma forma de onda diferencial correta DWt'.
[070] A unidade de detecção de objetos tridimensionais 33 na presente modalidade determina a velocidade de deslocamento do veículo hospedeiro V (câmera 10) e determina a quantidade de deslocamento para um objeto estacionário a partir da velocidade de deslocamento determinada. Após a quantidade de deslocamento do objeto estacionário tiver sido de terminada, a unidade de detecção de objetos tridimensionais 33 ignora a quantidade de deslocamento que corresponde ao objeto estacionário dentro do valor máximo do histograma e calcula a distância de deslocamento do objeto tridimensional.
[071] A Figura 10 é uma vista que ilustra outro exemplo do histograma obtido pela unidade de detecção de objetos tridimensionais 33. Quando um objeto estacionário diferente de outro veículo VX estiver presente dentro do ângulo de visão da câmera 10, dois valores máximos T1, T2 aparecem no histograma resultante. Nesse caso, um dos valores máximos T1, T2 é a quantidade de deslocamento do objeto estacionário. Consequentemente, a unidade de detecção de objetos tridimensionais 33 determina a quantidade de deslocamento para o objeto estacionário a partir da velocidade de deslocamento, ignora o valor máximo que corresponde à quantidade de deslocamento, e calcula a distância de deslocamento do objeto tridimensional usando o valor máximo restante.
[072] Mesmo quando a quantidade de deslocamento correspondente ao objeto estacionário for ignorada, pode existir uma pluralidade de outros veículos VX presentes dentro do ângulo de visão da câmera 10 quando existir uma pluralidade de valores máximos. No entanto, uma pluralidade de outros veículos VX presentes dentro das áreas de detecção A1, A2 ocorre muito raramente. De modo correspon- dente, a unidade de detecção de objetos tridimensionais 33 interrompe o cálculo da distância de deslocamento.
[073] A seguir, descreve-se o procedimento de detectar um objeto tridimensional com as informações de forma de onda diferencial. A Figura 11 e a Figura 12 são fluxogramas que ilustram o procedimento de detectar um objeto tridimensional de acordo com a presente modalidade. Conforme ilustrado na Figura 11, primeiramente, na Etapa S0, o computador 30 ajusta a área de detecção com base em uma regra predeterminada. O método para ajustar essa área de detecção será descrito em detalhes abaixo. Então, os dados da imagem capturada P a partir da câmera 10 são inseridos no computador 30, e uma imagem de truncamento SP é gerada pela unidade de detecção de truncamento 40 (S1). A seguir, a unidade de conversão de ponto de vista 31 gera os dados de imagem de vista em perspectiva aérea PBt a partir dos dados da imagem capturada P a partir da câmera 10 e gera os dados de imagem de truncamento de vista em perspectiva aérea SBt a partir dos dados de imagem de truncamento SP.
[074] Então, a unidade de alinhamento 33 alinha os dados de imagem de vista em perspectiva aérea PBt e os dados de imagem de vista em perspectiva aérea PBt-1 em um momento único anterior e alinha os dados de imagem de truncamento de vista em perspectiva aérea SBt e os dados de imagem de truncamento de vista em perspectiva aérea SBt-1 em um momento único anterior (S3). Após esse alinhamento, a unidade de alinhamento 33 gera dados de imagem diferencial PDt e dados de imagem de máscara MP (S4). Então, a unidade de detecção de objetos tridimensionais 33 gera uma forma de onda diferencial DWt a partir dos dados de imagem diferencial PDt e de dados de imagem diferencial PDt-1 em um momento único anterior (S5). Após gerar a forma de onda diferencial DWt, a unidade de detecção de ob-jetos tridimensionais 33 zera o número de contagem que corresponde à área gerada por truncamento S dentro da forma de onda diferencial DWt e suprime o impacto do truncamento S (S6).
[075] Então, a unidade de detecção de objetos tridimensionais 33 determina se o pico da forma de onda diferencial DWt se encontra ou não em um primeiro valor limiar α ou maior (S7). Quando o pico da forma de onda diferencial DWt não se encontra no primeiro valor limiar α ou maior, em particular, quando essencialmente não existir diferença, imagina-se que um objeto tridimensional não esteja presente na imagem capturada P. De modo correspondente, quando for feita uma determinação que o pico da forma de onda diferencial DWt não se encontra no valor limiar α ou maior (S7: Não), a unidade de detecção de objetos tridimensionais 33 determina que um objeto tridimensional não está presente e que outro veículo como um obstáculo não está presente (Figura 12: S16). Então, a operação ilustrada na Figura 11 e na Figura 12 termina.
[076] Por outro lado, quando o pico da forma de onda diferencial DWt for de-terminado como estando em um valor limiar α ou maior (S7: Sim), a unidade de detecção de objetos tridimensionais 33 determina que um objeto tridimensional está presente e divide a forma de onda diferencial DWt em uma pluralidade de áreas pequenas DWt1 a DWtn (S8). A seguir, a unidade de detecção de objetos tridimensionais 33 pondera cada uma das áreas pequenas DWt1 a DWtn (S9). Então, a unidade de detecção de objetos tridimensionais 33 calcula a quantidade de deslocamento para cada uma das áreas pequenas DWt1 a DWtn (S10) e gera um histograma considerando-se os pesos (S11).
[077] Então, a unidade de detecção de objetos tridimensionais 33 calcula a distância de deslocamento relativa, que é a distância de deslocamento do objeto tridimensional em relação ao veículo hospedeiro V, com base no histograma (S12). A seguir, a unidade de detecção de objetos tridimensionais 33 calcula a velocidade de deslocamento absoluta do objeto tridimensional a partir da distância de deslocamento relativa (S13). Nesse momento, a unidade de detecção de objetos tridimensionais 33 diferencia por tempo a distância de deslocamento relativa para, desse modo, calcular a velocidade de deslocamento relativa, adiciona a velocidade do veículo hospedeiro detectada pelo sensor de velocidade do veículo 20, e calcula a velocidade de deslocamento relativa.
[078] Então, a unidade de detecção de objetos tridimensionais 33 determina se a velocidade de deslocamento absoluta do objeto tridimensional e de 10 km/h ou maior e se a velocidade de deslocamento relativa do objeto tridimensional em relação ao veículo hospedeiro V é de +60 km/h ou menor (S14). Quando ambas as condições tiverem sido satisfeitas (S14: Sim), a unidade de detecção de objetos tridimensionais 33 determina que o objeto tridimensional é outro veículo VX (S15). Então, a operação ilustrada na Figura 11 e na Figura 12 termina. Por outro lado, quando uma das condições não tiver sido satisfeita (S14: Não), a unidade de detecção de objetos tridimensionais 33 determina que outro veículo não está presente (S16). Então, a operação ilustrada na Figura 11 e na Figura 12 termina.
[079] Na presente modalidade, as áreas de detecção A1, A2 são as direções laterais traseiras do veículo hospedeiro V, e foca-se na detecção de outro veículo VX que esteja se deslocando em uma pista adjacente à pista de direção do veículo hospedeiro, à qual o veículo hospedeiro V deve prestar atenção enquanto se desloca; em particular, deve-se prestar atenção se o veículo hospedeiro V pode possivelmente fazer contato com outro veículo se uma mudança de pista for feita. Isso serve para determinar se o veículo hospedeiro V pode possivelmente fazer contato com outro veículo VX que esteja se deslocando em uma pista adjacente à pista de direção do veículo hospedeiro quando uma mudança de pista for feita. De modo correspondente, a operação da Etapa S14 é implantada. Em outras palavras, supondo-se que o sistema na presente modalidade é ativado em uma autoestrada, quando a velocidade de um objeto tridimensional for menor que 10 km/h, raramente haveria um problema mesmo se outro veículo VX estivesse presente porque o outro veículo estaria posicionado muito atrás do veículo hospedeiro V quando uma mudança de pista for feita. De modo similar, quando a velocidade de deslocamento relativa de um objeto tridimensional exceder +60 km/h em relação ao veículo hospedeiro V (em particular, quando o objeto tridimensional estiver se movendo a uma velocidade de 60 km/h maior que a velocidade do veículo hospedeiro V), raramente haveria um problema porque o objeto tridimensional estaria posicionado a frente do veículo hospedeiro V quando uma mudança de pista for feita. De modo correspondente, a Etapa S14 determina se outro veículo VX pode impor um problema quando uma mudança de pista for feita.
[080] Na Etapa S14, realiza-se uma determinação referente a se a velocidade de deslocamento absoluta do objeto tridimensional é de 10 km/h ou maior e se a velocidade de deslocamento relativa do objeto tridimensional em relação ao veículo hospedeiro V é de +60 km/h ou menor, obtendo, assim, o efeito a seguir. Por exemplo, um caso possível é que a velocidade de deslocamento absoluta de um objeto estacionário é detectada como sendo de vários quilômetros por hora dependendo, mediante um erro de fixação da câmera 10. De modo correspondente, determinar se a velocidade é de 10 km/h ou maior facilita a redução da possibilidade que o objeto estacionário seja determinada como sendo outro veículo VX. Da mesma forma, existe uma possibilidade que a velocidade relativa de um objeto tridimensional em relação ao veículo hospedeiro V seja detectada como sendo superior a +60 km/h devido ao ruído. De modo correspondente, determinar se a velocidade relativa é de +60 km/h ou menor facilita a redução da possibilidade de uma detecção errônea devido a ruído.
[081] Adicionalmente, ao invés do processo da Etapa S14, pode-se fazer uma determinação quanto a se a velocidade de deslocamento absoluta não é negativa nem igual a 0 km/h. Além disso, na presente modalidade, visto que se presta atenção se o veículo hospedeiro V pode possivelmente fazer contato com outro veí- culo quando uma mudança de pista for feita, um som de alerta pode ser emitido ao motorista do veículo hospedeiro ou uma advertência correspondente pode ser exibida quando outro veículo VX for detectado na Etapa S15.
[082] Dessa maneira, de acordo com o procedimento para detectar um objeto tridimensional por informações de forma de onda diferencial do presente exemplo, o número de pixels que indica uma diferença predeterminada nos dados de imagem diferencial PDt é contado ao longo da direção na qual o objeto tridimensional se deforma devido à conversão de ponto de vista, e uma distribuição de frequência é formada para, desse modo, gerar uma forma de onda diferencial DWt. No presente documento, os pixels que indicam uma diferença predeterminada nos dados de imagem diferencial PDt são pixels que mudaram na imagem em diferentes momentos; em outras palavras, esses são os locais que podem ser construídos onde um objeto tridimensional estava presente. De modo correspondente, nos locais onde um objeto tridimensional estava presente, o número de pixels é contado ao longo da direção na qual o objeto tridimensional se deforma para formar uma distribuição de frequência, gerando, assim, uma forma de onda diferencial DWt. Em particular, o número de pixels é contado ao longo da direção na qual o objeto tridimensional se deforma, e, portanto, uma forma de onda diferencial DWt é gerada a partir das informações sobre a direção de altura em relação ao objeto tridimensional. Então, a distância de deslocamento do objeto tridimensional é calculada a partir da mudança em tempo da forma de onda diferencial DWt, que inclui as informações de direção de altura. Consequentemente, em contraste ao foco sendo dado somente ao movimento de um único ponto, o local de detecção antes da mudança em tempo e o local de detecção após a mudança em tempo são especificados pelas informações de direção de altura incluídas e, de modo correspondente, prontamente estando no mesmo local que um objeto tridimensional; portanto, a distância de deslocamento é calculada com base na mudança em tempo no mesmo local, e a precisão do cálculo da distância de deslocamento pode ser aperfeiçoado.
[083] Além disso, o número de contagem da distribuição de frequência para os locais que correspondem a uma área gerada por truncamento S dentro da forma de onda diferencial DWt é zerado. As porções de forma de onda dentro da forma de onda diferencial DWt que são geradas devido ao truncamento S são removidas, facilitando, assim, a prevenção de uma situação na qual um truncamento S é identificado indevidamente como um objeto tridimensional.
[084] Além disso, a distância de deslocamento do objeto tridimensional é calculada a partir da quantidade de deslocamento da forma de onda diferencial DWt quando o erro entre as formas de onda diferenciais DWt, que são geradas em diferentes momentos, se encontrar em um valor mínimo. De modo correspondente, isso permite que a distância de deslocamento seja calculada a partir da quantidade de deslocamento, que consiste em informações sobre uma dimensão em uma forma de onda, permitindo que os custos com computação sejam mantidos baixos quando a distância de deslocamento for calculada.
[085] Além disso, as formas de onda diferenciais DWt que são geradas em diferentes momentos são divididas em uma pluralidade de áreas pequenas DWt1 a DWtn. Uma pluralidade de formas de onda que representam cada local do objeto tridimensional é obtida dividindo-se as formas de onda diferenciais em uma pluralidade de áreas pequenas DWt1 a DWtn dessa maneira. Além disso, as quantidades de deslocamento são determinadas quando o erro entre cada forma de onda se encontrar em um valor mínimo para cada uma das áreas pequenas DWt1 a DWtn, e as quantidades de deslocamento que são determinadas para cada uma das áreas pequenas DWt1 a DWtn são contadas para formar um histograma, calculando, assim, a distância de deslocamento do objeto tridimensional. De modo correspondente, a quantidade de deslocamento em cada local do objeto tridimensional é determinada, e a distância de deslocamento é determinada a partir de uma pluralidade de quanti- dades de deslocamento, de modo que a precisão de cálculo da distância de deslocamento possa ser aperfeiçoada.
[086] Além disso, a pluralidade de áreas pequenas DWt1 a DWtn é ponderada, e as quantidades de deslocamento determinadas para cada uma das áreas pequenas DWt1 a DWtn são contadas de acordo com a ponderação para formar um histograma. De modo correspondente, é possível calcular a distância de deslocamento de modo mais apropriado aumentando-se a ponderação das áreas características e reduzindo-se a ponderação das áreas não-características. Logo, torna-se possível aprimorar ainda mais a precisão de cálculo da distância de deslocamento.
[087] Além disso, o peso é aumentado para cada uma das áreas pequenas DWt1 a DWtn da forma de onda diferencial DWt, quanto maior for a diferença entre os valores máximo e mínimo da contagem do número de pixels indicando uma diferença predeterminada. De modo correspondente, as áreas com ondulações características com uma grande diferença entre os valores máximo e mínimo são ponderadas superiores, e as áreas planas com pequenas ondulações são ponderadas inferiores. Em termos geométricos, determinar precisamente a quantidade de deslocamento em áreas com ondulações consideráveis é mais fácil que em áreas planas; portanto, torna-se possível aprimorar ainda mais a precisão do cálculo da distância de deslocamento aumentando-se a ponderação para as áreas com uma diferença considerável entre os valores máximo e mínimo.
[088] Além disso, a distância de deslocamento do objeto tridimensional é calculada a partir do valor máximo no histograma obtido contando-se a quantidade de deslocamentos determinada para cada uma das áreas pequenas DWt1 a DWtn. Dessa maneira, uma distância de deslocamento altamente precisa pode ser calculada a partir do valor máximo, mesmo quando existir uma variabilidade nas quantidades de deslocamento.
[089] Adicionalmente, visto que a quantidade de deslocamento de um objeto estacionário é determinada e essa quantidade de deslocamento é ignorada, é possível impedir uma situação em que a precisão do cálculo da distância percorrida do objeto tridimensional é reduzida pelo objeto estacionário. Da mesma forma, quando a quantidade de deslocamento que corresponde ao objeto estacionário for ignorada e houver uma pluralidade de valores máximos, o cálculo da distância percorrida do objeto tridimensional é interrompido. Consequentemente, é possível impedir uma situação em que uma distância percorrida errônea é calculada, como quando houver uma pluralidade de valores máximos.
[090] Nas modalidades descritas anteriormente, a velocidade do veículo hospedeiro V é determinada com base em um sinal do sensor de velocidade do veículo 20, porém nenhuma limitação é imposta por esse; o uso de uma configuração em que a velocidade é estimada a partir de uma pluralidade de imagens em momentos diferentes também é possível. Nesse caso, o sensor de velocidade do veículo 20 não é exigido, e a configuração pode ser simplificada.
[091] Ademais, nas modalidades descritas anteriormente, uma imagem capturada do momento atual e uma imagem em um único momento antes são convertidas em vistas em perspectiva aéreas; as vistas em perspectiva aéreas convertidas são alinhadas; uma imagem diferencial PDt é então gerada; e a imagem diferencial PDt gerada é avaliada ao longo da direção de deformação (a direção na qual o objeto tridimensional se deforma quando uma imagem capturada é convertida em uma vista em perspectiva aérea) para gerar uma forma de onda diferencial DWt; entretanto, nenhuma limitação é imposta por essa. Por exemplo, também há a possibilidade de usar uma configuração em que apenas a imagem em um único momento antes é convertida em uma vista em perspectiva aérea; a vista em perspectiva aérea convertida é alinhada e então convertida novamente em uma imagem capturada equivalente; uma imagem diferencial é gerada utilizando essa imagem e a imagem no momento atual; e a imagem diferencial gerada é avaliada ao longo da direção correspon- dente à direção de deformação (em particular, a direção obtida ao converter a direção de deformação em uma direção na imagem capturada) para então gerar a forma de onda diferencial DWt. Em outras palavras, uma vista em perspectiva aérea não é expressamente exigida para ser gerada como uma necessidade desde que a imagem no momento atual e a imagem em um único momento antes sejam alinhadas, uma imagem diferencial PDt é gerada a partir da diferença entre as duas imagens alinhadas, e a imagem diferencial PDt pode ser avaliada ao longo da direção de deformação de um objeto tridimensional quando a imagem diferencial PDt for convertida em uma vista em perspectiva aérea.
<<Detecção de um objeto tridimensional através do uso das informações de borda>>
[092] A seguir, o bloco de detecção B de um objeto tridimensional que utiliza as informações de borda, que é configurado por uma unidade de cálculo de diferença de luminância 35, uma unidade de detecção de linha de borda 36, e uma unidade de detecção de objetos tridimensionais 37 e que pode ser operado em vez do bloco A ilustrado na Figura 3, será descrito. A Figura 13 é uma vista que ilustra a faixa de imagem da câmera 10 na Figura 3; a Figura 13(a) é uma vista em planta, e a Figura 13(b) é uma vista em perspective no espaço real atrás do veículo hospedeiro V. A câmera 10 é ajustada para um ângulo de visão predeterminado a, e o lado traseiro do veículo hospedeiro V incluído no ângulo de visão predeterminado a é capturado, conforme ilustrado na Figura 13(a). O ângulo de visão a da câmera 10 é ajustado de modo que as pistas adjacentes sejam incluídas na faixa de captura da câmera 10, além disso na pista em que o veículo hospedeiro V está se deslocando da mesma maneira ilustrada na Figura 2.
[093] As áreas de detecção A1, A2 no presente exemplo são trapezoidais em uma vista em planta (o estado de vista em perspectiva aérea), e a posição, o tamanho, e o formato das áreas de detecção A1, A2 são determinados com base nas dis- tâncias d1 a d4. As áreas de detecção A1, A2 do exemplo ilustrado no desenho não são limitadas a serem trapezoidais, e essas também podem ser retangulares ou outro formato em um estado de vista em perspectiva aérea, conforme ilustrado na Figura 2. A unidade de ajuste da área de detecção 41 da presente modalidade também é capaz de ajustar as áreas de detecção A1, A2, utilizando o método descrito anteriormente.
[094] No presente documento, a distância d1 é a distância do veículo hospedeiro V até as linhas de solo L1, L2. As linhas de solo L1, L2 se referem a uma linha em que um objeto tridimensional, que está presente em uma pista adjacente à pista na qual o veículo hospedeiro V está se deslocando, está em contato com o solo. Na presente modalidade, um objetivo é detectar outro veículo VX ou similar (inclusive veículos de duas rodas ou similares) deslocando-se na pista esquerda ou direita atrás do veículo hospedeiro V e adjacente à pista do veículo hospedeiro V. De modo correspondente, a distância d1, que é a posição das linhas de solo L1, L2 do outro veículo VX, pode ser determinada para ser substancialmente fixa a partir da distância d11 do veículo hospedeiro V até uma linha branca W e a distância d12 a partir da linha branca W até a posição na qual o outro veículo VX está previsto para conduzir.
[095] A distância d1 não é limitada a ser fixa e pode ser variável. Nesse caso, o computador 30 reconhece a posição da linha branca W em relação ao veículo hospedeiro V utilizando identificação de linha branca ou outra técnica, e a distância d11 é determinada com base na posição da linha branca identificada W. A distância d1 é então variavelmente ajustada utilizando a distância determinada d11. Na presente modalidade descrita abaixo, a posição na qual o outro veículo VX está se deslocando (a distância d12 da linha branca W) e a posição na qual o veículo hospedeiro V está se deslocando (a distância d11 da linha branca W) são geralmente previsíveis, e a distância d1 é fixamente determinada.
[096] Uma distância d2 é a distância que se estende a partir da parte de ex- tremidade traseira do veículo hospedeiro V na direção de condução do veículo. A distância d2 é determinada de modo que as áreas de detecção A1, A2 sejam acomodadas pelo menos dentro do ângulo de visão a da câmera 10. Na presente modalidade em particular, a distância d2 é ajustada par ficar em contato com uma faixa dividida dentro do ângulo de visão a. A distância d3 indica o comprimento das áreas de detecção A1, A2 na direção de condução de veículo. A distância d3 é determinada com base no tamanho do objeto tridimensional que será detectado. Na presente modalidade, o objeto que será detectado é outro veículo VX ou similar; portanto, a distância d3 é ajustada para um comprimento que inclui o outro veículo VX.
[097] A distância d4 indica a altura, que foi ajustada de modo que os pneus do outro veículo VX ou similar sejam incluídos no espaço real, conforme ilustrado na Figura 13(b). Em uma imagem de vista em perspectiva aérea, a distância d4 é o comprimento ilustrado na Figura 13(a). A distância d4 também pode ser um comprimento que não inclui as vias adicionalmente adjacentes às pistas adjacentes esquerda e direita na imagem de vista em perspectiva aérea (especificamente, as pistas que são duas pistas de distância). Isso porque quando as vias que são duas vias de distância da pista do veículo hospedeiro V forem incluídas, não é mais possível distinguir se outro veículo VX está presente nas pistas adjacentes esquerda e direita da pista na qual o veículo hospedeiro V está se deslocando ou se outro veículo VX está presente em uma pista duas pistas de distância.
[098] Conforme descrito anteriormente, as distâncias d1 a d4 são determinadas, e a posição, o tamanho, e o formato das áreas de detecção A1, A2 são então determinados. Mais especificamente, a posição do lado superior b1 das áreas de detecção A1, A2 que formam um trapezoide é determinada pela distância d1. A posição inicial C1 do lado superior b1 é determinada pela distância d2. A posição final C2 do lado superior b1 é determinada pela distância d3. O lado lateral b2 das áreas de detecção A1, A2 que formam um trapezoide é determinado por uma linha reta L3 que se estende a partir da câmera 10 em direção à posição inicial C1. De modo similar, o lado lateral b3 das áreas de detecção A1, A2 que formam um trapezoide é determinado por uma linha reta L4 que se estende a partir da câmera 10 em direção à posição final C2. A posição do lado inferior b4 das áreas de detecção A1, A2 que formam um trapezoide é determinada pela distância d4. Desse modo, as áreas circundadas pelos lados b1 a b4 são as áreas de detecção A1, A2. As áreas de detecção A1, A2 são quadrados regulares (retângulos) no espaço real atrás do veículo hospedeiro V, conforme ilustrado na Figura 13(b).
[099] Voltando à Figura 3, a unidade de conversão de ponto de vista 31 aceita a entrada dos dados de imagem capturada de uma área predeterminada capturada pela câmera 10. A unidade de conversão de ponto de vista 31 converte o ponto de vista dos dados de imagem capturada inseridos em dados de imagem de vista em perspectiva aérea, esse é um estado de vista em perspectiva aérea. Um estado de vista em perspectiva aérea é um estado de visão do ponto de vista de uma câmera imaginária que está olhando de cima para baixo, em particular, que está olhando verticalmente para baixo (ou ligeiramente inclinada para baixo). A conversão de ponto de vista pode ser realizada utilizando a técnica descrita, por exemplo, no Pedido de Patente Japonês Aberto à Inspeção Pública No. 2008-219063.
[0100]A unidade de cálculo de diferença de luminância 35 calcula as diferenças de luminância nos dados de imagem de vista em perspectiva aérea, que foram submetidos à conversão de ponto de vista pela unidade de conversão de ponto de vista 31, para detectar as bordas de um objeto tridimensional incluído na imagem de vista em perspectiva aérea. A unidade de cálculo de diferença de luminância 35 calcula, para cada uma entre uma pluralidade de posições ao longo de uma linha imaginária perpendicular que se estende ao longo da direção perpendicular no espaço real, a diferença de luminância entre dois pixels próximos de cada posição. A unidade de cálculo de diferença de luminância 35 é capaz de calcular a diferença de lumi- nância por um método para ajustar uma única linha imaginária perpendicular que se estende na direção perpendicular no espaço real ou por um método para ajustar duas linhas imaginárias perpendiculares.
[0101]O método específico para ajustar duas linhas imaginárias perpendiculares é descrito. A unidade de cálculo de diferença de luminância 35 ajusta uma primeira linha imaginária perpendicular que corresponde a um segmento de linha que se estende na direção perpendicular em espaço real e uma segunda linha imaginária perpendicular que é diferente da primeira linha imaginária perpendicular e que corresponde ao segmento de linha que se estende na direção perpendicular em espaço real, em relação aos dados de imagem de vista em perspectiva aérea, que foram submetidos à conversão de ponto de vista. A unidade de cálculo de diferença de lu- minância 35 determina a diferença de luminância entre um ponto na primeira linha imaginária perpendicular e um ponto na segunda linha imaginária perpendicular de maneira contínua ao longo da primeira linha imaginária perpendicular e da segunda linha imaginária perpendicular. A operação da unidade de cálculo de diferença de luminância 35 é descrita em detalhes abaixo.
[0102]A unidade de cálculo de diferença de luminância 35 ajusta uma primeira linha imaginária perpendicular La (a seguir referida como a linha de atenção La) que corresponde a um segmento de linha que se estende na direção perpendicular em espaço real e que passa através da área de detecção A1, conforme ilustrado na Figura 14(a). A unidade de cálculo de diferença de luminância 35 ajusta uma segunda linha imaginária perpendicular Lr (a seguir referida como a linha de referência Lr) que é diferente da linha de atenção La, corresponde ao segmento de linha que se estende na direção perpendicular em espaço real, e passa através da área de detecção A1. Aqui, a linha de referência Lr é ajustada para uma posição a uma distân-cia da linha de atenção La por uma distância predeterminada em espaço real. As pistas que correspondem aos segmentos de linha que se estendem na direção per pendicular em espaço real são linhas que se espalham na direção radial a partir da posição Ps da câmera 10 em uma imagem de vista em perspectiva aérea. Essas linhas que se espalham na direção radial são linhas que seguem a direção de deformação do objeto tridimensional quando convertido em um a vista em perspectiva aérea.
[0103]A unidade de cálculo de diferença de luminância 35 ajusta um ponto de atenção Pa sobre a linha de atenção La (um ponto sobre a primeira linha imaginária perpendicular). A unidade de cálculo de diferença de luminância 35 ajusta um ponto de referência Pr sobre a linha de referência Lr (um ponto sobre a segunda linha imaginária perpendicular). A linha de atenção La, o ponto de atenção Pa, a linha de referência Lr, e o ponto de referência Pr possuem a relação em espaço real que é ilustrada na Figura 14(b). Como evidente a partir da Figura 14(b), a linha de atenção La e a linha de referência Lr são linhas que se estendem na direção perpendicular em espaço real, e o ponto de atenção Pa e o ponto de referência Pr são pontos ajustados substancialmente para a mesma altura em espaço real. O ponto de atenção Pa e o ponto de referência Pr necessariamente não devem ser rigorosamente mantidos na mesma altura, e permite-se uma determinada quantidade de erro que permite que o ponto de atenção Pa e o ponto de referência Pr sejam considerados como na mesma altura.
[0104]A unidade de cálculo de diferença de luminância 35 determina a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr. Se a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr for grande, há a possibilidade que uma borda esteja presente entre o ponto de atenção Pa e o ponto de referência Pr. De modo correspondente, a unidade de detecção de linha de borda 36 ilustrada na Figura 3 detecta uma linha de borda com base na diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr.
[0105]Esse ponto será descrito em mais detalhes. A Figura 15 é uma vista que mostra a operação detalhada da unidade de cálculo de diferença de luminância 35. A Figura 15(a) ilustra uma imagem de vista em perspectiva aérea do estado de vista em perspectiva aérea, e a Figura 15(b) é uma vista ampliada de uma parte B1 da imagem de vista em perspectiva aérea ilustrada na Figura 15(a). Na Figura 15, apenas a área de detecção A1 é ilustrada e descrita, porém a diferença de luminân- cia é calculada utilizando o mesmo procedimento da área de detecção A2.
[0106]Quando outro veículo VX estiver sendo exibido na imagem capturada que é capturada pela câmera 10, o outro veículo VX aparece na área de detecção A1 na imagem de vista em perspectiva aérea, conforme ilustrado na Figura 15(a). A linha de atenção La é ajustada sobre uma porção de borracha de um pneu do outro veículo VX na imagem de vista em perspectiva aérea na Figura 15(b), conforme ilustrado na vista ampliada da área B1 na Figura 15(a). Nesse estado, primeiro, a unidade de cálculo de diferença de luminância 35 ajusta a linha de referência Lr. A linha de referência Lr é ajustada ao longo da direção perpendicular em uma posição ajustada a uma distância predeterminada em espaço real a partir da linha de atenção La. Especificamente, no dispositivo de detecção de objetos tridimensionais 1 de acordo com a presente modalidade, a linha de referência Lr é ajustada em uma posição a uma distância que é 10 cm distante da linha de atenção La em espaço real. A linha de referência Lr é então ajustada sobre a roda do pneu do outro veículo VX ajustada, por exemplo, a uma distância que corresponde a 10 cm a partir da borracha do pneu do outro veículo VX na imagem de vista em perspectiva aérea.
[0107]Então, a unidade de cálculo de diferença de luminância 35 ajusta uma pluralidade de pontos de atenção Pa1 a PaN sobre a linha de atenção La. Na Figura 15(b), seis pontos de atenção Pa1 a Pa6 (a seguir referido como o ponto de atenção Pai quando se indica um ponto arbitrário) são ajustadas para a conveniência da descrição. Um número arbitrário de pontos de atenção Pa pode ser ajustado sobre a linha de atenção La. Na descrição abaixo, N pontos de atenção Pa são ajustados sobre a linha de atenção La.
[0108]A unidade de cálculo de diferença de luminância 35 ajusta subsequentemente os pontos de referência Pr1 a PrN para ter a mesma altura que os pontos de atenção Pa1 a PaN em espaço real. A unidade de cálculo de diferença de lumi- nância 35 calcula a diferença de luminância entre os pares de ponto de atenção Pa e o ponto de referência Pr na mesma altura. A unidade de cálculo de diferença de luminância 35 então calcula a diferença de luminância entre dois pixels para cada uma entre uma pluralidade de posições (1 - N) ao longo da linha imaginária perpendicular que se estende na direção perpendicular em espaço real. A unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre, por exemplo, um primeiro ponto de atenção Pa1 e um primeiro ponto de referência Pr1 e calcula a diferença de luminância entre um segundo ponto de atenção Pa2 e um segundo ponto de referência Pr2. A unidade de cálculo de diferença de luminância 35 então determina a diferença de luminância de maneira contínua ao longo da linha de atenção La e da linha de referência Lr. Em outras palavras, a unidade de cálculo de diferença de luminância 35 determina sequencialmente a diferença de luminância entre os terceiro a Nésimo pontos de atenção Pa3 a PaN e os terceiro a Nésimo pontos de referência Pr3 a PrN.
[0109]A unidade de cálculo de diferença de luminância 35 repete a operação de ajustar a linha de referência Lr descrita acima, ajustar o ponto de atenção Pa, ajustar o ponto de referência Pr, e calcular a diferença de luminância enquanto desloca a linha de atenção La dentro da área de detecção A1. Em outras palavras, a unidade de cálculo de diferença de luminância 35 executa repetidamente a operação descrita acima enquanto muda as posições da linha de atenção La e da linha de referência Lr pela mesma distância em espaço real ao longo da direção na qual a linha de solo L1 se estende. A unidade de cálculo de diferença de luminância 35 ajusta especificamente a linha que é a linha de referência Lr no processo anterior como a linha de atenção La, ajusta a linha de referência Lr em relação à linha de atenção La, e sequencialmente determina a diferença de luminância.
[0110]Voltando-se à Figura 3, a unidade de detecção de linha de borda 36 detecta a linha de borda a partir da diferença de luminância contínua calculada pela unidade de cálculo de diferença de luminância 35. Por exemplo, no caso ilustrado na Figura 15(b), o primeiro ponto de atenção Pa1 e o primeiro ponto de referência Pr1 são posicionados na mesma porção de pneu, e, portanto a diferença de luminância é pequena. Por outro lado, os segundo ao sexto pontos de atenção Pa2 a Pa6 ficam posicionados nas porções de borracha do pneu, e os segundo ao sexto pontos de referência Pr2 a Pr6 ficam posicionados nas porções de roda do pneu. Portanto, a diferença de luminância entre os segundo ao sexto pontos de atenção Pa2 a Pa6 e os segundo ao sexto pontos de referência Pr2 a Pr6 é grande. De modo correspondente, a unidade de detecção de linha de borda 36 é capaz de detectar que uma linha de borda está presente entre os segundo ao sexto pontos de atenção Pa2 a Pa6 e os segundo ao sexto pontos de referência Pr2 a Pr6 onde a diferença de lu- minância é alta.
[0111]De modo específico, quando uma linha de borda for detectada, a unidade de detecção de linha de borda 36 primeiro atribui um atributo ao iésimo ponto de atenção Pai a partir da diferença de luminância entre o iésimo ponto de atenção Pai (com as coordenadas (xi, yi)) ao iésimo ponto de referência Pri (com as coordenadas (xi', yi')) de acordo com formula 1 observada abaixo.[Fórmula 1]Quando l (xi, yi) > l (xi', yi') + ts(xi, yi)=1Quando l (xi, yi) < l (xi', yi') - ts(xi,yi)=-1 quando a condição supracitada não for verdadeiras(xi, yi)=0
[0112] Na fórmula 1 acima, t representa um valor limiar, I(xi, yi) representa o valor de luminância do iésimo ponto de atenção Pai, e I(xi', yi') representa o valor de luminância do iésimo ponto de referência Pri. De acordo com a fórmula 1, o atributo s(xi, yi) do ponto de atenção Pai é '1' quando o valor de luminância do ponto de atenção Pai for maior do que o valor de luminância obtido ao adicionar o valor limiar t ao ponto de referência Pri. Por outro lado, o atributo s(xi, yi) do ponto de atenção Pai é '-1' quando o valor de luminância do ponto de atenção Pai for menor que o valor de luminância obtido ao subtrair o valor limiar t do ponto de referência Pri. O atributo s(xi, yi) do ponto de atenção Pai é '0' quando o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri estiverem em uma relação diferente daquela apresentada acima.
[0113] Então, a unidade de detecção de linha de borda 36 avalia se a linha de atenção La é em uma linha de borda a partir da continuidade c(xi, yi) do atributo s ao longo da linha de atenção La com base na seguinte fórmula 2.[Fórmula 2]Quando s (xi, yi) = s (xi + 1, yi +1) (e excluindo-se 0 = 0),c (xi, yi) = 1quando a condição supracitada não for verdadeira;c (xi, yi) = 0
[0114] A continuidade c(xi, yi) é '1' quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção adjacente Pai + 1 forem iguais. A continuidade c(xi, yi) é '0' quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção adjacente Pai + 1 não forem iguais.
[0115] Então, a unidade de detecção de linha de borda 36 determina a soma das continuidades de todos os pontos de atenção Pa sobre a linha de atenção La. A unidade de detecção de linha de borda 36 divide a soma das continuidades c determinadas pelo número N dos pontos de atenção Pa para então normalizar a continui- dade c. A unidade de detecção de linha de borda 36 determina a linha de atenção La que será uma linha de borda quando o valor normalizado exceder um valor limiar θ. O valor limiar θ é ajustado antecipadamente por experimentação ou por outro meio.
[0116] Em outras palavras, a unidade de detecção de linha de borda 36 determina se a linha de atenção La é uma linha de borda com base na fórmula 3 observada acima. A unidade de detecção de linha de borda 36 então determina se todas as linhas de atenção La desenhadas sobre a área de detecção A1 são linhas de borda.[Fórmula 3]∑c(xi,yi) / N>θ
[0117] Voltando à Figura 3, a unidade de detecção de objetos tridimensionais 37 detecta um objeto tridimensional com base na quantidade de linhas de borda detectadas pela unidade de detecção de linha de borda 36. Conforme descrito anteriormente, o dispositivo de detecção de objetos tridimensionais 1 de acordo com a presente modalidade detecta uma linha de borda que se estende na direção perpendicular em espaço real. A detecção de muitas linhas de borda que se estendem na direção perpendicular indica que há uma grande possibilidade de um objeto tridimensional estar presente nas áreas de detecção A1, A2. De modo correspondente, a unidade de detecção de objetos tridimensionais 37 detecta um objeto tridimensional com base na quantidade de linhas de borda que foram detectadas pela unidade de detecção de linha de borda 36. Ademais, antes de detectar o objeto tridimensional, a unidade de detecção de objetos tridimensionais 37 avalia se as linhas de borda detectadas pela unidade de detecção de linha de borda 36 estão corretas. A unidade de detecção de objetos tridimensionais 37 avalia se uma mudança em luminância das linhas de borda é um valor limiar predeterminado ou maior ao longo das linhas de borda da imagem de vista em perspectiva aérea. Quando a mudança em lumi- nância das linhas de borda na imagem de vista em perspectiva aérea estiver em um valor limiar ou maior, determina-se que as linhas de borda foram detectadas por uma avaliação errônea. Por outro lado, quando a mudança na luminância das linhas de borda na imagem de vista em perspectiva aérea não é maior que um valor limiar, a avaliação é que as linhas de borda estão corretas. O valor limiar é ajustado antecipadamente por experimentação ou por outro meio.
[0118] A Figura 16 é uma vista que ilustra a distribuição de luminância sobre a linha de borda; a Figura 16(a) ilustra a linha de borda e a distribuição de luminân- cia quando outro veículo VX como um objeto tridimensional estiver presente na área de detecção A1, e a Figura 16(b) ilustra a linha de borda e a distribuição de luminân- cia quando um objeto tridimensional não estiver presente na área de detecção A1.
[0119] Conforme ilustrado na Figura 16(a), a suposição é que uma determinação tenha sido feita em que a linha de atenção La ajustada sobre a porção de borracha de pneu do outro veículo VX é uma linha de borda na imagem de vista em perspectiva aérea. Nesse caso, a mudança na luminância da linha de atenção La na imagem de vista em perspectiva aérea é gradual. Isso se deve ao fato de a imagem capturada pela câmera 10 ser convertida a partir do ponto de vista em uma imagem de vista em perspectiva aérea, com isso o pneu do outro veículo VX é ampliado dentro da imagem de vista em perspectiva aérea. Por outro lado, supõe-se que a linha de atenção La que é ajustada na porção de caractere branco “50” desenhada sobre a superfície rodoviária na imagem de vista em perspectiva aérea tenha sido erroneamente avaliada como uma linha de borda, conforme ilustrado na Figura 16(b). Nesse caso, a mudança na luminância da linha de atenção La na imagem de vista em perspectiva aérea possui ondulações consideráveis. Isso porque a via e as outras porções de baixa luminância são misturadas com as porções de alta luminância nos caracteres brancos sobre a linha de borda.
[0120] A unidade de detecção de objetos tridimensionais 37 avalia se uma linha de borda foi detectada por uma avaliação errônea com base nas diferenças na distribuição de luminância sobre a linha de atenção La como descrito anteriormente. A unidade de detecção de objetos tridimensionais 37 determina que a linha de borda foi detectada por uma avaliação errônea quando a mudança em luminância ao longo da linha de borda estiver em um valor limiar predeterminado ou maior. Então, a linha de borda não é usada para a detecção de um objeto tridimensional. Uma redução na precisão da detecção de um objeto tridimensional é então suprimida quando caracteres brancos como um “50” sobre a superfície rodoviária, vegetação em acostamentos, e similares forem avaliados como linhas de borda.
[0121] Especificamente, a unidade de detecção de objetos tridimensionais 37 calcula a mudança na luminância da linha de borda utilizando a fórmula 4 ou 5 observada acima. A mudança na luminância da linha de borda corresponde ao valor de avaliação em espaço real na direção perpendicular. A Fórmula 4 avalia a distribuição de luminância utilizando o valor total do quadrado da diferença entre o iésimo valor de luminância I(xi, yi) e o iésimo + 1 valor de luminância adjacente I(xi + 1, yi + 1) sobre a linha de atenção La. A Fórmula 5 avalia a distribuição de luminância utilizando o valor total do valor absoluto da diferença entre o iésimo valor de luminância I(xi, yi) e o iésimo +1 valor de luminância adjacente I(xi + 1, yi + 1) sobre a linha de atenção La.[Fórmula 4]Valor de avaliação na direção equivalente perpendicular = ∑[{I(xi, yi) - I(xi + 1, yi + 1)}2][Fórmula 5]Valor de avaliação na direção equivalente perpendicular = ∑|I(xi, yi) - I(xi + 1, yi + 1)|
[0122] Nenhuma limitação é imposta no uso de fórmula 5; também, a binari- zação de um atributo b de um valor de luminância adjacente utilizando um valor limiar t2 e então é possível adicionar o atributo binarizado b a todos os pontos de atenção Pa, como na fórmula 6 observada abaixo. [Fórmula 6]Valor de avaliação na direção equivalente perpendicular = ∑b(xi, yi) Entretanto, quando |I(xi, yi) - I(xi + 1, yi + 1)| > t2 b(xi, yi) = 1quando a condição supracitada não for verdadeira.b(xi, yi) = 0
[0123] O atributo b(xi, yi) do ponto de atenção Pa(xi, yi) é '1' quando o valor absoluto da diferença de luminância entre o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri for maior que um valor limiar t2. Quando a relação acima não for verdadeira, o atributo b(xi, yi) do ponto de atenção Pai é '0.' O valor limiar t2 é ajustado antecipadamente por experimentação ou por outro meio de modo que a linha de atenção La não seja avaliada como estando sobre o mesmo objeto tridimensional. A unidade de detecção de objetos tridimensionais 37 então adiciona o atributo b a todos os pontos de atenção Pa sobre a linha de atenção La e determina o valor de avaliação na direção equivalente perpendicular para então avaliar se uma linha de borda está correta.
[0124] O método para detectar um objeto tridimensional que utiliza as informações de borda de acordo com a presente modalidade é descrito a seguir. A Figura 17 e a Figura 18 são fluxogramas que ilustram os detalhes do método para detectar um objeto tridimensional de acordo com a presente modalidade. Na Figura 17 e Figura 18, a operação associada à área de detecção A1 será descrita por uma questão de conveniência, porém a mesma operação também é executada para a área de detecção A2.
[0125] Conforme ilustrado na Figura 17, primeiro, na Etapa S20, o computador 30 ajusta a área de detecção com base na regra predeterminada. O método para ajustar e alterar essa área de detecção será descrito em detalhes abaixo. A câmera 10 então captura uma área predeterminada especificada pelo ângulo de visão a e a posição de fixação na Etapa S21. Então, os dados de imagem capturada que é capturada pela câmera 10 na Etapa S21 são inseridos na unidade de conversão de ponto de vista 31, que então conduz a conversão de ponto de vista e gera os dados de imagem de vista em perspectiva aérea na Etapa S22.
[0126] Então, na Etapa S23, a unidade de cálculo de diferença de luminância 35 ajusta a linha de atenção La sobre a área de detecção A1. Nesse momento, a unidade de cálculo de diferença de luminância 35 ajusta uma linha que corresponde a uma linha que se estende na direção perpendicular em espaço real como a linha de atenção La. Então, na Etapa S24, a unidade de cálculo de diferença de luminân- cia 35 ajusta a linha de referência Lr sobre a área de detecção A1. A unidade de cálculo de diferença de luminância 35 ajusta, como a linha de referência Lr, uma linha que corresponde a uma linha que se estende na direção perpendicular em espaço real e uma linha que também é separada por uma distância predeterminada em espaço real da linha de atenção La.
[0127] Então, a unidade de cálculo de diferença de luminância 35 ajusta uma pluralidade de pontos de atenção Pa sobre a linha de atenção La na Etapa S25. Nesse momento, a unidade de cálculo de diferença de luminância 35 ajusta um determinado número de pontos de atenção Pa que será problemático durante a detecção de borda pela unidade de detecção de linha de borda 36. A unidade de cálculo de diferença de luminância 35 subsequentemente ajusta os pontos de referência Pr de modo que os pontos de atenção Pa e os pontos de referência Pr possuam a mesma altura em espaço real na Etapa S26. Os pontos de atenção Pa e os pontos de referência Pr substancialmente se alinham na direção horizontal, e a linha de borda que se estende na direção perpendicular em espaço real é mais prontamente detectada.
[0128] Então, na Etapa S27, a unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre os pontos de atenção Pa e os pontos de referência Pr na mesma altura em espaço real. A unidade de detecção de linha de borda 36 calcula o atributo s dos pontos de atenção Pa de acordo com a fórmula 1 descrita anteriormente. Na Etapa S28, a unidade de detecção de linha de borda 36 então calcula a continuidade c do atributo s dos pontos de atenção Pa de acordo com a fórmula 2 descrita anteriormente. Na Etapa S29, a unidade de detecção de linha de borda 36 também avalia se um valor obtido ao normalizar a soma da continuidade c é maior que um valor limiar θ de acordo com a fórmula 3 descrita anteriormente. Quando for determinado que o valor normalizado é maior que o valor limiar θ (Etapa S29 : Sim), a unidade de detecção de linha de borda 36 detecta a linha de atenção La como a linha de borda na Etapa S30. A operação então procede para a Etapa S31. Quando for determinado que o valor normalizado não é maior que o valor limiar θ (S29 : Não), a unidade de detecção de linha de borda 36 não detecta a linha de atenção La como uma linha de borda, e a operação procede para a Etapa S31.
[0129] Na Etapa S31, o computador 30 determina se as operações de Etapas S23 a S30 foram executadas para todas as linhas de atenção La que podem ser ajustadas sobre a área de detecção A1. Quando for determinado que as operações acima não foram realizadas para todas as linhas de atenção La (S31 : Não), a operação retorna para a Etapa S23, ajusta uma nova linha de atenção La, e repete a operação através da Etapa S31. Por outro lado, quando for determinado que as operações foram realizadas para todas as linhas de atenção La (S31 = Sim), a operação procede para a Etapa S32 na Figura 18.
[0130] Na Etapa S32 na Figura 18, a unidade de detecção de objetos tridimensionais 37 calcula a mudança na luminância ao longo da linha de borda para cada linha de borda detectada na Etapa S30 na Figura 17. A unidade de detecção de objetos tridimensionais 37 calcula a mudança em luminância de linhas de borda de acordo com qualquer uma das fórmulas 4, 5, e 6. Então, na Etapa S33, a unidade de detecção de objetos tridimensionais 37 exclui, entre as linhas de borda, as linhas de borda para as quais a mudança em luminância está em um valor limiar predeterminado ou maior. Em outras palavras, quando uma linha de borda que apresenta uma grande mudança em luminância não for avaliada como uma linha de borda correta, a linha de borda não é usada para detectar um objeto tridimensional. Conforme descrito anteriormente, isso é feito para suprimir a detecção de caracteres sobre a superfície rodoviária, vegetação em acostamentos, e similares incluídos na área de detecção A1 como as linhas de borda. Portanto, o valor limiar predeterminado é de-terminado por experimentação ou por outro meio antecipadamente e é ajustado com base na mudança em luminância que ocorre devido a caracteres sobre a superfície rodoviária, vegetação em acostamentos, e similares.
[0131] Então, na Etapa S34, a unidade de detecção de objetos tridimensionais 37 determina se a quantidade de linhas de borda é um segundo valor limiar β ou maior. Por exemplo, o segundo valor limiar β é ajustado antecipadamente por experimentação ou por outro meio, com base no número de linhas de borda de um veículo de quatro rodas que aparece nas áreas de detecção A1 quando um veículo de quatro rodas for ajustado como o objeto tridimensional a ser detectado. Quando uma avaliação for feita para determinar que a quantidade de linhas de borda está no segundo valor limiar β ou maior (S34: Sim), a unidade de detecção de objetos tridimensionais 37 determina que um objeto tridimensional está presente na área de detecção A1 na Etapa S35. Por outro lado, quando uma avaliação for feita para determinar que a quantidade de linhas de borda não está no segundo valor limiar β ou maior (S34: Não), a unidade de detecção de objetos tridimensionais 37 determina que um objeto tridimensional não está presente na área de detecção A1. Então, a operação ilustrada na Figura 17 e Figura 18 termina. O objeto tridimensional detectado pode ser determinado como outro veículo VX que é conduzido em uma pista adjacente à pista na qual o veículo hospedeiro V está se deslocando, ou uma deter- minação sobre se esse objeto é ou não outro veículo VX que é conduzido em uma pista adjacente pode ser feita ao levar em consideração a velocidade relativa do objeto tridimensional detectado em relação ao veículo hospedeiro V.
[0132] Conforme descrito anteriormente, de acordo com o método da presente modalidade para detectar um objeto tridimensional que utiliza as informações de borda, uma linha imaginária perpendicular é ajustada como um segmento de linha que se estende na direção perpendicular em espaço real em relação à imagem de vista em perspectiva aérea para detectar um objeto tridimensional presente nas áreas de detecção A1, A2. Então, a diferença de luminância entre dois pixels próximos de cada posição é calculada para cada uma entre uma pluralidade de posições ao longo da linha imaginária perpendicular; como resultado, é possível a avaliação da presença/ausência de um objeto tridimensional com base na continuidade da di-ferença de luminância.
[0133] De modo específico, uma linha de atenção La que corresponde a um segmento de linha que se estende na direção perpendicular em espaço real e uma linha de referência Lr que é diferente da linha de atenção La são ajustadas em relação às áreas de detecção A1, A2 na imagem de vista em perspectiva aérea. Então, a diferença de luminância entre um ponto de atenção Pa sobre a linha de atenção La e um ponto de referência Pr sobre a linha de referência Lr são determinados de maneira contínua ao longo da linha de atenção La e da linha de referência La. A diferença de luminância entre a linha de atenção La e a linha de referência Lr é determinada ao determinar a diferença de luminância entre os pontos dessa maneira. Há uma grande possibilidade de haver uma borda de um objeto tridimensional no local onde a linha de atenção La foi ajustada quando a diferença de luminância entre a linha de atenção La e a linha de referência Lr for grande. De modo correspondente, é possível a detecção de um objeto tridimensional com base na diferença de luminância contínua. Em particular, a operação para detectar um objeto tridimensional não será afetada, mesmo quando o objeto tridimensional for ampliado de acordo com a altura da superfície rodoviária mediante conversão em uma imagem de vista em perspectiva aérea para comparar a luminância entre as linhas imaginárias perpendiculares que se estendem na direção perpendicular em espaço real. Portanto, de acordo com o presente exemplo, a precisão para detectar um objeto tridimensional pode ser aumentada.
[0134] Além disso, no presente exemplo, a diferença de luminância entre dois pontos substancialmente na mesma altura próximo à linha imaginária perpendicular é determinada. Especificamente, a determinação da diferença de luminância do ponto de atenção Pa sobre a linha de atenção La e do ponto de referência Pr sobre a linha de referência Lr, que estão substancialmente na mesma altura em espaço real, permite que a diferença de luminância seja claramente detectada quando uma borda que se estende na direção perpendicular estiver presente.
[0135] Ademais, no presente exemplo, um atributo é atribuído ao ponto de atenção Pa com base na diferença de luminância entre o ponto de atenção Pa sobre a linha de atenção La e o ponto de referência Pr sobre a linha de referência Lr; então, uma determinação é feita sobre se a linha de atenção La é uma linha de borda com base na continuidade c dos atributos ao longo da linha de atenção La. Portanto, os limites entre as áreas que possuem alta luminância e as áreas que possuem baixa luminância são detectados como as linhas de borda, e as bordas podem ser detectadas de acordo com os sentidos naturais de um ser humano. Os resultados do supracitado serão descritos. A Figura 19 é uma vista que ilustra um exemplo de imagem que mostra o processamento da unidade de detecção de linha de borda 36. Esse exemplo de imagem é um exemplo em que um primeiro padrão listrado 101, indicando um padrão listrado em que as áreas de alta luminância e as áreas de baixa luminância são repetidas, e um segundo padrão listrado 102, indicando um padrão listrado no qual as áreas de baixa luminância e as áreas de alta luminância são repetidas, são adjacentes um ao outro. Da mesma forma, nesse exemplo de imagem, as áreas com o primeiro padrão listrado 101 no qual a luminância é alta e as áreas com o segundo padrão listrado 102 no qual a luminância é baixa são adjacentes umas às outras; também, as áreas com o primeiro padrão listrado 101 no qual a luminância é baixa e as áreas com o segundo padrão listrado 102 no qual a lumi- nância é alta são adjacentes umas às outras. O local 103 posicionado sobre o limite entre o primeiro padrão listrado 101 e o segundo padrão listrado 102 tende a não ser percebido como uma borda por sentidos humanos.
[0136] Em contrapartida, devido ao fato de as áreas de baixa luminância e as áreas de alta luminância serem adjacentes umas às outras, o local 103 é identificado como uma borda quando uma borda for detectada somente pela diferença de lumi- nância. Entretanto, além da diferença de luminância no local 103, a unidade de detecção de linha de borda 36 avalia o local 103 como uma linha de borda somente quando há continuidade nos atributos da diferença de luminância. Portanto, a unidade de detecção de linha de borda 36 é capaz de suprimir uma avaliação errônea na qual o local 103, que não é identificado como uma linha de borda por sentidos humanos, é identificado como uma linha de borda, e as bordas podem ser detectadas por sentidos humanos.
[0137] Adicionalmente, na presente exemplo, determina-se que a linha de borda foi detectada por uma avaliação errônea quando a mudança em luminância ao longo da linha de borda, que é detectada pela unidade de detecção de linha de borda 36, estiver em um valor limiar predeterminado ou maior. Um objeto tridimensional incluído em uma imagem capturada tende a aparecer em um estado ampliado em uma imagem de vista em perspectiva aérea quando a imagem capturada adquirida pela câmera 10 for convertida em uma imagem de vista em perspectiva aérea. Por exemplo, quando o pneu de outro veículo VX for ampliado como descrito anteriormente, as mudanças na luminância da imagem de vista em perspectiva aérea na direção ampliada tendem a ser pequenas, pois o pneu como um único local é ampliado. Em contrapartida, quando um caractere ou similar desenhado sobre a superfície rodoviária for erroneamente avaliado como uma linha de borda, áreas como a porção de caractere que possuem alta luminância e áreas como a porção de superfície rodoviária que possuem baixa luminância são incluídas na imagem de vista em perspectiva aérea de maneira misturada. Nesse caso, as mudanças em luminância na direção ampliada tendem a ser maiores. Portanto, a identificação das linhas de borda que foram determinadas por uma avaliação errônea e o aumento da precisão para detectar um objeto tridimensional é possível ao determinar a mudança em lumi- nância na imagem de vista em perspectiva aérea ao longo da linha de borda como no presente exemplo.
<<Determinação final do objeto tridimensional>>
[0138] Retornando-se à Figura 3, o dispositivo de detecção de objetos tridimensionais 1 do presente exemplo é dotado de duas unidades de detecção de objetos tridimensionais 33 (ou de uma unidade de detecção de objetos tridimensionais 37) descritas anteriormente, uma unidade de avaliação de objeto tridimensional 34, uma unidade de avaliação do estado da lente 38, uma unidade de ajuste da área de detecção 41, e um controlador 39. A unidade de avaliação de objeto tridimensional 34 determina essencialmente se um objeto tridimensional detectado é ou não outro veículo VX nas áreas de detecção A1, A2, com base nos resultados de detecção da unidade de detecção de objetos tridimensionais 33 (ou da unidade de detecção de objetos tridimensionais 37). Quando as segundas áreas de detecção A12, A22, sendo que as posições dessas foram trocadas pela unidade de ajuste da área de detecção 41, forem ajustadas, realiza-se uma determinação referente a se existe ou não outro veículo VX nas segundas áreas de detecção A12, A22 após a troca. Além disso, o controlador 39 do dispositivo de detecção de objetos tridimensionais 1 de acordo com a presente modalidade controla o conteúdo de processamento da unidade de detecção de objetos tridimensionais 33 (ou da unidade de detecção de objetos tridimensionais 37) e/ou da unidade de avaliação de objeto tridimensional 34, com base nos resultados de detecção para as segundas áreas de detecção A12, A22, sendo que as posições dessas foram trocadas pela unidade de ajuste da área de detecção 41, e para as primeiras áreas de detecção originais A11, A21.
[0139] De modo específico, descrever-se-á o processamento da unidade de ajuste da área de detecção 41 de acordo com a presente modalidade. Quando tiver sido feita uma determinação pela unidade de avaliação do estado da lente 38 na qual a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 da presente modalidade ajusta as segundas áreas de detecção A12, A22 em posições que sejam diferentes das primeiras áreas de detecção originais A11, A21.
[0140] Primeiramente, descreve-se a unidade de avaliação do estado da lente 38 que serve para determinar o estado da lente 11.
[0141] A unidade de avaliação do estado da lente 38 de acordo com a presente modalidade detecta um estado no qual a lente 11 está molhada por pingos de chuva ou por um líquido de limpeza. De modo específico, a unidade de avaliação do estado da lente 38 avalia o estado a precipitação de chuva e detecta o estado no qual os pingos de chuva se aderiram à parte externa da carroceria do veículo hospedeiro V e, particularmente, à lente 11 da câmera 10, bem como a quantidade de pingos de chuva (a quantidade de precipitação de chuva) aderida à lente 11, com base nas informações obtidas a partir de um dispositivo ou mais dentre um sensor de pingo de chuva 50, um limpador 60, e um dispositivo de navegação 70. Além disso, a unidade de avaliação do estado da lente 38 detecta o estado no qual o líquido de limpeza se aderiu à lente 11, bem como a quantidade e líquido de limpeza aderida à lente 11, com base no período de tempo no qual um dispositivo de limpeza de lente 80, que seja dotado de uma bomba que fornece um líquido de limpeza e de um bocal que asperge o líquido de limpeza fornecido sobre a lente 11 e que asperge o líquido de limpeza sobre a lente 11 em um período de tempo predeterminado de acordo com uma etapa de limpeza de lente predeterminada a fim de limpar a lente 11 da câmera 10, asperge o líquido de limpeza sobre a lente 11 em uma etapa de tratamento de limpeza.
[0142] O sensor de pingo de chuva 50 na presente modalidade é dotado de uma plataforma configurada por um material translúcido, tal como vidro, e à qual os pingos de chuva podem se aderir, uma parte de emissão de luz que irradia luz infravermelha sobre a plataforma, e uma parte de recepção de luz que recebe a luz refletida proveniente da luz que é irradiada a partir da parte de emissão de luz. Quando pingos de chuva não se aderirem à superfície exposta da plataforma, a luz irradiada a partir da parte de emissão de luz é completamente refletida pela superfície da plataforma (o vidro), de modo que a parte de recepção de luz receba a luz refletida tendo substancialmente a mesma intensidade que a luz irradiada. Por outro lado, quando pingos de chuva se aderirem à superfície exposta da plataforma, a luz irradiada a partir da parte de emissão de luz é transmitida para fora através dos pingos de chuva que se aderiram à plataforma (o vidro), de modo que a parte de recepção de luz receba a luz refletida com uma intensidade atenuada, comparada à luz irradiada. É possível determinar se pingos de chuva se aderiram ou não à superfície exposta da plataforma (a superfície principal) comparando-se a luz irradiada que é irradiada a partir da parte de emissão de luz e a luz refletida que é recebida pela parte de recepção de luz. Além disso, a quantidade de pingos de chuva é determinada com base na atenuação da luz irradiada. Informações referentes à presença/ausência de pingos de chuva como a quantidade de pingos de chuva são enviadas à unidade de avaliação do estado da lente 38 do computador 30 descrita abaixo. A configuração do sensor de pingo de chuva 50 não é limitada; outro sensor de pingo de chuvas 50 conhecido no momento da aplicação pode ser usado de modo apropriado. A unidade de avaliação do estado da lente 38 determina se a lente 11 se encontra ou não em um estado molhado, com base no resultado produzido do sensor de pingo de chuva 50 (a presença/ausência de pingos de chuva, a presença de pingos de chuva de uma quantidade predeterminada ou mais).
[0143] O limpador 60 é um dispositivo para remover pingos de chuva no pára-brisa e na janela traseira do veículo hospedeiro V. Independentemente de ser ajustado no modo manual ou no modo automático, quanto maior for a quantidade aderida de pingos de chuva, mais rápido o limpador 60 limpará o vidro (ou pára- brisa). Usando isso, é possível determinar que a quantidade e pingos de chuva é maior do que quando a frequência de acionamento (a resistência de acionamento) do limpador 60 for maior, e é possível determinar que a quantidade de pingos de chuva é menor (uma pequena quantidade de precipitação de chuva) quando a fre-quência de acionamento (a resistência de acionamento) do limpador 60 for menor. A unidade de avaliação do estado da lente 38 determina se a lente 11 se encontra ou não em um estado molhado com base nas informações de operação do limpador 60 (informações que o limpador se encontra em operação e que a operação ocorre em uma frequência de acionamento predeterminada ou maior).
[0144] O dispositivo de navegação 70 é dotado de um dispositivo de comunicação 71 que troca informações com o exterior e que funciona como um dispositivo que pode não somente realizar uma busca de rota mas também proporcionar várias informações, incluindo informações climáticas, que incluem informações de precipitação de chuva correspondentes às informações de posição, a partir de um servidor de fornecimento de informações, da mesma forma que um servidor de fornecimento de informações comum conhecido no momento da aplicação. As informações de precipitação de chuva a serem adquiridas incluem a presença/ausência de precipitação de chuva, bem como se existe mais ou menos precipitação de chuva. O dispositivo de navegação 70 detecta a posição atual do veículo hospedeiro V usando um dispositivo de GPS 72 e adquire as informações climáticas, incluindo as informações de precipitação de chuva na posição atual. Como resultado, adquirir informações independentemente da presença/ausência de precipitação de chuva (a adesão de pingos de chuva) e a quantidade de precipitação de chuva externa.
[0145] O dispositivo de limpeza de lente 80 é dotado de uma bomba que fornece líquido de limpeza e de um bocal que asperge o líquido de limpeza fornecido sobre a lente 11, e o dispositivo de limpeza de lente asperge o líquido de limpeza sobre a lente 11 em um momento predeterminado de acordo com uma etapa de limpeza de lente predeterminada a fim de limpar a lente 11 da câmera 10. Nessa etapa de limpeza de lente, o dispositivo de limpeza de lente 80 limpa a superfície da lente 11 de acordo com uma etapa de limpeza de lente, incluindo uma “etapa de umidifi- cação de lente A” na qual um líquido de limpeza W é jogado sobre a lente 11 a fim de molhar a superfície da lente 11; uma “primeira etapa de sopro de ar B” na qual um gás é soprado intermitentemente sobre a lente 11 uma pluralidade de vezes em um intervalo predeterminado; uma “etapa de limpeza C” na qual o líquido de limpeza W é soprado sobre a lente 11 para limpar a superfície da lente 11; e uma “segunda etapa de sopro de ar D” na qual o líquido de limpeza W é evaporado e a superfície da lente 11 é seca. A unidade de avaliação do estado da lente 38 se refere à etapa de limpeza de lente e determina que a lente 11 está molhada enquanto a “etapa de umidificação de lente A” na qual o líquido de limpeza é jogado sobre a lente 11 e a “etapa de limpeza C” na qual o líquido de limpeza é soprado sobre a lente 11 estiverem sendo executadas, com base no tempo decorrido após o início da etapa de limpeza de lente.
[0146] Conforme descrito anteriormente, a unidade de avaliação do estado da lente 38 determina se a lente 11 é molhada ou não com base nas informações adquiridas a partir do sensor de pingo de chuva 50, do limpador 60, do dispositivo de navegação 70, ou do dispositivo de limpeza de lente 80 e emite os resultados à uni- dade de ajuste da área de detecção 41.
[0147] Quando for feita uma determinação pela unidade de avaliação do estado da lente 38 que a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 troca as posições das primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como áreas de detecção A1, A2, de modo que não incluam uma área de exibição de uma linha branca no lado de pista de direção do veículo hospedeiro V dentre as linhas brancas na pista adjacente, que é adjacente à pista na qual o veículo hospedeiro V está se deslocando, e ajusta as segundas áreas de detecção A12, A22 como as novas áreas de detecção A1, A2.
[0148] Entretanto, se um líquido, tal como água ou líquido de limpeza se aderir à lente 11 e a lente 11 se encontrar em um estado molhado, a imagem que é formada pela lente 11 será distorcida. Um exemplo de informações de imagem K adquiridas através de uma lente úmida 11 é ilustrado na Figura 20. A imagem no lado inferior da Figura 20 é uma imagem da placa de licença LP, e a porção cinza no lado superior é uma imagem de um invólucro C da câmera 10. A imagem na área entre a placa de licença LP e o estojo C se altera momento a momento ao longo do movimento do veículo hospedeiro V. As informações de imagem K da área entre a placa de licença LP e o estojo C incluem uma imagem de uma superfície rodoviária RD da rodovia na qual o veículo hospedeiro V se desloca e uma imagem do céu na retaguarda SK expandindo-se acima dessa superfície rodoviária RD, conforme ilustrado na Figura 20.
[0149] Quando o processo de conversão de imagem for conduzido usando as informações de imagem K capturadas através de uma lente úmida 11, tal como aquela ilustrada na Figura 20, existem casos em que as bordas de um objeto plano terão a característica das bordas de um objeto tridimensional devido ao efeito da película de água que reveste a lente 11. Caso as informações de forma de onda diferencial ou as informações de borda forem calculadas usando o método descrito ante- riormente com base nesse tipo de informações de imagem e a detecção de objetos tridimensionais for realizada, existem casos em que um objeto plano, tal como uma linha branca na rodovia (o marcador de pista de direção), é erroneamente reconhecido como uma imagem de um objeto tridimensional, tal como outro veículo VX.
[0150] Conforme especificamente ilustrado pelo desenho à esquerda na Figura 21, quando uma lente 11 que não esteja molhada for usada para capturar uma área de detecção A1a na qual uma linha branca Q1 é desenhada, e quando as informações de forma de onda diferencial (as informações de borda) forem determinada com base nessa imagem capturada, a característica da linha branca Q1, que consiste em um objeto plano, não será extraída conforme ilustrado por G1a. Por outro lado, conforme ilustrado pelo desenho à direita na Figura 21, uma linha branca Q2 é distorcida quando uma lente úmida 11 for usada para capturar uma a área de detecção A1b na qual a linha branca Q2 é desenhada; portanto, caso as informações de forma de onda diferencial (as informações de borda) forem determinadas com base nessa imagem capturada, existem casos em que uma característica Z de um objeto tridimensional será extraída conforme ilustrado por G1b, apesar de os objetos capturados serem somente objetos planos. Caso o processo de detecção de objetos tridimensionais seja realizado na dianteira com base nesse resultado de detecção, existem casos em que uma imagem de uma linha branca será detectada como outro veículo VX.
[0151] Com o intuito de evitar esse tipo de detecção errônea, o dispositivo de detecção de objetos tridimensionais 1 de acordo com a presente modalidade ajusta as segundas áreas de detecção A12, A22 em posições que sejam diferentes das primeiras áreas de detecção padrão A11, A21 quando um estado molhado da lente 11 tiver sido detectado. Essas segundas áreas de detecção A12, A22 são ajustadas trocando-se as posições de modo que não incluam uma área de exibição de uma linha branca no lado de pista de direção do veículo hospedeiro V dentre as linhas brancas nas pistas adjacentes, que são adjacentes à pista na qual o veículo hospedeiro V se desloca, de modo que seja possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11. Como resultado, é possível evitar uma redução na precisão dos resultados de detecção causados pela lente 11 se tornar molhada, e é possível proporcionar um dispositivo de detecção de objetos tridimensionais 1 que detecte outro veículo que esteja se deslocando em uma pista adjacente com um alto grau de precisão.
[0152] O método específico para ajustar as segundas áreas de detecção A12, A22 será discutido abaixo com base nas Figuras 22 a 25.
[0153] A Figura 22 ilustra as primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como as áreas de detecção A1, A2. As primeiras áreas de detecção A11, A21 são ajustadas em posições que incluem outro veículo VX que esteja se deslocando na pista de direção de uma pista adjacente e uma linha branca que indica a posição da pista de direção da pista adjacente. As posições das primeiras áreas de detecção A11, A21 podem ser definidas como posições onde o processamento constante é realizado (as posições padrão).
[0154] Conforme ilustrado na Figura 23, quando a unidade de avaliação do estado da lente 38 determinar que a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 de acordo com a presente modalidade troca as primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como áreas de detecção A1, A2, para posições que sejam separadas de uma linha de referência P que passa pela posição de instalação da câmera 10 e que se encontra ao longo da direção de comprimento do veículo y do veículo hospedeiro V a uma primeira distância predeterminada W1; então, a unidade de ajuste da área de detecção ajusta as segundas áreas de detecção A12, A22 às posições após trocá-las para as novas áreas de detecção A1, A2. Separando-se as primeiras áreas de detecção A11, A21 tanto ao lado esquerdo como ao lado direito do centro da pista de direção do veículo hospedeiro V a uma distância W1 dessa maneira, a configuração é de modo que a área de exibição dos marcadores da pista de direção (as linhas brancas) no lado de pista de direção do veículo hospedeiro V dentre os marcadores da pista de direção nas pistas adjacentes que sejam adjacentes à pista na qual o veículo se desloca não seja incluída nas segundas áreas de detecção A12, A22; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11. Quando outro veículo VX estiver presente nas áreas de detecção A1, A2, primeiramente, somente os marcadores da pista de direção (as pistas brancas) no lado de pista de direção do veículo hospedeiro V dentre os marcadores da pista de direção serão capturados. De modo correspondente, na presente modalidade, as segundas áreas de detecção A12, A22 são ajustadas trocando-se as posições de modo que não incluam (removam) uma área de exibição para os marcadores da pista de direção (as linhas brancas) no lado de pista de direção do veículo hospedeiro V dentre os marcadores da pista de direção nas pistas adjacentes, que sejam adjacentes à pista na qual o veículo se desloca.
[0155] Conforme ilustrado na Figura 24, quando a unidade de avaliação do estado da lente 38 determinar que a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 de acordo com a presente modalidade troca as posições das segundas áreas de detecção A12, A22 para áreas dentro das primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como as áreas de detecção A1, A2, que são áreas faltantes A13, A23, que sejam menores do que uma segunda distância predeterminada W2 a partir de uma linha de referência P que passa pela posição de instalação da câmera 10 e que esteja ao longo da direção de comprimento do veículo y do veículo hospedeiro V, e ajusta as novas áreas de detecção A1, A2. Excluindo-se das áreas de detecção as áreas dentro das primeiras áreas de detecção A11, A21 que estejam tanto ao lado esquerdo como ao lado direito do centro da pista de direção do veículo hospedeiro V a uma distância menor que uma distância W2, a configuração é de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam incluídas nas segundas áreas de detecção A12, A22; como resultado, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0156] Conforme ilustrado na Figura 25, quando a unidade de avaliação do estado da lente 38 determinar que a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 de acordo com a presente modalidade ajusta as segundas áreas de detecção A12, A22 nas quais áreas A14, A24 que sejam menores que um terço de uma distância predeterminada W3 a partir de uma linha de referência P que passa pela posição de instalação da câmera 10 e que esteja ao longo da direção de comprimento do veículo y do veículo hospedeiro V, são mascaradas (removidas) das primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como áreas de detecção A1, A2, como as novas áreas de detecção A1, A2. Com uma configuração de modo que as áreas dentro das primeiras áreas de detecção A11, A21 que estejam tanto ao lado esquerdo como ao lado direito do centro da pista de direção do veículo hospedeiro V a uma distância menor que uma distância W3 não funcionem como as áreas de detecção (mascaramento), a configuração é de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam detectadas nas segundas áreas de detecção A12, A22; como resultado, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0157] As distâncias predeterminadas W1 a W4 podem ser ajustadas antecipadamente e armazenadas no computador 30, ou podem ser armazenadas em associação às informações rodoviárias (informações de posição) nas informações de mapa armazenadas pelo dispositivo de navegação 70; as distâncias predeterminadas W1 a W4 que correspondem às informações rodoviárias às quais pertencem as informações de posição também podem ser lidas sequencialmente, com base nas informações de posição detectadas pelo GPS no dispositivo de navegação 70. As distâncias predeterminadas podem ser distâncias iguais ou diferentes. Quando a linha branca (a largura da pista de direção) tiver em torno de 15 cm, as distâncias predeterminadas W1 a W4 podem ter em torno de 25 cm a 300 cm.
[0158] Quando for feita uma determinação pela unidade de avaliação do estado da lente 38 que a lente 11 se encontra em um estado molhado, a unidade de ajuste da área de detecção 41 da presente modalidade detecta a área de exibição na qual uma linha branca (o marcador de pista de direção) é exibida na rodovia, co base na imagem capturada pela câmera 10, e troca as posições das primeiras áreas de detecção A11, A21, que são primeiramente ajustadas como as áreas de detecção A1, A2, de modo que a área de exibição seja removida (a fim de não incluir a área de exibição), e ajusta as segundas áreas de detecção A12, A22 como as novas áreas de detecção A1, A2. Removendo-se a área de exibição da linha branca a partir das primeiras áreas de detecção A11, A21 dessa maneira, a configuração é de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam detectadas nas segundas áreas de detecção A12, A22; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11. O método para diferenciar as linhas brancas incluídas na superfície rodoviária e extrair as regiões que incluem as linhas brancas diferenciadas não é particularmente limitado, e os métodos de processamento de imagem conhecidos no momento da aplicação podem ser aplicados de modo apropriado.
[0159] Em um ambiente de captura no qual o contraste das linhas brancas (dos marcadores da pista de direção) é alto, a tendência para que uma característica de uma imagem de um objeto tridimensional seja extraída da imagem da linha branca, que consiste em um objeto plano, se torna alta. Nesse tipo de situação, preferencialmente, a configuração é de modo que os marcadores de linha branca das pistas adjacentes não sejam incluídos nas áreas de detecção A1, A2. De modo correspon- dente, a unidade de ajuste da área de detecção 41 de acordo com a presente modalidade calcula o nível de contraste das linhas brancas exibidas na rodovia, com base na imagem capturada pela câmera 10, e ajusta as segundas áreas de detecção A12, A22 como as novas áreas de detecção A1, A2 quando o nível de contraste calculado das linhas brancas estive em um valor limiar predeterminado ou maior. Dessa maneira, as segundas áreas de detecção A12, A22 são ajustadas de modo que as linhas brancas (os marcadores da pista de direção) na pista adjacente não sejam detectadas quando o contraste das linhas brancas (dos marcadores da pista de direção) for alto; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0160] Entretanto, caso as primeiras áreas de detecção A11, A21 sejam movidas mais para fora da linha de referência P com base nos métodos descritos anteriormente, existem casos em que as linhas brancas (os marcadores da pista de direção) fora das pistas adjacentes não são incluídas nas áreas de detecção A1, A2, quando outro veículo VX não estiver presente na área de detecção A1, A2. Nesse caso, se a lente 11 estiver, existem casos em que as linhas brancas fora das pistas adjacentes são distorcidas quando capturadas, provocando uma detecção errônea. De modo correspondente, quando for feita uma determinação que a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 é um valor predeterminado ou maior, conforme ilustrado na Figura 26, a unidade de ajuste da área de detecção 41 de acordo com a presente modalidade ajusta como as novas áreas de detecção A1, A2 as segundas áreas de detecção A12, A22 nas quais a área A25 que é separada de uma linha de referência P que passa pela posição de instalação da câmera 10 e que se encontra ao longo da direção de comprimento do veículo y do veículo hospedeiro V, a uma quarta distância predeterminada W4 ou maior, são removidas das segundas áreas de detecção ajustadas A12, A22 por exclusão ou mascaramento. Dessa maneira, as segundas áreas de detecção A12, A22 são ajustadas de modo que as linhas brancas (os marcadores da pista de direção) fora das pistas adjacentes (mais afastadas da pista de direção do veículo hospedeiro V) não sejam detectadas quando a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 for um valor predeterminado ou maior; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0161] O controlador 39 do dispositivo de detecção de objetos tridimensionais 1 da presente modalidade será descrito abaixo. O controlador 39 de acordo com a presente modalidade evita que um objeto tridimensional detectado pelas unidades de detecção de objetos tridimensionais 33, 37 seja determinado como sendo outro veículo VX que esteja presente no área de detecção do lado direito A1 ou no área de detecção do lado esquerdo A2 pela unidade de avaliação de objeto tridimensional 34 à medida que a distância entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 ajustadas pela unidade de ajuste da área de detecção 41 se torna maior.
[0162] Visto que as áreas de detecção padrão A1, A2 (as primeiras áreas de detecção A11, A21) são ajustadas em posições que possam detectar apropriadamente outro veículo VX durante períodos de tempo normais, existem casos em que outro veículo VX é detectado erroneamente quando as áreas de detecção A1, A2 forem alteradas e um objeto tridimensional for detectado usando as mesmas condições e métodos usuais. De modo correspondente, na presente modalidade, o valor limiar referente à diferença nos valores de pixel ao gerar as informações de forma de onda diferencial é aumentado de modo que a detecção de outro veículo VX seja suprimida (de modo que a detecção seja menos provável), à medida que a distância entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 se torna maior.
[0163] A Figura 27 ilustra um exemplo da relação entre cada valor limiar usa- do para a operação de detectar outro veículo VX e a distância ΔW entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21. Cada valor limiar é ajustado maior à medida que ΔW aumenta, conforme ilustrado na Figura 27. Dessa maneira, um objeto tridimensional sendo detectado e o objeto tridimensional detectado sendo determinado como sendo outro veículo VX são suprimidos à medida que a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 se torna maior; portanto, é possível evitar uma detecção errônea causada pelo desvio de áreas de detecção A1, A2.
[0164] Além disso, o controlador 39 de acordo com a presente modalidade é capaz de emitir a uma unidade de detecção de objetos tridimensionais 33 um comando de controle para emitir um valor obtido contando-se o número de pixels que indica uma diferença predeterminada na imagem diferencial da imagem de vista em perspectiva aérea e são formados em uma distribuição de frequência, que seja menor à medida que a distância entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 se torna maior. Um valor obtido contando-se o número de pixels que indica uma diferença predeterminada na imagem diferencial da imagem de vista em perspectiva aérea e são formados em uma distribuição de frequência é um valor no eixo geométrico vertical da forma de onda diferencial DWt gerada na Etapa S5 na Figura 11. Reduzindo-se o valor de saída dessa maneira, a sensibilidade de detecção pode ser ajustada de modo que outro veículo VX que esteja se deslocando adjacente à pista de direção do veículo hospedeiro V tenha menor probabilidade de ser detectado, tornando possível a prevenção de uma detecção errônea de outro veículo VX.
[0165] A seguir, descreve-se um comando de controle usado para detectar um objeto tridimensional com base nas informações de borda. O controlador 39 de acordo com a presente modalidade emite a uma unidade de detecção de objetos tridimensionais 37 um comando de controle para aumentar um valor limiar predeter- minado relacionado à luminância usado ao detectar as informações de borda à medida que a distância entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 se torna maior. Um valor limiar predeterminado relacionado à luminância usada ao detectar informações de borda é um valor limiar θ para determinar um valor obtido normalizando-se a soma da continuidade c dos atributos de cada ponto de atenção Pa na Etapa S29 na Figura 17; alternativamente, esse é um segundo valor limiar β para avaliar a quantidade de linhas de borda na Etapa S34 na Figura 18. Aumentando-se o valor limiar para determinação dessa maneira, a sensibilidade de detecção pode ser ajustada de modo que outro veículo VX que esteja se deslocando adjacente à pista de direção do veículo hospedeiro V tenha menor probabilidade de ser detectado, tornando possível a prevenção de uma detecção errônea de outro veículo VX.
[0166] Adicionalmente, o controlador 39 de acordo com a presente modalidade emite à unidade de detecção de objetos tridimensionais 37 um comando de controle para emitir a quantidade das informações de borda detectadas que é reduzida à medida que a distância entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 se torna maior. A quantidade de informações de borda detectadas é o valor obtido normalizando-se a soma da continuidade c dos atributos de cada ponto de atenção Pa na Etapa S29 na Figura 17 ou a quantidade de linhas de borda na Etapa S34 na Figura 18. Reduzindo-se o valor de saída dessa maneira, a sensibilidade de detecção pode ser ajustada de modo que outro veículo VX que esteja se deslocando adjacente à pista de direção do veículo hospedeiro V tenha menor probabilidade de ser detectado tornando o valor de saída menor; portanto, é possível evitar uma detecção errônea de outro veículo VX que esteja se deslocando na pista adjacente.
[0167] De modo correspondente, quando tiver sido feita uma determinação que a distância ΔW (W1 - W0) entre as segundas áreas de detecção ajustadas A12, A22 e as primeiras áreas de detecção A11, A21 é um valor predeterminado ou maior, a unidade de ajuste da área de detecção 38 de acordo com a presente modalidade altera as posições e ajusta uma terceira área de detecção A25 em uma área dentro das segundas áreas de detecção ajustadas A12, A22 que seja separada de uma linha de referência P que passa pela posição de instalação da câmera 10 e que esteja ao longo da direção de comprimento do veículo y do veículo hospedeiro a uma quinta distância predeterminada W5 ou maior (incorporação à Figura 26). Então, o controlador 39 evita que um objeto tridimensional detectado a partir de informações com base em uma imagem correspondente a essa terceira área de detecção A25 seja determinado como sendo outro veículo VX. De modo específico, o controlador detecta um objeto tridimensional com base em uma imagem correspondente à terceira área de detecção A25 e aumenta o primeiro valor limiar α, o segundo valor limiar β, e θ, que são aplicados no processo para determinar se o objeto tridimensional detectado é ou não outro veículo VX.
[0168] Dessa maneira, quando a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 for grande, um objeto tridimensional sendo detectado a partir de informações de imagem correspondentes a uma área que seja separada de uma linha de referência P ao longo da direção de comprimento do veículo y do veículo a uma quinta distância predeterminada W5 ou maior e o objeto tridimensional detectado sendo determinado como sendo outro veículo VX são suprimidos; portanto, é possível evitar uma detecção errônea provocada pelo desvio de áreas de detecção A1, A2.
[0169] A Figura 28 é o procedimento de controle para o dispositivo de detecção de objetos tridimensionais 1 de acordo com a presente modalidade. A unidade de avaliação do estado da lente 38 avalia se a lente 11 se encontra ou não em um estado molhado com base em várias informações adquiridas a partir do sensor de pingo de chuva 50, do limpador 60, do dispositivo de navegação 70, ou do dispositi- vo de limpeza de lente 80 na Etapa S41. Caso a lente 11 não esteja em um estado molhado, a operação procede para a Etapa S42 e ajusta as primeiras áreas de detecção padrão A11, A21 como as áreas de detecção A1, A2. Por outro lado, caso seja determinado que a lente 11 se encontra em um estado molhado, a operação procede para a Etapa S43.
[0170] A unidade de ajuste da área de detecção 41 determina se o contraste, que a diferença de luminância entre a parte interna e a parte externa das bordas da imagem detectada como uma linha branca, é um valor predeterminado ou maior e procede para a Etapa S42 caso o contraste seja menor que o valor predeterminado; então, as primeiras áreas de detecção padrão A11, A21 são ajustadas como as áreas de detecção A1, A2 na Etapa S43. Por outro lado, a operação procede para a Etapa S44 caso o contraste seja o valor predeterminado ou maior, e as novas segundas áreas de detecção A12, A22 com posições trocadas são ajustadas. A unidade de ajuste da área de detecção 41 ajusta as novas segundas áreas de detecção A12, A22 usando um entre a pluralidade de métodos para ajustar descritos anteriormente.
[0171] Quando o grau de desalinhamento ΔW das posições ajustadas das novas segundas áreas de detecção A12, A22 em relação às posições ajustadas das primeiras áreas de detecção padrão A11, A21 não for um valor predeterminado ou maior, a operação procede para a Etapa S46, e o controlador 39 ajusta um dos valores limiares, que são aplicados à detecção de objetos tridimensionais e a determinação referente à presença de outro veículo, tal como o primeiro valor limiar α, o valor limiar θ, e o segundo valor limiar β, maior à medida que o grau de desalinhamento ΔW se torna maior a fim de suprimir a detecção de objetos tridimensionais na Etapa S45. O valor limiar é ajustado como sendo alto ao processar as informações de ima-gem adquiridas a partir das novas segundas áreas de detecção A12, A22.
[0172] Na Etapa S45, quando o grau de desalinhamento ΔW das posições ajustadas das novas segundas áreas de detecção A12, A22 em relação às posições ajustadas das primeiras áreas de detecção padrão A11, A21 for um valor predeter-minado ou maior, a operação procede para a Etapa S47, e a unidade de ajuste da área de detecção 41 ajusta uma terceira área de detecção A25, que seja separada de uma linha de referência P ao longo da direção de comprimento do veículo y do veículo hospedeiro V a uma quinta distância predeterminada W5 ou maior (com referência à Figura 26). Então, o controlador 39 evita que um objeto tridimensional seja detectado como outro veículo VX a partir das informações com base em uma imagem correspondente a essa terceira área de detecção A25. Em outras palavras, um dos valores limiares, que são aplicados ao processar a imagem correspondente à terceira área de detecção A25, tal como o primeiro valor limiar α, o valor limiar θ, e o segundo valor limiar β, é ajustado como sendo alto.
[0173] O controlador 39 altera cada um dos valores limiares usados para cada uma das operações como sendo maior que o valor inicial, o valor padrão, e os outros valores ajustados (de modo que a detecção seja menor provável); alternativamente, o controlador altera o valor de saída que é comparado a cada um dos valores limiares como sendo menor (de modo que a detecção seja menos provável) a fim de evitar que um objeto tridimensional seja detectado pelas unidades de detecção de objetos tridimensionais 33, 37 ou que um objeto tridimensional seja determinado como sendo outro veículo VX pela unidade de avaliação de objeto tridimensional 37.
[0174] Os conteúdos específicos da operação são os seguintes.
[0175] Quando a unidade de detecção de objetos tridimensionais 33, que detecta um objeto tridimensional usando informações de forma de onda diferencial, detectar um objeto tridimensional quando as informações de forma de onda diferencial estiverem em um primeiro valor limiar predeterminado α ou maior, o controlador 39 gera um comando de controle para aumentar o primeiro valor limiar α de modo que o objeto tridimensional não seja prontamente detectado e emite esse comando de controle à unidade de detecção de objetos tridimensionais 33.
[0176] De modo similar, quando a unidade de detecção de objetos tridimensionais 33 detectar um objeto tridimensional quando as informações de forma de onda diferencial estiverem em um primeiro valor limiar predeterminado α ou maior, o controlador 39 gera um comando de controle para reduzir e emitir um valor obtido contando-se o número de pixels que indicam uma diferença predeterminada na imagem diferencial da imagem de vista em perspectiva aérea e formados em uma distribuição de frequência e emite esse comando de controle à unidade de detecção de objetos tridimensionais 38.
[0177] Além disso, quando a unidade de detecção de objetos tridimensionais 33, que detecta um objeto tridimensional usando informações de forma de onda diferencial, extrair o número de pixels que indica um valor de pixel em um valor limiar p ou maior como um número de pixels que indica uma diferença predeterminada, o controlador 39 gera um comando de controle para aumentar o valor limiar p de modo que o objeto tridimensional não seja prontamente detectado e emite esse comando de controle à unidade de detecção de objetos tridimensionais 38.
[0178] De modo similar, quando a unidade de detecção de objetos tridimensionais 33 extrair o número de pixels que indica um valor de pixel em um valor limiar p ou maior como um número de pixels que indica uma diferença predeterminada, o controlador 39 gera um comando de controle para reduzir e emitir o número de pixels que são extraídos da imagem diferencial ao longo de uma direção na qual um objeto tridimensional se choca quando o ponto de vista for convertido em uma imagem de vista em perspectiva aérea e emitir esse comando de controle à unidade de detecção de objetos tridimensionais 38.
[0179] Quando a unidade de detecção de objetos tridimensionais 37, que detecta um objeto tridimensional usando as informações de borda, extrair uma linha de borda com base nos pixels que indicam uma diferença de luminância de um valor limiar predeterminado t ou maior, o controlador 39 gera um comando de controle para aumentar o valor limiar predeterminado t de modo que o objeto tridimensional não seja prontamente detectado e emite esse comando de controle à unidade de detecção de objetos tridimensionais 37.
[0180] De modo similar, quando a unidade de detecção de objetos tridimensionais 37, que detecta um objeto tridimensional usando as informações de borda, extrair uma linha de borda com base nos pixels que indicam uma diferença de lumi- nância de um valor limiar predeterminado t ou maior, o controlador 39 gera um comando de controle para reduzir e emitir o valor de luminância dos pixels e emite esse comando de controle à unidade de detecção de objetos tridimensionais 37.
[0181] Quando a unidade de detecção de objetos tridimensionais 37, que detecta um objeto tridimensional usando as informações de borda, detectar um objeto tridimensional com base em uma linha de borda tendo um comprimento de um valor limiar θ incluído nas informações de borda ou maior, o controlador 39 gera um comando de controle para aumentar o valor limiar θ de modo que o objeto tridimensional não seja prontamente detectado e emite esse comando de controle à unidade de detecção de objetos tridimensionais 37.
[0182] De modo similar, quando a unidade de detecção de objetos tridimensionais 37, que detecta um objeto tridimensional usando as informações de borda, detectar um objeto tridimensional com base em uma linha de borda tendo um comprimento de um valor limiar θ incluído nas informações de borda ou maior, o controlador 39 gera um comando de controle para reduzir e emitir o valor do comprimento da linha de borda das informações de borda detectadas e emite esse comando de controle à unidade de detecção de objetos tridimensionais 37.
[0183] Quando a unidade de detecção de objetos tridimensionais 37, que detecta um objeto tridimensional usando as informações de borda, detectar um objeto tridimensional com base em uma determinação referente a se o número de linhas de borda que se encontra em um comprimento predeterminado ou maior está incluído nas informações de borda, por exemplo, as linhas de borda tendo um comprimento de um valor limiar θ ou maior, se encontra em um segundo valor limiar β ou maior, o controlador 39 gera um comando de controle para aumentar o segundo valor limiar β de modo que o objeto tridimensional não seja prontamente detectado e emite esse comando de controle à unidade de detecção de objetos tridimensionais 37.
[0184] Quando a unidade de detecção de objetos tridimensionais 37, que detecta um objeto tridimensional usando as informações de borda, detectar um objeto tridimensional com base em uma determinação referente a se o número de linhas de borda que se encontram em um comprimento predeterminado ou maior é incluído nas informações de borda, por exemplo, as linhas de borda tendo um comprimento de um valor limiar θ ou maior, se encontra em um segundo valor limiar β ou maior, o controlador 39 gera um comando de controle para reduzir e emitir o número de linhas de borda detectadas que se encontra em um comprimento predeterminado ou maior e emite esse comando de controle à unidade de detecção de objetos tridimensionais 37.
[0185] Além disso, quando a velocidade de deslocamento do objeto tridimensional detectado for uma velocidade predeterminada que é ajustada antecipadamente ou maior e a unidade de avaliação de objeto tridimensional 34 determinar que esse objeto tridimensional é outro veículo, o controlador 39 gera um comando de controle para aumentar a velocidade predeterminada, que se torna o limite inferior ao determinar que um objeto tridimensional é outro veículo, de modo que o objeto tridimensional não seja prontamente detectado, e emite esse comando de controle à unidade de avaliação de objeto tridimensional 34.
[0186] De modo similar, quando a velocidade de deslocamento do objeto tri-dimensional detectado for uma velocidade predeterminada que é ajustada antecipadamente ou maior e a unidade de avaliação de objeto tridimensional 34 determinar que esse objeto tridimensional é outro veículo, o controlador 39 gera um comando de controle para reduzir e emitir a velocidade de deslocamento do objeto tridimensional que é comparada à velocidade predeterminada, que se torna o limite inferior ao determinar que um objeto tridimensional é outro veículo, e emite esse comando de controle à unidade de avaliação de objeto tridimensional 34.
[0187] Além disso, quando a velocidade de deslocamento do objeto tridimensional detectado for menor que uma velocidade predeterminada que é ajustada antecipadamente e a unidade de avaliação de objeto tridimensional 34 determinar que esse objeto tridimensional é outro veículo, o controlador 39 gera um comando de controle para reduzir a velocidade predeterminada, que se torna o limite superior ao determinar que um objeto tridimensional é outro veículo, e emite esse comando de controle à unidade de avaliação de objeto tridimensional 34.
[0188] De modo similar, quando a velocidade de deslocamento do objeto tri-dimensional detectado for menor que uma velocidade predeterminada que é ajustada antecipadamente e a unidade de avaliação de objeto tridimensional 34 determinar que esse objeto tridimensional é outro veículo, o controlador 39 gera um comando de controle para aumentar a velocidade de deslocamento do objeto tridimensional que é comparada à velocidade predeterminada, que se torna o limite superior ao determinar que um objeto tridimensional é outro veículo, e emite esse comando de controle à unidade de avaliação de objeto tridimensional 34.
[0189] No presente documento, a “velocidade de deslocamento” inclui a velocidade absoluta do objeto tridimensional, bem como a velocidade relativa do objeto tridimensional em relação ao veículo hospedeiro. A velocidade absoluta do objeto tridimensional pode ser calculada a partir da velocidade relativa do objeto tridimensional, ou a velocidade relativa do objeto tridimensional pode ser calculada a partir da velocidade absoluta do objeto tridimensional.
[0190] O primeiro valor limiar α é um valor limiar para determinar o pico da forma de onda diferencial DWt na Etapa S7 na Figura 11. O valor limiar p é um valor limiar para extrair pixels tendo um valor de pixel predeterminado. O valor limiar pre-determinado t é um valor limiar para extrair pixels ou componentes de borda que te-nham uma diferença de luminância predeterminada. O valor limiar θ é um valor limiar para determinar um valor (o comprimento da borda) obtido normalizando-se a soma da continuidade c dos atributos de cada ponto de atenção Pa na Etapa S29 na Figura 17; o segundo valor limiar β é um valor limiar para avaliar a quantidade (o número) de linhas de borda na Etapa S34 na Figura 18. Aumentando-se o valor limiar para determinação dessa maneira, a sensibilidade de detecção pode ser ajustada de modo que outro veículo VX que esteja se deslocando adjacente à pista de direção do veículo hospedeiro V tenha menor probabilidade de ser detectado, tornando possível a prevenção de uma detecção errônea de outro veículo VX.
[0191] O controlador 39 de acordo com a presente modalidade emite à unidade de detecção de objetos tridimensionais 33 um comando de controle para reduzir e emitir um valor obtido contando-se o número de pixels que indica uma diferença predeterminada na imagem diferencial da imagem de vista em perspectiva aérea e que são formados em uma distribuição de frequência. Um valor obtido contando-se o número de pixels que indica um diferença predeterminada na imagem diferencial da imagem de vista em perspectiva aérea e que são formados em uma distribuição de frequência é um valor no eixo geométrico vertical da forma de onda diferencial DWt gerada na Etapa S5 na Figura 11. Além disso, o controlador 39 de acordo com a presente modalidade emite à unidade de detecção de objetos tridimensionais 37 um comando de controle para reduzir e emitir as informações de borda detectadas. As informações de borda detectadas consistem em um comprimento da linha de borda, que é um valor obtido normalizando-se a soma da continuidade c dos atributos de cada ponto de atenção Pa na Etapa S29 na Figura 17, bem como a quantidade de linhas de borda na Etapa S34 na Figura 18. O controlador 39 diminui o valor obtido normalizando-se a soma da continuidade c dos atributos de cada ponto de atenção Pa ou a quantidade de linhas de borda, de modo que um objeto tridimensional não seja prontamente detectado no processo subsequente. Reduzindo-se o valor de saída dessa maneira, a sensibilidade de detecção pode ser ajustada de modo que outro veículo VX que esteja se deslocando adjacente à pista de direção do veículo hospedeiro V tenha menor probabilidade de ser detectado; portanto, é possível evitar uma detecção errônea de outro veículo VX que esteja se deslocando na pista adjacente.
[0192] Quando as segundas áreas de detecção A12, A22 forem ajustadas e cada um dos valores limiares for ajustado, a operação procede para a Etapa S48, e realiza-se uma operação para detectar um objeto tridimensional. A operação para detectar o objeto tridimensional é realizada pela unidade de detecção de objetos tridimensionais 33 de acordo com a operação usando as informações de forma de onda diferencial nas Figuras 11 e 12 ou pela unidade de detecção de objetos tridimensionais 37 com a operação que usa as informações de borda nas Figuras 17 e 18. Então, na Etapa S43, quando um objeto tridimensional for detectado pelas unidades de detecção de objetos tridimensionais 33, 37 nas áreas de detecção A1, A2, a operação procede para a Etapa S49, e o objeto tridimensional detectado é determinado como sendo outro veículo VX. Por outro lado, quando um objeto tridimensional não for detectado pelas unidades de detecção de objetos tridimensionais 33, 37 nas áreas de detecção A1, A2, a operação procede para a Etapa S51, e realiza-se uma determinação que outro veículo VX não está presente nas primeiras áreas de detecção A11, A21.
[0193] De acordo com o dispositivo de detecção de objetos tridimensionais 1 de acordo com a presente modalidade da presente invenção que é configurado para operar da maneira descrita acima, obtém-se o efeito a seguir.
[0194] (1) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, as segundas áreas de detecção A12, A22 são ajus- tadas em posições que sejam diferentes das primeiras áreas de detecção padrão A11, A21 quando um estado molhado da lente 11 tiver sido detectado. Essas segundas áreas de detecção A12, A22 são ajustadas em posições que não incluam uma área de exibição de uma linha branca no lado de pista de direção do veículo hospedeiro V dentre as linhas brancas nas pistas adjacentes, que são adjacentes à pista na qual o veículo hospedeiro V se desloca; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11. Como resultado, é possível evitar uma redução na precisão dos resultados de detecção causada pela lente 11 que se torna úmida, e é possível proporcionar um dispositivo de detecção de objetos tridimensionais 1 que detecte outro veículo que se desloca em uma pista adjacente com um alto grau de precisão. Esse efeito é obtido similarmente tanto ao detectar outro veículo VX com base nas informações de forma de onda diferencial como ao detectar outro veículo VX com base nas informações de borda.
[0195] (2) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, separando-se as primeiras áreas de detecção A11, A21 tanto ao lado esquerdo como ao lado direito do centro da pista de direção do veículo hospedeiro V a uma distância W1, a configuração pode ser de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam incluídas nas segundas áreas de detecção A12, A22; como resultado, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0196] (3) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, excluindo-se das áreas de detecção as áreas dentro das primeiras áreas de detecção A11, A21 que estejam tanto ao lado esquerdo como ao lado direito do centro da pista de direção do veículo hospedeiro V a uma distância menor que distância W2, a configuração pode ser de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam incluídas nas segundas áreas de detecção A12, A22; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0197] (4) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, configurando-se esse dispositivo de modo que as áreas dentro das primeiras áreas de detecção A11, A21 que estejam tanto ao lado esquerdo como ao lado direito do centro da pista de direção do veículo hospedeiro V a uma distância menor que uma distância W3 não funcionem como áreas de detecção (mascaramento), a configuração pode ser de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam detectadas nas segundas áreas de detecção A12, A22; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0198] (5) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, removendo-se a área de exibição da linha branca a partir das primeiras áreas de detecção A11, A21, a configuração pode ser de modo que as linhas brancas (os marcadores da pista de direção) nas pistas adjacentes não sejam detectadas nas segundas áreas de detecção A12, A22; como resultado, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0199] (6) Em uma situação na qual o contraste das linhas brancas (os marcadores da pista de direção) é alto, há uma grande possibilidade que uma detecção errônea ocorra devido à imagem distorcida da linha branca. De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, as segundas áreas de detecção A12, A22 são ajustadas de modo que as linhas brancas (os marcadores da pista de direção) na pista adjacente não sejam detectadas quando o contraste das linhas brancas (os marcadores da pista de direção) for alto; portanto, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0200] (7) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, as segundas áreas de detecção A12, A22 são ajustadas de modo que as linhas brancas (os marcadores da pista de direção) fora das pistas adjacentes (mais afastadas da pista de direção do veículo hospedeiro V) não sejam detectadas quando a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 for um valor predeterminado ou maior; como resultado, é possível eliminar o efeito da imagem distorcida da linha branca capturada pela lente úmida 11.
[0201] (8) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, um objeto tridimensional sendo detectado e o objeto tridimensional detectado sendo determinado como sendo outro veículo VX são suprimidos à medida que a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 se torna maior; portanto, é possível evitar uma detecção errônea causada pelo desvio das áreas de detecção A1, A2.
[0202] (9) De acordo com o dispositivo de detecção de objetos tridimensionais 1 da presente modalidade, quando a distância ΔW (W1 - W0) entre as segundas áreas de detecção A12, A22 e as primeiras áreas de detecção A11, A21 for grande, um objeto tridimensional sendo detectado a partir das informações de imagem correspondentes a uma área que seja separada de uma linha de referência P ao longo da direção de comprimento do veículo y do veículo a uma quinta distância predeterminada W5 ou maior, bem como o objeto tridimensional detectado sendo determinado como sendo outro veículo VX, são suprimidos; como resultado, é possível evitar uma detecção errônea causada pelo desvio das áreas de detecção A1, A2.
[0203] A câmera 10 descrita anteriormente corresponde à unidade de captura de acordo com a presente invenção; a unidade de conversão de ponto de vista 31 descrita anteriormente corresponde ao meio de conversão de imagem de acordo com a presente invenção; a unidade de alinhamento 32 e a unidade de detecção de objetos tridimensionais 33 descritas anteriormente correspondem ao meio de detecção de objetos tridimensionais de acordo com a presente invenção; a unidade de cálculo de diferença de luminância 35, a unidade de detecção de linha de borda 36, e a unidade de detecção de objetos tridimensionais 37 descritas anteriormente correspondem ao meio de detecção de objetos tridimensionais de acordo com a presente invenção; a unidade de avaliação de objeto tridimensional 34 descrita anteriormente corresponde ao meio de avaliação de objeto tridimensional; a unidade de ava-liação do estado da lente 38 descrita anteriormente corresponde ao meio de avaliação do estado da lente; a unidade de ajuste da área de detecção 41 descrita anteriormente corresponde ao meio de ajuste da área de detecção; e o sensor de velocidade do veículo 20 descrito anteriormente corresponde ao sensor de velocidade.
[0204] A unidade de alinhamento 21 na presente modalidade alinha em uma vista em perspectiva aérea as posições das imagens de vista em perspectiva aérea obtidas em diferentes momentos e obtém as imagens de vista em perspectiva aérea alinhadas; no entanto, a operação de “alinhamento” pode ser realizada em uma precisão correspondente ao tipo de objetos a serem detectados ou à precisão requerida para detecção. A operação pode ser uma operação de alinhamento estrita na qual o alinhamento é conduzido com base no mesmo tempo e na mesma posição, ou essa operação pode ser uma operação de alinhamento livre na qual as coordenadas de cada imagem de vista em perspectiva aérea são captadas.LISTA DOS SINAIS DE REFERÊNCIA1 - dispositivo de detecção de objetos tridimensionais10 - câmera11 - dispositivo de limpeza de lente20 - sensor de velocidade 30 - computador31 - unidade de conversão de ponto de vista32 - unidade de alinhamento33 , 37 - unidade de detecção de objetos tridimensionais34 - unidade de avaliação de objeto tridimensional35 - unidade de cálculo de diferença de luminância36 - unidade de detecção de borda38 - unidade de avaliação do estado da lente39 - controlador40 - unidade de detecção de truncamento41 - unidade de ajuste da área de detecção50 - sensor de pingo de chuva60 - limpador70 - dispositivo de navegação80 - dispositivo de limpeza de lentea - ângulo de visãoA1, A2 - área de detecçãoCP - ponto de cruzamentoDP - pixels de diferençaDWt, DWt' - forma de onda diferencialDWt1 ~DWm, DWm+k~DWtn - área pequenaL1, L2 - linha de soloLa, Lb - linha na direção em que um objeto tridimensional se chocaP - imagem capturadaPBt - imagem de vista em perspectiva aéreaPDt - imagem diferencialMP - imagem de máscara S - truncamentoSP - imagem de truncamentoSBt - imagem de vista em perspectiva aérea de truncamentoV - veículo hospedeiroVX - outro veículo

Claims (8)

1. Dispositivo de detecção de objetos tridimensionais (1), que compreende:um meio de captura de imagem (10) que compreende uma lente para capturar imagens atrás de um veículo, as imagens capturadas incluindo um marcador de pista de direção em um lado de pista de direção do veículo dentre os marcadores de pista de direção em pistas adjacentes, que sejam adjacentes à pista na qual o veículo se desloca;um meio de ajuste da área de detecção (41) para ajustar uma área de detecção atrás do veículo; eum meio de detecção de objetos tridimensionais (32, 33, 35, 36, 37) para detectar um objeto tridimensional que esteja presente na área de detecção baseado nas imagens adquiridas pelo meio de captura de imagem (10),CARACTERIZADO pelo fato de queum meio de avaliação do estado da lente (38) para detectar se a lente se encontra ou não em um estado molhado baseado em várias informações adquiridas a partir de um sensor de pingo de chuva (50), um limpador (60), um dispositivo de navegação (70), ou um dispositivo de limpeza de lente (80), em quequando for feita uma determinação pelo meio de avaliação do estado da lente (38) que a lente se encontra em um estado molhado, o meio de ajuste da área de detecção (41) deleta uma parte de e/ou mascara uma parte de e/ou troca ao longo da direção de largura do veículo a posição de uma primeira área de detecção, que inclui o marcador de pista de direção e que é primeiramente ajustada como a área de detecção, e ajusta uma segunda área de detecção que exclui o marcador de pista de direção, da pista adjacente como a área de detecção.
2. Dispositivo de detecção de objetos tridimensionais (1), de acordo com a reivindicação 1, CARACTERIZADO pelo fato de quequando for feita uma determinação que a distância entre a segunda área de detecção ajustada e a primeira área de detecção é um valor predeterminado ou maior, o meio de ajuste da área de detecção (41) ajusta uma área na qual o marcador de pista de direção no lado de fora da pista adjacente dos marcadores de pista de direção nas pistas adjacentes, que sejam adjacentes à pista na qual o veículo se desloca, é excluída como a região de detecção deletando ou mascarando uma área parcial dentro da segunda área de detecção ajustada ao longo da direção de largura de veículo do veículo.
3. Dispositivo de detecção de objetos tridimensionais (1), de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de que compreende, ainda, um controlador que evita um objeto tridimensional, que seja detectado pelo meio de detecção de objetos tridimensionais (32, 33, 35, 36, 37), de ser determinado como sendo outro veículo que esteja presente na área de detecção do lado direito ou na área de detecção do lado esquerdo pelo meio de avaliação de objeto tridimensional (34) à medida que a distância entre a segunda área de detecção e a primeira área de detecção ajustada pelo meio de ajuste da área de detecção (41) se torna maior.
4. Dispositivo de detecção de objetos tridimensionais (1), de acordo com a reivindicação 1 ou 2, CARACTERIZADO pelo fato de queo meio de ajuste da área de detecção (41), quando for feita uma determinação que a distância entre a segunda área de detecção ajustada e a primeira área de detecção é um valor predeterminado ou maior, ajusta uma terceira área de detecção em uma área dentro da segunda área de detecção ajustada que seja separada ao longo da direção de largura de veículo do veículo por uma distância predeterminada ou maior; ecompreende ainda um controlador que evita o objeto tridimensional, que é detectado a partir de informação baseada em uma imagem correspondente à terceira área de detecção, de ser determinado como sendo outro veículo.
5. Dispositivo de detecção de objetos tridimensionais (1), de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que com-preende ainda:um meio de conversão de imagem para converter o ponto de vista de uma imagem obtida pelo meio de captura de imagem (10) em uma imagem de vista em perspectiva aérea; eum meio de avaliação de objeto tridimensional (34) para determinar se um objeto tridimensional detectado pelo meio de avaliação de objeto tridimensional (34) é ou não outro veículo; em queo meio de ajuste da área de detecção (41) ajusta as áreas de detecção tanto no lado direito como no lado esquerdo atrás do veículo;o meio de detecção de objetos tridimensionais (32, 33) alinha em uma vista em perspectiva aérea as posições das imagens de vista em perspectiva aérea obtidas em diferentes momentos pelo meio de conversão de imagem, gera as informações de forma de onda diferencial pela contagem do número de pixels que indicam uma diferença predeterminada na imagem diferencial ao longo de uma direção na qual o objeto tridimensional se deforma quando o ponto de vista da imagem de vista em perspectiva aérea for convertido em uma imagem diferencial das imagens de vista em perspectiva aérea alinhadas e formar uma distribuição de frequência, e detecta um objeto tridimensional que esteja presente na área de detecção baseado nas informações de forma de onda diferencial; eo meio de avaliação de objeto tridimensional (34) determina se o objeto tridimensional detectado pelo meio de detecção de objetos tridimensionais (32, 33) é ou não outro veículo que esteja presente na área de detecção do lado direito ou na área de detecção do lado esquerdo.
6. Dispositivo de detecção de objetos tridimensionais (1), de acordo com qualquer uma das reivindicações 1 a 4, CARACTERIZADO pelo fato de que compreende ainda: um meio de conversão de imagem para converter o ponto de vista de uma imagem obtida pelo meio de captura de imagem (10), em uma imagem de vista em perspectiva aérea; eum meio de avaliação de objeto tridimensional (34) para determinar se um objeto tridimensional detectado pelo meio de avaliação de objeto tridimensional (34) é ou não outro veículo; em queo meio de ajuste da área de detecção (41) ajusta as áreas de detecção tanto no lado direito como no lado esquerdo atrás do veículo;o meio de detecção de objetos tridimensionais (35, 36, 37) detecta as informações de borda, nas quais a diferença de luminância de áreas de imagem mutuamente adjacentes se encontra em um valor limiar predeterminado ou maior ao longo de uma direção na qual um objeto tridimensional se deforma quando o ponto de vista for convertido em uma imagem de vista em perspectiva aérea, e uma imagem de vista em perspectiva aérea obtida pelo meio de conversão de imagem e detecta o objeto tridimensional com base nas informações de borda; eo meio de avaliação de objeto tridimensional (34) determina se o objeto tridimensional detectado pelo meio de detecção de objetos tridimensionais (35, 36, 37) é ou não outro veículo que esteja presente na área de detecção do lado direito ou na área de detecção do lado esquerdo.
7. Dispositivo de detecção de objetos tridimensionais (1), de acordo com a reivindicação 5, CARACTERIZADO pelo fato de queum computador montado no veículo fornece o meio de conversão de imagem, o meio de ajuste de área de detecção (41), o meio de detecção de objetos tridimensionais (32, 33), o meio de avaliação de objeto tridimensional (34) e o meio de avaliação de lente, eem que o computador é programado com um método para executar:uma etapa, pelo meio de conversão de imagem, de converter o ponto de vis ta de uma imagem obtida pelo meio de captura de imagem (10) para criar uma imagem de vista em perspectiva aérea.
8. Dispositivo de detecção de objetos tridimensionais (1), de acordo com a reivindicação 6, CARACTERIZADO pelo fato de queum computador montado no veículo fornece o meio de conversão de imagem, o meio de ajuste de área de detecção (41), o meio de detecção de objetos tridimensionais (35, 36, 37), o meio de avaliação de objeto tridimensional (34) e o meio de avaliação de lente.
BR112015001865-3A 2012-07-27 2013-07-24 Dispositivo de detecção de objetos tridimensionais BR112015001865B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012166515 2012-07-27
JP2012-166515 2012-07-27
PCT/JP2013/070009 WO2014017520A1 (ja) 2012-07-27 2013-07-24 立体物検出装置及び立体物検出方法

Publications (2)

Publication Number Publication Date
BR112015001865A2 BR112015001865A2 (pt) 2019-12-31
BR112015001865B1 true BR112015001865B1 (pt) 2021-10-26

Family

ID=49997329

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015001865-3A BR112015001865B1 (pt) 2012-07-27 2013-07-24 Dispositivo de detecção de objetos tridimensionais

Country Status (10)

Country Link
US (1) US9569675B2 (pt)
EP (1) EP2879110B1 (pt)
JP (1) JP5900623B2 (pt)
CN (1) CN104508726B (pt)
BR (1) BR112015001865B1 (pt)
IN (1) IN2015KN00315A (pt)
MX (1) MX341048B (pt)
MY (1) MY155816A (pt)
RU (1) RU2572952C1 (pt)
WO (1) WO2014017520A1 (pt)

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101448411B1 (ko) * 2010-08-19 2014-10-07 닛산 지도우샤 가부시키가이샤 입체물 검출 장치 및 입체물 검출 방법
JP5894201B2 (ja) * 2014-02-14 2016-03-23 株式会社日本自動車部品総合研究所 境界線認識装置
JP6087858B2 (ja) * 2014-03-24 2017-03-01 株式会社日本自動車部品総合研究所 走行区画線認識装置及び走行区画線認識プログラム
JP6260424B2 (ja) * 2014-04-16 2018-01-17 株式会社デンソー 車載カメラの取り付け誤差検出装置
JP5962706B2 (ja) * 2014-06-04 2016-08-03 トヨタ自動車株式会社 運転支援装置
JP6456682B2 (ja) * 2014-12-25 2019-01-23 株式会社Soken 走行区画線認識装置
JP6418961B2 (ja) * 2015-01-28 2018-11-07 シャープ株式会社 障害物検知装置、移動体、障害物検知方法、および障害物検知プログラム
CN104976960B (zh) * 2015-06-11 2017-05-31 西北农林科技大学 一种雨滴物理特性观测方法
JP6545007B2 (ja) * 2015-06-11 2019-07-17 キヤノン株式会社 撮像装置
JP6623729B2 (ja) * 2015-12-04 2019-12-25 株式会社ソシオネクスト 測距システム、移動体及び部品
US9824300B2 (en) * 2016-03-01 2017-11-21 Ford Global Technologies, Llc Vehicle lane learning
JP2017187882A (ja) 2016-04-04 2017-10-12 セイコーエプソン株式会社 画像処理に用いられるコンピュータープログラム
US9910440B2 (en) * 2016-05-13 2018-03-06 Delphi Technologies, Inc. Escape-path-planning system for an automated vehicle
US10501077B2 (en) * 2016-06-14 2019-12-10 Nissan Motor Co., Ltd. Inter-vehicle distance estimation method and inter-vehicle distance estimation device
US9928426B1 (en) * 2016-09-16 2018-03-27 Hong Kong Applied Science and Technology Research Institute Company Limited Vehicle detection, tracking and localization based on enhanced anti-perspective transformation
FR3070029B1 (fr) * 2017-08-09 2021-06-04 Valeo Systemes Dessuyage Systeme de nettoyage d'une surface vitree de vehicule
US10552665B2 (en) 2017-12-12 2020-02-04 Seiko Epson Corporation Methods and systems for training an object detection algorithm using synthetic images
US10769437B2 (en) * 2018-04-10 2020-09-08 Seiko Epson Corporation Adaptive sampling of training views
US10878285B2 (en) 2018-04-12 2020-12-29 Seiko Epson Corporation Methods and systems for shape based training for an object detection algorithm
US10634918B2 (en) 2018-09-06 2020-04-28 Seiko Epson Corporation Internal edge verification
JP7065410B2 (ja) * 2018-09-28 2022-05-12 パナソニックIpマネジメント株式会社 空き駐車スペース検知装置および空き駐車スペース検知方法
CN110490033B (zh) * 2018-10-29 2022-08-23 毫末智行科技有限公司 用于车道检测的图像处理方法及装置
JP7183729B2 (ja) * 2018-11-26 2022-12-06 トヨタ自動車株式会社 撮影異常診断装置
US10771665B1 (en) * 2019-02-27 2020-09-08 Ford Global Technologies, Llc Determination of illuminator obstruction by known optical properties
JP7323356B2 (ja) * 2019-06-28 2023-08-08 フォルシアクラリオン・エレクトロニクス株式会社 駐車支援装置及び駐車支援方法
JP7272226B2 (ja) * 2019-10-07 2023-05-12 株式会社デンソー 雨滴認識装置、車両制御装置、学習方法および学習済みモデル
JP7401273B2 (ja) * 2019-11-26 2023-12-19 日立Astemo株式会社 移動体の制御装置及び方法
CN111582173A (zh) * 2020-05-08 2020-08-25 东软睿驰汽车技术(沈阳)有限公司 一种自动驾驶的方法及系统
KR102264254B1 (ko) * 2020-11-13 2021-06-14 렉스젠(주) 검지 영역 설정을 위한 영상 분석 장치, 시스템 및 이를 위한 방법
CN113257033B (zh) * 2021-07-01 2021-09-24 成都宜泊信息科技有限公司 一种停车场管理方法、系统、存储介质及电子设备
CN115123218B (zh) * 2022-09-02 2022-11-22 小米汽车科技有限公司 车辆的检测方法、装置及其电子设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4654208B2 (ja) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 車載用走行環境認識装置
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
RU70208U1 (ru) * 2007-07-10 2008-01-20 Александр Викторович Баев Система видеозаписи дорожно-транспортного происшествия
CN101294801A (zh) * 2007-07-13 2008-10-29 东南大学 基于双目视觉的车距测量方法
JP2009145065A (ja) * 2007-12-11 2009-07-02 Toyota Motor Corp 二次電池の状態検出装置
JP2010256995A (ja) * 2009-04-21 2010-11-11 Daihatsu Motor Co Ltd 物体認識装置
JP5546321B2 (ja) * 2010-04-02 2014-07-09 アルパイン株式会社 複数カメラ画像使用車外表示装置
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
KR101448411B1 (ko) * 2010-08-19 2014-10-07 닛산 지도우샤 가부시키가이샤 입체물 검출 장치 및 입체물 검출 방법
JP5680436B2 (ja) * 2011-02-15 2015-03-04 アルパイン株式会社 車載カメラレンズ用異物付着判定装置

Also Published As

Publication number Publication date
JP5900623B2 (ja) 2016-04-06
MX2015001228A (es) 2015-05-12
EP2879110A4 (en) 2015-10-14
RU2572952C1 (ru) 2016-01-20
BR112015001865A2 (pt) 2019-12-31
CN104508726A (zh) 2015-04-08
IN2015KN00315A (pt) 2015-07-10
WO2014017520A1 (ja) 2014-01-30
JPWO2014017520A1 (ja) 2016-07-11
US20150161457A1 (en) 2015-06-11
EP2879110B1 (en) 2019-09-04
MY155816A (en) 2015-12-02
US9569675B2 (en) 2017-02-14
MX341048B (es) 2016-08-05
EP2879110A1 (en) 2015-06-03
CN104508726B (zh) 2017-05-03

Similar Documents

Publication Publication Date Title
BR112015001865B1 (pt) Dispositivo de detecção de objetos tridimensionais
US11087148B2 (en) Barrier and guardrail detection using a single camera
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
RU2636120C2 (ru) Устройство обнаружения трехмерных объектов
RU2571368C1 (ru) Устройство обнаружения трехмерных объектов, способ обнаружения трехмерных объектов
US9558546B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
JP5320331B2 (ja) 車載用環境認識装置及び車載用環境認識システム
EP2605185A2 (en) Detection of obstacles at night by analysis of shadows
US9589193B2 (en) Three-dimensional object detection device and three-dimensional object detection method
BR112015001804B1 (pt) Dispositivo de detecção de gotícula de água e dispositivo de detecção de objeto tridimensional.
CN110379168A (zh) 一种基于Mask R-CNN的交通车辆信息获取方法
BR112015001711B1 (pt) Dispositivo de detecção de objeto tridimensional e método de detecção de um objeto tridimensional
BR112014020406A2 (pt) Dispositivo de detecção de objetos tridimensionais
BR112015001861B1 (pt) Dispositivo de detecção de objeto tridimensional
KR20140103441A (ko) 시선 유도 반사체를 이용한 차선 인식 방법 및 시스템
JP2010176592A (ja) 車両用運転支援装置

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B350 Update of information on the portal [chapter 15.35 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 24/07/2013, OBSERVADAS AS CONDICOES LEGAIS.