BR112014020407A2 - Dispositivo de detecção de objeto tridimensional - Google Patents

Dispositivo de detecção de objeto tridimensional Download PDF

Info

Publication number
BR112014020407A2
BR112014020407A2 BR112014020407-1A BR112014020407A BR112014020407A2 BR 112014020407 A2 BR112014020407 A2 BR 112014020407A2 BR 112014020407 A BR112014020407 A BR 112014020407A BR 112014020407 A2 BR112014020407 A2 BR 112014020407A2
Authority
BR
Brazil
Prior art keywords
dimensional object
light source
image
unit
object detection
Prior art date
Application number
BR112014020407-1A
Other languages
English (en)
Other versions
BR112014020407B1 (pt
Inventor
Osamu Fukata
Yasuhisa Hayakawa
Original Assignee
Nissan Motor Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd. filed Critical Nissan Motor Co., Ltd.
Publication of BR112014020407A2 publication Critical patent/BR112014020407A2/pt
Publication of BR112014020407B1 publication Critical patent/BR112014020407B1/pt

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/262Analysis of motion using transform domain methods, e.g. Fourier domain methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Geometry (AREA)

Abstract

DISPOSITIVO DE DETECÇÃO DE OBJETO TRIDIMENSIONAL. Trata-se de um dispositivo de detecção de objeto tridimensional que é dotado de: um meio de captura de imagem (10) para capturar uma área predeterminada posterior a um veículo hospedeiro; um meio de conversão de imagem (31) para converter o ponto de vista de uma imagem capturada para criar uma imagem de vista aérea; e um meio de detecção de objeto tridimensional (32, 33, 34) para a geração de informações de diferença de forma de onda mediante a contagem de um número de pixels que indicam uma diferença que tem um primeiro valor limite predeterminado ou maior em uma imagem de diferença de imagens de vista aérea alinhadas para formar uma distribuição de frequência, e para detectar um objeto tridimensional presente com base nas informações de diferença de form a de onda quando as informações de diferença de forma de onda está em um segundo valor limite predeterminado ou maior em um quadro de detecção definido dentro de uma área predeterminada, em que um meio de detecção de objeto tridimensional (32, 33, 34) define o primeiro valor limite ou o segundo valor limite inferior de modo que o objeto tridimensional é detectado de maneira mais fácil em uma área posterior ainda adiante do que uma linha que conecta o meio de captura de imagem (10) e a fonte de luz detectada pela unidade de definição de referência de detecção (34) do que em uma área dianteira adiante a partir da linha na área predeterminada.

Description

"DISPOSITIVO DE DETECÇÃO DE OBJETO TRIDIMENSIONAL" Campo Técnico
[001] Esta invenção refere-se a um dispositivo de detecção de objeto tridi- mensional. Esse pedido reivindica o direito de prioridade com base no Pedido de Paten- te Japonês nº 2012-045352 depositado no dia 1° de março de 2012, e nos estados designados que aceitam a incorporação de um documento por referência, os conte- údos descritos no pedido observado acima são aqui incorporados a título de referên- cia e são considerados como parte da descrição do presente pedido. Fundamentos da Invenção
[002] Em uma técnica convencionalmente conhecida, duas imagens captu- radas, capturadas em momento diferentes são convertidas em uma imagem de vista aérea, e um obstáculo é detectado com base nas diferenças nas duas imagens de vista aérea convertidas (vide o documento de patente 1). Documentos da Técnica Anterior Documentos de Patente
[003] Documento de Patente 1: pedido de patente japonês aberto à inspeção pública nº 2008-227646 Descrição da Invenção Problemas a serem Solucionados pela Invenção
[004] Quando outro veículo que está se movimentando em uma pista adja- cente, adjacente à pista na qual o veículo hospedeiro está se movimentando está para ser detectado à noite com o uso de uma imagem na qual a parte traseira de um veículo hospedeiro foi capturada, e quando a luz dos faróis dianteiros de outro veícu- lo que está se movimentando em uma pista adjacente à pista adjacente (também chamada abaixo de pista adjacente-adjacente) é iluminada nas áreas de detecção, pode haver casos em que uma imagem da luz dos faróis dianteiros é detectada de modo vago como um veículo adjacente que está se movimentando em uma pista adjacente.
[005] O problema a ser solucionado pela presente invenção deve eliminar o efeito de luz iluminada dos faróis dianteiros de outro veículo que está se movimen- tando em uma pista adjacente-adjacente, adjacente à pista adjacente quando um objeto tridimensional (outro veículo) presente em uma pista adjacente à pista na qual o veículo hospedeiro está se movimentando deve ser detectado. Meios usados para solucionar os Problemas mencionados acima
[006] A presente invenção soluciona o problema ao detectar a fonte de luz presente na traseira do veículo hospedeiro e ao reduzir o valor limite para detectar outro veículo que está se movimentando em uma pista adjacente de modo que um objeto tridimensional em uma área traseira de uma linha que conecta a fonte de luz detectada e uma dispositivo de captura de imagem é detectado de maneira mais fácil do que em uma área dianteira a partir da linha. Efeito da Invenção
[007] A luz iluminada dos faróis dianteiros de outro veículo que está se mo- vimentando em uma pista adjacente-adjacente brilha adiante a partir de uma linha que conecta a fonte de luz do mesmo e um dispositivo de captura de imagem, e a imagem do objeto tridimensional presente em uma pista adjacente aparece traseira a partir da linha que conecta a fonte de luz e o dispositivo de captura de imagem. Por- tanto, um valor limite para detectar outro veículo que está se movimentando em uma pista adjacente é definido inferior de modo que um objeto tridimensional é detectado de maneira mais fácil traseira a partir da linha que conecta os faróis dianteiros (fonte de luz) e o dispositivo de captura de imagem, possibilitando assim a detecção de maneira adequada de um objeto tridimensional presente em uma pista adjacente. Breve Descrição dos Desenhos
[008] a figura 1 mostra um diagrama estrutural esquemático de um veículo no qual um dispositivo de detecção de objeto tridimensional de acordo com a primei- ra modalidade foi montado; a figura 2 mostra uma vista plana que ilustra o estado de movimento do veí- culo na figura 1; a figura 3 mostra uma vista em bloco que ilustra os detalhes do computador de acordo com a primeira modalidade; a figura 4 mostra a vista para descrever a visão geral do processamento da unidade de alinhamento de acordo com a primeira modalidade; a figura 4(a) é uma vista plana que ilustra o estado de movimento do veículo; e a figura 4(b) é uma ima- gem que ilustra uma visão geral de alinhamento; a figura 5 mostra uma vista esquemática que ilustra a maneira na qual a dife- rença de forma de onda é gerada pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade; a figura 6 mostra uma vista que ilustra o método para detectar um veículo adjacente de acordo com a primeira modalidade; a figura 7 mostra uma vista que ilustra um exemplo da relação entre a lumi- nância nas posições de detecção nas áreas de detecção A1, A2 e o valor limite a. a figura 8 mostra a vista que mostra um exemplo do ganho do valor limite a definido de acordo com a relação posicional entre a câmera e a fonte de luz; a figura 9 mostra a vista que descreve o método para ajustar o ganho do va- lor limite a ilustrado na figura 8; a figura 10 mostra a vista que descreve o método para ajustar o ganho do valor limite a ilustrado na figura 8; a figura 11 mostra a vista que descreve o método para ajustar o ganho do valor limite a que corresponde à distância L; a figura 12 mostra a vista que descreve o método para ajustar o ganho do valor limite a que corresponde à distância L;
a figura 13 mostra a vista que ilustra as pequenas áreas divididas pela uni- dade de detecção de objeto tridimensional de acordo com a primeira modalidade; a figura 14 mostra a vista que ilustra um exemplo do histograma obtido pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade; a figura 15 mostra a vista que ilustra a ponderação usada pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade; a figura 16 mostra a vista que ilustra outro exemplo do histograma obtido pe- la unidade de detecção de objeto tridimensional de acordo com a primeira modalida- de; a figura 17 mostra o fluxograma que ilustra o método para detectar um veí- culo adjacente de acordo com a primeira modalidade; a figura 18 mostra o fluxograma que ilustra o processo para definir o valor limite a na etapa S105; a figura 19 mostra a vista de bloco que ilustra os detalhes do computador de acordo com a segunda modalidade; a figura 20 mostra a vista que ilustra o estado de movimento do veículo; a fi- gura 20(a) é uma vista plana que ilustra a relação posicional entre a área de detec- ção e similares; e a figura 20(b) é uma vista em perspectiva que ilustra a relação po- sicional entre a área de detecção e similares no espaço real; a figura 21 mostra a vista para descrever a operação de uma unidade de cálculo de diferença de luminância de acordo com a segunda modalidade; a figura 21(a) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção e o ponto de referência em uma imagem de vista aé- rea; e a figura 21(b) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção e o espaço real de ponto de refe- rência; a figura 22 mostra a vista para descrever uma descrição detalhada de uma unidade de cálculo de diferença de luminância de acordo com a segunda modalida- de; a figura 22(a) é uma vista que ilustra as áreas de detecção na imagem de vista aérea; e a figura 22(b) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção e o ponto de referência na ima- gem de vista aérea; a figura 23 mostra a vista que ilustra um exemplo de imagem para descrever a operação de detecção de borda; a figura 24 mostra a vista que ilustra um exemplo da relação entre a lumi- nância nas áreas de detecção A1, A2 e o valor limite b. a figura 25 mostra a vista que ilustra um exemplo do ganho no valor limite b definido de acordo com a posição da fonte de luz; a figura 26 mostra a vista que ilustra a linha de borda e a distribuição de lu- minância em uma linha de borda; a figura 26(a) é uma vista que ilustra a distribuição de luminância quando um objeto tridimensional (veículo adjacente) está presente na área de detecção; e a figura 26(b) é uma vista que ilustra a distribuição de luminân- cia quando um objeto tridimensional não está presente na área de detecção; a figura 27 mostra o fluxograma que ilustra o método para detectar um veí- culo adjacente de acordo com a segunda modalidade. Modalidades Preferenciais da Invenção
[009] Modalidade 1 A figura 1 é um diagrama estrutural esquemático de um veículo no qual um dispositivo de detecção de objeto tridimensional de acordo com a primeira modalida- de foi montado. Um objetivo do dispositivo de detecção de objeto tridimensional 1 de acordo com a presente modalidade é detectar outro veículo (daqui em diante, pode ser chamado de "veículo adjacente") presente em uma pista adjacente onde o conta- to é possível caso um veículo hospedeiro V1 altere de pista. O dispositivo de detec- ção de objeto tridimensional 1 de acordo com a presente modalidade é dotado de uma câmera 10, um sensor de velocidade 20 e um computador 30, conforme ilustra- do na figura 1.
[010] A câmera 10 é fixa ao veículo hospedeiro V1 de modo que o eixo ópti- co é um ângulo q para baixo a partir da horizontal em um local em uma altura h na traseira do veículo hospedeiro V1, conforme ilustrado na figura 1. A partir dessa po- sição, a câmera 10 captura uma área predeterminada do ambiente circundante do veículo hospedeiro V1. O sensor de velocidade 20 detecta a velocidade de movi- mento do veículo hospedeiro V1 e calcula a velocidade do veículo a partir de uma velocidade da roda detectada, por exemplo, por um sensor de velocidade da roda para detectar a velocidade de rotação da uma roda. O computador 30 detecta um veículo adjacente presente em uma pista adjacente na traseira do veículo hospedei- ro.
[011] A figura 2 é uma vista plana que ilustra o estado de movimento do veí- culo hospedeiro V1 na figura 1. Conforme ilustrado no desenho, a câmera 10 captu- ra o lado traseiro do veículo em um ângulo predeterminado de visão a. Nesse mo- mento, o ângulo de visão a da câmera 10 é definido em um ângulo de visão que permite que as pistas esquerda e direita (pistas adjacentes) sejam capturadas além da pista na qual o veículo hospedeiro V1 está se movimentando.
[012] A figura 3 é uma vista de bloco que ilustra os detalhes do computador 30 na figura 1. A câmera 10 e o sensor de velocidade 20 também são ilustrados na figura 3 a fim de indicar de maneira distinta as relações de conexão.
[013] Conforme ilustrado na figura 3, o computador 30 é dotado de uma uni- dade de conversão de ponto de vista 31, uma unidade de alinhamento 32, uma uni- dade de detecção de objeto tridimensional 33 e uma unidade de definição de refe- rência de detecção 34. A configuração dessas unidades é descrita abaixo.
[014] Os dados de imagem capturada da área predeterminada obtidos me- diante a captura realizada pela câmera 10 são inseridos na unidade de conversão de ponto de vista 31, e os dados de imagem capturada assim inseridos são convertidos em dados de imagem de vista aérea, que é um estado de vista aérea. Um estado de vista aérea é um estado de visualização a partir de um ponto de vista de uma câme- ra imaginária que está olhando de cima para baixo, por exemplo, para baixo de mo- do vertical. A conversão de ponto de vista pode ser executada da maneira descrita, por exemplo, no pedido de patente japonês aberto à inspeção pública n° 2008-
219063. A razão pela qual os dados de imagem capturada são convertidos em da- dos de imagem de vista aérea tem por base o princípio em que as bordas perpendi- culares exclusivas a um objeto tridimensional são convertidas em um grupo de linha reta que passa através de um ponto fixo específico pela conversão de ponto de vista em dados de imagem de vista aérea, e o uso desse princípio permite que um objeto plano e um objeto tridimensional sejam diferenciados.
[015] Os dados de imagem de vista aérea obtidos pela conversão de ponto de vista realizada pela unidade de conversão de ponto de vista 31 são inseridos de modo sequencial na unidade de alinhamento 32, e as posições inseridas dos dados de imagem de vista aérea em momentos diferentes são alinhadas. A figura 4 é uma vista para descrever a visão geral do processamento da unidade de alinhamento 32, a figura 4(a) é uma vista plana que ilustra o estado de movimento do veículo hospe- deiro V1, e a figura 4(b) é uma imagem que ilustra uma visão geral de alinhamento.
[016] Conforme ilustrado na figura 4(a), o veículo hospedeiro V1 no momen- to atual é posicionado em P1, e o veículo hospedeiro V1 em um momento único an- terior é posicionado em P1'. Presume-se que um veículo adjacente V2 é posicionado na direção lateral traseira do veículo hospedeiro V1 e está se movimentando parale- lo ao veículo hospedeiro V1, e que o veículo adjacente V2 no momento atual é posi- cionado em P2, e o veículo adjacente V2 em um momento único anterior é posicio- nado em P2'. Além disso, presume-se que o veículo hospedeiro V1 viajou uma dis- tância d em um único momento. A expressão "em um momento único anterior" pode ser um momento no passado por um momento definido antecipadamente (por exemplo, um único ciclo de controle) a partir do momento atual, ou pode ser um momento no passado por um momento arbitrário.
[017] Em tal estado, uma imagem de vista aérea PBt no momento atual é ilustrada na figura 4(b). As linhas brancas desenhadas sobre a superfície da estrada são retangulares nessa imagem de vista aérea PBt e são relativamente precisas em uma visão plana, mas o veículo adjacente V2 (posição P2) é rompido. O mesmo se aplica à imagem de vista aérea PBt-1 em um momento único anterior; as linhas bran- cas desenhadas sobre a superfície da estrada são retangulares e são relativamente precisas em uma visão plana, mas o veículo adjacente V2 (posição P2') é rompido. Conforme descrito anteriormente, as bordas perpendiculares de um objeto tridimen- sional (as bordas que ficam retas em espaço tridimensional a partir da superfície da estrada também são incluídas em sentido estrito da borda perpendicular) aparecem como um grupo de linha reta ao longo de uma direção em colapso devido ao pro- cesso para converter o ponto de vista em dados de imagem de vista aérea, mas porque uma imagem plana sobre a superfície da estrada não inclui as bordas per- pendiculares, tal colpaso não ocorre quando o ponto de vista foi convertido.
[018] A unidade de alinhamento 32 alinha as imagens de vista aérea PBt e PBt-1, como aquelas descritas acima, em termos de dados. Quando isso é executado, a unidade de alinhamento 32 desloca a imagem de vista aérea PBt-1 em um momen- to único anterior, e coincide a posição com a imagem de vista aérea PBt no momen- to atual. A imagem lateral esquerda e a imagem central na figura 4(b) ilustra o esta- do de deslocamento por uma distância de movimento d'. A quantidade de desloca- mento d' é a quantidade de movimento nos dados de imagem de vista aérea que corresponde à distância de movimento real d do veículo hospedeiro V1 ilustrado na figura 4(a), e é decidido com base em um sinal a partir do sensor de velocidade 20 e o tempo a partir de um único momento antes do momento atual.
[019] Depois do alinhamento, a unidade de alinhamento 32 obtém a diferen- ça entre as imagens de vista aérea PBt e PBt-1, e gera os dados de imagem de dife- rença PDt. Na presente modalidade, a unidade de alinhamento 32 assume o valor absoluto da diferença nos valores de pixel das imagens de vista aérea PBt e PBt-1 a fim de corresponder à variação no ambiente de iluminação, e quando o valor absolu- to é igual a ou maior que um valor limite predeterminado th, os valores de pixel da imagem de diferença PDt são definidos em "1," e quando o valor absoluto é menor que um valor limite predeterminado th, os valores de pixel da imagem de diferença PDt são definidos em "0," que permite que os dados de imagem de diferença PDt, como aqueles ilustrados no lado direito da figura 4(b) sejam gerados.
[020] Com referência à figura 3, a unidade de detecção de objeto tridimensi- onal 33 detecta um objeto tridimensional com base nos dados de imagem de dife- rença PDt ilustrados na figura 4(b). Nesse caso, a unidade de detecção de objeto tridimensional 33 calcula a distância de movimento do objeto tridimensional no espa- ço real. A unidade de detecção de objeto tridimensional 33 primeiro gera uma dife- rença de forma de onda quando o objeto tridimensional é detectado e a distância de movimento deve ser calculada.
[021] Na geração da diferença de forma de onda DW t, a unidade de detec- ção de objeto tridimensional 33 define uma área de detecção na imagem de diferen- ça PDt. Um objeto do dispositivo de detecção de objeto tridimensional 1 do presente exemplo deve calcular a distância de movimento para o veículo adjacente com a qual há uma possibilidade de contato caso o veículo hospedeiro V1 altere de pista. Em conformidade, no presente exemplo, as áreas de detecção retangulares A1, A2 são definidas através do veículo hospedeiro V1, conforme ilustrado na figura 2. Tais áreas de detecção A1, A2 podem ser definidas a partir de uma posição relativa para o veículo hospedeiro V1, ou podem ser definidas com base na posição das linhas brancas. Quando definido com base na posição das linhas brancas, o dispositivo de detecção de objeto tridimensional 1 pode usar, por exemplo, as técnicas conhecidas de reconhecimento de linha branca.
[022] A unidade de detecção de objeto tridimensional 33 reconhece como as linhas terrestres L1, L2 as bordas das áreas de detecção A1, A2 definindo assim, no lado do veículo hospedeiro V1 (o lado ao longo da direção de movimento), conforme ilustrado na figura 2. Em geral, uma linha terrestre se refere a uma linha na qual um objeto tridimensional está em contato com o solo, mas na presente modalidade, uma linha terrestre não é uma linha em contato com o solo, mas ao contrário é definido da maneira descrita acima. Mesmo em tal caso, a diferença entre a linha terrestre de acordo com a presente modalidade e a linha terrestre normal determinada a partir da posição do veículo adjacente V2 não é muito grande conforme determinado pela ex- periência, e não há problema na realidade.
[023] A figura 5 é uma vista esquemática que ilustra a maneira na qual a di- ferença de forma de onda é gerada pela unidade de detecção de objeto tridimensio- nal 33. Conforme ilustrado na figura 5, a unidade de detecção de objeto tridimensio- nal 33 gera uma diferença de forma de onda DW t a partir da parte que corresponde às áreas de detecção A1, A2 na imagem de diferença PDt (desenho na direita na figura 4(b)) calculada pela unidade de alinhamento 32. Nesse caso, a unidade de detecção de objeto tridimensional 33 gera uma diferença de forma de onda DW t ao longo da direção em colapso do objeto tridimensional mediante a conversão de pon- to de vista. No exemplo ilustrado na figura 5, apenas a área de detecção A1 será descrita por uma questão de conveniência, mas a diferença de forma de onda DWt é gerada para a área de detecção A2, bem como o uso do mesmo procedimento.
[024] De maneira mais específica, primeiro, a unidade de detecção de objeto tridimensional 33 define uma linha La na direção na qual o objeto tridimensional se rompe nos dados de imagem de diferença PDt. A unidade de detecção de objeto tri- dimensional 33, em seguida, conta o número de pixels de diferença DP que indica uma diferença predeterminada na linha La. Na presente modalidade, os pixels de diferença DP que indicam uma diferença predeterminada têm os valores de pixel na imagem de diferença PDt que são representados por "0" e "1," e os pixels indicados por "1" são contados como os pixels de diferença DP.
[025] A unidade de detecção de objeto tridimensional 33 conta o número de pixels de diferença DP e, portanto, determina o ponto de passagem CP da linha La e da linha terrestre L1. A unidade de detecção de objeto tridimensional 33 em seguida, correlaciona o ponto de passagem CP e o número de contagem, decide a posição de eixo horizontal, isto é, a posição no eixo na direção vertical no desenho na direita na figura 5, com base na posição do ponto de passagem CP, decide a posição de eixo vertical, isto é, a posição no eixo na direção lateral no desenho na direita na figura 5, a partir do número de contagem, e indica as posições como o número de contagem no ponto de passagem CP.
[026] De maneira similar, a unidade de detecção de objeto tridimensional 33 define as linhas Lb, Lc, ¼ na direção na qual o objeto tridimensional se rompe, conta o número de pixels de diferença DP, decide a posição de eixo horizontal com base na posição de cada ponto de passagem CP, decide a posição de eixo vertical a par- tir do número de contagem (o número de pixels de diferença DP), e indica as posi- ções. A unidade de detecção de objeto tridimensional 33 repete a sequência acima para formar uma distribuição de frequência e gera assim uma diferença de forma de onda DWt conforme ilustrado no desenho na direita na figura 5.
[027] Aqui, os pixels de diferença PD nos dados de imagem de diferença PDt são os pixels que sofreram alterações na imagem em diferentes momentos, em ou- tras palavras, os locais que podem ser construídos para estar onde o objeto tridi- mensional estava presente. Em conformidade, nos locais onde um objeto tridimensi- onal estava presente, o número de pixels é contado ao longo da direção na qual o objeto tridimensional se rompe para formar uma distribuição de frequência e assim gerar uma diferença de forma de onda DW t. Em particular, o número de pixels é con- tado ao longo da direção na qual o objeto tridimensional se rompe, e a diferença de forma de onda DW t é, portanto, gerada a partir das informações sobre a direção de altura em relação ao objeto tridimensional.
[028] As linhas La e Lb na direção na qual o objeto tridimensional se rompe têm distâncias diferentes que sobrepõem a área de detecção A1, conforme ilustrado no desenho à esquerda na figura 5. Em conformidade, o número de pixels de dife- rença DP é maior na linha La que na linha Lb quando presume-se que a área de de- tecção A1 é preenchida com os pixels de diferença DP. Por esse motivo, a unidade de detecção de objeto tridimensional 33 realiza a normalização com base na distân- cia em que as linhas La, Lb na direção na qual o objeto tridimensional se rompe e a área de detecção A1 se sobrepõem quando a posição de eixo vertical é decidida a partir do número de contagem dos pixels de diferença DP. Em um exemplo específi- co, há seis pixels de diferença DP na linha La e há cinco pixels de diferença DP na linha Lb no desenho à esquerda na figura 5. Em conformidade, quando a posição de eixo vertical é decidida a partir do número de contagem na figura 5, a unidade de detecção de objeto tridimensional 33 divide o número de contagem ao sobrepor a distância ou realizar a normalização de outra maneira. Os valores da diferença de forma de onda DWt que correspondem às linhas La, Lb na direção na qual o objeto tridimensional se rompe são, assim, substancialmente iguais.
[029] Depois que a diferença de forma de onda DWt foi gerada, a unidade de detecção de objeto tridimensional 33 detecta um veículo adjacente presente em uma pista adjacente com base na diferença de forma de onda gerada DWt. Aqui, a figura 6 é uma vista para descrever o método para detectar um veículo adjacente como realizado pela unidade de detecção de objeto tridimensional 33, e ilustra um exem- plo da diferença de forma de onda DWt e o valor limite a para detectar um veículo adjacente. Uma unidade de detecção de objeto tridimensional 33 determina se o pi-
co do gerada diferença de forma de onda DWt é igual a ou maior que o valor limite a corresponde à posição do pico do diferença de forma de onda DWt, conforme ilus- trado na figura 6. A unidade de detecção de objeto tridimensional 33 em seguida, determina que um veículo adjacente não está presente nas áreas de detecção A1, A2 quando o pico do diferença de forma de onda DW t é menor que o valor limite predeterminado a, e determina de maneira inversa que um veículo adjacente está presente nas áreas de detecção A1, A2 quando o pico do diferença de forma de on- da DWt está no valor limite predeterminado a ou maior para detectar assim um veí- culo adjacente presente em uma pista adjacente.
[030] Assim, a diferença de forma de onda DWt é um modo de informações distribuídas de pixels que indicam uma diferença predeterminada na luminância, e as "informações distribuídas de pixels" na presente modalidade podem ser posiciona- dos com as informações que indicam o estado de distribuição de "pixels que têm uma diferença na luminância que é igual a ou maior que um valor limite predetermi- nado" detectado ao longo da direção cujo objeto tridimensional se rompe quando a imagem capturada é convertida no ponto de vista para criar uma imagem de vista aérea. Em outras palavras, a unidade de detecção de objeto tridimensional 33 de- tecta, na imagem de vista aérea obtida pela unidade de conversão de ponto de vista 31, as informações distribuídas de pixels nas quais a diferença de luminância é um valor limite predeterminado th ou maior que a diferença de forma de onda DW t na direção cujo objeto tridimensional se rompe quando a imagem capturada é converti- da no ponto de vista para criar uma imagem de vista aérea, e ainda detecta um obje- to tridimensional com base na diferença de forma de onda DW t quando o ponto de distribuição de pixels (o número de contagem de pixels de diferença DP na diferença de forma de onda DWt) na direção na qual o objeto tridimensional se rompe está em um valor limite a ou maior.
[031] Descreve-se aqui o método para definir o valor limite a para detectar um veículo adjacente.
[032] O valor limite a é definido pela unidade de definição de referência de detecção 34 ilustrada na figura 3. A unidade de definição de referência de detecção 34 define o valor limite a para detectar o veículo adjacente de acordo com a lumi- nância nas posições de detecção nas áreas de detecção A1, A2 (por exemplo, a lu- minância média dos pixels de diferença DP na linhas La, Lb, Lc, ¼ na direção na qual o objeto tridimensional se rompe conforme ilustrado no desenho à esquerda na figura 5) e a relação posicional entre a câmera 10 e a fonte de luz, para cada posi- ção nas áreas de detecção A1, A2 (a partir desse ponto chamada de posições de detecção nas áreas de detecção A1, A2) que corresponde às linhas La, Lb, Lc ¼ na direção na qual o objeto tridimensional se rompe conforme ilustrado no desenho à esquerda na figura 5. Nesse caso, a figura 7 é um gráfico que ilustra um exemplo da relação entre a luminância nas posições de detecção nas áreas de detecção A1, A2 e o valor limite a, e a figura 8 é uma vista que mostra um exemplo do ganho do valor limite a definido de acordo com a relação posicional entre a câmera 10 e a fonte de luz.
[033] De maneira específica, a unidade de definição de referência de detec- ção 34 define o primeiro valor limite a que corresponde às posições de detecção das áreas de detecção A1, A2 a um valor mais elevado de forma proporcional para a lu- minância mais elevada luminância nas posições de detecção nas áreas de detecção A1, A2, conforme ilustrado na figura 7. O pico da diferença de forma de onda DW t com base na luz dos faróis dianteiros de um veículo adjacente-adjacente é menor que o primeiro valor limite a e o efeito da luz dos faróis dianteiros do veículo adjacen- te-adjacente pode ser eliminado mesmo quando, por exemplo, a luz dos faróis dian- teiros do veículo adjacente-adjacente (o veículo presente na pista adjacente- adjacente duas pistas de distância da pista do veículo hospedeiro) que tem a alta luminância brilha na pista adjacente. Portanto, é possível evitar de maneira eficaz que uma imagem da luz dos faróis dianteiros do veículo adjacente-adjacente seja detectada de modo vago como um veículo adjacente.
[034] A unidade de definição de referência de detecção 34 ainda modifica o ganho do valor limite a de acordo com a posição das posições de detecção na dire- ção de progresso do veículo hospedeiro. Na presente modalidade, a posição de re- ferência PO ilustrada na figura 8 corresponde à posição dos faróis dianteiros de um veículo adjacente-adjacente ou outra fonte de luz, conforme descrito abaixo, e o ga- nho do valor limite a é assim definido mais elevado adiante a partir da posição de referência PO em comparação com a traseira a partir da posição de referência PO, conforme ilustrado na figura 8; e como um resultado, o valor limite a é definido mais elevado adiante a partir da posição de referência PO em comparação com traseira a partir da posição de referência PO.
[035] Por outro lado, uma vez que o ganho no valor limite a é definido inferi- or traseira a partir da posição de referência PO em comparação com adiante a partir da posição de referência PO, o valor limite a será definido inferior traseira a partir da posição de referência PO do que adiante a partir da posição de referência PO quando a luminância é igual, conforme ilustrado na figura 8
[036] Além disso, na presente modalidade, a unidade de definição de refe- rência de detecção 34 ajusta o ganho no valor limite a ilustrado na figura 8 de acordo com a relação posicional entre a câmera 10 e a fonte de luz. Descreve-se a seguir o método para ajustar o ganho no valor limite a ilustrado na figura 8 com referência às figuras 9 e 10. As figuras 9 e 10 são os desenhos para descrever o método para ajustar o ganho no valor limite a ilustrado na figura 8.
[037] Em outras palavras, a unidade de design de referência de detecção 34 detecta os faróis dianteiros de um veículo adjacente-adjacente V3 ou outras fontes de luz a partir de uma imagem capturada pela câmera 10, conforme ilustrado no de- senho na direita na figura 9(A). A unidade de definição de referência de detecção 34,
em seguida, detecta a posição centroide da fonte de luz detectada, e define uma linha Lc que passa através da posição centroide da fonte de luz e da posição central da câmera 10. Além disso, a unidade de definição de referência de detecção 34 cal- cula o ponto de passagem O entre a linha Lc e o lado (o lado ao longo da direção de movimento) L2' da pista lateral adjacente-adjacente da área de detecção A2. O mé- todo para detectar uma fonte de luz realizada pela unidade de definição de referên- cia de detecção 34 é descrita adiante.
[038] A unidade de definição de referência de detecção 34 ajusta o ganho no valor limite a na figura 8 de modo que o ponto de passagem O e a posição de refe- rência PO ilustrados na figura 8 coincidem uns com os outros, conforme ilustrado no desenho à esquerda na figura 9(A). Aqui, a figura 9(B) oferece um exemplo de uma situação na qual o veículo adjacente-adjacente V3 alcançou o veículo hospedeiro V1 da situação ilustrada na figura 9(A). Na situação ilustrada na figura 9(B), o veículo adjacente-adjacente V3 alcançou o veículo hospedeiro V1, e o ponto de passagem O entre a linha Lc, e a linha L2' na área de detecção A2, portanto, moveu-se ainda adiante (direção de eixo Y negativo) a partir do ponto de passagem O ilustrado na figura 9(A). Em conformidade, quando o ganho no valor limite a ilustrado na figura 8 é ajustado pela unidade de definição de referência de detecção 34 de modo que a posição do ponto de passagem O ilustrado no desenho na direita na figura 9(B) coincide com a posição de referência PO ilustrada na figura 8, conforme ilustrado no desenho à esquerda na figura 10(B), o ganho no valor limite a ilustrado na figura 8 é deslocado adiante (direção de eixo Y negativo) em geral, conforme ilustrado no de- senho à esquerda na figura 9(B), em comparação com o ganho no valor limite a ilus- trado no desenho à esquerda na figura 9(A), e a posição da fonte de luz e a posição de referência PO ilustradas na figura 8 assim correspondem.
[039] O ganho no valor limite a na posição da fonte de luz é, portanto, máxi- mo na posição da fonte de luz, e o ganho no valor limite a é aumentado em posições próximas à fonte de luz, conforme ilustrado nas figuras 8 e 9. Em conformidade, o valor limite a para detectar um veículo adjacente é definido para o seu valor mais elevado na posição da fonte de luz, e o valor limite a para detectar um veículo adja- cente é definido em um alto valor em posições próximas à fonte de luz. Como um resultado, é possível evitar de maneira eficaz que os faróis dianteiros (fonte de luz) de um veículo adjacente-adjacente sejam detectados de modo vago como um veícu- lo adjacente quando a fonte de luz de um veículo adjacente-adjacente brilha em uma pista adjacente.
[040] Quando a fonte de luz é os faróis dianteiros de um veículo adjacente, pode haver casos nos quais o pneu/roda de um veículo adjacente posicionado na traseira dos faróis dianteiros (fonte de luz) seja difícil de ser detectado em uma área Rr traseira a partir da fonte de luz. Por outro lado, a possibilidade de que o pneu/roda de um veículo adjacente está presente na área Rr traseira a partir da fon- te de luz seja alto. Levando isso em consideração, na presente modalidade, a área Rr traseira a partir da fonte de luz é determinada ser uma área na qual a possibilida- de de que um veículo adjacente está presente está em um valor predeterminado ou maior, e o ganho no valor limite a é definido inferior na área Rr traseira a partir da fonte de luz, conforme ilustrado nas figuras 8 e 9, possibilitando assim a detecção de maneira adequada de um veículo adjacente posicionado traseira a partir da fonte de luz.
[041] Além disso, o ganho no valor limite a é definido alto na área Rf adiante a partir da fonte de luz (isto é, a área na qual Y < kX, onde a direção Y é a direção de progresso do veículo hospedeiro e a direção X é a direção de largura do veículo em um plano XY, 0 é a posição da câmera 10 na direção Y, Y > 0 é traseira da câ- mera 10, e Y = kX é linha Lc), conforme ilustrado nas figuras 8 e 9, e o ganho no va- lor limite a é definido baixo na área Rr traseira dos faróis dianteiros (fonte de luz) (isto é, a área na qual Y ³ kX, onde a direção Y é a direção de progresso do veículo hospedeiro e a direção X é a direção de largura do veículo em um plano XY, 0 é a posição da câmera 10 na direção Y, Y > 0 é a traseira da câmera 10, e Y = kX é a linha Lc). Em conformidade, quando a luminância é igual, o valor limite a é definido alto na área Rf adiante a partir da fonte de luz, e o valor limite a é definido baixo na área Rr traseira dos faróis dianteiros (fonte de luz).
[042] Além disso, a unidade de definição de referência de detecção 34 ajus- ta o ganho no valor limite a ilustrado na figura 8 de acordo com a distância L na dire- ção de largura de veículo (direção de eixo X) a partir da posição central da câmera 10 ATÉ A posição centroide da fonte de luz, conforme ilustrado nas figuras 8 e 9. De maneira específica, a unidade de definição de referência de detecção 34 reduz a faixa de redução dh do ganho no valor limite a traseira a partir da posição de refe- rência PO (a faixa de redução dh com relação ao ganho no valor limite a na posição de referência PO ilustrada na figura 8) de modo que o valor limite a definido traseira a partir da posição de referência PO é maior de forma proporcional a uma distância maior L a partir da posição central da câmera 10 até a posição centroide da fonte de luz. Por exemplo, no caso do ganho no valor limite a ilustrado na figura 8 na situação ilustrada na figura 10(A), a unidade de definição de referência de detecção 34 ajusta o ganho no valor limite a ilustrado na figura 8 de modo que a faixa de redução dh do ganho no valor limite a é menor que a faixa de redução dh do ganho no valor limite a ilustrada na figura 8, conforme ilustrado na figura 11, quando a distância L a partir da posição central da câmera 10 até a posição centroide da fonte de luz aumentou em comparação com a figura 10(A), conforme ilustrado na figura 10(B). A unidade de definição de referência de detecção 34 pode assim definir um valor limite a que irá servir como uma referência de detecção de modo que o objeto tridimensional é mais difícil de detectar à medida que a distância L na direção de largura de veículo a partir da posição central da câmera 10 até a posição centroide da fonte de luz aumenta na área Rr traseira dos faróis dianteiros (fonte de luz).
[043] Em vez de uma configuração na qual a unidade de definição de refe- rência de detecção 34 modifica a faixa de redução dh do ganho no valor limite a de acordo com a distância L a partir da posição central da câmera 10 até a posição cen- troide da fonte de luz, conforme ilustrado na figura 11, ou além dessa configuração, também é possível usar uma configuração na qual a unidade de definição de refe- rência de detecção estreita uma faixa dw na qual o ganho no valor limite a sofre alte- rações para um valor mais baixo (uma faixa que corresponde ao pneu/roda de um veículo adjacente presente traseira a partir da fonte de luz) com relação ao ganho no valor limite a na posição de referência PO, de forma proporcional a um aumentar na distância L a partir da posição central da câmera 10 até a posição centroide da fonte de luz, conforme ilustrado na figura 12. Por exemplo, quando um ganho no valor limi- te a ilustrado na figura 8 deve ser obtido na situação ilustrada na figura 10(A), a uni- dade de definição de referência de detecção 34 estreita a faixa dw na qual o ganho no valor limite a é reduzido com relação à posição de referência PO, conforme ilus- trado na figura 12, quando a distância L a partir da posição central da câmera 10 até a posição centroide da fonte de luz aumentou em comparação com a figura 10(A), conforme ilustrado na figura 10(B). Nesse caso também, uma vez que a faixa na qual o valor limite a é definido alto é aumentado traseira a partir da posição de refe- rência PO corresponde à posição da fonte de luz, o efeito dos faróis dianteiros de um veículo adjacente-adjacente V3 pode ser eliminado de forma mais adequada quando a possibilidade de que um veículo adjacente-adjacente V3 presente é alta na área Rr ainda traseira a partir da fonte de luz.
[044] A unidade de definição de referência de detecção 34 modifica o valor limite a a fim de evitar de maneira eficaz que a luz dos faróis dianteiros de um veícu- lo adjacente-adjacente que brilha em uma pista adjacente seja detectada de modo vago como um veículo adjacente. Em conformidade, na presente modalidade, a mo- dificação do valor limite a pela unidade de definição de referência de detecção 34 pode ser configurada para ser realizada apenas à noite quando os faróis dianteiros de um veículo adjacente-adjacente V2 estão ligados. A unidade de definição de refe- rência de detecção 34 pode determinar que é à noite quando, por exemplo, a lumi- nância da imagem capturada pela câmera 10 está em um valor predeterminado ou menos.
[045] A seguir, uma descrição da unidade de detecção de objeto tridimensi- onal 33 será continuada. Depois que um objeto tridimensional presente em uma pis- ta adjacente foi detectado, a unidade de detecção de objeto tridimensional 33 calcula a distância de movimento do objeto tridimensional presente no veículo adjacente ao comparar a diferença de forma de onda DW t no momento atual e a diferença de for- ma de onda DW t-1 em um momento único anterior. Em outras palavras, a unidade de detecção de objeto tridimensional 33 calcula a distância de movimento a partir da alteração no tempo da diferença de forma de ondas DWt, DW t-1.
[046] De maneira mais específica, a unidade de detecção de objeto tridi- mensional 33 divide a diferença de forma de onda DWt em uma pluralidade de áreas pequenas DW t1 to DW tn (onde n é um número inteiro arbitrário de 2 ou maior), con- forme ilustrado na figura 13. A figura 13 é uma vista que ilustra as áreas pequenas DW t1 a DWtn dividida pela unidade de detecção de objeto tridimensional 33. As áreas pequenas DWt1 a DWtn são divididas de modo a se sobrepor de maneira mútua, con- forme ilustrado, por exemplo, na figura 13. Por exemplo, a pequena área DW t1 e a pequena área DW t2 se sobrepõem uma à outra, e a pequena área DW t2 e a pequena área DWt3 se sobrepõem uma à outra.
[047] A seguir, a unidade de detecção de objeto tridimensional 33 determina a quantidade de deslocamento (a quantidade de movimento na direção de eixo hori- zontal (direção vertical na figura 13) da diferença de forma de onda) para cada uma das áreas pequenas DW t1 a DW tn. Aqui, a quantidade de deslocamento é determi- nada a partir da diferença (distância na direção de eixo horizontal) entre a diferença de forma de onda DWt-1 em um momento único anterior e a diferença de forma de onda DW t no momento atual. Nesse caso, a unidade de detecção de objeto tridi- mensional 33 move a diferença de forma de onda DW t-1 em um momento único ante- rior na direção de eixo horizontal para cada uma das áreas pequenas DW t1 a DWtn, e logo após acessa a posição (a posição na direção de eixo horizontal) na qual o erro da diferença de forma de onda DW t no momento atual está no mínimo, e determine como a quantidade de deslocamento, a quantidade de movimento na direção de eixo horizontal na posição na qual o erro a partir da posição original da diferença de for- ma de onda DW t-1 está no mínimo. A unidade de detecção de objeto tridimensional 33, em seguida, conta a quantidade de deslocamento determinada para cada uma das áreas pequenas DW t1 a DWtn e forma um histograma.
[048] A figura 14 é uma vista que ilustra um exemplo do histograma obtido pela unidade de detecção de objeto tridimensional 33. Conforme ilustrado na figura 14, uma quantidade de variabilidade ocorre na quantidade de deslocamento, que é a distância de movimento na qual o erro entre a áreas pequenas DW t1 a DW tn e a dife- rença de forma de onda DW t-1 em um momento único anterior está no mínimo. Em conformidade, a unidade de detecção de objeto tridimensional 33 forma a quantida- de de deslocamentos que inclui a variabilidade em um histograma e calcula a distân- cia de movimento a partir do histograma. Nesse momento, a unidade de detecção de objeto tridimensional 33 calcula a distância de movimento do objeto tridimensional a partir do valor máximo no histograma. Em outras palavras, no exemplo ilustrado na figura 14, a unidade de detecção de objeto tridimensional 33 calcula a quantidade de deslocamento que indica o valor máximo do histograma como a distância de movi- mento s*. Dessa maneira, na presente modalidade, uma distância de movimento altamente mais precisa pode ser calculada a partir do valor máximo, mesmo quando houver variabilidade na quantidade de deslocamento. A distância de movimento s* é a distância de movimento relativa do objeto tridimensional em relação ao veículo hospedeiro. Em conformidade, a unidade de detecção de objeto tridimensional 33 calcula uma distância absoluta de movimento com base na distância de movimento s* obtida assim e o sensor de velocidade 20 quando a distância de movimento abso- luta deve ser calculada.
[049] Dessa maneira, na presente modalidade, a distância de movimento do objeto tridimensional é calculada a partir da quantidade de deslocamento da diferen- ça de forma de onda DW t quando o erro na diferença de forma de onda DW t gerado em diferentes momentos está no mínimo, e isso permite que a distância de movi- mento seja calculada a partir da quantidade de deslocamento, que são as informa- ções sobre uma dimensão em uma forma de onda, e permite que o custo de compu- tação seja mantido baixo quando a distância de movimento é calculada. Além disso, a divisão da diferença de forma de onda DWt gerada em diferentes momentos em uma pluralidade de áreas pequenas DWt1 a DW tn permite que uma pluralidade de formas de onda que representam os locais do objeto tridimensional seja obtida, per- mitindo assim que a quantidade de deslocamento em cada local do objeto tridimen- sional seja determinada e permite que a distância de movimento seja determinada a partir de uma pluralidade de quantidade de deslocamentos. Portanto, a precisão do cálculo da distância de movimento pode ser aprimorado. Na presente modalidade, a distância de movimento do objeto tridimensional é calculada a partir da alteração no tempo da diferença de forma de onda DW t, que inclui as informações de direção de altura. Consequentemente, em contraste ao foco sendo somente no movimento de um único ponto, o local de detecção antes da alteração no tempo e a localização de detecção depois da alteração no tempo são especificadas com as informações de direção de altura incluídas e em conformidade prontamente sendo a mesma locali- zação; a distância de movimento é calculada a partir da alteração no tempo na mesma localização; e a precisão para calcular a distância de movimento pode ser aprimorada.
[050] Quando um histograma deve ser formado, a unidade de detecção de objeto tridimensional 33 pode conferir uma ponderação à pluralidade de áreas pe- quenas DW t1 a DWtn, e contar a quantidade de deslocamentos determinada para cada uma das áreas pequenas DW t1 a DW tn de acordo com a ponderação para for- mar um histograma. A figura 15 é uma vista que ilustra a ponderação usada pela unidade de detecção de objeto tridimensional 33.
[051] Conforme ilustrado na figura 15, uma área pequena DWm (onde m é um número inteiro 1 ou maior e n - 1 ou menos) é plana. Em outras palavras, na pe- quena área DWm, há pouca diferença entre os valores máximo e mínimo da conta- gem de número de pixels que indica uma diferença predeterminada. A unidade de detecção de objeto tridimensional 33 reduz a ponderação desse tipo de pequena área DWm. Isso se deve ao fato de que a pequena área pequena DWm não tem uma característica e há uma alta possibilidade de que um erro será ampliado quando a quantidade de deslocamento é calculada.
[052] Por outro lado, uma área pequena DW m+k (onde k é um número inteiro n - m ou menos) tem ondulação abundante. Em outras palavras, na pequena área DWm, há uma diferença considerável entre os valores máximo e mínimo da conta- gem de número de pixels que indica uma diferença predeterminada. A unidade de detecção de objeto tridimensional 33 aumenta a ponderação desse tipo de pequena área DWm. Isso se deve ao fato de que a pequena área DWm+k com ondulação abundante é característica e há uma alta possibilidade de que a quantidade de des- locamento será calculada de forma precisa. A ponderação das áreas pequenas des- sa maneira possibilita o aprimoramento da precisão para calcular a distância de mo- vimento.
[053] A diferença de forma de onda DWt é dividida em uma pluralidade de áreas pequenas DWt1 a DW tn na presente modalidade a fim de melhorar a precisão para calcular a distância de movimento, mas a divisão nas áreas pequenas DW t1 a
DW tn não é exigida quando a precisão para calcular a distância de movimento não é necessária. Nesse caso, a unidade de detecção de objeto tridimensional 33 calcula a distância de movimento a partir da quantidade de deslocamento da diferença de forma de onda DW t quando o erro entre a diferença de forma de onda DWt e a dife- rença de forma de onda DW t-1 está no mínimo. Em outras palavras, o método para determinar a quantidade de deslocamento entre a diferença de forma de onda DWt-1 em um momento único anterior e a diferença de forma de onda DW t no momento atual não se limita aos detalhes descritos acima.
[054] A unidade de detecção de objeto tridimensional 33 na presente moda- lidade determina a velocidade de movimento do veículo hospedeiro V1 (câmera 10) e determina a quantidade de deslocamento para um objeto estacionário a partir da velocidade de movimento determinado. Depois que a quantidade de deslocamento do objeto estacionário foi determinada, a unidade de detecção de objeto tridimensio- nal 33 ignora a quantidade de deslocamento que corresponde ao objeto estacionário dentro de um valor máximo do histograma, e calcula a distância de movimento do veículo adjacente.
[055] A figura 16 é uma vista que ilustra outro exemplo do histograma obtido pela unidade de detecção de objeto tridimensional 33. Quando um objeto estacioná- rio além do objeto tridimensional está presente dentro do ângulo de visão da câmera 10, dois valores máximos s1, s2 aparecem no histograma resultante. Nesse caso, um dos dois valores máximos s1, s2 é a quantidade de deslocamento do objeto es- tacionário. Consequentemente, a unidade de detecção de objeto tridimensional 33 determina a quantidade de deslocamento para o objeto estacionário a partir da velo- cidade de movimento, ignora o valor máximo que corresponde à quantidade de des- locamento, e calcula a distância de movimento do objeto tridimensional com o uso do valor máximo restante. Assim, é possível evitar uma situação na qual a precisão para calcular a distância de movimento do objeto tridimensional é reduzida pelo obje-
to estacionário.
[056] Mesmo quando a quantidade de deslocamento que corresponde ao objeto estacionário é ignorada, pode haver uma pluralidade de objetos tridimensio- nais presentes dentro do ângulo de visão da câmera 10 quando há uma pluralidade de valores máximos. No entanto, uma pluralidade de objetos tridimensionais presen- tes dentro das áreas de detecção A1, A2 ocorre muito raramente. Em conformidade, a unidade de detecção de objeto tridimensional 33 interrompe o cálculo da distância de movimento. Na presente modalidade, assim, é possível evitar uma situação na qual um movimento de distância de movimento vago é calculado como quando há uma pluralidade de valor máximos.
[057] Descreve-se a seguir o processo para detectar um veículo adjacente de acordo com a presente modalidade. A figura 17 é um fluxograma que ilustra os processos para detectar um veículo adjacente de acordo com a presente modalida- de. Primeiro, os dados de uma imagem capturada P são adquiridos pelo computador 30 a partir da câmera 10 (etapa S101), e os dados de uma imagem de vista aérea PBt são gerados (etapa S102) pela unidade de conversão de ponto de vista 31 com base nos dados da imagem capturada P asim adquiridos, conforme ilustrado na figu- ra 17.
[058] A seguir, a unidade de alinhamento 33 alinha os dados da imagem de vista aérea PBt e os dados da imagem de vista aérea PBt-1 em um momento único anterior, e gera os dados ad imagem de diferença PDt (etapa S103). A unidade de detecção de objeto tridimensional 33, em seguida, conta o número de pixels de dife- rença DP que tem um valor de pixel de "1" para assim gerar uma diferença de forma de onda DWt a partir dos dados da imagem de diferença PDt (etapa S104).
[059] A unidade de definição de referência de detecção 34 define o valor li- mite a para detectar um veículo adjacente (etapa S105). Aqui, a figura 18 é um flu- xograma que ilustra o processo para definir o valor limite a da etapa S105. A unida-
de de definição de referência de detecção 34 primeiro detecta os faróis dianteiros de um veículo adjacente-adjacente ou outra fonte de luz a partir da imagem capturada pela câmera 10 (etapa S201), conforme ilustrado na figura 18.
[060] Aqui, a unidade de definição de referência de detecção 34 detecta uma área da imagem da imagem capturada que tem um tamanho de um valor predeter- minado sl ou maior e na qual a diferença no brilho com o ambiente está em um valor predeterminado sd ou maior a fim de eliminar o efeito de ruído e detecta de maneira adequada os faróis dianteiros de outro veículo como uma fonte de luz.
[061] Em conformidade, a unidade de definição de referência de detecção 34 primeiro submete a imagem capturada ao processamento de borda e detecta as áreas nas quais a diferença no brilho do ambiente está em um valor predeterminado sd ou maior, essas áreas sendo candidatos de fonte de luz. Na presente modalidade, a unidade de definição de referência de detecção 34 não se limita ao valor prede- terminado sd sendo um valor fixo, e é capaz de modificar o valor predeterminado sd com base, por exemplo, na distância traseira a partir da câmera 10 até o candidato de fonte de luz, ou a luminância da área na qual o candidato de fonte de luz está presente, a fim de detectar de maneira adequada uma fonte de luz. Por exemplo, a unidade de definição de referência de detecção 34 pode ter um mapa de valor limite no qual o valor predeterminado sd é definido de acordo com a luminância e o mapa de valor limite no qual o valor predeterminado sd é definido de acordo com a distân- cia traseira a partir da câmera 10 até o candidato de fonte de luz, comparando os dois mapas de valor limite, e seleciona o valor predeterminado sd mais elevado entre o valor predeterminado sd obtido a partir desses mapas de valor limite como o valor predeterminado sd para detectar o candidato de fonte de luz.
[062] A unidade de definição de referência de detecção 34, em seguida, de- tecta como a área que corresponde ao fonte de luz a área da imagem que tem um tamanho de um valor predeterminado sl ou maior entre a candidatos de fonte de luz detectada. O valor predeterminado sl também não é limitado a ser um valor fixo, e a unidade de definição de referência de detecção 34 pode modificar o valor predeter- minado sl de acordo com, por exemplo, a distância traseira a partir da câmera 10 ao candidato de fonte de luz. Por exemplo, quando o comprimento da áreas de detec- ção A1, A2 na direção de progresso do veículo hospedeiro é 10 m, a unidade de de- finição de referência de detecção 34 divide as áreas de detecção A1, A2 em três áreas, começando a partir da posição nas áreas de detecção A1, A2 mais próximas à câmera 10: uma área R1, que é 0 a 1,5 m na direção de progresso do veículo hos- pedeiro; uma área R2, que é 1,5 a 6 m; e uma área R3, que é 6 m a 10 m. A unidade de definição de referência de detecção 34 detect uma área da imagem na qual o comprimento e a largura é, por exemplo, 5 ´ 5 pixels ou maior que a área que cor- responde à fonte de luz in área R1 mais próxima ao veículo hospedeiro e área R3 mais distante a partir do veículo hospedeiro nas áreas de detecção A1, A2, e detecta uma área da imagem na qual o comprimento e a largura é, por exemplo, 7 ´ 7 pixels ou maior que a área que corresponde ao fonte de luz in área R2 no centro das áreas de detecção A1, A2.
[063] Quando uma fonte de luz não pode ser detectada na etapa S201, o va- lor limite a ilustrado na figura 7 é calculado como o valor limite a para detectar um veículo adjacente, e o processo para definir o valor limite a da etapa S105 é finaliza- do.
[064] A seguir, a unidade de definição de referência de detecção 34 define a linha Lc que passa através da posição centroide da fonte de luz detectada e a posi- ção central da câmera 10 (etapa S202), conforme ilustrado no desenho na direita na figura 10(A), e a unidade de definição de referência de detecção 34 ainda calcula o ponto de passagem O entre a linha Lc assim definida e um lado L2' no veículo lateral adjacente-adjacente da área de detecção A2 (etapa S203). A unidade de definição de referência de detecção 34 ajusta o ganho no valor limite a de modo que o ponto de passagem O calculado na etapa S203 e a posição de referência PO ilustrada na figura 8 coincidem (etapa S204), conforme ilustrado no desenho à esquerda na figu- ra 10(B).
[065] A unidade de definição de referência de detecção 34 modifica o valor limite a definido de acordo com a luminância com o uso do ganho no valor limite a ajustado na etapa S204, conforme ilustrado na figura 7, para assim calcular o valor limite a para detectar um veículo adjacente (etapa S205). A unidade de definição de referência de detecção 34, em seguida, calcula o valor limite a para todas as posi- ções de detecção nas áreas de detecção A1, A2, e o cálculo do valor limite a para todas as posições de detecção nas áreas de detecção A1, A2 (etapa S206 = Sim) define o valor limite a para detectar um veículo adjacente com base na diferença de forma de onda DW t, conforme ilustrado na figura 6.
[066] Com referência à figura 17, a unidade de detecção de objeto tridimen- sional 33 determina (etapa S106) se o pico do diferença de forma de onda DW t ge- rada na etapa S104 é igual a ou maior que o valor limite a que corresponde à posi- ção na qual o pico da diferença de forma de onda DW t foi detectado, com base no valor limite definido na etapa S105. Quando o pico do diferença de forma de onda DW t não está no valor limite a ou maior, isto é, quando não há essencialmente dife- rença, é possível considerar que um objeto tridimensional não está presente na ima- gem capturada P. Em conformidade, quando foi determinado que o pico do diferença de forma de onda DWt não está no valor limite a ou maior (etapa S106 = Não), a unidade de avaliação de objeto tridimensional 33 determina que outro veículo não está presente na pista adjacente (etapa S115) e termina o processo ilustrado na fi- gura 17.
[067] Por outro lado, quando o pico na diferença de forma de onda DWt é determinado estar no valor limite a ou maior (etapa S106 = Sim), a unidade de avali- ação de objeto tridimensional 33 determina que um objeto tridimensional está pre-
sente na pista adjacente e prossegue para a etapa S107, e a diferença de forma de onda DWt é dividida em uma pluralidade de áreas pequenas DW t1 a DW tn pela uni- dade de detecção de objeto tridimensional 33. A unidade de detecção de objeto tri- dimensional 33 a seguir confere a ponderação a cada uma das áreas pequenas DW t1 a DW tn (etapa S108), calcula a quantidade de deslocamento para cada uma das áreas pequenas DWt1 a DW tn (etapa S109), e gera um histograma com a consi- deração dada às ponderações (etapa S110).
[068] A unidade de detecção de objeto tridimensional 33, em seguida, calcu- la a distância de movimento relativo, que é a distância de movimento do veículo ad- jacente em relação ao veículo hospedeiro, com base no histograma (etapa S111). A unidade de detecção de objeto tridimensional 33 ainda calcula a velocidade de mo- vimento relativo do veículo adjacente a partir da distância de movimento relativo (etapa S112). Nesse momento, a unidade de detecção de objeto tridimensional 33 diferencia o tempo na distância de movimento relativo para calcular a velocidade de movimento relativo, e adiciona a velocidade de veículo hospedeiro detectada pelo sensor de velocidade 20 para calcular a velocidade de movimento absoluto do veícu- lo adjacente.
[069] A unidade de detecção de objeto tridimensional 33 portanto determina se a velocidade de movimento absoluto do veículo adjacente é 10 km/h ou mais e se a velocidade de movimento relativo do veículo adjacente em relação ao veículo hos- pedeiro is +60 km/h ou menos (etapa S113). Quando ambas as condições são satis- feitas (etapa S113 = Sim), a unidade de detecção de objeto tridimensional 33 deter- mina que um veículo adjacente está presente na pista adjacente (etapa S114). O processo ilustrado na figura 17 é, em seguida, finalizado. Por outro lado, quando uma das condições não é satisfeita (etapa S113 = Não), a unidade de detecção de objeto tridimensional 33 determina que um veículo adjacente não está presente na pista adjacente (etapa S115). O processo ilustrado na figura 17 é, em seguida, finali-
zado.
[070] Na presente modalidade, as áreas de detecção A1, A2 são as direções de lado traseiro do veículo hospedeiro, e o foco é posicionado se o veículo hospe- deiro pode possivelmente fazer contato com um veículo adjacente caso uma altera- ção de pista seja feita. Em conformidade, o processo da etapa S113 é executado. Em outras palavras, presume-se que o sistema na presente modalidade é atuado de maneira expressa, quando a velocidade de um veículo adjacente é menor que 10 km/h, raramente seria um problema se um veículo adjacente estivesse presente, pois o veículo adjacente seria posicionado longe do veículo hospedeiro quando a alteração de pista é feita. De maneira similar, quando a velocidade de movimento relativo de um veículo adjacente excede +60 km/h em relação ao veículo hospedeiro (isto é, quando o veículo adjacente está em movimento em uma velocidade 60 km/h maior que a velocidade do veículo hospedeiro), raramente seria um problema, pois o veículo adjacente seria posicionado adiante do veículo hospedeiro quando uma alte- ração de pista é feita. Consequentemente, pode ser construído que a etapa S113 determina um veículo adjacente qual seria um problema caso uma alteração de pista seja feita.
[071] Na etapa S113, determina-se que a velocidade de movimento absoluto do veículo adjacente é 10 km/h ou maior, e se a velocidade de movimento relativo do veículo adjacente em relação ao veículo hospedeiro é +60 km/h ou menos, obtendo assim o efeito a seguir. Por exemplo, um possível caso é que a velocidade de movi- mento absoluto de um objeto estacionário é detectada estar vários quilômetros por hora dependendo do erro de fixação da câmera 10. Em conformidade, a determina- ção de se a velocidade é 10 km/h ou maior possibilita a redução da possibilidade de que o objeto estacionário será determinado ser um veículo adjacente. Além disso, é possível que a velocidade relativa de um veículo adjacente em relação ao veículo hospedeiro será detectada para estar acima de +60 km/h devido ao ruído. Em con-
formidade, a a determinação de se a velocidade relativa é +60 km/h ou menos pos- sibilita a redução da possibilidade de detecção vaga devido ao ruído.
[072] Em vez do processamento na etapa S113, pode ser determinado que a velocidade de movimento relativo do veículo adjacente não é um valor negativo, ou não é 0 km/h. Além disso, na presente modalidade, uma vez que o foco é dado quanto a se há uma possibilidade de que o contato será feito caso o veículo hospe- deiro faça uma alteração de pista, um som de aviso pode ser emitido ao motorista do veículo hospedeiro, ou uma exibição que corresponde a um aviso pode ser fornecida por um dispositivo de exibição predeterminado quando o veículo adjacente foi detec- tado na etapa S114.
[073] Assim, na primeira modalidade, as áreas de detecção A1, A2 na trasei- ra do veículo hospedeiro são capturadas em diferentes momentos, as imagens cap- turadas assim capturadas são convertidas em imagens de vista aérea, e a imagem de diferença PDt é gerada com base em uma diferença entre as imagens de vista aérea em diferentes momentos. O número de pixels que indica uma diferença prede- terminada é contado ao longo da direção na qual o objeto tridimensional se rompe devido à conversão de ponto de vista e a distribuição de frequência é formada para assim gerar uma diferença de forma de onda DWta partir dos dados de imagem de diferença PDt. Em seguida, determina-se se o pico na diferença de forma de onda DW t gerada está em um valor limite a ou maior definido de acordo com a distância traseira a partir da câmera 10 ou a relação posicional entre a câmera 10 e a fonte de luz, e quando o pico na diferença de forma de onda DWt está no valor limite a ou maior, é determinado que um veículo adjacente está presente na pista adjacente, e o veículo adjacente presente na pista adjacente pode assim ser detectado de manei- ra adequada.
[074] Em outras palavras, na presente modalidade, o valor limite a é modifi- cado de acordo com a luminância, conforme ilustrado na figura 7. Na detecção de um veículo adjacente, é possível assim eliminar o efeito de luz dos faróis dianteiros de um veículo adjacente-adjacente que tem alta luminância, e a detecção de manei- ra adequada de um veículo adjacente. Além disso, na presente modalidade, a fonte de luz na traseira e no lado do veículo hospedeiro é detectada, e o valor limite a para detectar um veículo adjacente é modificado de acordo com a posição da fonte de luz detectada. De maneira específica, na presente modalidade, o ganho no valor limite a é definido mais elevado adiante a partir da posição de referência PO corresponde à posição da fonte de luz, e inferior traseira a partir da posição de referência PO, con- forme ilustrado na figura 8. De acordo com a presente modalidade, uma vez que o valor limite a para detectar um veículo adjacente pode ser definido na traseira dos faróis dianteiros (fonte de luz), é possível detectar de maneira adequada o pneu/roda de um veículo adjacente present traseira dos faróis dianteiros (fonte de luz), mesmo quando, por exemplo, a luminância na adjacência dos faróis dianteiros (fonte de luz) é alta devido à sujeira nas lentes da câmera 10, e o pneu/roda do veículo adjacente posicionado traseira dos faróis dianteiros (fonte de luz).
[075] Quando a luz dos faróis dianteiros (fonte de luz) de um veículo adja- cente-adjacente brilha na pista adjacente, a luz dos faróis dianteiros (fonte de luz) pode ser refletida na pista adjacente e a luz refletida pode ser detectada na área di- anteira dos faróis dianteiros (fonte de luz). Mesmo em tal caso, de acordo com a presente modalidade, o valor limite a para detectar um veículo adjacente na área dianteira dos faróis dianteiros (fonte de luz) pode ser aumentada com relação à lu- minância, e a imagem da luz refletida que é refletida em um veículo adjacente pode ser evitada de maneira eficaz seja detectada de modo vago como um veículo adja- cente.
[076] Além disso, na presente modalidade, o ganho no valor limite a ilustra- do na figura 9 é ajustado de acordo com a distância L na direção de largura de veí- culo a partir da posição central da câmera 10 até a posição centroide da fonte de luz.
De maneira específica, a faixa de redução dh do ganho no valor limite a traseira a partir da posição de referência PO é reduzida de modo que quanto maior a distância L a partir da posição central da câmera 10 até a posição centroide da fonte de luz, maior é o valor limite a traseira a partir da fonte de luz, conforme ilustrado na figura
11. Aqui, quanto mais os faróis dianteiros detectados (fonte de luz) forem separados a partir da câmera 10 na direção de largura de veículo (direção de eixo X), a possibi- lidade de que os faróis dianteiros detectados são os faróis dianteiros de um veículo adjacente-adjacente é mais alta que a possibilidade de que os faróis dianteiros de- tectados são os faróis dianteiros de um veículo adjacente. Em conformidade, na pre- sente modalidade, quanto maior a distância L a partir da posição central da câmera 10 até a posição centroide da fonte de luz, os faróis dianteiros detectados são de- terminados serem aqueles dos faróis dianteiros de um veículo adjacente-adjacente, e a faixa de redução dh do ganho no valor limite a traseira a partir da posição de re- ferência PO é reduzida, conforme ilustrado na figura 11. O valor limite a traseira a partir da posição de referência PO que corresponde à posição da fonte de luz pode assim ser aumentado em comparação com o caso ilustrado na figura 8, e o efeito dos faróis dianteiros de um veículo adjacente-adjacente pode ser eliminado de ma- neira mais eficaz na área traseira a partir da fonte de luz. Além disso, de maneira similar, o efeito dos faróis dianteiros de um veículo adjacente-adjacente pode ser elimitado de maneira mais eficaz mesmo quando a faixa dw na qual o ganho no valor limite a é reduzido é estreita com relação ao ganho no valor limite a na posição de referência PO de forma proporcional para um aumento em uma distância L a partir da posição central da câmera 10 até a posição centroide da fonte de luz, conforme ilus- trado na figura 12.
[077] Modalidade 2 Descreve-se a seguir um dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade. O dispositivo de detecção de objeto tridimen-
sional 1a de acordo com a segunda modalidade é igual a primeira modalidade, exce- to pelo fato de que um computador 30a é fornecido em vez do computador 30 da primeira modalidade, conforme ilustrado na figura 19, e a operação é conforme des- crito abaixo. Aqui, a figura 19 é uma vista de bloco que ilustra os detalhes do compu- tador 30a de acordo com a segunda modalidade.
[078] O dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade é dotado de uma câmera 10 e um computador 30a, conforme ilustrado na figura 19. O computador 30a é dotado de uma unidade de conversão de ponto de vista 31, uma unidade de cálculo de diferença de luminância 35, uma uni- dade de detecção de linha de borda 36, uma unidade de detecção de objeto tridi- mensional 33a e uma unidade de definição de referência de detecção 34a. As confi- gurações do dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade são descritas a seguir.
[079] A figura 20 é uma vista que ilustra a faixa de captura da imagem da câmera 10 na figura 19, a figura 20(a) é uma vista plana, e a figura 20(b) é uma vista em perspectiva no espaço real traseiro a partir do veículo hospedeiro V1. A câmera 10 é definida em um ângulo de visão predeterminado a, e o lado traseiro do veículo hospedeiro V1 incluído no ângulo de visão a predeterminado é capturado, conforme ilustrado na figura 20(a). O ângulo de visão a da câmera 10 é definido e modo que as pistas adjacentes são incluídas na faixa de captura da câmera 10 além da pista na qual o veículo hospedeiro V1 está se movimentando, da mesma maneira confor- me ilustrado na figura 2.
[080] As áreas de detecção A1, A2 no presente exemplo são trapezoidais em uma vista plana (estado de vista aérea), a posição, o tamanho e o formato da áreas de detecção A1, A2 são mostrados com base nas distâncias d1 a d4. As áreas de detecção A1, A2 do exemplo ilustrado no desenho não são limitados a serem tra- pezoidais, e também podem ser retangulares ou de outro formato em um estado de vista aérea, conforme ilustrado na figura 2.
[081] Aqui, a distância d1 é a distância a partir do veículo hospedeiro V1 até as linhas terrestres L1, L2. As linhas terrestres L1, L2 se referem a uma linha na qual um objeto tridimensional, que está presente em uma pista adjacente à pista na qual o veículo hospedeiro V1 está se movimentando, está em contato com o solo. Na presente modalidade, um objetivo é detectar um veículo adjacente V2 ou similares (que inclui os veículos de duas rodas ou similares) que se movimenta na pista à es- querda ou à direita atrás do veículo hospedeiro V1 e adjacente à pista do veículo hospedeiro V1. Em conformidade, a distância d1, que é a posição das linhas terres- tres L1, L2 do veículo adjacente V2, pode ser decidida de modo a ser substancial- mente fixa de uma distância d11 a partir do veículo hospedeiro V1 até uma linha branca W e a distância d12 a partir da linha branca W até a posição na qual o veícu- lo adjacente V2 é previsto para se movimentar.
[082] A distância d1 não se limita a ser decidida de maneira fixa e pode ser variável. Nesse caso, o computador 30a reconhece a posição da linha branca W em relação ao veículo hospedeiro V1 com o uso do reconhecimento da linha branca ou outra técnica, e a distância d11 é decidida com base na posição da linha branca W reconhecida. A distância d1 é assim definida de modo variável com o uso da distân- cia decidida d11. Na presente modalidade descrita a seguir, a posição na qual o veí- culo adjacente V2 está se movimentando (a distância d12 a partir da linha branca W) e a posição na qual o veículo hospedeiro V1 está se movimentando (a distância d11 a partir da linha branca W) é principalmente previsível, e a distância d1 é decidida de maneira fixa.
[083] A distância d2 é a distância que se estende a partir da parte de extre- midade traseira do veículo hospedeiro V1 na direção de progresso de veículo. A dis- tância d2 é decidida de modo que as áreas de detecção A1, A2 são acomodadas dentro de pelo menos o ângulo de visão a da câmera 10. Na presente modalidade in particular, a distância d2 é definida de modo a estar em contato com uma faixa divi- dida dentro do ângulo de visão a. A distância d3 indica o comprimento das áreas de detecção A1, A2 na direção de progressão de veículo. A distância d3 é decidida com base no tamanho do objeto tridimensional a ser detectado. Na presente modalidade, o objeto a ser detectado é um veículo adjacente V2 ou similares e, portanto, a dis- tância d3 é definida em um comprimento que inclui o veículo adjacente V2.
[084] A distância d4 indica o altura, que foi definido de modo que os pneus do veículo adjacente V2 ou similares são incluídos no espaço real, conforme ilustra- do na figura 20(b). Em uma imagem de vista aérea, a distância d4 [e o comprimento ilustrado na figura 20(a). A distância d4 também pode ser um comprimento que não inclui as pistas ainda adjacentes à esquerda e à direita nas pistas adjacentes na imagem de vista aérea (isto é, pistas adjacente-adjacentes a duas pistas de distân- cia). Isso se deve ao fato de que quando as pistas há duas pistas de distância da pista do veículo hospedeiro V1 são incluídas, não é mais possível distinguir um veí- culo adjacente V2 está presente na pista adjacentes à esquerda e à direita na pista na qual o veículo hospedeiro V1 está se movimentando, ou se um veículo adjacente- adjacente is presente em uma pista adjacente-adjacente a duas pistas de distância.
[085] Conforme descrito acima, as distâncias d1 a d4 são decididas, e a po- sição, o tamanho e o formato da áreas de detecção A1, A2 são assim decididos. De maneira mais específica, a posição do lado de topo b1 da áreas de detecção A1, A2 que formam um trapezoide é decidida pela distância d1. A posição de partida C1 do lado de topo b1 é decidida pela distância d2. A posição final C2 do lado de topo b1 é decidida pela distância d3. O lado lateral b2 das áreas de detecção A1, A2 que for- mam um trapezoide é decidido pela linha reta L3 que se estende a partir da câmera 10 em direção à posição de partida C1. De maneira similar, o lado lateral b3 das áreas de detecção A1, A2 que forma um trapezoide é decidido por uma linha reta L4 que se estende a partir da câmera 10 em direção à posição de extremidade C2. A posição do lado inferior b4 das áreas de detecção A1, A2 que forma um trapezoide é decidida pela distância d4. Dessa maneira, as áreas circundadas pelos lados b1 a b4 são as áreas de detecção A1, A2. As áreas de detecção A1, A2 são quadrados regulares (retângulos) no espaço real traseira a partir do veículo hospedeiro V1, con- forme ilustrado na figura 20(b).
[086] Com referência à figura 19, a unidade de conversão de ponto de vista 31 aceita a entrada de dados de imagem capturada de uma área predeterminada capturada pela câmera 10. A unidade de conversão de ponto de vista 31 converte o ponto de vista dos dados de imagem capturada inseridos em dados de imagem de vista aérea, que é um estado de vista aérea. Um estado de vista aérea é um estado de visualização do ponto de vista de uma câmera imaginária que está olhando de cima para baixo, por exemplo, para baixo de modo vertical (ou ligeiramente inclinado para baixo). A conversão de ponto de vista pode ser executada com o uso da técni- ca descrita, por exemplo, no pedido de patente japonês aberto à inspeção pública n° 2008-219063.
[087] A unidade de cálculo de diferença de luminância 35 calcula as diferen- ças de luminância nos dados de imagem de vista aérea, que foi submetida à conver- são de ponto de vista pela unidade de conversão de ponto de vista 31, a fim de de- tectar as bordas de um objeto tridimensional incluído na imagem de vista aérea. A unidade de cálculo de diferença de luminância 35 calcula, para cada de uma plurali- dade de posições ao longo de uma linha imaginária perpendicular que se estende ao longo da direção perpendicular no espaço real, a diferença de luminância entre dois pixels próximos de cada posição. A unidade de cálculo de diferença de luminância 35 é capaz de calcular a diferença de luminância por um método para definir uma única linha imaginária perpendicular que se estende na direção perpendicular no espaço real, ou um método para definir duas linhas imaginárias perpendiculares.
[088] Descreve-se abaixo o método específico para definir duas linhas ima-
ginárias perpendiculares. A unidade de cálculo de diferença de luminância 35 define a primeira linha imaginária perpendicular que corresponde a um segmento de linha que se estende na direção perpendicular no espaço real, e a segunda linha imaginá- ria perpendicular que é diferente a partir da primeira linha imaginária perpendicular e que corresponde ao segmento de linha que se estende na direção perpendicular no espaço real. A unidade de cálculo de diferença de luminância 35 determina a dife- rença de luminância entre um ponto na primeira linha imaginária perpendicular e um ponto na segunda linha imaginária perpendicular de maneira contínua ao longo da primeira linha imaginária perpendicular e a segunda linha imaginária perpendicular. A operação da unidade de cálculo de diferença de luminância 36 é descrito em deta- lhes abaixo.
[089] A unidade de cálculo de diferença de luminância 35 define uma primei- ra linha imaginária perpendicular La (aqui abaixo chamada de linha de atenção La) que corresponde a uma segmento de linha que se estende na direção perpendicular no espaço real e que passa através da área de detecção A1, conforme ilustrado na figura 21(a). A unidade de cálculo de diferença de luminância 35 define uma segun- da linha imaginária perpendicular Lr (aqui abaixo chamada de linha de referência Lr) que é diferente a partir da linha de atenção La, corresponde ao segmento de linha que se estende na direção perpendicular no espaço real, e passa através da área de detecção A1. Aqui, a linha de referência Lr é definida em um posição em uma dis- tância a partir da linha de atenção La por uma distância predeterminada no espaço real. As linhas que correspondem aos segmentos de linha que se estendem na dire- ção perpendicular no espaço real são as linhas espaçadas na direção radial a partir da posição Ps da câmera 10 em uma imagem de vista aérea. Essas linhas que se espalham na direção radial são as linhas que seguem a direção em colapso do obje- to tridimensional quando convertidas em uma vista aérea.
[090] A unidade de cálculo de diferença de luminância 35 define um ponto de atenção Pa na linha de atenção La (um ponto na primeira linha imaginária per- pendicular). A unidade de cálculo de diferença de luminância 35 define um ponto de referência Pr na linha de referência Lr (um ponto na segunda linha imaginária per- pendicular). A linha de atenção La, o ponto de atenção Pa, a linha de referência Lr, e o ponto de referência Pr têm a relação no espaço real ilustrado na figura 21(b). Fica evidente a partir da figura 21(b) que a linha de atenção La e a linha de referência Lr são as linhas que se estendem na direção perpendicular no espaço real, e que o ponto de atenção Pa e o ponto de referência Pr são os pontos definidos substanci- almente na mesma altura no espaço real. O ponto de atenção Pa e o ponto de refe- rência Pr não devem necessariamente ser rigorosamente mantidos na mesma altura, e uma determinada quantidade de erro que permite que o ponto de atenção Pa e o ponto de referência Pr sejam considerados estando na mesma altura é permitida.
[091] A unidade de cálculo de diferença de luminância 35 determina a dife- rença de luminância entre o ponto de atenção Pa e o ponto de referência Pr. Se a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr for grande, é possível que uma borda esteja presente entre o ponto de atenção Pa e o ponto de referência Pr. Na segunda modalidade in particular, uma linha imaginária perpendicular é definida como um segmento de linha que se estende na direção perpendicular no espaço real em relação ao imagem de vista aérea, a fim de detec- tar um objeto tridimensional presente nas áreas de detecção A1, A2. Portanto, há uma alta possibilidade de que haja uma borda de um objeto tridimensional em uma localização onde a linha de atenção La foi definida quando a diferença de luminância entre a linha de atenção La e a linha de referência Lr é alta. Em conformidade, a unidade de detecção de linha de borda 36 ilustrada na figura 19 detecta uma linha de borda com base em uma diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr.
[092] Esse ponto será descrita em mais detalhes. A figura 22 é uma vista pa-
ra descrever uma descrição detalhada de uma unidade de cálculo de diferença de luminância 35. A figura 22(a) ilustra a imagem de vista aérea do estado de vista aé- rea, e a figura 22(b) é uma vista ampliada da vista aérea de uma parte B1 da ima- gem de vista aérea ilustrada na figura 22(a). Na figura 22, apenas a área de detec- ção A1 é ilustrada e descrita, mas a diferença de luminância é calculada com o uso do mesmo procedimento para a área de detecção A2.
[093] Quando o veículo adjacente V2 está sendo exibido na imagem captu- rada pela câmera 10, o veículo adjacente V2 aparece na área de detecção A1 na imagem de vista aérea, conforme ilustrado na figura 22(a). A linha de atenção La é definida em uma parte de borracha de um pneu do veículo adjacente V2 na imagem de vista aérea na figura 22(b), conforme ilustrado na vista ampliada da área B1 na figura 22(a). Nesse estado, primeiro, a unidade de cálculo de diferença de luminân- cia 35 define a linha de referência Lr. A linha de referência Lr é definida ao longo da direção perpendicular em uma posição definida em uma distância predeterminada no espaço real a partir da linha de atenção La. De maneira específica, no dispositivo de detecção de objeto tridimensional 1a de acordo com a presente modalidade, a linha de referência Lr é definida em uma posição em uma distância of 10 cm distante no espaço real a partir da linha de atenção La. A linha de referência Lr é assim definida no aro do pneu do veículo adjacente V2 definido, por exemplo, em uma distância que corresponde a 10 cm a partir da borracha do pneu do veículo adjacente V2 na imagem de vista aérea.
[094] A seguir, a unidade de cálculo de diferença de luminância 35 define uma pluralidade de pontos de atenção Pa1 a PaN na linha de atenção La. Na figura 22(b), seis pontos de atenção Pa1 a Pa6 (aqui chamados de ponto de atenção Pai quando que indicam um ponto arbitrário) são definidos por conveniência de descri- ção. Um número arbitrário de pontos de atenção Pa pode ser definido na linha de atenção La. Na descrição abaixo, N pontos de atenção Pa são definidos na linha de atenção La.
[095] A unidade de cálculo de diferença de luminância 35 define de maneira subsequente o pontos de referência Pr1 to PrN de modo a ter a mesma altura que os pontos de atenção Pa1 a PaN no espaço real. A unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre os pares de ponto de atenção Pa e de ponto de referência Pr na mesma altura. A unidade de cálculo de diferença de luminância 35 calcula assim a diferença de luminância entre dois pixels para cada uma da pluralidade de posições (1 - N) ao longo da linha imaginária perpendicular que se estende na direção perpendicular no espaço real. A unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre, por exemplo, um primeiro ponto de atenção Pa1 e um primeiro ponto de referência Pr1, e calcula a diferença de luminância entre um segundo ponto de atenção Pa2 e um segundo ponto de referência Pr2. A unidade de cálculo de diferença de luminância 35 deter- mina assim a diferença de luminância de modo contínuo fashion ao longo da linha de atenção La e da linha de referência Lr. Em outras palavras, a unidade de cálculo de diferença de luminância 35 determina de maneira sequencial a diferença de lumi- nância entre um terceiro a Nth pontos de atenção Pa3 a PaN e o terceiro a Nth pontos de referência Pr3 a PrN.
[096] A unidade de cálculo de diferença de luminância 35 repete o processo de definição da linha de referência Lr descrita acima, definição do ponto de atenção Pa, definição do ponto de referência Pr, e o cálculo da diferença de luminância ao mesmo tempo em que desloca a linha de atenção La dentro da área de detecção A1. Em outras palavras, a unidade de cálculo de diferença de luminância 35 executa de maneira repetida o processo descrito acima, ao mesmo tempo em que altera as po- sições da linha de atenção La e da linha de referência Lr pela mesma distância no espaço real ao longo da direção na qual a linha terrestre L1 se estende. A unidade de cálculo de diferença de luminância 35, por exemplo, define a linha que foi a linha de referência Lr no processo anterior para ser a linha de atenção La, define a linha de referência Lr em relação à linha de atenção La, e determina de modo sequencial a diferença de luminância.
[097] Dessa maneira, na segunda modalidade, a determinação da diferença de luminância a partir do ponto de atenção Pa na linha de atenção La e do ponto de referência Pr na linha de referência Lr, que estão substancialmente na mesma altura no espaço real, permite que uma diferença de luminância seja detectada de maneira distinta quando uma borda que se estende na direção perpendicular está presente. A precisão para detectar um objeto tridimensional pode ser aprimorada sem que o processo para detectar o objeto tridimensional seja afetado, mesmo quando o objeto tridimensional é ampliado de acordo com a altura a partir da superfície da estrada mediante a conversão em uma imagem de vista aérea a fim de comparar a luminân- cia entre as linhas imaginárias perpendiculares que se estendem na direção perpen- dicular no espaço real.
[098] Com referência à figura 19, a unidade de detecção de linha de borda 36 detecta a linha de borda a partir da diferença de luminância contínua calculada pela unidade de cálculo de diferença de luminância 35. Por exemplo, no caso ilus- trada na figura 22(b), o primeiro ponto de atenção Pa1 e o primeiro ponto de refe- rência Pr1 são posicionados na mesma parte do pneu, e a diferença de luminância é, portanto, pequena. Por outro lado, o segundo ao sexto pontos de atenção Pa2 a Pa6 são posicionados nas partes de borracha do pneu, e o segundo ao sexto pontos de referência Pr2 a Pr6 são posicionados na parte de aro do pneu. Portanto, a diferença de luminância entre o segundo ao sexto pontos de atenção Pa2 a Pa6 e o segundo ao sexto pontos de referência Pr2 a Pr6 é grande. Em conformidade, a unidade de detecção de linha de borda 36 é capaz de detectar que uma borda está presente entre o segundo a sexto pontos de atenção Pa2 a Pa6 e o segundo ao sexto pontos de referência Pr2 a Pr6 onde a diferença de luminância é alta.
[099] De maneira específica, quando uma linha de borda está para ser de- tectada, a unidade de detecção de linha de borda 36 primeiro atribui um atributo ao ith ponto de atenção Pai a partir de uma diferença de luminância entre o ith ponto de atenção Pai (coordenadas (xi, yi)) ao ith ponto de referência Pri (coordinates (xi', yi')) de acordo com a fórmula 1 observada abaixo. Fórmula 1 s(xi, yi) = 1 quando I(xi, yi) > I(xi', yi') + t s(xi, yi) = -1 quando I(xi, yi) < I(xi', yi') - t s(xi, yi) = 0 quando o que foi dito acima não for verdadeiro.
[0100] Na fórmula 1 acima, t representa um valor limite predeterminado, I(xi, yi) representa um valor de luminância do ith ponto de atenção Pai, e I(xi', yi') repre- senta um valor de luminância do ith ponto de referência Pri. De acordo com a fórmula 1, o atributo s(xi, yi) do ponto de atenção Pai é '1' quando o valor de luminância do ponto de atenção Pai é maior que o valor de luminância obtido mediante a adição do valor limite t ao ponto de referência Pri. Por outro lado, o atributo s(xi, yi) do ponto de atenção Pai é '-1' quando o valor de luminância do ponto de atenção Pai é menor que o valor de luminância obtido mediante a subtração do valor limite t a partir do ponto de referência Pri. O atributo s(xi, yi) do ponto de atenção Pai é '0' quando o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri estão em uma relação além daquelas descritas acima.
[0101] A seguir, a unidade de detecção de linha de borda 36 avalia se a linha de atenção La é uma linha de borda da continuidade c(xi, yi) do atributo s ao longo da linha de atenção La com base na fórmula 2 a seguir. Fórmula 2 c(xi, yi) = 1 quando s(xi, yi) = s(xi + 1, yi + 1) (excluindo quando 0 = 0) c(xi, yi) = 0 quando o que foi dito acima não for verdadeiro.
[0102] A continuidade c(xi, yi) é '1' quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção Pai + 1 adjacente são iguais. A continuidade c(xi, yi) é '0' quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção Pai + 1 adjacente não são iguais.
[0103] A seguir, a unidade de detecção de linha de borda 36 determina a soma das continuidades c de todos os pontos de atenção Pa na linha de atenção La. A unidade de detecção de linha de borda 36 divide a soma das continuidades c as- sim determinada pelo número N de pontos de atenção Pa para assim normalizar a continuidade c. A unidade de detecção de linha de borda 36 determina a linha de atenção La sendo uma linha de borda quando o valor normalizado excedeu o valor limite q. O valor limite q é definido antecipadamente mediante a experimentação ou outros meios.
[0104] Em outras palavras, a unidade de detecção de linha de borda 36 de- termina se a linha de atenção La é uma linha de borda com base na formula 3 ob- servada abaixo. A unidade de detecção de linha de borda 36, em seguida, determina se todas as linhas de atenção La desenhadas na área de detecção A1 são as linhas de borda. Fórmula 3 Sc(xi, yi)/N > q
[0105] Dessa maneira, na segunda modalidade, um atributo é atribuído ao ponto de atenção Pa com base na diferença de luminância entre o ponto de atenção Pa na linha de atenção La e o ponto de referência Pr na linha de referência Lr, e é determinado se a linha de atenção La é uma linha de borda com base na continui-
dade c dos atributos ao longo da linha de atenção La. Portanto, os limites entre as áreas que têm alta luminância e as áreas que têm baixa luminância são detectados como as linhas de borda, e as bordas podem ser detectadas de acordo com os sen- tidos natural de um ser humano. Os resultados acima serão descritos. A figura 23 é uma vista que ilustra um exemplo de imagem para descrever o processamento de uma unidade de detecção de linha de borda 36. Esse exemplo de imagem é uma imagem na qual um primeiro padrão de listras 101 e um segundo padrão de listras 102 são adjacentes uns aos outros, o primeiro padrão de listras 101 que indica um padrão de listras no qual as áreas de alta luminância e as áreas de baixa luminância são repetidas, e o segundo padrão de listras 102 que indica uma padrão de listras no qual as áreas de baixa luminância e as áreas de alta luminância são repetidas. Além disso, nesse exemplo de imagem, as áreas do primeiro padrão de listras 101 no qual a luminância é alta, e as áreas do segundo padrão de listras 102 no qual a luminância é baixa são adjacentes umas às outras, e as áreas do primeiro padrão de listras 101 na qual a luminância é baixa, e as áreas do segundo padrão de listras 102 na qual a luminância é alta são adjacentes umas às outras. A localização 103 posicionada no limite entre o primeiro padrão de listras 101 e o segundo padrão de listras 102 tende a não ser percebido como uma borda pelos sentidos do ser huma- no.
[0106] Em contraste, devido às áreas de baixa luminância e as áreas de alta luminância serem adjacentes umas às outras, a localização 103 é reconhecida como uma borda quando uma borda é detectada apenas pela diferença de luminância. No entanto, a unidade de detecção de linha de borda 36 avalia a localização 103 como sendo uma linha de borda apenas quando há continuidade nos atributos de uma di- ferença de luminância. Portanto, a unidade de detecção de linha de borda 36 é ca- paz de suprimir a avaliação vaga na qual a localização 103, que não é reconhecida como uma linha de borda pelos sentidos do ser humano, é reconhecida como a linha de borda, e as bordas podem ser detectadas de acordo com os sentidos do ser hu- mano.
[0107] Com referência à figura 19, a unidade de detecção de objeto tridi- mensional 33a detecta um objeto tridimensional com base em uma quantidade de linhas de borda detectada pela unidade de detecção de linha de borda 36. Conforme descrito acima, o dispositivo de detecção de objeto tridimensional 1a de acordo com a presente modalidade detecta uma borda linha que se estende na direção perpen- dicular no espaço real. A detecção de muitas linhas de borda que se estendem na direção perpendicular indica que há uma alta possibilidade de que um objeto tridi- mensional esteja presente nas áreas de detecção A1, A2. Em conformidade, a uni- dade de detecção de objeto tridimensional 33a detecta um objeto tridimensional com base na quantidade de linhas de borda detectada pela unidade de detecção de linha de borda 36. De maneira específica, a unidade de detecção de objeto tridimensional 33a determina se a quantidade de linhas de borda detectada pela unidade de detec- ção de linha de borda 36 é um valor limite predeterminado b ou maior, e quando a quantidade de linhas de borda é um valor limite predeterminado b ou maior, as li- nhas de borda detectadas pela unidade de detecção de linha de borda 36 são de- terminadas como sendo as linhas de borda de um objeto tridimensional, e um objeto tridimensional com base nas linhas de borda é assim detectado como sendo um veí- culo adjacente V2.
[0108] Assim, a forma de onda de borda é um modo de informações de dis- tribuição de pixels que indicam uma diferença de luminância predeterminada, e as "informações de distribuição de pixels" na presente modalidade podem ser posicio- nadas com as informações que indicam o estado de distribuição de "pixels que tem uma diferença de luminância em um valor limite predeterminado ou maior" conforme detectado ao longo da direção na qual o objeto tridimensional se rompe quando a imagem capturada é convertida no ponto de vista em uma imagem de vista aérea.
Em outras palavras, a unidade de detecção de objeto tridimensional 33a detecta, na imagem de vista aérea obtida pela unidade de conversão de ponto de vista 31, as informações de distribuição de pixels nas quais uma diferença de luminância é o va- lor limite t ou maior ao longo da direção na qual o objeto tridimensional se rompe quando a conversão no ponto de vista é feito para uma imagem de vista aérea, e detecta um objeto tridimensional com base nas informações de distribuição de pixels (linhas de borda) quando o grau de distribuição de pixels (quantidade de linhas de borda) na direção na qual o objeto tridimensional se rompe está em um valor limite predeterminado b ou maior.
[0109] Na segunda modalidade, o valor limite b para detectar um veículo ad- jacente é definido pela unidade de definição de referência de detecção 34. Em ou- tras palavras, da mesma maneira que na primeira modalidade, na segunda modali- dade, a unidade de definição de referência de detecção 34a define o valor limite b de acordo com luminância, conforme ilustrado na figura 24, e ainda modifica o ganho no valor limite b de acordo com a posição da fonte de luz detectada traseira a partir do veículo hospedeiro, conforme ilustrado na figura 25. Além disso, da mesma maneira que na primeira modalidade, a unidade de definição de referência de detecção 34 faz com que a posição da fonte de luz e a posição de referência PO ilustrada na figu- ra 25 coincidam; e ajusta o ganho no valor limite b ilustrado na figura 25 e ajusta a faixa de redução dh no ganho no valor limite b ilustrado na figura 25 e a faixa dw na qual o ganho no valor limite b é reduzido, de acordo com a distância L na direção de largura de veículo a partir da posição central da câmera 10 até a posição centroide da fonte de luz da mesma maneira que na primeira modalidade. A unidade de defini- ção de referência de detecção 34a, em seguida, define o valor limite b em cada po- sição nas áreas de detecção A1, A2 na direção de progresso do veículo hospedeiro de acordo com a luminância, conforme ilustrado na figura 24, e modifica o valor limi- te assim definido b de acordo com o ganho no valor limite b, que foi ajustado de acordo com a posição da fonte de luz.
[0110] Além disso, antes da detecção do objeto tridimensional, a unidade de detecção de objeto tridimensional 33a avalia se as linhas de borda detectadas pela unidade de detecção de linha de borda 36 estão corretas. A unidade de detecção de objeto tridimensional 33a avalia se uma alteração na luminância em uma linhas de borda é um valor limite predeterminado tb ou maior ao longo das linhas de borda da imagem de vista aérea. Quando a alteração na luminância em uma linhas de borda na imagem de vista aérea é um valor limite predeterminado tb ou maior, as linhas de borda são determinadas como sendo detectadas pela avaliação vaga. Por outro lado, quando a alteração na luminância nas linhas de borda na imagem de vista aérea é menor que um valor limite predeterminado tb, avalia-se que as linhas de borda estão corretas. O valor limite tb é definido antecipadamente mediante a experimentação ou outros meios.
[0111] A figura 26 é uma vista que ilustra a distribuição de luminância de uma linha de borda, a figura 26(a) ilustra a linha de borda e a distribuição de lumi- nância quando um veículo adjacente V2 como um objeto tridimensional está presen- te na área de detecção A1, e a figura 26(b) ulustra a linha de borda e a distribuição de luminância quando um objeto tridimensional não está presente na área de detec- ção A1.
[0112] Conforme ilustrado na figura 26(a), presume-se que foi determinado que a linha de atenção La definida na parte de borracha do pneu do veículo adjacen- te V2 está em uma linha de borda na imagem de vista aérea. Nesse caso, a altera- ção na luminância na linha de atenção La na imagem de vista aérea é gradual. Isso se deve à imagem capturada pela câmera 10 sendo convertida no ponto de vista para uma imagem de vista aérea, através do qual o pneu do veículo adjacente é ampliado dentro da imagem de vista aérea. Por outro lado, a linha de atenção La definida na parte de caractere branco "50" desenhado na superfície da estrada na imagem de vista aérea é considerada como sendo avaliada de maneira vaga para ser uma linha de borda, conforme ilustrado na figura 26(b). Nesse caso, a alteração na luminância na linha de atenção La na imagem de vista aérea tem ondulações consideráveis. Isso se deve ao fato de que a estrada e outras partes e de baixa lu- minância são misturadas com as partes de alta luminância nos caracteres brancos em uma linha de borda.
[0113] A unidade de detecção de objeto tridimensional 33a avalia se uma li- nha de borda foi detectada mediante a avaliação vaga com base nas diferenças na distribuição de luminância na linha de atenção La como descrito acima. A unidade de detecção de objeto tridimensional 33a determina que a linha de borda foi detec- tada mediante a avaliação vaga quando a alteração na luminância ao longo da linha de borda está em um valor limite predeterminado tb ou maior, e determina que a li- nha de borda não é causada por um objeto tridimensional. Uma redução na precisão para detectar um objeto tridimensional é assim suprimida quando os caracteres brancos, como "50" na superfície da estrada, a vegetação ao longo da estrada, e similares são avaliados como sendo as linhas de borda. Por outro lado, a unidade de detecção de objeto tridimensional 33a determina que uma linha de borda é uma li- nha de borda de um objeto tridimensional e determina que um objeto tridimensional está presente quando as alterações na luminância ao longo da linha de borda são menores que um valor limite predeterminado tb.
[0114] De maneira específica, a unidade de detecção de objeto tridimensio- nal 33a calcula uma alteração na luminância de uma linha de borda com o uso da fórmula 4 ou 5 observada abaixo. A alteração na luminância da linha de borda cor- responde ao valor de avaliação no espaço real na direção perpendicular. A fórmula 4 avalia a distribuição de luminância com o uso do valor total do quadradas da diferen- ça entre o ith valor de luminância I(xi, yi) e o ith + 1 valor de luminância adjacente I(xi + 1, yi + 1) na linha de atenção La. A fórmula 5 avalia a distribuição de luminância com o uso do valor total do valor absoluto da diferença entre o ith valor de luminância I(xi, yi) e o ith +1 valor de luminância I(xi + 1, yi + 1) adjacente na linha de atenção La. Fórmula 4 O valor de avaliação na direção equivalente perpendicular = S[{I(xi, yi) - I(xi + 1, yi + 1)}2] Fórmula 5 O valor de avaliação na direção equivalente perpendicular = S|I(xi, yi) - I(xi + 1, yi + 1)|
[0115] Nenhuma limitação é imposta sobre o uso da formula 5, e também é possível binarizar um atributo b de um valor de luminância adjacente com o uso do valor limite t2, e, em seguida, sumar o atributo b binarizado para todos os pontos de atenção Pa, como na fórmula 7 observada abaixo. Fórmula 6 Valor de avaliação na direção equivalente perpendicular = Sb(xi, yi) em que b(xi, yi) = 1 quando |I(xi, yi) - I(xi + 1, yi + 1)| > t2 e b(xi, yi) = 0 quando o que foi dito acima não for verdadeiro.
[0116] O atributo b(xi, yi) do ponto de atenção Pa(xi, yi) é '1' quando o valor absoluto de uma diferença de luminância entre a valor de luminância do ponto de atenção Pai e a valor de luminância do ponto de referência Pri é maior que o valor limite t2. Quando a relação acima não é verdadeira, o atributo b(xi, yi) do ponto de atenção Pai é '0.' O valor limite t2 é definido antecipadamente mediante a experi- mentação ou outros meios de modo que o linha de atenção La não é avaliado como sendo o mesmo objeto tridimensional. A unidade de detecção de objeto tridimensio- nal 33a, em seguida, soma o atributo b para todos os pontos de atenção Pa na linha de atenção La e determina o valor de avaliação na direção equivalente perpendicular para assim avaliar se uma linha de borda é causada por um objeto tridimensional e que um objeto tridimensional está presente.
[0117] A seguir, o método para detectar um veículo adjacente de acordo com a segunda modalidade será descrita. A figura 27 é um fluxograma que ilustra os de- talhes do método para detectar um veículo adjacente de acordo com a presente mo- dalidade. Na figura 27, o processo envolvido com a área de detecção A1 será des- crito por uma questão de conveniência, mas o mesmo processo é executado para a área de detecção A2 também.
[0118] Primeiro, na etapa S301, uma área predeterminada especificada pelo ângulo de visão a e a posição de fixação é capturada pela câmera 10, e os dados da imagem da imagem capturada P capturada pela câmera 10 são adquiridos pelo computador 30a. A seguir, a unidade de conversão de ponto de vista 31 converte o ponto de vista dos dados de imagem adquiridos e gera os dados de imagem de vista aérea na etapa S302.
[0119] A seguir, na etapa S303, a unidade de cálculo de diferença de lumi- nância 35 define a linha de atenção La na área de detecção A1. Nesse momento, a unidade de cálculo de diferença de luminância 35 define uma linha que corresponde a uma linha que se estende na direção perpendicular no espaço real como a linha de atenção La. Na etapa S304, a unidade de cálculo de diferença de luminância 35 de- fine de maneira subsequente a linha de referência Lr na área de detecção A1. Nesse momento, a unidade de cálculo de diferença de luminância 35 define, como a linha de referência Lr, uma linha que corresponde a uma linha que se estende na direção perpendicular no espaço real, a linha também sendo separada por uma distância predeterminada no espaço real a partir da linha de atenção La.
[0120] A seguir, na etapa S305, a unidade de cálculo de diferença de lumi- nância 35 define uma pluralidade de pontos de atenção na linha de atenção La. Além disso, nesse momento, a unidade de cálculo de diferença de luminância 35 define um determinado número de pontos de atenção Pa que não serão problemáti-
cos durante a detecção da borda por uma unidade de detecção de linha de borda 36. Além disso, na etapa S306, a unidade de cálculo de diferença de luminância 35 defi- ne o pontos de referência Pr de modo que os pontos de atenção Pa e os pontos de referência Pr estão substancialmente na mesma altura no espaço real. Os pontos de atenção Pa e os pontos de referência Pr assim se alinham substancialmente na dire- ção horizontal, e a linha de borda que se estende na direção perpendicular no espa- ço real é detectada de maneira mais fácil.
[0121] A seguir, na etapa S307, a unidade de cálculo de diferença de lumi- nância 35 calcula a diferença de luminância entre os pontos de atenção Pa e os pon- tos de referência Pr na mesma altura no espaço real. A unidade de detecção de li- nha de borda 36, em seguida, calcula o atributo s dos pontos de atenção Pa de acordo com formula 1 descrita acima. Na etapa S308, a unidade de detecção de li- nha de borda 36, em seguida, calcula a continuidade c do atributo s dos pontos de atenção Pa de acordo com formula 2 observada acima. Na etapa S309, a unidade de detecção de linha de borda 36 ainda avalia se um valor obtido mediante a norma- lização da soma da continuidade c é maior que o valor limite q de acordo com formu- la 3. Quando foi determinado que o valor normalizado é maior que o valor limite q (etapa S309 = Sim), a unidade de detecção de linha de borda 36 detecta a linha de atenção La como a linha de borda na etapa S310. O processo, em seguida, prosse- gue para a etapa S311. Quando foi determinado que o valor normalizado não é mai- or que o valor limite q (etapa S309 = Não), a unidade de detecção de linha de borda 36 não detecta que a linha de atenção La é uma linha de borda, e o processo pros- segue para a etapa S311.
[0122] Na etapa S311, o computador 30a determina se os processos das etapas S303 a S310 foram executados para todas as linhas de atenção La do que pode ser definido na área de detecção A1. Quando foi determinado que os proces- sos acima não foram realizados para todas as linhas de atenção La (etapa S311 =
Não), o processo volta para a etapa S303, define uma nova linha de atenção La, e o processo através da etapa S311. Por outro lado, quando foi determinado que os processos foram realizados para todas as linhas de atenção La (etapa S311 = Sim), o processo prossegue para a etapa S312.
[0123] Na etapa S312, a unidade de detecção de objeto tridimensional 33a calcula a alteração na luminância ao longo da linha de borda para cada linha de bor- da detectada na etapa S310. A unidade de detecção de objeto tridimensional 33a calcula a alteração na luminância das linhas de borda de acordo com qualquer uma das fórmulas 4, 5, e 6. A seguir, na etapa S313, a unidade de detecção de objeto tridimensional 33a exclui, dentro as linhas de borda, as linhas de borda nas quais a alteração na luminância está em um valor limite predeterminado tb ou maior. Em ou- tras palavras, quando uma linha de boda que tem uma grande alteração na luminân- cia não é avaliado como sendo uma linha de borda correta, a linha de borda não é usada para detectar um objeto tridimensional. Conforme descrito acima, isso é feito a fim de suprimir a detecção de caracteres na superfície da estrada, a vegetação ao longo da estrada, e similares incluídos na área de detecção A1 como as linhas de borda. Portanto, o valor limite predeterminado tb é determinado mediante a experi- mentação ou outros meios antecipadamente, e é definido com base na alteração na luminância que ocorre devido aos caracteres na superfície da estrada, a vegetação ao longo da estrada, e similares. Por outro lado, a unidade de detecção de objeto tridimensional 33a determina uma linha de borda que tem uma alteração na lumi- nância que é menor que um valor limite predeterminado tb como sendo uma linha de borda de um objeto tridimensional, e assim detecta o objeto tridimensional presente em um veículo adjacente.
[0124] A seguir, na etapa S314, a unidade de definição de referência de de- tecção 34a define o valor limite b para avaliar se o objeto tridimensional detectado na etapa S310 é um veículo adjacente. De maneira específica, na etapa S314, a unidade de definição de referência de detecção 34a define o valor limite b para um valor que permite que [um objeto tridimensional] seja avaliado como um veículo de quatro rodas que aparece nas áreas de detecção A1, A2 com base no número de linhas de borda, conforme ilustrado na figura 24, e modifica o valor limite b definido assi, de acordo com o ganho no valor limite b definido de acordo com a posição da fonte de luz, conforme ilustrado na figura 25, de mesma maneira que na etapa S105 da primeira modalidade. Nesse caso, a unidade de definição de referência de detec- ção 34a faz com que a posição da fonte de luz detectada e a posição de referência PO do mapa de controle ilustrado na figura 25 corresponda da mesma maneira que na primeira modalidade, ajusta o mapa de controle ilustrado na figura 25, e ajusta o mapa de controle ilustrada na figura 25 de acordo com a distância L na direção de largura de veículo a partir da posição central da câmera 10 até a posição centroide da fonte de luz.
[0125] A seguir, na etapa S315, é determinado pela unidade de avaliação de objeto tridimensional 33a se a quantidade de linhas de borda é o valor limite b ou maior como definido na etapa S314. Quando foi avaliado que a quantidade de linhas de borda está em um valor limite b ou maior (etapa S315 = Sim), a unidade de avali- ação de objeto tridimensional 33a avalia na etapa S316 que um veículo adjacente está presente na área de detecção A1. Por outro lado, quando a quantidade de li- nhas de borda avaliadas para não estar no valor limite b ou maior (etapa S315 = Não), a unidade de detecção de objeto tridimensional 33a avalia que um veículo ad- jacente não está presente na área de detecção A1 na etapa S317. O processo ilus- trado na figura 27, em seguida, termina.
[0126] Conforme descrito acima, na segunda modalidade, a imagem captu- rada é convertida na imagem de vista aérea, e as informações de borda de um obje- to tridimensional isão detectadas a partir da imagem de vista aérea convertida. É determinado se a quantidade de linhas de borda detectadas está em um valor limite b ou maior definido de acordo com a relação posicional entre a câmera 10 e a fonte de luz, e quando a quantidade de linhas de borda está no valor limite b ou maior, é determinado que um objeto tridimensional está presente na pista adjacente, através do qual um objeto tridimensional presente na pista adjacente pode ser detectado de maneira adequada Além dos efeitos da primeira modalidade, na segunda modalida- de, é possível evitar de maneira eficaz a detecção vaga de um veículo adjacente devido à sujeira nas lentes, ou a luz refletida ou similares produzidos quando a luz dos faróis dianteiros de um veículo adjacente-adjacente refletiram a partir da superfí- cie da estrada; e o pneu/roda de um veículo adjacente, que é a parte característica de um veículo adjacente presente traseira dos faróis dianteiros (fonte de luz), pode ser detectado de maneira adequada, e um veículo adjacente pode ser detectado de maneira adequada. Além disso, de acordo com a presente modalidade, quando a distância L na direção de largura de veículo no centro posição da câmera 10 até a posição centroide da fonte de luz é grande e a possibilidade da fonte de luz detecta- da sendo os faróis dianteiros de um veículo adjacente-adjacente é alta na detecção de um veículo adjacente com base nas informações de borda, o valor limite b na área traseira a partir da fonte de luz é definido mais elevado em comparação com quando a distância L longa na direção de largura de veículo a partir da posição cen- tral da câmera 10 até a posição centroide da fonte de luz, através do qual o efeito dos faróis dianteiros (fonte de luz) de um veículo adjacente-adjacente podem ser eliminados de maneira adequada, e a detecção vaga de um veículo adjacente pode ser evitada de maneira eficaz.
[0127] As modalidades descritas acima são descritas a fim de facilitar o en- tendimento da presente invenção, e não são descritas a fim de limitar a presente invenção. Portanto, os elementos apresentados nas modalidades acima destinam-se a incluir todas as modificações de design e os equivalentes a isso que ficam dentro da faixa técnica da presente invenção.
[0128] Na primeira modalidade descritas acima, um exemplo foi dado no qual o valor absoluto da diferença nos valores de pixel das imagens de vista aérea PBt e PBt-1 é considerado e quando o valor absoluto é igual a ou maior que um valor limite predeterminado th, os valores de pixel da imagem de diferença PDt são defini- dos em "1," e quando o valor absoluto é menor que um valor limite predeterminado th, os valores de pixel da imagem de diferença PDt são definidos em "0," mas o valor limite th pode ser modificado de acordo com a relação posicional entre a câmera 10 e a fonte de luz.
[0129] De maneira específica, também é possível usar uma configuração na qual a unidade de definição de referência de detecção 34 aumenta o ganho do valor limite th na área Rr traseira a partir da fonte de luz nas áreas de detecção A1, A2 mais do que na área Rf adiante a partir da fonte de luz, conforme ilustrado no dese- nho na direita na figura 9(A). Uma vez que o valor limite th é definido em um valor baixo com relação à luminância na área Rr traseira a partir da fonte de luz, o pneu/roda de um veículo adjacente presente traseira a partir da fonte de luz é detec- tado de maneira mais fácil em termos da diferença de forma de onda DWt, e como um resultado, um veículo adjacente pode ser detectado de maneira mais adequada. Além dessa configuração, é ainda possível usar uma configuração na qual o valor limite th é modificado de acordo com a luminância nas posições de detecção nas áreas de detecção A1, A2.
[0130] Nesse caso, também é possível usar uma configuração na qual o ga- nho no valor limite th é modificado de acordo com a distância L na direção de largura de veículo a partir da câmera 10 até a fonte de luz. Em outras palavras, é possível usar uma configuração na qual o ganho no valor limite th é aumentado traseira a partir da fonte de luz em comparação com quando a distância L na direção de largu- ra de veículo a partir da câmera 10 até a fonte de luz é curta, no caso que a distân- cia L na direção de largura de veículo a partir da câmera 10 até a fonte de luz é grande e a possibilidade da fonte de luz detectada sendo os faróis dianteiros de um veículo adjacente-adjacente é alta. A luz dos faróis dianteiros de um veículo adja- cente-adjacente assim dificulta a detecção em termos da diferença de forma de onda DW t e a detecção vaga de um veículo adjacente pode ser impedida de maneira mais eficaz mesmo traseira a partir da fonte de luz quando a possibilidade da fonte de luz detectada sendo os faróis dianteiros de um veículo adjacente-adjacente é alta.
[0131] Além disso, um exemplo de uma configuração foi dada na primeira modalidade descritas acima na qual os valores de pixel da imagem de diferença PDt são detectados como '0' e '1' pela unidade de alinhamento 32, e os pixels que têm um valor de pixel de '1' na imagem de diferença PDt são contados como os pixels de diferença DP pela unidade de detecção de objeto tridimensional 33 com base na imagem de diferença PDt, para assim detectar um objeto tridimensional, mas ne- nhuma limitação é imposta assim, e também é possível usar uma configuração na qual, por exemplo, os valores de pixel da imagem de diferença PDt são detectados pela unidade de alinhamento 32 com o uso dos valores absolutos da diferença valo- res DE das imagens de vista aérea PBt, PBt-1, e os pixels que excedem o valor limite de diferença predeterminada são contados como os pixels de diferença DP pela uni- dade de detecção de objeto tridimensional 33.
[0132] Um exemplo de uma configuração foi dada na primeira modalidade descrita acima na qual uma imagem capturada do momento atual e uma imagem em um momento único anterior são convertidas em visões de pássaro, as visões de pássaro convertidas são alinhadas, a imagem de diferença PDt é, em seguida, gera- da, e a imagem de diferença PDt gerada é avaliada ao longo da direção em colapso (a direção na qual o objeto tridimensional se rompe quando a imagem capturada é convertida na vista aérea) para gerar uma diferença de forma de onda DW t, mas ne- nhuma limitação é assim imposta. Por exemplo, também é possível usar uma confi- guração na qual apenas a imagem em um momento único anterior é convertida na vista aérea, a vista aérea convertida é alinhada, em seguida, o ganho convertido em uma imagem capturada equivalente, a imagem de diferença PDt é gerada com o uso dessa imagem e a imagem no momento atual, e a imagem de diferença PDt gerada é avaliada ao longo da direção que corresponde ao direção em colapso (isto é, a direção obtida ao converter a direção em colapso em uma direção na imagem captu- rada) para gerar assim a diferença de forma de onda DW t. Em outras palavras, a vista aérea não é expressamente exigido ser gerada contanto que a imagem no momento atual e a imagem em um momento único anterior sejam alinhadas, a ima- gem de diferença PDt é gerada a partir de uma diferença entre duas imagens alinha- das, e a imagem de diferença PDt pode ser avaliada ao longo da direção em colapso de um objeto tridimensional quando a imagem de diferença PDt é convertida na vista aérea.
[0133] Na primeira modalidade descrita acima, a velocidade do veículo hos- pedeiro V1 é determinada com base em um sinal a partir do sensor de velocidade 20, mas nenhuma limitação é assim imposta, e também é possível usar uma configura- ção na qual a velocidade é estimada a partir de uma pluralidade de imagens em dife- rentes momentos. Nesse caso, o sensor de velocidade 20 não é exigido e a configu- ração pode ser simplificada.
[0134] Um exemplo de uma configuração foi dada na segunda modalidade descrita acima na qual o atributo s(xi, yi) do ponto de atenção Pai é definido em '1' ou '-1' quando o valor de luminância do ponto de atenção Pai e do ponto de referên- cia Pri é o valor limite t ou maior, e uma linha de atenção La na qual o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção adjacente Pai + 1 são '1' ou '-1' de maneira consecutiva para um valor limite predeterminado q ou maior é detectado como uma linha de borda, mas além dessa configuração, tam- bém é possível modificar o valor limite t e o valor limite q de acordo com a posição da fonte de luz detectada.
[0135] De maneira específica, é possível usar uma configuração na qual a unidade de definição de referência de detecção 34a aumenta o ganho do valor limite t e o valor limite q na área Rr traseira a partir da fonte de luz more que na área Rf adiante a partir da fonte de luz nas áreas de detecção A1, A2, conforme ilustrado, por exemplo, na figura 9(A). O pneu/roda de um veículo adjacente presente traseira a partir de uma fonte de luz é assim detectado de maneira mais fácil como uma linha de borda, pois o valor limite t e o valor limite q são definidos em valores baixos com relação à luminância na área Rr traseira a partir da fonte de luz, e como um resulta- do, um veículo adjacente pode ser detectado de maneira adequada. Além dessa configuração, é possível ainda modificar o valor limite t e o valor limite a de acordo com a luminância nas posições de detecção nas áreas de detecção A1, A2.
[0136] Nesse caso, também é possível usar uma configuração na qual o ga- nho no valor limite t e o valor limite a é modificado de acordo com a distância L na direção de largura de veículo a partir da câmera 10 até a fonte de luz. Em outras pa- lavras, é possível usar uma configuração na qual o ganho no valor limite t e o valor limite a são aumentados traseiro a partir da fonte de luz em comparação com quan- do a distância L na direção de largura de veículo a partir da câmera 10 até a fonte de luz é curta, no caso em que a distância L na direção de largura de veículo a partir da câmera 10 até a fonte de luz é grande e a possibilidade da fonte de luz detectada ser os faróis dianteiros de um veículo adjacente-adjacente é alta. A luz dos faróis dianteiros de um veículo adjacente-adjacente assim dificulta a detecção como as linhas de borda e a detecção vaga de um veículo adjacente pode ser impedida de maneira mais eficaz mesmo traseiro a partir da fonte de luz quando a possibilidade da fonte de luz detectada sendo os faróis dianteiros de um veículo adjacente- adjacente é alta.
[0137] Além disso, um exemplo de uma configuração foi dado na segunda modalidade descrita acima na qual a alteração na luminância das linhas de borda é calculada de acordo com qualquer uma das fórmulas 4, 5, e 6, e entre as linhas de borda, as linhas de borda na qual a alteração na luminância está em um valor limite tb ou maior são executados, mas em adição a essa configuração, o valor limite tb pode ser modificado de acordo com a posição da fonte de luz detectada.
[0138] De maneira específica, é possível usar uma configuração na qual a unidade de definição de referência de detecção 34a aumenta o ganho do valor limite tb na área Rr traseira a partir da fonte de luz mais do que na área Rf adiante a partir da fonte de luz nas áreas de detecção A1, A2, conforme ilustrado na figura 10(A). As linhas de borda de um pneu/roda de um veículo adjacente presente traseira a partir de uma fonte de luz pode assim ser detectada de maneira mais precisa, pois o valor limite tb é definido em valores baixos com relação a uma luminância na área Rr tra- seira a partir da fonte de luz. Além dessa configuração, é ainda possível modificar o valor limite tb de acordo com a luminância nas posições de detecção nas áreas de detecção A1, A2.
[0139] Nesse caso, também é possível usar uma configuração na qual o ga- nho no valor limite tb é modificado de acordo com a distância L na direção de largura de veículo a partir da câmera 10 até a fonte de luz. Em outras palavras, é possível usar uma configuração na qual o ganho no valor limite tb é aumentado traseira a partir da fonte de luz em comparação com quando a distância L na direção de largu- ra de veículo a partir da câmera 10 até a fonte de luz é curta, no caso em que uma distância L na direção de largura de veículo a partir da câmera 10 até a fonte de luz é grande e a possibilidade da fonte de luz detectada sendo os faróis dianteiros de um veículo adjacente-adjacente é alta. A luz dos faróis dianteiros de um veículo ad- jacente-adjacente assim dificulta a detecção como as linhas de borda e a detecção vaga de um veículo adjacente pode ser impedida de maneira mais eficaz mesmo traseira a partir da fonte de luz quando a possibilidade da fonte de luz detectada sendo os faróis dianteiros de um veículo adjacente-adjacente é alta.
[0140] Além disso, um exemplo de uma configuração foi dado nas modalida- des descritas acima no qual o valor limite a ou outra referência de detecção é defini- do em um valor baixo de modo que um objeto tridimensional é detectado de maneira mais fácil na área Rr traseira dos faróis dianteiros (fonte de luz), mas nenhuma limi- tação é imposta por essa configuração, e também é possível usar uma configuração na qual o referência de detecção é definido em um alto valor de modo que um objeto tridimensional é detectado de maneira mais fácil na área Rr traseira dos faróis dian- teiros (fonte de luz) quando um objeto tridimensional deve ser detectado de maneira mais fácil de forma proporcional a uma referência de detecção mais elevada.
[0141] A câmera 10 nas modalidades descritas acima corresponde aos mei- os de captura de imagem da presente invenção. A unidade de conversão de ponto de vista 31 corresponde aos meios de conversão de imagem da presente invenção, e a unidade de alinhamento 32, a unidade de detecção de objeto tridimensional 33, 33a, a unidade de definição de referência de detecção 34, 34a, a unidade de cálculo de diferença de luminância 35 e a unidade de detecção de linha de borda 36 corres- pondem aos meios de detecção de objeto tridimensional, e a unidade de definição de referência de detecção 34, 34a corresponde aos meios de cálculo de distância da presente invenção. Listagem de Referência
[0142] 1, 1a: dispositivo de detecção de objeto tridimensional 10: câmera 20: sensor de velocidade 30, 30a: computador 31: unidade de conversão de ponto de vista 32: unidade de alinhamento 33, 33a: unidade de detecção de objeto tridimensional 34, 34a: unidade de definição de referência de detecção
35: unidade de cálculo de diferença de luminância 36: unidade de detecção de linha de borda a: ângulo de visão A1, A2: área de detecção CP: ponto de passagem DP: pixels de diferença DW t, DW t': diferença de forma de onda DW t1 a DW m, DWm+k a DW tn áreas pequenas L1, L2: linha terrestre La, Lb: linha na direção na qual o objeto tridimensional se rompe P: imagem capturada PBt: imagem de vista aérea PDt: imagem de diferença V1: veículo hospedeiro V2: veículo adjacente V3: veículo adjacente-adjacente

Claims (5)

REIVINDICAÇÕES
1. Dispositivo de detecção de objeto tridimensional CARACTERIZADO por compreender: uma unidade de captura de imagem (10) disposta para capturar imagens de uma área predeterminada (A1, A2) com relação a uma pista adjacente traseira de um veículo hospedeiro (V1) equipado com o dispositivo de detecção de objeto tridi- mensional; e um computador programado para incluir: uma unidade de conversão de imagem (31) programada para converter um ponto de vista de imagens obtidas pela unidade de captura de imagem (10) para cri- ar imagens de vista aérea; uma unidade de detecção de objeto tridimensional (32, 33) programada para: alinhar, em uma vista aérea, as posições das imagens de vista aérea (PBt, PBt-1) obtidas em momentos diferentes pela unidade de conversão de imagem (31), obter uma diferença entre as imagens de vista aérea (PBt, PBt-1) para gerar uma imagem de diferença (PDt), e gerar informação de diferença de forma de onda (DWt) mediante a contagem de um número de pixels que indicam uma diferença que tem um primeiro valor limite predeterminado ou maior em uma imagem de diferença (PDt) das imagens de vista aérea alinhadas (PBt, PBt-1) para formar uma distribuição de frequência, em que os pixels são contados ao longo de linhas em uma direção na qual um objeto tridimen- sional colapsa devido à conversão do ponto de vista, e valores da informação de diferença de forma de onda correspondem a linhas na diferença de imagem, e detectar uma presença de um objeto tridimensional em uma pista adjacente com base na informação de diferença de forma de onda (DW t) quando a informação da diferença de forma de onda (DW t) está em um segundo valor limite predetermi- nado (α) ou maior; e uma unidade de detecção de fonte de luz programada para detectar uma fonte de luz presente na traseira do veículo hospedeiro (V1) com base nas imagens obtidas pela unidade de captura de imagem (10); e a unidade de detecção de objeto tridimensional (32, 33) ajustando pelo me- nos um dentre os primeiro e segundo valores limites mais baixos em uma área tra- seira da área predeterminada (A1, A2) mais para trás da fonte de luz do que uma linha (Lc) que conecta a fonte de luz e a unidade de captura de imagem (10) como detectado pela unidade de detecção de fonte de luz em relação a uma área dianteira (Rf) da área predeterminada (A1, A2) ainda adiante da fonte de luz do que a linha (Lc).
2. Dispositivo de detecção de objeto tridimensional, de acordo com a reivin- dicação 1, CARACTERIZADO pelo fato de que: o computador é adicionalmente programado para incluir uma unidade de cálculo de distância programada para calcular uma distância (L) em uma direção de largura de veículo a partir da unidade de captura de imagem (10) até a fonte de luz, a unidade de detecção de objeto tridimensional (32, 33) ajustando pelo me- nos um dentre primeiro e segundo valores limite mais altos, de modo que, à medida que a distância na direção da largura do veículo da unidade de captura de imagem (10) até a fonte de luz aumenta, pelo menos um dos primeiro e segundo valores limi- te aumenta.
3. Dispositivo de detecção de objeto tridimensional CARACTERIZADO por compreender: uma unidade de captura de imagem (10) disposta para capturar imagens de uma área predeterminada (A1, A2) com relação a uma pista adjacente traseira de um veículo hospedeiro (V1) equipado com o dispositivo de detecção de objeto tridi- mensional; e um computador programado para incluir:
uma unidade de conversão de imagem (31) programada para converter um ponto de vista de imagens obtidas pela unidade de captura de imagem (10) para cri- ar imagens de vista aérea; uma unidade de detecção de objeto tridimensional (32, 33) programada para: detectar informações de borda tendo um primeiro valor limite predeterminado ou superior a partir das imagens de vista aérea, e detectar uma presença de um objeto tridimensional dentro da pista adjacente com base nas informações da borda quando as informações de borda estiverem em um segundo valor limite predeterminado ou superior; e uma unidade de detecção de fonte de luz programada para detectar uma fonte de luz presente na traseira do veículo hospedeiro (V1) com base nas imagens obtidas pela unidade de captura de imagem (10), a unidade de detecção de objeto tridimensional (32, 33) ajustando pelo me- nos um dentre os primeiro e segundo valores limite mais baixos em uma área trasei- ra da área predeterminada (A1, A2) mais atrás da fonte de luz do que uma linha (Lc) que conecta a fonte de luz e a unidade de captura de imagem (10) conforme detec- tado pela unidade de detecção da fonte de luz, do que uma área dianteira da área predeterminada (A1, A2) mais à frente da fonte de luz que a linha.
4. Dispositivo de detecção de objeto tridimensional, de acordo com a reivin- dicação 3, CARACTERIZADO pelo fato de que: o computador é adicionalmente programado para incluir uma unidade de cálculo de distância programada para calcular uma distância (L) em uma direção de largura de veículo a partir da unidade de captura de imagem (10) até a fonte de luz, a unidade de detecção de objeto tridimensional (32, 33) ajustando pelo me- nos um dentre primeiro e segundo valores limite mais altos, de modo que, à medida que a distância na direção da largura do veículo da unidade de captura de imagem (10) até a fonte de luz aumenta, pelo menos um dos primeiro e segundo valores limi-
te aumenta.
5. Dispositivo de detecção de objeto tridimensional CARACTERIZADO por compreender: uma unidade de captura de imagem (10) disposta para capturar imagens de uma área predeterminada (A1, A2) com relação a uma pista adjacente traseira de um veículo hospedeiro (V1) equipado com o dispositivo de detecção de objeto tridi- mensional; e um computador programado para incluir: uma unidade de conversão de imagem (31) programada para converter um ponto de vista das imagens obtidas pela unidade de captura de imagem (10) para criar uma imagem de vista aérea; uma unidade de detecção de objeto tridimensional (32, 33) programada para detectar a presença de um objeto tridimensional na pista adjacente, com base em informações de distribuição de pixels, na imagem de vista aérea obtida pela unidade de conversão de imagens, na qual uma diferença de luminância está em um primeiro valor limite predeterminado ou maior, ao longo de uma direção na qual o objeto tri- dimensional entra em colapso quando convertido no ponto de vista para a imagem de vista aérea, e a unidade de detecção de objeto tridimensional (32, 33) determi- nando a presença do objeto tridimensional quando uma quantidade de distribuição dos pixels na direção em que o objeto tridimensional entra em colapso é um segun- do valor limite predeterminado ou maior; e uma unidade de detecção de fonte de luz programada para detectar uma fonte de luz presente traseira ao veículo hospedeiro (V1) com base na imagem obti- da pela unidade de captura de imagem (10), a unidade de detecção de objeto tridimensional especificando, como uma área a ser detectada, uma área na qual a possibilidade de outro veículo viajando em uma pista adjacente estar presente na área predeterminada (A1, A2) está em um valor predeterminado ou superior, com base na posição de detecção da fonte de luz, detectada pela unidade de detecção de fonte de luz, e definindo o primeiro valor limi- te ou o segundo valor limite mais baixo na área a ser detectada.
BR112014020407-1A 2012-03-01 2013-02-26 Dispositivo de detecção de objeto tridimensional BR112014020407B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-045352 2012-03-01
JP2012045352 2012-03-01
PCT/JP2013/054855 WO2013129354A1 (ja) 2012-03-01 2013-02-26 立体物検出装置

Publications (2)

Publication Number Publication Date
BR112014020407A2 true BR112014020407A2 (pt) 2021-05-25
BR112014020407B1 BR112014020407B1 (pt) 2021-09-14

Family

ID=49082551

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014020407-1A BR112014020407B1 (pt) 2012-03-01 2013-02-26 Dispositivo de detecção de objeto tridimensional

Country Status (9)

Country Link
US (1) US9832444B2 (pt)
EP (1) EP2821982B1 (pt)
JP (1) JP5682735B2 (pt)
CN (1) CN104115203B (pt)
BR (1) BR112014020407B1 (pt)
MX (1) MX349873B (pt)
MY (1) MY179329A (pt)
RU (1) RU2635280C2 (pt)
WO (1) WO2013129354A1 (pt)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6177632B2 (ja) * 2013-09-11 2017-08-09 アルパイン株式会社 車両位置検出装置および車両後側方警報装置
JP6426455B2 (ja) * 2014-12-09 2018-11-21 クラリオン株式会社 接近車両検出装置
US20190051033A1 (en) * 2016-02-24 2019-02-14 Superb Reality Ltd. System and method for object differentiation in three-dimensional space
US11393185B2 (en) * 2017-02-06 2022-07-19 Mitsubishi Electric Corporation Monitoring device
JP6776213B2 (ja) * 2017-11-01 2020-10-28 株式会社東芝 軌道識別装置
JP6983334B2 (ja) * 2018-09-12 2021-12-17 日立Astemo株式会社 画像認識装置
JP7327992B2 (ja) * 2019-05-10 2023-08-16 フォルシアクラリオン・エレクトロニクス株式会社 立体物検出装置、及び立体物検出方法
CN113822841B (zh) * 2021-01-29 2022-05-20 深圳信息职业技术学院 一种污水杂质结块检测方法、装置及相关设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6411204B1 (en) * 1999-11-15 2002-06-25 Donnelly Corporation Deceleration based anti-collision safety light control for vehicle
JP4644550B2 (ja) * 2005-07-20 2011-03-02 株式会社オートネットワーク技術研究所 カメラシステム
JP4906437B2 (ja) * 2006-08-22 2012-03-28 アルパイン株式会社 周辺監視システム
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP4930256B2 (ja) * 2007-08-03 2012-05-16 日産自動車株式会社 隣接車両検出装置および隣接車両検出方法
JP5355209B2 (ja) * 2009-05-01 2013-11-27 アルパイン株式会社 ナビゲーション装置、自車の走行車線の判定方法および判定プログラム
JP5336325B2 (ja) * 2009-10-30 2013-11-06 大日本スクリーン製造株式会社 画像処理方法
RU2533645C2 (ru) * 2010-05-27 2014-11-20 Сергей Анатольевич Королев Интеллектуальная транспортная система и способ её использования
JP5251927B2 (ja) * 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法
JP5809785B2 (ja) * 2010-07-30 2015-11-11 日立オートモティブシステムズ株式会社 車両用外界認識装置およびそれを用いた配光制御システム

Also Published As

Publication number Publication date
MY179329A (en) 2020-11-04
EP2821982A4 (en) 2015-06-03
JP5682735B2 (ja) 2015-03-11
EP2821982B1 (en) 2018-06-27
BR112014020407B1 (pt) 2021-09-14
WO2013129354A1 (ja) 2013-09-06
MX2014010244A (es) 2014-11-12
US20150009292A1 (en) 2015-01-08
CN104115203B (zh) 2016-10-19
CN104115203A (zh) 2014-10-22
MX349873B (es) 2017-08-17
RU2014139676A (ru) 2016-04-20
JPWO2013129354A1 (ja) 2015-07-30
RU2635280C2 (ru) 2017-11-09
EP2821982A1 (en) 2015-01-07
US9832444B2 (en) 2017-11-28

Similar Documents

Publication Publication Date Title
BR112014020407A2 (pt) Dispositivo de detecção de objeto tridimensional
US9558556B2 (en) Three-dimensional object detection device
US9135511B2 (en) Three-dimensional object detection device
US9754172B2 (en) Three-dimenisional object detection device
US9189691B2 (en) Three-dimensional object detection device and three-dimensional object detection method
BR112014020406A2 (pt) Dispositivo de detecção de objetos tridimensionais
BR112014020410A2 (pt) Dispositivo de detecção de objeto tridimensional
BR112015001745B1 (pt) Dispositivo de detecção de objeto tridimensional e método de detecção de objeto tridimensional
BR112015001804B1 (pt) Dispositivo de detecção de gotícula de água e dispositivo de detecção de objeto tridimensional.
BR112015001747A2 (pt) dispositivo de detecção de objeto tridimensional e método de detecção de objeto tridimensional
BR112014020353B1 (pt) Dispositivo de detecção de objeto tridimensional
BR112015001861A2 (pt) dispositivo de detecção de objeto tridimensional
JP5835459B2 (ja) 立体物検出装置
WO2014017602A1 (ja) 立体物検出装置および立体物検出方法

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 26/02/2013, OBSERVADAS AS CONDICOES LEGAIS.