BR112014020316B1 - Dispositivo de detecção de objeto tridimensional - Google Patents

Dispositivo de detecção de objeto tridimensional Download PDF

Info

Publication number
BR112014020316B1
BR112014020316B1 BR112014020316-4A BR112014020316A BR112014020316B1 BR 112014020316 B1 BR112014020316 B1 BR 112014020316B1 BR 112014020316 A BR112014020316 A BR 112014020316A BR 112014020316 B1 BR112014020316 B1 BR 112014020316B1
Authority
BR
Brazil
Prior art keywords
dimensional object
detection area
predetermined
vehicle
host vehicle
Prior art date
Application number
BR112014020316-4A
Other languages
English (en)
Other versions
BR112014020316A2 (pt
Inventor
Osamu Fukata
Yasuhisa Hayakawa
Original Assignee
Nissan Motor Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd filed Critical Nissan Motor Co., Ltd
Publication of BR112014020316A2 publication Critical patent/BR112014020316A2/pt
Publication of BR112014020316B1 publication Critical patent/BR112014020316B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/165Anti-collision systems for passive traffic, e.g. including static obstacles, trees
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/08Projecting images onto non-planar surfaces, e.g. geodetic screens
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

dispositivo de detecção de objeto trldimensional. a presente invenção refere-se a um dispositivo de detecção de objeto tridimensional que é caracterizado pelo fato de ser provido de um dispositivo de captura de imagem (10) para capturar uma imagem de uma área atrás de um veículo hospedeiro, um dispositivo de ajuste de área de detecção (34) para ajustar áreas de detecção predeterminadas em uma direção lateral atrás do veiculo hospedeiro, um dispositivo de conversão de imagem (31) para converter o ponto de vista da imagem capturada para criar uma imagem de visão de olho de pássaro, um dispositivo de detecção de objeto tridimensional (32, 33) para gerar informação de forma de onda de diferença pela contagem de uma série de pixels que indica uma diferença predeterminada em uma imagem de diferença na qual as posições das imagens de visão de olho de pássaro em momentos diferentes foram alinhadas em termos da visão de olho de pássaro, e formando uma distribuição de frequência, e para detectar objetos tridimensionais nas áreas de detecção com base na informação de forma de onda de diferença; e uma dispositivo de calculo de velocidade de movimento relativa (33) para calcular a velocidade de movimento relativa do objeto tridimensional com relação ao veículo hospedeiro com base na informação de forma de onda de diferença, a unidade de ajuste de área de detecção (34) que amplia as áreas de detecção para trás com respeito à direção do avanço do veiculo quando o objeto tridimensional foi detectado nas áreas de detecção al, a2 e a velocidade de movimento relativa do objeto tridimensional é um valor predeterminado ou maior.

Description

CAMPO DA TÉCNICA
[001] A presente invenção refere-se uma unidade de detecção de objeto tridimensional. Este pedido reivindica o direito de prioridade com base no Pedido de Patente Japonês N 12-037482 depositado em 23 de fevereiro de 2012, e nos estados designados que aceitam a incorporação de um documento por referência, os conteúdos descritos no pedido acima se encontram incorporados ao presente por referência e são considerados como parte da descrição do presente pedido.
FUNDAMENTOS DA INVENÇÃO
[002] Em uma técnica convencionalmente conhecida, duas imagens capturadas, capturadas em momentos diferentes, são convertidas para uma imagem de vista aérea, e é detectado um obstáculo com base nas diferenças nas duas imagens de vista aérea convertidas (ver documento de patente 1). Documentos do Estado da Técnica Documentos de Patente Documento de Patente 1: Pedido de Patente Japonês Disponível ao Público N 2008-227646.
DESCRIÇÃO DA INVENÇÃO Problemas a Serem Solucionados pela Invenção
[003] Quando deva ser detectado um objeto tridimensional em uma área de detecção com base em uma imagem capturada na qual foi capturada a parte traseira de um veículo hospedeiro, há casos nos quais dois veículos adjacentes (objetos tridimensionais) que percorrem em uma pista adjacente na qual o veículo hospedeiro está percorrendo, estão percorrendo de modo consecutivo, e quando o veículo hospedeiro é passado por uma parte traseira de um veículo adjacente dos dois veículos consecutivos, o primeiro veículo adjacente não é mais detectado na área de detecção e o motorista pode, assim, determinar que um veículo adjacente (objeto tridi- mensional) não está presente atrás do veículo hospedeiro, sem considerar o fato de que o segundo veículo adjacente esteja presente atrás do veículo hospedeiro.
[004] O problema a ser solucionado da presente invenção é fornecer uma unidade de detecção de objeto tridimensional que é capaz de detectar de maneira adequada dois veículos adjacentes quando dois veículos adjacentes estão percorrendo de modo consecutivo
Meios Usados para Solucionar os Problemas Acima Mencionados
[005] A presente invenção soluciona o problema ampliando a parte traseira da área de detecção com respeito à direção do avanço do veículo quando um objeto tridimensional é detectado na área de detecção e a velocidade relativa do movimento do objeto tridimensional está em um valor predeterminado ou maior.
Efeito da Invenção
[006] De acordo com a presente invenção, quando dois veículos adjacentes que percorrem em uma pista adjacente de modo consecutivo, e a parte traseira do primeiro veículo adjacente (objeto tridimensional) tenha sido detectado e a velocidade relativa do movimento do primeiro veículo adjacente está em um valor predeterminado ou maior, é determinado que o veículo hospedeiro tenha passado pelo primeiro veículo adjacente e a parte traseira das áreas de detecção com respeito à direção do avanço do veículo são ampliadas, por meio disso o segundo veículo adjacente que segue o primeiro veículo adjacente pode ser detectado de maneira ade-quada.
DESCRIÇÃO DOS DESENHOS
[007] A Figura 1 é um diagrama estrutural esquemático de veículo no qual foi montado uma unidade de detecção de objeto tridimensional de acordo com a primeira modalidade.
[008] A Figura 2 é uma vista plana que ilustra o estado de percurso do veículo na Figura 1.
[009] A Figura 3 é uma vista em bloco que ilustra os detalhes do computador de acordo com a primeira modalidade.
[010] A Figura 4 é uma vista para descrever a visão geral do processamento da unidade de alinhamento de acordo com a primeira modalidade; a Figura 4(a) é uma vista plana que ilustra o estado de movimento do veículo, e a Figura 4 (b) é uma imagem que ilustra uma visão geral de alinhamento.
[011] A Figura 5 é uma vista esquemática que ilustra a maneira na qual é gerada a diferença de forma de onda pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade.
[012] A Figura 6 é uma vista que ilustra as áreas pequenas divididas pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade.
[013] A Figura 7 é uma vista que ilustra um exemplo do histograma obtido pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade.
[014] A Figura 8 é uma vista que ilustra o peso usado pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade.
[015] A Figura 9 é uma vista que ilustra outro exemplo do histograma obtido pela unidade de detecção de objeto tridimensional de acordo com a primeira modalidade.
[016] A Figura 10 é uma vista para descrever o método para acessar um veículo adjacente presente em uma pista adjacente.
[017] A Figura 11 é uma vista para descrever o método para ajustar as áreas de detecção pela unidade de ajuste de área de detecção de acordo com a primeira modalidade.
[018] A Figura 12 é uma vista para descrever o método para ajustar as áreas de detecção quando o veículo hospedeiro está mudando de direção.
[019] A Figura 13 é um fluxograma que ilustra o método para detectar um ve- ículo adjacente de acordo com a primeira modalidade.
[020] A Figura 24 é um fluxograma que ilustra o método para ajustar as áreas de detecção de acordo com a primeira modalidade.
[021] A Figura 15 é uma vista que ilustra um exemplo da largura das áreas de detecção na direção do curso do veículo hospedeiro ajustada pela unidade de ajuste de área de detecção de acordo com a primeira modalidade.
[022] A Figura 16 é uma vista em bloco que ilustra os detalhes do computador de acordo com a segunda modalidade.
[023] A Figura 17 é uma vista que ilustra o estado de percurso do veículo, a Figura 17(a) é uma vista plana que ilustra a relação posicional entre a área de detecção e coisa parecida, e a Figura 17(b) é uma vista em perspectiva que ilustra a relação posicional entre a área de detecção e coisa parecida em espaço real.
[024] A Figura 18 é uma vista para descrever a operação da unidade de cálculo de diferença de luminância de acordo de acordo com a segunda modalidade; a Figura 18(a) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção e o ponto de referência em uma imagem de vista aérea, e a Figura 18(b) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção e o espaço real do ponto de referência.
[025] A Figura 19 é uma vista para descrever a operação detalhada da unidade de cálculo de diferença de luminância de acordo com a segunda modalidade; a Figura 19(a) é uma vista que ilustra a área de detecção na imagem de vista aérea, e a Figura 19(b) é uma vista que ilustra a relação posicional entre a linha de atenção, a linha de referência, o ponto de atenção e o ponto de referência em uma imagem de vista aérea.
[026] A Figura 20 é uma vista que ilustra um exemplo de imagem para descrever a operação de detecção de borda.
[027] A Figura 21 é uma vista que ilustra a linha de borda e a distribuição de luminância na linha de borda; a Figura 21(a) é uma vista que ilustra a distribuição de luminância quando está presente um objeto tridimensional (veículo adjacente) na área de detecção, e a Figura 21(b) é uma vista que ilustra a distribuição de luminân- cia quando não está presente um objeto tridimensional na área de detecção.
[028] A Figura 22 é um fluxograma que ilustra o método para detectar um veículo adjacente de acordo com a segunda modalidade.
[029] A Figura 23 é uma vista para descrever outro exemplo do método para ajustar a área de detecção quando p veículo hospedeiro está mudando de direção.
Modalidades Preferidas da Invenção <<Modalidade 1>>
[030] A Figura 1 é um diagrama estrutural esquemático de um veículo no qual foi montado uma unidade de detecção de objeto tridimensional de acordo com a primeira modalidade. Um objetivo do dispositivo de detecção de objeto tridimensional 1 de acordo com a presente modalidade é detectar outro veículo (pode ser referido abaixo como um “veículo adjacente”) presente em uma pista adjacente onde é possível contato se um veículo hospedeiro V1 mudar de pistas. O dispositivo de detecção de objeto tridimensional 1 de acordo com a presente modalidade é provido de uma câmera 10, um sensor de velocidade 20, um computador 30, um sensor de ângulo de direção 40, e um dispositivo de notificação 50, conforme ilustrado na Figura 1.
[031] A câmera 10 é fixada no veículo hospedeiro V1 de modo que o eixo geométrico ótico esteja em um ângulo θ a jusante do horizonte em um local em uma altura h na traseira do veículo hospedeiro V1, conforme ilustrado na Figura 1. A partir desta posição, a câmera 10 captura uma área predeterminada do ambiente circundante do veículo hospedeiro V1. O sensor de velocidade 20 detecta a velocidade de percurso a partir da velocidade da roda detectada, por exemplo, por um sensor de velocidade de roda para detectar a velocidade rotacional de uma roda. O computador 30 detecta um veículo adjacente presente em uma pista adjacente avançada do veículo hospedeiro. O sensor de ângulo de direção 40 é um sensor de ângulo fixado próximo à coluna de direção ou da roda de direção e detecta o ângulo rotacional do eixo de direção como o ângulo de direção. A informação do ângulo de direção detectada pelo sensor de ângulo de direção 40 é transmitida para o computador 30. O dispositivo de notificação 50 fornece um aviso para o motorista de que um veículo adjacente está presente quando, como resultado da detecção de um veículo adjacente realizada pelo computador 30, um veículo adjacente está presente na parte traseira do veículo hospedeiro. O dispositivo de notificação 50 não está particularmente limitado, mas os exemplos incluíram um alto-falante para transmitir um aviso de áudio para o motorista, um monitor para exibir uma mensagem de aviso, e uma luz de aviso que fornece aviso por iluminação dentro do painel de instrumento.
[032] A Figura 2 é uma vista plana que ilustra o estado de percurso do veículo hospedeiro V1 na Figura 1. Conforme ilustrado nos desenhos, a câmera 10 captura o lado traseiro do veículo em um ângulo de visão predeterminado a. Nesse momento, o ângulo visto a da câmera 10 é ajustado para um ângulo de visão que permite que as pistas esquerda e direita (pistas adjacentes) sejam capturadas além da pista na qual o veículo hospedeiro V1 está percorrendo.
[033] A Figura 3 é uma vista de bloco que ilustra os detalhes do computador 30 na Figura 1. A câmera 10, o sensor de velocidade 20, o sensor de ângulo de direção 40, e o dispositivo de notificação 50 são também ilustrados na Figura 3 para indicar distintamente as relações de conexão.
[034] Conforme ilustrado na Figura 3, o computador 30 é provido de uma unidade de conversão de ponto de vista 31, uma unidade de alinhamento 32, uma unidade de detecção de objeto tridimensional 33, e uma unidade de ajuste de área de detecção 34. A configuração dessas unidades está descrita abaixo.
[035] Os dados de imagem capturados da área predeterminada são obtidos pela captura realizada pela câmera 10 são inseridos na unidade de conversão de ponto de vista 31, e os dados de imagem capturados assim inseridos são convertidos para dados de imagem de olho de pássaro, que é um estado de vista aérea. Um estado de vista aérea é um estado de visualização a partir de um ponto de vista de uma câmera imaginária que está olhando para baixo a partir de cima, por exemplo, verticalmente a jusante. A conversão do ponto de vista pode ser realizada na maneira descrita, por exemplo, no Pedido de Patente Japonês Disponível ao Público N 2008-219063. O motivo dos dados de imagem capturados serem convertidos para dados de imagem de vista aérea é baseado no princípio de que as bordas perpendiculares únicas para um objeto tridimensional são convertidos para um grupo de linha reta que passa através de ponto fixo específico pela conversão para dados de imagem de vista aérea, e utilizando esse princípio permite que um objeto planar e um objeto tridimensional sejam diferenciados.
[036] Os dados de imagem de vista aérea obtidos pela conversão de ponto de vista realizada pela unidade de conversão de ponto de vista 31 são sequencialmente inseridos na unidade de alinhamento 32, e as posições inseridas dos dados de imagem de vista aérea em momentos diferentes são alinhadas. A Figura 4 é uma vista para descrever a visão geral do processamento da unidade de alinhamento 32, a Figura 4(a) é uma vista plana que ilustra o estado de movimento do veículo hospedeiro V1, e a Figura 4(b) é uma imagem que ilustra uma visão geral de alinhamento.
[037] Conforme ilustrado na Figura 4(a), o veículo hospedeiro V1 no momento atual é posicionado em P1, e o veículo hospedeiro V1 em um único momento anterior é posicionado em P1’. Presume-se que um veículo adjacente V2 seja posicionado na direção lateral traseira do veículo hospedeiro V’ e está percorrendo paralelo ao veículo hospedeiro V1, e que o veículo adjacente V2 no presente momento é posicionado em P2, e o veículo adjacente V2 em um único momento anterior é posicio- nado em P2’. Ainda, presume-se que o veículo hospedeiro V1 tenha movida uma distância d em um único momento. A frase “um único momento anterior” pode ser um momento no passado por um tempo enviado antecipadamente (por exemplo, um único ciclo de controle) a partir do momento atual, ou pode ser um momento no passado por um tempo arbitrário.
[038] Nesse estado, uma imagem de vista aérea PB1 no momento atual é ilustrada na Figura 4(b). As linhas brancas desenhadas na superfície da rodovia são retangulares na imagem de vista aérea PB1 e são relativamente precisas em uma visão planar, mas o veículo adjacente V2 (posição P2) é tombado. O mesmo é aplicado à imagem de vista aérea PB1-1 em um único momento anterior, as linhas brancas desenhadas na superfície de rodovia são retangulares e são relativamente precisas em uma visão planar, mas o veículo adjacente V2 (posição P2’) é tombado. Conforme descrito anteriormente, as bordas perpendiculares de um objeto tridimen-sional (bordas que permanecem eretas no espaço tridimensional da superfície de rodovia estão também incluídas em um sentido estrito da borda perpendicular) aparecem como um grupo de linha reta ao longo da direção de tombamento devido ao processo para converter os dados de imagem de vista aérea, mas como uma imagem planar na superfície de rodovia não inclui bordas perpendiculares, tal tomba- mento não ocorre mesmo quando o ponto de vista tenha sido convertido.
[039] A unidade de alinhamento 32 alinha as imagens de vista aérea PB1 e PB1-1, tais como aquelas descritas acima, em termos de dados. Quando isso é realizado, a unidade de alinhamento 32 desloca a imagem de vista aérea PB1-1 em um único momento anterior, e combina a posição com a imagem de vista aérea PB1 no momento atual. A imagem de lado esquerda na imagem central na Figura 4(b) ilustra o estado deslocado por uma distância de movimento d’. A quantidade deslocada d’ é a quantidade de movimento nos dados de imagem de vista aérea que corresponde à distância d do movimento presente do veículo hospedeiro V1 ilustrado na Figura 4(a), e é decidida com base em um sinal do sensor de velocidade 20 no momento a partir de um único momento anterior para o momento atual.
[040] Após o alinhamento, a unidade de alinhamento 32 obtém a diferença entre as imagens de vista aérea PB1 e PB1-1, e gera dados de imagem de diferença PDt. Na presente modalidade, a unidade de alinhamento 32 toma o valor absoluto da diferença nos valores de pixel das imagens de vista aérea PB1 e PB1-1 para corresponder à variação no ambiente de iluminação, e quando o valor absoluto é igual ou maior do que um valor limite predeterminado th, os valores de pixel da imagem de diferença PDt são ajustados para “1”, e quando o valor absoluto é menor do que um valor limite predeterminado th, os valores de pixel da imagem de diferença PDt são ajustados para “0”, o que permite que sejam gerados os dados de imagem de diferença PDt tais como aqueles ilustrados no lado direito da Figura 4(b).
[041] Voltando à Figura 3, o dispositivo de detecção de objeto tridimensional 33 detecta um objeto tridimensional baseado nos dados de imagem de diferença PDt ilustrados na Figura 4(b). Nesse caso, o dispositivo de detecção de objeto tridimensional 33 calcula a distância de movimento do objeto tridimensional no espaço atual. O dispositivo de detecção de objeto tridimensional 33 primeiro gera uma forma de onda de diferença quando o objeto tridimensional é detectado e a distância de movimento deva ser calculada.
[042] Especificamente, o dispositivo de detecção de objeto tridimensional 33 gera uma forma de onda de diferença nas áreas de detecção ajustadas pela unidade de ajuste de área de detecção anteriormente descrita 34. O propósito do dispositivo de detecção de objeto tridimensional 1 do presente exemplo deve calcular a distância de movimento para o veículo adjacente com o qual há uma possibilidade de contato se o veículo hospedeiro V1 mudar de pistas. Portanto, no presente exemplo, as áreas de detecção retangulares A1, A2 são ajustadas para serem o lado traseiro do veículo hospedeiro V1, conforme ilustrado na Figura 2. Tais áreas de detecção A1, A2 podem ser ajustadas a partir de uma posição relativa para o veículo hospedeiro V1, ou podem ser ajustadas com base na posição das linhas brancas. Quando ajustadas com base na posição das linhas brancas, o dispositivo de detecção de objeto tridimensional 1 pode usar, por exemplo, técnicas conhecidas de reconhecimento de linha branca. O método para ajustar as áreas de detecção conforme realizado pela unidade de ajuste de área de detecção 32 está descrito posteriormente.
[043] O dispositivo de detecção de objeto tridimensional 33 reconhece como linhas de solo L1, L2 as bordas das áreas de detecção A1, A2 assim ajustadas, o lado do veículo hospedeiro V1 (lado ao longo da direção de percurso), conforme ilustrado na Figura 2. Geralmente, uma linha de solo refere-se a uma linha na qual um objeto tridimensional está em contato com o solo, mas, na presente modalidade, uma linha de solo não é uma linha em contato com o solo, mas em vez disso é ajustada na maneira descrita acima. Mesmo em tal caso, a diferença entre a linha de solo de acordo com a presente modalidade e a linha de solo normal determinada a partir da posição do veículo adjacente V2 não é muito grande conforme determinado por experiência, e não há nenhum problema na realidade.
[044] A Figura 5 é uma vista esquemática que ilustra a maneira na qual a forma de onda de diferença é gerada pela unidade de detecção de objeto tridimensional 33. Conforme ilustrado na Figura 5, o dispositivo de detecção de objeto tridimensional 33 gera uma forma de onda de diferença DW1 a partir da parte que corresponde às áreas de detecção A1, A2 na imagem de diferença PDt (desenhando na direita na Figura 4(b)) calculada pela unidade de alinhamento 32. Nesse caso, o dispositivo de detecção de objeto tridimensional 33 gera uma forma de onda de diferença DWt ao longo da direção de queda do objeto tridimensional pela conversão de ponto de vista. No exemplo ilustrado na Figura 5, apenas a área de detecção A1 será descrita por conveniência, mas a forma de onda de diferença DW1 é gerada para a área de detecção A2 bem como usando o mesmo procedimento.
[045] Especificamente, primeiro, o dispositivo de detecção de objeto tridimensional 33 define uma linha La na direção na qual o objeto tridimensional tomba nos dados de imagem de diferença PDt. O dispositivo de detecção de objeto tridimensional 33 então conta o número de pixels de diferença DP que indicam uma diferença predeterminada na linha La. Na presente modalidade, os pixels de diferença DP que indicam uma diferença predeterminada possuem valores de pixels na imagem de diferença PDt que estão representados por “0” e “1”, e os pixels indicados por “1” são contados como pixels de diferença DP.
[046] O dispositivo de detecção de objeto tridimensional 33 conta o número de pixels de diferença DP, e em seguida determina o ponto de cruzamento CP da linha La e a linha de solo L1. O dispositivo de detecção de objeto tridimensional 33 então correlaciona o ponto de cruzamento CP e o número de contagem, decide a posição do eixo geométrico horizontal, isto é, a posição no eixo geométrico na direção vertical no desenho na direita na Figura 5, com base na posição do ponto de cruzamento CP, decide a posição de eixo geométrico vertical, isto é, a posição no eixo geométrico na direção lateral no desenho na direita na Figura 5, a partir do nú-mero de contagem, e marca as posições como o número de contagem como o ponto de cruzamento CP.
[047] Do mesmo modo, o dispositivo de detecção de objeto tridimensional 33 define as linhas Lb, Lc,...na direção na qual o objeto tridimensional tomba, conta o número de pixels de diferença DP, decide a posição do eixo geométrico horizontal com base na posição de cada ponto de cruzamento CP, decide a posição do eixo geométrico vertical a partir do número de contagem (o número de pixels de diferença DP), e marca as posições. O dispositivo de detecção de objeto tridimensional 33 repete o acima em sequência para formar uma distribuição de frequência e desse modo geram uma primeira forma de onda de diferença DW1, conforme ilustrado no desenho na direita na Figura 5.
[048] Aqui, os pixels de diferença DP nos dados de imagem de diferença PDt são pixels que mudaram na imagem em momentos diferentes, em outras palavras, os locais que podem ser construídos para estarem onde um objeto tridimensional estava presente. Portanto, nos locais onde um objeto tridimensional estava presente, o número de pixels é contado ao longo da direção na qual o objeto tridimensional tomba para formar uma distribuição de frequência e desse modo gerar uma forma de onda de diferença DWt. Em particular, o número de pixels é contado ao longo da direção na qual o objeto tridimensional tomba, e uma forma de onda de diferença DWt é, portanto, gerada a partir da informação sobre a direção da altura em relação ao objeto tridimensional.
[049] Portanto, a forma de onda de diferença DWt é um modo de informação de distribuição de pixel que mostra uma diferença de luminância predeterminada, e a “informação de distribuição de pixel” na presente modalidade pode ser alinhada com a informação que indica o estado de distribuição dos “pixels que possuem a diferença de luminância em um valor limite predeterminado ou maior” conforme detectado ao longo da direção na qual o objeto tridimensional tomba quando a imagem capturada é convertida no ponto de vista para uma imagem de vista aérea. Em outras palavras, em uma imagem de vista aérea obtida pela unidade de conversão de ponto de vista 31, o dispositivo de detecção de objeto tridimensional 33 detecta um objeto tridimensional com base na informação de distribuição de pixel que possui uma dife-rença de luminância em um valor limite predeterminado ou maior ao longo da direção na qual o objeto tridimensional tomba quando a imagem capturada é convertida em ponto de vista para uma imagem de vista aérea.
[050] As linhas La e Lb na direção na qual o objeto tridimensional tomba possuem distâncias diferentes que sobrepõem à área de detecção A1, conforme ilustrado no desenho na esquerda na Figura 5. Portanto, o número de pixels de diferença DP é maior na linha La do que na linha Lb quando é presumido que a área de detecção A1 é preenchida com os pixels de diferença DP. Por esta razão, o dispositivo de detecção de objeto tridimensional 33 realiza normalização com base na distância que as linhas La, Lb na direção na qual o objeto tridimensional tomba e a área de detecção A1 sobrepõe quando a posição do eixo geométrico vertical é decidida a partir do número de contagem dos pixels de diferença DP. Em um exemplo específico, há seis pixels de diferença DP na linha La e há cinco pixels de diferença DP na linha Lb no desenho na esquerda na Figura 5. Portanto, quando a posição do eixo geométrico vertical é decidida a partir do número de contagem na Figura 5, o dispositivo de detecção de objeto tridimensional 33 divide o número de contagem pela distância de sobreposição ou realiza normalização de outra maneira. Os valores da forma de onda de diferença DWt que correspondem às linhas La, Lb na direção na qual o objeto tridimensional tomba são desse modo substancialmente as mesmas.
[051] Após a geração da forma de onda de diferença DWt o dispositivo de detecção de objeto tridimensional 33 detecta um veículo adjacente presente na pista adjacente na forma de onda de diferença DWt gerada. O dispositivo de detecção de objeto tridimensional calcula a distância de movimento pela comparação da forma de onda de diferença DWt no momento presente e a forma de onda de diferença DWt-1 em um único momento anterior. Em outras palavras, o dispositivo de detecção de objeto tridimensional 33 calcula a distância de movimento a partir da mudança no tempo da forma de onda de diferença DWt e a forma de onda de diferença DWt-1.
[052] Especificamente, o dispositivo de detecção de objeto tridimensional 33 divide a forma de onda de diferença DWt em uma pluralidade de pequenas áreas DWt1 a DWtn (onde n é um inteiro arbitrário de 2 ou mais), conforme ilustrado na Figura g. A Figura 6 é uma vista que ilustra as pequenas áreas DWt1 a DWtn divididas pela unidade de detecção de objeto tridimensional 33. As pequenas áreas DWt1 a DWtn são divididas de modo a sobreporem mutuamente, conforme ilustrado, por exemplo, na Figura 6. Por exemplo, a pequena área DWt1 e a pequena área DWt2 se sobrepõem, e a pequena área DWt2 e a pequena área DWt3 se sobrepõem.
[053] Em seguida, o dispositivo de detecção de objeto tridimensional 33 determina a quantidade de deslocamento (a quantidade de movimento na direção do eixo geométrico horizontal (direção vertical na Figura 6) da forma de onda de diferença) para cada das pequenas áreas DWt1 a DWtn. Aqui, a quantidade de deslocamento é determinada a partir da diferença (distância na direção do eixo geométrico horizontal) entre a forma de onda de diferença DWt-1 em um único momento anterior e a forma de onda de diferença DWt no momento atual. Nesse caso, o dispositivo de detecção de objeto tridimensional 33 move a forma de onda de diferença DWt-1 em um único momento anterior na direção do eixo geométrico horizontal para cada das pequenas áreas DWt1 a DWtn, e então avalia a posição (a posição na direção do eixo geométrico horizontal) na qual o erro da forma de onda de diferença DWt no momento atual está em um mínimo, e determina como a quantidade de deslocamento a quantidade de movimento na direção do eixo geométrico horizontal na posição na qual o erro a partir da posição original da forma de onda de diferença DWt-1 está em um mínimo. O dispositivo de detecção de objeto tridimensional 33 então conta a quantidade de deslocamento determinada para cada das pequenas áreas DWt1 a DWtn e forma um histograma.
[054] A Figura 7 é uma vista que ilustra um exemplo do histograma obtido pela unidade de detecção de objeto tridimensional 33. Conforme ilustrado na Figura 7, certa quantidade de variabilidade ocorre na quantidade de deslocamento, que é a distância de movimento na qual o erro entre as pequenas áreas DWt1 a DWtn e a forma de onda de diferença DWt-1 em um único momento anterior está em um mínimo. Portanto, o dispositivo de detecção de objeto tridimensional 33 forma as quantidades de deslocamento que incluem a variabilidade para um histograma e calcula a distância de movimento a partir do histograma. Nesse ponto, o dispositivo de detecção de objeto tridimensional 33 calcula a distância de movimento do objeto tridimen sional a partir do valor máximo no histograma. Em outras palavras, no exemplo ilustrado na Figura 7, o dispositivo de detecção de objeto tridimensional 33 calcula a quantidade de deslocamento que indica o valor máximo do histograma como a distância de movimento z*. Dessa maneira, na presente modalidade, pode ser calculada uma distância de movimento mais precisa a partir do valor máximo, mesmo quando há variabilidade na quantidade de deslocamento. A distância de movimento z* é a distância de movimento relativo do objeto tridimensional com relação ao veículo hospedeiro. Portanto, o dispositivo de detecção de objeto tridimensional 33 calcula a distância de movimento absoluta a partir da distância de movimento z* assim obtida e do sensor de velocidade 20 quando a distância de movimento absoluta deva ser calculada.
[055] Desta maneira, na presente modalidade, a distância de movimento do objeto tridimensional é calculada a partir da quantidade de deslocamento da forma de onda de diferença DWt quando o erro na forma de onda de diferença DWt gerado em momentos diferentes está em um mínimo, e isso permite que a distância de movimento seja calculada a partir da quantidade de deslocamento, que é informação sobre uma dimensão em uma forma de onda, e permite que o custo de computação seja mantido baixo quando a distância de movimento é calcula. Ainda, dividindo a forma de onda de diferença DWt gerada em momentos diferentes em uma pluralidade de pequenas áreas DWt1 a DWtn permite que seja obtida uma pluralidade de formas de onda que representa os locais do objeto tridimensional, desse modo permitindo que a quantidade de deslocamento em cada local do objeto tridimensional seja determinada e permitindo que a distância de movimento seja determinada a partir de uma pluralidade de quantidades de deslocamento. Portanto, pode ser aperfeiçoada a precisão de cálculo da distância de movimento. Na presente modalidade, a distância de movimento do objeto tridimensional é calculada a partir da mudança no da forma de onda de diferença DWt, que inclui informação de direção da altura. Conse- quentemente, ao contrário do foco estar somente no movimento de um único ponto, a detecção do local antes da mudança com o tempo e a detecção do local após a mudança a tempo são especificadas com a informação de direção da altura incluída e, portanto, realmente termina sendo o mesmo local, a distância de movimento é calculada a partir da mudança a tempo no mesmo local; e pode ser melhorada a precisão para calcular a distância de movimento.
[056] Quando deva ser formado um histograma, o dispositivo de detecção de objeto tridimensional 33 pode conferir uma pesagem à pluralidade de pequenas áreas DWt1 a DWtn e contar as quantidades de deslocamento determinadas para cada das pequenas áreas DWt1 a DWtn de acordo com a pesagem para formar um histograma. A Figura 8 é uma vista que ilustra a pesagem usada pela unidade de detecção de objeto tridimensional 33.
[057] Conforme ilustrado na Figura 8, uma pequena área DWm (onde m é um inteiro 1 ou maior e n -1 ou menor) é plana. Em outras palavras, na pequena área DWm, há pouca diferença entre os valores máximo e mínimo da contagem de número de pixel que indica uma diferença predeterminada. O dispositivo de detecção de objeto tridimensional 33 reduz a pesagem desse tipo de pequena área DWm. Isso se deve ao fato de eu uma pequena área DWm plana não possui uma característica e há uma grande possibilidade de que um erro seja ampliado quando a quantidade de deslocamento é calculada.
[058] Por outro lado, a pequena área DWm+k (onde k é um inteiro n - m ou menor) possui muita ondulação. Em outras palavras, na pequena área DWm,há diferença considerável entre os valores máximo e mínimo da contagem do número de pixel que indica uma diferença predeterminada. O dispositivo de detecção de objeto tridimensional 33 aumenta o peso desse tipo de pequena área DWm. Isso se deve ao fato de que uma pequena área DWm+k com modulação abundante é característica e há uma grande possibilidade de que a quantidade de deslocamento seja calculada com precisão. A pesagem das pequenas áreas dessa maneira possibilita aumentar a precisão para calcular a distância de movimento.
[059] A forma de onda de diferença DWt é dividida em uma pluralidade de pequenas áreas DWt1 a DWtn na presente modalidade para aumentar a precisão para calcular a distância de movimento, mas não é requerida a divisão em pequenas áreas DWt1 a DWtn quando não é necessária precisão para calcular distância de movimento. Nesse caso, o dispositivo de detecção de objeto tridimensional 33 calcula a distância de movimento a partir da quantidade de deslocamento da forma de onda de diferença DWt quando o erro entre a forma de onda de diferença DWt e a forma de onda de diferença DWt-1 está em um mínimo. Em outras palavras, o método para determinar a quantidade de deslocamento entre a forma de onda de diferença DWt-1 em um único momento anterior e a forma de onda de diferença DWt no momento atual não está limitada aos detalhes descritos acima.
[060] O dispositivo de detecção de objeto tridimensional 33 na presente modalidade determina a velocidade de movimento do veículo hospedeiro V1 (câmera 10) e determina a quantidade de deslocamento para um objeto fixo a partir da velocidade de movimento determinada. Após a determinação da quantidade de deslocamento do objeto fixo, o dispositivo de detecção de objeto tridimensional 33 ignora a quantidade de deslocamento que corresponde ao objeto fixo dentro do valor máximo do histograma, e calcula a distância de movimento do veículo adjacente.
[061] A Figura 9 é uma vista que ilustra outro exemplo do histograma obtido pela unidade de detecção de objeto tridimensional 33. Quando um objeto fixo diferente do veículo adjacente está presente dentro do ângulo de visão da câmera 10, dois valores máximos r1, r2 aparecem no histograma resultante. Nesse caso, um dos valores r1, r2 é a quantidade de deslocamento do objeto fixo. Consequentemente, o dispositivo de detecção de objeto tridimensional 33 determina a quantidade de deslocamento para o objeto fixo a partir da velocidade de movimento, ignora o valor máximo que corresponde à quantidade de deslocamento, e calcula a distância de movimento do objeto tridimensional usando o valor máximo remanescente. Portanto, é possível impedir uma situação na qual a precisão para calcular a distância de movimento do objeto tridimensional é reduzida pelo objeto fixo.
[062] Mesmo quando é ignorada a quantidade de deslocamento correspondente ao objeto fixo, pode haver uma pluralidade de veículos adjacentes presentes dentro do ângulo de visão da câmera 10 quando há uma pluralidade de valores máximos. Contudo, uma pluralidade de objetos tridimensionais presente dentro das áreas de detecção A1, A2 ocorre muito raramente. Portanto, o dispositivo de detecção de objeto tridimensional 33 para de calcular a distância de movimento. Na presente modalidade, é, portanto, possível impedir uma situação na qual seja calculada uma distância de movimento errônea tal como quando há uma pluralidade de valores máximos.
[063] O dispositivo de detecção de objeto tridimensional 33, além disso, diferencia o tempo da distância de movimento relativo calculada do objeto tridimensional para, desse modo, calcular a velocidade de movimento relativo do objeto tridimensional com relação ao veículo hospedeiro e também adiciona a velocidade de veículo hospedeiro detectada pelo sensor de velocidade 20 para a velocidade de movimento relativo calculada do objeto tridimensional para, desse modo, calcular a velocidade de movimento relativo calculada do objeto tridimensional.
[064] Após a forma de onda de diferença DWt ter sido gerada, o dispositivo de detecção de objeto tridimensional 33 detecta um veículo adjacente presente na pista adjacente com base na forma de onda de diferença DWt gerada. Aqui, a Figura 10 é vista para descrever o método para avaliar outro veículo presente em uma pista adjacente, e ilustra um exemplo da forma de onda de diferença DWt e o valor limite a para detectar um veículo adjacente presente em uma pista adjacente. Por exemplo, o dispositivo de detecção de objeto tridimensional 33 determina se o pico da forma de onda de diferença DWt gerada está em um valor limite a ou maior, e quando o pico da forma de onda de diferença DWt gerada está em um valor limite a ou maior, o objeto tridimensional detectado é avaliado para ser um veículo adjacente presente na pista adjacente, e quando o pico da forma de onda de diferença DWt não está em um valor limite a ou maior, o objeto tridimensional detectado pela unidade de detecção de objeto tridimensional 33 não é avaliado para ser um veículo adjacente presente na pista adjacente, conforme ilustrado na Figura 10. Quando o objeto tridimensional detectado foi avaliado para ser um veículo adjacente, o dispositivo de detecção de objeto tridimensional 33 transmite um sinal de notificação para o dispositivo de notificação 50, e, por meio disso, notifica o motorista que um veículo adjacente está presente na traseira do veículo hospedeiro.
[065] Retornando à Figura 3, a unidade de ajuste de área de detecção 34 ajusta as áreas de detecção A1, A2 para detectar um objeto tridimensional. Especificamente, a unidade de ajuste de área de detecção 34 determina se o veículo hospedeiro passou o veículo adjacente com base nos resultados de detecção do dispositivo de detecção de objeto tridimensional 33, e quando foi determinado que o veículo hospedeiro passou pelo veículo adjacente, as áreas de detecção A1, A2 são ampliadas com respeito à direção do avanço do veículo.
[066] A Figura 11 é uma vista para descrever o método para ajustar as áreas de detecção pela unidade de ajuste de área de detecção 34. Na Figura 11, dois veículos adjacentes V2, V2’ estão percorrendo na pista adjacente de modo consecutivo, e ilustra uma situação na qual foi detectado o primeiro veículo adjacente avançado V2. No exemplo ilustrado na Figura 11, apenas a área de detecção A1 é ilustrada e descrita, mas a área de detecção A2 é ajustada da mesma maneira.
[067] A unidade de ajuste de área de detecção 34 ajusta a largura (extensão) da área de detecção A1 na direção do avanço do veículo hospedeiro antecipadamente para ser, por exemplo, de 7m, e a detecção dos objetos tridimensionais é realizada nessa área de detecção A1. Conforme ilustrado na Figura 11(A), quando o primeiro veículo adjacente avançado V2 foi detectado pela unidade de detecção de objeto tridimensional 33, a unidade de ajuste de área de detecção 34 determina se a velocidade de movimento relativo do veículo adjacente V2 em relação ao veículo hospedeiro V1 está em uma velocidade relativa predeterminada ou maior. A velocidade predeterminada não é particularmente limitada, mas pode ser ajustada para ser, por exemplo, 10 km/h (isto é a velocidade do veículo hospedeiro é de 10 Km/h ou maior do que a velocidade do veículo adjacente V2) considerando o erro de detecção da velocidade de movimento relativo do veículo adjacente V2 em relação ao veículo hospedeiro V1. A velocidade de movimento relativo do veículo adjacente V2 em relação ao veículo hospedeiro V1 pode ser adquirida do dispositivo de detecção de objeto tridimensional 33, ou pode ser calculada pela unidade de ajuste de área de detecção 34.
[068] Do veículo adjacente V2 em relação ao veículo hospedeiro V1 está em uma velocidade predeterminada ou maior, a unidade de ajuste de área de detecção 34 determina que o primeiro veículo adjacente V2 está passando o veículo hospedeiro V1, e a área de detecção A1 é ampliada para trás com relação à direção do avanço do veículo V1, conforme ilustrado na Figura 11(B). Por exemplo, quando a largura da área de detecção A1 na direção do avanço do veículo hospedeiro V1 ajustada antecipadamente é 7 m, a unidade de ajuste de área de detecção 34 amplia as áreas de detecção A1, A2 para trás por 2m com respeito à direção do avanço do veículo quando tenha sido determinado que o veículo hospedeiro V1 tenha passado pelo veículo adjacente V2, e a largura da área de detecção A1 na direção do avanço do veículo hospedeiro pode ser ajustada para 9 m no total. Na Figura 11(B), a variação da área de detecção A1 ampliada para trás com respeito à direção do avanço do veículo está ilustrada em cinza.
[069] Portanto, quando tenha sido determinado que o primeiro veículo adja- cente V2 esteja passando o veículo hospedeiro V1, a ampliação da área de detecção A1 para trás com respeito à direção do avanço do veículo V1 permite que o segundo veículo adjacente V2’ que segue o primeiro veículo adjacente V2 avançado seja detectado na área de detecção A1, conforme ilustrado na Figura 11(B).
[070] Por outro lado, o segundo veículo adjacente V2’ não pode ser detectado na área de detecção A1 quando o primeiro veículo adjacente V2 tenha passado o veículo hospedeiro V1 no caso em que a área de detecção A1 não esteja ampliada para trás com respeito à direção do avanço do veículo V1 em uma maneira convencional, mesmo quando tenha sido determinado que o veículo adjacente V2 esteja passando o veículo hospedeiro V1. Por esta razão, é determinado que um veículo adjacente não está presente atrás do veículo adjacente e não é realizada notificação pelo dispositivo de notificação 50 pela unidade de detecção de objeto tridimensional 33, mesmo se um veículo adjacente V2’ estiver presente atrás do veículo hospedeiro. Portanto, em uma situação na qual o primeiro veículo adjacente avançado V2 esteja passando o veículo hospedeiro V1 e não seja realizada a notificação de que um veículo adjacente está presente atrás do veículo hospedeiro, há casos nos quais é possível que o motorista determine que um veículo adjacente não está presente na pista adjacente atrás do veículo hospedeiro, e o motorista irá mudar a pista do veículo hospedeiro V1, mesmo se um segundo veículo adjacente V2’ esteja presente atrás do veículo hospedeiro V1, e o veículo hospedeiro V1 e o segundo veículo adjacente V2’ aproximam-se um do outro. Ao contrário, na presente modalidade, quando tiver sido determinado que um primeiro veículo adjacente avançado V2 esteja passando o veículo hospedeiro 1, a ampliação da área de detecção A1 na parte traseira com respeito à direção do avanço do veículo V1 permite que um segundo veículo adjacente V2’ na área de detecção A1 seja detectado, e é possível notificar o motorista da presença de um segundo veículo adjacente V2.
[071] Na presente modalidade, a unidade de ajuste de área de detecção 34 é capaz de variar a quantidade pela qual as áreas de detecção A1, A2 devem ser ampliadas para trás com respeito à direção do avanço do veículo de acordo com a velocidade de movimento relativo do veículo adjacente V2 para o veículo hospedeiro V1. Por exemplo, a unidade de ajuste de área de detecção 34 pode prever que quanto maior a velocidade de movimento relativo do primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1, mais rápida será a velocidade de movimento relativo do segundo veículo adjacente V2’, e que o segundo veículo adjacente logo irá alcançar o veículo hospedeiro e aumentar a quantidade pela qual as áreas de detecção A1, A2 devam ser ampliadas na direção para trás. Alternativamente, pode ser determinado que quanto maior a velocidade de movimento relativo do primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1, mais curto o tempo que o veículo adjacente estará presente atrás do veículo hospedeiro, e a quantidade pela qual as áreas de detecção A1, A2 devam ser ampliadas na direção para trás pode ser reduzida. Além disso, é também possível usar uma configuração na qual a con-sideração fornecida à velocidade do veículo hospedeiro onde o segundo veículo adjacente V2’ não está previsto para logo alcançar o veículo hospedeiro quando a velocidade do veículo hospedeiro está suficientemente alta e a distância entre o primeiro veículo adjacente V2 e o segundo veículo adjacente V2’ é grande, e a quantidade pela qual as áreas de detecção A1, A2 devam ser ampliadas não é aumentada, mesmo quando a velocidade de movimento relativo do primeiro veículo adjacente V2 é alta com relação ao veículo hospedeiro V1.
[072] Além disso, a unidade de ajuste de área de detecção 34 adquire informação de ângulo de direção a partir do sensor de ângulo de direção 40 e determina se o veículo hospedeiro está mudando de direção com base na informação de ângulo de direção adquirida. Quando tiver sido determinado que o veículo hospedeiro esteja mudando de direção, a unidade de ajuste de área de detecção 34 então calcula o raio de virada do veículo hospedeiro com base na informação de ângulo de direção, e modifica a quantidade pela qual as áreas de detecção devam ser ampliadas na direção traseira de acordo com o raio de virada calculado quando o veículo hospedeiro tenha sido passado por um veículo adjacente. Especificamente, a unidade de ajuste de área de detecção 34 possui mapas ou fórmulas computacionais que indicam a correlação entre o raio de virada e as áreas de detecção A1, A2 que estão modificadas de acordo com o raio de virada, e decide a quantidade pela qual as áreas de detecção devam ser ampliadas para trás quando o veículo hospedeiro tenha sido passado por um veículo adjacente.
[073] Aqui, a Figura 12 é uma vista para descrever o método para ajustar a área de detecção quando o veículo hospedeiro está mudando de direção. A Figura 12(A) é uma vista que ilustra um exemplo da área de detecção ajustada quando o veículo hospedeiro está mudando de direção na presente modalidade. A Figura 12(B) é uma vista que ilustra um exemplo da área de detecção quando o veículo hospedeiro está funcionado e o método para ajustar a área de detecção na presente modalidade. Em uma situação na qual o veículo hospedeiro V1 tenha sido passado pelo primeiro veículo adjacente avançado V2, a unidade de ajuste de área de detecção 34 modifica a quantidade pela qual a área de detecção A2 é ampliada para trás de maneira que a área de detecção não entre na pista na qual o veículo hospedeiro está percorrendo quando tiver sido determinado que o veículo hospedeiro está mudando de direção, conforme ilustrado na Figura 12(A). Especificamente, a unidade de ajuste de área de detecção 34 reduz a quantidade pela qual a área de detecção A2 ajustada dentro da virada deva ser ampliada para trás, de modo comensurado para a magnitude do raio de virada do veículo hospedeiro V1 de maneira que a área de detecção não entre na pista na qual o veículo hospedeiro está percorrendo.
[074] Por outro lado, quando a área de detecção V2 é ampliada de modo uniforme por uma quantidade fixa quando é determinado que o veículo hospedeiro V1 está mudando de direção, é detectado um veículo traseiro V3 que percorre na pista na qual o veículo hospedeiro V1 está percorrendo na área de detecção A2, conforme ilustrado na Figura 12(B), e há casos nos quais o veiculo traseiro V3 é por meio disso detectado de modo errôneo como um veículo adjacente que percorre em uma pista adjacente. Em resposta a isso, na presente modalidade, a quantidade pela qual a parte traseira com respeito à direção do avanço do veículo V1 é ampliada é reduzida de modo comensurado para um raio de virada menor do veículo hospedeiro V1, conforme ilustrado na Figura 12(A), por meio disso possibilitando impedir efe-tivamente uma situação na qual o veículo traseiro V3 é detectado na área de detecção A2. Como resultado, um veículo adjacente que percorre em uma pista adjacente pode ser adequadamente detectado.
[075] Em seguida, está descrito o processo para detectar um veículo adjacente de acordo com a presente modalidade. A Figura 13 é um fluxograma que ilustra o método para detectar um veículo adjacente da primeira modalidade. Primeiro, as áreas de detecção A1, A2 para detectar um veículo adjacente são ajustadas pela unidade de ajuste de área de detecção 34 (etapa S101), conforme ilustrado na Figura 13. Na etapa S101, as áreas de detecção A1, A2 que são ajustadas são aquelas ajustadas em um processo de ajuste de área de detecção descrito posteriormente (ver Figura 14).
[076] Os dados de uma imagem capturada pelo computador 30 a partir da câmera 10 (etapa S102), e os dados de uma imagem de vista aérea PBt são gerados (etapa S103) pela unidade de conversão de ponto de vista 31 com base nos dados da imagem capturada assim adquirida.
[077] Em seguida, a unidade de alinhamento 32 alinha os dados da imagem de vista aérea PBt e os dados de imagem de vista aérea PBt-1 em um único momento anterior, e gera os dados de uma imagem de diferença PDt (etapa S104). O dispositivo de detecção de objeto tridimensional 33 então conta o número de pixels diferentes DP que possuem um valor de pixel de “1” para, desse modo, gerar uma forma de onda de diferença DWt dos dados de imagem de diferença PDt (etapa S105).
[078] O dispositivo de detecção de objeto tridimensional 33 então determina se um pico na forma de onda de diferença DWt está em um valor limite predeterminado a ou maior (etapa S106). Quando o pico da forma de onda de diferença DWt não está em um valor limite predeterminado a ou maior, isto é, quando não é essencialmente diferente, acredita-se que um objeto tridimensional não esteja presente na imagem capturada. Portanto, quando tiver sido determinado que o pico da forma de onda de diferença DWt não está no valor limite a ou maior (etapa S106 = Não), o dispositivo de detecção de objeto tridimensional 33 determina que não há outro veículo presente (etapa S116), e em seguida retorna para a etapa S101 e repete o processo acima descrito ilustrado na Figura 13.
[079] Por outro lado, quando o pico na forma de onda de diferença DWt é determinado como um valor limite predeterminado a ou maior (etapa S106 = Sim), é determinado pela unidade de detecção de objeto tridimensional 33 que um objeto tridimensional está presente na pista adjacente e prossegue para a etapa S107. A forma de onda de diferença DWt é dividida em uma pluralidade de pequenas áreas DWt1 a DWtn pela unidade de detecção de objeto tridimensional 33. O dispositivo de detecção de objeto tridimensional 33 em seguida confere peso a cada das pequenas áreas DWt1 a DWtn (etapa S108), calcula a quantidade de deslocamento para cada das pequenas áreas DWt1 a DWtn (etapa S109), e gera um histograma considerando os pesos (etapa S110).
[080] O dispositivo de detecção de objeto tridimensional 33 calcula a distância de movimento relativo, que é a distância de movimento do veículo adjacente com relação ao veículo hospedeiro, com base no histograma, o tempo diferencia a distância de movimento relativo calculada para, por meio disso, calcular a velocidade de movimento relativo do objeto tridimensional com relação ao veículo hospedeiro (etapa S111), adiciona a velocidade de veículo hospedeiro detectada pelo sensor de velocidade 20 à velocidade de movimento relativo calculada, e calcula a velocidade de movimento absoluta do objeto tridimensional com relação ao veículo hospedeiro (etapa S112).
[081] O dispositivo de detecção de objeto tridimensional 33 em seguida determina se a velocidade de movimento relativo do objeto tridimensional é de 10 km/h ou maior e se a velocidade de movimento relativo do objeto tridimensional em relação ao veículo hospedeiro é + 60 km ou menor (etapa S113). Quando as duas condições são atendidas (etapa S113 = Sim), o dispositivo de detecção de objeto tridimensional 33 determina que o objeto tridimensional detectado é um veículo adjacente presente na pista adjacente e que um veículo adjacente está presente na pista adjacente (etapa S114). Na etapa subsequente S115, o motorista é por meio disso notificado pelo dispositivo de notificação 40 que um veículo adjacente está presente na atrás do veículo hospedeiro. O processo então retorna para a etapa S101, e repete o processo ilustrado na Figura 13. Por outro lado, quando qualquer uma das condições não é atendida (etapa S113 = Não), o dispositivo de detecção de objeto tridimensional 33 determina que um veículo adjacente não está presente na pista adjacente (etapa S116). O processo retorna para a etapa S101, e repete o processo ilustrado na Figura 13.
[082] Na presente modalidade, as áreas de detecção A1, A2 são as direções laterais traseiras do veículo hospedeiro, e o foco é colocado em se o veículo hospedeiro pode possivelmente contatar com um veículo adjacente se for feita uma mudança de pista. Portanto, o processo da etapa S113 é implementado. Em outras palavras, presumindo que o sistema na presente modalidade seja acionado em modo expresso, quando a velocidade de um veículo adjacente é menor do que 10 km/h, raramente será um problema mesmo se um veículo adjacente estiver presente porque o veículo adjacente estaria posicionado muito atrás do veículo hospedeiro quando for feita uma mudança de pista. Similarmente, quando a velocidade de movimento relativo de um veículo adjacente excede +60 km/h com relação ao veículo hospedeiro (isto é quando o veículo adjacente está movendo-se em uma velocidade de 60 km/h maior do que a velocidade do veículo hospedeiro), raramente será um problema porque o veículo adjacente terá movido para frente do veículo hospedeiro quando for feita uma mudança de pista. Por esta razão, pode ser dito que a etapa S113 determina que seja feita uma mudança de pista dos veículos adjacentes que se tornem um problema.
[083] Na etapa S113, é determinado se a velocidade de movimento absoluta do veículo adjacente é 10 km/h ou maior, e se a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é +60 km/h, por meio disso obtendo o efeito que se segue. Por exemplo, um caso possível é que a velocidade de movimento absoluta de um objeto fixo seja detectada como vários quilômetros por hora dependendo do erro de fixação da câmera 10. Portanto, determinando se a velocidade é de 10 km/h ou maior possibilita reduzir a possibilidade de que o objeto fixo será determinado para ser um veículo adjacente. Ainda, é possível que a velocidade relativa de um veículo adjacente com relação ao veículo hospedeiro seja detectada como maior do que +60 km/h devido ao ruído. Portanto, determinando se a velocidade relativa é +60 km/h ou menor possibilita reduzir a possibilidade de detecção errônea devido ao ruído.
[084] Portanto, é possível determinar que a velocidade de movimento relativo do veículo adjacente não é negativa ou não é de 0 km/h em lugar do processamento da etapa S113.
[085] Em seguida, será descrito o processo de ajuste de área de detecção de acordo com a primeira modalidade. A Figura 14 é um fluxograma que ilustra a o processo de ajuste da área de detecção de acordo com a primeira modalidade. O processo de ajuste da área de detecção descrito é realizado em paralelo ao proces- so de detecção de veículo adjacente ilustrado na Figura 13, e as áreas de detecção A1, A2 ajustadas pelo processo de ajuste de área de detecção são ajustadas no processo de detecção do veículo adjacente ilustrado na Figura 13.
[086] Primeiro, na etapa S201, a unidade de ajuste de área de detecção 34 determina se um veículo adjacente está sendo detectado. Especificamente, quando a unidade de ajuste de área de detecção 34 tiver determinado que um veículo adjacente está presente nas áreas de detecção A1, A2 no processo de detecção de veículo adjacente ilustrado na Figura 13, é determinado que um veículo adjacente está sendo detectado, e o processo prossegue para a etapa S202, quando a unidade de ajuste de área de detecção tenha determinado que um veículo adjacente não está presente nas áreas de detecção A1, A2, é determinado que um veículo adjacente não está sendo detectado, e o processo permanece na etapa S201 até que seja detectado um veículo adjacente.
[087] Na etapa S202, a unidade de ajuste de área de detecção 34 determina se um veículo adjacente tenha passado o veículo hospedeiro. Especificamente, a unidade de ajuste de área de detecção 23 adquire a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro a partir do dispositivo de detecção de objeto tridimensional 33, e determina se a velocidade de movimento relativo do veículo adjacente é uma velocidade predeterminada (por exemplo, 10 km/h) ou maior com base na velocidade de movimento relativo adquirida do veículo adjacente. Quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo adjacente é uma velocidade predeterminada ou maior, é determinado que o veículo adjacente está passando o veículo hospedeiro, e o processo prossegue para a etapa S203. Por outro lado, quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo adjacente é menor do que a velocidade predeterminada, é determinado que o veículo adjacente não está passando o veículo hospedeiro, e o processo retorna para a etapa S201.
[088] Na etapa S203, a unidade de ajuste de área de detecção 34 determina se o veículo hospedeiro está mudando de direção. O método para avaliar se o veículo hospedeiro está mudando de direção não é particularmente limitado, mas, na presente modalidade, é usado o método que se segue para avaliar se o veículo hospedeiro está mudando de direção.
[089] Em outras palavras, a unidade de ajuste de área de detecção 34 primeiro prevê se o veículo hospedeiro V1 está em um estado de virada após um determinado período de tempo (pode também ser referido abaixo como previsão de estado de virada). Especificamente, a unidade de ajuste de área de detecção 34 refere-se a uma imagem capturada adquirida da câmera 10, detecta pistas (por exemplo, linhas brancas) na superfície de rodovia, e calcula a curvatura da pista como um parâmetro que ilustra o formato da estrada. A unidade de ajuste de área de detecção 34 então prevê o formato da estrada na frente do veículo hospedeiro, isto é, o raio de virada do veículo hospedeiro até que tenha decorrido um período de tempo, com base na curvatura de pista computadorizada e a velocidade obtida a partir do sensor de velocidade 20.
[090] Além disso, a unidade de ajuste de área de detecção 34 calcula o raio de virada atual do veículo hospedeiro V1 de acordo com a Fórmula 1 abaixo na velocidade do veículo hospedeiro obtida do sensor de velocidade 20 e o ângulo de direção obtido a partir do sensor de ângulo de direção 40. [Fórmula 1]
Figure img0001
[091]Na fórmula 1, p é o raio de virada, K é o fator de estabilidade, V é a velocidade do veículo hospedeiro, L é a base de roda, n é a proporção da engrenagem de direção, e θ é o ângulo de direção.
[092] A unidade de ajuste de área de detecção 34 avalia que o veículo hospedeiro V1 está mudando de direção quando o raio de virada previsto na previsão do estado de virada acima descrito e o raio de virada atual obtidos com base na fórmula 1 estão em um valor limite predeterminado ou maior. Quando tiver sido determinado que o veículo hospedeiro está mudando de direção, o processo prossegue para a etapa S211. Por outro lado, quando tiver sido determinado que o veículo hospedeiro não está mudando de direção, o processo prossegue para a etapa S204.
[093] Nas etapas S204 e S210, o processamento realizado para ampliar as áreas de detecção para trás com respeito à direção do avanço do veículo com base na velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro e a informação de velocidade do veículo hospedeiro.
[094] Especificamente, a unidade de ajuste de área de detecção 34 amplia e ajusta (etapa S206) a área de detecção para trás por L(m) a partir de uma variação ajustada antecipadamente quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é uma primeira velocidade ou maior (etapa S204 = Sim), e a velocidade do veículo hospedeiro é uma segunda velocidade ou maior (etapa S05 = Yes). Por outro lado, a unidade de ajuste de área de de-tecção 34 amplia e ajusta (etapa S207) as áreas de detecção para trás por L + o(m) da variação ajustada antecipadamente quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é a primeira velocidade ou maior (etapa S204 = Sim), e a velocidade do veículo hospedeiro é menor do que a segunda velocidade (etapa S205 = Não). A primeira velocidade não é particularmente limitada, e é possível usar uma velocidade que permita a determinação de que o segundo veículo adjacente irá logo alcançar o veículo hospedeiro quando, por exemplo, um segundo veículo adjacente estiver percorrendo na primeira velocidade. Ainda, a segunda velocidade não é particularmente limitada, e é possível usar uma velocidade que permita a determinação de que há congestionamento quando, por exemplo, o veículo hospedeiro está percorrendo na segunda velocidade.
[095] Desta maneira, quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo adjacente é a primeira velocidade ou maior, e a velocidade do veículo hospedeiro é menor do que a segunda velocidade, é determinado que um segundo veículo adjacente irá logo alcançar o veículo hospedeiro e a quantidade pela qual as áreas de detecção são ampliadas é ajusta para uma quantidade (por exemplo, L + o(m) que é maior do que uma quantidade decidida antecipadamente (por exemplo, L(m)) (etapa S207). O segundo veículo adjacente que irá logo passar o veículo hospedeiro pode ser detectado adequadamente. Ainda, quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é a primeira velocidade ou maior, a velocidade do veículo hospedeiro é a segunda velocidade ou maior, é previsto que a velocidade do primeiro veículo adjacente V2 seja consideravelmente alta porque a velocidade do veículo hospedeiro é suficientemente alta, e é determinado que a distância entre o primeiro veículo adjacente V2 e o segundo veículo adjacente está aumentando. Portanto, em comparação com quando a velocidade do veículo hospedeiro é menor do que uma segunda velocidade predeterminada, é determinado que o segundo veículo adjacente não irá logo alcançar o veículo hospedeiro e a quantidade pela qual as áreas de detecção A1, A2 são ampliadas é ajustada para uma quantidade (por exemplo, L(m)) decidida antecipadamente (etapa S208).
[096] A unidade de ajuste de área de detecção 34 amplia e ajusta (etapa S209) as áreas de detecção para trás por L -β(m) a partir de uma variação ajustada antecipadamente quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é menor do que a primeira velocidade (etapa S204 = Não), e a velocidade do veículo hospedeiro é uma segunda velocidade ou maior (etapa S208 = Sim). Por outro lado, a unidade de ajuste de área de detecção 34 amplia e ajusta (etapa S210) as áreas de detecção para trás por L(m) a partir de uma variação ajustada antecipadamente quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é menor do que a primeira velocidade (etapa S204 = Não) e a velocidade do veículo hospedeiro é menor do que a segunda velocidade (etapa S208 = Não).
[097] Desta maneira, a unidade de ajuste de área de detecção 34 pode determinar que haja uma grande possibilidade de que a distância entre o primeiro e segundo veículos adjacentes consecutivos seja estreita e que dois veículos adjacentes estejam presentes imediatamente atrás do veículo hospedeiro, e a quantidade pela qual as áreas de detecção A1, A2 devam ser ampliadas é ajustada para uma quantidade decidida antecipadamente (por exemplo, L(m) (etapa S210) quando a velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro é menor do que a primeira velocidade e a velocidade do veículo hospedeiro é menor do que uma segunda velocidade, por exemplo, em condições de congestionamento. Por outro lado, quando a velocidade do veículo hospedeiro está em uma segunda velocidade predeterminada ou maior, o primeiro veículo adjacente também precisa percorrer em uma velocidade alta, portanto, é determinado que a distância entre o primeiro veículo adjacente e o segundo veículo adjacente consecutivos seja constante e a quantidade pela qual as áreas de detecção devam ser ampliadas para trás é ajustada para uma quantidade que é menor do que a quantidade ajustada antecipadamente (por exemplo, L - β(m)) (etapa S209). Desta maneira, decidindo a quantidade pela qual as áreas de detecção devam ser ampliadas com base na velocidade de movimento relativo do veículo adjacente com relação ao veículo hospedeiro e a velocidade do veículo hospedeiro permite que as áreas de detecção sejam ajustadas em uma variação adequada que corresponda às condições de percurso do veículo hospedeiro.
[098] Ainda, quando foi determinado que o veículo hospedeiro esteja mudando de direção na etapa S203, a unidade de ajuste de área de detecção 34 calcula o raio de virada atual do veículo hospedeiro na etapa S211. O método para calcular o raio de virada atual do veículo hospedeiro não está particularmente limitado, e, na presente modalidade, o raio de virada atual do veículo hospedeiro pode ser calculado na maneira descrita abaixo.
[099] Em outras palavras, a unidade de ajuste de área de detecção 34 decide o raio de virada atual com base no raio de virada calculado na etapa S203. Especificamente. A unidade de ajuste de área de detecção 34 refere-se à informação de momento e prevê o raio de virada atual com base no raio de virada que existia até o decorrer de um período de tempo predeterminado conforme previsto na previsão de estado de virada previsto da etapa S203. A unidade de ajuste de área de detecção 34 compara o raio de virada atual previsto com o raio de virada calculado na fórmula 1 observada acima, e calcula a probabilidade (isto é, o grau de plausibilidade) com relação ao raio de virada atual previsto. A unidade de ajuste de área de detecção 34 então decide o raio de virada após decorrer de um período de tempo predeterminado conforme previsto na previsão de estado de virada a ser o último raio de virada quando a probabilidade está em um valor de avaliação predeterminado ou maior, e, de modo inverso, decide os cálculos do raio de virada usando a fórmula 1 observada acima como o último raio de virada quando a probabilidade é menor do que o valor de avaliação predeterminado.
[0100] Na etapa S212, a unidade de ajuste de área de detecção 34 decide a quantidade pela qual as áreas de detecção devam ser ampliadas para trás com base no último raio de virada especificado na etapa S211, e amplia e ajusta as áreas de detecção A1, A2 pela quantidade decidida maior do que a variação ajustada antecipadamente.
[0101] Especificamente, a unidade de ajuste de área de detecção 34 reduz a quantidade pela qual as áreas de detecção devam ser ampliadas para trás de modo comensurável a um raio de virada menor de maneira que as áreas de detecção não entrem na pista na qual o veículo hospedeiro esteja percorrendo, conforme ilustrado na Figura 13(a). A unidade de ajuste de área de detecção 34 possui mapas ou fór- mulas computacionais que indicam a correlação entre o raio de virada e as áreas de detecção A1, A2 que são modificadas de acordo com o raio de virada, e ajusta a quantidade pela qual as áreas de detecção A1, A2 são modificadas usando os mapas ou fórmulas computacionais.
[0102] Na etapa S213, a unidade de ajuste de área de detecção 34 determina se um veículo adjacente ainda está sendo detectado. Por exemplo, quando é determinado que o primeiro veículo adjacente V2 ainda está sendo detectado em uma área de detecção, e o processo permanece na etapa S213, conforme ilustrado na Figura 11(A), e, por outro lado, quando o primeiro veículo adjacente não é mais detectado, conforme ilustrado na Figura 11(B), o processo prossegue para a etapa S214. Quando um segundo veículo adjacente foi detectado antes do primeiro veículo adjacente não ser mais detectado, é determinado se o segundo veículo adjacente ainda está sendo detectado. Desse modo, é possível detectar adequadamente um terceiro veículo adjacente seguindo o segundo veículo adjacente.
[0103] Na etapa S214, a unidade de ajuste de área de detecção 34 avalia se já decorreu um período de tempo predeterminado (por exemplo, dois segundos) após um veículo adjacente não se mais detectado nas áreas de detecção. Quando já decorreu um período de tempo predeterminado, o processo permanece na etapa S214 até que tenha decorrido um período de tempo predeterminado, e quando já decorreu um período de tempo predeterminado, o processo prossegue para a etapa S215. A unidade de ajuste de área de detecção 34 estreita gradualmente as áreas de detecção para frente com respeito à direção do avanço do veículo em uma velocidade mais baixa do que a velocidade na qual as áreas de detecção são ampliadas e finalmente retorna as áreas de detecção para seus tamanhos originais antes de serem ampliadas.
[0104] Aqui, a Figura 15 é um gráfico que ilustra um exemplo da largura das áreas de detecção na direção do avanço do veículo hospedeiro ajustado na presente modalidade. Por exemplo, no exemplo situacional ilustrado na Figura 15, quando o primeiro veículo adjacente V2 é detectado nas áreas de detecção A1, A2 no momento t1 (etapa S201 = Sim), conforme ilustrado na Figura 11(A), e o primeiro veículo adjacente V2 foi avaliada como passando o veículo hospedeiro V1 (etapa S202 = Sim), a largura das áreas de detecção na direção do avanço aumenta para trás a partir de w1 e w2 (w2 > w1), conforme ilustrado na Figura 11(B) (etapas S206, S207, S209, S210).
[0105] A unidade de ajuste de área de detecção 34 então determina se o primeiro veículo adjacente V2 está sendo detectado após as áreas de detecção A1, A2 terem sido ampliadas no tempo t1 (etapa S213). No exemplo ilustrado na Figura 15, a primeiro veículo adjacente avançado V2 não é mais detectado no tempo t2, e as áreas de detecção são gradualmente estreitadas para frente a partir do tempo t2 + n no qual um tempo predeterminado n tenha decorrido do tempo t2 (etapa S214). Ainda, no exemplo situacional ilustrado na Figura 15, a largura na direção do avanço das áreas de detecção é finalmente retornada, no tempo t3, para w1 antes das áreas de detecção A1, A2 serem ampliadas.
[0106] Desta maneira, levando as áreas de detecção ampliadas para trás por um período de tempo predeterminado após o primeiro veículo adjacente avançado V2 não ser mais detectado, permite que um segundo veículo adjacente V2’ aproxime-se do veículo hospedeiro seja adequadamente detectado mesmo quando o primeiro veículo adjacente V2 e o segundo veículo adjacente V2’ estão afastados. Ainda, quando já decorreu um período de tempo predeterminado após o primeiro veículo adjacente avançado V2 não ser mais detectado, estreitando gradualmente as áreas de detecção A1, A2 para trás permite que o segundo veículo adjacente V21 aproxime-se no veículo hospedeiro para ser detectado com maior confiabilidade em comparação a quando as áreas de detecção A1, A2 são estreitadas em uma única etapa.
[0107] O período de tempo predeterminado acima mencionado n pode ser modificado de acordo com a velocidade de movimento relativo do veículo adjacente V2 com relação ao veículo hospedeiro V1. Por exemplo, a unidade de ajuste de área de detecção 34 pode ser configurada de modo a prever que a velocidade de movimento do segundo veículo adjacente V2’ é maior em modo comensurável a uma velocidade de movimento relativo maior do primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1 e que o segundo veículo adjacente irá logo alcançar o veículo hospedeiro, e criar o tempo predeterminado n. Alternativamente, é possível usar a configuração na qual é previsto que o tempo do veículo adjacente que permanece atrás do veículo hospedeiro é mais curto de modo comensurável a uma velocidade de movimento relativo maior do veículo adjacente V2 com relação ao veículo hospedeiro V1, e reduzir o tempo predeterminado n. Portanto, é possível usar uma configuração na qual é considerada a velocidade do veículo hospedeiro e é previsto que o segundo veículo adjacente V2’ não irá alcançar logo o veículo hospedeiro V1 quando a velocidade do veículo hospedeiro é suficientemente alta e a distância entre o primeiro veículo adjacente V2 e o segundo veículo adjacente V2’ é grande, e o tempo predeterminado n não aumenta, mesmo quando a velocidade de movimento relativo do primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1 é alta. Desta maneira, o ajuste do tempo predeterminado n de acordo com o estado de percurso do veículo hospedeiro permite que o segundo veículo adjacente V2’ seja adequadamente detectado.
[0108] Conforme detectado acima, na presente modalidade, uma imagem de diferença PD1 é gerada com base na diferença entre as imagens de vista aérea obtidas em momentos diferentes, o número de pixels que indica uma diferença predeterminada na imagem de diferença PD1 é contado para formar uma distribuição de frequência que, desse modo, gera uma forma de onda de diferença, e um veículo adjacente presente na pista adjacente é detectado com base na forma de onda de diferença gerada. Além disso, na presente modalidade, é determinado se o veículo adjacente passou o veículo hospedeiro, e então foi determinado que o veículo adjacente tenha passado o veículo hospedeiro, as áreas de detecção A1, A2 são ampliadas para trás da direção do avanço do veículo hospedeiro. Na presente modalidade, um primeiro veículo adjacente V2 é, por meio disso, detectado em uma situação na qual dois veículos adjacentes estão percorrendo em uma maneira consecutiva, conforme ilustrado na Figura 11(A), e quando foi determinado que o veículo hospedeiro V1 tenha passado pelo primeiro veículo adjacente V2, a área de detecção é ampliada para trás com respeito à direção do avanço do veículo V1, conforme ilustrado na Figura 11(B), por meio do que o segundo veículo adjacente V2’ pode ser detectado, e o motorista pode, desse modo, ser notificado que um segundo veículo adjacente V2’ está presente atrás do veículo hospedeiro. Como resultado, é possível impedir efetivamente uma situação na qual o primeiro veículo adjacente V2 tenha passado o veículo hospedeiro V1, por meio do que o motorista determina que um veículo adjacente não está presente atrás do veículo hospedeiro, o veículo hospedeiro faz uma mudança de pista, e o veículo hospedeiro V1 e o segundo veículo adjacente V2’ aproximam-se. <<Modalidade 2>>
[0109] Em seguida, está descrito o dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade. O dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade é o mesmo que a primeira modalidade, exceto que um computador 30a é fornecido em lugar do computador 30 da presente modalidade, conforme ilustrado na Figura 16, e a operação é como descrita abaixo. Aqui, a Figura 16 e uma vista em bloco que ilustra os detalhes do computador 30a de acordo com a segunda modalidade.
[0110] O dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade é provido de uma câmera 10 e um computador 30a, confor- me ilustrado na Figura 16. O computador 30a é provido de uma unidade de conversão de ponto de vista 31, uma unidade de cálculo de diferença de luminância 35, uma unidade de detecção de linha de borda 36, uma unidade de detecção de objeto tridimensional 33a, e uma unidade de ajuste de área de detecção 34. A configuração do dispositivo de detecção de objeto tridimensional 1a de acordo com a segunda modalidade está descrita abaixo.
[0111] A Figura 17 é uma vista que ilustra a variação de imagem da câmera 10 na Figura 16, a Figura 17(a) é uma vista plana, e a Figura 17(b) é uma vista em perspectiva em espaço reala para trás do veículo hospedeiro V1. A câmera 10 é ajustada para um ângulo de visão predeterminado a, e o lado traseiro do veículo hospedeiro V1 incluído no ângulo de visão predeterminado a é capturado, conforme ilustrado na Figura 17(a). O ângulo de visão da câmera 10 é ajustado de maneira que as pistas adjacentes sejam incluídas na variação de captura da câmera 10 além da pista na qual o veículo hospedeiro está percorrendo, na mesma maneira conforme ilustrado na Figura 2.
[0112] As áreas de detecção A1, A2 no presente exemplo são trapezoidais em uma vista plana (estado de vista aérea), e a posição, o tamanho, e formato das áreas de detecção A1, A2 são decididos com base nas distâncias d1 a d4. As áreas de detecção A1, A2 do exemplo ilustrado no desenho não estão limitadas a serem trapezoidais, e podem também ser retangulares ou de outro formato em um estado de vista aérea, conforme ilustrado na Figura 2.
[0113] Aqui, a distância d1 é a distância do veículo hospedeiro V1 para as linhas de solo L1, L2. As linhas de solo L1, L2 referem-se a uma linha na qual um objeto tridimensional, que está presente em uma pista adjacente à pista na qual o veículo hospedeiro V1 está percorrendo, está em contato com o solo. Na presente modalidade, um objeto deve detectar um veículo adjacente V2 ou coisa parecida (incluindo dois veículos com roda ou similar) que percorre na pista esquerda ou direita atrás do veículo hospedeiro V1 e adjacente à pista do veículo hospedeiro V1. Portanto, a distância V1, que é a posição das linhas de solo L1, L2 do veículo adjacente V2, pode ser decidida de modo a ser substancialmente fixada a partir da distância d11 de um veículo hospedeiro V1 para uma linha branca W e a distância d12 a partir da linha branca W para a posição na qual o veículo adjacente V2 é previsto a percorrer.
[0114] A distância d1 não está limitada a ser decidida fixamente, e pode ser variável. Nesse caso, o computador 30a reconhece a posição da linha branca W com relação ao veículo hospedeiro V1 usando o reconhecimento da linha branca ou outra técnica, e a distância d11 é decidida com base na posição da linha branca W reconhecida. A distância d1 é, desse modo, ajustada de modo variável usando a distância decidida d11. Na presente modalidade descrita abaixo, a posição na qual o veículo adjacente V2 está percorrendo (a distância d12 a partir da linha branca W) e a posição na qual o veículo hospedeiro V1 está percorrendo (a distância d11 a partir da linha branca W) é mais previsível e a distância d1 é decidida fixamente.
[0115] Uma distância d2 é a distância que se estende a partir da parte de extremidade traseira do veículo hospedeiro V1 na direção do avanço do veículo. A distância d2 é decidida de maneira que as áreas de detecção A1, A2 estejam acomodadas dentro pelo menos o ângulo de visão a da câmera 10. Na presente modalidade em particular, a distância d2 é ajustada de modo a estar em contato com uma variação dividida dentro do ângulo de visão a. A distância d3 é decidida com base no tamanho do objeto tridimensional a ser detectado. Na presente modalidade, o objeto a ser detectado é um veículo adjacente V2 ou similares, e, portanto, a distância d3 é ajustada para uma extensão que inclui o veículo adjacente V2.
[0116] A distância d4 indica a altura, que foi ajustada de maneira que os pneus do veículo adjacente V2 ou coisa parecida sejam incluídos em espaço real, conforme ilustrado na Figura 17(b). Em uma imagem de vista aérea, a distância d4 é a extensão ilustrada na Figura 17(a). A distância d4 pode ser também uma distância que não inclua pistas também adjacentes às pistas esquerda e direita na imagem de vista aérea (isto é, pistas adjacentes duas pistas afastadas). Isto se deve ao fato de que quando as pistas duas pistas afastadas da pista do veículo hospedeiro V1 estão incluídas, não é mais possível distinguir se um veículo adjacente V2 está presente nas pistas adjacentes à esquerda e direita da pista na qual o veículo hospedeiro V1 está percorrendo, ou se um veículo adjacente está presente em uma pista adjacente duas pistas afastadas.
[0117] Conforme descrito acima, as distâncias d1 a d4 são decididas, e a posição, tamanho e formato das áreas de detecção A1, A2 são decididas por meio disso. Especificamente, a posição do lado superior b1 das áreas de detecção A1, A2 que formam um trapezoide é decidida pela distância d1. A posição de partida C1 do lado superior b1 é decidida pela distância d2. A posição de extremidade C2 do lado superior b1 é decidida pela distância d3. O lado lateral b2 das áreas de detecção A1, A2 que formam um trapezoide é decidido por uma linha reta L3 que se estende a partir da câmera 10 em direção à posição de partida C1. Similarmente, o lado lateral b3 das áreas de detecção A1, A2 que formam um trapezoide é decidido por uma linha reta L4 que se estende a partir da câmera 10 em direção à posição de extremidade C2. A posição do lado inferior b4 das áreas de detecção A1, A2 que foram um trapezoide é decidida pela distância d4. Desta maneira, as áreas circundadas pelos lados b1 a b4 são as áreas de detecção A1, A2. As áreas de detecção A1, A2 são quadrados regulares (retângulos) em espaço real atrás do veículo hospedeiro V1, conforme ilustrado na Figura 17(b).
[0118] Retornando à Figura 16, a unidade de conversão de ponto de vista 31 aceita a entrada dos dados de imagem capturados de uma área predeterminada capturada pela câmera 10. A unidade de conversão de ponto de vista 31 converte o ponto de vista dos dados de imagem capturados inseridos nos dados de imagem de vista aérea, que é um estado de vista aérea. Um estado de vista aérea é um estado de visualização a partir do ponto de vista de uma câmera imaginária que está olhando de cima para baixo, por exemplo, verticalmente para baixo (ou ligeiramente inclinada para baixo). A conversão do ponto de vista pode ser realizada usando a técnica descrita, por exemplo, no Pedido de Patente Japonês Aberto ao Público 2008219063.
[0119] A unidade de cálculo de diferença de luminância 35 calcula as diferenças de luminância nos dados de imagem de vista aérea, que foram submetidos à conversão de ponto de vista pela unidade de conversão de ponto de vista 31, para detectar as bordas de um objeto tridimensional incluído na imagem de vista aérea. A unidade de cálculo da diferença de luminância 35 calcula, para cada da pluralidade de posições ao longo de uma linha imaginária perpendicular que se estende ao longo da direção perpendicular em espaço real, a diferença de luminância entre dois pixels próximos a cada posição. A unidade de cálculo de diferença de luminância 35 é capaz de calcular a diferença de luminância por um método para ajustar uma única linha imaginária perpendicular que se estende na direção perpendicular em espaço real, ou um método para ajustar duas linhas imaginárias perpendiculares.
[0120] Abaixo está descrito o método específico para ajustar duas linhas imaginárias perpendiculares. A unidade de cálculo de diferença de luminância 35 ajusta uma primeira linha imaginária perpendicular que corresponde a um segmento de linha que se estende na direção perpendicular em espaço real, e uma segunda linha imaginária perpendicular que é diferente da primeira linha imaginária perpendicular e que corresponde ao segmento de linha que se estende na direção perpendicular em espaço real. A unidade de cálculo de diferença de luminância 35 determina a diferença de luminância entre um ponto na primeira linha imaginária perpendicular e um ponto na segunda linha imaginária perpendicular de modo contínuo ao longo da primeira linha imaginária perpendicular e da segunda linha imaginária perpendi cular. A operação da unidade de cálculo de diferença de luminância 35 está descrita em detalhe abaixo.
[0121] A unidade de cálculo de diferença de luminância 35 ajusta uma primeira linha imaginária perpendicular La (descrita abaixo como linha de atenção La) que corresponde a um segmento de linha que se estende na direção perpendicular em espaço real e que passa através da área de detecção A1, conforme ilustrado na Figura 18(a). A unidade de cálculo de diferença de luminância 35 ajusta uma segunda linha imaginária perpendicular Lr (referida abaixo como linha de referência Lr) que é diferente da linha de atenção La, corresponde ao segmento de linha que se estende na direção perpendicular em espaço real, e passa através da área de detecção A1. Aqui, a linha de referência Lr é ajustada para uma posição em uma distância a partir da linha de atenção La por uma distância predeterminada em espaço real. As linhas que correspondem aos segmentos de linha que se estendem na direção perpendicular em espaço real são linhas que se espalham na direção radial a partir da posição Ps da câmera 10 em uma imagem de vista aérea. Essas linhas que se espalham na direção radial são linhas que seguem a direção de queda do objeto tridimensional quando convertido para uma vista aérea.
[0122] A unidade de cálculo de diferença de luminância 35 ajusta um ponto de atenção Pa na linha de atenção La (um ponto na primeira linha imaginária perpendicular). A unidade de cálculo de diferença de luminância 35 ajusta um ponto de referência Pr na linha de referência Lr (um ponto na segunda linha imaginária perpendicular). A linha de atenção La, o ponto de atenção Pa, a linha de referência Linha de referência, e o ponto de referência Ponto de referência possuem a relação em espaço real ilustrado na Figura 18(b). É evidente a partir da Figura 18(b) que a linha de atenção La e a linha de referência são linhas que se estendem na direção perpendicular em espaço real, e o ponto de atenção Pa e o ponto de referência Ponto de referência Pr são pontos ajustados substancialmente para a mesma altura em espaço real. Não é necessariamente requerido que o ponto de atenção Pa e o ponto de referência Pr sejam mantidos rigorosamente na mesma altura, e é permitido um determinado número de erros para o ponto de atenção Pa e o ponto de referência Pr para serem considerados na mesma altura.
[0123] A unidade de cálculo de diferença de luminância 35 determina a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr. Se a diferença de luminância entre o ponto de atenção Pa e o ponto de referência Pr for maior, é possível que haja uma borda entre o ponto de atenção Pa e o ponto de referência Pr. Na segunda modalidade em particular, um linha imaginária perpendicular é ajustada como um segmento de linha que se estende na direção perpendicular em espaço real com relação à imagem de vista aérea, para detectar um objeto tridi-mensional presente nas áreas de detecção A1, A2. Portanto, há grande possibilidade de uma borda de um objeto tridimensional no local onde a linha de atenção La tenha sido ajustada quando a diferença de luminância entre a linha de atenção La e a linha de referência for alta. Portanto, a unidade de detecção de linha de borda 36 ilustrada na Figura 16 detecta uma linha de borda com base na diferença de lumi- nância entre o ponto de atenção Pa e o ponto de referência Pr.
[0124] Esse ponto será descrito em maior detalhe. A Figura 19 é uma vista para descrever a operação detalhada da unidade de cálculo de diferença de lumi- nância 35. A Figura 19(a) ilustra uma imagem de vista aérea do estado de vista aérea, e a Figura 19(b) é uma vista ampliada de uma parte B1 da imagem de vista aérea ilustrada na Figura 19(a). Na Figura 19, apenas a área de detecção A1 está ilustrada e descrita, mas a diferença de luminância é calculada usando o mesmo proce-dimento para a área de detecção A2.
[0125] Quando um veículo adjacente V2 está sendo exibido na imagem capturada, capturada pela câmera 10, o veículo adjacente V2 aparece na área de detecção A1 na imagem de vista aérea, conforme ilustrado na Figura 19(a). A linha de atenção La é ajustada em uma parte de borracha de um pneu do veículo adjacente V2 na imagem de vista aérea na Figura 19(b), conforme ilustrado na vista ampliada da área B1 na Figura 19(a). Nesse estado, a unidade de cálculo de diferença de lu- minância 35 ajusta a linha de referência. A linha de referência é ajustada ao longo da direção perpendicular em uma posição ajustada em uma distância predeterminada em espaço real a partir da linha de atenção La. Especificamente, no dispositivo de detecção de objeto tridimensional 1a de acordo com a presente modalidade, a linha de referência é ajustada em uma posição em uma distância de 10 cm afastada em espaço real da linha de atenção La. A linha de referência é, por meio disso, ajustada na roda do pneu do veículo adjacente v2 ajustada, por exemplo, em uma distância que corresponde a 10 cm da borracha do pneu do veículo adjacente V2 na imagem de vista aérea.
[0126] Em seguida, a unidade de cálculo de diferença de luminância 35 ajusta uma pluralidade de pontos de atenção Pa1 a PaN na linha de atenção La. Na Figura 19(b), seis pontos de atenção Pa1 a Pa6 (referidos abaixo como ponto de atenção Pai ao indicar um ponto arbitrário) são ajustados por conveniência de descrição. Um número arbitrário de pontos de atenção Pa pode ser ajustado na linha de atenção La. Na descrição abaixo, os N pontos de atenção Pa são ajustados na linha de atenção La.
[0127] A unidade de cálculo de diferença de luminância 35 subsequentemente ajusta os pontos de referência PrN de modo a ter a mesma altura como os pontos de atenção Pa1 a PaN em espaço real. A unidade de cálculo de diferença de lumi- nância 35 calcula a diferença de luminância entre os pares do ponto de atenção Pa e o ponto de referência Pr na mesma altura. A unidade de cálculo de diferença de luminância 35 por meio disso calcula a diferença de luminância entre dois pixels para cada da pluralidade de posições (1 - N) ao longo da linha imaginária perpendicular que se estende na direção perpendicular em espaço real. A unidade de cálculo de diferença de luminância 35 calcula a diferença de luminância entre, por exemplo, um primeiro ponto de atenção Pa1 e um primeiro ponto de referência Prl, e calcula a diferença de luminância entre um segundo ponto de atenção Pa2 e um segundo ponto de referência Pr2. A unidade de cálculo de diferença de luminância 35 por meio disso determina a diferença de luminância de modo contínuo ao longo da linha de atenção La e a linha de referência Linha de referência. Em outras palavras, a unidade de cálculo de diferença de luminância 35 sequencialmente determina a diferença de luminância entre o terceiro ao N pontos de atenção Pa3 a PaN e dos terceiro aos N pontos de referência Pr3 a PrN.
[0128] A unidade de cálculo de diferença de luminância 35 repete o processo de ajuste da linha de referência Lr acima descrita, do ajuste do ponto de atenção Pa, ajuste do Ponto de referência Pr, e calcula a diferença de luminância enquanto desloca a atenção da linha de atenção La dentro da área de detecção A1. Em outras palavras, a unidade de cálculo de diferença de luminância 35 executa repetidamente o processo acima descrito enquanto muda as posições da linha de atenção La e da linha de referência Lr pela mesma distância em espaço real ao longo da direção na qual a linha de solo L1 se estende. A unidade de cálculo de diferença de luminância 35, por exemplo, ajusta a linha que era a linha de referência Lr no processo anterior para ser a linha de atenção La, ajusta a linha de referência Lr com relação à linha de atenção La, e determina sequencialmente a diferença de luminância.
[0129] Desta maneira, na segunda modalidade, a determinação da diferença de luminância a partir do ponto de atenção Pa na linha de atenção La e o ponto de referência Pr na linha de referência Linha de referência Lr, que estão substancialmente na mesma altura no espaço real, permite que a diferença de luminância seja distintamente detectada quando uma borda que se estende na direção perpendicular está presente. A precisão para detectar um objeto tridimensional pode se aumentada sem afetar o processo para detectar o objeto tridimensional, mesmo quando o objeto tridimensional é ampliado de acordo com a altura da superfície da rodovia pela conversão para uma imagem de vista aérea para comparar a luminância entre as linhas imaginárias perpendiculares que se estendem na direção perpendicular em espaço real.
[0130] Voltando à Figura 16, a unidade de detecção de linha de borda 36 detecta a linha de borda a partir da diferença de luminância contínua calculada pela unidade de cálculo de diferença de luminância 35. Por exemplo, no caso ilustrado na Figura 19(b), o primeiro ponto de atenção Pa1 e o primeiro ponto de referência Pr1 são posicionados na mesma parte de pneu, e a diferença de luminância é, portanto, pequena. Por outro lado, o segundo ao sexto ponto de atenção Pa2 a Pa6 são posicionados nas partes de borracha do pneu, e do segundo ao sexto ponto de referência Pr2 a Pr6 são posicionados na parte de garra do pneu. Portanto, a diferença de luminância entre do segundo ao sexto ponto de atenção Pa2 a Pa6 e do segundo ao sexto ponto de re Pr2 a Pr6 é maior. Portanto, a unidade de detecção de linha de borda 36 é capaz de detectar a presença de uma borda entre o segundo e o sexto ponto Pa2 a Pa6 e do segundo ao sexto ponto de referência Pr2 a Pr6 onde a dife-rença de luminância é alta.
[0131] Especificamente, quando deva ser detectada uma linha de borda, a unidade de detecção de linha de borda 36 primeiro designa um atributo ao ith ponto de atenção Pai a partir da diferença de luminância entre o ith ponto de atenção Pai (coordenadas (xi, Yi)) ao ith ponto de referência Pri (coordenadas (xi’, yi’)) de acordo com a fórmula 1 observada abaixo. [Fórmula 2]
Figure img0002
s(xi, Yi) = 0 quando o acima não é verdadeiro.
[0132] Na fórmula 2 acima, t representa um valor limite predeterminado, I(xi, Yi) representa o vali do ith ponto de referência Pai, e I(xi’, yi’) representa o valor de luminância do ith ponto de referência Pri. De acordo com a fórmula 2, o atributo s(xi, yi) do ponto de atenção Pai é maior do que o valor de luminância obtido pela adição do valor limite t para o ponto de referência Pri. Por outro lado, o atributo s(xi, yi) do ponto de atenção Pai é ‘-1’ quando o valor de luminância do ponto de atenção Pai é menor do que o valor de luminância obtido pela subtração do valor limite t do ponto de referência Pri. O atributo s(xi, yi) do ponto de atenção Pai é ‘0’ quando o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri estão em uma relação diferente daquela mencionada acima.
[0133] Em seguida, a unidade de detecção de linha de borda 36 avalia se a linha de atenção La é uma linha de borda da continuidade c(xi,Yi) do atributo s ao longo da linha de atenção La com base na fórmula 3 que se segue: [Fórmula 3]
Figure img0003
quando o acima não é verdadeiro.
[0134] A continuidade c(xi, yi) é ‘1’ quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção Pa + 1 adjacente são os mesmos. A continuidade c(xi, yi) é ‘0’ quando o atributo s(xi, yi) do ponto de atenção Pai e o atributo s(xi + 1, yi + 1) do ponto de atenção Pa + 1 adjacente não são os mesmos.
[0135] Em seguida, a unidade de detecção de linha de borda 36 determina a soma das continuidades c de todos os pontos de atenção Pa na linha de atenção La. A unidade de detecção de linha de borda 36 divide a soma das continuidades c, desse modo, determinado pelo número N dos pontos de atenção Pa para, por meio disso, normalizar a continuidade c. A unidade de detecção de linha de borda 36 determina a linha de atenção La a ser uma linha de borda quando o valor normalizado tiver excedido um valor limite θ. O valor limite θ é ajustado antecipadamente pela experimentação ou por outros meios.
[0136] Em outras palavras, a unidade de detecção de linha de borda 36 determina se a linha de atenção La é uma linha de borda baseada na fórmula 3 observada acima. A unidade de detecção de linha de borda 36 então determina se todas as linhas de atenção La desenhadas na área de detecção A1 são linhas de borda. [Fórmula 4]
Figure img0004
[0137] Desta maneira, na segunda modalidade, é atribuído um atribuído ao ponto de atenção Pa com base na diferença de luminância entre o ponto de atenção Pa na linha de atenção La e o ponto de referência Pr na linha de referência Lr, e é determinado se a linha de atenção La é uma linha baseada na continuidade c dos atributos ao longo da linha de atenção La. Portanto, os limites entre as áreas que possuem alta luminância e áreas que possuem baixa luminância são detectadas como linhas de borda, e as bordas podem ser detectadas de acordo com os sentidos naturais de um humano. Os resultados do acima serão descritos. A Figura 20 é uma vista que ilustra um exemplo de imagem para descrever o processamento da unidade de detecção de linha de borda 36. Esse exemplo de imagem é uma imagem na qual um primeiro padrão de faixa 101 e um segundo padrão de faixa 102 são adjacentes entre si, o primeiro padrão de faixa 101 indicando um padrão de faixa no qual as áreas de alta luminância e as áreas de baixa são repetidas, e o segundo padrão de faixa 102 que indica um padrão de faixa no qual as áreas de baixa luminância e as áreas de alta luminância são repetidas. Ainda, no exemplo de imagem, as áreas do primeiro padrão de faixa 101 no qual a luminância é alta, e as áreas do segundo padrão de faixa 102 nas quais a luminância é baixa são adjacentes entre si, e as áreas do primeiro padrão de faixa 101 nas quais a luminância é baixa, e as áreas do segundo padrão de faixa 102 nas quais a luminância é alta são adjacentes entre si. O local 103 posicionado no limite entre o primeiro padrão de faixa 101 e o segundo padrão de faixa 102 tendem a não ser percebidos como uma borda pelos sentidos humanos.
[0138] Em contra partida, como as áreas de baixa luminância e as áreas de alta luminância são adjacentes entre si, o local 103 é reconhecido como uma borda quando uma borda é detectada apenas pela diferença de luminância. Contudo, a unidade de detecção de linha de borda 36 avalia o local 103 a ser uma linha de borda apenas quando há continuidade nos atributos da diferença de luminância. Portanto, a unidade de detecção de linha de borda 36 é capaz de eliminar avaliação errada na qual o local 103, que não é reconhecido como uma linha de borda pelos sentidos humanos, é reconhecido como uma linha de borda, e as bordas podem ser detectadas de acordo com os sentidos humanos.
[0139] Voltando à Figura 16, o dispositivo de detecção de objeto tridimensional 33a detecta um objeto tridimensional com base na quantidade de linhas de borda detectada pela unidade de detecção de linha de borda 36. Conforme descrito acima, o dispositivo de detecção de objeto tridimensional 1a de acordo com a presente modalidade detecta uma linha de borda que se estende na direção perpendicular em espaço real. A detecção de muitas linhas de borda que se estendem na direção perpendicular indica que há uma grande probabilidade da presença de um objeto tridi-mensional nas áreas de detecção A1, A2. Portanto, o dispositivo de detecção de objeto tridimensional 33a detecta um objeto tridimensional com base na quantidade de linhas de borda detectadas pela unidade de detecção de linha de borda 36. Especificamente, o dispositivo de detecção de objeto tridimensional 33a determina se a quantidade de linhas de borda detectada pela unidade de detecção de linha de borda 36 é um valor limite predeterminado β ou maior, e quando a quantidade de linhas de borda é um valor limite predeterminado β ou maior, as linhas de borda detectadas pela unidade de detecção de linha de borda 36 são determinadas a serem linhas de borda de um objeto tridimensional, e um objeto tridimensional com base nas linhas de borda é, por meio disso, detectado para ser um veículo adjacente V2.
[0140] Além disso, antes de detectar o objeto tridimensional, o dispositivo de detecção de objeto tridimensional 33a avalia se as linhas de borda detectadas pela unidade de detecção de linha de borda 36 estão corretas. O dispositivo de detecção de objeto tridimensional 33a avalia se uma mudança na luminância nas linhas de borda é um valor limite predeterminado Tb ou maior ao longo das linhas de borda da imagem de vista aérea. Quando a mudança na luminância nas linhas de borda na imagem de vista aérea é um valor limite predeterminado Tb ou maior, as linhas de borda são determinadas como tendo sido detectadas por avaliação errônea. Por outro lado, quando a mudança na luminância nas linhas de borda na imagem de vista aérea é um menor do que um valor limite predeterminado Tb, é avaliado que as linhas de borda estão corretas. O valor limite Tb é ajustado antecipadamente por experimentação ou por outros meios.
[0141] A Figura 21 é uma vista que ilustra a distribuição de luminância na linha de borda, a Figura 21(a) ilustra a linha de borda e a distribuição de luminância quando está presente um veículo adjacente V2 como um objeto tridimensional na área de detecção A1, e a Figura 21(b) ilustra a linha de borda e a distribuição de lu- minância quando um objeto tridimensional não está presente na área de detecção A1.
[0142] Conforme ilustrado na Figura 21(a), é presumido que tenha sido determinado que a linha de atenção La ajustada na parte de borracha do veículo adjacente V2 em uma linha de borda seja a imagem de vista aérea. Nesse caso, a mu- dança na luminância na linha de atenção La na imagem de vista aérea é gradual. Isso se deve à conversão da imagem capturada pela câmera 10 em ponto de vista para uma imagem de vista aérea, por meio do que o pneu do veículo adjacente é ampliado dentro da imagem de vista aérea. Por outro lado, a linha de atenção La ajustada na parte de caractere branco “50” desenhada na superfície da rodovia na imagem de vista aérea é presumida como erroneamente avaliada como uma linha de borda, conforme ilustrado na Figura 21(b). Nesse caso, a mudança na luminância na linha de atenção La na imagem de vista aérea possui ondulações consideráveis. Isso se deve ao fato de que a rodovia e outras partes de baixa luminância são misturadas com as partes de alta luminância nos caracteres brancos na linha de borda.
[0143] O dispositivo de detecção de objeto tridimensional 33a avalia se uma linha de borda foi detectada por uma avaliação errônea com base nas diferenças na distribuição de luminância na linha de atenção La, conforme descrito acima. O dispositivo de detecção de objeto tridimensional 33a determina que a linha de borda foi detectada por avaliação errônea quando a mudança na luminância ao longo da linha de borda é um valor limite predeterminado Tb ou maior, e determina que a linha de borda não é ocasionada por um objeto tridimensional. Uma redução na precisão para detecção de objeto tridimensional é, por meio disso, anulada quando os caracteres brancos tais como “50” na superfície da rodovia, vegetação à margem da rodovia, e similares são avaliados como linhas de borda. Por outro lado, o dispositivo de detecção de objeto tridimensional 33a determina que uma linha de borda é a linha de borda de um objeto tridimensional e determina que um objeto tridimensional está presente quando as mudanças na luminância ao longo da linha de borda são menores do que um valor limite predeterminado Tb.
[0144] Especificamente. O dispositivo de detecção de objeto tridimensional 33a calcula a mudança na luminância da linha de borda usando a fórmula 5 ou 6 observada abaixo. A mudança na luminância da linha de borda corresponde ao valor da avaliação em espaço real na direção perpendicular. A fórmula 5 avalia a distribuição de luminância usando o valor total do quadrado da diferença entre o ith valor de luminância I(xi, Yi) e o ith + 1 valor de luminância I(xi +, 1, Yi + 1) na linha de atenção La. A fórmula 6 avalia a distribuição de luminância usando o valor total do valor absoluto da diferença entre o ith valor de luminância I(xi, Yi) e o ith + 1 valor de luminân- cia I(xi +, 1, Yi + 1) adjacente na linha de atenção La. [Fórmula 5]
Figure img0005
[Fórmula 6]
Figure img0006
[0145] Não é imposta nenhuma limitação no uso da fórmula 6, e também é possível binarizar um atributo b de um valor de luminância adjacente usando um valor limite t2, e então somar o atributo binarizado b de todos os pontos de atenção Pa, como na fórmula 7 observada abaixo. [Fórmula 7] Valor de avaliação na direção perpendicular equivalente = ∑b(xi, yi) onde b(xi, yi) = 1 quando |I(xi, yi) - I(xi + 1, yi + 1)| > t2 e b(xi, yi) = 0 quando o acima não é verdadeiro.
[0146] O atributo b(xi, yi) do ponto de atenção Pa(xi, yi) é ‘1’ quando o valor absoluto da diferença de luminância entre o valor de luminância do ponto de atenção Pai e o valor de luminância do ponto de referência Pri é maior do que um valor limite t2. Quando a relação acima não é verdadeira, o atributo b(xi, yi) do ponto de atenção Pai é ‘0’. O valor limite t2 é ajustado antecipadamente por experimentação ou por outros meios, de maneira que a linha de atenção La não seja avaliada como estando no mesmo objeto tridimensional. O dispositivo de detecção de objeto tridimensional 33a então soma o atributo b para todos os pontos de atenção Pa na linha de atenção La e determina o valor de avaliação na direção perpendicular equivalente para, por meio disso, avaliar se uma linha de borda é ocasionada por um objeto tridimensional e que um objeto tridimensional está presente.
[0147] Desse modo, a forma de onda de borda é um modo de informação de distribuição de pixel que indica uma predeterminada diferença de luminância, e a “informação de distribuição de pixel” na presente modalidade pode ser posicionada a informação que indica o estado de distribuição dos “pixels que possuem uma diferença de luminância e um valor limite predeterminado ou maior” conforme detectado ao longo da direção na qual o objeto tridimensional tomba quando a imagem capturada é convertida em ponto de vista para um imagem de vista aérea. Em outras pa-lavras, o dispositivo de detecção de objeto tridimensional 33a detecta um objeto tridimensional em uma imagem de vista aérea obtida pela unidade de conversão de ponto de vista 31, com base da informação de distribuição de pixel que possui uma diferença de luminância em um valor limite predeterminado ou maior ao longo da direção na qual o objeto tridimensional tomba quando o ponto de vista é corrigido para uma imagem de vista aérea.
[0148] A unidade de ajuste de área de detecção 34 determina se o veículo adjacente passou o veículo hospedeiro da mesma maneira como na primeira modalidade, e quando foi determinado que o veículo adjacente passou o veículo hospedeiro, as áreas de detecção A1, A2 são ampliadas para trás com respeito à direção do avanço do veículo.
[0149] Em seguida, será descrito o método para detectar um veículo adjacente de acordo com a segunda modalidade. A Figura 22 é um fluxograma que ilustra os detalhes do método para detectar um veículo adjacente de acordo com a segunda modalidade. Na Figura 22, o processo envolvido com a área de detecção A1 será descrito por conveniência, mas o mesmo processo é também executado para a área de detecção A2.
[0150] Primeiro, na etapa S301, as áreas de detecção A1, A2 para detectar o veículo adjacente são ajustadas da mesma maneira como na etapa S101 da primeira modalidade. Na etapa S301, as áreas de detecção ajustadas no processo de ajuste da área de detecção ilustrado na Figura 14 são ajustadas da mesma maneira como na primeira modalidade.
[0151] Na etapa S302, uma área predeterminada especificada pelo ângulo de visão a e a posição de fixação é capturada pela câmera 10, e os dados de imagem da imagem capturada, capturada pela câmera 10, é adquirida pelo computador 30a. Em seguida, a unidade de conversão de ponto de vista 31 converte o ponto de vista dos dados de imagem adquiridos e gera os dados de imagem de vista aérea na etapa S303.
[0152] Em seguida, na etapa S304, a unidade de cálculo de diferença de lu- minância 35 ajusta a linha de referência Lr e a linha de atenção La na área de detecção A1. Nesse momento, a unidade de cálculo de diferença de luminância 35 ajusta uma linha correspondente para uma linha que se estende na direção perpendicular em espaço real como a linha de atenção La, e ajusta, como a linha de referência Lr, uma linha que corresponde a uma linha que se estende na direção per-pendicular em espaço real e que é separada por uma distância predeterminada em espaço real a partir da linha de atenção La.
[0153] Em seguida, na etapa S305, a unidade de cálculo de diferença de lu- minância 35 ajusta uma pluralidade de pontos de atenção na linha de atenção La, e ajusta os pontos de referência Pr de maneira que os pontos de atenção Pa e os pontos de referência Pr estejam substancialmente na mesma altura em espaço real. Os pontos de atenção Pa e os pontos de referência Pr, desse modo, alinham-se, substancialmente na direção horizontal, e a linha de borda que se estende na direção perpendicular em espaço real é mais facilmente detectada. A unidade de cálculo de diferença de luminância 35 ajusta um determinado número de pontos de atenção Pa que não serão problemáticos durante a detecção de borda pela unidade de detecção de linha de borda 36.
[0154] Em seguida, na etapa S306, a unidade de cálculo de diferença de lu- minância 35 calcula a diferença de luminância entre os pontos de atenção Pa e os pontos de referência Pr na mesma altura em espaço real. A unidade de detecção de linha de borda 36 calcula o atributo s dos pontos de atenção Pa de acordo com a fórmula 2 descrita acima. Na etapa S307, a unidade de detecção de linha de borda 36 então calcula a continuidade c do atributo s dos pontos de atenção Pa de acordo com a fórmula 3. Na etapa S308, a unidade de detecção de linha de borda 36, além disso, avalia se um valor obtido pela normalização da soma da continuidade c é maior do que um valor limite θ de acordo com a fórmula 4. Quando foi determinado que o valor normalizado é maior do que o valor limite θ (etapa S308 = Sim), a unidade de detecção de linha de borda 36 detecta a linha de atenção La como a linha de borda na etapa S309. O processo então prossegue para a etapa S310. Quando foi determinado que o valor normalizado não é maior do que o valor limite θ (etapa S308 = Não), a unidade de detecção de linha de borda 36 não detecta que a linha de atenção La é uma linha de borda, e o processo prossegue para a etapa S310.
[0155] Na etapa S310, o computador 30a determina se os processos das etapas S304 a S310 foram executados para as linhas de atenção La que podem ser ajustadas na área de detecção A1. Quando foi determinado que os processos acima não tenham sido realizados para todas as linhas de atenção La (etapa S310 = Não), o processo retorna para etapa S304, ajusta uma nova linha de atenção La, e repete o processo através da etapa S311. Por outro lado, quando foi determinado que os processos tenham sido realizados para todas as linhas de atenção La (etapa S310 = Sim), o processo prossegue para a etapa S311.
[0156] Na etapa S311, o dispositivo de detecção de objeto tridimensional 33a calcula a mudança na luminância ao longo da linha de borda para cada linha de borda detectada na etapa S309. O dispositivo de detecção de objeto tridimensional 33a calcula a mudança na luminância das linhas de borda de acordo com qualquer uma das fórmulas 5, 6 e 7. Em seguida, na etapa S312, o dispositivo de detecção de objeto tridimensional 33a exclui, dentre as linhas de borda, as linhas de borda nas quais a mudança na luminância está em um valor limite predeterminado Tb ou maior. Em outras palavras, quando uma linha de borda que possui uma grande mudança na luminância não é avaliada como uma linha de borda correta, a linha de borda não é usada para detectar um objeto tridimensional. Conforme ilustrado acima, isso é feito para eliminar a detecção de caracteres na superfície de rodovia, na vegetação à margem da rodovia, e similares incluídos na área de detecção A1 como linhas de borda. Portanto, o valor limite predeterminado Tb é determinado por experimentação ou por outros meios antecipadamente, e é ajustado com base na mudança na lumi- nância que ocorre devido aos caracteres na superfície de rodovia, na vegetação à margem da rodovia, e similares. Por outro lado, o dispositivo de detecção de objeto tridimensional 33a determina uma linha de borda que possui uma mudança na lumi- nância que é menor do que um valor limite predeterminado Tb como a linha de borda de um objeto tridimensional, e, por meio disso, detecta o objeto tridimensional presente em um veículo adjacente.
[0157] Em seguida, na etapa S313, é determinado pela unidade de detecção de objeto tridimensional 33a se a quantidade de linhas de borda é um valor limite β ou mais alto. Quando foi avaliado que a quantidade de linhas de borda não é um valor limite β ou mais alto (etapa S313 = Sim), o dispositivo de detecção de objeto tridimensional 33a avalia na etapa S314 que um veículo adjacente está presente na área de detecção A1. Na etapa subsequente S315, o dispositivo de notificação 50 fornece notificação que um veículo adjacente está presente atrás do veículo hospe- deiro. Por outro lado, quando foi avaliado que a quantidade de linhas de borda não está em um valor limite β ou mais alto (etapa S313 = Não), o dispositivo de detecção de objeto tridimensional 33a avalia na etapa S316 que um veículo adjacente não está presente na área de detecção A1. Portanto, o processo ilustrado na Figura 22 é concluído.
[0158] Na segunda modalidade, o processo de ajuste da área de detecção ilustrado na Figura 14 é realizado em paralelo ao processo de detecção de veículo adjacente ilustrado na Figura 22, da mesma maneira como na primeira modalidade. A área de detecção do veículo adjacente ilustra na Figura 22 é realizada nas áreas de detecção ajustadas pelo processo de ajuste da área de detecção.
[0159] Conforme descrito acima, na segunda modalidade, a imagem capturada é convertida para uma imagem de vista aérea, e a informação de borda do objeto tridimensional é detectada a partir da imagem de vista aérea assim convertida, e um veículo adjacente presente em uma pista adjacente é assim detectada. Ainda, na segunda modalidade, quando tiver sido avaliado que o veículo adjacente tenha passado o veículo hospedeiro, as áreas de detecção A1, A2 são ampliadas para trás com respeito à orientação do avanço do veículo, da mesma maneira como na primeira modalidade, por meio do que, além dos efeitos da primeira modalidade, é possível detectar adequadamente que o segundo veículo adjacente atrás do primeiro veículo adjacente passou o veículo hospedeiro quando dois veículos adjacentes estão percorrendo de modo consecutivo, mesmo quando um veículo adjacente é detectado com base em informação de borda.
[0160] As modalidades descritas acima são descritas para facilitar a compreensão da presente invenção, e não estão descritas para limitar a presente invenção. Portanto, os elementos descritos nas modalidades acima pretendem incluir todas as modificações e equivalências de projeto das mesmas que estejam dentro da variação técnica da presente invenção.
[0161] Por exemplo, na modalidade descrita acima, quando o veículo hospedeiro V1 está mudando de direção, conforme ilustrado na Figura 12(A), foi fornecida uma configuração como um exemplo no qual a quantidade pela qual a área de detecção A2 é ampliada para trás é reduzida de modo que a área de detecção não entre na pista na qual o veículo hospedeiro está percorrendo, mas não é imposta nenhuma limitação por meio disso, e é também possível usar uma configuração na qual, por exemplo, a área de detecção A2 não é ampliada para trás, e, ao contrário, a área de detecção A2 é estreitada para frente quando o veículo hospedeiro V1 está mudando de direção, conforme ilustrado na Figura 23(A), mesmo quando o primeiro veículo adjacente V2 está passando o veículo hospedeiro V1. Em outras palavras, é possível usar uma configuração na qual a extensão da área de detecção A2 ajustada dentro da virada na direção do avanço no veículo hospedeiro V1 pode ser ajustada para ser menor do que a extensão da área de detecção A’ ajustada fora do giro na direção do avanço do veículo hospedeiro V1 (a extensão ajustada antecipadamente quando o veículo hospedeiro V1 não está sendo passado pelo veículo adjacente V2), conforme ilustrado na Figura 23(A). É também possível usar uma configuração na qual as áreas de detecção A1, A2 são giradas e ajustadas de modo a inclinar para a direção de virada com relação à direção do avanço do veículo hospedeiro V1, conforme ilustrado na Figura 23(B), de modo que as áreas de detecção A1, A2 não entrem na pista na qual o veículo hospedeiro está percorrendo. Portanto, é possível usar uma configuração na qual as áreas de detecção A1, A2 são ampliadas para trás do veículo hospedeiro dentro de uma variação na qual um veículo adjacente traseiro V3 que percorre na pista na qual o veículo hospedeiro está percorrendo não é detectado, apesar de que as áreas de detecção irão entrar na pista na qual o veículo hospedeiro está percorrendo.
[0162] Ainda, nas modalidades descritas acima, foi fornecida uma configuração como um exemplo no qual a determinação se o veículo hospedeiro está mudan- do de direção é feita com base no formato de rodovia previsto a partir da imagem capturada, capturada pela câmera 10 ou pelo ângulo de direção detectado pelo sensor de ângulo de direção 40. Contudo, não é imposta nenhuma limitação por esta configuração, e, por exemplo, é também possível adquirir o raio de curvatura da curva na qual o veículo hospedeiro está percorrendo a partir da informação de mapa obtida por um dispositivo de navegação, e, por meio disso determina se o veículo hospedeiro está mudando de direção. Ainda, pode ser determinado se o veículo hospedeiro está girando, com base na taxa de guinada e velocidade do veículo hospedeiro.
[0163] Além disso, nas modalidades acima descritas, foi fornecida uma configuração como um exemplo no qual as áreas de detecção são estreitadas para frente com respeito à direção do avanço do veículo quando tenha decorrido um período de tempo predeterminado após o veículo adjacente não poder mais ser detectado nas áreas de detecção. Contudo, não é imposta nenhuma limitação por essa configuração, e é também possível usar uma configuração na qual as áreas de detecção A1, A2 são estreitadas para frente com respeito à direção do avanço do veículo quando o veículo hospedeiro tiver percorrido uma distancia predeterminada após um veículo adjacente não poder mais ser detectado nas áreas de detecção A1, A2. Ainda, nesse caso, é possível usar uma configuração na qual a distância predeterminada é modificada com base na velocidade de movimento relativo do veículo adjacente V2 com relação ao veículo adjacente V1. Por exemplo, a unidade de ajuste de área de detecção 34 pode ser configurada de modo a prever que a velocidade de movimento relativo do segundo veículo adjacente V2’ é maior no modo comensurado para uma velocidade de movimento relativo maior do primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1 e que o segundo veículo adjacente irá logo alcançar o veículo hospedeiro, e para aumentar a distância predeterminada. Alternativamente, é possível usar uma configuração na qual é determinado que o tempo do veículo adjacente permanece atrás do veículo hospedeiro é mais curto no modo comensurado para uma velocidade de movimento relativo maior do primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1, e reduz a distância predeterminada. Portanto, é possível usar uma configuração na qual é considerada a velocidade do veículo hospedeiro e é previsto que o segundo veículo adjacente V2’ não irá alcançar o veículo hospedeiro quando a velocidade do veículo hospedeiro for alta o suficiente e a distância entre o primeiro veículo adjacente V2 e o segundo veículo adjacente V2’ é grande, e a distância predeterminada não é aumentada, mesmo quando, por exemplo, a velocidade de movimento relativo da primeiro veículo adjacente V2 com relação ao veículo hospedeiro V1 é alta. Desta maneira, o ajuste da distância predeterminada de acordo com o estado de percurso do veículo hospedeiro permite que o segundo veículo adjacente V2’ seja detectado de modo adequado.
[0164] Nas modalidades descritas acima, foi fornecida uma configuração como um exemplo no qual as áreas de detecção são ampliadas para trás com respeito à direção do avanço do veículo, mas é possível usar uma configuração na qual as áreas de detecção são ampliadas em uma única etapa ou as áreas de detecção são alargadas gradualmente quando as áreas de detecção A1, A2 não devam ser alargadas com respeito à direção do avanço do veículo.
[0165] A câmera 10 nas modalidades descritas acima corresponde à unidade de captura de imagem da presente invenção. A unidade de conversão de ponto de vista 31 corresponde à unidade de captura de imagem da presente invenção, à unidade de alinhamento 32, à dispositivo de detecção de objeto tridimensional 33, 33a, à unidade de cálculo de diferença de luminância 35, e à unidade de detecção de linha de borda 36 corresponde ao dispositivo de detecção de objeto tridimensional da presente invenção. O dispositivo de detecção de objeto tridimensional 33, 33a corresponde ao dispositivo de cálculo da velocidade de movimento relativo da presente invenção, e a unidade de ajuste de área de detecção 34 corresponde ao dis- positivo de ajuste da área de detecção e o dispositivo de detecção do comportamento de virada da presente invenção. Lista de Sinais de Referência 1, 1a: Dispositivo de detecção de objeto tridimensional 10: Câmera 20: Sensor de velocidade 30, 30a: Computador 31: Unidade de conversão de ponto de vista 32: Unidade de alinhamento 33, 33a: Dispositivo de detecção de objeto tridimensional 34: Unidade de ajuste de área de detecção 35: Unidade de cálculo de diferença de luminância 36: Unidade de detecção de linha de borda 40: Sensor de ângulo de direção 50: Dispositivo de notificação a: Ângulo de visão A1, A2: Área de detecção CP: Ponto de cruzamento DP: pixels de diferença DWt, DWt’: Forma de onda de diferença DWt1 a DWm, DWm+k a DWtn.: Pequenas areas L1, L2: Linha de chão La, Lb: Linha na direção na qual o objeto tridimensional tomba PBt: Imagem de vista aérea PDt: Imagem de diferença V1: Veículo hospedeiro V2: Veículo adjacente

Claims (24)

1. Dispositivo de detecção de objeto tridimensional, CARACTERIZADO por compreender: uma unidade de captura de imagem disposta para capturar imagens de uma área atrás de um veículo hospedeiro equipado com o dispositivo de detecção de objeto tridimensional; e um computador que é programado para incluir: uma unidade de ajuste de área de detecção programada para ajustar uma área de detecção predeterminada em uma direção lateral atrás do veículo hospedeiro; uma unidade de conversão de imagem programada para converter o ponto de vista da imagem capturada obtida pela unidade de captura de imagem para criar imagens de vista aérea; uma unidade de detecção de objeto tridimensional programada para detectar uma presença de um objeto tridimensional dentro da área de detecção predeterminada pelo processamento de detecção de direção da largura do veículo em que as imagens de vista aérea obtidas em momentos diferentes pela unidade de conversão de imagem são alinhadas, programada para formar uma distribuição de frequência contando um número de pixels que indicam uma diferença predeterminada em uma imagem de diferença das imagens de vista aérea para formar informação de forma de onda de diferença, em que os pixels são contados ao longo de linhas em uma direção na qual o objeto tridimensional tomba, e programada para detectar a presença do objeto tridimensional dentro das áreas de detecção predeterminadas com base na informação de forma de onda de diferença, quando um pico na informação de forma de onda de diferença é determinado para estar em um valor limite ou maior; e uma unidade de cálculo de velocidade de movimento relativo programada para calcular uma velocidade de movimento relativo do objeto tridimensional com base na informação de forma de onda de diferença gerada pela unidade de detecção de objeto tridimensional, a velocidade de movimento relativo sendo uma velocidade do objeto tridimensional com relação a uma velocidade do veículo hospedeiro, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás com respeito a uma direção do avanço do veículo quando o objeto tridimensional é detectado na área de detecção predeterminada pela unidade de detecção de objeto tridimensional e a velocidade de movimento relativo do objeto tridimensional está em valor predeterminado ou maior.
2. Dispositivo de detecção de objeto tridimensional, CARACTERIZADO por compreender: uma unidade de captura de imagem disposto para capturar imagens de uma área atrás de um veículo hospedeiro equipado com o dispositivo de detecção de objeto tridimensional; e um computador que é programado para incluir: uma unidade de ajuste de área de detecção programado para ajustar uma área de detecção predeterminada em uma direção lateral atrás do veículo hospedeiro; uma unidade de conversão de imagem programada para converter o ponto de vista da imagem capturada obtida pelos meios de unidade de captura de imagem para criar imagens de vista aérea; uma unidade de detecção de objeto tridimensional programada para detectar uma presença de um objeto tridimensional dentro da área de detecção predeterminada com base nas informações de borda a partir das imagens de imagem de vista aérea obtidas pela unidade de meio de conversão de imagem; e uma unidade de cálculo de velocidade de movimento relativo programada para calcular uma velocidade de movimento relativo do objeto tridimensional com base na informação de borda detectada pela unidade de detecção de objeto tridimensional, a velocidade de movimento relativo sendo uma velocidade do objeto tridimensional com relação a uma velocidade do veículo hospedeiro, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás com respeito a uma direção do avanço do veículo quando o objeto tridimensional for detectado na área de detecção predeterminada pela unidade de detecção de objeto tridimensional e a velocidade de movimento relativo do objeto tridimensional é um valor predeterminado ou maior.
3. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção alarga a área de detecção predeterminada para trás com respeito à direção de avanço do veículo, e em seguida estreita a área de detecção predeterminada para frente com respeito à direção de avanço do veículo, quando o objeto tridimensional não é mais detectado.
4. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção alarga a área de detecção predeterminada para trás com respeito à direção de avanço do veículo, e em seguida não estreita a área de detecção predeterminada para frente com respeito à direção de avanço do veículo até que decorra um período de tempo predeterminado após o objeto tridimensional não ser mais detectado.
5. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta o tempo predeterminado para ser mais curto em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional do veículo hospedeiro.
6. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 4, CARACTERIZADO pelo fato de que a unidade de ajuste de área de de- tecção ajusta o tempo predeterminado para ser mais longo em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
7. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção amplia a área de detecção predeterminada para trás com respeito à direção de avanço do veículo, e em seguida não estreita a área de detecção predeterminada para frente com respeito à direção de avanço do veículo até que o veículo hospedeiro tenha percorrido uma distância predeterminada após o objeto tridimensional não ser mais detectado.
8. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta a distância predeterminada para ser menor em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
9. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 7, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta a distância predeterminada para ser maior em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
10. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 3, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção amplia a área de detecção predeterminada em uma primeira velocidade quando a área de detecção predeterminada deva ser ampliada para trás com respeito à direção de avanço do veículo, e estreita a área de detecção predeterminada em uma segunda velocidade que é menor do que a primeira velocidade quando a área de detecção predeterminada deva ser estreitada para frente na direção do avanço do veículo hospedeiro, em que a primeira velocidade corresponde a velocidade de movimento relativo do objeto tridimensional, e a segunda velocidade corresponde a uma velocidade do veículo hospedeiro.
11. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o computador é adicionalmente programado para incluir uma unidade de detecção de comportamento de virada programado para detectar comportamento de virada do veículo hospedeiro, a unidade de ajuste de área de detecção determina se o veículo hospedeiro está virando, com base no comportamento de virada do veículo hospedeiro quando a área de detecção predeterminada deva ser ampliada para trás com respeito à direção de avanço do veículo, e reduz uma quantidade pela qual a área de detecção predeterminada deva ser ampliada em correspondência com um raio de virada menor do veículo hospedeiro conforme determinado a partir do comportamento de virada do veículo hospedeiro quando o veículo hospedeiro está determinado a virar.
12. Dispositivo de detecção de objeto tridimensional, CARACTERIZADO por compreender: uma unidade de captura de imagem disposta para capturar uma imagem de uma área atrás de um veículo hospedeiro equipado com o dispositivo de detecção de objeto tridimensional; e um computador que é programado para incluir: uma unidade de ajuste de área de detecção programada para ajustar uma área de detecção predeterminada em uma direção lateral atrás do veículo hospedeiro; uma unidade de conversão de imagem programada para converter o ponto de vista da imagem capturada obtida pela unidade de captura de imagem para criar uma imagem de vista aérea; uma unidade de detecção de objeto tridimensional programada para detectar uma presença de um objeto tridimensional dentro da área de detecção predeterminada da imagem de vista aérea obtida pela unidade de conversão de imagem com base nas informações de distribuição de pixel cuja uma diferença de luminância está em um valor limite predeterminado ou maior ao longo de uma direção na qual o objeto tridimensional tomba quando o ponto de vista é convertido em imagem da vista aérea; e uma unidade de cálculo de velocidade de movimento relativo programada para calcular uma velocidade de movimento relativo do objeto tridimensional com base em uma mudança no tempo da informação de distribuição de pixel, a velocidade de movimento relativo sendo uma velocidade do objeto tridimensional com relação a uma velocidade do veículo hospedeiro, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás com respeito a uma direção do avanço do veículo quando o objeto tridimensional for detectado na área de detecção predeterminada pela unidade de detecção de objeto tridimensional e a velocidade de movimento relativo do objeto tridimensional é um valor predeterminado ou maior.
13. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção alarga a área de detecção predeterminada para trás com respeito à direção de avanço do veículo, e em seguida estreita a área de detecção predeterminada para frente com respeito à direção de avanço do veículo, quando o objeto tridimensional não é mais detectado.
14. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção alarga a área de detecção predeterminada para trás com respeito à direção de avanço do veículo, e em seguida não estreita a área de detecção predeterminada para frente com respeito à direção de avanço do veículo até que decorra um período de tempo predeterminado após o objeto tridimensional não ser mais detectado.
15. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 14, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta o tempo predeterminado para ser mais curto em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
16. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 14, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta o tempo predeterminado para ser mais longo em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
17. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção amplia a área de detecção predeterminada para trás com respeito à direção de avanço do veículo, e em seguida não estreita a área de detecção predeterminada para frente com respeito à direção de avanço do veículo até que o veículo hospedeiro tenha percorrido uma distância predeterminada após o objeto tridimensional não ser mais detectado.
18. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 17, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta a distância predeterminada para ser menor em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
19. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 17, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção ajusta a distância predeterminada para ser maior em correspondência com uma velocidade de movimento relativo mais alta do objeto tridimensional.
20. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 13, CARACTERIZADO pelo fato de que a unidade de ajuste de área de detecção amplia a área de detecção predeterminada em uma primeira velocidade quando a área de detecção predeterminada deva ser ampliada para trás com respei- to à direção de avanço do veículo, e estreita a área de detecção predeterminada em uma segunda velocidade que é menor do que a primeira velocidade quando a área de detecção predeterminada deva ser estreitada para frente na direção do avanço do veículo hospedeiro, em que a primeira velocidade corresponde a velocidade de movimento relativo do objeto tridimensional, e a segunda velocidade corresponde a uma velocidade do veículo hospedeiro.
21. Dispositivo de detecção de objeto tridimensional, de acordo com a reivindicação 2, CARACTERIZADO pelo fato de que o computador é adicionalmente programado para incluir uma unidade de detecção de comportamento de virada programado para detectar comportamento de virada do veículo hospedeiro, a unidade de ajuste de área de detecção determina se o veículo hospedeiro está virando, com base no comportamento de virada do veículo hospedeiro quando a área de detecção predeterminada deva ser ampliada para trás com respeito à direção de avanço do veículo, e reduz uma quantidade pela qual a área de detecção predeterminada deva ser ampliada em correspondência com um raio de virada menor do veículo hospedeiro conforme determinado a partir do comportamento de virada do veículo hospedeiro quando o veículo hospedeiro está determinado a virar.
22. Dispositivo de detecção de objeto tridimensional, CARACTERIZADO por compreender: uma unidade de captura de imagem disposta para capturar imagens de uma área atrás de um veículo hospedeiro equipado com o dispositivo de detecção de objeto tridimensional; e um computador que é programado para incluir: uma unidade de ajuste de área de detecção programado para ajustar uma área de detecção predeterminada em uma direção lateral atrás do veículo hospedeiro; uma unidade de conversão de imagem programada para converter o ponto de vista da imagem capturada obtida pela unidade de captura de imagem para criar imagens de vista aérea; uma unidade de detecção de objeto tridimensional programada para detectar uma presença de um objeto tridimensional dentro da área predeterminada de detecção pelo processamento de detecção de direção da largura do veículo em que as imagens de vista aérea obtidas em momentos diferentes pela unidade de conversão de imagem são alinhadas, programada para formar uma distribuição de frequência contando um número de pixels que indicam uma diferença predeterminada em uma imagem de diferença das imagens de vista aérea para formar informação de forma de onda de diferença, em que os pixels são contados ao longo de linhas em uma direção na qual o objeto tridimensional tomba, e programada para detectar a presença do objeto tridimensional dentro das áreas de detecção predeterminadas com base na informação de forma de onda de diferença, quando um pico na informação de forma de onda de diferença é determinado para estar em um valor limite ou maior; e uma unidade de cálculo de velocidade de movimento relativo programada para calcular uma velocidade de movimento relativo do objeto tridimensional em relação ao veículo hospedeiro com base na informação de forma de onda de diferença gerada pela unidade de detecção de objeto tridimensional, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás com respeito a uma direção do avanço do veículo quando o objeto tridimensional é detectado na área de detecção predeterminada pela unidade de detecção de objeto tridimensional e a velocidade de movimento relativo do objeto tridimensional está em valor predeterminado ou maior, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás em relação à direção do avanço do veículo e, posteriormente, restringindo a área de detecção predeterminada para frente em relação à direção do avanço do veículo, quando um tempo predeterminado decorre após o objeto tridimensional não ser mais detectado, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás em relação à direção do avanço do veículo e, posteriormente, não restringindo a área de detecção predeterminada para frente em relação à direção do avanço do veículo, quando um tempo predeterminado decorre após o objeto tridimensional não ser mais detectado.
23. Dispositivo de detecção de objeto tridimensional, CARACTERIZADO por compreender: uma unidade de captura de imagem disposta para capturar imagens de uma área atrás de um veículo hospedeiro equipado com o dispositivo de detecção de objeto tridimensional; e um computador que é programado para incluir: uma unidade de ajuste de área de detecção programada para ajustar uma área de detecção predeterminada em uma direção lateral atrás do veículo hospedeiro; uma unidade de conversão de imagem programada para converter o ponto de vista da imagem capturada obtida por meios de unidade de captura de imagem para criar imagens de vista aérea; uma unidade de detecção de objeto tridimensional programada para detectar uma presença de um objeto tridimensional dentro da área predeterminada de detecção com base na informação de borda a partir de imagens de vista aérea obtida pela unidade de meio de conversão de imagem; e uma unidade de cálculo de velocidade de movimento relativo programada para calcular uma velocidade de movimento relativo do objeto tridimensional em relação ao veículo hospedeiro com base na informação de borda detectada pela uni dade de detecção de objeto tridimensional, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás com respeito a uma direção do avanço do veículo quando o objeto tridimensional for detectado na área de detecção predeterminada pela unidade de detecção de objeto tridimensional e a velocidade de movimento relativo do objeto tridimensional é um valor predeterminado ou maior, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás em relação à direção do avanço do veículo e, posteriormente, restringindo a área de detecção predeterminada para frente em relação à direção do avanço do veículo, quando um tempo predeterminado decorre após o objeto tridimensional não ser mais detectado, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás em relação à direção do avanço do veículo e, posteriormente, não restringindo a área de detecção predeterminada para frente em relação à direção do avanço do veículo até um tempo predeterminado decorrer após o objeto tridimensional não ser mais detectado.
24. Dispositivo de detecção de objeto tridimensional, CARACTERIZADO por compreender: uma unidade de captura de imagem disposta para capturar uma imagem de uma área atrás de um veículo hospedeiro equipado com o dispositivo de detecção de objeto tridimensional; e um computador que é programado para incluir: uma unidade de ajuste de área de detecção programada para ajustar uma área de detecção predeterminada em uma direção lateral atrás do veículo hospedeiro; uma unidade de conversão de imagem programada para converter o ponto de vista da imagem capturada obtida pela unidade de captura de imagem para criar uma imagem de vista aérea; uma unidade de detecção de objeto tridimensional programada para detectar uma presença de um objeto tridimensional dentro da área predeterminada de detecção na imagem de vista aérea obtida pela unidade de conversão de imagem com base na informação de distribuição de pixel, cuja uma diferença de luminância está em um valor limite predeterminado ou maior ao longo de uma direção na qual o objeto tridimensional tomba quando o ponto de vista é convertido na imagem da vista aérea; e uma unidade de cálculo de velocidade de movimento relativo programada para calcular uma velocidade de movimento relativo do objeto tridimensional em relação ao veículo hospedeiro com base em uma mudança no tempo da informação de distribuição de pixel, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás com respeito a uma direção do avanço do veículo quando o objeto tridimensional for detectado na área de detecção predeterminada pela unidade de detecção de objeto tridimensional e a velocidade de movimento relativo do objeto tridimensional é um valor predeterminado ou maior, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás em relação à direção do avanço do veículo e, posteriormente, estreitando a área de detecção predeterminada para frente em relação à direção do avanço do veículo, quando um tempo predeterminado decorre após o objeto tridimensional não ser mais detectado, a unidade de ajuste de área de detecção alargando a área de detecção predeterminada para trás em relação à direção do avanço do veículo e, posteriormente, não estreitando a área de detecção predeterminada para frente em relação à direção do avanço do veículo, quando um tempo predeterminado decorre após o objeto tridimensional não ser mais detectado.
BR112014020316-4A 2012-02-23 2013-02-13 Dispositivo de detecção de objeto tridimensional BR112014020316B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012-037482 2012-02-23
JP2012037482 2012-02-23
PCT/JP2013/053328 WO2013125404A1 (ja) 2012-02-23 2013-02-13 立体物検出装置

Publications (2)

Publication Number Publication Date
BR112014020316A2 BR112014020316A2 (pt) 2021-05-25
BR112014020316B1 true BR112014020316B1 (pt) 2021-09-14

Family

ID=49005591

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112014020316-4A BR112014020316B1 (pt) 2012-02-23 2013-02-13 Dispositivo de detecção de objeto tridimensional

Country Status (9)

Country Link
US (1) US9558556B2 (pt)
EP (1) EP2819090B1 (pt)
JP (1) JP5924399B2 (pt)
CN (1) CN104115186B (pt)
BR (1) BR112014020316B1 (pt)
MX (1) MX339625B (pt)
MY (1) MY172250A (pt)
RU (1) RU2629433C2 (pt)
WO (1) WO2013125404A1 (pt)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103080976B (zh) * 2010-08-19 2015-08-05 日产自动车株式会社 三维物体检测装置和三维物体检测方法
JP6054777B2 (ja) * 2013-03-01 2016-12-27 日立オートモティブシステムズ株式会社 ステレオカメラ装置
JP6165085B2 (ja) * 2014-03-07 2017-07-19 日立建機株式会社 作業機械の周辺監視装置
JP6566271B2 (ja) * 2014-08-19 2019-08-28 パナソニックIpマネジメント株式会社 伝送方法及び再生装置
US10019805B1 (en) * 2015-09-29 2018-07-10 Waymo Llc Detecting vehicle movement through wheel movement
JP2017114155A (ja) * 2015-12-21 2017-06-29 三菱自動車工業株式会社 運転支援装置
JP6477562B2 (ja) * 2016-03-18 2019-03-06 株式会社デンソー 情報処理装置
US9994151B2 (en) 2016-04-12 2018-06-12 Denso International America, Inc. Methods and systems for blind spot monitoring with adaptive alert zone
US9947226B2 (en) 2016-04-12 2018-04-17 Denso International America, Inc. Methods and systems for blind spot monitoring with dynamic detection range
US9975480B2 (en) * 2016-04-12 2018-05-22 Denso International America, Inc. Methods and systems for blind spot monitoring with adaptive alert zone
US9931981B2 (en) 2016-04-12 2018-04-03 Denso International America, Inc. Methods and systems for blind spot monitoring with rotatable blind spot sensor
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
KR102033883B1 (ko) * 2016-12-30 2019-11-08 현대자동차주식회사 차선 변경 결정 지원 시스템을 구현하는 장치 및 방법
KR102640423B1 (ko) * 2017-01-31 2024-02-26 삼성전자주식회사 음성 입력 처리 방법, 이를 지원하는 전자 장치, 및 시스템
US11458963B2 (en) * 2017-10-10 2022-10-04 Nissan Motor Co., Ltd. Driving control method and driving control apparatus
CN109344677B (zh) 2017-11-07 2021-01-15 长城汽车股份有限公司 识别立体物的方法、装置、车辆和存储介质
CN109145764B (zh) * 2018-07-27 2020-10-27 中国铁道科学研究院集团有限公司 综合检测车的多组检测波形的未对齐区段识别方法及装置
KR102483649B1 (ko) * 2018-10-16 2023-01-02 삼성전자주식회사 차량 위치 결정 방법 및 차량 위치 결정 장치
JP6859374B2 (ja) * 2019-01-11 2021-04-14 本田技研工業株式会社 予測装置、予測方法、およびプログラム
US10769457B1 (en) * 2019-09-26 2020-09-08 Pony Al Inc. System and method for detecting airborne objects
EP3872692A1 (en) * 2020-02-25 2021-09-01 Zenuity AB Compensation for vertical road curvature in road geometry estimation
CN112991535B (zh) * 2021-04-19 2021-07-27 中国人民解放军国防科技大学 高度信息增强墨卡托地图的三维空间态势表征方法和装置
KR102607947B1 (ko) * 2021-11-26 2023-12-04 이인텔리전스 주식회사 차량 제동 제어 장치 및 제어 방법
CN115880973B (zh) * 2023-02-02 2023-05-05 北京东方瑞丰航空技术有限公司 伪球面坐标系的飞行模拟机视景生成方法、装置和设备

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7418346B2 (en) * 1997-10-22 2008-08-26 Intelligent Technologies International, Inc. Collision avoidance methods and systems
JPH0918863A (ja) * 1995-06-26 1997-01-17 Yazaki Corp 車両用後側方監視装置
JP2002298299A (ja) * 2001-03-30 2002-10-11 Toshiba Corp 車両の運転支援装置
JP4156214B2 (ja) * 2001-06-13 2008-09-24 株式会社デンソー 車両周辺画像処理装置及び記録媒体
JP2003306102A (ja) * 2002-04-11 2003-10-28 Toshiba Corp 追越車両検出装置と運転支援システムの後側方警報装置
JP4887932B2 (ja) * 2006-06-23 2012-02-29 日産自動車株式会社 道路端認識装置、自動車、及び道路端認識方法
JP2008219063A (ja) 2007-02-28 2008-09-18 Sanyo Electric Co Ltd 車両周辺監視装置及び方法
JP2008227646A (ja) 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP2009169776A (ja) * 2008-01-18 2009-07-30 Hitachi Ltd 検出装置
JP5464885B2 (ja) 2009-03-31 2014-04-09 日野自動車株式会社 並走警報装置、車両およびプログラム
RU2533645C2 (ru) * 2010-05-27 2014-11-20 Сергей Анатольевич Королев Интеллектуальная транспортная система и способ её использования
JP5533323B2 (ja) * 2010-06-21 2014-06-25 日産自動車株式会社 移動量推定装置及び移動量推定方法
JP5251927B2 (ja) 2010-06-21 2013-07-31 日産自動車株式会社 移動距離検出装置及び移動距離検出方法

Also Published As

Publication number Publication date
EP2819090A1 (en) 2014-12-31
US20150302586A1 (en) 2015-10-22
RU2629433C2 (ru) 2017-08-29
MY172250A (en) 2019-11-19
CN104115186A (zh) 2014-10-22
JP5924399B2 (ja) 2016-05-25
MX2014009974A (es) 2014-09-08
RU2014138290A (ru) 2016-04-10
MX339625B (es) 2016-06-02
JPWO2013125404A1 (ja) 2015-07-30
US9558556B2 (en) 2017-01-31
EP2819090A4 (en) 2015-06-03
EP2819090B1 (en) 2022-08-24
WO2013125404A1 (ja) 2013-08-29
CN104115186B (zh) 2018-08-28
BR112014020316A2 (pt) 2021-05-25

Similar Documents

Publication Publication Date Title
BR112014020316B1 (pt) Dispositivo de detecção de objeto tridimensional
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
RU2563534C1 (ru) Устройство обнаружения сплошных объектов и способ обнаружения сплошных объектов
RU2636120C2 (ru) Устройство обнаружения трехмерных объектов
RU2616538C2 (ru) Устройство обнаружения трехмерных объектов
BR112015001872B1 (pt) Reconhecedor de imagem em veículos
BR112015001747B1 (pt) Dispositivo de detecção de objeto tridimensional e método de detecção de objeto tridimensional
BR112014002366B1 (pt) Dispositivo e método de detecção de objeto tridimensional
RU2635280C2 (ru) Устройство обнаружения трехмерных объектов
BR112014001837B1 (pt) dispositivos e métodos de detecção de corpo em movimento
BR112014020406B1 (pt) Dispositivo de detecção de objetos tridimensionais
BR112015001711A2 (pt) dispositivo de detecção de objeto tridimensional e método de detecção de um objeto tridimensional
BR112014020353B1 (pt) Dispositivo de detecção de objeto tridimensional
BR112014020410B1 (pt) Dispositivo de detecção de objeto tridimensional
BR112015001861A2 (pt) dispositivo de detecção de objeto tridimensional
JP5888275B2 (ja) 道路端検出システム、方法およびプログラム
JP2014157469A (ja) 道路端検出システム、方法およびプログラム
JP5835459B2 (ja) 立体物検出装置

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 13/02/2013, OBSERVADAS AS CONDICOES LEGAIS.