BR112015001872B1 - Reconhecedor de imagem em veículos - Google Patents

Reconhecedor de imagem em veículos Download PDF

Info

Publication number
BR112015001872B1
BR112015001872B1 BR112015001872-6A BR112015001872A BR112015001872B1 BR 112015001872 B1 BR112015001872 B1 BR 112015001872B1 BR 112015001872 A BR112015001872 A BR 112015001872A BR 112015001872 B1 BR112015001872 B1 BR 112015001872B1
Authority
BR
Brazil
Prior art keywords
vehicle
image
level
brightness
white turbidity
Prior art date
Application number
BR112015001872-6A
Other languages
English (en)
Other versions
BR112015001872A2 (pt
Inventor
Kota Irie
Masayuki TAKEMURA
Shoji Muramatsu
Yasuhisa Hayakawa
Osamu Fukata
Masahiro Kiyohara
Akira UTAGAWA
Original Assignee
Nissan Motor Co., Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co., Ltd filed Critical Nissan Motor Co., Ltd
Publication of BR112015001872A2 publication Critical patent/BR112015001872A2/pt
Publication of BR112015001872B1 publication Critical patent/BR112015001872B1/pt

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0006Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means to keep optical surfaces clean, e.g. by preventing or removing dirt, stains, contamination, condensation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • H04N23/811Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation by dust removal, e.g. from surfaces of the image sensor or processing of the image signal output by the electronic image sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20224Image subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

reconhecedor de imagem em veículos um reconhecedor de imagem em veículo que detecta eficazmente um objeto se movendo a partir da imagem mesmo quando as lentes tenham fuligem. em um ajustador de sensibilidade de detecção (50) que ajusta a sensibilidade de detecção a ser aumentada de acordo com o nível de turbidez branca (u), a sensibilidade de detecção de um detector de veículo (70) (unidade de execução de aplicação de reconhecimento de imagem), que detecta outro veículo (6) (objeto que se move) existente na área circundante do veículo (5) com uma sensibilidade de detecção predeterminada a partir da imagem obtida por uma unidade de imagem (10) disposta no veículo (5) para observar a área circundante do veículo (5) através de lentes (12) e converte o sinal de luz da área circundante observada do veículo (5) em um sinal de imagem, é corrigido com base no nível de fixação m da matéria anexada tal como sujeita ou gota de água nas lentes (12), que é calculada por uma calculadora de nível de fixação (26).

Description

CAMPO TÉCNICO
[001] A presente invenção se relaciona a um reconhecedor de imagem em veículos que detecta a posição dum outro veículo, a posição de uma marcação de pista, ou os similares por uma câmera montada no veículo.
ANTECEDENTES DA INVENÇÃO
[002] Recentemente, um reconhecedor de imagem em veículos tem estado em uso prático. Tal reconhecedor de imagem em veículos observa uma área circundante de um veículo através de uma câmera montada no veículo, detecta uma posição de outro veículo, uma posição de uma marcação de pista, ou os similares a partir da imagem observada, e determina a possibilidade de contato com outro veículo ou a possibilidade de saída de pista baseado na posição detectada de outro veículo ou a posição detectada da marcação de pista, de modo a alertar um motorista.
[003] Em tal sistema, enquanto um veículo está viajando na chuva, a água espirrada por um veículo pode ficar ligada à superfície da lente da câmera. Também, enquanto um veículo está viajando em uma estrada de terra, a poeira gerada por um veículo pode ficar ligada à superfície da lente da câmera. Ainda mais, enquanto um veículo está viajando em uma estrada na qual um agente de derretimento de neve está espalhado, o agente de derretimento de neve espirrado por um veículo pode ser ligado à superfície da lente da câmera. Essas substâncias ligadas conforme acima descritas são secadas, e impurezas na água, na poeira, ou no agente de derretimento de neve são depositadas, e empilhadas sobre a superfície da lente para causar uma fuligem (daqui em diante, turbidez branca) na superfície da lente.
[004] Quando uma parte de turbidez branca é gerada na superfície da lente, a luz entrando na lente é dispersada na parte de turbidez branca e, portanto, borrões ou sangramentos ocorrem na imagem observada. Uma vez que o contraste da imagem de outro veículo ou da marcação de pista, no qual é um alvo de detecção, é diminuído devido a tais borrões ou sangramentos, nenhuma detecção ou falsa detecção de outro veículo ou de uma marcação de pista pode ocorrer. Devido à ocorrência de não detecção ou falsa detecção, um alerta apropriado em relação à posição de outro veículo ou da posição da marcação de pista pode não ser fornecido para um motorista.
[005] Em um sistema no qual uma tripulação em um veículo não pode visivelmente reconhecer uma imagem obtida por uma câmera, a tripulação não pode confirmar que a lente possui uma parte de turbidez branca, e a acima descrita não detecção ou falsa detecção, deste modo, dá à tripulação um sentimento de incerteza em relação ao sistema.
[006] A fim de prevenir tal não detecção ou falsa detecção, por exemplo, um detector de obstáculo para um veículo é divulgado (por exemplo, Literatura de Patente 1). Lista de Citação Literatura de Patente Literatura de Patente 1: JP 2012-38048A
RESUMO DA INVENÇÃO Problema à solução
[007] No detector de obstáculo para um veículo descrito na Literatura de Patente 1, substâncias estranhas ligadas à uma lente de uma câmera são detectadas como uma região impassível cuja a posição não é alterada temporariamente, e a região impassível detectada é excluída de um alvo de detecção de um obstáculo, de modo a melhorar a precisão de detecção do obstáculo.
[008] Contudo, é difícil detectar um obstáculo tal como água, possuindo alta permeabilidade, a qual está ligada à lente, como a região impassível.
[009] Além disso, quando uma região onde substâncias estão ligadas a uma lente é expandida, uma região a qual executa a detecção do obstáculo é estreitada, resultando na deterioração no desempenho de detecção do obstáculo.
[010] A presente invenção foi feita em vista dos problemas acima, e um objeto da presente invenção é fornecer um reconhecedor de imagem em veículos o qual pode confiavelmente detectar uma posição de outro veículo ou uma posição de uma marcação de pista, apesar de uma parte de turbidez branca ser gerada em uma lente ou uma matéria fixada estar ligada a uma lente.
SOLUÇÃO DO PROBLEMA
[011] O reconhecedor de imagem em veículos de acordo com a presente invenção diz respeito a um reconhecedor de imagem em veículos o qual pode detectar uma posição de outro veículo ou uma posição de uma marcação de pista mesmo quando ocorrer turbidez branca em uma lente ou uma matéria fixada, tal como sujeira ou gota de água é ligada à lente.
[012] Mais especificamente, um reconhecedor de imagem em veículos de acordo com a reivindicação 1 da presente invenção inclui uma unidade de imagem a qual é disposta em um veículo para observar uma área circundante do veículo através de uma lente, e converter um sinal luminoso da área circundante observada do veículo em um sinal de imagem, uma unidade de execução de aplicação de reconhecimento de imagem possuindo sensibilidade de detecção predeterminada para detectar um objeto móvel existente na área circundante do veículo a partir da imagem obtida pela unidade de imagem, uma calculadora de nível de turbidez branca a qual calcula um nível de turbidez branca da lente a partir de um sinal de imagem, uma calculadora de nível de fixação a qual calcula um nível de fixação de uma matéria fixada tais como sujeira ou gota de água na lente, e um ajustador de sensibilidade de detecção o qual ajusta a sensibilidade de detecção para ser aumentada de acordo com o nível de turbidez branca, em que o ajustador de sensibilidade de detecção corrige a sensibilidade de detecção baseada no nível de fixação da matéria fixada, tais como sujeira ou a gota de água à lente.
[013] De acordo com o reconhecedor de imagem em veículos estabelecido na reivindicação 1 da presente invenção, no ajustador de sensibilidade de detecção o qual ajusta a sensibilidade de detecção para ser aumentada de acordo com o nível de turbidez branca, a sensibilidade de detecção da unidade de execução de aplicação de reconhecimento de imagem, a qual detecta uma objeto móvel existente na área circundante do veículo com uma sensibilidade de detecção predeterminada a partir de uma imagem obtida pela unidade de imagem disposta no veículo para observar a área circundante do veículo através de uma lente e converte o sinal luminoso da área circundante observada do veículo no sinal de imagem, é corrigida baseada no nível de fixação da matéria fixada tais como sujeira ou gota de água na lente, a qual é calculada pela calculadora de nível de fixação. Com essa configuração, mesmo quando a matéria fixada, tais como sujeira ou gota de água, está fixada à lente, um aumento excessivo na sensibilidade de detecção é controlado, e deste modo, o objeto móvel existente na área circundante do veículo pode ser efetivamente detectado.
EFEITOS VANTAJOSOS DA INVENÇÃO
[014] De acordo com o reconhecedor de imagem em veículos da presente invenção, a posição de outro veículo ou a posição de uma marcação de pista podem ser efetivamente detectados independentemente de uma condição de fixação de uma matéria fixada ou nível de turbidez branca em uma lente.
BREVE DESCRIÇÃO DOS DESENHOS
[015] A Figura 1 é uma visão descrevendo o sistema de BSW (Aviso de Ponto Cego) como u exemplo de um sistema em veículos no qual um reconhecedor de imagem em veículos de acordo com a presente invenção é instalado.
[016] A Figura 2 é um diagrama em bloco ilustrando uma configuração esquemática de um reconhecedor de imagem em veículos de acordo com a Modalidade 1 da presente invenção.
[017] A Figura 3 é um diagrama em bloco ilustrando uma configuração detalhada de uma primeira calculadora de nível de turbidez branca da presente invenção.
[018] A Figura 4 é um diagrama em bloco ilustrando uma configuração detalhada de uma segunda calculadora de nível de turbidez branca da presente invenção.
[019] A Figura 5 é um diagrama em bloco ilustrando uma configuração detalhada de uma calculadora de nível de matéria fixada da presente invenção.
[020] A Figura 6 é um diagrama em bloco ilustrando uma configuração detalhada de um próximo detector de veículos da presente invenção,
[021] A Figura 7 é um fluxograma de uma rotina principal a qual é executada na Modalidade 1 da presente invenção.
[022] As Figuras 8(a) e 8(b) são visões descrevendo uma situação onde a turbidez branca é gerada em uma lente, a Figura 8(a) ilustra um exemplo de uma imagem obtida em uma condição sem turbidez branca e um exemplo de uma distribuição de brilho na imagem, e a Figura 8(b) ilustra um exemplo de uma imagem obtida em uma condição com turbidez branca e um exemplo de uma distribuição de brilho na imagem.
[023] A Figura 9 é um fluxograma ilustrando um fluxo de um processo de cálculo de nível de turbidez branca baseado num gradiente de brilho, o qual é executado na Modalidade 1 da presente invenção.
[024] As Figuras 10(a) a 10(d) são visões ilustrando um exemplo de um processo de detecção de região de fonte luminosa na Modalidade 1 da presente invenção, a Figura 10(a) ilustra uma imagem obtida, a Figura 10(b) ilustra uma imagem obtida ao minimizar a imagem obtida, a Figura 10(c) ilustra uma imagem obtida ao binarizar a imagem na Figura 10(b) e uma imagem para a qual um processo de etiquetagem é executado, e a Figura 10(d) ilustra um resultado de detecção de uma região de fonte luminosa satisfazendo uma condição da imagem na Figura 10(c).
[025] A Figura 11 é uma visão descrevendo uma faixa para executar um processo de detecção de região de fonte luminosa para calcular um nível de turbidez branca num gradiente de brilho na Modalidade 1 da presente invenção.
[026] As Figuras 12(a) e 12(b) são visões ilustrando formas de uma região a qual é detectada no processo de detecção de região de fonte luminosa para calcular um nível de turbidez branca, a Figura 12(a) ilustra um exemplo de uma forma da região de fonte luminosa para ser detectada, e a Figura 12(b) ilustra exemplos de formas para não ser detectadas.
[027] A Figura 13 é uma visão ilustrando um exemplo de uma linha predeterminada para calcular um gradiente de brilho para calcular um nível de turbidez branca, e um exemplo de gradiente de brilho.
[028] A Figura 14 é uma visão descrevendo um deslocamento de estado ilustrando um deslocamento de um fator de certeza do nível de turbidez branca na Modalidade 1 da presente invenção.
[029] A Figura 15 é um fluxograma ilustrando um fluxo de processo de cálculo de nível de turbidez branca baseado em uma força de extremidade, o qual é executado na Modalidade 1 da presente invenção.
[030] A Figura 16 é um fluxograma ilustrando um fluxo de um processo de detecção de matéria fixada o qual é executado na Modalidade 1 da presente invenção.
[031] A Figura 17 é uma visão ilustrando um exemplo no qual blocos são estabelecidos em uma imagem obtida na Modalidade 1 da presente invenção.
[032] A Figura 18(a) é uma visão ilustrando um exemplo de uma imagem obtida e a Figura 18(b) é uma visão ilustrando um exemplo de um ponto de configuração de extremidade da imagem.
[033] A Figura 19 é uma visão descrevendo um processo de contagem de um bloco periférico brilhante na Modalidade 1 da presente invenção.
[034] As Figuras 20(a) e 21(b) são visões brevemente descrevendo um processo de alinhamento de imagens de conversão de ponto de vista, o qual é executado na Modalidade 1 da presente invenção, a Figura 20(a) é uma visão plana ilustrando veículos em movimento, e a Figura 20(b) é uma visão brevemente descrevendo o alinhamento.
[035] As Figuras 21(a) e 21(b) são visões descrevendo a geração de uma forma de onda de diferença baseada em um resultado de diferença de uma imagem de conversão de ponto de vista na Modalidade 1 da presente invenção, a Figura 21 (a) é uma visão descrevendo um método de gerar uma forma de onda de diferença a partir de um resultado de diferença da imagem de conversão de ponto de vista, e a Figura 21 (b) é uma visão ilustrando um exemplo da forma de onde de diferença gerada.
[036] A Figura 22 é uma visão ilustrando uma pequena região dividida em um detector de objeto tridimensional na Modalidade 1 da presente invenção.
[037] A Figura 23 é uma visão ilustrando um exemplo de um histograma o qual é obtido no detector de objeto tridimensional na Modalidade 1 da presente invenção.
[038] A Figura 24 é uma visão ilustrando um método de corrigir um limiar de um processo de detecção de veículo de acordo com um nível de fuligem de uma lente.
[039] A Figura 25 é um fluxograma ilustrando um fluxo de um processo de detecção de veículo baseado no cálculo de diferença, o qual é executado na Modalidade 1 da presente invenção.
[040] As Figuras 26(a) e 26(b) são visões descrevendo a detecção de objeto tridimensional baseado na informação de extremidade, a Figura 26(a) é uma visão plana ilustrando um relacionamento posicional de uma região de detecção, e a Figura 26(b) é uma visão perspectiva ilustrando um relacionamento posicional de uma região de detecção em um espaço real.
[041] As Figuras 27(a) e 27(b) são visões descrevendo uma operação de uma calculadora de diferença de brilho, a Figura 27(a) é uma visão ilustrando um relacionamento posicional entre uma linha de atenção, linha de referência, ponto de atenção, e ponto de referência em uma imagem de conversão de ponto de vista, e a Figura 27(b) é uma visão ilustrando um relacionamento posicional entre a linha de atenção, linha de referência, ponto de atenção, e ponto de referência em um espaço real.
[042] As Figuras 28(a) e 28(b) são visões descrevendo uma operação detalhada da calculadora de diferença de brilho, a Figura 28(a) é uma visão ilustrando uma região de detecção em uma imagem de conversão de ponto de vista, e a Figura 28(b) é uma visão ilustrando um relacionamento posicional entre uma linha de atenção, linha de referência, ponto de atenção, e ponto de referência em uma imagem de conversão de ponto de vista.
[043] As Figuras 29(a) e 29(b) são visões ilustrando uma linha de extremidade e uma distribuição de brilho na linha de extremidade, a Figura 29(a) é uma visão ilustrando uma distribuição de brilho quando um objeto tridimensional (veículo) existe em uma região de detecção, e a Figura 29(b) é uma visão ilustrando uma distribuição de brilho quando um objeto tridimensional não existe em uma região de detecção.
[044] A Figura 30 é outra visão ilustrando um método de corrigir um limiar de um processo de detecção de veículo de acordo com um nível de fuligem de uma lente.
[045] A Figura 31 é um fluxograma ilustrando um fluxo de um processo de detecção de veículo baseado na informação de extremidade, o qual é executado na Modalidade 1 da presente invenção.
DESCRIÇÃO DA MODALIDADE
[046] A seguir, uma modalidade de um reconhecedor de imagem em veículos de acordo com a presente invenção será descrita com referência aos desenhos. Na seguinte descrição, um valor cinza armazenado em uma imagem é referido a como um valor de brilho.
MODALIDADE 1
[047] A presente modalidade é um exemplo no qual um reconhecedor de imagem em veículos da presente invenção é instalado em um veículo incluindo um sistema de BSW (aplicação de reconhecimento de imagem) o qual monitora a traseira de um veículo enquanto o veículo está viajando, e alerta um motorista quando um veículo próximo viaja em uma pista próxima na traseira do veículo.
[048] Inicialmente, a operação do sistema de BSW será descrita com referência à Figura 1. Uma unidade de imagem 10, a qual monitora uma traseira de um veículo 5 é fixada na parte traseira da parte de trás do veículo 5. A unidade de imagem 10, forma uma imagem de uma faixa w incluindo as pistas próximas da direita e da esquerda na traseira do veículo 5 (a faixa incluindo as pistas Y1, Y2, Y3 de uma estrada 2). Um veículo próximo em uma região de detecção X1 na pista Y1 e um veículo próximo em uma região de detenção X2 na pista Y3 próximos um do outro são detectados a partir da imagem obtida através de um processo de imagem.
[049] O sistema de BSW é ativado enquanto o veículo 5 está viajando a uma velocidade predeterminada ou mais. O sistema de BSW reconhece outro veículo 6 como um veículo próximo quando outro veículo 6 é detectado nas faixas Y1, Y3 próximos à faixa Y2 dentro de uma faixa de distância predeterminada a partir da unidade de imagem 10, e é confirmado que o outro veículo 6 detectado está próximo do veículo 5.
[050] É determinado que outro veículo 6 está próximo do veículo 5 baseado nas análises de séries temporais da imagem obtida pela unidade de imagem 10. Os detalhes de tal determinação serão descritos posteriormente.
[051] Quando é reconhecido que outro veículo 6 está próximo do veículo 5, a existência de outro veículo 6 é informada para um motorista como uma informação visual ao iluminar um indicador fornecido no veículo 5, por exemplo (primeiro aviso).
[052] Quando um motorista tenta mudar a pista para a pista Y1, na qual uma outra pista 6 existe, com uma luz de indicação sem estar consciente da informação visual, o sistema de BSW informa mais claramente o motorista da existência de outro veículo 6 ao iluminar o indicador e ativando o alarme (segundo aviso), de modo a interromper a mudança de pista.
[053] Em seguida, a configuração do reconhecedor de imagem em veículos de acordo com a Modalidade 1 será descrito com referência à Figura 2. A Figura 2 ilustra uma visão de configuração na qual o reconhecedor de imagem em veículos de acordo com a presente modalidade é instalado no veículo 5 incluindo o sistema de BSW.
[054] Conforme ilustrado na Figura 2, o reconhecedor de imagem em veículos 8 de acordo com a Modalidade 1 inclui a unidade de imagem 10 a qual é disposta próxima da placa de licenciamento traseira do veículo 5 (refere-se à Figura 1) para monitorar uma faixa w ilustrada na Figura 1, um detector de fuligem na lente 20 o qual detecta um nível de fixação de uma matéria fixada, tais como sujeira ou gota de água, e um nível de turbidez branca de uma lente 12 montados na parte da frente da unidade de imagem 10 a partir da imagem obtida pela unidade de imagem 10, uma calculadora de nível de fuligem na lente 30 a qual calcula um nível de fuligem da lente 12 baseado no nível detectado de fixação da matéria fixada, tais como sujeira ou gota de água, e o nível de turbidez branca detectado da lente 12, um ajustador de sensibilidade de detecção 50 o qual ajusta uma sensibilidade de detecção de outro veículo 6 no pós descrito detector de veículo 70, uma unidade de obtenção de informação de veículo 60 a qual obtém uma velocidade veicular do veículo 5, e um detector de veículo 70 (unidade de execução de aplicação de reconhecimento de imagem) o qual detecta outro veículo 6 se aproximando do veículo 5 a partir da traseira do veículo 5.
[055] A unidade de imagem 10, o ajustador de sensibilidade de detecção 50, a unidade de obtenção de informação de veículo 60, e o detector de veículo 70 constituem o sistema de BSW 9.
[056] A unidade de imagem 10 inclui a lente 12, um conversor fotoelétrico 14 feito de um elemento de CMOS, por exemplo, para converter foto eletricamente um sinal luminoso em um sinal elétrico, e um ajustador de ganho 16 o qual ajusta o ganho do sinal elétrico convertido foto eletricamente.
[057] O detector de fuligem na lente 20 inclui uma calculadora de nível de turbidez branca 25 possuindo uma primeira calculadora de nível de turbidez branca 22 a qual calcula o nível de turbidez branca da lente 12 baseada no gradiente de brilho na imagem obtida pela unidade de imagem 10 e uma segunda calculadora de nível de turbidez branca 24 a qual calcula um nível de turbidez branca da lente 12 baseada na dispersão de um valor de brilho na imagem obtida pela unidade de imagem 10, e uma calculadora de nível de matéria fixada 26 a qual detecta uma matéria fixada, tais como sujeira ou gota de água, fixada à lente 12.
[058] O detector de veículo 70 inclui um detector de veículo próximo 72 o qual detecta um objeto tridimensional na traseira do veículo 5 a partir da imagem obtida pela unidade de imagem 10, e calcula uma distância em movimento e uma velocidade em movimento do objeto tridimensional como um veículo próximo, e uma unidade de saída de alerta 74 a qual alerta um motorista com um indicador ou uma campainha quando o veículo próximo é detectado no detector de veículo próximo 72.
[059] Em seguida, a configuração detalhada do detector de fuligem na lente 20 será descrita com referências às Figuras 3 a 5.
[060] Conforme ilustrado na Figura 3, a primeira calculadora de nível de turbidez branca 22 a qual constitui a calculadora de nível de turbidez branca 25 inclui um detector de região 22a o qual detecta uma imagem de um farol dianteiro de um veículo que segue atrás, uma calculadora de gradiente de brilho 22b o qual calcula o gradiente de brilho em uma linha predeterminada em uma região detectada no detector de região 22a, uma calculadora de similaridade 22c a qual determina ou não se regiões detectadas no detector de região 22a em diferentes momentos são imagens pela mesma fonte de luz, e uma unidade de determinação de fator de certeza 22d a qual determina um fator de certeza do nível de turbidez branca calculado.
[061] Conforme ilustrado na Figura 4, a segunda calculadora de nível de turbidez branca da calculadora de nível de turbidez branca 25 inclui uma calculadora de intensidade de extremidade 24a a qual calcula a intensidade de extremidade da imagem obtida pela unidade de imagem 10, e um analisador de intensidade de extremidade 24b o qual obtém uma distribuição da intensidade de extremidade de uma imagem a partir da intensidade de extremidade calculada na calculadora de intensidade de extremidade 24a, e calcula o nível de turbidez branca da lente 12 baseada na distribuição da intensidade de extremidade da imagem.
[062] Conforme ilustrado na Figura 5, a calculadora de nível de matéria fixada 26 inclui uma unidade de definição de região de processo 26a a qual define uma região de processo na imagem obtida pela unidade de imagem 10, e divide a região de processo em uma pluralidade de blocos, um detector de extremidade 26b o qual detecta uma região possuindo intensidade de extremidade fraca da imagem, uma calculadora de distribuição de brilho 26c a qual obtém um valor de brilho na região de intensidade de extremidade fraca e na região periférica, e calcula uma distribuição de brilho, uma calculadora de mudança de brilho 26d a qual calcula uma mudança de séries temporais no valor de brilho baseado no valor de brilho acumulado nas séries de tempo, e uma unidade de determinação de matéria fixada 26e a qual determina a existência ou não existência da matéria fixada das lentes 12 baseada nos resultados de processos do detector de extremidade 26b, da calculadora de distribuição de brilho 26c, e da calculadora de mudança de brilho 26d.
[063] Em seguida, a configuração detalhada do detector de veículo próximo 72 do detector de veículo 70 será descrito com referência à Figura 6.
[064] O detector de veículo próximo 72 ilustrado na Figura 6 detecta um veículo próximo (outro veículo 6) com o uso de informação em forma de onda de diferença, e inclui um conversor de ponto de vista 72a, uma unidade de alinhamento 72b, e um detector de objeto tridimensional 72c.
[065] Em adição, o detector de veículo próximo 72 da Modalidade 1 pode detectar um veículo próximo (outro veículo 6) com o uso de informação de extremidade. Neste caso, conforme ilustrado na Figura 6, um bloco de detecção A1 incluindo a unidade de alinhamento 72b e o detector de objeto tridimensional 72c é substituído com um bloco de detecção A2 incluindo uma calculadora de diferença de brilho 72g, um detector de linha de extremidade 72h, e um detector de objeto tridimensional 72i, o qual está circundado pela linha tracejada.
[066] O detector de veículo próximo 72 pode incluir ambos, os blocos de detecção A1 e o bloco de detecção A2, para detectar um veículo próximo com o uso da informação em forma de onda de diferença e detectar um veículo próximo com o uso da informação de extremidade. Quando o detector de veículo próximo 72 inclui ambos, o bloco de detecção A1 e o bloco de detecção 2, qualquer um do bloco de detecção A1 e do bloco de detecção A2 pode ser operado de acordo com um fator do ambiente, tal como brilho.
[067] Em seguida, o fluxo de uma sequência de operações do reconhecedor de imagem em veículos 8 de acordo com a Modalidade 1 será descrito com referência ao fluxograma da Figura 7.
[068] Em princípio, na Etapa S1, a velocidade veicular é obtida conforme a informação veicular do veículo 5 na unidade de obtenção de informação veicular 60.
[069] Em seguida, na Etapa S2, é determinado ou não se um valor de um sinal de velocidade veicular obtido na unidade de obtenção de informação veicular 60 é um valor predeterminado (por exemplo, 1km / h) ou mais. Quando o valor do sinal de velocidade veicular é um valor predeterminado ou maior, o processo se move para a Etapa S3 para iniciar o sistema de BSW 9. Por outro lado, quando a velocidade veicular é menor que o valor predeterminado, o processo retorna para a Etapa S1.
[070] Em seguida, na Etapa S4, uma imagem da traseira do veículo 5 é obtido através da unidade de imagem 10. O sinal luminoso transmitido à lente 12 é convertido em um sinal elétrico no conversor fotoelétrico 14, e o sinal elétrico é amplificado no ajustador de ganho 16 para gerar um sinal de imagem I (x, y). Doravante, o sinal de imagem I (x, y) é simplesmente referido como a imagem I (x, y).
[071] O ajustador de ganho 16 fornece um ganho apropriado para amplificar o sinal elétrico, tal que o sinal elétrico convertido no conversor fotoelétrico 14 possui nível predeterminado, e gera a imagem I (x, y). A imagem I (x, y) possuindo uma alta proporção de SN é deste modo obtida devido ao ganho apropriado mesmo quando a imagem é obtida sob um ambiente escuro. Em adição, o ajuste de ganho é executado conforme necessário juntamente com a imagem latente, e o último valor de ganho pode ser monitorado no ajustador de ganho 16.
[072] Em seguida, na Etapa S5, o nível de turbidez branca da lente 12 é calculado na primeira calculadora de nível de turbidez branca 22 e na segunda calculadora de nível de turbidez branca 24. O procedimento deste processo é ilustrado nas Figuras 8, 9 e os detalhes do processo serão descritos posteriormente.
[073] Então, a Etapa S6, a matéria fixada, tais como sujeira ou pingo de água, fixada à lente 12 é detectada na calculadora de nível de fixação 26. O procedimento deste processo é ilustrado na Figura 10, e os detalhes do processo serão descritos mais tarde.
[074] Em seguida, na Etapa S7, o nível de fuligem da lente 12 é calculado na calculadora de nível de fuligem da lente 30. Os detalhes deste processo serão descritos mais tarde.
[075] Na Etapa S8, o nível de turbidez branca da lente 12 calculada na primeira e na segunda calculadora de nível de turbidez branca 22, 24 e o nível de fixação da matéria fixada, tais como sujeira e gota de água, à lente 12 calculado na calculadora de nível de matéria fixada 26 são informados ao ajustador de sensibilidade de detecção 50, e a sensibilidade de detecção de veículo é corrigida baseada na turbidez branca informada e em níveis de matéria fixada da lente 12 no ajustador de sensibilidade de detecção 50.
[076] Em seguida, na Etapa S9, um veículo próximo é detectado a partir de uma imagem obtida através da unidade de imagem 10 no detector de veículo próximo 72. O procedimento deste processo é ilustrado nas Figuras 25, 31, e os detalhes do processo serão descritos mais tarde.
[077] Em seguida, na Etapa S10, a necessidade do aviso é determinada baseada na existência ou não existência de outro veículo 6 detectado no detector de veículo próximo 72 e uma velocidade relativa de outro veículo 6 para o veículo 5. Quando é necessária a emissão do aviso, o processo se move para a Etapa S11, e quando não é necessário a emissão do aviso, o processo retorna para a Etapa S4.
[078] Então, na Etapa S11, na unidade de emissão de alerta 74, o aviso é emitido com um indicador ou uma campainha, e a existência do veículo próximo é informada para um motorista do veículo 5 para alertar o motorista.
[079] Em seguida, os respectivos processos os quais são executados no fluxograma da Figura 7 serão sequencialmente descritos em detalhe.
[080] (Processo de Cálculo de Nível de Turbidez Branca baseado no Gradiente de Brilho)
[081] Em princípio, os detalhes do processo de cálculo de nível de turbidez branca o qual é executado na Etapa S5 na Figura 7 será descrito com referência às Figuras 8 a 15. Na calculadora de nível de turbidez branca 25, o nível de turbidez branca da lente 12 é calculado com um método baseado no gradiente de brilho na imagem obtida pela unidade de imagem 10 e um método baseado na distribuição da intensidade de extremidade na imagem obtida pela unidade de imagem 10. Neste caso, U1 denota o nível de turbidez branca da lente 12 calculado baseado no gradiente de brilho, e U2 denota o nível de turbidez branca da lente calculado baseado na distribuição da intensidade de extremidade.
[082] A primeira calculadora de nível de turbidez branca 22 detecta a imagem de um farol dianteiro de um veículo que segue atrás ou a imagem através da reflexão da luz do sol da imagem I (x,y) pela unidade de imagem 10, define uma linha predeterminada na imagem detectada, e calcula o nível de turbidez branca U1 da lente baseado no gradiente de brilho da linha predeterminada.
[083] Isso é porque uma imagem de uma forte fonte de luz, tais como um farol dianteiro ou dispersões do sol pela turbidez branca de uma lente, e o nível de dispersão são mudados de acordo com o nível de turbidez branca da lente, de modo que a imagem da forte fonte de luz é observada como uma imagem possuindo uma mais ampla região brilhante quando o nível de turbidez branca é alto.
[084] As Figuras 8(a), 8(b) ilustram a imagem I (x, y) atualmente observadas pela unidade de imagem 10 do reconhecedor de imagem em veículos 8, e incluindo o farol dianteiro de um veículo que segue atrás viajando na mesma pista que o veículo 5. A Figura 8(a) ilustra uma imagem em um caso onde a superfície da lente 12 não possui turbidez branca. A Figura 8(b) ilustra uma imagem em um caso onde a superfície da lente 12 possui turbidez branca.
[085] Gráficos ilustrados abaixo das imagens I (x, y) nas Figuras 8(a), 8(b) ilustram cada uma distribuição de um valor de brilho (doravante, referido como distribuição de brilho Ld) em uma direção de varredura (linha) OP estendendo-se para a esquerda a partir do ponto de início de varredura O na imagem do farol dianteiro como um ponto de início e uma distribuição de brilho Ld em uma linha OQ estendendo-se para a direita a partir do ponto de início de varredura O na imagem de um farol dianteiro como um ponto de início, mostrado dentro de um gráfico.
[086] Na Figura 8(a), é definido que um número de pixel de direção horizontal ou esquerda-direita a partir de um ponto onde a distribuição de brilho Ld na linha OP vai para baixo sob um limiar A para um ponto onde a distribuição de brilho Ld vai para baixo sob um valor de limiar B o qual é mais baixo que o limiar A é referido como LW, e um número de pixel de direção horizontal ou esquerda-direita a partir de um ponto onde a distribuição de brilho Ld na linha OQ vai para baixo sob um limiar A para um ponto a distribuição de brilho Ld vai para baixo sob um limiar B o qual é mais baixo do que o limiar A é referido como RW. Então, o gradiente de brilho g é calculado ao usar diferença de brilho DI (= A - B) como DI / LW (gradiente de brilho na linha OP) e - DI / RW (gradiente de brilho na linha OQ). No caso da Figura 8(a) onde a lente não possui turbidez branca, um valor absoluto de gradiente de brilho g é um valor amplo e a distribuição de brilho Ld possui uma pequena dispersão e é aguçada.
[087] Por outro lado, no caso da Figura 8(b) onde a lente possui turbidez branca, um valor absoluto do gradiente de brilho g é um valor menor e a distribuição de brilho Ld é ampliada.
[088] A primeira calculadora de nível de turbidez branca 22 calcula o nível de turbidez branca U1 da lente 12 com o uso da magnitude do gradiente de brilho g. Mais especificamente, como o valor absoluto do gradiente de brilho g é menor, o nível de turbidez branca é calculado como um nível mais alto. Em adendo, conforme descrito em detalhe mais tarde, a fim de melhorar o fator de certeza do cálculo de nível de turbidez branca, é determinado que a turbidez branca ocorra quando um menor gradiente de brilho g for mantido por um certo período.
[089] Doravante, um método para calcular o nível de turbidez branca U1 o qual é executado na primeira calculadora de nível de turbidez branca 22 será descrito em detalhe com referência à Figura 9.
[090] Na Etapa S20, a imagem (x, y) (doravante, referida como imagem I) obtida através da unidade de imagem 10 é minimizada através de uma proporção predeterminada, e a imagem minimizada I’ (x, y) (doravante, referido como imagem minimizada I’) é gerada). A imagem é minimizada conforme acima descrito para reduzir uma memória requerida mediante um processo de imagem e para melhorar uma velocidade de processo. Uma escala específica é determinada em vista de especificações de computadores usados, de um desempenho de resolução de imagem, e os similares.
[091] A diminuição da imagem é desempenhada ao diluir pixels e pode ser desempenhada ao calcular a média dos valores de brilho de pixels adjacentes. Em virtude do processo, a imagem ilustrada na Figura 10(a) é minimizada para a imagem ilustrada na Figura 10(b).
[092] Em seguida, na Etapa S21, uma região para detectar a imagem do farol dianteiro de um veículo que segue atrás ou a imagem de reflexão da luz do sol é definida na imagem minimizada I’ obtida na etapa S20. Nesta modalidade, uma região possuindo a imagem de um farol dianteiro de um veículo que segue atrás viajando na mesma pista Y2 conforme o veículo 5 é definido, e a imagem do farol dianteiro de um veículo que segue atrás ou a imagem de reflexão da luz do sol é detectada a partir da região. Devido à limitação da região de processo conforme acima descrito, a carga do computador pode ser reduzida.
[093] Um exemplo da região de processo definida conforme acima descrito é ilustrada na Figura 11. Conforme ilustrado na Figura 11, uma área de processo E é definida como uma posição superior esquerda definida como (x1, y1 ) e uma posição inferior direita definida como (x2, y2) com relação a uma imagem possuindo n pixels em uma direção horizontal e m pixels em uma direção vertical.
[094] Uma posição vertical da área de processo E é definida baseada em uma posição de uma coordenada vertical VY (referindo à Figura 11) de um ponto de desaparecimento definido por uma posição instalada em altura e um ângulo instalado vertical da unidade de imagem 10 para o veículo 5. O ponto de desaparecimento corresponde a um ponto no infinito.
[095] Uma posição horizontal da área de processo E é definida de acordo com a posição instalada horizontal da unidade de imagem 10 para o veículo 5. Que é, quando a unidade de imagem 10 é disposta no centro do veículo 5, a área de processamento E é definida na imagem minimizada I’ em uma maneira simétrica na direção horizontal. A Figura 11 é um exemplo quando a posição instalada da unidade de imagem 10 para o veículo 5 é deslocada na direção horizontal, e a área de processo E é definida em uma maneira assimétrica na direção horizontal.
[096] Em seguida, na Etapa S22, a imagem minimizada I’ é binarizada com um limiar predeterminado na área de processamento E definida na Etapa S21 para ser convertida em uma imagem binarizada, e um processo de etiquetagem para numerar cada região constituindo a imagem binarizada é executado na imagem binarizada. Neste caso, conforme o predeterminado limiar, um valor com o qual a imagem do farol dianteiro de um veículo que segue atrás viajando na mesma pista Y2 como o veículo 5, pode ser detectado e um valor com o qual a imagem de reflexão da luz do sol pode ser detectada são usados. Esses valores são previamente definidos através de experimentos ou os similares. Em adendo, esse limiar é armazenado no detector de região 22a.
[097] Quando a imagem I é obtida, o valor do ganho da imagem I é lido a partir do ajustador de ganho 16. Quando o valor lido do ganho é um valor predeterminado ou maior, é determinado que a imagem I é obtida no período da noite e a imagem I é binarizada ao aplicar o limiar para detectar a imagem do farol dianteiro de um veículo que segue atrás.
[098] Por outro lado, quando o valor do ganho da imagem I é menor do que um valor predeterminado, é determinado que a imagem I é obtida no período do dia, e a imagem I é binarizada ao aplicar o limiar para detectar a imagem de reflexão da luz do sol.
[099] A imagem ilustrada na Figura 10(c) é obtida pelo processo de etiquetagem e binarização.
[0100] Em seguida, na Etapa S23, é determinado ou não se lá existe a imagem do farol dianteiro ou a imagem de reflexão da luz do sol na imagem para a qual o processo de etiquetagem é executado na Etapa S22. O processo executado na Etapa S23 será descrito com referência às Figuras 12(a), 12(b).
[0101] A imagem do farol dianteiro de um veículo que segue atrás viajando na mesma pista Y2 que o veículo 5, a qual é obtida através da unidade de imagem 10, possui uma aproximada forma circular mostrada como uma região R0 na Figura 12(a). Conformemente, em relação a cada região onde o processo de etiquetagem é executado, quando uma área H0W0 de uma região retangular (número de pixel vertical H0, número de pixel horizontal W0) é circunscrito para a região, é determinado que uma área da região ocupe uma proporção predeterminada ou mais dentro da área H0W0 e que uma largura e uma altura do quadrado circunscrito para a região não são diferentes um do outro a uma proporção predeterminada ou mais. Pode ser assim determinado ou não se lá existe a imagem de um farol dianteiro.
[0102] A imagem de reflexão da luz do sol a qual é obtida através da unidade de imagem 10 possui uma aproximada forma circular similar à região R0. O limiar da ocupação mostrando a forma da imagem e o limiar da proporção horizontal para vertical do quadrado circunscrito é, por conseguinte, quantificados similares à imagem do farol dianteiro, de modo que é determinado ou não se a região detectada realmente satisfaz as condições.
[0103] De acordo com a determinação, por exemplo, uma região possuindo uma forma, tal como uma região R1, R2, ou R3, ilustrada na Figura 12(b) é determinada como não sendo a imagem a imagem de um farol dianteiro ou a imagem de reflexão da luz do sol e indeferida.
[0104] De acordo com a determinação, uma região satisfazendo as condições é selecionada conforme ilustrado na Figura 10(d). Quando uma pluralidade de regiões satisfazendo as condições é encontrada, uma região possuindo a maior área é selecionada. Quando nenhuma região satisfazendo as condições é encontrada (nenhuma na Etapa S23), o processo retorna para a rotina principal (Figura 7).
[0105] Em seguida, na Etapa S24, uma posição centroide G da região selecionada na Etapa S23 é calculada. Quando uma coordenada da posição centroide G da região é definida como G (Gx, Gy), uma posição horizontal Gx da posição centroide G é calculada ao dividir uma soma de coordenadas horizontais de todos os pixels formando a região pela área da região, e uma posição vertical Gy da posição centroide G é calculada ao dividir a soma de coordenadas verticais de todos os pixels formando a região pela área da região.
[0106] Em seguida, na Etapa S25, um ponto de início de varredura O para calcular o gradiente de brilho g e uma direção de varredura (linha) para calcular um gradiente de brilho são definidos na imagem minimizada I’. O ponto de início de varredura O e a linha são definidas de acordo com a determinação de uma posição e uma direção nas quais são insuscetíveis a respingos pelo carro 5, da reflexão da superfície da estrada do farol dianteiro de um veículo que segue atrás viajando em uma pista próxima, ou os similares baseados em experimentos e os similares.
[0107] Nesta modalidade, conforme ilustrado na Figura 13, o ponto de início de varredura O para calcular o gradiente de brilho g é definido entre a posição centroide G da região R0 e o ponto supremo J da região R0. A Figura 13 é uma visão descrevendo um exemplo de configuração das linhas OP, OQ para calcular o gradiente de brilho, e um exemplo do gradiente de brilho o qual é calculado nas linhas OP, OQ.
[0108] Mais especificamente, uma coordenada vertical Ou do ponto de início de varredura O é obtido através da Equação 1: Equação 1: Oy = Jy + (Gy - Jy) / Thy (1) onde Jy é uma coordenada vertical do ponto supremo J da região R0. O limiar Thy é definido para um valor maior do que 0. O valor do limiar Thy é definido baseado nos experimentos ou os similares.
[0109] Conforme ilustrado na Figura 13, linhas paralelas a uma linha horizontal passando o ponto de início de varredura O e a posição centroide G da região R0 são definidos como as linhas OP, OQ.
[0110] Em seguida, na Etapa S26, os valores de brilho armazenados na imagem minimizada I’ são lidas na linha OP a partir do ponto de início de varredura O para o ponto P para calcular a distribuição de Ld. Os valores de brilho armazenados na imagem reduzida I’ são lidos na linha OQ para calcular a distribuição de brilho Ld.
[0111] As distribuições de brilho de Ld calculadas conforme acima descrito são ilustradas no gráfico da Figura 13. O gráfico ilustra a distribuição de brilho na linha OP e a distribuição de brilho na linha OQ em um único gráfico por uma questão de descrição.
[0112] Em seguida, na Etapa S27, o tamanho de uma saia da distribuição de brilho Ld em uma direção horizontal é obtido. Aqui, o limiar A do valor de brilho e o limiar B do valor de brilho menor do que o limiar A são previamente preparados. Na distribuição de brilho Ld previamente preparada, os valores de brilho são varridos a partir do ponto de início de varrição O para o ponto P em uma direção para a esquerda para calcular um intervalo entre uma posição onde o valor de brilho desce abaixo do limiar A e uma posição onde o valor de brilho desce abaixo do limiar B como o número de pixel horizontal Lw, conforme ilustrado na Figura 13. Então, os valores de brilho são varridos a partir do ponto de início de varrição O para o ponto Q em uma direção para a direita para calcular um intervalo entre uma posição onde o valor de brilho desce abaixo do limiar A e uma posição onde o valor de brilho desce abaixo do limiar B conforme o número de pixel horizontal RW.
[0113] Em seguida, na Etapa S28, o gradiente de brilho g é calculado. Mais especificamente, a diferença de brilho DI ( = A - B) o qual é um valor de diferença entre o limiar A e o limiar B é usado para calcular o gradiente de brilho g na linha OP como DI / LW e para calcular o gradiente de brilho g na linha OQ como - DI / RW.
[0114] Em seguida, na Etapa S29, é determinado ou não se DI / LW e DI / RW os quais são os gradientes de brilho de esquerda e de direita g da região R0 possuindo simetria. A determinação de simetria é executada ao confirmar ou não se um uma lacuna GI do gradiente de brilho g calculado pela Equação 2 é um limiar predeterminado ThG ou abaixo.Equação 2: GI = ( | LW | - | RW | ) / ( | LW | + | RW | )
[0115] No caso onde uma pluralidade de regiões aparece continuamente em uma direção horizontal, uma magnitude do gradiente de brilho esquerdo g é diferente a partir de uma magnitude do gradiente de brilho direito g e, portanto, a lacuna GI calculada pela Equação 2 se torna maior do que o limiar ThG. Neste caso, o cálculo do nível de turbidez branca não é executado e o processo se move para a Etapa S35.
[0116] Em seguida, na Etapa S30, o nível de turbidez branca U1 da lente 12 é calculado. O nível de turbidez branca U1 é calculado como um valor médio dos valores absolutos de DI / LW e -Di / RW os quais são os previamente calculados gradientes de brilho direito e esquerdo g, conforme ilustrado na Equação 3. Equação 3: U1 = { ( Lw / Di ) + (Rw / Di ) } / 2
[0117] Na Equação 3, os inversos dos gradientes de brilho g são calculados em uma média. Tal cálculo é para obter um maior valor de U1 conforme o nível de turbidez branca da lente 12 seja um nível mais alto (o nível de fuligem é um nível mais alto).
[0118] Em seguida, na Etapa S31, é determinado ou não se a região detectada previamente R0 é idêntica à uma região R0 detectada em uma etapa antes. Nomeadamente, é determinado ou não e as imagens são obtidas a partir da mesma fonte de luz.
[0119] A determinação é desempenhada ao comparar um valor médio Ave (U1) dos níveis de turbidez branca U1 calculados no processo anterior com o último nível de turbidez branca calculado através da Equação 3. Quando uma diferença entre um valor médio Ave (U1) dos níveis de turbidez branca anterior e o último nível de turbidez branca U1 for pequeno, é determinado que as imagens sejam obtidas a partir da mesma fonte de luz na região.
[0120] O processo é executado na calculadora de similaridade 22c. Mais especificamente, quando a Equação 4 é satisfeita, é determinado que as imagens sejam geradas a partir da mesma fonte de luz: Equação 4: ThLOw < U1 / Ave (U1) < ThHiGH onde, ThLOw é o limiar mínimo para determinar que as imagens são a partir da mesma fonte de luz e ThHiGH é o limiar máximo para determinar que as imagens são a partir da mesma fonte de luz.
[0121] Na Etapa S31, quando é determinado que as imagens são a partir da mesma fonte de luz, então, uma contagem total T mostrando que as imagens as quais são consideradas a partir da mesma fonte de luz são continuamente detectadas e são incrementadas na Etapa S32, e o processo se move para a Etapa S34. Em adendo, os processos após a Etapa S32 são executados na unidade de determinação de fator de certeza 22d, e o valor da contagem total T o qual é incrementado na Etapa S32 é armazenado conforme necessário na unidade de determinação de fator de certeza 22d.
[0122] Por outro lado, na Etapa S31, quando é determinado que as imagens não são da mesma fonte de luz, a contagem total T é decrementada na Etapa S33, e o processo se move para a Etapa S35. Em adendo, o valor da contagem total T decrementado na Etapa S33 é armazenado conforme necessário na unidade de determinação de fator de certeza 22d.
[0123] Em seguida, na Etapa S34, o nível de turbidez branca U1 previamente calculado na Etapa S30 é armazenado na unidade de determinação de fator de certeza 22d. O valor médio Ave (U1) dos níveis de turbidez branca é recalculado e atualizado baseado no valor médio (U1) dos níveis de turbidez branca calculado no processo passado e o previamente calculado nível de turbidez branca U1. O atualizado valor médio Ave (U1 ) dos níveis de turbidez branca é armazenado na unidade de determinação de fator de certeza 22d.
[0124] Na Etapa S35, o fator de certeza F do nível de turbidez branca calculado é determinado e atualizado. O fator de certeza F é expresso através de um valor da contagem total T. É determinado que quanto maior o valor de T é, nomeadamente, é considerado como o nível de turbidez branca U1 o qual é continuamente detectado baseado no gradiente de brilho da imagem pela mesma fonte de luz, mais alto o fator de certeza F é. Então, o valor do fator de certeza F é atualizado.
[0125] Em adendo, na presente modalidade, conforme ilustrado na Figura 14, o fator de certeza F é gerido pela divisão em quatro níveis tais como Ph0, Ph1, Ph2, e Ph3. Ph3 mostra o mais alto fator de certeza F, nomeadamente, isso mostra que o nível de turbidez branca U1 calculado é mais confiável. O nível do fator de certeza F é deslocado de acordo com o valor T.
[0126] Nomeadamente, na Figura 14, em estado inicial, o nível do fator de certeza F é Ph0. Quando o valor da contagem total T mostrando que as imagens consideradas a partir da mesma fonte de luz são continuamente detectadas excedem um valor predeterminado T1, o nível do fator de certeza F é deslocado para Ph1. Então, quando o valor da contagem total T excede um valor predeterminado T2, o nível do fator de certeza F é deslocado para Ph2. Quando o valor da contagem total T excede um valor predeterminado T3, o nível do fator de certeza F é deslocado para Ph3.
[0127] Por outro lado, quando o nível do fator de certeza F é Ph3, e o valor da contagem total T é decrementado e desce abaixo do valor predeterminado T4, o nível de fator de certeza F é deslocado para Ph2. Então, quando o valor da contagem total T desce abaixo do valor predeterminado T5, o nível do fator de certeza F é deslocado para Ph1. Quando o valor da contagem total T desce abaixo do valor predeterminado T6, o nível do fator de certeza F é deslocado para Ph0.
[0128] Quando o fator de certeza F é deslocado para outro nível, a fim de prevenir a caça onde o fator de certeza F retorna para o nível original, se o fator de certeza F é deslocado para um nível mais alto, um valor predeterminado Tc1 pode ser adicionado para a contagem total T, e se o fator de certeza F é deslocado para um nível mais baixo, um valor predeterminado Tc2 pode ser subtraído a partir da contagem total T. Quando a atualização do fator de certeza F é executada, o processo da Figura 9 é completado, o processo retorna para a rotina principal (Figura 7).
[0129] (Processo de Cálculo de Nível de Turbidez Branca baseado na Intensidade de Extremidade)
[0130] A segunda calculadora de nível de turbidez branca 24 calcula um nível de turbidez branca U2 de uma lente baseado em uma distribuição de intensidade de borda a partir da imagem I obtida pela unidade de imagem 10.
[0131] Quando a turbidez branca ocorre na superfície da lente 12, a imagem desfocada I é obtida. O nível de desfocagem se torna mais alto conforme o nível de turbidez branca se torna mais alto. Nesta modalidade, o nível de desfocagem é calculado baseado na distribuição da intensidade de extremidade na imagem I.
[0132] Doravante, o procedimento de cálculo do nível de turbidez branca U2 será descrito com referência à Figura 15.
[0133] A princípio, referindo-se à Figura 15, na Etapa S40, uma região para executar a detecção de extremidade é definida na imagem I obtida pela unidade de imagem 10 na calculadora de intensidade de extremidade 24a. A região para executar a detecção de extremidade pode ser definida para toda a imagem I ou limitada para uma posição onde uma extremidade é provável que apareça.
[0134] No período do dia, uma região incluindo uma linha do horizonte na parte traseira do veículo 5 pode ser definida, a detecção de extremidade pode ser executada para o interior da região, e a intensidade de extremidade pode ser calculada baseada na extremidade formada pela linha do horizonte. No período da noite, uma região incluindo as pistas Y1, Y3 próximas à pista Y2 na qual o veículo 5 viaja pode ser definida, a detecção de extremidade pode ser executada para o interior da região, e a intensidade de extremidade pode ser calculada baseada na extremidade de outro veículo 6 em uma pista próxima. Neste caso, o período do dia e o período da noite podem ser distinguidos baseados no valor do ganho ajustado no ajustador de ganho 16 conforme acima descrito.
[0135] Em seguida, na Etapa S41, na calculadora de intensidade de extremidade 24a, a intensidade de extremidade é obtida com relação a cada pixel na imagem I com o uso de um operador de detecção de extremidade na região definida na Etapa S40. Um coeficiente de um filtro de detecção de extremidade para uso neste processo não é especificamente limitado.
[0136] Em seguida, na Etapa S42, em um analisador de intensidade de extremidade 24b, os valores da intensidade de extremidade calculada em relação a cada pixel da imagem I são calculados em média para calcular uma intensidade de extremidade média. Em adendo, a intensidade de extremidade média é previamente normalizada por uma área da região para a detecção de extremidade. Consequentemente, é determinado que quanto menor a intensidade de extremidade média calculada é, mais baixa a claridade da imagem I é, nomeadamente, quanto maior o nível de turbidez branca é. Além disso, é determinado que quanto maior a intensidade de extremidade média é, maior a claridade da imagem I é, nomeadamente, quanto menor o nível de turbidez branca é.
[0137] Em adendo, a intensidade de extremidade média pode ser calculada não apenas a partir de uma imagem, mas também a partir de uma pluralidade de imagens obtidas em diferentes momentos. Quando a intensidade de extremidade média é calculada a partir de uma pluralidade de imagens, a intensidade de extremidade média é calculada ao calcular a média da intensidade de extremidade média de uma pluralidade de imagens. A claridade da imagem I pode ser assim estavelmente avaliada mesmo quando o ruído é repentinamente misturado na imagem I. Neste caso, uma mudança na intensidade de extremidade média é obtida para um período predeterminado. Quando uma mudança na intensidade de extremidade média é pequena, é determinado que a intensidade de extremidade média calculada, nomeadamente, a confiabilidade do nível de turbidez branca é alta, e o acima descrito fator de certeza F pode ser calculado.
[0138] Na Etapa S43, o nível de turbidez branca U2 é calculado baseado na intensidade de extremidade média. Mais especificamente, por exemplo, o inverso da intensidade de extremidade média normalizada é calculada como o nível de turbidez branca U2.
[0139] (Processo de Detecção de Matéria Fixada)
[0140] Em seguida, os detalhes do processo de detecção de matéria fixada na Etapa S6 da Figura 7 será descrito com referência às Figuras 16 a 19. Na calculadora de nível de fixação 26, o nível de fixação da matéria fixada, tais como sujeira ou gota de água, fixada às lentes 12 é calculado baseado na distribuição do valor de brilho e da intensidade de extremidade na imagem I. Neste caso, M denota o nível de fixação da matéria fixada calculada na calculadora de nível de fixação 26.
[0141] Doravante, um método para cálculo do nível de fixação M da matéria fixada o qual é executado na calculadora de nível de fixação 26 será descrito em detalhe com referência a um exemplo para detectar uma matéria fixada de sujeira.
[0142] Na Etapa S50, na unidade de definição de região de processo 26a, a imagem I obtida pela unidade de imagem 10 é minimizada com uma proporção predeterminada para obter a imagem minimizada I’. A imagem é minimizada conforme acima descrito e reduz uma memória requerida mediante um processo de imagem e para melhorar uma velocidade de processo. Uma escala específica é determinada em vista de especificações de computador usado, de um desempenho de resolução de imagem, e os similares. Então, uma área para executar a detecção de matéria fixada é definida na minimizada imagem I’.
[0143] A imagem minimizada I’ aqui gerada possui o mesmo número de referência que a minimizada imagem I’ gerada para calcular o nível de turbidez branca. Contudo, a escala não é necessária ser a mesma escala para ambas as imagens minimizadas. As imagens são minimizadas com uma escala de acordo com as respectivas imagens.
[0144] Toda a minimizada imagem I’ pode ser definida para a região para executar a detecção de matéria fixada. Contudo, na presente modalidade, uma região englobando uma região de detecção de veículo do sistema de BSW 9 o qual é uma aplicação de reconhecimento de imagem para ser usado, é definida para uma região de alvo de processo. Ao definir a região de alvo de processo conforme acima descrito, a precisão da aplicação de reconhecimento de imagem pode ser melhorada, e a eficiência do processo do processo de detecção de matéria fixada pode ser também melhorada.
[0145] Na Etapa S50, a definida região de alvo de processo é dividida em uma pluralidade de blocos 201, conforme ilustrado na Figura 17. Os processos subsequentes são executados em relação a cada bloco. Nesta modalidade, o tamanho de cada bloco 201 é definido para um tamanho de uma matéria fixada para ser detectada ou abaixo. Ao definir o tamanho de cada bloco conforme descrito acima, apenas a sujeira pode ser confiavelmente e efetivamente detectada. A informação tal como uma coordenada de cada bloco 201 dividido conforme acima descrito é armazenada na unidade de definição de região de processo 26a de acordo com um número de bloco aplicado para cada bloco.
[0146] Em seguida, na Etapa S51, no detector de extremidade 26b, um processo de detecção de extremidade e relativa eliminação de nariz para os resultados de detecção de extremidade são executados. O processo de detecção de extremidade é executado para a minimizada imagem I’ gerada na Etapa S50. Essa detecção de extremidade é executada por um método conhecido. Um processo de limiar é executado para a intensidade de extremidade obtida pela detecção de extremidade, e um ponto de configuração de extremidade necessário é apenas extraído. Que é a intensidade de extremidade p gera uma imagem de extremidade E (x, y) incluindo apenas o ponto de configuração de extremidade (ponto de configuração de extremidade fraco) possuindo um valor dentro de uma faixa predeterminada.
[0147] A Figura 18(b) ilustra um exemplo da imagem de extremidade E (x, y) gerada conforme acima descrito. A Figura 18(b) ilustra a imagem de extremidade E (x, y) obtida a partir da minimizada imagem I’ ilustrada na Figura 18(a). Na Figura 18(b), porções de sujeira são detectadas como extremidades fracas.
[0148] A sujeira enquanto um veículo está viajando em uma estrada de condição deteriorada, tal como estrada não pavimentada e de terra, enquanto um veículo está viajando sobre uma estrada pavimentada difere em concentração e cor, e pode diferir em nível de intensidade de extremidade fraca embora elas possuam a mesma sujeita. A intensidade de extremidade pode diferir de acordo com o tipo da matéria fixada. Por essa razão, uma pluralidade de limiares é preparada relativa à intensidade de extremidade p de acordo com as condições da estrada, condições de viagem, tipos de matérias fixadas, condições de fixação, ou os similares. Isto pode ser determinado o qual o limiar é usado mediante a execução do processo de detecção de matéria fixada.
[0149] Na Etapa S51, um processo de eliminação de nariz de eliminação de um ruído na imagem de extremidade gerada E (x, y) é executado. Na presente modalidade, o ponto de configuração de extremidade satisfazendo as seguintes condições é definido como um ruído.(a)Um ponto de configuração de extremidade no qual um ponto de configuração de extremidade E (x, y) detectado no processo anterior não é detectado na mesma posição no presente processo de detecção de extremidade.(b)Um ponto de configuração de extremidade possuindo uma área de um valor predeterminado ou abaixo.
[0150] A princípio, AND da imagem de extremidade E (x, y, t) gerada em um momento t e a imagem de extremidade E (x, y, t-Δt ) gerada no momento t-Δt pelo último processo de detecção de extremidade é obtido, e o ponto de configuração de extremidade satisfazendo a condição acima (a) é eliminado como um ruído. Isto é por causa do ponto de configuração de extremidade o qual é detectado no processo de detecção de matéria fixada é uma extremidade de uma matéria fixada aderida à lente 12, e a matéria fixada aderida à lente 12 existem na mesma posição por um certo período.
[0151] Em seguida, o ponto de configuração de extremidade satisfazendo a condição acima (b) é eliminado como um ruído. Isso é porque a extremidade da fuligem aderida à lente 12 possui um certo tamanho, de modo que seja considerado que uma extremidade pequena independente não é uma fuligem. Ao eliminar um ruído conforme acima descrito, a questão da lente fixada pode ser detectada com alta precisão.
[0152] Em seguida, na Etapa S52, na calculadora de distribuição de brilho 26c, o processo de cálculo de distribuição de brilho é executado. Neste caso, o valor de brilho médio I ave (u, v) dos pixels em cada bloco 201 é calculado em relação a cada bloco 201 definido na Etapa S50. Aqui, u, v denotam uma posição horizontal e uma posição vertical em cada bloco. Em adendo, o valor de brilho médio I ave (u, v ) é calculado ao obter uma soma dos valores de brilho dos pixels no bloco 201, e dividindo a soma obtida dos valores de brilho com a área (o número de pixels) do bloco 201.
[0153] Em seguida, na Etapa S53, um bloco de atenção e um bloco ao redor do bloco de atenção (doravante, bloco periférico) são definidos baseados no valor de brilho médio I ave (u, v) de cada bloco. O bloco ilustrado pela linha grossa na Figura 19 é o bloco de atenção 201a. Que é, o valor de brilho da região onde a sujeira está fixada é provável que seja mais baixa do que o valor de brilho médio da região onde a sujeira não está fixada.
[0154] Além disso, blocos localizados na circunferência externa dos blocos 201 adjacentes ao bloco de atenção 201a são selecionados como os blocos periféricos 201b. Nomeadamente, a sujeira é usualmente aderida não apenas a um bloco, mas também aos blocos adjacentes. É, por conseguinte, considerada a diferença no valor de brilho médio Iave (u, v) entre o bloco de atenção 201a e os blocos adjacentes sendo pequena. Por essa razão, os blocos de fora dos blocos adjacentes ao bloco de atenção 201a são selecionados como blocos periféricos 201 b.
[0155] Em adendo, o método de definição o bloco periférico 201b não é limitado ao acima. Quando uma área de anexação de uma matéria fixada é pequena, o bloco 201 adjacente ao bloco de atenção 201a pode ser definido como um bloco periférico 201b. Além disso, quando uma área de anexação de uma matéria fixada é grande, um bloco a alguns blocos de distância do bloco de atenção 201a pode ser definido como um bloco periférico 201b.
[0156] Em seguida, na Etapa S54, o número de blocos periféricos 201b (bloco periférico brilhante) possuindo um valor de brilho médio Iave (u, v) mais alto do que o valor de brilho médio I ave (u, v) do bloco de atenção 201a é contabilizado. Neste caso, a contagem é executada com o uso do valor de brilho antes da binarização. Em seguida, a proporção do bloco periférico brilhante 201b (o número de blocos periféricos brilhantes / total de blocos periféricos) é calculado. Neste caso, a proporção do bloco periférico brilhante torna-se mais alta para o bloco (bloco de atenção) possuindo sujeira.
[0157] Em seguida, na Etapa S55, o número de pixels constituindo uma extremidade fraca é contabilizado a partir da imagem de extremidade E (x, y) detectada no processo de detecção de extremidade. A contagem da extremidade fraca é executada com o uso da imagem após a binarização. A sujeira fixada à lente 12 não é focada, e possui um contorno de orifício bloqueado. Tal sujeira é provável que possua uma extremidade fraca como um bloco. Consequentemente, no processo de detecção de matéria fixada da presente modalidade, o número de pontos de configuração de extremidade fracos é contabilizado em relação a cada bloco, e o número contabilizado é armazenado.
[0158] Após completar o processo acima relativo a uma imagem minimizada I’, o processo de determinação de tempo de processo é executado na Etapa S56. Na Etapa S56, é determinado ou não se um tempo predeterminado tenha passado. Quando um tempo predeterminado tiver passado, o processo se move para a Etapa S57. Quando um tempo predeterminado não tenha passado, o processo retorna para a Etapa S50.
[0159] Ao repetir as Etapas S50 e S55 dentro de um tempo predeterminado conforme acima descrito, a informação tal como o valor de brilho médio, a proporção do bloco periférico brilhante, e o número contabilizado da extremidade fraca são armazenados em ordem cronológica. Em adição, o tempo predeterminado pode ser livremente definido de acordo com tipos de matérias fixadas, informação do veículo, tal como uma velocidade veicular, ou os similares. Por exemplo, em um dia chuvoso ou durante uma viagem em uma estrada não pavimentada, a sujeira é frequentemente fixada à lente. Por essa razão, é necessário detectar a sujeira em um curto período de tempo, e um aviso rápido é requerido. Por conseguinte, é preferível definir um curto tempo predeterminado.
[0160] Por outro lado, em um dia ensolarado ou durante uma viagem em uma estrada pavimentada, a sujeira dificilmente se anexa à lente. A fim de permitir a detecção de alta precisão, é preferível acumular informação por um longo período de tempo. É, por conseguinte, preferível definir um tempo predeterminado longo.
[0161] Em seguida, na Etapa S57, na calculadora de mudança de brilho 26d, o processo de extração de mudança de brilho é executado. Uma vez que a sujeira fixada à lente dificilmente se move mesmo após o decorrer de um certo período de tempo e a permeabilidade da sujeira é baixa, uma mudança no valor de brilho em uma direção de tempo dentro da região se torna pequena. A fim de estudar tal mudança no valor de brilho na direção de tempo, a dispersão e o valor médio dos valores de brilho médio I ave (u, v) na direção de tempo nos mesmos blocos é calculado.
[0162] Na Etapa S57, os valores de brilho médio I ave (u, v ) dos mesmos blocos são calculados em uma média na direção de tempo, de modo que um valor de brilho médio de tempo E0 é calculado em relação a cada bloco.
[0163] Em seguida, a dispersão V do valor de brilho médio Iave (u, v) na direção de tempo é calculada em relação a cada bloco baseada no valor de brilho médio de tempo E0 calculado de cada bloco.
[0164] Então, na Etapa S58, a determinação de sujeira é desempenhada na unidade de determinação de matéria fixada 26e.
[0165] A determinação de sujeira é executada ao calcular uma pontuação de sujeira em relação a cada bloco 201 baseada na seguinte informação.
[0166] Mais especificamente, no bloco 201 tendo um número de contagem das bordas fracas menor do que o limiar, é considerado que a taxa de fixação da sujeita é baixa e a contagem de sujeita é baixa. Quando a proporção do número de bloco de brilho nos blocos periféricos 201b é maior do que um limiar, é considerado que a contagem de fuligem do bloco 201 é alta. Quando a dispersão do valor da média de brilho do bloco 201 tendo uma contagem de fuligem alta é um limiar predeterminado ou abaixo, é considerado que a fuligem é também para ser fixada no bloco 201.
[0167] De acordo com a contagem de fuligem calculada, quando a contagem de fuligem do bloco 201 é um limiar ou mais e a dispersão V do valor de brilho em média de tempo E0 do bloco 201 é um limiar predeterminado ou baixo, é determinado que o bloco 201 inclui fuligem. Então, um nível de fixação M de acordo com a contagem de fuligem é calculado.
[0168] Além disso, a determinação de fuligem é descrita no exemplo acima. Entretanto, a matéria fixada não está limitada a fuligem. O nível de fixação M pode ser similarmente calculado mesmo quando a gota de água está fixada nas lentes. Então, após ter completado a Etapa S58, o processo volta para manter a rotina principal (FIG. 7).
[0169] (Processo de Cálculo de Nível de Fuligem nas Lentes)
[0170] Em seguida, os detalhes do processo de cálculo de nível de fuligem nas lentes que é executado na Etapa S7 da FIG. 7 serão descritos.
[0171] Neste caso, o nível de fuligem das lentes 12 é quantificado com base no primeiro nível de turbidez branca calculado anteriormente U1, o segundo nível de turbidez branca U2, e o nível de fixação M.
[0172] Mais especificamente, em primeiro, um nível de turbidez branca U das lentes 12 é calculado com base no valor do primeiro nível de turbidez branca U1 ou o valor do segundo nível de turbidez branca U2. Neste caso, o nível de turbidez branca U pode ser calculado com base apenas no primeiro nível de turbidez branca U1, o nível de turbidez branca U pode ser calculado com base apenas no Segundo nível de turbidez branca U2, ou o nível de turbidez branca U pode ser calculado com base em ambos o primeiro e o segundo níveis de turbidez branca U1, U2.
[0173] O uso de um nível de turbidez branca U1 ou o segundo nível de turbidez branca U2 é determinado com base no ambiente sob o qual estes valores são calculados e o fator de certeza do primeiro nível de turbidez branca U1 ou o segundo nível de turbidez branca U2.
[0174] Nomeadamente, quando a magnitude do ganho é um valor predeterminado ou mais após o monitoramento do valor do ganho ajustado no ajustador de ganho 16, isto é, no período da noite, o farol do seguinte veículo do veículo 5 é claramente feito como uma pintura. Portanto, o valor do nível de turbidez branca U é calculado usando o valor do primeiro nível de turbidez branca U1 calculado a partir daquela imagem do farol.
[0175] Entretanto, mesmo no período da noite, quando o seguinte veículo não existe o primeiro nível d turbidez branca U1 não pode ser calculado com base na imagem do farol. Neste caso, o valor do nível de turbidez branca U é calculado usando o valor do segundo nível de turbidez branca U2 quando a imagem do farol não é detectada.
[0176] Por outro lado, quando a magnitude do ganho não satisfaz o valor predeterminado, isto é, no período diurno, a imagem de reflexão da luz do sol é claramente feita como uma foto. Portanto, o valor do nível de turbidez branca U é calculado usando o valor do primeiro nível de turbidez branca U1 calculado a partir da imagem de reflexão da luz do sol.
[0177] Entretanto, mesmo no período diurno, quando a imagem de reflexão da luz do sol não existe, o primeiro nível de turbidez branca U1 não pode ser calculado com base na imagem de reflexão da luz do sol. Neste caso, o valor do nível de turbidez branca U é calculado usando o valor do segundo nível de turbidez branca U2 quando a imagem de reflexão da luz do sol não é detectada.
[0178] Então, o valor calculado do nível de turbidez branca U e o valor calculado anteriormente do nível de anexação M são informados para o ajustador de sensibilidade de detecção 50.
[0179] (Processo de Correção do Limiar de Detecção do Veículo)
[0180] Em seguida, na Etapa S8 da FIG. 7, a sensibilidade de detecção do veículo quando outro veículo 6 é detectado no detector de veículo 70 é corrigido. Este processo é executado no ajustador de sensibilidade de detecção 50.
[0181] No ajustador de sensibilidade de detecção 50, os vários limiares que são usados para detector um veículo no detector de veículo 70 são corrigidos de acordo com o valor do nível de turbidez branca U e o valor do nível de fixação M. Os limiares específicos serão descritos mais tarde.
[0182] Quando o valor do nível de turbidez branca U é maior, isto é, quando a superfície das lentes 12 tem uma turbidez branca, a claridade da imagem I obtida pela unidade de imagem 10 é deteriorada. Por esta razão, em um caso de execução da detecção de borda, por exemplo, se o limiar da detecção de borda não é corrigido a um menor valor do que quando a superfície das lentes 12 não tem uma turbidez branca, um veículo não pode ser detectado. Os limiares são, portanto, corrigidos.
[0183] Entretanto, na verdade, a correção dos vários limiares com base apenas no valor do nível de turbidez branca U não é suficiente para detectar um veículo. Nomeadamente, quando a superfície das lentes 12 tem uma turbidez branca e a superfície das lentes 12 também tem sujeira ou gotas de água, é determinado que o nível de turbidez branca é ainda avançado no primeiro calculador de nível de turbidez branca 22 mesmo quando o nível de turbidez branca não é mudado, desta maneira o nível de turbidez branca U maior do que um nível atual é calculado.
[0184] Quando vários limiares são corrigidos com base no maior nível de turbidez branca calculado U, a sensibilidade de detecção do veículo se torna muito alta, e um barulho desnecessário é facilmente detectado. Desse modo, torna-se difícil detectar um veículo.
[0185] O ajustador de sensibilidade de detecção 50, portanto, controla a quantidade de correção dos vários limiares em vista não apenas do valor do nível de turbidez branca U, mas também o valor do nível de fixação M quando o valor do nível de fixação M é maior mesmo se o valor do nível de turbidez branca U (nível de turbidez branca maior) é maior. Além disso, o método específico para corrigir o limiar será descrito mais tarde.
[0186] (Processo de Detecção do Veículo)
[0187] Em seguida, os detalhes do processo de detecção de veículo na Etapa S9 da FIG. 7 serão descritos com referência a FIG. 25.
DETECÇÃO DO OBJETO TRIDIMENSIONAL COM BASE NA FORMAÇÃO DE ONDA DIFERENTE
[0188] Primeiro, na Etapa S60, no ajustador de sensibilidade de detecção 50, os vários limiares corrigidos com base no nível de fuligem (nível de turbidez branca U e o nível de fixação M) das lentes 12 são configurados para o veículo mais próximo 72. Os detalhes deste processo serão descritos mais tarde.
[0189] Em seguida, na Etapa S61, no conversor de ponto de vista 72a, a imagem I obtida pela unidade de imagem 10 é convertida em uma imagem de cima para baixo. A seguir, esta conversão é referida como uma conversão de ponto de vista, e uma imagem virtual gerada pela conversão de ponto de vista é referida como uma imagem de conversão de ponto de vista.
[0190] A conversão de ponto de vista é realizada através de uma conversão coordenada para olhar para baixo de uma superfície da Estrada a partir do acima assumindo que a imagem I incluindo a imagem da Estrada obtida pela câmera disposta em uma posição tendo uma relação conhecida com a superfície da estrada inclui a superfície da estrada. A imagem obtida I é convertida em uma imagem d conversão de ponto de vista para distinguir um objeto plano e um objeto tridimensional com o uso de um princípio em que uma borda vertical específica para um objeto tridimensional é convertida em um grupo de luz em linha reta passando através de um ponto particular fixado pela conversão de ponto de vista. Além disso, a imagem de conversão de ponto de vista convertida pela conversão de ponto de vista é usada para a detecção do objeto tridimensional com base na informação de borda descrita em seguida.
[0191] Em seguida, na Etapa S62, a imagem de conversão de ponto de vista obtida no conversor de ponto de vista 72a é introduzido sequencialmente na unidade de alinhamento de posição 72b, e as entradas de imagens de conversão de ponto de vista em diferentes tempos são alinhadas.
[0192] As FIGS. 20(a), 20(b) são vistas descrevendo o processo que é executado na unidade de alinhamento de posição 72b. A FIG. 20(a) é uma vista plana ilustrando o estado de movimento do veículo 5, e a FIG. 20(b) é uma vista descrevendo brevemente o alinhamento.
[0193] Como ilustrado na FIG. 20(a), o veículo 5 é localizado em uma posição V1 no presente momento, e o veículo 5 é localizado em uma posição V2 em um tempo predeterminado antes. Além disso, outro veículo 6 é localizado atrás da linha perto da linha na qual o veículo 5 viaja, outro veículo 6 é localizado em uma posição V3 no presente momento, e outro veículo 6 é localizado na posição V4 em um tempo predeterminado antes. Além disso, o veículo 5 se move a uma distância d no tempo predeterminado. O tempo predeterminado antes pode ser o tempo passado para o tempo predeterminado (por exemplo, um período de controle) a partir do presente momento.
[0194] Nesta situação, a imagem de conversão de ponto de vista PBt do presente momento é como ilustrado na FIG. 20(b). Na imagem de conversão de ponto de vista PBt, uma linha branca em uma superfície da Estrada tem uma forma retangular, mas uma imagem para baixo ocorre na região do outro veículo 6 localizado na posição V3. Similarmente, a imagem de conversão de ponto de vista PBt-1 do período predeterminado antes, a linha branca na superfície da Estrada tem uma forma retangular, mas a imagem para baixo ocorre na região de outro veículo 6 localizado na posição V4.
[0195] Isto é porque uma borda vertical do objeto tridimensional é convertida em um grupo de luz em linha reta ao longo da direção para baixo pela conversão de ponto de vista, mas um padrão em uma superfície de Estrada tal como uma linha branca não inclui a borda vertical, de forma que tal imagem para baixo não ocorre mesmo quando a conversão de ponto de vista é realizada.
[0196] A unidade de alinhamento de posição 72b alinha a imagem de conversão de ponto de vista PBt com a imagem de conversão de ponto de vista PBt-1 que são geradas como descrito acima. Neste caso, a imagem de conversão de ponto de vista PBt-1 do período predeterminado antes é equilibrada pela quantidade correspondente a uma distância onde o veículo 5 se move durante o período predeterminado, de forma que a imagem de conversão de ponto de vista PBt-1 seja alinhada com a imagem de conversão de ponto de vista PBt do presente período.
[0197] O lado direito da imagem de conversão de ponto de vista PBt e a imagem de conversão de ponto de vista central PBt-1 na FIG. 20(b) são equilibrados pela quantidade de equilíbrio d’. A quantidade de equilíbrio d’ é um deslocamento na imagem de conversão de ponto de vista correspondente a uma distância de movimento atual d do veículo 5 ilustrado na FIG. 20(a), e é determinada com base em uma velocidade de veículo do 5 obtida a partir da unidade de obtenção de informação de veículo 60 e um tempo a partir do tempo predeterminado antes do presente momento.
[0198] Em seguida, na Etapa S63, após o alinhamento das imagens de conversão de ponto de vista PBt, PBt-1, uma diferença destes é obtida para gerar uma imagem de diferença PDt. Neste caso, o valor de brilho armazenado na imagem de diferença PDt pode ser um valor absoluto de uma diferença dos valores de brilho dos pixels correspondente as imagens de conversão de ponto de vista PBt, PBt-1, ou o valor de brilho pode ser configurado para 1 quando o valor absoluto excede um primeiro limiar p e o valor de brilho pode ser configurado como 0 quando o valor absoluto excede um primeiro limiar p e o valor absoluto não excede o primeiro valor limiar, a fim de corresponder a uma mudança no ambiente de iluminação.
[0199] A imagem da direita na FIG. 20(b) é uma imagem de diferença PDt. Além disso, o primeiro limiar p é um conjunto de valor no detector de veículo perto 72 na Etapa S60 após ser corrigido no ajustador de detector de sensibilidade 50. O método de correção será descrito mais tarde.
[0200] Em seguida, após a Etapa S64, no detector de objeto tridimensional 72c, um objeto tridimensional é detectado com base na imagem de diferença PDt ilustrada na FIG. 20(b). Neste caso, o detector de objeto tridimensional 72c também calcula a distância de movimento do objeto tridimensional.
[0201] A fim de detector um objeto tridimensional e calcular a distância de movimento, na etapa S64, o detector de objeto tridimensional 72c gera uma forma de onda diferente DWt calculada com base na imagem de diferença PDt.
[0202] A fim de gerar uma forma de onde de diferença DWt, o detector de objeto tridimensional 72c configure a região de detecção do objeto tridimensional dentro da imagem de diferença PDt.
[0203] O detector de veículo próximo 72 detecta outro veículo 6 com o qual o veículo 5 pode entrar em contato quando o veículo 5 muda uma linha. Outro veículo 6 viaja na linha perto da linha na qual o veículo 5 viaja.
[0204] Duas regiões de detecção são configuradas do lado direito e do lado esquerdo do veículo 5 na imagem I obtida pela unidade de imagem 10. Nesta modalidade, as regiões de detecção retangulares X1, X2 estão na parte de trás do veículo 5 no lado direito e esquerdo do veículo 5, como ilustrado na FIG. 1. Outro veículo 6 detectado dentro das regiões de detecção X1, X2 é detectado como um veículo perto. Além disso, tais regiões de detecção X1, X2 podem ser configuradas com base nas posições relativas ao veículo 5, ou pode ser configurada com base em uma posição de uma linha branca em uma estrada. Quando as regiões de detecção são configuradas com base em uma posição de uma linha branca na estrada, a posição da linha branca detectada com o uso de uma técnica de reconhecimento de linha branca conhecida, por exemplo, é usada como um padrão.
[0205] O detector de objeto tridimensional 72c reconhece os lados (lado ao longo da direção de viagem do veículo 5) das regiões de detecção X1, X2 no lado do veículo 5como linhas de contato L1, L2, como ilustrado na FIG. 1.
[0206] As FIGS. 21(a), 21(b) são vistas esquemáticas descrevendo a geração de formas de onda diferentes no detector de objeto tridimensional 72c. Como ilustrado nas FIGS. 21(a), 21(b), o detector de objeto tridimensional 72c gera formas de onda diferentes DWt a partir das posições correspondentes a parte interna das regiões de detecção X1, X2 na imagem de diferença PDt (vista da direita da FIG. 20(b)) calculada na unidade de alinhamento de posição 72b. Neste caso, a forma de onda de diferença DWt é gerada ao longo da direção para baixo do objeto tridimensional devido a conversão de ponto de vista. Além disso, o exemplo ilustrado FIGS. 21(a), 21(b) é descrito usando apenas a região de detecção X1 por questões de simplicidade. Entretanto, a forma de onda de diferença DWt é gerada com um procedimento similar para a região de detecção X2.
[0207] Em seguida, um método de geração de forma de onda de diferença DWt será descrito em detalhes. Primeiro, o detector de objeto tridimensional 72c configure uma linha La ao longo da direção para baixo do objeto tridimensional na imagem de diferença PDt, como ilustrado na FIG. 21(a). O número de pixels DP tendo um valor de diferença de um valor predeterminado ou maior é contado no conjunto de linha La. Neste caso, o pixel DP tendo um valor de diferença de um valor predeterminado ou maior (doravante referido como pixel DP) é um pixel excedendo o primeiro valor limiar p quando o valor de brilho (valor de pixel) da imagem de diferença PDt é obtido pelo valor absoluto de uma diferença dos valores de brilho das imagens de conversão de ponto de vista PBt, PBt-1. O pixel DP é um pixel mostrando “1” quando o valor de brilho da imagem de diferença PDt é expresso por “0” e “1”.
[0208] O detector de objeto tridimensional 72c obtém um ponto de interseção CP da linha La e a linha de contato L1 após contar o número de pixels DP tendo um valor de diferença do primeiro limiar p ou mais. Então, o detector de objeto tridimensional 72c relata o ponto de interseção CP para a contagem de número de pixels DP, e determina a posição horizontal, denominada, a posição no eixo de direção vertical na FIG. 21(b) com base na posição do ponto de interseção CP e também determina a posição vertical, denominada, a posição no eixo de direção horizontal na FIG. 21(b) com base na contagem de número de DP. O detector de objeto tridimensional 72c executa uma plotagem no ponto de interseção da posição do eixo horizontal determinado e a posição do eixo vertical.
[0209] Similarmente, o detector de objeto tridimensional 72c configura as linhas Lb, Lc ... ao longo da direção para baixo do objeto tridimensional. O detector de objeto tridimensional 72c conta o número de pixels DP, determina a posição do eixo horizontal correspondente na FIG. 21(b) com base na posição de cada ponto de interseção CP, determina a posição do eixo vertical a partir da contagem de número de pixel DP, e executa um plotagem naquela posição. A forma de onda de diferença DWt ilustrada na FIG. 21(b) é, portanto, gerada.
[0210] Como ilustrado na FIG. 21(a), as linhas La, Lb ao longo da direção para baixo do objeto tridimensional difere em uma direção de distância cruzando a região de detecção X1. Quando a região de detecção X1 é preenchida com o pixel DP, a contagem de número de pixel DP na linha La é maior do que a contagem do número de pixel DP na linha Lb. O detector de objeto tridimensional 72c, portanto, normaliza a contagem de número de pixel DP com base nas distâncias que as linhas La, Lb ao longo da direção para baixo do objeto tridimensional cruza a região de detecção X1 quando a posição do eixo vertical é determinada a partir da contagem de número de pixel PD.
[0211] Por exemplo, na FIG. 21(a), a contagem de número de pixel DP na linha La é 6, e a contagem de número de pixel DP na linha Lb é 5. O detector de objeto tridimensional 72c, portanto, normaliza a contagem de número de pixel dividindo a contagem de número com a distância de cruzamento, de forma que determine a posição do eixo vertical a partir da contagem de número na FIG. 21(a).
[0212] Em seguida, na Etapa S65, no detector de objeto tridimensional 72c, é determinado se o pico da forma de onda de diferença DWt gerado na Etapa S64 é ou não um segundo limiar α ou mais. O segundo limiar α é um valor configurado anteriormente para o detector de veículo próximo 72 na Etapa S60 após ser corrigido no ajustador de sensibilidade de detecção 50. O método de correção será descrito mais tarde.
[0213] Neste caso, quando o pico da forma de onda de diferença DWt não é o segundo limiar α ou mais, denominado, o valor de diferença é muito pequeno, é determinado que o objeto tridimensional não existe na imagem I. quando é determinado que o pico de forma de onda de diferença DWt não é um segundo limiar α ou mais (Não na Etapa S65), o processo se move para a Etapa S74. Na Etapa S74, é determinado que o objeto tridimensional, denominado, outro veículo 6 não existe e o processo de detecção de veículo na FIG. 25 é completado, e então, o processo retorna para a rotina principal (FIG. 7).
[0214] Por outro lado, quando é determinado que o pico da forma de onda de diferença DWt é o segundo limiar α ou mais (SIM na Etapa S65), o detector de objeto tridimensional 72c determina a existência do objeto tridimensional, e compara a forma de onda de diferença DWt do presente momento e a forma de onda de diferença DWt-1 do tempo predeterminado antes de calcular uma distância de movimento do objeto tridimensional.
[0215] Na Etapa S66, no detector de objeto tridimensional 72c, como ilustrado na FIG. 22, a forma de onda de diferença DWt é dividida em uma pluralidade de pequenas regiões DWt1 para DWtn (n é um número integral arbitrário de 2 ou mais). Neste caso, as regiões pequenas DWt1 a DWtn são divididas para serem sobrepostas uma com a outra, como ilustrado na FIG. 22. Nomeadamente, na FIG. 22, a região menor DWt1 e a região menor DWt2 são sobrepostas, e a região menor DWt2 e a região menor DWt3 são sobrepostas.
[0216] Em seguida, na Etapa S68, o detector de objeto tridimensional 72c obtém a quantidade de equilíbrio (deslocada da forma de onda de diferença na direção do eixo horizontal (direção vertical na FIG. 21(b))) em relação a cada uma das regiões menores divididas DWt1 a DWtn. A quantidade de equilíbrio é obtida a partir da diferença (distância na direção do eixo horizontal) entre a forma de onda de diferença DWt-1 do período predeterminado antes e a forma de onda de diferença DWt do presente momento.
[0217] Mais especificamente, uma posição onde um erro entre a forma de onda de diferença DWt-1 do período predeterminado antes e a forma de onda de diferença DWt do presente momento se torna mínima quando a diferença da forma de onda de diferença DWt-1 do período predeterminado antes é movido na direção do eixo horizontal (direção vertical na FIG. 21(b)) é determinada om relação a cada uma das regiões menores DWt1 a DWtn, e o deslocamento na direção do eixo horizontal da posição original da forma de onda de diferença DWt-1 e a posição onde o erro se torna mínimo é obtida como uma quantidade de equilíbrio.
[0218] Na Etapa S69, o detector de objeto tridimensional 72c gera um histograma contando a quantidade de equilíbrio obtida com relação a cada uma das regiões menores de DWt1 a DWtn. Neste caso, cada uma das regiões menores de DWt1 a DWtn é pesada anteriormente, e a quantidade de equilíbrio obtida com relação a cada uma das regiões menores de DWt1 a DWtn é contada de acordo com a pesagem para obter um histograma.
[0219] Por exemplo, quando a região menor DWt1 é uma região tendo nenhuma mudança no brilho, denominada a diferença entre o valor máximo e o valor mínimo da contagem de número de pixels DP é pequena, o coeficiente da quantidade de pesagem é diminuído. Isto é porque a região menor DWti tendo nenhuma mudança no brilho não tem característica, de forma que um erro pode ser aumentado para calcular a quantidade de equilíbrio.
[0220] Por outro lado, quando a região menor DWti é uma região tendo uma mudança de brilho maior, denominada, a diferença entre o calor máximo e o valor mínimo da contagem de número de pixel PD é maior, o coeficiente da quantidade de pesagem é aumentado. Isto é porque a região menor DWti tendo uma mudança de brilho maior tem uma característica, de forma que a quantidade de equilíbrio pode ser precisamente calculada. Pela pesagem como descrito acima, a precisão do cálculo da distância de movimento pode ser melhorada.
[0221] A FIG. 23 é uma visão ilustrando um exemplo do histograma gerado na Etapa S69. Como ilustrado na FIG. 23, a quantidade de equilíbrio na qual o erro entre cada região menor de DWt1 a DWtn e a forma de onda de diferença DWt-1 do período predeterminado antes são vários mínimos.
[0222] Em seguida, na Etapa S70, no detector de objeto tridimensional 72c, uma distância de movimento relativo T* que é uma distância de movimento do objeto tridimensional é calculado com base na posição onde o valor máximo do histograma é aplicado.
[0223] No exemplo do histograma ilustrado na FIG. 23, a quantidade de equilíbrio mostrando o valor máximo do histograma é calculado como uma distância de movimento relativo t*. Esta distância de movimento relativo t* é uma distância de movimento relativo de outro veículo 6 para o veículo 5.
[0224] Em seguida, na Etapa S71, no detector de objeto tridimensional 72c, uma velocidade de movimento absoluta do objeto tridimensional é calculada a partir da distância de movimento relativo. Neste caso, a distância de movimento relativo é diferenciada pelo tempo para calcular a distância de movimento relativo, e a velocidade de veículo obtida na unidade de obtenção de informação do veículo é adicionada para calcular a velocidade de movimento absoluta.
[0225] Além disso, a fim de aperfeiçoar a precisão do cálculo da distância de movimento, a forma de onda de diferença DWt é dividida em uma pluralidade de regiões menores de DWt1 a DWtn como descrito acima. Entretanto, quando uma alta precisão de cálculo da distância de movimento não é requerida, é necessário dividir a forma de onda de diferença DWt em uma pluralidade de regiões menores de DWt1 a DWtn. Neste caso, o detector de objeto tridimensional 72c calcula a distância de movimento a partir da quantidade de equilíbrio da forma de onda de diferença DWt quando o erro entre a forma de onda de diferença DWt e a forma de onda de diferença DWt-1 se torna mínima. Isto é, um método de obter a quantidade de equilíbrio da forma de onda de diferença DWt-1 do período predeterminado antes e a forma de onde de diferença DWt do presente momento não está limitada a descrição acima.
[0226] Em seguida, na Etapa S72, no detector de objeto tridimensional 72c, é determinado se a velocidade de movimento absoluto do objeto tridimensional está ou não dentro de uma faixa de velocidade predeterminada. Um valor configurado anteriormente é usado para uma faixa de velocidade predeterminada. Quando a velocidade de movimento absoluto do objeto tridimensional está dentro na faixa de velocidade predeterminada (SIM na etapa S72), o processo move para a Etapa S73. É determinado que o objeto tridimensional é outro veículo 6 na Etapa S73, e então, o processo retorna para a rotina principal (FIG. 7).
[0227] Por outro lado, quando a velocidade de movimento absoluta do objeto tridimensional não está dentro d uma faixa de velocidade predeterminada (NÃO na Etapa S72), o processo se move para a Etapa S74. Na Etapa S74, é determinado que o objeto tridimensional, denominadamente, outro veículo 6 não existe, o processo de detecção do veículo da FIG. 25 está completo, e então o processo retorna para a rotina principal (FIG. 7).
[0228] Neste caso, um método para corrigir o primeiro limiar p e o segundo limiar α será descrito com referência a figura FIG. 24. A FIG. 24(a) é uma vista ilustrando um método de correção do primeiro limiar p de acordo com o nível de fuligem das lentes 12. A FIG. 24(b) é uma vista ilustrando um método de correção do segundo limiar α de acordo com o nível de fuligem das lentes 12.
[0229] Um método de correção do primeiro limiar p será descrito com referência a FIG. 24(a). Quando não há fuligem nas lentes 12, o primeiro limiar p é configurado para um valor predeterminado p0 no ajustador de sensibilidade de detecção 50. O eixo horizontal na FIG. 24(a) ilustrando o nível de turbidez branca U das lentes 12 calculado na calculadora de nível de turbidez branca 25, e ilustra que o nível de turbidez branca U se torna maior em direção do lado direito.
[0230] O primeiro limiar p é corrigido para ser pequeno quando o nível de turbidez branca U é maior. Corrigindo o primeiro limiar p para ser pequeno, a sensibilidade de detecção do veículo é aumentada. Neste caso, o primeiro limiar p é corrigido de forma que o nível de diminuição é controlado de acordo com o nível de fixação M da matéria fixada, tal como sujeira ou gota de água nas lentes 12, calculadas na calculadora de nível de fixação 26.
[0231] Mais especificamente, como ilustrado na FIG. 24(a), quando há uma matéria fixada (linha pontilhada) a quantidade de diminuição do valor do primeiro limiar p é configurado para ser menor ainda quando o nível de turbidez branca das lentes 12 se tornam maiores, comparado com uma condição sem ter uma matéria fixada (linha sólida).
[0232] O valor do primeiro limiar p corrigido como descrito acima é configurado para o detector de veículo perto 72, e é usado para o processo de detecção de veículo. No processo de detecção de veículo, quando o nível de turbidez branca U das lentes 12 é maior, a sensibilidade de detecção é aumentada. Então, quando um valor de diferença menor é detectado na imagem de diferença PDt, aquele ponto é detectado como um candidato de um objeto tridimensional (outro veículo). Entretanto, quando as lentes 12 tem uma matéria fixada, um aumento na sensibilidade de detecção é controlado. Então, quando um valor de diferença maior não é detectado na imagem de diferença PDt, não é detectado como um candidato de um objeto tridimensional.
[0233] O segundo limiar α é corrigido com o mesmo método como o primeiro limiar p. Nomeadamente, quando há fuligem nas lentes 12, o segundo limiar α configurado para um valor predeterminado α0 é corrigido de acordo com o nível de anexação M da matéria fixada, tal como sujeira ou gota de água nas lentes 12, calculado na calculadora de nível de anexação 26, como ilustrado na FIG. 24(b). Quando o nível de turbidez branca U das lentes 12 é maior, a sensibilidade de detecção é aumentada. Então, quando um pico menor é detectado na forma de onda de diferença DWt, aquele ponto é detectado como um candidato de um objeto tridimensional (outro veículo). Quando há uma matéria fixada nas lentes 12, um aumento na sensibilidade de detecção é controlado. Então, quando um pico grande não é detectado na forma de onda de diferença DWt, não é detectado como um candidato de um objeto tridimensional.
[0234] Como ilustrado nas FIGS. 24(a), 24(b), um exemplo de correção linear do primeiro e do segundo limiar p, α de acordo com o nível de turbidez branca U. Entretanto, o método de correção do primeiro e do segundo limiar p, α não está limitado o mesmo. Isto é, por exemplo, o primeiro e o segundo limiar p, α são corrigidos passo a passo de acordo com o nível de turbidez branca U.
[0235] Um método para corrigir a sensibilidade de detecção de veículo (primeiro e segundo limiar p, α) pode ser mudado para o período noturno e o período diurno. Nomeadamente, a quantidade de controle do período noturno da sensibilidade de detecção de veículo (primeiro e segundo limiar p, α) de acordo com o nível de turbidez branca U das lentes 12 é reduzido relativo a quantidade de controle do período diurno, de forma que um veículo perto pode ainda ser detectado eficazmente. Além disso, o período noturno e o período diurno são determinados com base no valor do ganho ajustado no ajustador de ganho 16 como descrito acima. Quando o valor do ganho é um valor predeterminado é maior, é determinado como período noturno. Quando o valor do ganho é menor do que um valor predeterminado, é determinado período diurno.
[0236] A velocidade relativa do veículo perto é calculada com base na velocidade do veículo do veículo 5 e da velocidade de movimento absoluta do objeto tridimensional detectado (veículo perto), e um método de correção da sensibilidade de detecção do veículo (primeiro e segundo limiar p, α) pode ser configurado de acordo com a velocidade relativa calculada. Isto é, quando a velocidade relativa calculada inclui um valor positive de um limiar predeterminado ou mais, denominadamente, quando o veículo 5 passa por um veículo perto a partir de trás, a quantidade de controle da sensibilidade de detecção de veículo (primeiro e segundo limiar) de acordo com o nível de turbidez branca U das lentes 12 é reduzido, e o veículo perto pode ainda ser detectado eficazmente.
DETECÇÃO DO OBJETO TRIDIMENSIONAL COM BASE NA INFORMAÇÃO DE BORDA
[0237] Em seguida, o bloco de detecção A2 de um objeto tridimensional com o uso da informação de borda, que inclui a calculadora de diferença de brilho 72g, o detector de linha de borda 72h, e o detector de objeto tridimensional 72i serão descritos. O bloco de detecção A2 pode ser operado em vez do bloco de detecção A1 ilustrado na FIG. 6.
[0238] A FIG. 26 é uma vista ilustrando uma faixa de imagem da unidade de imagem 10. A FIG. 26(a) é uma vista plana, e a FIG. 26(b) é uma vista em perspectiva de um espaço real atrás do veículo 5. Como ilustrado na FIG. 26(a), a unidade de imagem 10 imagina uma faixa predeterminada w atrás do veículo 5.
[0239] As regiões de detecção X1, X2 da presente modalidade inclui um formato trapezoidal na imagem de conversão de ponto de vista. A posição, o tamanho, e o formato das regiões de detecção X1, X2 são determinados com base nas distâncias d1 a d4. Além disso, as regiões de detecção X1, X2 não estão limitadas a um formato trapezoidal, e pode ser outro formato tal como um retangular em uma imagem de conversão de ponto de vista.
[0240] Neste caso, a distância, d1 é uma distância a partir do veículo 5 para contatar as linhas L1, L2. As linhas de contato L1, L2 são linhas que o objeto tridimensional na linha perto da linha na qual o veículo 5 viaja tem contato com o chão. Esta modalidade ajuda a detectar outro veículo 6 viajando na linha perto da linha do veículo 5 atrás do veículo 5. A distância d1 para as posições que são as linhas de contato L1, L2 do outro veículo 6 é, portanto, substancialmente fixada determinada a partir da distância d11 do veículo 5 para a linha branca W e a distância d12 a partir da linha branca W para a posição onde outro veículo 6 é esperado para viajar.
[0241] A distância d2 é uma distância se estendendo ao longo da direção de viagem do veículo a partir da parte da extremidade de trás do veículo 5. A distância d2 é determinada de forma que as regiões de detecção X1, X2 abrangem pelo menos na faixa de imagem da unidade de imagem 10. A distância d3 é uma distância indicando um comprimento das regiões de detecção X1, X2 na direção da viagem do veículo. A distância d3 é determinada com base no tamanho do objeto tridimensional que é um objeto de detecção. Nesta modalidade, uma vez que o alvo de detecção é um outro veículo 6, a distância d3 é configurada para o comprimento incluindo outro veículo 6.
[0242] A distância d4 é uma distância indicando uma configuração de altura para incluir um pneu de outro veículo 6 no espaço real, como ilustrado na FIG. 26(b). A distância d4 é o comprimento de uma parte ilustrada na FIG. 26(a) na imagem de conversão de ponto de vista. Além disso, a distância d4 pode ser um comprimento sem incluir uma linha (denominada, linha próxima da linha de perto) perto das linhas de perto da direita e da esquerda na imagem de conversão de ponto de vista.
[0243] As distâncias de d1 a d4 são determinadas como descrito acima, e a posição, o tamanho e o formato das regiões de detecção X1, X2 são aqui determinadas. Mais especificamente, a posição de uma base superior b1 das regiões de detecção trapezoidal X1, X2 é determinada pela distância d1. Um ponto inicial C1 da base superior b1 é determinada pela distância d2. Uma posição final C2 da base superior b1 é determinada pela distância d3. Um lado b2 das regiões de detecção trapezoidal X1, X2 é determinado pela linha L3 se estendendo para o ponto inicial C2 a partir da unidade de imagem 10. Similarmente, um lado b3 das regiões de detecção trapezoidal X1, X2 é determinada por uma linha reta L4 se estendendo em direção da posição final C2 a partir da unidade de imagem 10. Uma base inferior b4 das regiões de detecção trapezoidal X1, X2 é determinada pela distância d4.
[0244] A região circundada pelos lados de b1 a b4 é configurada como a região de detecção X1. A região de detecção X1 tem um quadrado regular (retangular) no espaço real na parte de trás do veículo 5, como ilustrado na FIG. 26(b). A região de detecção X2 tem uma forma similar a aquela da região de detecção X1 embora este não seja ilustrado na FIG. 26(b).
[0245] A calculadora de diferença de brilho 72g ilustrada na FIG. 6 calcula a diferença de brilho relativa a imagem de conversão de ponto de vista pelo conversor de ponto de vista 72a, a fim de detectar a borda do objeto tridimensional na imagem de conversão de ponto de vista. A calculadora de diferença de brilho 72g calcula a diferença de brilho entre os dois pixels adjacentes em cada posição em relação a cada uma de uma pluralidade de posições ao longo da linha virtual vertical se estendendo na direção vertical em um espaço real. A calculadora de diferença de brilho 72g calcula a diferença de brilho por um método de configuração apenas da linha virtual vertical se estendendo na direção vertical no espaço real ou um método de configuração de duas linhas virtuais verticais.
[0246] Um método específico de configuração de duas linhas virtuais verticais será descrito. A calculadora de diferença de brilho 72g configura uma primeira linha virtual vertical correspondendo a um segmento de linha se estendendo na direção vertical no espaço real e uma segunda linha virtual vertical correspondendo a um segmento de linha em uma direção vertical no espaço real diferente da primeira linha virtual vertical relativa a imagem de conversão de ponto de vista. A calculadora de diferença de brilho 72g obtém continuamente a diferença de brilho entre o ponto da linha virtual vertical e o ponto na segunda linha virtual vertical ao longo da primeira linha virtual vertical e a segunda linha virtual vertical. Em seguida, a operação da calculadora de diferença de brilho 72g será descrita em detalhes.
[0247] A calculadora de diferença de brilho 72g configura uma primeira linha virtual vertical Le (doravante referida como linha de atenção Le) que corresponde a um segmento de linha se estendendo em uma direção vertical no espaço real, e passa através da região de detecção X1, como ilustrado na FIG. 27(a). A calculadora de diferença de brilho 72g configure uma segunda linha virtual vertical Lr (doravante referida como linha de referência Lr) diferente da linha de atenção Le, que corresponde ao segmento de linha se estendendo em uma direção vertical no espaço real, e passa através da região de detecção X1. A linha de referência Lr é configurada em uma posição longe da linha de atenção Le em uma distância predeterminada em um espaço real. Além disso, a linha correspondendo ao segmento de linha se estendendo na direção vertical se expande radicalmente a partir da posição Ps da unidade de imagem 10 na imagem de conversão de ponto de vista.
[0248] A calculadora de diferença de brilho 72g configura um ponto de atenção (um ponto na primeira linha virtual vertical) na linha de atenção Le. A calculadora de diferença de brilho 72g também configura um ponto de referência Pr na linha de referência Lr (ponto na segunda linha virtual vertical). Estas linhas de atenção Le, os pontos de atenção Pe, as linhas de referência Lr, e os pontos de referência Pr tem uma relação como ilustrado na FIG. 27(b). Nomeadamente, a linha de atenção Le e a linha de referência Lr se estendem em uma direção vertical no espaço real. O ponto de atenção Pe e o ponto de referência Pr são configurados substancialmente na mesma altura no espaço real.
[0249] A calculadora de diferença de brilho 72g obtém uma diferença de brilho entre o ponto de atenção Pe e o ponto de referência Pr. Quando a diferença de brilho entre o ponto de atenção Pe e o ponto de referência Pr é maior, é considerado que existe uma borda entre o ponto de atenção Pe e o ponto de referência Pr. O detector de linha de borda 72h na FIG. 6 detecta uma linha de borda com base na diferença de brilho entre o ponto de atenção Pe e o ponto de referência Pr.
[0250] Isto será descrito em detalhes. A FIG. 28 é uma vista ilustrando a operação detalhada da calculadora de diferença de brilho 72g. A FIG. 28(a) ilustra uma imagem de conversão de ponto de vista, e a FIG. 28(b) ilustra uma vista na qual uma parte B1 da imagem de conversão de ponto de vista na FIG. 28(a) é aumentada. Além disso, na FIG. 28, a região de detecção X1 é apenas descrita, mas a diferença de brilho pode ser calculada para a região de detecção X2 com o procedimento similar àquele da região de detecção X1.
[0251] Quando uma imagem I obtida pela unidade de imagem 10 inclui outro veículo 6, como ilustrado na FIG. 28(a), outro veículo 6 aparece na região de detecção X1 da imagem de conversão de ponto de vista. Como ilustrado na FIG. 28(b), a linha de atenção Le é configurada em uma parte de borracha do pneu do outro veículo 6 na imagem de conversão de ponto de vista. Com esta condição, a calculadora de diferença de brilho 72g configura a linha de referência Lr primeiro. A linha de referência Lr é configurada em uma posição em que a distância predeterminada longe da linha de atenção Le no espaço real ao longo da direção vertical.
[0252] Em particular, no detector de veículo perto 72, a linha de referência Lr é configurada em uma posição, por exemplo, 10 cm longe d linha de atenção Le no espaço real. A linha de referência Lr é configurada ali na roda do pneu do outro veículo 6, por exemplo, cerca de 10 cm longe da borracha do pneu do outro veículo 6.
[0253] Em seguida, a calculadora de diferença de brilho 72g configura uma pluralidade de pontos de atenção Pe1 para PeN na linha de atenção Le. Na FIG. 28(b), seis pontos de atenção Pe1 a Pe6 (doravante simplesmente referida como Pei no caso de uma indicação de ponto arbitrário) são configurados por questão de descrição. Além disso, o número de pontos de atenção a serem configurados na linha de atenção Le pode ser determinada livremente. Na seguinte descrição, um total de N pontos de atenção Pe é configurado na linha de atenção Le.
[0254] Em seguida, a calculadora de diferença de brilho 72g configura os pontos de referência de Pr1 a PrN de forma que tenha as mesmas alturas como pontos de atenção de Pe1 a PeN no espaço real. A calculadora de diferença de brilho 72g calcula a diferença de brilho entre o ponto de atenção Pe e o ponto de referência Pr tendo a mesma altura. A calculadora de diferença de brilho 72g calcula ali a diferença de brilho dos dois pixels com relação a uma pluralidade de posições ao longo da linha virtual vertical se estendendo na direção vertical no espaço real.
[0255] Mais especificamente, a calculadora de diferença de brilho 72g calcula a diferença de brilho entre o primeiro ponto de atenção Pe1 e o primeiro ponto de referência Pr1, por exemplo, e calcula a diferença de brilho entre o segundo ponto de atenção Pe2 e o segundo ponto de referência Pr2. A calculadora de diferença de brilho 72g obtém ali continuamente a diferença de brilho ao longo da linha de atenção Le e a linha de referência Lr.
[0256] A calculadora de diferença de brilho 72g repete a configuração da linha de referência Lr, a configuração do ponto de atenção Pe e o ponto de referência Pr, e o cálculo da diferença de brilho enquanto desloca a linha de atenção Le na região de detecção X1. Mais especificamente, a calculadora de diferença de brilho 72g repete os processos acima enquanto muda as posições da linha de atenção Le e da linha de referência Lr na mesma distância na direção de extensão da linha de contato L1 no espaço real. A calculadora de diferença de brilho 72g configura a linha como a linha de referência Lr no processo anterior para a linha de atenção Le, e configura a linha de referência Lr para a linha de atenção Le, de forma que obtenha continuamente a diferença de brilho.
[0257] Referindo-se a FIG. 6, o detector de linha de borda 72h detecta uma linha de borda a partir das contínuas diferenças de brilho calculadas em uma calculadora de diferença de brilho 72g. Por exemplo, na FIG. 28(b), o primeiro ponto de atenção Pe1 e o primeiro ponto de referência Pr1 são localizados na mesma parte de pneu, de forma que a diferença de brilho entre estes pontos seja pequena. Por outro lado, do segundo ao sexto ponto de atenção Pe2 a Pe6 são localizados na parte de borracha, e do segundo ao sexto ponto de referência Pr2 a Pr6 são localizados na parte da roda do pneu. A diferença de brilho entre o segundo ao sexto pontos de atenção Pe2 a Pe6 e o segundo ao sexto pontos de referência Pr2 a Pr6 é então maior. Desse modo, o detector de linha de borda 72h pode detector a existência da linha de borda entre o segundo e o sexto pontos de atenção Pe2 a Pe6 e o segundo ao sexto pontos de referência Pr2 a Pr6 tendo uma diferença de brilho maior.
[0258] Em particular, a fim de detector a linha de borda, o detector de linha de borda 72h aplica um atributo s para i-th ponto de atenção Pei com base na diferença de brilho entre o i-th ponto de atenção Pei (coordenada (xi, yi)) e i-th ponto de referência Pri (coordenada (xi’, yi’) de acordo com as três regras mostradas na seguinte Equação 5.Equação 5: s (xi, yi) = 1 onde I (xi, yi) > I (xi’, yi’) + w,(a)s (xi, yi) = - 1 onde I (xi, yi) < I (xi’, yi’) - w, es (xi, yi) = 0 para uma condição outra que não a descrita acima.
[0259] Na Equação 5, w denota um terceiro limiar, I (xi, yi) denota o valor de brilho do i-th ponto de atenção Pei, e I (xi’, yi’) denota o valor de brilho do i-th ponto de referência Pri. De acordo com a Equação 5, quando o valor de brilho do ponto de atenção Pei é maior do que o valor de brilho no qual o terceiro limiar w é adicionado ao ponto de referência Pri, o atributo s (xi, yi) do ponto de atenção Pei é 1. Por outro lado, quando o valor de brilho do ponto de atenção Pei é menor do que o valor de brilho em que o terceiro limiar w é reduzido a partir do ponto de referência Pri, o atributo s (xi, yi) do ponto de atenção Pei é -1. Quando o valor de brilho do ponto de atenção Pei e o valor de brilho do ponto de referência Pri tem uma relação outra que não a listada acima, o atributo s (xi, yi) do ponto de atenção Pei é 0. O terceiro limiar w é configurado no detector de veículo perto 72 após ser corrigido no ajustador de sensibilidade de detecção 50. O método de correção será descrito mais tarde.
[0260] Em seguida, o detector de linha de borda 72h calcula a continuidade de c (xi, yi) do atributo s ao longo da linha de atenção Le com base nas duas regras mostradas na Equação 6.Equação 6: c (xi, yi) = 1 onde s (xi, yi) = s (xi + 1, yi + 1), e c (xi, yi) = 0 para uma condição outra que não a descrita acima
[0261] Quando o atributo s (xi, yi) do ponto de atenção Pei é o mesmo do atributo s (xi + 1, yi + 1) do ponto de atenção Pei + 1 perto do atributo s (xi, yi), a continuidade de c (xi, yi) é 1.quando o atributo s (xi, yi) do ponto de atenção Pei não é o mesmo que o atributo s (xi + 1, yi + 1) do ponto de atenção Pei + 1 perto do atributo s (xi, yi), a continuidade é 0.
[0262] Em seguida, o detector de linha de borda 72h obtém uma soma da continuidade de c de todos os pontos de atenção Pe na linha de atenção Le. O detector de linha de borda 72h divide a soma da continuidade de c obtida com a soma de N do ponto de atenção Pe para normalizar a continuidade de c. quando a continuidade de c normalizada excede um quarto limiar θ, o detector de linha de borda 72h determina a linha de atenção Le como uma linha de borda. Além disso, o quarto limiar θ é configurado no detector de veículo perto 72 após ser corrigido no ajustador de sensibilidade de detecção 50. O método de correção será descrito mais tarde.
[0263] Nomeadamente, o detector de linha de borda 72h determina se a linha de atenção Le é ou não uma linha de borda com base na Fórmula 7. O detector de linha de borda 72h determina se todas as linhas de atenção Le na região de detecção X1 estão ou não na linha de borda.Fórmula 7: ∑c (xi, yi) / N > θ
[0264] Referindo-se a FIG. 6, o detector de objeto tridimensional 72i detecta um objeto tridimensional com base na quantidade de linha de borda detectada no detector de linha de borda 72h. Como descrito acima, o detector de veículo perto 72 detecta a linha de borda se estendendo na direção vertical no espaço real. Quando muitas linhas de borda são detectadas, há uma alta possibilidade de que o objeto tridimensional existe nas regiões de detecção X1, X2. O detector de objeto tridimensional 72i, portanto, detecta um objeto tridimensional com base na quantidade de linhas de borda detectadas no detector de linha de borda 72h. O detector de objeto tridimensional 72i determina se a linha de borda detectada no detector de linha de borda 72h está ou não uma correta antes da detecção do objeto tridimensional. O detector de objeto tridimensional 72i determina se uma mudança no brilho ao longo da linha de borda da imagem de conversão de ponto de vista na linha de borda é ou não maior do que o limiar predeterminado. Quando a mudança de brilho da imagem de conversão de ponto de vista na linha de borda é maior do que o limiar determinado, é determinado que a linha de borda seja detectada por uma falsa determinação. Por outro lado, quando a mudança de brilho da imagem de conversão de ponto de vista na linha de borda não é maior do que o limiar predeterminado, é determinado que a linha de borda seja uma linha correta. Além disso, este limiar predeterminado, é determinado que a linha de borda seja uma linha correta. Além disso, este limiar predeterminado é anteriormente configurado por experimentos ou similares.
[0265] A FIG. 29 é uma vista ilustrando uma distribuição de brilho de uma linha de borda. A FIG. 29(a) é uma linha de borda e uma distribuição de brilho quando outro veículo 6 como um objeto tridimensional existe na região de detecção X1, e a FIG. 29(b) ilustra uma linha de borda e uma distribuição de brilho quando um objeto tridimensional não existe na região de detecção X1.
[0266] Como ilustrado na FIG. 29(a), quando é determinado que a linha de atenção Le configurada na parte de borracha do pneu do outro veículo 6 é uma linha de borda na imagem de conversão de ponto de vista, a mudança de brilho da imagem de conversão de ponto de vista na linha de atenção Le é suave. Isto é porque o pneu do outro veículo 6 se expande na imagem de conversão de ponto de vista por uma conversão de ponto de vista da imagem I obtida pela unidade de imagem 10.
[0267] Por outro lado, como ilustrado na FIG. 29(b), quando é determinado falso que a linha de atenção Le configurada em uma parte de caractere branco como “50” desenhado na superfície da estrada na imagem de conversão de ponto de vista é a linha de borda, a mudança de brilho da imagem de conversão de ponto de vista na linha de atenção Le é maior. Isto é porque ambos a parte de alto brilho no caractere branco e a parte baixa de brilho na superfície da Estrada existe na linha de borda.
[0268] O detector tridimensional 72i determina se a linha de borda está ou não determinada por uma determinação falsa com base na diferença na distribuição de brilho na linha de atenção Le como descrito acima. O detector tridimensional 72i determina que a linha de borda seja detectada por uma determinação falsa quando a mudança de brilho ao longo da linha de borda é maior do que o limiar predeterminado. A linha de borda não é usada para a detecção do objeto tridimensional. Uma deterioração na precisão de detecção de um objeto tridimensional devido a determinação de erva daninhas em um lado da Estrada, um caractere branco como “50” em uma superfície da estrada, ou similares como uma linha de borda é controlado.
[0269] O detector de objeto tridimensional 72i calcula a mudança de brilho da linha de borda pela Equação 8 ou a Equação 9. A mudança de brilho da linha de borda corresponde a um valor de avaliação em uma direção vertical no espaço real. A Equação 8 avalia uma distribuição de brilho com um valor total de um quadrado de uma diferença entre o i-th valor de brilho I (xi, yi) na linha de atenção Le e o i + 1st valor de brilho perto I (xi + 1, yi + 1). A equação 9 avalia uma distribuição de brilho com um valor total de um valor absoluto de uma diferença entre o i-th valor de brilho I (xi, yi) na linha de atenção Le e o i + 1st valor de brilho perto I (xi + 1, yi + 1). Equação 8: Valor de avaliação da direção de correspondência vertical = ∑ [ { I (xi, yi) - I (xi + 1, yi + 1) }2 ] Equação 9: Valor de avaliação da direção de correspondência vertical = ∑ | I (xi, yi) - I (xi + 1, yi + 1) |
[0270] Além disso, a atribuição b do valor de brilho perto é binarizado usando um limiar t2 como uma Equação 10 sem limitar as Equações 8, 9, e a atribuição binarizada b pode ser somada para todos os pontos de atenção Pe.Equação 10: Valor de avaliação da direção de correspondência vertical = ∑ b (xi, yi), onde | I (xi, yi) - I (xi + 1, yi + 1 ) | > t2, b (xi, yi) = 1, e b (xi, yi) = 0 para uma condição outra que não a descrita acima.
[0271] Quando o valor absoluto da diferença de brilho entre o valor de brilho do ponto de atenção Pei e o valor de brilho do ponto de referência Pri é maior do que o limiar t2, o atributo b do ponto de atenção Pe (xi, yi) é 1. Quando o valor tem uma relação outra que não a listada acima, o atributo b (xi, yi) do ponto de atenção Pei é 0. Este valor de limiar t2 é anteriormente configurado por experimentos ou similares, de forma que determine a linha de atenção Le não está no mesmo objeto tridimensional. O detector de objeto tridimensional 72i soma os atributos b para todos os pontos de atenção Pe na linha de atenção Le, obtém o valor de avaliação na direção de correspondência vertical, e determina se a linha de borda está ou não correta.
[0272] Aqui, um método de corrigir o terceiro limiar w e o quarto limiar θ será descrito com referência a FIG. 30. A FIG. 30(a) é uma vista descrevendo um método para corrigir o terceiro limiar w de acordo com o nível de fuligem das lentes 12. A FIG. 30(b) é uma vista descrevendo o método de corrigir o quarto limiar θ de acordo com o nível de fuligem nas lentes 12.
[0273] Primeiro, o método para corrigir o terceiro limiar w será descrito com referência a FIG. 30(a). Quando não há fuligem nas lentes 12, o terceiro limiar w é configurado para um valor predeterminado w0 no ajustador de sensibilidade de detecção 50. O eixo horizontal na FIG. 30(a) ilustra o nível de turbidez branca U das lentes 12 calculado na calculadora de nível de turbidez branca 25, e indica que o nível de turbidez branca U se tornou maior em direção ao lado direito.
[0274] O terceiro limiar w é corrigido para ser menor quando o nível de turbidez branca U é aumentado. Corrigindo o terceiro limiar w para ser menor, a sensibilidade de detecção do veículo é aumentada. Neste caso, o terceiro limiar w é corrigido de forma que o nível de diminuição seja controlado de acordo com o nível de anexação M da matéria fixada, tal como sujeira ou gota de água nas lentes 12, calculado na calculadora de nível de anexação 26.
[0275] Como ilustrado na FIG. 30(a), quando há uma matéria fixada (linha pontilhada), a quantidade reduzida do valor do terceiro limiar w é configurado para ser ainda menor quando o nível de turbidez branca das lentes 12 se torna maior, comparado ao caso sem ter uma matéria fixada (linha sólida).
[0276] O terceiro limiar w corrigido é configurado para o detector de veículo perto 72, e é usado para o processo de detecção de veículo. No processo de detecção de veículo, quando o nível de turbidez branca U das lentes 12 é maior, a sensibilidade de detecção é aumentada. Quando a diferença de brilho entre a linha de atenção Le r a linha de referência Lr configurada na imagem de conversão de ponto de vista é detectada, aquele ponto é detectado como um candidato do objeto tridimensional (outro veículo). Quando as lentes 12 incluem uma matéria fixada, um aumento na sensibilidade de detecção é controlado. Quando a diferença de brilho maior do que a diferença anterior não pé detectada entre a linha de atenção Le e a linha de referência Lr, não é detectado como um candidato ao objeto tridimensional.
[0277] O quarto limiar θ é corrigido com a mesma ideia que o terceiro limiar w. Nomeadamente, o quarto limiar θ configurado para um valor predeterminado θ0 quando as lentes 12 não incluem fuligem é corrigida de acordo com o nível de fixação M da matéria fixada, tal como sujeira ou gota de água nas lentes 12, calculado na calculadora de nível de fixação 26, como ilustrado na FIG. 30(b). Quando o nível de turbidez branca U das lentes 12 é maior, a sensibilidade de detecção é aumentada, e quando a continuidade de c do pixel que o atribuído s = 1 é maior na linha de atenção Le configurada na imagem de conversão de ponto de vista, a linha de atenção Le é determinada como a linha de borda. Quando as lentes 12 incluem a matéria fixada, um aumento na sensibilidade de detecção é controlado, e quando a continuidade c do pixel que o atribuído s = 1 não alcança um valor maior do que o valor anterior, este não é detectado como uma linha de borda.
[0278] Além disso, nas FIGS. 30(a), 30(b), o exemplo no qual o terceiro limiar w e o quarto limiar θ estão linearmente corretos de acordo com o nível de turbidez branca U é ilustrado. Entretanto, o método de correção do terceiro limiar w e do quarto limiar θ não está limitado ao mesmo. Nomeadamente, o terceiro limiar w e o quarto limiar θ podem ser corrigidos de uma maneira passo a passo de acordo com o nível de turbidez branca U, por exemplo.
[0279] Em seguida, um método de detector um objeto tridimensional com o uso da informação de borda de acordo com a presente modalidade será descrito. A FIG. 31 é um fluxograma ilustrando os detalhes do método de detectar um objeto tridimensional de acordo com a presente modalidade. Na FIG. 31, um processo para região de detecção X1 é descrito, mas o mesmo processo é executado para a região de detecção X2.
[0280] Como ilustrado na FIG. 31, na etapa S80, no ajustador de sensibilidade de detecção 50, o terceiro limiar w e o quarto limiar θ corrigido com base no nível de fuligem (nível de turbidez branca U e o nível de anexação M) das lentes 12 são configurados para o detector de veículo perto 72.
[0281] Em seguida, na etapa S81, no conversor de ponto de vista 72a, a imagem I obtida pela unidade de imagem 10 é convertida em uma imagem de conversão de ponto de vista como visgo a partir do acima.
[0282] Na etapa S82, a calculadora de diferença de brilho 72g configura a linha de atenção Le dentro da região de detecção X1. Neste caso, a calculadora de diferença de brilho 72g configure uma linha correspondendo a uma linha se estendendo na direção vertical no espaço real como na linha de atenção Le.
[0283] Na etapa S83, a calculadora de diferença de brilho 72g configurada dentro da região de detecção X1 uma linha correspondendo a um segmento de linha se estendendo na direção vertical no espaço real e uma distância predeterminada longe da linha de atenção Le no espaço real como uma linha de referência Lr.
[0284] Em seguida, na etapa S84, a calculadora de diferença de brilho 72g configura uma pluralidade de pontos de atenção Pe na linha de atenção Le. Neste caso, a calculadora de diferença de brilho 72g configura alguns pontos de atenção Pe que não causam um problema na detecção de borda no detector de linha de borda 72h. A calculadora de diferença de brilho 72g configure um ponto de referência Pr de forma que o ponto de atenção Pe e o ponto de referência Pr são substancialmente da mesma altura no espaço real na etapa S85. O ponto de atenção Pe e o ponto de referência Pr são arranjados aqui em uma direção horizontal aproximada, e a linha de borda se estendendo na direção vertical é facilmente detectada no espaço real.
[0285] Na etapa S86, a calculadora de diferença de brilho 72g calcula uma diferença de brilho entre o ponto de atenção Pe e o ponto de referência Pr da mesma altura no espaço real. O detector de linha de borda 72h calcula o atribuído s de cada ponto de atenção Pe de acordo com a Equação 5 acima.
[0286] Na etapa S87, o detector de linha de borda 72h calcula a continuidade c do atribuído s de cada ponto de atenção Pe de acordo com a Equação 6 acima.
[0287] Em seguida, na etapa S88, o detector de linha de borda 72h determina se o valor no qual a soma da continuidade c está normalizada é ou não maior do que o quarto limiar θ de acordo com a Fórmula 7 acima. Quando é determinado que o valor normalizado é maior do que o quarto limiar θ (SIM na etapa S88), o detector de linha de borda 72h detecta a linha de atenção Le como uma linha de borda na etapa 89. Então, o processo se move para a Etapa S90. Por outro lado, na etapa S88, quando é determinado que o valor normalizado é menor do que o quarto limiar θ (NO na etapa S88), o detector de linha de borda 72h não detecta a linha de atenção Le como uma linha de borda, e o processo se move para a Etapa S90.
[0288] Na etapa S90, é determinado se o detector de veículo 72 excuta ou não os processos nas etapas S82 a S89 para todos os das linhas de atenção Le configuráveis na região de detecção X1. Quando é determinado que os processos não são executados para todas as linhas de atenção Le (NÃO na etapa S90), o processo volta para a Etapa S82, a linha de atenção Le é configurada novamente, e os processos da Etapa S89 são repetidos. Por outro lado, quando é determinado que os processos são executados para todas as linhas atenção Le (SIM na etapa S90), o processo se move para a Etapa S91.
[0289] Em seguida, na etapa S91, o detector de objeto tridimensional 72i calcula uma mudança de brilho ao longo da linha de borda para cada uma das linhas de borda detectadas na etapa S89. O detector de objeto tridimensional 72i calcula a mudança de brilho de uma linha de borda de acordo com qualquer uma das Equações 8, 9, 10 acima. Em seguida, o detector de objeto tridimensional 72i elimina uma linha de borda cuja mudança de brilho é maior do que o limiar predeterminado nas linhas de borda na etapa S92. Nomeadamente, é determinado que uma linha de borda tendo uma mudança de brilho maior não é uma linha de borda correta, e uma linha de borda não é usada para a detecção do objeto tridimensional. Isto é para o controle da detecção do caractere em uma superfície de Estrada e as ervas daninhas no lado da estrada na região de detecção X1 como na linha de borda. Um valor predeterminado é, portanto, configurado com base na mudança do brilho gerado pelos caracteres na superfície da estrada e as ervas daninhas de um lado da estrada anteriormente obtida por experimentos ou similares.
[0290] Em seguida, o detector de objeto tridimensional 72i determina se a quantidade de linhas de borda é um quinto limiar β ou não ou não na etapa S93. O quinto limiar β é obtido anteriormente por experimentos ou similares. Por exemplo, quando um carro de quarto rodas é configurado como um alvo de detecção, o quinto limiar β [e configurado com base no número de linhas de borda do carro de quatro rodas aparecido na região de detecção X1 por experimentos ou similares. Quando é determinado que a quantidade das linhas de bordas é o quinto limiar β ou mais (SIM na etapa S93), o detector de objeto tridimensional 72i determina que há um objeto tridimensional na região de detecção X1 na etapa S94.
[0291] Por outro lado, quando é determinado que a quantidade de linhas de borda não é o quinto limiar β ou mais (NÃO na etapa S93), o detector de objeto tridimensional 72i determina que não há um objeto tridimensional na região de detecção X1. Depois disso, os processos ilustrados na FIG. 31 são completados, e o processo volta para a rotina principal (FIG. 7).
[0292] Além disso, pode ser determinado que o objeto tridimensional detectado é um outro veículo 6 viajando na linha perto próximo da linha na qual o veículo 5 viaja. Deve ser determinado que se o objeto tridimensional detectado é ou não um outro veículo 6 viajando na linha perto em vista da velocidade relativo para o veículo 5 do objeto tridimensional detectado.
[0293] Na modalidade 1, o método para detector um objeto tridimensional (veículo perto) com o uso da informação de forma de onda de diferença, e o método de detectar um objeto tridimensional (veículo perto) com o uso da informação de borda são descritos, mas o método de detectar um veículo perto não é limitado ao mesmo. Por exemplo, um objeto tridimensional (veículo perto) pode ser detectado através de um processo de imagem que calcula um fluxo ótico relativo a imagem I obtida pela unidade de imagem 10 sem executar a conversão de ponto de vista descrita na Modalidade 1. Neste caso, no ajustador de sensibilidade de detecção 50, um limiar para detector um ponto de característica a partir de imagem de series por tempo e um limiar para determinar a combinação após a combinação dos postos de característica são corrigidos de acordo com o nível de anexação M da matéria fixada e o nível de turbidez branca U das lentes 12, de forma que o outro veículo 6 pode ser eficazmente detectado.
[0294] Como descrito acima, de acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, em um ajustador de sensibilidade de detecção 50 que ajusta a sensibilidade de detecção a ser aumentada de acordo com o nível de turbidez branca, a sensibilidade de detecção da unidade de execução de aplicação de reconhecimento de imagem, por exemplo, o detector de veículo 70, que detecta um objeto se movendo, por exemplo, outro veículo 6 existindo na área circundante do veículo 5 com uma sensibilidade de detecção predeterminada a partir da imagem obtida pela unidade de imagem 10 disposta no veículo 5 para observar a área circundante do veículo 5 através de lentes 12 e conversor de sinal de luz da área circundante observada do veículo 5 em um sinal de imagem, é corrigido com base no nível de anexação M da matéria fixada tal como a sujeira ou gota de água nas lentes 12, que é calculado pela calculadora de nível de fixação 26. Com esta configuração, mesmo quando a matéria fixada tal como a sujeira ou gota de água é anexado às lentes 12, um aumento excessivo na sensibilidade de detecção é controlado, e assim, a posição do outro veículo 6 pode ser eficazmente detectada em relação ao nível de fixação M da matéria fixada ou do nível de turbidez branca U das lentes 12.
[0295] De acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, a calculadora de nível de turbidez branca 22 calcula o nível de turbidez branca U1 das lentes 12 com base em pelo menos uma da distribuição de intensidade de borda e o gradiente de brilho da imagem obtido na unidade de imagem 10. Com esta configuração, o nível de turbidez branca U das lentes 12 pode ser estável e eficazmente calculado em relação ao brilho do lado de fora do veículo 5.
[0296] De acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, o aumento da sensibilidade de detecção do outro veículo 6 é controlado em um ajustador de sensibilidade de detecção 50 quando o nível de anexação M, tal como sujeira ou gota de água nas lentes 12, calculadas na calculadora de nível de fixação 16 é maior. Com esta configuração, mesmo quando é determinado que o nível de turbidez branca U é maior junto com o nível de anexação maior M, o aumento de uma sensibilidade de detecção do outro veículo 6 pode ser controlado. Desse modo, o outro veículo 6 pode ser determinado eficazmente na unidade de execução de aplicação de reconhecimento por exemplo, o detector de veículo 70.
[0297] De acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, o ajustador de sensibilidade de detecção 50 corrige pelo menos um limiar entre o primeiro limiar p para detector um pixel tendo uma diferença de brilho a partir de uma unidade de imagem 10, o segundo limiar α para detectar um pixel tendo uma mudança de brilho em uma imagem de séries de tempo obtida em tempos diferentes pela unidade de imagem 10, e o limiar para determinar a combinação quando a combinação dos pixels detectados tendo uma mudança de brilho a partir da imagem de séries de tempo obtidas em diferentes períodos pela unidade de imagem 10. Com esta configuração, mesmo quando as lentes 12 tem fuligem, outro veículo 6 pode ainda ser eficazmente detectado na unidade de execução de aplicação de reconhecimento de imagem, por exemplo, o detector de veículo 70.
[0298] De acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, o ajustador de sensibilidade de detecção 50 corrige pelo menos um dos limiares, e controla o aumento de uma sensibilidade de detecção no período noturno comparado ao período diurno quando o nível de anexação M da matéria fixada tal como sujeira ou gota de água para s lente 12 e o nível de turbidez branca U das lentes 12 é alto. Com esta configuração, a quantidade de controle de período noturno da sensibilidade de detecção de veículo (por exemplo, o primeiro limiar p e o segundo limiar α) de acordo com o nível de turbidez branca U das lentes 12 é reduzido relativo a quantidade de controle de período diurno, e desse modo, outro veículo 6 pode ainda ser detectado eficazmente.
[0299] De acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, a unidade de execução de aplicação de reconhecimento de imagem, por exemplo, o detector de veículo 70 detecta outro veículo 7 perto do veículo 5 atrás do veículo 5. Com esta configuração, condição de segurança de trás pode ser eficazmente confirmada quando o veículo 5 muda uma linha.
[0300] De acordo com o reconhecedor de imagem em veículo 8 de uma modalidade da presente invenção, o ajustador de sensibilidade de detecção 50 controla o aumento de uma sensibilidade de detecção quando outro veículo 6 está perto do veículo 5 em uma velocidade relativa positiva predeterminada no caso em que o nível de anexação M da matéria fixada, tal como sujeira ou a gota de água nas lentes 12, e o nível de turbidez branca U das lentes 12 são altos. Com esta configuração, quando a velocidade relativa tem um valor positive de um valor predeterminado ou mais, nomeadamente, quando o veículo 5 passa pelo veículo perto a partir de trás, a quantidade de controle da sensibilidade de detecção de veículo (por exemplo, o primeiro limiar p e o segundo limiar α) de acordo com o nível de turbidez branca U das lentes 12 é reduzido, e assim, o veículo perto pode ainda ser eficazmente detectado.
[0301] Além disso, o sistema de aplicação de reconhecimento de imagem que opera concorrentemente com o reconhecedor de imagem em veículo 8 não está limitado ao sistema BSW 9. Nomeadamente, um sistema LDW (Aviso de Partida de Linha), que detecta a posição de um marcador de linha tal como uma linha branca que se move de acordo com a posição de viagem do veículo 5 a partir da imagem I obtida pela unidade de imagem 10, e detecta anteriormente a linha de saída com base na posição detectada do marcador de linha para informar um condutor tal linha de saída, ou outro sistema pode ser aplicado.
[0302] Embora a modalidade da presente invenção tenha sido descrita acima, a presente invenção não está limitada a esta. Deve ser apreciado que variações podem ser feitas na modalidade e os aspectos descritos pelos peritos na arte sem partir do escopo da presente invenção.
REFERÊNCIA CRUZADA COM PEDIDOS RELACIONADOS
[0303] O presente pedido é com base em e reivindica a prioridade do Documento de Patente Japonês N°. 2012-167702, depositado em 27 de julho de 2012, a divulgação da qual está incorporada aqui para referência em sua totalidade.DESCRIÇÃO DOS NUMERAIS DE REFERÊNCIA8 Reconhecedor de imagem em veículo9 sistema BSW10 unidade de imagem12 Lentes14 conversor de luz16 ajustador de ganho20 detector de sujeita de lentes22 Calculadora de nível de turbidez branca 24 Segunda calculadora de nível de turbidez branca25 Calculadora de nível de turbidez branca26 Calculadora de nível de fixação30 Calculadora de nível de sujeita de lentes50 Ajustador de sensibilidade de detecção60 Unidade de obtenção de informação de veículo70 Detector de veículo72 Detector de veículo perto74 Unidade de saída de alerta

Claims (7)

1. Reconhecedor de imagem em veículo CARACTE RIZADO por compreender:uma unidade de imagem que é disposta em um veículo para observar uma área circundante do veículo através de lentes, e converter um sinal de luz da área circundante observada do veículo em um sinal de imagem;uma unidade de execução de aplicação de reconhecimento de imagem tendo uma sensibilidade de detecção predeterminada para detectar um objeto se movendo que existe na área circundante do veículo a partir da imagem obtida pela unidade de imagem;uma calculadora de nível de turbidez branca que calcula um nível de turbidez branca das lentes a partir do sinal de imagem;uma calculadora de nível de fixação que calcula um nível de fixação da matéria fixada, tal como sujeira ou gota de água nas lentes; eum ajustador de sensibilidade de detecção que ajusta a sensibilidade de detecção para ser aumentada de acordo com o nível de turbidez branca, em queo ajustador de sensibilidade de detecção corrige a sensibilidade de detecção com base no nível de fixação da matéria fixada, tal como sujeira ou gotas de água nas lentes.
2. Reconhecedor de imagem em veículo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o calculador de nível de turbidez branca calcula o nível de turbidez branca das lentes com base em pelo menos um de uma distribuição de intensidade de borda e um gradiente de brilho da imagem obtida pela unidade de imagem.
3. Reconhecedor de imagem em veículo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o ajustador de sensibilidade de detecção controla um aumento da sensibilidade de detecção quando o nível de fixação, tal como sujeira ou gotas de água nas lentes, calculadas no calculador de nível de fixação é alto.
4. Reconhecedor de imagem em veículo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que o ajustador de sensibilidade de detecção corrige pelo menos um limiar dentre um limiar para detectar um pixel tendo uma diferença de brilho da imagem obtida pela unidade de imagem, um limiar para detectar um pixel tendo uma mudança de brilho em uma imagem de series de tempo obtida em tempos diferentes pela unidade de imagem, e um limiar para determinar a combinação quando a combinação dos pixels detectados tendo a mudança no brilho a partir da imagem de séries de tempo obtida em tempos diferentes pela unidade de imagem.
5. Reconhecedor de imagem em veículo, de acordo a reivindicação 1, CARACTERIZADO pelo fato de que o ajustador de sensibilidade de detecção corrige pelo menos um dos limiares, e controla o aumento da sensibilidade de detecção em um tempo noturno comparado com o tempo diurno quando o nível de fixação da matéria fixada como a sujeita ou a gota de água nas lentes e o nível de turbidez branca das lentes é alto.
6. Reconhecedor de imagem em veículo, de acordo com a reivindicação 1, CARACTERIZADO pelo fato de que a unidade de execução de aplicação de reconhecimento de imagem detecta outro veículo perto do veículo em um lado oposto do veículo.
7. Reconhecedor de imagem em veículo, de acordo com a reivindicação 6, CARACTERIZADO pelo fato de que o ajustador de sensibilidade de detecção controla o aumento da sensibilidade de detecção quando outro veículo está perto do veículo em uma velocidade relativa positiva predeterminada no caso em que o nível de fixação da matéria fixada, como a sujeira e as gotas de água nas lentes, e o nível de turbidez branca da lente é alto.
BR112015001872-6A 2012-07-27 2013-07-19 Reconhecedor de imagem em veículos BR112015001872B1 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012167702 2012-07-27
JP2012-167702 2012-07-27
PCT/JP2013/069667 WO2014017403A1 (ja) 2012-07-27 2013-07-19 車載用画像認識装置

Publications (2)

Publication Number Publication Date
BR112015001872A2 BR112015001872A2 (pt) 2017-08-08
BR112015001872B1 true BR112015001872B1 (pt) 2021-11-03

Family

ID=49997216

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112015001872-6A BR112015001872B1 (pt) 2012-07-27 2013-07-19 Reconhecedor de imagem em veículos

Country Status (10)

Country Link
US (1) US9288381B2 (pt)
EP (1) EP2879370B1 (pt)
JP (1) JP6126094B2 (pt)
CN (1) CN104509090B (pt)
BR (1) BR112015001872B1 (pt)
IN (1) IN2015KN00489A (pt)
MX (1) MX341857B (pt)
MY (1) MY184347A (pt)
RU (1) RU2573110C1 (pt)
WO (1) WO2014017403A1 (pt)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2871629B1 (en) * 2012-07-03 2018-08-15 Clarion Co., Ltd. Vehicle-mounted environment recognition device
US9445057B2 (en) * 2013-02-20 2016-09-13 Magna Electronics Inc. Vehicle vision system with dirt detection
CN105393293B (zh) 2013-07-18 2017-05-03 歌乐株式会社 车载装置
JP6380843B2 (ja) * 2013-12-19 2018-08-29 株式会社リコー 物体検出装置及びこれを備えた移動体機器制御システム並びに物体検出用プログラム
US10013616B2 (en) * 2014-05-27 2018-07-03 Robert Bosch Gmbh Detection, identification, and mitigation of lens contamination for vehicle mounted camera systems
CN104299244B (zh) * 2014-09-26 2017-07-25 东软集团股份有限公司 基于单目相机的障碍物检测方法及装置
KR102263731B1 (ko) * 2014-11-11 2021-06-11 현대모비스 주식회사 주변차량의 위치정보 보정 시스템 및 방법
JP6476921B2 (ja) * 2015-01-29 2019-03-06 住友電気工業株式会社 危険車両検知システム及び車載情報処理装置
KR101757263B1 (ko) * 2015-07-08 2017-07-12 현대자동차주식회사 근거리 물체 감지 장치 및 방법과 이를 이용한 차량
JP6644509B2 (ja) * 2015-10-01 2020-02-12 アルパイン株式会社 車両検知警報装置および車両検知警報方法
SE541846C2 (en) * 2016-02-10 2019-12-27 Scania Cv Ab Method and control unit for rear view
BR112018068324A8 (pt) * 2016-03-30 2023-04-04 Nec Corp Aparelho de análise, método de análise, e programa
JP6655721B2 (ja) * 2016-07-27 2020-02-26 京セラ株式会社 検出装置、撮像装置、移動体及び検出方法
EP3306523A1 (en) * 2016-10-06 2018-04-11 Continental Automotive GmbH Device for determining a glare situation caused by a transparent screen of a vehicle
EP3306522A1 (en) * 2016-10-06 2018-04-11 Continental Automotive GmbH Device for determining a region of interest on and/or within a vehicle windscreen
JP6755161B2 (ja) * 2016-10-24 2020-09-16 株式会社デンソーテン 付着物検出装置および付着物検出方法
US11034295B2 (en) * 2017-02-02 2021-06-15 Magna Electronics Inc. Vehicle vision system using at least two cameras
JP7112181B2 (ja) * 2017-03-24 2022-08-03 株式会社Screenホールディングス 画像処理方法および画像処理装置
JP6832224B2 (ja) * 2017-04-28 2021-02-24 株式会社デンソーテン 付着物検出装置および付着物検出方法
CN107317700B (zh) * 2017-06-09 2020-06-30 湖北理工学院 车载边缘计算节点选择系统及方法
JP6772113B2 (ja) * 2017-08-02 2020-10-21 クラリオン株式会社 付着物検出装置、および、それを備えた車両システム
JP6996200B2 (ja) * 2017-09-29 2022-01-17 富士通株式会社 画像処理方法、画像処理装置、および画像処理プログラム
EP3483781B1 (en) * 2017-11-13 2021-10-06 Continental Automotive GmbH Device for detecting windshield blockage
JP7210882B2 (ja) * 2018-01-30 2023-01-24 株式会社デンソーテン 付着物検出装置および付着物検出方法
US10691957B2 (en) * 2018-02-12 2020-06-23 ITS Plus, Inc. Method for increasing the accuracy of traffic cameras using optical masking technology
JP7163766B2 (ja) * 2018-12-28 2022-11-01 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP2020109541A (ja) * 2018-12-28 2020-07-16 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP7234630B2 (ja) * 2018-12-28 2023-03-08 株式会社デンソーテン 付着物検出装置
US11257375B2 (en) * 2018-12-31 2022-02-22 Ficosa Adas, S.L.U. Method and system for detecting objects in a vehicle blind spot
US10943129B2 (en) 2019-01-04 2021-03-09 Ford Global Technologies, Llc Low-light sensor cleaning
CN111583169A (zh) * 2019-01-30 2020-08-25 杭州海康威视数字技术股份有限公司 一种车载相机镜头的污染处理方法及系统
WO2020196536A1 (ja) * 2019-03-26 2020-10-01 株式会社小糸製作所 撮影システムおよび画像処理装置
WO2020230237A1 (ja) * 2019-05-13 2020-11-19 日本電信電話株式会社 交通流推定装置、交通流推定方法、交通流推定プログラムおよび交通流推定プログラムを記憶した記憶媒体
JP7151675B2 (ja) * 2019-09-20 2022-10-12 株式会社デンソーテン 付着物検出装置および付着物検出方法
JP7200894B2 (ja) * 2019-09-20 2023-01-10 株式会社デンソーテン 付着物検出装置および付着物検出方法
GB2588655B (en) * 2019-10-31 2022-08-17 Jaguar Land Rover Ltd Control system and method for a vehicle
CN111405177B (zh) * 2020-03-09 2021-09-24 Oppo广东移动通信有限公司 图像处理方法、终端及计算机可读存储介质
CN111443490B (zh) * 2020-04-15 2022-11-18 杭州赶梦科技有限公司 一种ar hud的虚像显示区域调节方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6369650U (pt) * 1986-10-27 1988-05-11
JP3734512B2 (ja) * 1993-12-27 2006-01-11 株式会社メニコン コンタクトレンズ外観検査方法および外観検査装置
JP2001052185A (ja) * 1999-08-13 2001-02-23 Mitsubishi Precision Co Ltd 車両検出方法および車両検出装置
JP3651387B2 (ja) * 2000-11-22 2005-05-25 日産自動車株式会社 白線検出装置
JP2003044863A (ja) 2001-07-30 2003-02-14 Nissan Motor Co Ltd 仕切線認識装置
JP3756452B2 (ja) * 2002-01-18 2006-03-15 本田技研工業株式会社 赤外線画像処理装置
JP2004153422A (ja) * 2002-10-29 2004-05-27 Toshiba Corp 撮影装置、顔照合装置、撮影装置の汚れ検知方法、及び顔照合方法
JP3987048B2 (ja) * 2003-03-20 2007-10-03 本田技研工業株式会社 車両周辺監視装置
US7340767B2 (en) * 2003-06-26 2008-03-04 Matsushita Electric Industrial Co, Ltd. Camera apparatus, image server and image server system
RU2286267C2 (ru) * 2004-11-09 2006-10-27 Аркадий Вениаминович Дубровский Система зеркал транспортного средства
JP2007318355A (ja) 2006-05-24 2007-12-06 Matsushita Electric Ind Co Ltd 撮像装置およびレンズ汚れ検出方法
JP2008064630A (ja) * 2006-09-07 2008-03-21 Hitachi Ltd 付着物検知機能付き車載用撮像装置
EP2351351B1 (en) * 2008-10-01 2015-09-16 Connaught Electronics Limited A method and a system for detecting the presence of an impediment on a lens of an image capture device to light passing through the lens of an image capture device
JP2012038048A (ja) 2010-08-06 2012-02-23 Alpine Electronics Inc 車両用障害物検出装置
KR101042302B1 (ko) * 2010-12-27 2011-06-17 위재영 차량 외부 영상 장치용 하우징
JP6120395B2 (ja) * 2012-07-03 2017-04-26 クラリオン株式会社 車載装置
CN104395156B (zh) * 2012-07-03 2017-02-22 歌乐株式会社 车辆周围监视装置

Also Published As

Publication number Publication date
RU2573110C1 (ru) 2016-01-20
MX341857B (es) 2016-09-05
CN104509090A (zh) 2015-04-08
CN104509090B (zh) 2016-08-24
BR112015001872A2 (pt) 2017-08-08
JP6126094B2 (ja) 2017-05-10
MY184347A (en) 2021-04-01
MX2015001004A (es) 2015-11-23
EP2879370A4 (en) 2016-05-11
WO2014017403A1 (ja) 2014-01-30
IN2015KN00489A (pt) 2015-07-17
US9288381B2 (en) 2016-03-15
EP2879370B1 (en) 2020-09-02
JPWO2014017403A1 (ja) 2016-07-11
US20150201120A1 (en) 2015-07-16
EP2879370A1 (en) 2015-06-03

Similar Documents

Publication Publication Date Title
BR112015001872B1 (pt) Reconhecedor de imagem em veículos
CN104781829B (zh) 用于识别车辆在车道上的位置的方法和设备
CN105922991B (zh) 基于生成虚拟车道线的车道偏离预警方法及系统
US9773177B2 (en) Surrounding environment recognition device
CN110555361B (zh) 车道分类的图像处理方法
RU2636120C2 (ru) Устройство обнаружения трехмерных объектов
US9591274B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
US9721169B2 (en) Image processing device for detecting vehicle in consideration of sun position
JP5637302B2 (ja) 走行支援装置及びその隣接車両検出方法
US9558546B2 (en) Three-dimensional object detection device, and three-dimensional object detection method
EP3832529A1 (en) Detection of obstacles at night by analysis of shadows
RU2616538C2 (ru) Устройство обнаружения трехмерных объектов
BR112014020316B1 (pt) Dispositivo de detecção de objeto tridimensional
BR112015001825B1 (pt) Dispositivo de detecção de objeto tridimensional, método de detecção de objeto tridimensional
BR112014001824B1 (pt) dispositivo e método de detecção de objeto sólido
RU2635280C2 (ru) Устройство обнаружения трехмерных объектов
BR112013007085B1 (pt) Sistema e método de detecção de objeto fixo repetitivo
RU2633120C2 (ru) Устройство обнаружения трехмерных объектов
JP2020016628A (ja) 距離算出装置
JP5974923B2 (ja) 道路端検出システム、方法およびプログラム
JP5888275B2 (ja) 道路端検出システム、方法およびプログラム
US11688180B2 (en) Lane departure warning without lane lines
von Trzebiatowski et al. Detecting reflection posts-lane recognition on country roads
JP2014238693A (ja) 停止線検出装置、移動体制御装置及び停止線検出用プログラム
JP2024011893A (ja) 車線判定装置、車線判定方向及び車線判定用コンピュータプログラム

Legal Events

Date Code Title Description
B06F Objections, documents and/or translations needed after an examination request according [chapter 6.6 patent gazette]
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B09A Decision: intention to grant [chapter 9.1 patent gazette]
B16A Patent or certificate of addition of invention granted [chapter 16.1 patent gazette]

Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 19/07/2013, OBSERVADAS AS CONDICOES LEGAIS.