JP2016038261A - 物体認識装置 - Google Patents

物体認識装置 Download PDF

Info

Publication number
JP2016038261A
JP2016038261A JP2014160680A JP2014160680A JP2016038261A JP 2016038261 A JP2016038261 A JP 2016038261A JP 2014160680 A JP2014160680 A JP 2014160680A JP 2014160680 A JP2014160680 A JP 2014160680A JP 2016038261 A JP2016038261 A JP 2016038261A
Authority
JP
Japan
Prior art keywords
learning
axis
object detection
axis deviation
deviation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014160680A
Other languages
English (en)
Other versions
JP6396714B2 (ja
Inventor
郁佑 松元
Yusuke Matsumoto
郁佑 松元
高木 亮
Akira Takagi
亮 高木
磯貝 晃
Akira Isogai
晃 磯貝
一郎 相澤
Ichiro Aizawa
一郎 相澤
淳 土田
Atsushi Tsuchida
淳 土田
佐藤 公一
Koichi Sato
公一 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Toyota Motor Corp
Original Assignee
Denso Corp
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Toyota Motor Corp filed Critical Denso Corp
Priority to JP2014160680A priority Critical patent/JP6396714B2/ja
Priority to DE112015003605.9T priority patent/DE112015003605B4/de
Priority to PCT/JP2015/072111 priority patent/WO2016021606A1/ja
Priority to KR1020177005660A priority patent/KR101961571B1/ko
Priority to CN201580041368.5A priority patent/CN106574961B/zh
Priority to US15/501,786 priority patent/US10422871B2/en
Publication of JP2016038261A publication Critical patent/JP2016038261A/ja
Application granted granted Critical
Publication of JP6396714B2 publication Critical patent/JP6396714B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/50Systems of measurement based on relative movement of target
    • G01S17/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • G01S7/4026Antenna boresight
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Signal Processing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Traffic Control Systems (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

【課題】移動体に搭載された物体検出手段の基準軸のずれが発生しているか否かを判定する処理において誤判定を抑制する。
【解決手段】移動体としての車両50は、第1物体検出手段として撮像装置11及び第2物体検出手段としてレーダ装置12を搭載する。物体認識装置10は、第1物体検出手段の基準軸X1の軸ずれ量を学習する軸ずれ学習手段と、第1物体検出手段及び第2物体検出手段の物体検出結果に基づいて、第2物体検出手段の基準軸において軸ずれが生じているか否かを判定する軸ずれ判定処理を実施する軸ずれ判定手段と、軸ずれ学習手段による軸ずれ量の学習結果に基づいて、軸ずれ判定処理によって取得した第2物体検出手段の軸ずれに関する情報を無効にする無効化手段と、を備える。
【選択図】図1

Description

本発明は、物体認識装置に関し、特に移動体に搭載される物体認識装置に関する。
従来、ミリ波レーダやレーザレーダ等の物体検出センサを車両に搭載し、先行車両や歩行者、障害物等の車両周辺に存在する物体を検出するとともに、その物体検出結果に基づいて、車両の走行安全性を向上させるための各種制御を行うことが提案されている。
車両に取り付けられた物体検出センサにおいて、基準軸のずれ(光軸ずれ)が発生した場合、物体検出センサによる物体検出領域が本来検出すべき領域からずれてしまい、物体の検出精度が低下することが考えられる。かかる場合、車両の走行安全性を向上させるための各種制御の精度が低下するおそれがある。
そこで従来、物体検出センサの軸ずれを検出するための技術が種々提案されている(例えば特許文献1参照)。特許文献1には、カメラ及びレーダ装置が搭載された車両において、車両走行中にカメラで撮影した画像に基づいて検出した消失点とレーザビームの送出方向とに基づいて、レーザビームの送出方向と車両直進方向との間の誤差を検出し、レーザビームの送出方向の補正を行うことが開示されている。
特開2004−205398号公報
撮像装置で撮影した画像を用いてレーダ装置の軸ずれを検出する場合、その検出処理を撮像装置の基準軸(撮影軸)のずれが発生している状況下で実施すると、レーダ装置の軸ずれを精度良く検出できず、誤判定を招くことが懸念される。
本発明は、上記課題に鑑みなされたものであり、移動体に搭載された物体検出手段の基準軸のずれが発生しているか否かを判定する処理において誤判定を抑制することができる物体認識装置を提供することを一つの目的とする。
本発明は、上記課題を解決するために、以下の手段を採用した。
本発明は、所定の検出可能領域内に存在する物体を検出する物体検出手段として第1物体検出手段(11)及び第2物体検出手段(12)が搭載された移動体(50)に適用される物体認識装置に関する。請求項1に記載の物体検出装置は、前記検出可能領域は各々に基準軸(X1、X2)を含み、前記第1物体検出手段の基準軸の軸ずれ量を学習する軸ずれ学習手段と、前記第1物体検出手段及び前記第2物体検出手段の物体検出結果に基づいて、前記第2物体検出手段の基準軸において軸ずれが生じているか否かを判定する軸ずれ判定処理を実施する軸ずれ判定手段と、前記軸ずれ学習手段による前記軸ずれ量の学習結果に基づいて、前記軸ずれ判定処理によって取得した前記第2物体検出手段の軸ずれに関する情報を無効にする無効化手段と、を備えることを特徴とする。
第1物体検出手段の物体検出結果を用いて、第2物体検出手段の基準軸のずれが生じているか否かを判定する場合、第1物体検出手段の軸ずれ量の学習結果に応じて、第2物体検出手段の軸ずれ判定の判定精度が変わると考えられる。例えば、第1物体検出手段の軸ずれ量の学習結果が、該学習の精度がさほど高くないことを示す結果であった場合、第2物体検出手段の軸ずれ判定にて誤判定を招くおそれがある。こうした点に着目し、上記構成では、第1物体検出手段の基準軸の軸ずれ量の学習結果に基づいて、それまでに取得した第2物体検出手段の基準軸のずれに関する情報を無効にする。この構成によれば、第2物体検出手段の基準軸のずれが発生しているか否かを判定する処理において、誤判定を抑制することができる。
物体認識装置の概略構成を示すブロック図。 撮像装置及びレーダ装置の配置を示す図。 撮像軸ずれが生じた場合の検出距離のずれを表す模式図。 レーダ軸ずれ判定処理の具体的態様を示すタイムチャート。 レーダ軸ずれ判定処理の処理手順を示すフローチャート。 リセット判定処理の処理手順を示すフローチャート。 消失点の学習状態に応じたカウンタリセットタイミングを示すタイムチャート。 他の実施形態の具体的態様を示すタイムチャート。
以下、移動体の物体認識装置を具体化した実施形態について、図面を参照しつつ説明する。本実施形態に係る物体認識装置10は、移動体としての車両に搭載された車載装置であり、撮像装置11及びレーダ装置12によって、車両の前方を含む検出可能領域内に存在する物体を認識する。まずは、本実施形態の物体認識装置10の概略構成について図1及び図2を用いて説明する。
撮像装置11は車載カメラであり、CCDカメラやCMOSイメージセンサ、近赤外線カメラ等で構成されている。撮像装置11は、自車両50の走行道路を含む周辺環境を撮影し、その撮影した画像を表す画像データを生成して物体認識装置10に逐次出力する。本実施形態の撮像装置11は、自車両50の例えばフロントガラスの上端付近に設置されており、撮像軸X1を中心に車両前方に向かって所定角度θ1の範囲で広がる領域61を撮影する(図2参照)。なお、撮像装置11は、単眼カメラであってもよく、ステレオカメラであってもよい。
レーダ装置12は、送信波として電磁波を送信し、その反射波を受信することで物体を検出する装置であり、例えばミリ波レーダやレーザレーダ等で構成されている。レーダ装置12は、自車両50の前部に取り付けられており、光軸X2を中心に車両前方に向かって所定角度θ2(θ2<θ1)の範囲に亘って広がる領域62をレーダ信号により走査する。そして、車両前方に向けて電磁波を送信してから反射波を受信するまでの時間に基づき測距データを作成し、その作成した測距データを物体認識装置10に逐次出力する。測距データには、物体が存在する方位、物体までの距離及び相対速度に関する情報が含まれている。
なお、撮像装置11の基準軸である撮像軸X1と、レーダ装置12の基準軸である光軸X2とが、自車両50の走行路面に対して水平な方向と同一方向になるように、撮像装置11及びレーダ装置12が自車両50に取り付けられている。また、撮像装置11の検出可能領域61とレーダ装置12の検出可能領域62とは、互いに少なくとも一部の領域が重複している。撮像装置11が「第1物体検出手段」に相当し、レーダ装置12が「第2物体検出手段」に相当する。
物体認識装置10は、CPU、RAM、ROM及びI/O等を備えたコンピュータである。物体認識装置10は、白線認識部13、フロー演算部14、消失点演算部20及びレーダ軸ずれ検出部30を備えており、CPUが、ROMにインストールされているプログラムを実行することでこれら各機能を実現する。
白線認識部13は、撮像装置11で撮影された画像を入力し、この画像に含まれている道路区画線としての白線を認識する。白線認識部13では、例えば、画像の水平方向における輝度変化率等に基づいて、撮影画像データから白線の候補とするエッジ点を抽出し、その抽出したエッジ点を1フレームごとに順次記憶する。そして、記憶した白線のエッジ点の履歴に基づき白線を認識する。フロー演算部14は、撮像装置11で撮影された画像を入力し、その入力した画像データを用いて、画像中の各点における動きベクトルとしてオプティカルフローを演算する。フロー演算部14では、例えば、空間的な輝度分布の変化に基づいて画素ごとに動きベクトルを演算する。
消失点演算部20は、基準値推定部21と、消失点学習部22と、学習値記憶部25とを備えている。基準値推定部21は、白線認識部13から白線の位置等に関する情報(白線情報)を入力するとともに、フロー演算部14からオプティカルフローに関する情報(フロー情報)を入力し、それら入力データを用いて消失点(Focus of Expansion;FOE)を求めるための各種処理を実行する。
基準値推定部21は、撮像装置11で撮影された画像データに基づいて消失点を算出する。具体的には、基準値推定部21は、白線認識部13から入力した白線情報や、フロー演算部14から入力したフロー情報を用いて消失点を算出する。例えば白線情報を用いる場合、車両周辺に存在する一対の白線の交点を消失点と推定し、その値(基準消失点)をROMに記憶する。なお、車両出荷時では、消失点として初期値が予めROMに記憶されている。初期値は、例えば撮像装置11の取付状態を表すパラメータ(例えば、取付高さ、撮像軸の俯角など)や、撮像装置11の撮像機能に関するパラメータ(例えば、画素数、焦点距離など)に基づき設定されている。
消失点学習部22は、撮像装置11の取付高さや軸方向が変化することに伴う消失点の定常的なずれ量(撮像軸X1の軸ずれ量)を算出するための消失点学習を実行する。具体的には、消失点学習部22は、白線情報から算出した消失点についての学習を実行する第1学習部23と、フロー情報から算出した消失点についての学習を実行する第2学習部24とを備える。第1学習部23及び第2学習部24のそれぞれの学習値(消失点学習値)は、学習の実行毎に学習値記憶部25に都度記憶・更新される。
消失点学習部22では、自車両50の始動スイッチ(例えばイグニッションスイッチ等)がオンされたことに伴い消失点学習を開始する。また本実施形態では、車両の積載状態や走行状態によって撮像装置11の取付高さや軸方向が変化し、それに伴い消失点の位置も変化することを考慮し、始動スイッチのオン後に消失点学習が一旦完了した後も、消失点学習を逐次実行している。
学習値記憶部25は、例えば、電気的にデータの書き換えが可能な不揮発メモリ(EEPROM等)によって構成されている。物体認識装置10は、消失点を指標に画像データを解析することにより、例えば自車両50の走行道路に対する走行状態や前方車両との位置関係等を推定したり歩行者を認識したりする。
ただし、画像に基づく白線認識は、オプティカルフローの演算よりも時間がかかる。そのため、自車両50の始動スイッチのオン後では、白線認識による消失点学習が完了する時刻よりも、オプティカルフローによる消失点学習が完了する時刻の方が早くなる。一方、消失点学習の学習精度は、オプティカルフローを用いるよりも、白線認識を用いた方が精度が高い。そこで本実施形態では、自車両50の始動スイッチのオン後、白線認識による消失点学習が完了するまでは、オプティカルフローにより算出した学習値を用いて画像データの解析処理を行い、白線認識による消失点学習が完了した後では、白線認識により算出した学習値を用いて画像データの解析処理を行うこととしている。
レーダ軸ずれ検出部30は、カメラ物標検出部31、レーダ物標検出部32、軸ずれ情報演算部33、軸ずれ判定部34及びリセット判定部35を備えている。
カメラ物標検出部31は、撮像装置11で撮影された画像を入力し、この画像に含まれている物標(カメラ物標)を検出する。レーダ物標検出部32は、レーダ装置12からの測距データを入力し、その入力データに含まれている物標(レーダ物標)を検出する。軸ずれ情報演算部33は、カメラ物標検出部31による検出結果と、レーダ物標検出部32による検出結果とに基づいて、レーダ装置12で光軸ずれが発生しているか否かを判定する。
具体的には、軸ずれ情報演算部33は、カメラ物標検出部31で検出したカメラ物標、及びレーダ物標検出部32で検出したレーダ物標に関する情報をそれぞれ入力する。軸ずれ情報演算部33では、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJの演算を行う。詳細には、自車両50の前方に物体(例えば先行車両)が存在し、少なくともカメラ物標検出部31によってその物体に対応する物標が検出されている場合に、カメラ物標検出カウンタCAを所定周期でインクリメントする。また、カメラ物標検出部31で検出された物標と同一物体となり得る物標がレーダ物標検出部32で検出されている場合に、軸ずれ判定カウンタCJをインクリメントする。なお、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJが「光軸ずれに関する情報」に相当する。
軸ずれ判定部34では、軸ずれ情報演算部33から入力したカメラ物標検出カウンタCA及び軸ずれ判定カウンタCJに基づいて、レーダ装置12の光軸ずれが発生しているか否かを判定する。具体的には、カメラ物標検出カウンタCAに対する軸ずれ判定カウンタCJの比率を算出し、その比率CJ/CAと判定値THA2とを比較することによって行う。このとき、CJ/CA<THA2である場合に光軸ずれ有りと判定する。リセット判定部35は、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJについて、それらデータを軸ずれ判定部34に出力するか、それとも無効にするかを決定する。
以下、リセット判定部35で実行されるカメラ物標検出カウンタCA及び軸ずれ判定カウンタCJのリセット判定処理について詳しく説明する。リセット判定部35は、学習値記憶部25から消失点学習値を入力し、その入力した消失点学習値に基づいて、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをリセットするか否かを決定する。
具体的には、リセット判定部35は、学習値記憶部25に記憶されている消失点学習値に基づいて、過去FOE信用フラグFtrに0か1を設定し、設定したフラグFtrを軸ずれ情報演算部33に出力する。この過去FOE信用フラグFtrは、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをリセットするか否かを示す情報である。軸ずれ情報演算部33では、入力した過去FOE信用フラグFtrが1であれば、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJの計測値をそのまま保持する。一方、過去FOE信用フラグFtrが0であれば、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをゼロにリセットし、カウンタの計測を最初からやり直す。なお、軸ずれ情報演算部33及びリセット判定部35によって「無効化手段」が構成されている。
リセット判定処理を実行する理由は次の通りである。撮像軸X1に軸ずれが発生している場合、その軸ずれ角度の分だけ、画像認識による物体との距離を誤ってしまう。図3に、撮像軸X1の軸ずれに起因するカメラ物標の距離ずれを模式的に表す。なお、図3では光軸ずれが発生していない場合を想定している。
自車両50から同一物体(図3では先行車両55)までの検出距離について、撮像装置11の検出結果とレーダ装置12の検出結果を比較すると、撮像軸X1で軸ずれが発生していない状態では、検出距離の差はΔd1と比較的小さい。これに対し、撮像軸X1が、例えば走行路面に対して水平な位置よりも上向きに所定角度θ3だけずれている場合には、検出距離の差がΔd2と比較的大きくなる。この場合、撮像装置11とレーダ装置12で同一物体を検出しているにも関わらず、画像処理において2つの物標(カメラ物標とレーダ物標)が同一物体であると認識されないことが生じ得る。かかる場合、軸ずれ判定カウンタCJの計測値の信頼度が低くなり、レーダ軸ずれ判定処理において誤判定を招くことが懸念される。なお、こうした撮像軸ずれに起因する検出距離のずれは、消失点学習によって改善される(TA2→TA1)。
また、車両の運転開始時では、消失点の学習状態が、オプティカルフロー及び白線認識のいずれについても学習未完了である状態から、オプティカルフローによる学習完了状態へと移行し、その後、白線認識による学習完了状態へと変化する。また、こうした学習状態の変化に伴い、レーダ軸ずれ判定処理の開始後において消失点の学習結果の信頼度、つまり学習後の消失点の真値に対するずれ量が変化することが考えられる。例えば、白線認識による消失点学習が未だ完了していない状態と、白線認識による消失点学習が完了した状態とでは学習結果の信頼度が相違し、前者では後者よりも真値に対するずれ量が大きく、学習結果の信頼度が低くなる傾向にある。
そこで本実施形態では、消失点学習の学習結果に応じて、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJを無効化することとしている。具体的には、レーダ軸ずれ判定処理の開始後において、消失点の学習結果の信頼度が変わらなければ、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJのカウントアップをそのまま継続する。一方、レーダ軸ずれ判定処理の開始後において、消失点の学習結果の信頼度の変化が生じた場合には、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをリセットして、レーダ軸ずれ判定処理を最初からやり直す。
次に、消失点の学習結果に基づくカウンタCA,CJのリセット判定処理の具体的態様について、図4のタイムチャートを用いて説明する。図4中、(a)はイグニッションスイッチ(IGスイッチ)のオン/オフの推移、(b)はカメラ物標検出カウンタCA及び軸ずれ判定カウンタCJの値の推移、(c)は消失点の学習状態の推移を示す。なお、図4では、IGスイッチオンの時点で先行車両が存在している場合を想定している。
時刻t10でIGスイッチがオンされると、カメラ物標検出カウンタCAのカウントアップが開始される。また、カメラ物標と同一物体となり得るレーダ物標が検出されている場合には、その検出数(検出頻度)に対応する分だけ軸ずれ判定カウンタCJがカウントアップされる。図4では、レーダ装置12の光軸ずれが生じているため、CJ<CAとなっている。
IGスイッチのオン直後では、オプティカルフローによる消失点学習及び白線認識による消失点学習が未だ完了しておらず、学習値記憶部25には前回の車両走行終了時に記憶した学習値がそのまま記憶されている。したがって、オプティカルフローに基づく消失点学習が開始されるまでのt10〜t11の期間では、前回学習値FOE_Aを用いて画像処理が行われる。
IGスイッチのオンから所定時間T1が経過した後の時刻t11では、オプティカルフローに基づく消失点学習を開始する旨の指令が出力される。なお、所定時間T1は、オプティカルフローの演算に必要な画像データを取得するための時間(例えば十数秒)が設定されている。
ここで、オプティカルフローに基づき算出した消失点が、前回学習値FOE_Aに対して比較的大きくずれた場合、カメラ物標検出カウンタCAのカウントアップ開始後に消失点の学習結果の信頼度が変化したものと推定される。こうした場合、本実施形態では、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJがゼロにリセットされ、レーダ軸ずれ判定のためのカウントアップが最初からやり直される。特に本実施形態では、オプティカルフローに基づく消失点(FOE_C)が安定した時点t12で、前回学習値FOE_Aとオプティカルフローによる消失点FOE_Cとのずれ量の絶対値ΔFOE(C−A)を算出し、その算出したΔFOE(C−A)により、消失点学習の学習結果の信頼度の変化があったものと判定される。
オプティカルフローによる消失点学習の開始指令から更に所定時間T2(例えば数分)が経過した時点t13で、白線認識による消失点学習が完了した場合にも同様である。具体的には、オプティカルフローによる消失点FOE_Cと、白線認識による消失点(FOE_D)とのずれ量の絶対値ΔFOE(D−C)から、消失点の学習結果の信頼度が変化したと判定されると、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJがゼロにリセットされ、レーダ軸ずれ判定のためのカウントアップが最初からやり直される。
次に、本実施形態のレーダ軸ずれ検出部で実行される処理の処理手順について図5及び図6のフローチャートを用いて説明する。これらの処理は、物体認識装置10のCPUにより所定周期毎に実行される。
まず、図5のレーダ軸ずれ判定処理について説明する。図5において、ステップS101では、過去FOE信用フラグFtrに0がセットされているか否かを判定する。Ftr=0であればステップS102へ進み、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJを0にリセットする。一方、Ftr=1であればステップS102の処理を実行せずにステップS103へ進む。
ステップS103では、撮像装置11で撮影された画像を入力し、その入力した画像に物標(カメラ物標)が含まれているか否かを判定する。カメラ物標の検出無しの場合にはそのまま本ルーチンを終了し、カメラ物標の検出有りの場合にはステップS104へ進み、カメラ物標検出カウンタCAをインクリメントする。
続くステップS105では、カメラ物標と同一物体に属する物標がレーダ装置12で検出されているか否かを判定する。検出有りの場合にはステップS106へ進み、軸ずれ判定カウンタCJをインクリメントする。一方、検出無しの場合にはステップS106の処理を実行せずにステップS107へ進む。
ステップS107では、カメラ物標検出カウンタCAが判定値THA1(例えば数千回)よりも大きいか否かを判定する。CA>THA1であればステップS108へ進み、カメラ物標検出カウンタCAに対する軸ずれ判定カウンタCJの比率(CJ/CA)が判定値THA2よりも小さいか否かを判定する。比率CJ/CAが判定値THA2以上であればステップS110へ進み、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをゼロにリセットする。一方、比率CJ/CAが判定値THA2よりも小さい場合には、ステップS109へ進み、レーダ装置12の光軸ずれが発生しているものと判定し、その判定結果を記憶する。その後、ステップ110へ進み、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをゼロにリセットして、本ルーチンを終了する。
次に、図6のリセット判定処理について説明する。図6において、ステップS201では、白線認識による消失点学習が完了したか否かを判定する。白線認識による消失点学習が未だ完了していなければステップS202へ進み、オプティカルフローによる消失点学習が完了したか否かを判定する。ここでは、オプティカルフローにより算出した消失点が安定した値を示しているか否かを判定し、安定したと判定された場合にオプティカルフローに基づき消失点学習値(FOE_C)を算出する。オプティカルフローにより算出した消失点が安定した値を示しているか否かは、消失点の垂直面内での分散に基づき判定し、分散が所定値よりも小さい場合に肯定判定される。オプティカルフローにより算出した消失点が安定したと判定され、オプティカルフローに基づき消失点学習値(FOE_C)を算出した場合、ステップS203へ進み、初期値又は前回学習値(FOE_A)とオプティカルフローによる消失点学習値FOE_Cとのずれ量の絶対値ΔFOE(C−A)が判定値THF1よりも小さいか否かを判定する(信頼度判定手段)。そして、ΔFOE(C−A)<THF1であればステップS204へ進み、過去FOE信用フラグFtrに1をセットする。一方、ΔFOE(C−A)<THF1でなければステップS205へ進み、過去FOE信用フラグFtrに0をセットする。
なお、オプティカルフローによる消失点が安定する前、及びオプティカルフローによる消失点学習が未完了である場合には、ステップS202で否定判定されてステップS204へ進む。この場合、過去FOE信用フラグFtrには1がセットされるため、カウンタリセットは行われない。
さて、白線認識による消失点学習が完了すると、ステップS201で肯定判定されてステップS206へ進む。ステップS206では、オプティカルフローによる消失点学習値FOE_Cと、白線認識による消失点学習値FOE_Dとのずれ量の絶対値ΔFOE(D−C)が判定値THF2よりも小さいか否かを判定する(信頼度判定手段)。そして、ΔFOE(D−C)<THF2であればステップS207へ進み、過去FOE信用フラグFtrに1をセットする。一方、ΔFOE(D−C)<THF2でなければステップS208へ進み、過去FOE信用フラグFtrに0をセットする。
図7は、消失点の学習状態に応じたリセットタイミングを示すタイムチャートである。図中、(a)は初期値(又は前回学習値)が真値に対して正しく、オプティカルフローに基づく消失点が真値からずれている場合、(b)は初期値(又は前回学習値)が真値からずれており、オプティカルフローに基づく消失点が真値に対して正しい場合、(c)及び(d)は初期値(又は前回学習値)及びオプティカルフローに基づく消失点が共に真値からずれている場合、をそれぞれ示している。なお、(c)では(d)よりもオプティカルフローに基づく消失点の真値からのずれ量が小さい場合を想定している。図7中、「A」はIGスイッチのオンタイミング、「B」はオプティカルフローに基づく消失点学習の開始タイミング、「C」はオプティカルフローに基づく消失点が安定したタイミング、「D」は白線認識に基づく消失点学習の完了タイミングであり、それぞれ図4中のA〜Dに対応している。
カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJのリセットは、オプティカルフローにより算出した消失点が安定したタイミングC、及び白線認識による消失点学習の完了タイミングDの少なくともいずれかで行われる。例えば(a)及び(c)のシーンでは、前回学習値FOE_Aと、オプティカルフローによる消失点学習値FOE_Cとのずれ量の絶対値ΔFOE(C−A)が大きく、かつオプティカルフローによる消失点学習値FOE_Cと、白線認識による消失点学習値FOE_Dとのずれ量の絶対値ΔFOE(D−C)が大きい。この場合には、タイミングC及びタイミングDでカウンタCA,CJがリセットされる。また、(b)のシーンでは、タイミングCのみでカウンタCA,CJがリセットされ、(d)のシーンでは、タイミングDのみでカウンタCA,CJがリセットされる。
以上詳述した本実施形態によれば、次の優れた効果が得られる。
撮像装置11の撮像軸X1の軸ずれ量を学習する消失点学習の学習結果に基づいて、それまでに取得したレーダ装置12の光軸X2のずれに関する情報を無効にすることとした。撮像装置11の物体検出結果を用いて、レーダ装置12の光軸ずれが生じているか否かを判定する場合、撮像装置11の軸ずれ量の学習結果に応じてレーダ装置12の光軸ずれ判定の判定精度が変わる。この点、上記構成によれば、レーダ装置12の光軸ずれが発生しているか否かを判定する処理において誤判定を抑制することができる。
具体的には、レーダ軸ずれ判定処理の開始後において、真値に対する消失点学習の学習結果の信頼度の変化が生じたことが検出された場合に、光軸ずれに関する情報であるカウンタCA,CJを無効化する構成とした。レーダ軸ずれ判定処理の開始後に、消失点学習の学習結果において信頼度の変化が生じた場合、真値からのずれ量が大きい消失点に基づき画像処理が行われていると、レーダ軸ずれ判定の判定精度が低くなっており、誤判定を招くおそれがある。こうした点を考慮し、消失点学習の学習結果が疑わしい状況で取得した光軸ずれに関する情報を無効化する構成とすることで、レーダ軸ずれ判定の誤判定をできるだけ回避するようにすることができる。
白線認識による消失点学習は、学習結果の信頼度が高い反面、学習が完了するまでにある程度の時間(例えば数分〜十数分)を要する。そのため、白線認識に基づく消失点学習が完了までの期間では、前回の車両運転時の学習値を使用するか、あるいは白線認識に基づく消失点学習よりも信頼度が低い別の学習手段で得られた学習値、例えばオプティカルフローに基づく消失点学習値を用いて画像処理を行う必要がある。その一方で、本実施形態のレーダ軸ずれ判定処理では、撮像装置11で撮影された画像データが用いられるため、学習した消失点が真値からずれている場合には誤判定を招くことが考えられる。その点に鑑み、車両の運転開始後において、白線認識による消失点学習が完了した時点で、消失点の学習結果、より具体的には消失点学習結果の信頼度に基づいて、光軸ずれに関する情報を無効にする構成とした。こうした構成によれば、レーダ軸ずれ判定処理において、適切なタイミングでカウンタCA,CJを無効化することができ、消失点学習の学習精度が十分に確保されていないことに起因する誤判定を好適に抑制することができる。また、消失点学習の学習精度が確保されている状況では、白線認識による消失点学習が完了する前にもレーダ軸ずれ判定処理を実施することができる。
オプティカルフローによる消失点学習では、車両の運転開始後のできるだけ早期に学習を完了させることが可能である反面、白線認識による消失点学習よりも学習精度が低く、真値に対してずれが生じる場合がある。本実施形態では、消失点学習結果の信頼度が十分に確保されていない状況で計測したカウンタCA,CJについては無効にすることから、白線認識による消失点学習が完了する前にレーダ軸ずれ判定処理を開始した場合にもレーダ軸ずれの誤判定を抑制することができる。
本実施形態では、物体検出手段として撮像装置11及びレーダ装置12を搭載する車両において、撮像装置11及びレーダ装置12の物体検出結果に基づいて、レーダ装置12の軸ずれ判定を実施する構成とした。一般に、撮像装置11とレーダ装置12とでは物体の検出範囲や検出精度が異なることから、両装置を搭載して物体検出を行うことによって互いの弱点を補うことが可能になる。また、撮像装置11とレーダ装置12とを組み合わせることにより、撮像装置11の画像データを用いてレーダ装置12の光軸ずれを検出することが可能になる。
(他の実施形態)
本発明は上記実施形態に限定されず、例えば次のように実施してもよい。
・上記実施形態において、消失点学習の学習結果の信頼度の変化が生じたことに伴い光軸ずれに関する情報(カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJ)をリセットする場合に、リセット前のカウンタCA,CJを保持しておく。そして、カウンタCA,CJをリセットした後に、そのリセットしたカウンタの計測期間での消失点学習の学習結果の信頼度が所定以上確保されていたことが検出された場合に、リセット前の情報を用いてその後のレーダ軸ずれ判定処理を実施する構成とした。上記構成によれば、消失点学習の学習結果の信頼度が確保されている状況で取得したカウンタCA,CJを活用することによって、レーダ装置12の軸ずれ発生を確定するまでの時間を短くことができる。
図8に、上記構成のリセット判定処理の具体的態様をタイムチャートで示す。図8中、(a)〜(c)は図4と同じである。図8では、オプティカルフローにより算出した消失点が安定した時刻t22で、前回学習値FOE_Aとオプティカルフローによる消失点学習値FOE_Cとのずれ量の絶対値ΔFOE(C−A)が大きかった場合について考える。この場合、時刻t22では、現時点のカメラ物標検出カウンタCA及び軸ずれ判定カウンタCJを記憶する(情報記憶手段)。続いて、カメラ物標検出カウンタCA及び軸ずれ判定カウンタCJをリセットする(無効化手段)。その後、時刻t23で、白線認識による消失点学習が完了した場合、時刻t22以前で実施した消失点学習の学習結果の信頼度が所定以上確保されていたことが検出されると、時刻t23で時刻t22でのカウンタを復帰させる。ここで、「時刻t22以前で実施した消失点学習の学習結果の信頼度が所定以上確保されていたこと」は、例えば消失点学習の学習結果に基づいて検出する。具体的には、オプティカルフローによる消失点学習値(FOE_C)と、白線認識による消失点学習値(FOE_D)とのずれ量の絶対値ΔFOE(D−C)が判定値THF2よりも大きく、かつ前回学習値FOE_Aと白線認識による消失点学習値FOE_Dとのずれ量の絶対値ΔFOE(D−A)が判定値THF3よりも小さい場合に、時刻t22以前での消失点学習の学習結果の信頼度が所定以上確保されていたものとする。この場合、白線認識による消失点学習が完了した時刻t23では、レーダ装置12の軸ずれ判定を最初からやり直す必要はなく、よってレーダ装置12の軸ずれが発生しているか否かをできるだけ早期に確定することができる。
・上記実施形態では、イグニッションスイッチがオンされてから白線認識による消失点学習が完了するまでの期間で実施するレーダ軸ずれ判定処理を一例に挙げて説明したが、白線認識による消失点学習が完了した後の期間で実施するレーダ軸ずれ判定処理に本発明を適用してもよい。白線認識による消失点学習は精度が高く、学習が一旦完了すると、その後は学習値の変化が比較的小さい。しかしながら、例えば車両の積載状態や走行状態の変化に伴い撮影軸X1の軸方向が変化し、消失点の位置が変化することは十分に考えられる。そこで、白線認識による消失点学習が一旦完了した後の期間で実施するレーダ軸ずれ判定処理でも、消失点学習の学習結果に基づいて、光軸ずれに関する情報(カウンタ)を無効化することにより、レーダ装置12のレーダ軸ずれ判定処理に際し誤判定を抑制することができる。
・上記実施形態では、消失点学習として、オプティカルフローによる消失点学習と、白線認識による消失点学習とを実施する構成に適用する場合について説明したが、オプティカルフローによる消失点学習、及び白線認識による消失点学習のいずれかのみを実施する構成に適用してもよい。例えば、オプティカルフローによる消失点学習を実施しない構成の場合、図4では、白線認識による消失点学習が完了した時点(D)のみがカウンタリセットタイミングとなる。
・第2物体検出手段の軸ずれを判定する軸ずれ判定手段は、第1物体検出手段及び第2物体検出手段の物体検出結果に基づいて行うものであれば上記構成に限定しない。例えば、車両走行中に撮影した画像に基づいて検出した消失点と、レーダ装置12から送出される信号の送出方向とに基づいて、信号の送出方向と車両の直進方向との誤差を検出することによってレーダ装置12の軸ずれ判定を行う構成としてもよい。
・上記実施形態では、レーダ軸ずれ判定処理の開始後に消失点学習の学習結果の信頼度の変化が生じたことを検出する信頼度判定手段として、消失点学習値のレベルの変化を検出する構成を採用した。具体的には、前回学習値FOE_Aとオプティカルフローによる消失点学習値FOE_Cとのずれ量の絶対値ΔFOE(C−A)、及びオプティカルフローによる消失点学習値FOE_Cと白線認識による消失点学習値FOE(FOE_D)とのずれ量の絶対値ΔFOE(D−C)と判定値とを比較することにより行った。信頼度判定手段の構成はこれに限定せず、例えば消失点学習値の変化の度合い(微分値)に基づき検出してもよい。
・上記実施形態において、比率CJ/CAに基づき光軸ずれ有りと判定された後に、消失点学習の学習結果に基づいて、比率CJ/CAに基づく軸ずれ判定結果、すなわち光軸ずれ有りの判定結果を無効とする構成としてもよい。つまり、この場合には、比率CJ/CAに基づく軸ずれ判定結果が「第2物体検出手段の軸ずれに関する情報」に相当する。
・上記実施形態では、第1物体検出手段が撮像装置11であって、第2物体検出手段がレーダ装置12である場合について説明したが、第1物体検出手段及び第2物体検出手段の組み合わせは上記に限定しない。例えば、第1物体検出手段及び第2物体検出手段として複数のレーダ装置(第1レーダ装置、第2レーダ装置)を備えるシステムに本発明を適用してもよい。具体的には、第1レーダ装置及び第2レーダ装置の物体検出結果に基づいて、第2レーダ装置の光軸において軸ずれが生じているかを判定する構成において、第1レーダ装置の光軸における軸ずれ量の学習結果に基づいて、第2レーダ装置の軸ずれに関する情報を無効にする構成とする。
・上記実施形態の図3では、撮像装置11において垂直面内での軸ずれが発生した場合を一例に挙げて説明したが、垂直面内での軸ずれに限らず、水平面内での軸ずれが発生した場合にも本発明を適用することができる。
・第1物体検出手段及び第2物体検出手段の検出可能領域は車両前方に限らず、例えば車両の後方や側方であってもよい。また、第1物体検出手段及び第2物体検出手段の取付位置も特に制限されない。
・上記実施形態では、物体検出手段として撮像装置及びレーダ装置を用いたがこれらに限定されず、例えば送信波に超音波を用いて物体を検出するソナーを採用してもよい。
・上記実施形態では、車両に搭載された物体認識装置を一例に挙げて説明したが、例えば、鉄道車両、船舶、航空機等の移動体に搭載することもできる。
10…物体認識装置、11…撮像装置(第1物体検出手段)、12…レーダ装置(第2物体検出手段)、13…白線認識部、14…フロー演算部、20…消失点演算部、22…消失点学習部、23…第1学習部、24…第2学習部、25…学習値記憶部、30…レーダ軸ずれ検出部、31…カメラ物標検出部、32…レーダ物標検出部、33…軸ずれ情報演算部、34…軸ずれ判定部、35…リセット判定部、50…自車両、X1…撮像軸(基準軸)、X2…光軸(基準軸)。

Claims (6)

  1. 所定の検出可能領域内に存在する物体を検出する物体検出手段として第1物体検出手段(11)及び第2物体検出手段(12)が搭載された移動体(50)に適用され、
    前記検出可能領域は各々に基準軸(X1、X2)を含み、
    前記第1物体検出手段の基準軸の軸ずれ量を学習する軸ずれ学習手段と、
    前記第1物体検出手段及び前記第2物体検出手段の物体検出結果に基づいて、前記第2物体検出手段の基準軸において軸ずれが生じているか否かを判定する軸ずれ判定処理を実施する軸ずれ判定手段と、
    前記軸ずれ学習手段による前記軸ずれ量の学習結果に基づいて、前記軸ずれ判定処理によって取得した前記第2物体検出手段の軸ずれに関する情報を無効にする無効化手段と、
    を備えることを特徴とする物体認識装置。
  2. 前記軸ずれ学習手段による前記軸ずれ量の学習結果に基づいて、前記軸ずれ判定処理の開始後において真値に対する前記学習結果の信頼度の変化が生じたか否かを判定する信頼度判定手段を備え、
    前記無効化手段は、前記信頼度判定手段によって前記学習結果の信頼度の変化が生じたと判定された場合に、前記第2物体検出手段の基準軸のずれに関する情報を無効にする請求項1に記載の物体認識装置。
  3. 前記無効化手段によって無効にされる前の前記第2物体検出手段の基準軸のずれに関する情報を保持する情報保持手段を備え、
    前記無効化手段によって前記第2物体検出手段の基準軸のずれに関する情報を無効にした後に、該無効にした情報を取得したときの前記真値に対する前記学習結果の信頼度が所定以上確保されていることが検出された場合に、前記情報保持手段に保持されている情報を用いて前記軸ずれ判定処理を実施する請求項2に記載の物体認識装置。
  4. 前記第1物体検出手段は、道路を含む周辺環境を撮影する撮像装置であり、
    前記第1物体検出手段により撮影された画像に基づいて前記道路の区画線を認識する区画線認識手段を備え、
    前記軸ずれ学習手段は、前記区画線認識手段により認識した区画線に関する情報である区画線情報に基づいて、前記第1物体検出手段の基準軸の軸ずれ量を学習する手段を含み、
    前記無効化手段は、前記移動体の運転開始後において前記軸ずれ学習手段による前記区画線情報に基づく前記軸ずれ量の学習が完了した時点で、前記学習結果に基づいて前記第2物体検出手段の基準軸のずれに関する情報を無効にする請求項1〜3のいずれか一項に記載の物体認識装置。
  5. 前記第1物体検出手段により撮影された画像に基づいてオプティカルフローを演算するフロー演算手段を備え、
    前記軸ずれ学習手段は、前記区画線情報に基づいて前記第1物体検出手段の基準軸の軸ずれ量を学習する第1学習手段と、前記フロー演算手段により演算したオプティカルフローに基づいて前記第1物体検出手段の基準軸の軸ずれ量を学習する第2学習手段とを含み、
    前記無効化手段は、前記移動体の運転開始後において前記軸ずれ学習手段による前記区画線情報に基づく前記軸ずれ量の学習が完了した時点及び前記区画線情報に基づく前記軸ずれ量の学習が完了するよりも前の期間で、前記学習結果に基づいて前記第2物体検出手段の基準軸のずれに関する情報を無効にする請求項4に記載の物体認識装置。
  6. 前記第1物体検出手段は、道路を含む周辺環境を撮影する撮像装置であり、
    前記第2物体検出手段は、送信波を送出し、該送出した送信波を受信することで前記物体を検出する探知装置である請求項1〜5のいずれか一項に記載の物体認識装置。
JP2014160680A 2014-08-06 2014-08-06 物体認識装置 Active JP6396714B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2014160680A JP6396714B2 (ja) 2014-08-06 2014-08-06 物体認識装置
DE112015003605.9T DE112015003605B4 (de) 2014-08-06 2015-08-04 Mehrere Objekterfassungseinrichtungen verwendende Objekterkennungsvorrichtung
PCT/JP2015/072111 WO2016021606A1 (ja) 2014-08-06 2015-08-04 複数の物体検出手段を用いた物体認識装置
KR1020177005660A KR101961571B1 (ko) 2014-08-06 2015-08-04 복수의 물체 검출 수단을 사용한 물체 인식 장치
CN201580041368.5A CN106574961B (zh) 2014-08-06 2015-08-04 使用多个物体检测单元的物体识别装置
US15/501,786 US10422871B2 (en) 2014-08-06 2015-08-04 Object recognition apparatus using a plurality of object detecting means

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014160680A JP6396714B2 (ja) 2014-08-06 2014-08-06 物体認識装置

Publications (2)

Publication Number Publication Date
JP2016038261A true JP2016038261A (ja) 2016-03-22
JP6396714B2 JP6396714B2 (ja) 2018-09-26

Family

ID=55263868

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014160680A Active JP6396714B2 (ja) 2014-08-06 2014-08-06 物体認識装置

Country Status (6)

Country Link
US (1) US10422871B2 (ja)
JP (1) JP6396714B2 (ja)
KR (1) KR101961571B1 (ja)
CN (1) CN106574961B (ja)
DE (1) DE112015003605B4 (ja)
WO (1) WO2016021606A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149611A (ja) * 2015-02-10 2016-08-18 株式会社デンソー 光軸ずれ検出装置
JP2019015606A (ja) * 2017-07-06 2019-01-31 本田技研工業株式会社 情報処理方法及び情報処理装置
JP2019121032A (ja) * 2017-12-28 2019-07-22 株式会社デンソーテン カメラずれ検出装置およびカメラずれ検出方法

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10852418B2 (en) * 2016-08-24 2020-12-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
US9996752B2 (en) * 2016-08-30 2018-06-12 Canon Kabushiki Kaisha Method, system and apparatus for processing an image
DE102017118083B4 (de) 2017-08-09 2022-11-24 Sick Ag Sensor zur Erfassung eines Objekts und Verfahren zum Einstellen eines Schaltpunktes
JP7127356B2 (ja) * 2018-05-14 2022-08-30 富士通株式会社 データ収集方法、データ収集プログラムおよび情報処理装置
JP6973302B2 (ja) * 2018-06-06 2021-11-24 トヨタ自動車株式会社 物標認識装置
KR20200040391A (ko) * 2018-10-10 2020-04-20 주식회사 만도 차량용 레이더의 보완 장치 및 방법
US11557061B2 (en) * 2019-06-28 2023-01-17 GM Cruise Holdings LLC. Extrinsic calibration of multiple vehicle sensors using combined target detectable by multiple vehicle sensors
JP7412254B2 (ja) * 2020-04-02 2024-01-12 三菱電機株式会社 物体認識装置および物体認識方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09142236A (ja) * 1995-11-17 1997-06-03 Mitsubishi Electric Corp 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置
JPH11142520A (ja) * 1997-11-06 1999-05-28 Omron Corp 測距装置の軸調整方法及び軸ずれ検出方法並びに測距装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2004205398A (ja) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd 車両用レーダ装置およびレーダの光軸調整方法
US20070055446A1 (en) * 2005-09-02 2007-03-08 Schiffmann Jan K Method for estimating unknown parameters for a vehicle object detection system
JP2008215912A (ja) * 2007-03-01 2008-09-18 Mazda Motor Corp 車両用障害物検知装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011002346A (ja) * 2009-06-19 2011-01-06 Fujitsu Ten Ltd 信号処理装置、及びレーダ装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3331882B2 (ja) * 1995-12-27 2002-10-07 株式会社デンソー 車両用障害物検出装置の中心軸偏向量算出装置,中心軸偏向量補正装置,および車間制御装置
US6714156B1 (en) * 2002-11-22 2004-03-30 Visteon Global Technologies, Inc. Method for correcting radar misalignment
JP3922194B2 (ja) * 2003-03-11 2007-05-30 日産自動車株式会社 車線逸脱警報装置
JP2004317507A (ja) * 2003-04-04 2004-11-11 Omron Corp 監視装置の軸調整方法
EP1584946A3 (en) * 2004-04-02 2006-03-22 Omron Corporation Method of adjusting monitor axis of optical sensors
US7786898B2 (en) * 2006-05-31 2010-08-31 Mobileye Technologies Ltd. Fusion of far infrared and visible images in enhanced obstacle detection in automotive applications
JP2008232887A (ja) * 2007-03-22 2008-10-02 Omron Corp 物体検知装置、および照射軸調整方法
JP4453775B2 (ja) * 2008-06-27 2010-04-21 トヨタ自動車株式会社 物体検出装置
JP5328491B2 (ja) 2009-06-02 2013-10-30 三菱電機株式会社 レーダ画像処理装置
JP5416026B2 (ja) * 2010-04-23 2014-02-12 本田技研工業株式会社 車両の周辺監視装置
JP2014228943A (ja) * 2013-05-20 2014-12-08 日本電産エレシス株式会社 車両用外界センシング装置、その軸ズレ補正プログラム及びその軸ズレ補正方法
US9898670B2 (en) * 2013-12-13 2018-02-20 Fts Computertechnik Gmbh Method and device for observing the environment of a vehicle
JP6428270B2 (ja) 2014-02-10 2018-11-28 株式会社デンソー 軸ずれ検出装置
US9286679B2 (en) * 2014-07-22 2016-03-15 GM Global Technology Operations LLC Misalignment correction and state of health estimation for lane management fusion function

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09142236A (ja) * 1995-11-17 1997-06-03 Mitsubishi Electric Corp 車両の周辺監視方法と周辺監視装置及び周辺監視装置の故障判定方法と周辺監視装置の故障判定装置
JPH11142520A (ja) * 1997-11-06 1999-05-28 Omron Corp 測距装置の軸調整方法及び軸ずれ検出方法並びに測距装置
JP2004198159A (ja) * 2002-12-17 2004-07-15 Nissan Motor Co Ltd 車載センサの軸ずれ計測装置
JP2004205398A (ja) * 2002-12-26 2004-07-22 Nissan Motor Co Ltd 車両用レーダ装置およびレーダの光軸調整方法
US20070055446A1 (en) * 2005-09-02 2007-03-08 Schiffmann Jan K Method for estimating unknown parameters for a vehicle object detection system
JP2008215912A (ja) * 2007-03-01 2008-09-18 Mazda Motor Corp 車両用障害物検知装置
JP2010249613A (ja) * 2009-04-14 2010-11-04 Toyota Motor Corp 障害物認識装置及び車両制御装置
JP2011002346A (ja) * 2009-06-19 2011-01-06 Fujitsu Ten Ltd 信号処理装置、及びレーダ装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016149611A (ja) * 2015-02-10 2016-08-18 株式会社デンソー 光軸ずれ検出装置
JP2019015606A (ja) * 2017-07-06 2019-01-31 本田技研工業株式会社 情報処理方法及び情報処理装置
JP2019121032A (ja) * 2017-12-28 2019-07-22 株式会社デンソーテン カメラずれ検出装置およびカメラずれ検出方法

Also Published As

Publication number Publication date
US10422871B2 (en) 2019-09-24
DE112015003605T5 (de) 2017-04-27
JP6396714B2 (ja) 2018-09-26
CN106574961B (zh) 2019-09-13
DE112015003605B4 (de) 2023-02-09
DE112015003605T8 (de) 2017-05-18
CN106574961A (zh) 2017-04-19
KR20170041775A (ko) 2017-04-17
KR101961571B1 (ko) 2019-03-22
US20170227634A1 (en) 2017-08-10
WO2016021606A1 (ja) 2016-02-11

Similar Documents

Publication Publication Date Title
JP6396714B2 (ja) 物体認識装置
JP6361366B2 (ja) 物体認識装置
US10922561B2 (en) Object recognition device and vehicle travel control system
CN107305632B (zh) 基于单目计算机视觉技术的目标对象距离测量方法与系统
KR101787996B1 (ko) 차선 추정 장치 및 그 방법
CN102428385B (zh) 物体探测设备
US10457283B2 (en) Vehicle driving assist apparatus
JP6468136B2 (ja) 走行支援装置及び走行支援方法
JP6458651B2 (ja) 路面標示検出装置及び路面標示検出方法
US11119210B2 (en) Vehicle control device and vehicle control method
JP2016066181A (ja) 物体検出装置
JP4753765B2 (ja) 障害物認識方法
JP6569280B2 (ja) 路面標示検出装置及び路面標示検出方法
US20200300969A1 (en) Object recognition apparatus and object recognition method
JP3656056B2 (ja) 割り込み車両検出装置及びその方法
JP2005329779A (ja) 障害物認識方法及び障害物認識装置
JP3823782B2 (ja) 先行車両認識装置
JP2019066333A (ja) 車両用外界認識装置
JP2007233440A (ja) 車載用画像処理装置
JP2003308599A (ja) 走行路環境検出装置
JP2020076580A (ja) 軸ずれ推定装置
JP2012014520A (ja) 障害物検出装置
JP5345999B2 (ja) レーンマーク認識装置
CN112400094B (zh) 物体探测装置
KR101907875B1 (ko) 퓨전 탐지 시스템, 탐지 프로세서, 레이더 장치 및 물체 탐지 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180123

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180323

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180830

R150 Certificate of patent or registration of utility model

Ref document number: 6396714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250