JP6688091B2 - 車両距離導出装置および車両距離導出方法 - Google Patents

車両距離導出装置および車両距離導出方法 Download PDF

Info

Publication number
JP6688091B2
JP6688091B2 JP2016011070A JP2016011070A JP6688091B2 JP 6688091 B2 JP6688091 B2 JP 6688091B2 JP 2016011070 A JP2016011070 A JP 2016011070A JP 2016011070 A JP2016011070 A JP 2016011070A JP 6688091 B2 JP6688091 B2 JP 6688091B2
Authority
JP
Japan
Prior art keywords
vehicle
area
captured image
unit
feature amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016011070A
Other languages
English (en)
Other versions
JP2017130162A (ja
Inventor
和也 伊集院
和也 伊集院
勝利 岡田
勝利 岡田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2016011070A priority Critical patent/JP6688091B2/ja
Publication of JP2017130162A publication Critical patent/JP2017130162A/ja
Application granted granted Critical
Publication of JP6688091B2 publication Critical patent/JP6688091B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、車両距離導出装置および車両距離導出方法に関する。
従来、例えば、車載カメラ等の撮像装置によって撮像される撮像画像中の車両の位置に基づいて、車両までの距離を導出する技術が知られている(例えば、特許文献1参照)。
特開2013−168063号公報
しかしながら、従来の装置は、撮像画像から特定した車両の位置が正確でない場合があり、かかる場合に車両までの正確な距離を導出することができない。
本発明は、上記に鑑みてなされたものであって、撮像画像に基づいて導出する車両までの距離の精度を向上させることができる車両距離導出装置および車両距離導出方法を提供することを目的とする。
実施形態に係る車両距離導出装置は、領域抽出部と、距離導出部と、補正部とを備える。領域抽出部は、撮像画像から車両の形状が存在する車両領域を抽出する。距離導出部は、前記撮像画像における前記車両領域の下端位置に基づいて、前記車両までの距離を導出する。補正部は、前記撮像画像における明領域と暗領域との境界を探索し、前記境界に基づいて、前記下端位置を補正する。
実施形態に係る車両距離導出装置および車両距離導出方法は、撮像画像に基づいて導出する車両までの距離の精度を向上させることができる。
図1は、実施形態に係る車両距離導出方法の説明図である。 図2は、実施形態に係る車両距離導出装置の構成を示す機能ブロック図である。 図3は、実施形態に係る車両領域の抽出手順および補正手順の一例を示す説明図である。 図4は、実施形態に係る車両領域の抽出手順および補正手順の一例を示す説明図である。 図5は、実施形態に係る車両領域の誤補正判定手順の一例を示す説明図である。 図6は、実施形態に係る誤補正判定手順の変形例を示す説明図である。 図7は、実施形態に係る車両距離導出装置が実行する処理を示すフローチャートである。 図8は、実施形態に係る車両距離導出装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に添付図面を参照して、実施形態に係る車両距離導出装置および車両距離導出方法について詳細に説明する。なお、この実施形態により本発明が限定されるものではない。以下では、自車両に設けられて自車両の前方を撮像するカメラから入力される撮像画像に基づいて、自車両から撮像画像に写る他車両までの距離(以下、「車両距離」と記載する)を導出する車両距離導出装置を例に挙げて説明する。
なお、本実施形態は、自車両の側方や後方を撮像するカメラから入力される撮像画像に写る他車両までの車両距離を導出する車両距離導出装置に適用することもできる。また、本実施形態は、街頭や建物等に設けられる固定のカメラから入力される撮像画像に基づいて、カメラから撮像画像に写る車両までの車両距離を導出する車両距離導出装置にも適用することが可能である。
図1は、実施形態に係る車両距離導出方法の説明図である。車両距離導出装置は、自車両の前方が撮像された撮像画像中で、例えば、道路や車線が無限遠の水平線で一点に収束するという遠近法の原理を利用して車両距離を導出する。
つまり、車両距離導出装置は、自車両の前方が撮像された撮像画像が入力される場合、撮像画像における仮想的な無限遠の一点から他車両の接地位置までの縦方向の距離と、自車両の接地面に対するカメラの高さ位置とに基づいて車両距離を導出する。
例えば、図1に示すように、車両距離導出装置は、カメラから他車両Cが写る撮像画像Fが入力される場合、まず、撮像画像Fから他車両Cの形状が存在する車両領域E2を抽出する。なお、車両領域E2の具体的な抽出手順の一例については、図3を参照して後述する。
車両距離導出装置は、撮像画像Fに写る物体が車両か否かを判定する基準となる車両辞書情報を使用して、撮像画像Fから車両領域E2を抽出する。車両辞書情報は、例えば、機械学習によって予め作成される情報である。
なお、機械学習の一例については後述する。そして、車両距離導出装置は、撮像画像Fにおける車両領域E2の下端位置を他車両Cの接地位置として使用して、自車両から他車両Cまでの車両距離を導出する。
このため、車両距離導出装置は、撮像画像Fにおける他車両Cの接地位置と、車両領域E2の下端位置とが正確に一致していれば、他車両Cまでの正確な車両距離を導出することができる。
しかしながら、車両距離導出装置は、正しい車両領域が図1に一点鎖線で示す枠E1である場合に、撮像画像Fにおける他車両Cの接地位置(枠E1の下端)よりも下端位置が上に位置する誤った車両領域E2を抽出することがある。
かかる事例は、例えば、撮像画像Fにおける他車両C、他車両Cの影、および他車両Cの背景等の輝度や色が似通っていて、他車両Cの外形が不鮮明な場合に発生する傾向がある。そして、車両距離導出装置は、撮像画像Fにおける他車両Cの接地位置が不正確な車両領域E2を抽出した場合、正確な車両距離を導出することができない。
そこで、車両距離導出装置は、まず撮像画像Fから車両領域E2を抽出した後に、撮像画像Fにおける車両領域E2の下端位置を正しい位置に補正し、補正後の車両領域の下端位置を使用して、他車両Cまでの車両距離を導出する。
具体的には、図1に示すように、撮像画像Fには、他車両Cの下方に他車両Cの影となった暗領域Edが存在する。また、撮像画像Fにおける暗領域Edの直下には、他車両Cの影とならない道路の明領域Ebが存在する。
そして、撮像画像Fでは、暗領域Edと明領域Ebとの境界(以下、「明暗領域境界L」と記載する)が他車両Cの接地位置となっている。そこで、実施形態に係る車両距離導出装置は、撮像画像Fにおける明暗領域境界Lを探索し、車両領域E2の下端位置を明暗領域境界Lとする補正を行う。
これにより、車両距離導出装置は、車両領域E2の下端位置を正しい車両領域の枠E1の下端位置に一致させることができる。したがって、車両距離導出装置は、補正後の車両領域の下端位置を他車両Cの接地位置として使用することにより、自車両から他車両Cまでの正確な車両距離を導出することができる。
次に、図2を参照して、実施形態に係る車両距離導出装置の構成について説明する。図2は、実施形態に係る車両距離導出装置1の構成を示す機能ブロック図である。図2に示すように、車両距離導出装置1は、カメラ2と車載装置3とに接続される。
カメラ2は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子を備える撮像装置であり、自車両の前方を撮像する位置、例えば、社室内のルームミラーの前面等に設置される。そして、カメラ2は、撮像画像Fを車両距離導出装置1へ出力する。
車載装置3は、例えば、自車両に搭載されるドライブレコーダやディスプレイ等である。ドライブレコーダは、例えば、自車両の走行中および停車中にカメラ2によって撮像される撮像画像Fを記録する装置である。ディスプレイは、例えば、カーナビゲーション装置から入力される目的地までの道順の案内画像や、カメラ2によって撮像される撮像画像Fを表示する装置である。
車両距離導出装置1は、カメラ2から入力される撮像画像Fに基づいて、自車両から他車両Cまでの車両距離を導出し、導出した車両距離を車載装置3へ出力する装置である。かかる車両距離導出装置1は、制御部4と、記憶部5とを備える。
制御部4は、例えば、CPU(Central Processing Unit)、RAM(Random Access Memory)およびROM(Read Only Memory)を備えるマイクロコンピュータである。制御部4は、CPUがROMから車両距離導出プログラムを読み出し、RAMを作業領域として使用して実行することにより機能する拡縮画像生成部41、領域抽出部42、領域統合部43、補正部44、特徴量取得部45、および距離導出部46を備える。
記憶部5は、不揮発性メモリやハードディスクドライブといった記憶デバイスであり、車両辞書情報51、候補領域情報52、および特徴量情報53を記憶する。車両辞書情報51は、撮像画像Fに写る物体が車両か否かを判定する基準となる情報であり、機械学習によって予め作成されて記憶部5に記憶される。ここで、車両辞書情報51の作成手順について、簡単に説明する。
車両辞書情報51を作成する場合、まず、形状が既知の複数種類の車両の画像と、車両以外の物体の画像とを学習データとしてそれぞれ所定数(例えば、数100〜数1000枚の画像)準備する。準備する画像のサイズは、例えば、36ピクセル×36ピクセルのサイズに統一する。
続いて、準備した各画像から、例えば、HOG(Histgram of Oriented Gradient)特徴量を抽出する。そして、前述の予め準備した画像を、抽出したHOG特徴量に基づいて、2次元平面上にプロットする。
続いて、例えば、SVM(Support Vector Machine)等の識別器によって、2次元平面上における車両の画像と車両以外の物体の画像とを分離する分離線を生成する。かかる2次元平面の座標軸および識別器によって生成された分離線の情報が、撮像画像Fに含まれる画像が車両か否かの判定基準として使用される車両辞書情報51となる。これにより、制御部4は、車両辞書情報51を使用することによって、撮像画像F内の36ピクセル×36ピクセル内の画像が車両か否かを判定することができる。
なお、予め準備した画像から抽出する特徴量は、HOG特徴量に限定されず、例えば、SIFT(Scale Invariant Feature Transform)特徴量であってもよい。また、車両の画像と車両以外の物体の画像との分離に用いる識別器は、SVMに限定されず、例えば、アダブースト(AdaBoost)等の識別器であってもよい。
また、候補領域情報52は、領域抽出部42によって撮像画像Fから抽出される後述の候補領域に関する情報である。具体的には、候補領域情報52は、撮像画像Fにおける候補領域の位置および大きさを示す情報であり、例えば、XY直交座標系に変換した撮像画像Fにおける候補領域が存在する位置のXY座標値である。
特徴量情報53は、補正部44によって補正された後述の車両領域の特徴に関する情報である。具体的には、特徴量情報53は、撮像画像Fにおける車両領域の面積を示す情報である。
なお、特徴量情報53は、車両領域の面積を示す情報に限定されるものではなく、車両領域の特徴に関する情報であれば、任意の情報であってよい。かかる特徴量情報53の変形例については、図6を参照して後述する。
制御部4の説明に戻り、拡縮画像生成部41は、カメラ2から入力される撮像画像Fについて、それぞれ拡縮率が異なる複数の拡大画像および縮小画像(例えば、25枚の拡縮画像)を生成して、領域抽出部42へ出力する処理部である。
領域抽出部42は、車両辞書情報51を使用し、拡縮画像生成部41から入力される拡縮画像から他車両Cが存在する可能性のある複数の候補領域を抽出し、抽出した候補領域に関する候補領域情報52を記憶部5に記憶させる処理部である。
領域統合部43は、記憶部5に記憶された候補領域情報52に基づいて、複数の候補領域を統合して車両領域を生成し、生成した車両領域に関する車両領域情報を補正部44へ出力する処理部である。車両領域情報は、撮像画像Fにおける車両領域の位置および大きさを示す情報であり、例えば、XY直交座標系に変換した撮像画像Fにおける車両領域が存在する位置のXY座標値である。
補正部44は、領域統合部43から入力される車両領域情報を、記憶部5に記憶された候補領域情報52に基づいて補正し、補正後の車両領域情報を特徴量取得部45および距離導出部46へ出力する処理部である。
ここで、図3および図4を参照し、領域抽出部42、領域統合部43、および補正部44の動作の一例について説明する。図3および図4は、実施形態に係る車両領域の抽出手順および補正手順の一例を示す説明図である。
図3に(a)で示すように、領域抽出部42は、拡縮画像生成部41から撮像画像Fおよび撮像画像Fの拡縮画像が入力されると、撮像画像Fの中で、他車両Cの形状が存在する可能性のある複数の候補領域E3,E4,E5を抽出する。
ここで、車両辞書情報51は、前述したように、36ピクセル×36ピクセル内の画像が車両か否かを判別するために使用される情報である。そして、撮像画像Fにおける他車両Cは、自車両からの距離によって大きさが異なり、大きさが36ピクセル×36ピクセルとは限らない。
このため、領域抽出部42は、撮像画像Fから他車両Cの形状が存在する候補領域を抽出することができない場合もあるが、拡縮画像生成部41から入力される拡縮率が異なる複数の拡縮画像を探索することによって、候補領域を抽出することができる。その後、領域抽出部42は、抽出した複数の候補領域に関する候補領域情報52を記憶部5に記憶させる。
続いて、図3に(b)に示すように、領域統合部43は、記憶部5に記憶された候補領域情報52を使用して、複数の候補領域E3,E4,E5を一つの車両領域E2に統合する。領域統合部43は、複数の候補領域E3,E4,E5の候補領域情報に対して、例えば、加重平均法を使用した重みづけを行うことによって、車両領域E2を生成する。このとき、撮像画像F中の車両領域E2の下端位置と、他車両Cの接地位置との間に、撮像画像Fの縦方向で距離Dのずれが生じる場合がある。
このため、補正部44は、撮像画像F中から明暗領域境界L(図1参照)を探索し、車両領域E2の下端位置を明暗領域境界Lと一致させる補正を行うことにより、図3に(c)で示す補正後の車両領域Eを生成する。
具体的には、補正部44は、撮像画像Fから抽出された候補領域E3,E4,E5が3つの場合、図4に(a)で示すように、まず、記憶部5から一つ目の候補領域E3の候補領域情報52を読み出し、候補領域E3の下端位置に仮境界L1を設定する。
そして、補正部44は、仮境界L1を介して上下に隣接する上方領域Aと下方領域Bとを設定する。例えば、補正部44は、仮境界L1の上下に、それぞれ横方向の長さが候補領域E3の横方向の長さと等しく、縦方向の長さが候補領域E3の縦方向の長さの10%となる長方形の上方領域Aおよび下方領域Bを設定する。
そして、補正部44は、上方領域Aと下方領域Bとの明暗差を導出する。例えば、補正部44は、上方領域Aと下方領域Bとの明暗差として、上方領域Aおよび下方領域BのHaar−like特徴量H(A,B)を導出する。
補正部44は、下記式(1)によってHaar−like特徴量H(A,B)を導出する。
つまり、補正部44は、下方領域Bにおける各画素の輝度値の相加平均値から、上方領域Aにおける各画素の輝度値の相加平均値を減算することによって、一つ目の候補領域E3に関するHaar−like特徴量H(A,B)を導出する。
続いて、補正部44は、図4に(b)で示すように、二つ目の候補領域E4についても、同様に、仮境界L2、上方領域A、および下方領域Bを設定し、候補領域E4に関するHaar−like特徴量H(A,B)を導出する。
続いて、補正部44は、図4に(c)で示すように、三つ目の候補領域E5についても、同様に、仮境界L3、上方領域A、および下方領域Bを設定し、候補領域E5に関するHaar−like特徴量H(A,B)を導出する。
そして、補正部44は、三つの候補領域E3,E4,E5の中で、Haar−like特徴量H(A,B)が最大の候補領域E5に設定した仮境界L3を明暗領域境界L(図1参照)として特定する。つまり、補正部44は、下方領域Bが上方領域Aよりも明るく、且つ、下方領域Bと上方領域Aとの明暗差が最大となった仮境界L3を明暗領域境界Lとして特定する。
これにより、補正部44は、撮像画像Fにおける他車両Cの正確な下端位置を導出することができる。また、補正部44は、複数の候補領域E3,E4,E5の下端近傍を探索することによって、車両領域E2の下端近傍の領域を集中的に探索することができる。したがって、補正部44は、撮像画像F全体を探索して明暗領域境界Lを特定する場合に比べて、明暗領域境界Lの特定に要する処理量を低減することができる。
補正部44は、車両領域E2の下端位置を明暗領域境界Lと一致させる補正を行い、補正後の車両領域Eの車両領域情報を特徴量取得部45および距離導出部46へ出力する。なお、補正部44は、Haar−like特徴量H(A,B)以外の特徴量を使用して、上方領域Aと下方領域Bとの明暗差を導出する構成であってもよい。
図2へ戻り、特徴量取得部45は、補正部44から入力される車両領域情報に基づいて、補正後の車両領域Eの特徴量を取得する処理部である。特徴量取得部45は、補正部44から入力される時系列の画像フレーム毎に、それぞれ特徴量を取得する。特徴量取得部45は、車両領域Eの特徴量として、例えば、車両領域Eの面積を取得する。そして、特徴量取得部45は、取得した特徴量を特徴量情報53として記憶部5に記憶させる。
そして、特徴量取得部45は、特徴量情報53に基づいて、車両領域Eの特徴量の時間微分値を算出し、時間微分値が閾値を超える場合に、補正部44による明暗領域境界Lの探索結果を誤りと判定し、その旨を示す情報を補正部44へ出力する。
ここで、図5を参照し、特徴量取得部45が行う車両領域Eの誤補正判定手順の一例について説明する。図5は、実施形態に係る車両領域の誤補正判定手順の一例を示す説明図である。
車両距離導出装置1には、図5に(a)で示す撮像画像F1が入力される場合がある。撮像画像F1には、下部に自車両のボンネットC1が写り、撮像画像F1の上部に他車両Cが写っている。かかる場合、特徴量取得部45には、補正部44から他車両Cの補正後の車両領域E10の車両領域情報が入力される。
そして、車両距離導出装置1には、時刻t1から微小時間が経過した時刻t2で、図5に(b)で示す撮像画像F2が入力される。ここでは、時刻t1および時刻t2間が微小時間であるため、特徴量取得部45には、補正部44から車両領域E10と略同一面積の車両領域E11の車両領域情報が入力される。
このような場合、補正部44は、車両領域E10,E11に関する特徴量の時間微分値は、閾値を超えることがないので、補正部44による明暗領域境界Lの探索結果を正しいと判定し、その旨を示す情報を補正部44へ出力する。
その後、車両距離導出装置1には、時刻t2から微小時間が経過した時刻t3で、図5に(c)で示す撮像画像F3が入力される。ここで、特徴量取得部45には、補正部44から縦方向の長さが急激に増大した車両領域E12の車両領域情報が入力される場合がある。
例えば、領域抽出部42が自車両のボンネットC1と前方の道路の境界を、他車両Cの下端位置と誤検出した場合に、特徴量取得部45には、補正部44から車両領域E12の車両領域情報が入力される。
かかる場合、特徴量取得部45は、車両領域E10,E11,E12の特徴量の時間微分値が閾値を超えるので、補正部44による明暗領域境界Lの探索結果を誤りと判定し、その旨を示す情報を補正部44へ出力する。
補正部44は、特徴量取得部45から補正部44による明暗領域境界Lの探索結果に関する正誤を示す情報の入力を待って、距離導出部46へ車両領域情報を出力する。補正部44は、特徴量取得部45から、例えば、時刻t2の撮像画像F2について、明暗領域境界Lの探索結果が正しいと判定された旨を示す情報が入力される場合、車両領域E11の車両領域情報を距離導出部46へ出力する。
一方、補正部44は、特徴量取得部45から、例えば、明暗領域境界Lの探索結果が誤りと判定された旨を示す情報が入力される場合、時刻t3の撮像画像F3について補正した車両領域E12の車両領域情報を破棄する。
そして、補正部44は、時刻t2の撮像画像F2について補正した車両領域E11の車両領域情報を時刻t3の撮像画像F3用の車両領域情報として距離導出部46へ出力する。これにより、補正部44は、何らかの原因で、瞬間的に車両領域E12が異常な大きさとなった場合であっても、正しい大きさとほぼ等しい大きさの車両領域E11の車両領域情報を距離導出部46へ出力することができる。
なお、ここでは、特徴量取得部45が補正後の車両領域Eの特徴量として、車両領域Eの面積を取得する場合について説明したが、特徴量取得部45は、車両領域Eにおける面積以外の特徴量の時間微分値と閾値とを比較して、車両領域Eの誤補正判定を行う構成であってもよい。
ここで、図6を参照し、特徴量取得部45が行う車両領域Eの誤補正判定手順の変形例について説明する。図6は、実施形態に係る誤補正判定手順の変形例を示す説明図である。ここでは、図6に示す構成要素のうち、図5に示す構成要素と同一の構成要素については、図5に示す符号と同一の符号を付することにより、その説明を省略する。
特徴量取得部45は、図6に(a)に示すように、時刻t1の撮像画像F1における補正後の車両領域E10の特徴量として、車両領域E10内の画像のエッジヒストグラムH1を取得する構成であってもよい。
かかる構成の場合、特徴量取得部45は、車両領域E10内の画像におけるエッジ点数を画素ライン毎に取得して累積することによって、エッジヒストグラムH1を取得する。そして、特徴量取得部45は、図6に(b)で示すように、時刻t2の撮像画像F2についても、エッジヒストグラムH2を取得し、図6に(c)で示すように、時刻t3の撮像画像F3についても、エッジヒストグラムH3を取得する。
続いて、特徴量取得部45は、エッジヒストグラムH1,H2,H3に基づき、車両領域E10,E11,E12におけるエッジ点数の時間微分値を算出する。そして、特徴量取得部45は、エッジ点数が閾値を超えない場合に、補正部44による補正を正しいと判定し、エッジ点数が閾値を超える場合に、補正部44による補正を誤りと判定し、補正の正誤判定結果を示す情報を補正部44へ出力する。
かかる構成によっても、特徴量取得部45は、図6の(a)、(b)と、(c)とを対比すれば明らかなように、図6に(c)で示す撮像画像F3における車両領域E12の補正が誤りであると判定することができる。
なお、特徴量取得部45は、補正後の車両領域Eの特徴量として、車両領域E内の画像の色ヒストグラムを取得する構成であってもよい。かかる構成の場合、特徴量取得部45は、車両領域E内の画像における各色(例えば、赤、緑、青)の画素数を取得して累積することによって、色ヒストグラムを取得する。
続いて、特徴量取得部45は、順次取得する色ヒストグラムに基づき、各色の画素数の時間微分値が閾値を超えない場合(車両領域E内の色分布が急激に変化しない場合)に、補正部44による補正を正しいと判定する。
また、特徴量取得部45は、各色の画素数の時間微分値が閾値を超える場合(車両領域E内の色分布が急激に変化する場合)に、補正部44による補正を誤りと判定する。そして、特徴量取得部45は、補正部44による正誤判定結果を示す情報を補正部44へ出力する。かかる構成によっても、特徴量取得部45は、補正部44による補正の正誤を的確に判定することができる。
図2へ戻り、距離導出部46は、補正部44から入力される補正後の車両領域Eの車両領域情報に基づいて、自車両から他車両Cまでの車両距離を導出する。つまり、距離導出部46は、遠近法の原理に、撮像画像Fにおける仮想的な無限遠の一点と、補正後の車両領域Eの下端位置とを適用して、自車両から他車両Cまでの車両距離を導出する。そして、距離導出部46は、導出した車両距離を車載装置3へ出力する。
次に、図7を参照し、車両距離導出装置1が実行する処理について説明する。図7は、実施形態に係る車両距離導出装置1が実行する処理を示すフローチャートである。車両距離導出装置1の制御部4は、カメラ2から撮像画像Fが順次入力される度に、図7に示す処理を実行する。
具体的には、図7に示すように、制御部4は、まず、撮像画像Fから拡縮率が異なる複数の拡縮画像を生成する(ステップS101)。その後、制御部4は、車両辞書情報51を使用して、各拡縮画像から他車両Cの形状が存在する複数の候補領域E3,E4,E5(図3の(a)参照)を抽出する(ステップS102)。そして、制御部4は、抽出した候補領域E3,E4,E5の候補領域情報52を記憶部5に記憶させる(ステップS103)。
その後、制御部4は、候補領域情報52を使用して、複数の候補領域E3,E4,E5を統合して車両領域E2(図3の(b)参照)を生成する(ステップS104)。続いて、制御部4は、候補領域情報52に基づいて、撮像画像Fにおける暗領域Edと明領域Ebとの境界である明暗領域境界L(図1参照)を探索する(ステップS105)。
その後、制御部4は、撮像画像Fにおける車両領域E2の下端位置を明暗領域境界Lの位置と同一の位置にする下端位置補正を行う(ステップS106)。続いて、制御部4は、下端位置が補正された車両領域E(図3の(c)参照)内の画像に関する特徴量を取得する(ステップS107)。そして、制御部4は、取得した特徴量を示す特徴量情報53を記憶部5に記憶させる(ステップS108)。
続いて、制御部4は、記憶部5に記憶された特徴量情報53に基づいて、車両領域E内の画像に関する特徴量の時間微分値が閾値を超えたか否かを判定する(ステップS109)。
そして、制御部4は、特徴量の時間微分値が閾値を超えていないと判定した場合(ステップS109,No)、現フレームの撮像画像Fから抽出した車両領域Eから他車両Cまでの車両距離を導出し(ステップS110)、車両距離を出力して処理を終了する。
また、制御部4は、特徴量の時間微分値が閾値を超えたと判定した場合(ステップS109,Yes)、前フレームの撮像画像Fから抽出した車両領域Eから他車両Cまでの車両距離を導出し(ステップS111)、車両距離を出力して処理を終了する。
上述したように、実施形態に係る車両距離導出装置は、領域抽出部と、距離導出部と、補正部とを備える。領域抽出部は、撮像画像から車両の形状が存在する車両領域を抽出する。距離導出部は、撮像画像における車両領域の下端位置に基づいて、車両までの距離を導出する。
補正部は、撮像画像における明領域と暗領域との境界を探索し、明領域と暗領域との境界に基づいて、撮像画像における車両の下端位置を補正する。これにより、車両距離導出装置は、撮像画像に基づいて導出する車両までの距離の精度を向上させることができる。
次に、図8を参照し、車両距離導出装置1のハードウェア構成について説明する。図8は、実施形態に係る車両距離導出装置1の機能を実現するコンピュータの一例を示すハードウェア構成図である。車両距離導出装置1は、図8に一例として示す構成のコンピュータ200で実現することができる。
コンピュータ200は、CPU(Central Processing Unit)210と、ROM(Read Only Memory)220と、RAM(Random Access Memory)230と、HDD(Hard Disk Drive)240とを備える。また、コンピュータ200は、メディアインターフェイス(I/F)250と、通信インターフェイス(I/F)260と、入出力インターフェイス(I/F)270とを備える。
なお、コンピュータ200は、SSD(Solid State Drive)を備え、かかるSSDがHDD240の一部または全ての機能を実行するようにしてもよい。また、HDD240に代えてSSDを設けることとしてもよい。
CPU210は、ROM220およびHDD240の少なくとも一方に格納されるプログラムに基づいて動作し、各部の制御を行う。ROM220は、コンピュータ200の起動時にCPU210によって実行されるブートプログラムや、コンピュータ200のハードウェアに依存するプログラムなどを格納する。HDD240は、CPU210によって実行されるプログラムおよびかかるプログラムによって使用されるデータ等を格納する。
メディアI/F250は、記憶媒体280に格納されたプログラムやデータを読み取り、RAM230を介してCPU210に提供する。CPU210は、かかるプログラムを、メディアI/F250を介して記憶媒体280からRAM230上にロードし、ロードしたプログラムを実行する。あるいは、CPU210は、かかるデータを用いてプログラムを実行する。記憶媒体280は、例えばDVD(Digital Versatile Disc)などの光磁気記録媒体やSDカード、USBメモリなどである。
通信I/F260は、ネットワーク290を介して他の機器からデータを受信してCPU210に送り、CPU210が生成したデータを、ネットワーク290を介して他の機器へ送信する。あるいは、通信I/F260は、ネットワーク290を介して他の機器からプログラムを受信してCPU210に送り、CPU210がかかるプログラムを実行する。
CPU210は、入出力I/F270を介して、ディスプレイ等の出力部を制御する。CPU210は、入出力I/F270を介して、出力部からデータを取得する。また、CPU210は、生成したデータを入出力I/F270を介して出力部に出力する。
例えば、コンピュータ200が車両距離導出装置1として機能する場合、コンピュータ200のCPU210は、RAM230上にロードされたプログラムを実行することにより、拡縮画像生成部41、領域抽出部42、領域統合部43、補正部44、特徴量取得部45、および距離導出部46の各機能を実現する。
コンピュータ200のCPU210は、例えばこれらのプログラムを記憶媒体280から読み取って実行するが、他の例として、他の装置からネットワーク290を介してこれらのプログラムを取得してもよい。また、HDD240は、記憶部5が記憶する車両辞書情報51、候補領域情報52、および特徴量情報53を記憶することができる。
なお、上記では、車両距離導出装置1と車載装置3とは別の装置であるものとして説明したが、これらを一体化してもよい。すなわち、上述した車両距離導出装置1と車載装置3との双方の機能を一つの装置が備えていてもよい。
1 車両距離導出装置
2 カメラ
3 車載装置
4 制御部
5 記憶部
41 拡縮画像生成部
42 領域抽出部
43 領域統合部
44 補正部
45 特徴量取得部
46 距離導出部
51 車両辞書情報
52 候補領域情報
53 特徴量情報
200 コンピュータ
210 CPU
220 ROM
230 RAM
240 HDD
250 メディアI/F
260 通信I/F
270 入出力I/F
280 記憶媒体
290 ネットワーク
A 上方領域
B 下方領域
C 他車両

Claims (6)

  1. 撮像画像から車両の形状が存在する車両領域を抽出する領域抽出部と、
    前記撮像画像における前記車両領域の下端位置に基づいて、前記車両までの距離を導出する距離導出部と、
    前記撮像画像における明領域と暗領域との境界を探索し、前記境界に基づいて、前記下端位置を補正する補正部と
    を備え
    前記領域抽出部は、
    同一の前記撮像画像から前記車両領域の候補となる複数の候補領域を抽出し、前記複数の候補領域に基づいて、前記車両領域を抽出し、
    前記補正部は、
    同一の前記撮像画像から抽出される前記複数の候補領域における各下端を介して上下に隣接する上方領域と下方領域との明暗差を導出し、前記明暗差が最大となる前記車両領域の下端を前記境界として探索する
    ことを特徴とする車両距離導出装置。
  2. 時系列の前記撮像画像から前記車両領域の特徴量を順次取得する特徴量取得部
    をさらに備え、
    前記補正部は、
    前記特徴量取得部によって順次取得される前記特徴量の時間微分値が閾値を超える場合に、前記境界の探索結果を誤りと判定する
    ことを特徴とする請求項に記載の車両距離導出装置。
  3. 前記特徴量取得部は、
    前記特徴量として、前記車両領域の面積を取得する
    ことを特徴とする請求項に記載の車両距離導出装置。
  4. 前記特徴量取得部は、
    前記特徴量として、前記車両領域におけるエッジ点数を取得する
    ことを特徴とする請求項に記載の車両距離導出装置。
  5. 前記特徴量取得部は、
    前記特徴量として、前記車両領域における色毎の画素数を取得する
    ことを特徴とする請求項に記載の車両距離導出装置。
  6. 領域抽出部が、撮像画像から車両の形状が存在する車両領域を抽出する工程と、
    距離導出部が、前記撮像画像における前記車両領域の下端位置に基づいて、前記車両までの距離を導出する工程と、
    補正部が、前記撮像画像における明領域と暗領域との境界を探索し、前記境界に基づいて前記下端位置を補正する工程と
    を含み、
    前記車両領域を抽出する工程は、
    同一の前記撮像画像から前記車両領域の候補となる複数の候補領域を抽出し、前記複数の候補領域に基づいて、前記車両領域を抽出することを含み、
    前記下端位置を補正する工程は、
    同一の前記撮像画像から抽出される前記複数の候補領域における各下端を介して上下に隣接する上方領域と下方領域との明暗差を導出し、前記明暗差が最大となる前記車両領域の下端を前記境界として探索する
    ことを含むことを特徴とする車両距離導出方法。
JP2016011070A 2016-01-22 2016-01-22 車両距離導出装置および車両距離導出方法 Active JP6688091B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016011070A JP6688091B2 (ja) 2016-01-22 2016-01-22 車両距離導出装置および車両距離導出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016011070A JP6688091B2 (ja) 2016-01-22 2016-01-22 車両距離導出装置および車両距離導出方法

Publications (2)

Publication Number Publication Date
JP2017130162A JP2017130162A (ja) 2017-07-27
JP6688091B2 true JP6688091B2 (ja) 2020-04-28

Family

ID=59396639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016011070A Active JP6688091B2 (ja) 2016-01-22 2016-01-22 車両距離導出装置および車両距離導出方法

Country Status (1)

Country Link
JP (1) JP6688091B2 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6859374B2 (ja) 2019-01-11 2021-04-14 本田技研工業株式会社 予測装置、予測方法、およびプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3823782B2 (ja) * 2001-08-31 2006-09-20 日産自動車株式会社 先行車両認識装置
CN101187982B (zh) * 2006-11-17 2011-08-24 东软集团股份有限公司 一种用于从图像中分割出对象的方法及装置
JP5907700B2 (ja) * 2011-11-18 2016-04-26 クラリオン株式会社 画像処理装置、車両システム、及び、画像処理方法
US9460354B2 (en) * 2012-11-09 2016-10-04 Analog Devices Global Object detection

Also Published As

Publication number Publication date
JP2017130162A (ja) 2017-07-27

Similar Documents

Publication Publication Date Title
US10417773B2 (en) Method and apparatus for detecting object in moving image and storage medium storing program thereof
US20200293809A1 (en) Image processing apparatus, image processing method, and storage medium
JP4166253B2 (ja) 物体検出装置、物体検出方法、および物体検出用プログラム
JP4988408B2 (ja) 画像認識装置
US10079974B2 (en) Image processing apparatus, method, and medium for extracting feature amount of image
KR101609303B1 (ko) 카메라 캘리브레이션 방법 및 그 장치
KR101281260B1 (ko) 차량 인식 방법 및 장치
JP5959073B2 (ja) 検出装置、検出方法、及び、プログラム
US10521915B2 (en) Distance measurement device and distance measurement method
JP2000105829A (ja) 顔パーツ検出方法及びその装置
CN106469455B (zh) 图像处理方法、图像处理设备以及记录介质
US10762372B2 (en) Image processing apparatus and control method therefor
EP3584763A1 (en) Vehicle-mounted environment recognition device
JP4674179B2 (ja) 影認識方法及び影境界抽出方法
JP2021108193A (ja) 画像処理装置、画像処理方法、及びプログラム
EP3955207A1 (en) Object detection device
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
CN109074646B (zh) 图像识别装置以及图像识别程序
JP6772059B2 (ja) 電子制御装置、電子制御システムおよび電子制御方法
JP6077785B2 (ja) 対象物検出装置及びプログラム
JP6688091B2 (ja) 車両距離導出装置および車両距離導出方法
JP2016053763A (ja) 画像処理装置、画像処理方法及びプログラム
KR101904480B1 (ko) 카메라의 왜곡을 고려한 물체 인식 시스템 및 방법
JP6698058B2 (ja) 画像処理装置
KR101329492B1 (ko) 카메라 렌즈를 조절하여 인식할 문자열을 영상의 중앙에 인식 가능한 크기로 위치시키는 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191107

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200310

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200403

R150 Certificate of patent or registration of utility model

Ref document number: 6688091

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250