JP6569385B2 - 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム - Google Patents

車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム Download PDF

Info

Publication number
JP6569385B2
JP6569385B2 JP2015162892A JP2015162892A JP6569385B2 JP 6569385 B2 JP6569385 B2 JP 6569385B2 JP 2015162892 A JP2015162892 A JP 2015162892A JP 2015162892 A JP2015162892 A JP 2015162892A JP 6569385 B2 JP6569385 B2 JP 6569385B2
Authority
JP
Japan
Prior art keywords
vehicle
image
rear side
detected
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015162892A
Other languages
English (en)
Other versions
JP2017041132A (ja
Inventor
成俊 鴇田
成俊 鴇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2015162892A priority Critical patent/JP6569385B2/ja
Priority to PCT/JP2016/066457 priority patent/WO2017029858A1/ja
Publication of JP2017041132A publication Critical patent/JP2017041132A/ja
Priority to US15/848,191 priority patent/US20180114078A1/en
Application granted granted Critical
Publication of JP6569385B2 publication Critical patent/JP6569385B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images
    • B60R2300/305Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images merging camera image with lines or icons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/804Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for lane monitoring
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Description

本発明は、車両の後側方に位置する他の車両を検出するための、車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラムに関する。
同一方向に複数の車線がある場合において、隣の車線の後側方に位置する車両(以下、後側方車両という)は死角になり、運転者から見えなくなるときがある。これに対して車両の後部にバックカメラを設置して、撮影した画像から車両を画像認識により検出する手法が考えられる(例えば、特許文献1参照)。バックカメラで撮影される画像内における後側方車両の見え方は、バックカメラが設置されている車両と後側方車両との距離により変わってくる。後側方車両が遠距離に位置する場合は後側方車両のほぼ正面が見え、中距離に位置する場合は後側方車両が斜めに見え、近距離に位置する場合は後側方車両が横向きに見える。このように後側方車両が自己の車両を追い越すべく接近するシーンでは、バックカメラで撮影された画像内の後側方車両の見え方が大きく変化する。
このように見え方が大きく変化する物体を精度良く画像認識することは一般的に難しい。例えば、車両の正面の画像を多数学習させた識別器を使用する場合には、遠距離では後側方車両の認識が可能であるが、近〜中距離では見え方の変化が大きく認識が難しくなる。よって、車両の正面の識別器に加え、斜め、横向きの画像をそれぞれ学習させた識別器を複数組み合わせて使用することが考えられる。
特開2008−262401号公報
しかしながら近距離の状態から更に後側方車両が接近すると、後側方車両が画面からはみ出て見えなくなってしまうため、上述の学習型の識別器で検出することが困難となる。また複数の識別器を使用すると演算量が増加するため、ハイスペックなハードウェア資源が必要となりコスト増となる。また車両の左右に2つのカメラあるいはレーダを設置すれば、上述の見え方の違いの影響はほぼ考慮する必要がなくなるがコスト増となる。
本発明はこうした状況に鑑みてなされたものであり、その目的は、後側方車両をコストを抑えつつ高精度に検出する技術を提供することにある。
上記課題を解決するために、本発明のある態様の車両検出装置(10)は、車両(1)に取り付けられ、当該車両(1)の後側方を撮影可能な撮像装置(2)から入力される画像を取得する画像取得部(11)と、取得された画像内における後側方に位置する車両(5)を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両(5)を検出する第1画像認識部(13)と、前記画像取得部(11)により取得された画像内において、前記第1画像認識部(13)により検出された車両(5)が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両(5)を追従する第2画像認識部(14)と、前記第1画像認識部(13)および前記第2画像認識部(14)により画像内から後側方に位置する車両(5)が検出されると、後側方に車両(5)が存在することを運転者に通知するためのユーザインタフェース(3)に、後側方に車両(5)が検出されたことを示す検出信号を出力する検出信号出力部(16)と、を備える。前記第2画像認識部(14)は、前記画像取得部(11)により取得された画像内において、前記撮像装置(2)のパラメータに応じた縦長の楕円を検出することにより、追従している車両(1)のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両(1)の特徴点に追加する。
本発明の別の態様は、車両検出システムである。この車両検出システム(2、10)は、車両(1)に取り付けられ、当該車両(1)の後側方を撮影可能な撮像装置(2)と、前記撮像装置(2)と接続された車両検出装置(10)と、を備える。前記車両検出装置(10)は、前記撮像装置(2)から入力される画像を取得する画像取得部(11)と、取得された画像内における後側方に位置する車両(5)を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両(5)を検出する第1画像認識部(13)と、前記画像取得部(11)により取得された画像内において、前記第1画像認識部(13)により検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両(5)を追従する第2画像認識部(14)と、前記第1画像認識部(13)および前記第2画像認識部(14)により画像内から後側方に位置する車両(5)が検出されると、後側方に車両(5)が存在することを運転者に通知するためのユーザインタフェース(3)に、後側方に車両(5)が検出されたことを示す検出信号を出力する検出信号出力部(16)と、を含む。前記第2画像認識部(14)は、前記画像取得部(11)により取得された画像内において、前記撮像装置(2)のパラメータに応じた縦長の楕円を検出することにより、追従している車両(1)のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両(1)の特徴点に追加する。
本発明のさらに別の態様は、車両検出方法である。この方法は、車両検出装置(10)が実行する車両検出方法であって、画像取得部(11)が、車両(1)に取り付けられ、当該車両(1)の後側方を撮影可能な撮像装置(2)から入力される画像を取得する第1ステップと、第1画像認識部(13)が、取得された画像内における後側方に位置する車両(5)を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両を検出する第2ステップと、第2画像認識部(14)が、取得された画像内において、前記第2ステップにより検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両(5)を追従する第3ステップと、前記第2ステップおよび前記第3ステップにより画像内から後側方に位置する車両が検出されると、検出信号出力部(16)が、後側方に車両が存在することを運転者に通知するためのユーザインタフェース(3)に、後側方に車両(5)が検出されたことを示す検出信号を出力する第4ステップと、を有する。前記第3ステップは、前記第1ステップにより取得された画像内において、前記撮像装置(2)のパラメータに応じた縦長の楕円を検出することにより、追従している車両(1)のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両(1)の特徴点に追加する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、後側方車両をコストを抑えつつ高精度に検出できる。
車両の後部に設置されたバックカメラの画角の一例を示す図である。 バックカメラで撮影した後側方車両の画像の一例(遠距離)を示す図である。 バックカメラで撮影した後側方車両の画像の一例(中距離)を示す図である。 バックカメラで撮影した後側方車両の画像の一例(近距離)を示す図である。 図5(a)−(c)は、バックカメラで撮影した後側方車両の画像の別の例を示す図である。 本発明の実施の形態に係る車両検出装置を説明するための図である。 本発明の実施の形態に係る車両検出装置の動作例を示すフローチャートである。 バックカメラにより撮影された、後側方車両の検出時の画像の一例を示す図である。 バックカメラにより撮影された、後側方車両の検出判定時の画像の一例(その1)を示す図である。 バックカメラにより撮影された、後側方車両の検出判定時の画像の一例(その2)を示す図である。 バックカメラにより撮影された、後側方車両の検出判定時の画像の一例(その3)を示す図である。 バックカメラにより撮影された、後側方車両の検出判定時の画像の一例(その4)を示す図である。 後側方車両の検出判定処理の一例を示すフローチャートである。 バックカメラにより撮影された、後側方車両5の追従開始を決定した次のフレーム画像の一例を示す図である。 バックカメラにより撮影された、後側方車両の追従開始後の画像の一例(その1)を示す図である。 バックカメラにより撮影された、後側方車両の追従開始後の画像の一例(その2)を示す図である。 バックカメラにより撮影された、後側方車両の追従開始後の画像の一例(その3)を示す図である。 バックカメラにより撮影された、後側方車両の追従開始後の画像の一例(その4)を示す図である。 バックカメラにより撮影された、後側方車両の追従開始後の画像の一例(その5)を示す図である。 バックカメラにより撮影された、後側方車両の追従開始後の画像の一例(その6)を示す図である。
本発明の実施の形態は、バックカメラを用いた後側方車両の監視・検出処理に関する。後側方車両を監視・検出する代表的な手法として次の3種類がある。
(1)車両の左右に装着するレーダで後側方車両を監視・検出する手法。
(2)車両の左右に装着するサイドカメラで後側方車両を監視・検出する手法。
(3)車両の後部に装着するバックカメラで後側方車両を監視・検出する手法。
このうち(2)と(3)が画像から後側方車両を検出するタイプのものであり、(3)がカメラ1台で構成可能な為、ハードウェアのコスト面では最も優位性がある。
バックカメラ1台で左右の後側方車両を検出する為には、極力画角の広い広角カメラ(画角が水平180度に近いもの)を採用する必要がある。広角カメラの弱点としては、画面の左端、右端に近づくにつれて歪が大きくなってしまう点がある。その為、後側方車両が後方から自車両を追い抜くシーンでは、画面端に近づくにつれて後側方車両の歪が増加する。それに加え、後側方車両の見え方の変化が大きい為、画像処理による車両の検出・追従処理が難しくなる。
図1は、車両1の後部に設置されたバックカメラ2aの画角の一例を示す図である。図1に示すように車両1の右後側方と左後側方には、運転者がドアミラー及びルームミラーで目視することが困難な死角Dr、Dlが存在する。死角Dr、Dlに他の車両(後側方車両)が存在するにも関わらず、運転者が当該他の車両に気付かずに車線変更を試みると危険である。そこで本実施の形態ではバックカメラ2aで、隣の車線に後側方車両が存在する場合に運転者に、後側方車両が存在することを表示や音声で通知する仕組みを導入する。
図2は、バックカメラ2aで撮影した後側方車両5の画像の一例(遠距離)を示す図である。図3は、バックカメラ2aで撮影した後側方車両5の画像の一例(中距離)を示す図である。図4は、バックカメラ2aで撮影した後側方車両5の画像の一例(近距離)を示す図である。図2から図4を参照すると、後側方車両5が自車両に接近するにつれ、後側方車両5の見え方が正面から横向きに変化することが分かる。
これに対して上述のように、正面を向いた車両の識別器(検出器、分類器ともいう)、斜め向き車両の識別器、横向き車両の識別器を複数組み合わせて使用することが考えられるが、演算量が増加し、ハイスペックなハードウェア資源が必要となりコスト増となる。
そこで本実施の形態では、正面車両の識別器を使用して後側方車両を検出した後に、後側方車両の特徴点を取得し、当該特徴点のオプティカルフローを使用して後側方車両の動きを追従する。これにより、斜め向き車両の識別器、及び横向き車両の識別器を使用せずに斜め向きの車両、及び横向き車両を検出できる。
ただし、オプティカルフローによる追従も万能ではなく、特徴点の移動先が常に正しく求められる訳ではない。また、画面外へ一旦消えた特徴点のオプティカルフローによる補足は困難である。例えば、後側方車両が画面外に半分消えかけた状態で自車両が加速して再び画面内に後側方車両が映るようなケースでは、オプティカルフローで安定的に後側方車両を検出し続けることは困難である。
図5(a)−(c)は、バックカメラ2aで撮影した後側方車両5の画像の別の例を示す図である。図5(a)は後側方車両5が自車両に接近してきている様子を示している。図5(b)は後側方車両5が自車両にさらに接近してきている様子を示しており、後側方車両5の前の部分がバックカメラ2aの画角から外れている。図5(c)は後側方車両5の減速および/または自車両の加速により、両者の距離が再度離れ、後側方車両5の全体がバックカメラ2aの画角に収まっている。さらに極端な例では、後側方車両5が一度、バックカメラ2aの画角から完全に外れた後、再度、バックカメラ2aの画角に収まる位置まで後側方車両5が相対的に後退するケースもある。このようなケースでは、オプティカルフローで安定的に後側方車両を検出し続けることは困難である。これに対して本実施の形態では、オプティカルフローによる車両追従の精度を向上させる仕組みも導入する。
図6は、本発明の実施の形態に係る車両検出装置10を説明するための図である。車両検出装置10は、画像取得部11、前処理部12、第1画像認識部13、第2画像認識部14、車両位置特定部15及び検出信号出力部16を備える。第1画像認識部13は、特徴量算出部131、探索部132及び辞書データ保持部133を含む。第2画像認識部14は、特徴点抽出範囲設定部141、特徴点抽出部142、オプティカルフロー検出部143、特徴点削除部144、楕円検出部145及びタイヤ判定部146を含む。これらの機能ブロックは、ハードウェア資源とソフトウェア資源の協働、またはハードウェア資源のみにより実現できる。ハードウェア資源としてプロセッサ、ROM、RAM、FPGA、その他のLSIを利用できる。ソフトウェア資源としてオペレーティングシステム、アプリケーション等のプログラムを利用できる。
撮像装置2は車両1に取り付けられ、車両1の後側方を撮影可能なカメラであり、上述のバックカメラ2aに対応する。撮像装置2は図示しない固体撮像素子、及び信号処理回路を含む。当該固体撮像素子は例えば、CMOSイメージセンサまたはCCDイメージセンサで構成され、入射光を電気的な画像信号に変換する。当該信号処理回路は、当該固体撮像素子から出力される画像信号に対して、A/D変換、ノイズ除去などの信号処理を施し、車両検出装置10に出力する。
画像取得部11は撮像装置2から入力される画像信号を取得し、前処理部12に渡す。前処理部12は、画像取得部11により取得された画像信号に対して所定の前処理を施し、第1画像認識部13及び第2画像認識部14に供給する。前処理の具体例は後述する。
第1画像認識部13は入力される画像内における後側方車両を検出するためのエリア(以下、車両検出エリアという)を、車両の正面を検出するための識別器を用いて探索し、当該車両検出エリア内から車両を検出する。当該車両検出エリアは、撮像装置2の設定位置および向きに基づき、撮像装置2の画角内において後側方車両が映るエリアに設定される。車両検出エリアの具体例は後述する。
特徴量算出部131は、車両検出エリア内の特徴量を算出する。当該特徴量として例えば、Haar-like特徴量、HOG(Histogram of Gradients)特徴量、LBP(Local Binary Patterns)特徴量などを使用することができる。辞書データ保持部133には、車両正面の多数の画像と非車両正面の多数の画像を機械学習して生成された車両正面の識別器が予め登録されている。探索部132は、当該車両正面の識別器を用いて車両検出エリア内を探索し、当該車両検出エリアから車両を検出する。
第2画像認識部14は入力される画像内において、第1画像認識部13により検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、入力される画像内の当該車両を追従する。
特徴点抽出範囲設定部141は、入力される画像内に特徴点を抽出する範囲を設定する。特徴点抽出範囲の具体例は後述する。特徴点抽出部142は、設定された特徴点抽出範囲から特徴点を抽出する。当該特徴点として例えば、Harrisのコーナー検出アルゴリズムにより検出されるコーナーを使用することができる。オプティカルフロー検出部143は、抽出された特徴点のオプティカルフローを検出する。オプティカルフローは、画像内の点(本実施の形態では、抽出された特徴点)の動きを表す動きベクトルである。オプティカルフローは例えば、勾配法、Lucas-Kanade法を用いて算出することができる。
特徴点削除部144は、オプティカルフローを検出している特徴点の内、追従している車両の移動方向に対応しない特徴点を、当該車両の特徴点から削除する。例えば、複数の特徴点のオプティカルフローの平均を算出し、平均からの乖離が設定値以上大きいオプティカルフローの特徴点を削除する。これにより、車両の移動方向と反対に移動している特徴点は背景の特徴点とみなされ削除される。また特徴点削除部144は、1つ前のフレーム画像内に存在した特徴点の内、現在のフレーム画像内で追跡できなかった特徴点を削除する。光の当たり具合が変わったり、車両の見え方が大きく変わった場合、特徴点を追跡できなくなる場合がある。
楕円検出部145は、入力される画像内の楕円検出エリアにおいて楕円を検出する。例えば、楕円フィッティングにより検出する。当該楕円検出エリアは、撮像装置2の設定位置および向きに基づき、撮像装置2の画角内において自車両に接近している後側方車両のタイヤが映るエリアに設定される。タイヤ判定部146は、楕円検出部145により検出された楕円が、追従している車両のタイヤを表す楕円であるか否か判定する。
特徴点抽出範囲設定部141は入力される画像内において、検出された追従中の車両のタイヤ及びその周辺領域に特徴点抽出範囲を設定する。追従中の車両の前輪のタイヤと後輪のタイヤの両方を検出できた場合、特徴点抽出範囲設定部141は入力される画像内において、当該前輪のタイヤ及びその周辺領域、当該後輪のタイヤ及びその周辺領域、並びに当該前輪の周辺領域と当該後輪の周辺領域の間の領域に特徴点抽出範囲を設定する。特徴点抽出部142は、設定された特徴点抽出範囲から特徴点を抽出し、追従している車両の特徴点として追加する。
車両位置特定部15は、第1画像認識部13及び第2画像認識部14から車両の検出結果を取得し、画像内における車両の位置を特定する。特定した車両の位置が、自車両の右後側方の死角ゾーン近傍に含まれる場合、車両位置特定部15は右後側方車両の検出信号を検出信号出力部16に供給する。特定した車両の位置が、自車両の左後側方の死角ゾーン近傍に含まれる場合、車両位置特定部15は左後側方車両の検出信号を検出信号出力部16に供給する。
検出信号出力部16は、車両位置特定部15から供給される右後側方車両の検出信号または左後側方車両の検出信号をユーザインタフェース3に出力する。ユーザインタフェース3は、右後側方または左後側方に車両が存在することを運転者に通知するためのインタフェースである。ユーザインタフェース3は表示部31及び音声出力部32を含む。
表示部31は、アイコンやインジケータを表示可能なものであればよく、液晶ディスプレイや有機ELディスプレイ等のモニタであってもよいし、LED等のランプであってもよい。例えば、右側のドアミラーに表示部31を設置し、その表示部31に検出信号出力部16から右後側方車両の検出信号が入力された場合、その表示部31に右後側方車両の存在を示すアイコンを表示させてもよい。左側のドアミラーも同様である。また右後側方車両または左後側方車両の存在を示すアイコンを、メーターパネルまたはヘッドアップディスプレイに表示させてもよい。音声出力部32はスピーカを備え、当該スピーカに右後側方車両または左後側方車両の検出信号が入力された場合、当該スピーカは右後側方車両または左後側方車両の存在を示すメッセージまたは警告音を音声出力する。
検出信号出力部16は、車内ネットワーク(例えば、CANバス)を介してウインカスイッチ4の操作情報を取得する。検出信号出力部16は、車両位置特定部15から右後側方車両の検出信号が供給された際、当該右後側方車両の検出信号を表示部31に出力する。その状態で、右のウインカスイッチ4からオンに操作された操作情報を取得すると、検出信号出力部16は、当該右後側方車両の検出信号をさらに音声出力部32に出力する。この制御例は、検出信号出力部16が車両位置特定部15から後側方車両の検出信号の供給を受けた際、表示部31には無条件に当該検出信号を出力し、音声出力部32には後側方車両が検出された方向のウインカスイッチ4がオンに操作されたことを条件に当該検出信号を出力する例である。なお、音声出力部32にも無条件に当該検出信号を出力する制御例を採用してもよい。
図7は、本発明の実施の形態に係る車両検出装置10の動作例を示すフローチャートである。以下の動作例では、バックカメラ2aが自車両の後方の映像を30Hzのフレームレートで撮影している例を想定する。
まず車両位置特定部15は追従フラグに初期値として「0」を設定する(S10)。追従フラグは「0」または「1」をとり、「0」が後側方車両の非追従中を示し、「1」が後側方車両の追従中を示す。
画像取得部11はバックカメラ2aから、カラーのフレーム画像を取得する(S11)。前処理部12は、当該カラーのフレーム画像を、輝度情報のみで記述されるグレースケールのフレーム画像に変換する(S12)。次に前処理部12は、グレースケールのフレーム画像の画素を間引いて画像サイズを縮小する(S13)。例えば、640×480ピクセルの画像を320×240ピクセルの画像に縮小する。なお、画像サイズの縮小は演算量の削減を目的としたものであるため、ハードウェア資源の能力が高い仕様の場合はステップS13の縮小処理はスキップされる。
追従フラグの値が「0」の場合(S14のN)、特徴量算出部131は、前処理されたフレーム画像内の車両検出エリアの特徴量を算出する(S15)。探索部132は、車両正面の識別器を用いて当該車両検出エリア内に後側方車両が存在するか否か探索する(S16)。
図8は、バックカメラ2aにより撮影された、後側方車両5の検出時の画像の一例を示す図である。図8に示す画像内に車両検出エリアA1が設定され、第1画像認識部13は車両検出エリアA1内で後側方車両5を検出する。図8では、車両正面の識別器で検出された後側方車両5が検出枠A2で囲われている。右後側方車両検出エリアA3は自車両の右隣車線内において、自車両から所定の距離離れた範囲(図8では自車両から3〜15mの範囲)に設定される。左後側方車両検出エリアA4は自車両の左隣車線内において、自車両から所定の距離離れた範囲(図8では自車両から3〜15mの範囲)に設定される。なお図8では左後側方車両検出エリアA4は、左隣車線ではなく路肩に設定されている。
図8に示す画像内の下部には、車両検出エリアA1の加工画像A1aを重畳して表示している。加工画像A1aに示されるように、自車両が位置する車線のエリアは、自車両と同一車線の後続車を検出対象から除外するため、検出対象外エリアA5としている。探索部132は検出対象外エリアA5を探索範囲から除外するか、検出対象外エリアA5から車両を検出しても後側方車両に該当しない無効な対象として取り扱う。また探索部132は、検出した車両の中心位置が右隣車線の範囲(矢印参照)または左隣車線の範囲に位置していない場合も、後側方車両に該当しない無効な対象として取り扱う。
図9は、バックカメラ2aにより撮影された、後側方車両5の検出判定時の画像の一例(その1)を示す図である。図10は、バックカメラ2aにより撮影された、後側方車両5の検出判定時の画像の一例(その2)を示す図である。図11は、バックカメラ2aにより撮影された、後側方車両5の検出判定時の画像の一例(その3)を示す図である。図12は、バックカメラ2aにより撮影された、後側方車両5の検出判定時の画像の一例(その4)を示す図である。
図13は、後側方車両5の検出判定処理の一例を示すフローチャートである。まず車両位置特定部15は後側方車両検出カウンタBCNTと、後側方車両検出フラグBFに初期値として「0」を設定する(S40)。後側方車両検出カウンタBCNTは最小値が「0」、最大値が「10」で1ずつインクリメントまたはデクリメントされる作業用のカウンタである。後側方車両検出フラグBFは「0」または「1」をとり、「0」が後側方車両の非検出中を示し、「1」が後側方車両の検出中を示す。
第1画像認識部13に新たなフレーム画像が入力される(S41)。車両位置特定部15は過去一定数のフレームの内、所定比率以上のフレームで、右後側方車両検出エリアA3または左後側方車両検出エリアA4内で第1画像認識部13が車両を検出したか否か判定する(S42)。図13に示す例では過去10フレーム中4フレーム以上で、車両を検出したか否か判定する(S42)。検出していた場合(S42のY)、車両位置特定部15は過去10フレームにおいて検出した車両の位置変化が第1設定値より小さいか否か判定する(S43)。第1設定値より小さい場合(S43のY)、車両位置特定部15は後側方車両検出カウンタBCNTをインクリメントする(S44)。検出車両が自車両にゆっくり近づいている場合や、検出車両と自車両の距離がほぼ一定に保たれている場合、ステップS43の判定条件が満足される。
過去10フレームにおいて検出した車両の位置変化が第1設定値以上の場合(S43のN)、車両位置特定部15は過去10フレームにおいて、検出車両と自車両との距離が第2設定値以上拡大したか否か判定する(S45)。第2設定値以上拡大した場合(S45のY)、車両位置特定部15は後側方車両検出カウンタBCNTをデクリメントする(S46)。検出車両の相対速度が低下し、検出車両が自車両から遠ざかっている場合、ステップS45の判定条件が満足される。
過去10フレームにおいて検出車両と自車両との距離が第2設定値以上拡大していない場合(S45のN)、車両位置特定部15は過去10フレームにおいて、検出車両と自車両との距離が第3設定値以上縮小したか否か判定する(S47)。第3設定値以上縮小した場合(S47のY)、車両位置特定部15は後側方車両検出カウンタBCNTに「10」を設定する(S48)。検出車両の相対速度が上昇し、検出車両が自車両に急接近している場合、ステップS47の判定条件が満足される。
ステップS42において過去10フレーム中4フレーム以上で車両を検出していない場合(S42のN)、またはステップS47において検出車両と自車両との距離が第3設定値以上縮小していない場合(S47のN)、車両位置特定部15は後側方車両検出カウンタBCNTをデクリメントする(S46)。
車両位置特定部15は後側方車両検出カウンタBCNTの値を確認する(S49、S51)。後側方車両検出カウンタBCNTの値が「10」の場合(S49のY)、車両位置特定部15は後側方車両検出フラグBFに「1」を設定する(S50)。後側方車両検出カウンタBCNTの値が「0」の場合(S49のN、S51のY)、車両位置特定部15は後側方車両検出フラグBFに「0」を設定する(S52)。後側方車両検出カウンタBCNTの値が「1」−「9」のいずれかの場合(S49のN、S51のN)、車両位置特定部15は後側方車両検出フラグBFの現在値をそのまま維持する。後側方車両の検出処理が継続している間は(S53のY)、ステップS41に戻り、ステップS41〜ステップS52までの処理を繰り返す。後側方車両の検出処理が終了した場合(S53のN)、図13に係るフローチャートの処理を終了する。なお図13に係る後側方車両5の検出判定処理において上述した、参照対象の過去フレーム数、所定比率、第1設定値、第2設定値、及び第3設定値の各値は、実験やシミュレーション、各種知見に基づき設計者により設定される。
図9に示す画像内において、車両検出エリアA1の左上隅に、表示部31に表示されるアイコン画像A6が重畳して描かれている。このアイコンは後側方車両検出フラグBFの値が「1」のとき点灯する。図10に示す画像は、図9に示す画像と比較して、後側方車両5が自車両に近づいた状態を示している。図11に示す画像は、後側方車両5が自車両にさらに近づいた状態を示している。図12に示す画像は、後側方車両5が自車両にさらに近づいた状態を示している。図12に示す画像では後側方車両5の見え方が斜めになっており、車両正面の識別器では後側方車両5を検出できなくなっている。
図7のフローチャートに戻る。車両位置特定部15は、後側方車両5の追従処理開始条件を満足しているか否か判定する(S17)。例えば、後側方車両検出フラグBFの値が「1」の状態で、後側方車両検出カウンタBCNTの値が「1」から「0」にデクリメントされることを、後側方車両5の追従処理開始条件とする。なお、後側方車両5と自車両との距離が5m未満になること等、他の追従処理開始条件を用いてもよい。
後側方車両5の追従処理開始条件が満足すると(S17のY)、特徴点抽出範囲設定部141は、後側方車両5が存在すると推定される位置に矩形の特徴点抽出範囲を設定する。現フレームにおいて後側方車両5が存在すると推定される位置は、過去の車両検出位置と、その移動履歴(方向と速度)から算出される動きベクトルに基づき決定される。特徴点抽出部142は、設定された特徴点抽出範囲から特徴点を抽出する(S18)。この特徴点の抽出処理は追従開始時の1回のみ実施され、次フレーム以降はここで抽出された特徴点をオプティカルフローにより追従していく。車両位置特定部15は、追従フラグに「1」を設定する(S19)。車両位置特定部15は、追従開始時の後側方車両5の位置を設定する(S20)。後側方車両5の位置は、抽出された複数の特徴点の内、最も上に位置する特徴点、最も下に位置する特徴点、最も左に位置する特徴点、最も右に位置する特徴点を全て通る矩形エリア(以下、車両追従エリアという)で定義される。その後、ステップS35に遷移する。
ステップS17において後側方車両5の追従処理開始条件を満足しない場合(S17のN)、追従フラグの値が「1」であれば(S26のY)、ステップS27に遷移し、追従フラグの値が「0」であれば(S26のN)、ステップS35に遷移する。
ステップS14において追従フラグの値が「1」の場合(S14のY)、楕円検出部145は、前処理されたフレーム画像から、右隣車線または左隣車線に位置する後側方車両5のタイヤが映っていると推定されるエリア(以下、タイヤ探索エリアという)の画像をトリミングする(S21)。楕円検出部145はトリミングした画像を白黒の2値画像に変換する(S22)。楕円検出部145は2値化した画像から輪郭を抽出する(S23)。例えば、2値化した画像にハイパスフィルタをかけることにより輪郭を抽出する。楕円検出部145は抽出した輪郭に楕円フィッティングを施すことにより楕円を検出する(S24)。
タイヤ判定部146は、検出された楕円が後側方車両5のタイヤであるか否か判定する(S25)。例えば、次の3つの条件を全て満足する楕円をタイヤと判定する。
(1)検出された楕円の中心位置が後側方車両5のタイヤが映ると推定される位置の付近に存在すること。
(2)検出された楕円が真円では無く、バックカメラ2aのパラメータに応じた縦長の楕円であること。
(3)楕円のサイズが後側方車両5のタイヤと推定されるサイズの範囲内であること。
(2)について補足する。バックカメラ2aに広角カメラを使用している場合、バックカメラ2aで撮影された画像は、左端部分および右端部分の歪が大きくなる。この歪により、バックカメラ2aで撮影された画像の左端部分および右端部分では、車両のタイヤが真円ではなく縦長の楕円に見えるようになる。タイヤの見え方の歪み具合はカメラパラメータによって異なる。
ステップS26の処理に基づきタイヤが検出された場合(S27のY)であり、かつ、検出されたタイヤを矩形で囲んだタイヤ検出エリアと上記車両追従エリアが重なっている場合、特徴点抽出範囲設定部141は、検出したタイヤ及びその周辺に特徴点抽出範囲を設定する(S28)。特徴点抽出部142は、設定された特徴点抽出範囲から特徴点を抽出する(S29)。車両位置特定部15は上記車両追従エリアと上記タイヤ検出エリアを統合し、ステップS29で抽出された特徴点を車両追従エリアの既存の特徴点と合算させる。車両位置特定部15は統合後の矩形エリアの内、タイヤの位置から推定される後側方車両5の下半分に相当する矩形エリアを切り出し、新たな車両追従エリアに設定する。新たな車両追従エリア外の特徴点は削除され、新たな車両追従エリア内の特徴点が残される。これにより、背景や路面などの車両以外から抽出された特徴点を除去することができる。なお特徴点抽出部142は、特徴点抽出範囲設定部141により設定された特徴点抽出範囲ではなく、新たな車両追従エリア内から特徴点を抽出してもよい。
上述の説明では前輪のタイヤまたは後輪のタイヤのいずれかのみが検出されている場合を想定したが、前輪のタイヤと後輪のタイヤの両方が検出されている場合、次のように処理する。車両位置特定部15は、前輪のタイヤを矩形で囲んだ前輪タイヤ検出エリアと、後輪のタイヤを矩形で囲んだ後輪タイヤ検出エリアを矩形で囲んだ前後輪タイヤ検出エリアと、上記車両追従エリアが重なっているか否か確認する。重なっている場合、両エリアを統合する。特徴点抽出部142は前後輪タイヤ検出エリア内から特徴点を抽出する。車両位置特定部15は、抽出された特徴点を車両追従エリアの既存の特徴点と合算させる。車両位置特定部15は統合後の矩形エリアの内、タイヤの位置から推定される後側方車両5の下半分に相当する矩形エリアを切り出し、新たな車両追従エリアに設定する。新たな車両追従エリア外の特徴点は削除され、新たな車両追従エリア内の特徴点が残される。なお前後輪タイヤ検出エリアを、上記車両追従エリアと統合せずに、そのまままたは一定量拡大して新たな車両追従エリアに設定してもよい。この場合、以前の車両追従エリア内の特徴点は全て破棄される。
ステップS26の処理に基づきタイヤが検出されない場合(S27のN)、またはタイヤが検出された場合でも、タイヤ検出エリアと車両追従エリアが重なっていない場合、ステップS28及びステップS29の処理はスキップされる。
オプティカルフロー検出部143は、前フレームの車両追従エリア内の各特徴点の移動先をオプティカルフローを検出することにより、現フレーム内で追跡する(S30)。車両から抽出された複数の特徴点は本来、車両の動きに合わせて一様に同じ方向に移動する筈である。この一様な動きに反する動きをする特徴点は車両から抽出された特徴点でないと判断できる。特徴点削除部144はこの一様な動きに反する動きをする特徴点を削除する。また特徴点削除部144は移動先を見つけることができない特徴点も削除する。車両位置特定部15は、移動先の特徴点をもとに車両追従エリアの位置を更新する(S31)。
車両位置特定部15は、後側方車両5を追従可能であるか否か判定する(S32)。後側方車両5が自車両を完全に追い抜き特徴点が全て画面外に消える、追跡可能な特徴点の数が一定値以下になる、タイヤを検出できずに特徴点抽出・更新処理が一定時間以上行われない、など後側方車両5の追従が困難になった場合、追従不可能と判定する。追従不可能の場合(S32のN)、車両位置特定部15は車両追従エリアをクリアする(S33)。車両位置特定部15は追従フラグに「0」を設定する(S34)。また後側方車両検出フラグBFに「0」を設定する。ステップS32において後側方車両5を追従可能である場合(S32のY)、ステップS33及びステップS34の処理がスキップされる。
車両位置特定部15は、自車両の運転者の死角に後側方車両5が存在するか否か判定する(S35)。後側方車両検出フラグBFの値が「1」および追従フラグの値が「1」の少なくとも一方を満たしている場合、死角に後側方車両5が存在すると判定する。死角に後側方車両5が存在すると判定された場合(S35のY)、検出信号出力部16は表示部31に後側方車両5の検出信号を出力し、表示部31にアラートを表示させる。死角に後側方車両5が存在しないと判定された場合(S35のN)、ステップS39に遷移する。
検出信号出力部16は、後側方車両5が存在する方向のウインカスイッチ4がオンに操作されたことを示す操作信号をCANバスから取得すると(S37のY)、音声出力部32に後側方車両5の検出信号を出力し、音声出力部32にアラートを音声出力させる(S38)。後側方車両5が存在する方向のウインカスイッチ4がオンに操作された場合、運転者が後側方車両5の存在に気付いていないと推定できるため、音声を追加して運転者への注意喚起レベルを上げる。これにより、後側方車両5と衝突するリスクがある車線変更を運転者に思いとどまらせることが期待できる。当該操作信号を取得しない場合(S37のN)、ステップS38の処理がスキップされる。
後側方車両の検出処理が継続している間は(S39のY)、ステップS11に戻り、ステップS11〜ステップS38までの処理を繰り返す。後側方車両の検出処理が終了した場合(S39のN)、図7に係るフローチャートの処理を終了する。
図14は、バックカメラ2aにより撮影された、後側方車両5の追従開始を決定した次のフレーム画像の一例を示す図である。フレーム画像内の複数の特徴点の内、黒塗りつぶしの特徴点は現フレーム画像内でオプティカルフローにより検出された特徴点を示している。左斜め下がり斜線の特徴点は前フレーム画像(追従開始時のフレーム画像)から抽出された特徴点を示している。黒塗りつぶしの特徴点は、前フレーム画像の特徴点(左斜め下がり斜線の特徴点)の移動先の特徴点である。右斜め下がり斜線の特徴点は、特徴点全体の移動方向に逆らう動きの特徴点であり、ノイズとみなす。ノイズとみなされた特徴点は削除され、次のフレーム画像からは存在しなくなる。
図14に示す画像内には、前フレーム画像から抽出された特徴点(左斜め下がり斜線の特徴点)を矩形で囲んだ車両追従エリアA7が設定されている。次のフレーム画像では現フレーム画像内でオプティカルフローにより検出された特徴点(黒塗りつぶしの特徴点)を矩形で囲んだ車両追従エリアに更新される。
図14に示す画像の左下部には右後側方車両用のタイヤ探索範囲の加工画像A8を、右下部には左後側方車両用のタイヤ探索範囲の加工画像A9をそれぞれ重畳して表示している。後側方車両5の追従が開始すると楕円検出部145による楕円検出処理が開始する。楕円検出部145は、右後側方車両用のタイヤ探索範囲および左後側方車両用のタイヤ探索範囲内にて楕円フィッティングにより楕円を探索している。図14に示す画像は、楕円が検出されていない状態を示している。
図15は、バックカメラ2aにより撮影された、後側方車両5の追従開始後の画像の一例(その1)を示す図である。右後側方車両のタイヤ探索範囲の加工画像A8に示すように、後側方車両5の前輪タイヤ51が楕円フィッティングにより検出されている。後側方車両5の前輪タイヤ51を矩形で囲んだ前輪タイヤ検出エリアA11が設定される。
図16は、バックカメラ2aにより撮影された、後側方車両5の追従開始後の画像の一例(その2)を示す図である。図16に示す画像は、後側方車両5が自車両に接近し、後側方車両5の前の部分が画像の外側に切れている。右後側方車両のタイヤ探索範囲の加工画像A8に示すように、後側方車両5の後輪タイヤ52が楕円フィッティングにより検出されている。後側方車両5の後輪タイヤ52を矩形で囲んだ後輪タイヤ検出エリアA12が設定される。図16に示す画像では、後輪タイヤ52及びその近傍以外の特徴点が既に削除されているため、車両追従エリアA7のサイズが小さくなっている。
図17は、バックカメラ2aにより撮影された、後側方車両5の追従開始後の画像の一例(その3)を示す図である。右後側方車両のタイヤ探索範囲の加工画像A8に示すように、後側方車両5の前輪タイヤ51と後輪タイヤ52の両方が楕円フィッティングにより検出されている。後側方車両5の前輪タイヤ51と後輪タイヤ52を矩形で囲んだ前後輪タイヤ検出エリアA13が設定される。後側方車両5に続く別の後側方車両5aが車両検出エリアA1内において車両正面の識別器で検出され、検出枠A2aで囲われている。
図18は、バックカメラ2aにより撮影された、後側方車両5の追従開始後の画像の一例(その4)を示す図である。図18に示す画像は、楕円検出部145により楕円が検出されていない状態の画像である。楕円が検出されていない状態では、オプティカルフローによる特徴点の追従と車両追従エリアA7の更新が実行される。
図19は、バックカメラ2aにより撮影された、後側方車両5の追従開始後の画像の一例(その5)を示す図である。図19に示す画像は、後側方車両5が自車両に接近し、後側方車両5の大部分がバックカメラ2aの画角から外れた画像である。
図20は、バックカメラ2aにより撮影された、後側方車両5の追従開始後の画像の一例(その6)を示す図である。図20に示す画像は、後側方車両5が自車両に接近し、後側方車両5がバックカメラ2aの画角から完全に消える直前の画像である。この状態では特徴点の数が一定値を下回っており、追従不可能と判断される。従って運転者へのアラート通知も終了する。運転者は目視により接近中の車両を確認する。
以上説明したように本実施の形態によれば、1台のバックカメラを設置し、車両正面の識別器を使用した後側方車両の画像認識処理と、オプティカルフローを使用した後側方車両の画像認識処理を併用することにより、コストを抑えつつ後側方車両を高精度に検出することができる。即ち、2台のカメラを使用する場合と比較してコストを抑えることができる。
また1台のバックカメラで撮影される画像内に映る後側方車両は、自車両との距離に応じて見え方が大きく変化する。従って、後側方車両を識別器だけで検出しようとすると、複数種類の識別器との照合を絶えず実行する必要があり演算量が増加し、ハードウェアコストが上昇する。そこで本実施の形態では画像内において正面を向いた後側方車両を識別器で検出し、斜め向きまたは横向きの後側方車両をオプティカルフローを用いた追従処理で検出する。これにより、識別器を使用した後側方車両の画像認識処理の演算量を抑えることができる。オプティカルフローを使用した後側方車両の画像認識処理の演算量を加味しても、後側方車両を識別器だけで検出する場合より演算量を低減できる。
オプティカルフローは、(n−1)番目のフレーム画像の特徴点がn番目のフレーム画像において、どこに移動したのかを求める処理である。オプティカルフローを用いて長時間、車両の追従処理を続けていると、時間の経過とともにその信頼度が低下していく。例えば、最初は車両の特徴点をうまく追従していても、いつの間にか、背景の特徴点を追従していることがある。また特徴点の移動先が正しく求められずに、追従できる特徴点の数が減ってくる。よって、オプティカルフロー検出開始直後の車両追従エリアは信頼性が高いが、検出開始から長時間が経過した後の車両追従エリアは信頼性が下がる。
そこで本実施の形態では、上述したタイヤ検出処理を追加している。タイヤ検出処理では、タイヤ及びその周辺領域の特徴点を抽出して車両の特徴点に追加する。これにより、車両の特徴点が更新され、オプティカルフローによる追従処理の精度が維持される。タイヤの周辺には基本的に路面以外の背景が映らないため、背景から誤った特徴点を抽出する可能性が低下する。路面が舗装道路である場合、変化の少ない絵になるため路面からは特徴点が抽出されにくい。従ってタイヤ及びその周辺領域から特徴点を抽出すれば、ノイズを特徴点として抽出する可能性を低減できる。
また縦長楕円を検出してタイヤを検出することにより、タイヤの検出精度を向上させることができる。上述のようにカメラの歪により、歪んだ状態で映っているタイヤを的確に検出できる。また車両のヘッドライトを誤ってタイヤと判定することを防止できる。ヘッドライトは横長の楕円であるため、縦長楕円を検出することにより、ヘッドライトをタイヤと誤検出することを防止できる。
以上、本発明を実施の形態をもとに説明した。この実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
上記図7のフローチャートでは、タイヤが検出されたフレーム画像の全てにおいて、特徴点を追加する処理を説明した。この点、前回特徴点を追加したフレームから所定のフレーム間隔(例えば、3フレーム)が空いていない場合、タイヤが検出されても特徴点を追加しない制御を採用してもよい。タイヤの検出中、全てのフレーム画像に特徴点を追加し続けると、前のフレーム画像のオプティカルフローによる移動後の特徴点と、現フレーム画像の特徴点の重複が多くなる。特徴点を追加するフレームの間隔を空けることにより、特徴点の重複を減らすことができる。
また上述の実施の形態の説明では1台のバックカメラを使用する形態を想定したが、複数台のカメラを使用する形態を排除するものではない。例えば、車両後部の両側に右後側方を撮影するためのカメラと左後側方を撮影するためのカメラを2台設置した場合でも、それぞれのカメラの画角や向きにより、後側方車両の見え方が上述の実施の形態で示した例と類似する見え方となる場合がある。その場合、上述の実施の形態に係る技術を使用することにより、カメラのコスト以外の効果を享受することができる。
1 車両、 2 撮像装置、 2a バックカメラ、 3 ユーザインタフェース、 31 表示部、 32 音声出力部、 4 ウインカスイッチ、 5 後側方車両、 10 車両検出装置、 11 画像取得部、 12 前処理部、 13 第1画像認識部、 131 特徴量算出部、 132 探索部、 133 辞書データ保持部、 14 第2画像認識部、 141 特徴点抽出範囲設定部、 142 特徴点抽出部、 143 オプティカルフロー検出部、 144 特徴点削除部、 145 楕円検出部、 146 タイヤ判定部、 15 車両位置特定部、 16 検出信号出力部。

Claims (7)

  1. 車両に取り付けられ、当該車両の後側方を撮影可能な撮像装置から入力される画像を取得する画像取得部と、
    取得された画像内における後側方に位置する車両を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両を検出する第1画像認識部と、
    前記画像取得部により取得された画像内において、前記第1画像認識部により検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両を追従する第2画像認識部と、
    前記第1画像認識部および前記第2画像認識部により画像内から後側方に位置する車両が検出されると、後側方に車両が存在することを運転者に通知するためのユーザインタフェースに、後側方に車両が検出されたことを示す検出信号を出力する検出信号出力部と、
    を備え
    前記第2画像認識部は、前記画像取得部により取得された画像内において、前記撮像装置のパラメータに応じた縦長の楕円を検出することにより、追従している車両のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両の特徴点に追加することを特徴とする車両検出装置。
  2. 前記第2画像認識部は、オプティカルフローを検出している特徴点の内、前記車両の移動方向に対応しない特徴点を、前記車両の特徴点から削除することを特徴とする請求項1に記載の車両検出装置。
  3. 前記第2画像認識部は、前記画像取得部により取得された画像内において、追従している車両の前輪のタイヤと後輪のタイヤの両方を検出できたとき、前記前輪のタイヤ及びその周辺領域、前記後輪のタイヤ及びその周辺領域、並びに前記前輪の周辺領域と前記後輪の周辺領域の間の領域の特徴点を抽出し、前記車両の特徴点に追加することを特徴とする請求項1または2に記載の車両検出装置。
  4. 前記撮像装置は、車両の右後側方および左後側方を撮影可能な1台の撮像装置であることを特徴とする請求項1からのいずれかに記載の車両検出装置。
  5. 車両に取り付けられ、当該車両の後側方を撮影可能な撮像装置と、
    前記撮像装置と接続された車両検出装置と、を備え、
    前記車両検出装置は、
    前記撮像装置から入力される画像を取得する画像取得部と、
    取得された画像内における後側方に位置する車両を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両を検出する第1画像認識部と、
    前記画像取得部により取得された画像内において、前記第1画像認識部により検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両を追従する第2画像認識部と、
    前記第1画像認識部および前記第2画像認識部により画像内から後側方に位置する車両が検出されると、後側方に車両が存在することを運転者に通知するためのユーザインタフェースに、後側方に車両が検出されたことを示す検出信号を出力する検出信号出力部と、
    を含み、
    前記第2画像認識部は、前記画像取得部により取得された画像内において、前記撮像装置のパラメータに応じた縦長の楕円を検出することにより、追従している車両のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両の特徴点に追加することを特徴とする車両検出システム。
  6. 車両検出装置が実行する車両検出方法であって、
    画像取得部が、車両に取り付けられ、当該車両の後側方を撮影可能な撮像装置から入力される画像を取得する第1ステップと、
    第1画像認識部が、取得された画像内における後側方に位置する車両を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両を検出する第2ステップと、
    第2画像認識部が、取得された画像内において、前記第2ステップにより検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両を追従する第3ステップと、
    前記第2ステップおよび前記第3ステップにより画像内から後側方に位置する車両が検出されると、検出信号出力部が、後側方に車両が存在することを運転者に通知するためのユーザインタフェースに、後側方に車両が検出されたことを示す検出信号を出力する第4ステップと、
    を有し、
    前記第3ステップは、前記第1ステップにより取得された画像内において、前記撮像装置のパラメータに応じた縦長の楕円を検出することにより、追従している車両のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両の特徴点に追加することを特徴とする車両検出方法。
  7. 車両に取り付けられ、当該車両の後側方を撮影可能な撮像装置から入力される画像を取得する第1処理と、
    取得された画像内における後側方に位置する車両を検出するためのエリアを、車両の正面を検出するための識別器を用いて探索し、当該エリア内から車両を検出する第2処理と、
    取得された画像内において、前記第2処理により検出された車両が存在する、または存在すると推定されるエリア内から複数の特徴点を抽出し、当該特徴点のオプティカルフローを検出して、検出されたオプティカルフローを利用して、前記画像内の前記車両を追従する第3処理と、
    前記第2処理および前記第3処理により画像内から後側方に位置する車両が検出されると、後側方に車両が存在することを運転者に通知するためのユーザインタフェースに、後側方に車両が検出されたことを示す検出信号を出力する第4処理と、
    をコンピュータに実行させ
    前記第3処理は、前記第1処理により取得された画像内において、前記撮像装置のパラメータに応じた縦長の楕円を検出することにより、追従している車両のタイヤを検出し、検出したタイヤ及びその周辺領域の特徴点を抽出し、前記車両の特徴点に追加することを特徴とする車両検出プログラム。
JP2015162892A 2015-08-20 2015-08-20 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム Active JP6569385B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015162892A JP6569385B2 (ja) 2015-08-20 2015-08-20 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム
PCT/JP2016/066457 WO2017029858A1 (ja) 2015-08-20 2016-06-02 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム
US15/848,191 US20180114078A1 (en) 2015-08-20 2017-12-20 Vehicle detection device, vehicle detection system, and vehicle detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015162892A JP6569385B2 (ja) 2015-08-20 2015-08-20 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム

Publications (2)

Publication Number Publication Date
JP2017041132A JP2017041132A (ja) 2017-02-23
JP6569385B2 true JP6569385B2 (ja) 2019-09-04

Family

ID=58050755

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015162892A Active JP6569385B2 (ja) 2015-08-20 2015-08-20 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム

Country Status (3)

Country Link
US (1) US20180114078A1 (ja)
JP (1) JP6569385B2 (ja)
WO (1) WO2017029858A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6938903B2 (ja) * 2016-12-14 2021-09-22 株式会社デンソー 車両における衝突回避装置および衝突回避方法
DE102018209306A1 (de) * 2018-06-12 2019-12-12 Conti Temic Microelectronic Gmbh Verfahren zur Detektion von Kennleuchten
CN111127541B (zh) * 2018-10-12 2024-02-27 杭州海康威视数字技术股份有限公司 车辆尺寸的确定方法、装置及存储介质
US11475576B2 (en) * 2018-12-07 2022-10-18 Thinkware Corporation Method for detecting vehicle and device for executing the same
JP7161981B2 (ja) * 2019-09-24 2022-10-27 Kddi株式会社 対象追跡手段の切り替えが可能な対象追跡プログラム、装置及び方法
US11680813B2 (en) 2020-01-21 2023-06-20 Thinkware Corporation Method, apparatus, electronic device, computer program, and computer readable recording medium for measuring inter-vehicle distance based on vehicle image
JP7304334B2 (ja) * 2020-12-03 2023-07-06 本田技研工業株式会社 車両制御装置、車両制御方法、およびプログラム
JP2022122498A (ja) * 2021-02-10 2022-08-23 富士通株式会社 移動履歴変更方法及び移動履歴変更プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6618672B2 (en) * 1998-10-21 2003-09-09 Yazaki Corporation Vehicle-applied rear-and-side monitoring system
JP4398533B2 (ja) * 1999-03-12 2010-01-13 富士通株式会社 画像追跡装置及び記録媒体
US20020175997A1 (en) * 2001-05-22 2002-11-28 Matsushita Electric Industrial Co., Ltd. Surveillance recording device and method
JP2004227293A (ja) * 2003-01-23 2004-08-12 Nissan Motor Co Ltd 側方車両検出装置
KR100630088B1 (ko) * 2004-12-28 2006-09-27 삼성전자주식회사 옵티컬 플로우를 이용한 차량 감시 장치 및 방법
JP4575315B2 (ja) * 2006-02-27 2010-11-04 株式会社東芝 物体検出装置及びその方法
JP5355209B2 (ja) * 2009-05-01 2013-11-27 アルパイン株式会社 ナビゲーション装置、自車の走行車線の判定方法および判定プログラム

Also Published As

Publication number Publication date
JP2017041132A (ja) 2017-02-23
US20180114078A1 (en) 2018-04-26
WO2017029858A1 (ja) 2017-02-23

Similar Documents

Publication Publication Date Title
JP6569385B2 (ja) 車両検出装置、車両検出システム、車両検出方法、及び車両検出プログラム
US10380434B2 (en) Vehicle detection system and method
EP2698778B1 (en) Driving assistance device and adjacent vehicle detection method therefor
CN109409186B (zh) 用于对象检测和通知的驾驶员辅助系统和方法
JP2016148962A (ja) 物体検知装置
JP4528283B2 (ja) 車両周辺監視装置
WO2018020722A1 (ja) 画像処理装置および画像処理方法
JP6188592B2 (ja) 物体検出装置、物体検出方法、および物体検出プログラム
JP2005309797A (ja) 歩行者警報装置
JP6795224B2 (ja) 移動体検知装置、移動体検知方法、及びプログラム
WO2016059643A1 (en) System and method for pedestrian detection
WO2017208601A1 (ja) 画像処理装置、外界認識装置
US20120056995A1 (en) Method and Apparatus for Stereo-Based Proximity Warning System for Vehicle Safety
JP4887537B2 (ja) 車両周辺監視装置
JP2018106239A (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JPH0973529A (ja) 二輪車監視装置
JP2010093569A (ja) 車両周辺監視装置
JP6087240B2 (ja) 車両周辺監視装置
JP2012103748A (ja) 道路区画線認識装置
JP5587068B2 (ja) 運転支援装置及び方法
JP3226699B2 (ja) 車両用周辺監視装置
JP2009193130A (ja) 車両周辺監視装置、車両、車両周辺監視用プログラム、車両周辺監視方法
JP2018073049A (ja) 画像認識装置、画像認識システム、及び画像認識方法
KR20180061695A (ko) 휠 검출을 통한 차량 옆면 인식 방법 및 장치
JP4598011B2 (ja) 車両用表示装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190514

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190604

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190709

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6569385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150