JPWO2017130285A1 - 車両判定装置、車両判定方法及び車両判定プログラム - Google Patents

車両判定装置、車両判定方法及び車両判定プログラム Download PDF

Info

Publication number
JPWO2017130285A1
JPWO2017130285A1 JP2016550877A JP2016550877A JPWO2017130285A1 JP WO2017130285 A1 JPWO2017130285 A1 JP WO2017130285A1 JP 2016550877 A JP2016550877 A JP 2016550877A JP 2016550877 A JP2016550877 A JP 2016550877A JP WO2017130285 A1 JPWO2017130285 A1 JP WO2017130285A1
Authority
JP
Japan
Prior art keywords
vehicle
lane
feature amount
image
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016550877A
Other languages
English (en)
Other versions
JP6038422B1 (ja
Inventor
長谷川 雄史
雄史 長谷川
雅浩 虻川
雅浩 虻川
明 平田
明 平田
道学 吉田
道学 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6038422B1 publication Critical patent/JP6038422B1/ja
Publication of JPWO2017130285A1 publication Critical patent/JPWO2017130285A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/056Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24143Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

方向特定部(21)は、カメラ(31)で撮影された画像情報(42)が示す領域の部分領域について、部分領域を周囲車両が走行する走行方向を特定する。特徴量取得部(22)は、特定された走行方向に応じた参照画像から計算された特徴量である参照特徴量(41)を取得する。車両判定部(23)は、部分領域についての画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と取得された参照特徴量(41)とを比較することにより、部分領域に周囲車両が存在するか否かを判定する。

Description

本発明は、カメラで撮影された画像情報から道路上の車両を認識する技術に関する。
自動ブレーキ及びACC(Adaptive Cruise Control)といった先進運転支援システム(ADAS:Advanced Driver Assistance System)が一般市場で販売されている。また自動運転システムの研究開発も進んでおり、自動運転車両の公道試験が実施されている。
先進運転支援システムが搭載された車両及び自動運転車両では、車載カメラで車両周囲を撮影して得られた撮影画像から車両周囲に存在する周囲車両を画像認識して検出するものがある。
画像認識処理による周囲車両の検出方法としては、予め様々な車両の画像情報を参照画像として大量にデータベースに蓄積しておき、その参照画像と撮影画像とのパターンマッチング処理をする方法がある。
パターンマッチング処理としては、参照画像と撮影画像とからHoG(Histograms of Oriented Gradients)特徴量を算出し、SVM(Support Vector Machine)を使用して、撮影画像に車両が撮影されているか否かを判定する手法がある。また、パターンマッチング処理としては、他にも、車両の特徴を表す特徴量マップに類似する撮影画像領域をCNN(Convolutional Neural Network)により検出する手法がある。
なお、データベースの参照画像としては、車両を撮影した画像情報である正解画像と車両を撮影していない画像情報である不正解画像とが用いられる。
画像認識処理によって、撮影された画像情報に含まれる車両の画像領域を検出することにより、車両周囲に存在する周囲車両の位置も検知可能である。この検知結果を用いることで、自動ブレーキ及びACCといった先進運転支援システムと、自動運転車両の進行ルートの決定といった処理を実現できる。
画像認識処理の計算量は多い。そのため、安価な画像処理装置を使用すると画像処理速度が低下し、先進運転支援システム及び自動運転システムといったリアルタイム性が求められるシステムへの適用は困難になる。
また、走行環境によっては、撮影画像に周囲車両が撮影されていても周囲車両を検出しない場合と、反対に周囲車両が撮影されていなくても周囲車両として誤検出する場合とがある。特に、車両の車載カメラと周囲車両との相対位置によって、周囲車両が撮影される方向に違いが生じる。そのため、撮影画像に写る周囲車両の画像情報は大きく変化し、周囲車両の画像認識処理の検出率は低下してしまう。
このように走行環境及び撮影環境によって、周囲車両の検出精度は低くなるため、運転手がミスした時の補助としての自動ブレーキと、渋滞時の運転手の負担を軽減するACCと等は製品化されているが、自動運転車両の製品化までには至っていない。自動運転車両の製品化はもちろん、自動車の安全性を高めるためにも、今まで以上に周囲車両の検出精度が高く、計算量の少ない画像認識技術が望まれている。
特許文献1には、車両と周囲車両との相対角度である斜行度合いを判定し、斜行度の高低によって、周囲車両の画像認識アルゴリズムを切り替え、撮影画像から周囲車両を検出することが記載されている。具体的には、特許文献1では、斜行度合いが低い場合にはパターンマッチング処理により周囲車両が検出され、斜行度合いが高い場合にはオプティカルフロー処理により周囲車両が検出される。つまり、特許文献1では、車両と周囲車両との斜行度合いが高く、前方から撮影された参照画像と、撮影された撮影画像とに大きな違いが生じる場合には、参照画像を使用せずにオプティカルフロー処理により、周囲車両を検出する。
特開2013−161202号公報
オプティカルフロー処理では、周囲車両の車種の識別と、車両と車両以外の移動物体との識別とが困難になる。そのため、特許文献1に記載された技術では、斜行度合いが高い場合には、周囲車両の車種等を認識できなくなってしまう。
この発明は、カメラで撮影した画像情報から周囲車両を高速かつ精度よく検出可能にすることを目的とする。
この発明に係る車両判定装置は、
カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定する方向特定部と、
前記方向特定部によって特定された走行方向に応じた参照画像から計算された画像特徴量を取得する特徴量取得部と、
前記部分領域についての前記画像情報の画像特徴量を計算し、計算された画像特徴量と前記特徴量取得部によって取得された画像特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定部と
を備える。
この発明では、処理対象となる部分領域を周囲車両が走行する走行方向に応じた参照画像を用いて、部分領域に周囲車両が存在するか否かを判定する。これにより、使用する参照画像の数を減らすことにより高速に処理可能になる。また、適切な参照画像が用いられるため、周囲車両を精度よく検出可能になる。
実施の形態1に係る車両判定装置10の構成図。 実施の形態1に係る周囲車両200の走行状態を示す図。 実施の形態1に係る図2に示す状況において得られる画像情報42を示す図。 実施の形態1に係る参照特徴量41の説明図。 実施の形態1に係るストレージ122に記憶される参照特徴量41の説明図。 実施の形態1に係る車両判定装置10の動作を示すフローチャート。 実施の形態1に係る部分領域61の選択方法の説明図。 実施の形態1に係る部分領域61の領域の判定方法の説明図。 実施の形態1に係る重複領域を狭める方法の説明図。 実施の形態1に係る特徴量の類似判定の説明図。 変形例1に係る車両判定装置10の構成図。 実施の形態2に係る車両判定装置10の構成図。 実施の形態2に係る周囲車両200の走行状態を示す図。 実施の形態2に係る周囲車両200の走行状態を示す図。 実施の形態2に係る図13に示す状況において得られる画像情報42を示す図。 実施の形態2に係る図14に示す状況において得られる画像情報42を示す図。 実施の形態2に係る車両判定装置10の動作を示すフローチャート。 実施の形態2に係る車両100の走行車線の特定方法の説明図。 実施の形態2に係る部分領域61の選択方法の説明図。 実施の形態2に係る部分領域61の選択方法の説明図。 実施の形態2に係る特徴量の類似判定の説明図。 変形例3に係る車両判定装置10の構成図。 変形例3に係る車両判定装置10の動作を示すフローチャート。 変形例3に係る車両100の走行車線の特定方法の説明図。 変形例3に係る車両100の走行車線の特定方法の説明図。 実施の形態3に係る車両判定装置10の構成図。 実施の形態3に係る周囲車両200の走行状態を示す図。 実施の形態3に係るストレージ122に記憶される参照特徴量41の説明図。 実施の形態3に係る車両判定装置10の動作を示すフローチャート。 変形例5に係る周囲車両200の走行状態を示す図。 実施の形態4に係る車両判定装置10の構成図。 実施の形態4に係る周囲車両200の走行状態を示す図。 実施の形態4に係る図32に示す状況において得られる画像情報42を示す図。 実施の形態4に係る参照特徴量41の説明図。 実施の形態4に係るストレージ122に記憶される参照特徴量41の説明図。 実施の形態4に係る車両判定装置10の動作を示すフローチャート。 実施の形態4に係る遮蔽領域47の有無の判定方法の説明図。
実施の形態1.
***構成の説明***
図1を参照して、実施の形態1に係る車両判定装置10の構成を説明する。
車両判定装置10は、車両100に搭載されるコンピュータである。車両判定装置10は、車両制御インタフェース321を介して、車両100に搭載された車両制御ユニット32に接続される。
車両判定装置10は、プロセッサ11と、記憶装置12と、カメラインタフェース13とを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
プロセッサ11は、プロセッシングを行うIC(Integrated Circuit)である。プロセッサ11は、具体例としては、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。
記憶装置12は、メモリ121と、ストレージ122とを備える。メモリ121は、具体例としては、RAM(Random Access Memory)である。ストレージ122は、具体例としては、ROM(Read Only Memory)である。ストレージ122は、HDD(Hard Disk Drive)であってもよい。また、ストレージ122は、SD(Secure Digital)メモリカード、CF(CompactFlash)、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体であってもよい。
カメラインタフェース13は、車両100に搭載された、車両100の周囲を撮影するカメラ31を接続する装置である。具体例としては、カメラインタフェース13は、カメラ31を接続するインタフェース基板である。出力コネクタに合わせてカメラインタフェース13を変更することにより、様々な種類のカメラ31を車両判定装置10に接続することができる。
車両判定装置10は、機能構成要素として、方向特定部21と、特徴取得部22と、車両判定部23とを備える。方向特定部21と、特徴取得部22と、車両判定部23との各部の機能はソフトウェアにより実現される。
記憶装置12のストレージ122には、車両判定装置10の各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ121に読み込まれ、プロセッサ11によって実行される。これにより、車両判定装置10の各部の機能が実現される。また、記憶装置12のストレージ122には、特徴取得部22によって使用される参照特徴量41が記憶されている。なお、参照特徴量41は外部のサーバに記憶されるものであってもよい。
プロセッサ11によって実現される各部の機能の処理の結果を示す情報とデータと信号値と変数値は、メモリ121、又は、プロセッサ11内のレジスタ又はキャッシュメモリに記憶される。以下の説明では、プロセッサ11によって実現される各部の機能の処理の結果を示す情報とデータと信号値と変数値は、メモリ121に記憶されるものとする。
プロセッサ11によって実現される各機能を実現するプログラムは、記憶装置12に記憶されているとした。しかし、このプログラムは、磁気ディスク、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬記憶媒体に記憶されてもよい。
図1では、プロセッサ11は、1つだけ示されていた。しかし、プロセッサ11は、複数であってもよく、複数のプロセッサ11が、各機能を実現するプログラムを連携して実行してもよい。
車両制御ユニット32は、車両100に搭載されるコンピュータである。
車両制御ユニット32は、車両制御インタフェース321と、センサECU(Electronic Control Unit)322と、車両ECU323とを備える。
車両制御インタフェース321は、車両判定装置10といった他の装置と接続するためのインタフェースである。
センサECU322は、速度センサ、加速度センサ、ジャイロセンサ、レーザセンサ、ミリ波センサといった各種センサが接続され、各種センサから情報を取得する装置である。
車両ECU323は、車両100のブレーキ、アクセル、ハンドルといった車両100を制御する各種制御機器に接続される。車両ECU323は、センサECU322によって各種センサから取得された情報と、車両制御インタフェース321を介して接続された外部の装置から送信された情報とに基づき、各種制御機器を制御して、車両100の動作を制御する。
***動作の説明***
図2から図10を参照して、実施の形態1に係る車両判定装置10の動作を説明する。
実施の形態1に係る車両判定装置10の動作は、実施の形態1に係る車両判定方法に相当する。また、実施の形態1に係る車両判定装置10の動作は、実施の形態1に係る車両判定プログラムの処理に相当する。
以下の説明では、左側通行の場合を例として説明する。右側通行の場合は、左右逆に考えればよい。
図2及び図3を参照して、実施の形態1に係る車両判定装置10の動作の概要を説明する。
図2では、車両100の周囲の道路50を走行する周囲車両200として、車両100が走行する車線と同じ進行方向の並走車線51を走行する周囲車両200Aと、車両100が走行する車線と対向する進行方向の対向車線52を走行する周囲車両200Bとが存在する。図2に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図3に示すような画像情報42が得られる。つまり、並走車線51を走行する周囲車両200Aが後方から撮影され、対向車線52を走行する周囲車両200Bが前方から撮影された画像情報42が得られる。
周囲車両200が前方から撮影された場合と、後方から撮影された場合とでは、画像は大きく異なる。つまり、周囲車両200の走行方向によって、カメラ31で撮影された場合に得られる周囲車両200の画像は異なる。画像が異なると、その画像から計算される特徴量も異なる。
そこで、車両判定装置10は、周囲車両200が撮影される撮影方向毎に、参照特徴量41を記憶しておく。そして、車両判定装置10は、画像情報42が示す領域の各部分領域61について、処理対象の部分領域61における周囲車両200の走行方向を特定して、特定された走行方向に対応する参照特徴量41を用いて、処理対象の部分領域61に周囲車両200が存在するか否かを判定する。
図4及び図5を参照して、実施の形態1に係る参照特徴量41を説明する。
参照特徴量41は、対象とする撮影方向に対応する参照画像を用いて計算される。図4では、車両後方から撮影された参照画像を用いて車両後方の参照特徴量41Aが計算され、車両前方から撮影された参照画像を用いて車両前方の参照特徴量41Bが計算される。当然のことながら、車両後方から撮影された参照画像は車両後部の画像情報であり、車両前方から撮影された参照画像は車両前部の画像情報である。撮影方向によって分類された参照画像を使用して特徴量を計算することで、車両後部の画像に特化した参照特徴量41Aと車両前部の画像に特化した参照特徴量41Bとが計算される。
各々の撮影方向に対応する参照特徴量41は、図5に示すように各々の撮影方向に対応付けられてストレージ122に記憶される。
ここでは、車両後部の画像に特化した参照特徴量41Aと車両前部の画像に特化した参照特徴量41Bとが計算された。
参照特徴量41Aが計算される場合には、車両の真後ろの画像だけでなく、左斜め後部の画像、右斜め後部の画像、左側部の画像、右側部の画像が含まれてもよい。また、参照特徴量41Bが計算される場合には、車両の正面の画像だけでなく、右斜め前部の画像、右側部の画像が含まれてもよい。なお、ここでは、左側通行を想定しているため、対向車線は車両100の右側となる。そのため、参照特徴量41Bが計算される場合には、車両の左側の画像が用いられていない。
図6を参照して、実施の形態1に係る車両判定装置10の動作を詳細に説明する。
実施の形態1では、図6に示す処理は、一定時間毎に繰り返し実行される。なお、図6に示す処理は、イベントの発生に応じて実行されてもよい。
ステップS101の撮影画像取得処理では、方向特定部21は、カメラ31によって車両100の前方が撮影された画像情報42を、カメラインタフェース13を介して取得する。方向特定部21は、取得された画像情報42をメモリ121に書き込む。
ステップS102の領域選択処理では、方向特定部21は、ステップS101で取得された画像情報42が示す領域の部分領域61を選択する。
図7を参照して具体的に説明する。方向特定部21は、画像情報42をメモリ121から読み出し、読み出された画像情報42の左上から右下まで、任意のサイズの部分領域61を順に選択する。実施の形態1では、方向特定部21は、横30画素×縦30画素の正方形の領域を部分領域61とし、横5画素×縦5画素を1つのセル62とする。そして、方向特定部21は、画像情報42の左上から右下まで、1セルずつずらして部分領域61を順に選択する。例えば、参照特徴量41の画像解像度が横1980×縦1200であれば、5画素ずつずらして部分領域61が抽出されるので、391(=(1980−30)/5+1)×235(=(1200−30)/5+1)個の部分領域61が順に選択される。方向特定部21は、選択された部分領域61をメモリ121に書き込む。
ステップS103の方向特定処理では、方向特定部21は、ステップS102で選択された部分領域61を周囲車両200が走行する走行方向を特定する。
具体的には、方向特定部21は、部分領域61をメモリ121から読み出し、読み出された部分領域61が、並走車線51の領域であるか、対向車線52の領域であるかを判定する。そして、方向特定部21は、部分領域61が並走車線51の領域であれば、周囲車両200の走行方向は、車両100と同じ方向であると特定する。また、方向特定部21は、部分領域61が対向車線52の領域であれば、周囲車両200の走行方向は、車両100と対向する方向であると特定する。方向特定部21は、特定された走行方向を示す方向情報43をメモリ121に書き込む。
図8を参照して、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるかを判定する方法を説明する。
車両100の前方を撮影するカメラ31では、左側通行の場合、並走車線51は画像情報42の左側となり、対向車線52は画像情報42の右側となる。そこで、方向特定部21は、画像情報42の左端から中央位置又は中央位置よりも少し右側の位置までを並走車線51とし、画像情報42の右端から中央位置又は中央位置よりも少し左側の位置までを対向車線52とする。
図8では、方向特定部21は、画像情報42の左端から中央位置よりも少し右側の位置までを並走車線51とし、画像情報42の右端から中央位置よりも少し左側の位置までを対向車線52としている。そのため、図8では、画像情報42の中央部分に、並走車線51及び対向車線52の両方に含まれる重複領域がある。このように、重複領域を設けるのは、車両100の走行位置に応じて、画像情報42内の並走車線51の領域と対向車線52の領域との位置が変化する場合があるためである。
方向特定部21は、部分領域61が並走車線51の領域と対向車線52の領域とのどちらを含むかによって、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるかを判定する。なお、部分領域61が並走車線51の領域と対向車線52の領域との両方を含む場合、部分領域61が並走車線51及び対向車線52の両方の領域であると判定する。
つまり、図8を参照して説明した方法では、方向特定部21は、画像情報42が示す領域における部分領域61の位置により、走行方向を特定することになる。
図9を参照して、重複領域を狭める方法を説明する。
後述する処理で車両判定部23により、並走車線51を走行する周囲車両200が検出されていたとする。この場合、周囲車両200が検出された領域は、並走車線51であり、対向車線52ではないと推定される。そこで、方向特定部21は、並走車線51を走行する周囲車両200が検出された場合には、画像情報42の右端から周囲車両200が検出された領域の右端までを対向車線52とする。これにより、対向車線52の領域が縮小し、重複領域が狭まる。
同様に、方向特定部21は、対向車線52を走行する周囲車両200が検出された場合には、画像情報42の左端から周囲車両200が検出された領域の左端までを並走車線51とする。これにより、並走車線51の領域が縮小し、重複領域が狭まる。
つまり、図9を参照して説明した方法では、方向特定部21は、画像情報42が示す領域における部分領域61の位置と、過去に車両判定部23によって周囲車両200が存在すると判定された部分領域61の位置とにより、走行方向を特定することになる。
ステップS104の特徴量取得処理では、特徴取得部22は、ステップS103で特定された周囲車両200の走行方向に応じた参照特徴量41を取得する。
具体的には、特徴取得部22は、周囲車両200の走行方向が車両100と同じ方向であると特定された場合には、車両100と同じ方向に対応する参照特徴量41を取得する。つまり、特徴取得部22は、車両後部の参照特徴量41Aをストレージ122から読み出す。一方、特徴取得部22は、周囲車両200の走行方向が車両100と対向する方向であると特定された場合には、車両100と対向する方向に対応する参照特徴量41を取得する。つまり、特徴取得部22は、車両前部の参照特徴量41Bをストレージ122から読み出す。そして、特徴取得部22は、読み出された参照特徴量41をメモリ121に書き込む。
ステップS105の特徴量計算処理では、車両判定部23は、ステップS102で選択された部分領域61の特徴量である画像特徴量を計算する。
具体的には、実施の形態1では、車両判定部23は、部分領域61のHOG特徴量を画像特徴量として計算する。まず、車両判定部23は、部分領域61を構成する各セル62に対して、輝度勾配強度値及び輝度勾配方向を計算する。次に、車両判定部23は、計算された輝度勾配方向を9方向に分割し、各方向に対する輝度勾配強度値のヒストグラムを作成する。最後に、車両判定部23は、各セル62のヒストグラムの全てを部分領域61の画像特徴量とする。車両判定部23は、計算された画像特徴量をメモリ121に書き込む。
ここで、部分領域61の画像特徴量は、1つのセル62で9方向の輝度勾配強度値があり、1つの部分領域61を構成するセル62が36個であるため、合計で324(=9×36)次元の画像特徴量となる。
なお、ストレージ122に記憶された参照特徴量41は、車両方向によって分類した参照画像を用いて、画像特徴量と同様に計算されたものである。予め計算された参照特徴量41が記憶されていてもよいし、画像情報42に基づき更新するように構成してもよい。
ここでは、画像特徴量及び参照特徴量41として、HOG特徴量が計算された。しかし、画像特徴量及び参照特徴量41として他の特徴量が計算されてもよい。
ステップS106の車両判定処理では、車両判定部23は、ステップS104で取得された参照特徴量41と、ステップS105で計算された画像特徴量とを比較し、類似するか否かを判定する。
具体的には、車両判定部23は、ステップS104でストレージ122から参照特徴量41を読み出し、ステップS105で計算された画像特徴量をメモリ121から読み出す。実施の形態1では、車両判定部23は、読み出された参照特徴量41と画像特徴量とを、SVMにより比較し、類似度が計算される。そして、車両判定部23は、類似度が閾値よりも高いか否かにより類似するか否かを判定する。
車両判定部23は、類似すると判定された場合には、処理をステップS107に進める。一方、車両判定部23は、類似しないと判定された場合には、処理をステップS108に進める。
ここでは、特徴量の類似判定に、SVMが用いられた。しかし、特徴量の類似判定に他の方法が用いられてもよい。
つまり、図10に示すように、部分領域61が並走車線51の画像領域である場合には、車両後部の参照特徴量41Aを用いて判定される。部分領域61が対向車線52の画像領域である場合には、車両前部の参照特徴量41Bを用いて判定される。部分領域61が重複領域である場合には、車両後部の参照特徴量41Aと車両前部の参照特徴量41Bとの両方を用いて判定される。
ステップS107の車両判定処理では、車両判定部23は、ステップS102で選択された部分領域61に周囲車両200が撮影されていると判定する。つまり、車両判定部23は、部分領域61に周囲車両200が存在すると判定する。そして、車両判定部23は、画像情報42における部分領域61の位置から、周囲車両200の位置を特定する。
車両判定部23は、特定された周囲車両200の位置を示す特定情報44を車両制御ユニット32に送信する。そして、車両判定部23は、処理をステップS102に戻す。
車両制御ユニット32は、送信された特定情報44を用いて車両100の走行を制御する。例えば、車両制御ユニット32は、車両100の進行方向近くに周囲車両200が検出された場合には、車両100のブレーキ制御を行い、周囲車両200との衝突を回避する。
ステップS108の非車両判定処理では、車両判定部23は、ステップS102で選択された部分領域61に車両が撮影されていないと判定する。つまり、車両判定部23は、部分領域61に周囲車両200が存在しないと判定する。そして、車両判定部23は、処理をステップS102に戻す。
なお、方向特定部21は、ステップS102で画像情報42が示す領域が全て部分領域61として選択した場合には処理を終了する。
***実施の形態1の効果***
以上のように、実施の形態1に係る車両判定装置10は、部分領域61における周囲車両200の走行方向に対応する参照特徴量41を用いて、部分領域61に周囲車両200が撮影されているか否かを判定する。これにより、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
***他の構成***
<変形例1>
実施の形態1では、車両判定装置10の各部の機能がソフトウェアで実現された。しかし、変形例1として、車両判定装置10の各部の機能はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
図11を参照して、変形例1に係る車両判定装置10の構成を説明する。
各部の機能がハードウェアで実現される場合、車両判定装置10は、プロセッサ11と記憶装置12とに代えて、処理回路14を備える。処理回路14は、車両判定装置10の各部の機能及び記憶装置12の機能を実現する専用の電子回路である。
処理回路14は、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA(Gate Array)、ASIC(Application Specific Integrated Circuit)、FPGA(Field−Programmable Gate Array)が想定される。
各部の機能を1つの処理回路14で実現してもよいし、各部の機能を複数の処理回路14に分散させて実現してもよい。
<変形例2>
変形例2として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、車両判定装置10の各部のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
プロセッサ11と記憶装置12と処理回路14とを、総称して「プロセッシングサーキットリー」という。つまり、各部の機能は、プロセッシングサーキットリーにより実現される。
実施の形態2.
実施の形態2は、片側に複数の車線がある場合に並走車線51の領域及び対向車線52の領域を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明する。
実施の形態2では、片側2車線の場合を説明する。しかし、片側3車線以上の場合でも、同様の考え方により対応可能である。
***構成の説明***
図12を参照して、実施の形態2に係る車両判定装置10の構成を説明する。
車両判定装置10は、図1に示す車両判定装置10のハードウェア構成に加え、通信インタフェース15と、測位センサ16とを備える。
通信インタフェース15は、データを受信するレシーバ及びデータを送信するトランスミッターを含む装置である。通信インタフェース15は、具体例としては、通信チップ又はNIC(Network Interface Card)である。
測位センサ16は、GPS衛星といった測位衛星によって送信され、車両100の位置を特定可能な測位信号を受信する装置である。測位衛星として、特定地域の上空に長時間とどまる軌道を取る準天頂衛星が使用されてもよい。準天頂衛星が使用されることで、高精度な位置情報を算出可能となる。
車両判定装置10は、図1に示す車両判定装置10の機能構成要素に加え、車線特定部24を備える。車線特定部24の機能は、車両判定装置10の他の機能と同様に、ソフトウェアにより実現される。
***動作の説明***
図13から図20を参照して、実施の形態2に係る車両判定装置10の動作を説明する。
実施の形態2に係る車両判定装置10の動作は、実施の形態2に係る車両判定方法に相当する。また、実施の形態2に係る車両判定装置10の動作は、実施の形態2に係る車両判定プログラムの処理に相当する。
図13から図16を参照して、実施の形態2に係る車両判定装置10の動作の概要を説明する。
図13及び図14では、片側2車線の道路が示されており、各車線を周囲車両200が走行している。図13と図14とでは、車両100が走行している車線が異なる。具体的には、図13では、車両100が対向車線52に隣接する車線を走行しているのに対して、図14では、車両100が路肩53に隣接する車線を走行している。図13に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図15に示すような画像情報42が得られる。図14に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図16に示すような画像情報42が得られる。
図15及び図16に示すように、車両100が走行している車線によって、撮影される領域が異なる。そこで、車両判定装置10は、車両100が走行する走行車線を考慮して、周囲車両200の走行方向を特定する。具体的には、単純に画像情報42の左側半分程度を並走車線51の領域とし、右側半分程度を対向車線52の領域とするのではなく、走行車線に応じて、画像情報42のどの範囲を並走車線51の領域と対向車線52の領域とするかを特定する。
図17を参照して、実施の形態2に係る車両判定装置10の動作を詳細に説明する。
実施の形態2では、図17に示す処理は、一定時間毎に繰り返し実行される。なお、図17に示す処理は、イベントの発生に応じて実行されてもよい。
ステップS201の撮影画像取得処理では、方向特定部21は、図7のステップS101と同様に、画像情報42を取得する。
ステップS202の位置検出処理では、車線特定部24は、測位センサ16を介して測位信号を取得することにより、車両100の位置を特定する。車両100の位置を特定するということは、カメラ31の位置を特定することに相当する。
具体的には、車線特定部24は、GPSといった測位衛星から測位センサ16を介して測位信号を受信するとともに、特定地域の上空に長時間とどまる軌道を取る準天頂衛星から測位センサ16を介して測位衛星用の測位補正情報を受信する。車線特定部24は、受信された測位信号により計算される位置を、測位補正情報を用いて補正して、位置を特定する。車線特定部24は、特定された位置をメモリ121に書き込む。
測位補正情報は、地上に設置された電子基準点における観測データと、衛星軌道情報と、対流圏遅延モデルと、電離層遅延モデルとから構成される。対流圏遅延モデルは、地上に近い対流圏において測位信号の電波が大気中を通過することにより真空中よりも減速する効果と伝搬経路がわずかなに曲がるために直線より距離が延びる効果を表す。電離層遅延モデルは、太陽放射によって地上から高度250km〜400km付近にある電離層の電子密度が変化し、その電子密度に依存してGPS測位信号の電波速度が変化する効果を表す。測位補正情報を使用することで、トンネル等の上空の遮蔽物が無い道路であれば、数センチメートル単位の精度で車両100の位置を特定可能である。
ここでは、測位信号を用いて撮影位置を特定した。しかし、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)といったセンサを使用して道路上の白線位置を検出し、その白線位置から車両100の位置を特定してもよい。
ステップS203の地図取得処理では、車線特定部24は、ステップS202で特定された車両100の位置周辺の地図情報を取得する。
具体的には、車線特定部24は、ステップS202で特定された位置をメモリ121から読み出す。そして、車線特定部24は、通信インタフェース15を介して外部のサーバから、ステップS202で特定された位置周辺の地図情報を受信する。地図情報は、道路の各車線の位置が特定可能な精度の情報である。地図情報には、道路の3次元形状情報が含まれていてもよい。車線特定部24は、受信された地図情報をメモリ121に書き込む。
ここでは、車線特定部24は、外部のサーバから地図情報を受信した。しかし、ストレージ122に地図情報を記憶しておき、車線特定部24はストレージ122から地図情報を読み出してもよい。
ステップS204の走行車線特定処理では、車線特定部24は、車両100が走行する走行車線を特定する。
図18を参照して具体的に説明する。車線特定部24は、ステップS202で特定された車両100の位置と、ステップS203で取得された地図情報とをメモリ121から読み出す。車線特定部24は、車両100の位置と地図情報が示す車線の位置とを比較して、走行車線を特定する。
例えば、図18に示すように、地図情報は、車線を区切る線を表す数式であるとする。図18では、各線は、直線であると仮定し、各線がX=aZ+bで表されている。ここで、a,bは定数であり、線毎に異なる値が設定される。車線特定部24は、地図情報が表す数式と、車両100の位置(Xc,Zc)とから、車両100の走行車線を特定する。車線特定部24は、特定された走行車線を示す走行車線情報45をメモリ121に書き込む。
ステップS205の領域選択処理では、方向特定部21は、図6のステップS102と同様に、ステップS201で取得された画像情報42が示す領域の部分領域61を選択する。
ステップS206の方向特定処理では、方向特定部21は、ステップS205で選択された部分領域61を周囲車両200が走行する走行方向を特定する。
具体的には、方向特定部21は、ステップS205で選択された部分領域61と、ステップS204で特定された走行車線を示す走行車線情報45とをメモリ121から読み出す。方向特定部21は、読み出された走行車線情報45が示す走行車線を考慮して、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるか、どちらの領域でもないかを判定する。
方向特定部21は、部分領域61が、並走車線51の領域、又は、対向車線52の領域であると判定された場合には、処理をステップS207に進める。方向特定部21は、部分領域61が、並走車線51及び対向車線52のどちらでもない領域であったと判定された場合には、処理をステップS205に戻して、新たな部分領域61を選択する。
図19及び図20を参照して、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるか、どちらの領域でもないかを判定する方法を説明する。
車両100が対向車線52に隣接する車線を走行している場合に比べ、車両100が路肩53に隣接する車線を走行している場合には、図19及び図20に示すように、道路50が撮影された領域が1車線分右にずれる。
そこで、方向特定部21は、車両100の走行車線毎に、並走車線51の領域と対向車線52の領域とを定めておく。例えば、方向特定部21は、車両100が対向車線52に隣接する車線を走行している場合には、画像情報42の左端から中央位置又は中央位置よりも少し右側の位置までを並走車線51とし、画像情報42の右端から中央位置又は中央位置よりも少し左側の位置までを対向車線52とする。また、方向特定部21は、車両100が路肩53に隣接する車線を走行している場合には、画像情報42の左端から1車線分右へ移動した位置から、中央位置から1車線分右へ移動した位置又は中央位置よりも少し右側から1車線分右へ移動した位置までを並走車線51とし、並走車線51よりも右側の範囲を対向車線52とする。
方向特定部21は、部分領域61が並走車線51の領域を含むか、対向車線52の領域を含むか、どちらも含まないかによって、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるか、どちらにも含まれないかを判定する。
ステップS207からステップS211の処理は、図6に示すステップS104からステップS108の処理と同じである。
つまり、図21に示すように、部分領域61が、並走車線51の領域又は対向車線52の領域を含む場合のみ、ステップS207以降の処理が実行される。言い換えると、部分領域61が路肩である場合のように、並走車線51の領域及び対向車線52の領域のどちらにも部分領域61が含まれない場合には、ステップS207以降の処理が省略され、特徴量の計算等が行われない。
***実施の形態2の効果***
以上のように、実施の形態2に係る車両判定装置10は、車両100の走行車線を特定することにより、並走車線51及び対向車線52を精度よく特定する。
これにより、路肩53といった周囲車両200が走行しない領域については、ステップS207以降の処理が省略される。そのため、画像情報42から周囲車両200を高速に検出可能である。また、適切な参照特徴量41を用いて、特徴量の類似判定が行われる。そのため、画像情報42から周囲車両200を精度よく検出可能である。
***他の構成***
<変形例3>
実施の形態2では、ステップS204で車両100の走行車線が特定され、ステップS206で走行車線を考慮して並走車線51の領域及び対向車線52の領域が特定された。変形例3として、車両100の位置と地図情報とから画像情報42が示す領域における並走車線51の領域及び対向車線52の領域が特定されてもよい。
図22を参照して、変形例3に係る車両判定装置10の構成を説明する。
車両判定装置10は、機能構成要素として、車線特定部24を備えていない点が図12に示す車両判定装置10と異なる。
図23を参照して、変形例3に係る車両判定装置10の動作を説明する。
変形例3では、図23に示す処理は、一定時間毎に繰り返し実行される。なお、図23に示す処理は、イベントの発生に応じて実行されてもよい。
ステップS301からステップS303の処理は、図17のステップS201からステップS203の処理と同じである。但し、ステップS202では車線特定部24が車両100の位置を特定し、ステップS203では車線特定部24が地図情報を取得した。しかし、ステップS302では方向特定部21が車両100の位置を特定し、ステップS303では方向特定部21が地図情報を取得する。
また、ステップS304の処理は、図17のステップS205の処理と同じである。また、ステップS306からステップS310の処理は、図17のステップS207からステップS211の処理と同じである。
ステップS305の方向特定処理では、方向特定部21は、ステップS302で特定された車両100の位置と、ステップS303で取得された地図情報とから、部分領域61を周囲車両200が走行する走行方向を特定する。
図24及び図25を参照して具体的に説明する。
方向特定部21は、撮影時のカメラ31の焦点位置(X,Y,Z)を特定する。カメラ31の焦点位置(X,Y,Z)は、車両100の位置と、画素単位の焦点距離といったカメラ31の設定パラメータとから特定される。
方向特定部21は、地図情報から並走車線51のいくつかの境界部分の位置(X,Y,Z)と対向車線52のいくつかの境界部分の位置(X,Y,Z)を取得し、カメラ31の焦点位置(X,Y,Z)との相対的な位置を計算する。仮にカメラ31の焦点位置が原点(0,0,0)であれば、並走車線51の相対的な位置は(X,Y,Z)となり、対向車線52の相対的な位置は(X,Y,Z)となる。方向特定部21は、並走車線51の相対的な位置(X,Y,Z)を透視投影変換処理によってカメラ31の撮像面に投影される画素位置(u,v)を計算する。同様に、方向特定部21は、対向車線52の相対的な位置(X,Y,Z)を透視投影変換処理によってカメラ31の撮像面に投影される画素位置(u,v)を計算する。
方向特定部21は、複数の境界部分の位置(X,Y,Z)について、画素位置(u,v)を計算するとともに、複数の境界部分の位置(X,Y,Z)について、画素位置(u,v)を計算する。そして、方向特定部21は、各位置(u,v)から特定される範囲を並走車線51の領域とし、各位置(u,v)から特定される範囲を対向車線52の領域とする。具体例としては、方向特定部21は、隣り合う位置(u,v)を直線でつなぎ、囲まれた範囲を並走車線51の領域とし、隣り合う位置(u,v)を直線でつなぎ、囲まれた範囲を対向車線52の領域とする。
ここで透視投影変換式は数1に示す通りであり、fとfはカメラ31の設定パラメータである画素単位の焦点距離を表す。また、画素位置(u,v)はカメラデバイスの撮像面中心(撮影画像の中心位置)を原点位置(0,0)にした際の画素位置を表す。
Figure 2017130285
これにより、より正確に並走車線51の領域及び対向車線52の領域を特定可能である。その結果、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
実施の形態3.
実施の形態3は、部分領域61の車線である対応車線の位置に応じた参照特徴量41を用いて、特徴量の類似判定を行う点が実施の形態1,2と異なる。
***構成の説明***
図26を参照して、実施の形態3に係る車両判定装置10の構成を説明する。
車両判定装置10は、車線特定部24が特徴取得部22に対応車線情報46を受け渡す点が、図12に示す車両判定装置10と異なる。
***動作の説明***
図27から図29を参照して、実施の形態3に係る車両判定装置10の動作を説明する。
実施の形態3に係る車両判定装置10の動作は、実施の形態3に係る車両判定方法に相当する。また、実施の形態3に係る車両判定装置10の動作は、実施の形態3に係る車両判定プログラムの処理に相当する。
図27を参照して、実施の形態3に係る車両判定装置10の動作の概要を説明する。
図27では、車線X1,X2が並走車線51であり、車線X3,X4が対向車線52である。また、図27では、車両100の走行車線が車線X2であるとする。
この場合、車線X1を走行する周囲車両200Aは、周囲車両200Aの右斜め後部が撮影される。車線X2を走行する周囲車両200Bは、周囲車両200Bの真後ろが撮影される。車線X3を走行する周囲車両200Cは、周囲車両200Cの右斜め前部が撮影される。車線X4を走行する周囲車両200Dは、車線X3を走行する周囲車両200Cよりも側部に近い、周囲車両200Dの右斜め前部が撮影される。
つまり、車両100に対する周囲車両200の走行する相対的な位置によって、撮影される角度が異なる。そこで、車両判定装置10は、車両100の走行車線に対する、部分領域61に対応する対応車線の相対的な位置毎に、参照特徴量41を記憶しておく。そして、車両判定装置10は、車両100の走行車線に対する、部分領域61に対応する対応車線の相対的な位置に応じた参照特徴量41を用いて、処理対象の部分領域61に周囲車両200が存在するか否かを判定する。
図28を参照して、実施の形態3に係る参照特徴量41を説明する。
参照特徴量41は、対象とする撮影方向と、走行車線に対する対応車線の相対的な位置とに対応する参照画像を用いて計算される。図28では、車両後方と車両前方との2つの撮影方向と、同一車線と左隣接車線と右隣接車線と第2右隣接車線との4つの相対的な位置との組合せによる8個の分類の参照特徴量41が計算される。第2右隣接車線は、走行車線の2つ右の車線のことである。
各々の分類に対応する参照特徴量41は、図28に示すように各々の分類に対応付けられてストレージ122に記憶される。
なお、左側通行の場合、対向車線52を走行する周囲車両200が同一車線と左隣接車線とを走行することは原則としてない。そのため、車両前方の同一車線と左隣接車線との参照特徴量41は記憶されていなくてもよい。また、片側2車線の場合、並走車線51を走行する周囲車両200が第2右隣接車線を走行することは原則としてない。そのため、車両後方の第2右隣接車線の参照特徴量41は記憶されていなくてもよい。
図29を参照して、実施の形態3に係る車両判定装置10の動作を詳細に説明する。
実施の形態3では、図29に示す処理は、一定時間毎に繰り返し実行される。なお、図29に示す処理は、イベントの発生に応じて実行されてもよい。
ステップS401からステップS406の処理は、図17に示すステップS201からステップS206の処理と同じである。また、ステップS409からステップS412の処理は、図17に示すステップS208からステップS211の処理と同じである。
ステップS407の対応車線特定処理では、車線特定部24は、ステップS405で選択された部分領域61に対応する車線である対応車線を特定する。
具体的には、車線特定部24は、変形例3で図24及び図25を参照して説明した方法により、カメラ31の撮像面における各車線の範囲を特定する。つまり、変形例3では、カメラ31の撮像面における並走車線51の領域及び対向車線52の領域が特定されたが、ここではカメラ31の撮像面における各車線の範囲が特定される。具体例としては、並走車線51が2車線ある場合には、並走車線51を構成する2つの車線それぞれの領域が特定される。そして、車線特定部24は、部分領域61がどの車線の領域を含むかにより、対応車線を特定する。車線特定部24は、特定された対応車線をメモリ121に書き込む。
なお、部分領域61が2つの車線の領域を含む場合には、2つの車線両方が対応車線として特定される。
ステップS408の特徴量取得処理では、特徴取得部22は、ステップS406で特定された周囲車両200の走行方向と、ステップS407で特定された対応車線とに応じた参照特徴量41を取得する。つまり、特徴取得部22は、周囲車両200の走行方向と、走行車線に対する対応車線の相対的な位置とに応じた参照特徴量41を取得する。特徴取得部22は、読み出された参照特徴量41をメモリ121に書き込む。
具体例としては、特徴取得部22は、周囲車両200の走行方向が車両100と同じ方向であり、対応車線が走行車線の左隣接車線である場合には、車両100と同じ方向に対応し、かつ、左隣接車線に対応する参照特徴量41を取得する。つまり、特徴取得部22は、図28の参照特徴量41Cをストレージ122から読み出す。
なお、特徴取得部22は、部分領域61が2つの車線の領域を含む場合には、2つの対応車線の両方に対応する参照特徴量41を取得する。
***実施の形態3の効果***
以上のように、実施の形態3に係る車両判定装置10は、部分領域61における周囲車両200の走行方向と、走行車線に対する対応車線の相対的な位置とに対応する参照特徴量41を用いて、部分領域61に周囲車両200が撮影されているか否かを判定する。これにより、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
***他の構成***
<変形例4>
実施の形態3では、走行車線に対する対応車線の相対的な位置により参照特徴量41が分類された。変形例4として、走行車線に対する対応車線の相対的な位置だけでなく、車両100と周囲車両200との間の進行方向の距離によって参照特徴量41が分類されてもよい。
例えば、左隣接車線を走行する周囲車両200であっても、車両100と離れた位置にいる場合と、車両100と近い位置にいる場合とで撮影される角度が異なる。
そこで、車両判定装置10は、走行車線に対する対応車線の相対的な位置だけでなく、車両100と周囲車両200との間の進行方向の距離によって参照特徴量41を分類して、ストレージ122に記憶しておく。そして、特徴取得部22は、車両100と周囲車両200との間の進行方向の距離に応じた参照特徴量41を取得する。
ここで、画像情報42の上部の領域には車両100と離れた位置にいる周囲車両200が撮影され、下部の領域には車両100と近い位置にいる周囲車両200が撮影される。したがって、特徴取得部22は、画像情報42が示す領域の上下方向における部分領域61の位置に応じた参照特徴量41を取得することにより、車両100と周囲車両200との間の進行方向の距離に応じた参照特徴量41を取得することができる。
これにより、より適切な参照特徴量41を用いて、特徴量の類似判定が行われる。そのため、そのため、画像情報42から周囲車両200を精度よく検出可能である。
<変形例5>
実施の形態3では、周囲車両200が車両100と同じ方向に走行するか、車両100と対向する方向に走行するかが想定された。変形例5として、車両100の前方に交差点がある場合を説明する。
図30に示すように、交差点では、右折している周囲車両200Mと、左折している周囲車両200Nといった周囲車両200が存在する場合がある。右折している周囲車両200Mと左折している周囲車両200Nとは、車両100に対して斜め横、あるいは、横を向いている。
そこで、車両100は、交差点用の参照特徴量41をストレージ122に記憶しておく。交差点用の参照特徴量41は、車両の左右の側部から撮影された参照画像と、車両の左右の斜め前部及び後部から撮影された参照画像とを用いて計算される。そして、図29のステップS407で車線特定部24は、変形例3で図24及び図25を参照して説明した方法により、カメラ31の撮像面における交差点の範囲を特定し、部分領域61がどの車線及び交差点の領域を含むかを特定する。ステップS408で特徴取得部22は、ステップS407で部分領域61が交差点を含むと特定された場合には、周囲車両200の走行方向によらず、交差点に対応する参照特徴量41を取得する。
これにより、交差点にいる周囲車両200を高速かつ精度よく検出可能である。
実施の形態4.
実施の形態4は、一部が隠れて撮影された周囲車両200用の参照特徴量41を用いて、特徴量の類似判定を行う点が実施の形態1〜3と異なる。
実施の形態4では、実施の形態3に機能追加した場合を説明する。しかし、実施の形態1,2に機能追加することも可能である。
***構成の説明***
図31を参照して、実施の形態4に係る車両判定装置10の構成を説明する。
車両判定装置10は、図26に示す車両判定装置10の機能構成要素に加え、遮蔽判定部25を備える。遮蔽判定部25の機能は、車両判定装置10の他の機能と同様に、ソフトウェアにより実現される。
***動作の説明***
図32から図36を参照して、実施の形態4に係る車両判定装置10の動作を説明する。
実施の形態4に係る車両判定装置10の動作は、実施の形態4に係る車両判定方法に相当する。また、実施の形態4に係る車両判定装置10の動作は、実施の形態4に係る車両判定プログラムの処理に相当する。
図32及び図33を参照して、実施の形態4に係る車両判定装置10の動作の概要を説明する。
図32では、対向車線52を走行する周囲車両200Cのすぐ後ろを周囲車両200Dが走行している。図32に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図33に示すような画像情報42が得られる。
図33に示すように、周囲車両200Cのすぐ後ろを走行している周囲車両200Dは、周囲車両200Cに隠れてしまい、一部だけしか撮影されない。そこで、車両判定装置10は、他の周囲車両200等によって隠れてしまう遮蔽領域47の有無毎に、参照特徴量41を記憶しておく。そして、車両判定装置10は、遮蔽領域47の有無に応じた参照特徴量41を用いて、処理対象の部分領域61に周囲車両200が存在するか否かを判定する。
図34及び図35を参照して、実施の形態4に係る参照特徴量41を説明する。
参照特徴量41は、対象とする撮影方向と、走行車線に対する対応車線の相対的な位置と、遮蔽領域47の有無とに対応する参照画像を用いて計算される。図35では、車両後方と車両前方との2つの撮影方向と、同一車線と左隣接車線と右隣接車線と第2右隣接車線との4つの相対的な位置と、遮蔽領域47の有無との組合せによる16個の分類の参照特徴量41が計算される。図34に示すように、遮蔽領域47無しの場合の参照特徴量41は、遮蔽領域47がない参照画像から計算され、遮蔽領域47有りの場合の参照特徴量41は、遮蔽領域47がある参照画像から計算される。
各々の分類に対応する参照特徴量41は、図35に示すように各々の分類に対応付けられてストレージ122に記憶される。
図36を参照して、実施の形態4に係る車両判定装置10の動作を詳細に説明する。
実施の形態4では、図36に示す処理は、一定時間毎に繰り返し実行される。なお、図36に示す処理は、イベントの発生に応じて実行されてもよい。
ステップS501からステップS507の処理は、図29に示すステップS401からステップS407の処理と同じである。ステップS510からステップS513の処理は、図29に示すステップS409からステップS412の処理と同じである。
ステップS508の遮蔽判定処理では、遮蔽判定部25は、ステップS505で選択された部分領域61が遮蔽領域47を有するか否かを判定する。
図37を参照して具体的に説明する。部分領域61が、車両判定部23によって周囲車両200が撮影されたと判定された他の部分領域61を含む場合、部分領域61は遮蔽領域47を含む可能性が高い。そこで、遮蔽判定部25は、特定された周囲車両200の位置を示す特定情報44をメモリ121から読み出す。そして、遮蔽判定部25は、ステップS501で取得された画像情報42のうち、周囲車両200が撮影されたと判定された他の部分領域61を部分領域61が含む場合には、遮蔽領域47を有すると判定する。一方、遮蔽判定部25は、周囲車両200が撮影されたと判定された他の部分領域61を部分領域61が含まない場合には、遮蔽領域47を有さないと判定する。遮蔽判定部25は、判定された結果をメモリ121に書き込む。
ステップS509の特徴量取得処理では、特徴取得部22は、ステップS506で特定された周囲車両200の走行方向と、ステップS507で特定された対応車線と、ステップS508で判定された遮蔽領域47の有無とに応じた参照特徴量41を取得する。
具体例としては、特徴取得部22は、周囲車両200の走行方向が車両100と同じ方向であり、対応車線が走行車線の左隣接車線であり、遮蔽領域47がある場合には、車両100と同じ方向に対応し、かつ、左隣接車線に対応し、かつ、遮蔽領域47ありに対応する参照特徴量41を取得する。つまり、特徴取得部22は、図35の参照特徴量41C2をストレージ122から読み出す。特徴取得部22は、読み出された参照特徴量41をメモリ121に書き込む。
***実施の形態4の効果***
以上のように、実施の形態4に係る車両判定装置10は、部分領域61が遮蔽領域47を有するか否かに対応する参照特徴量41を用いて、部分領域61に周囲車両200が撮影されているか否かを判定する。これにより、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
***他の構成***
<変形例6>
実施の形態2〜4では、実施の形態1と同じように、車両判定装置10の各部の機能がソフトウェアで実現された。しかし、変形例1と同じように、車両判定装置10の各部の機能はハードウェアで実現されてもよい。また、変形例2と同じように、車両判定装置10は、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
以上、本発明の実施の形態について説明した。これらの実施の形態及び変形例のうち、いくつかを組み合わせて実施してもよい。また、いずれか1つ又はいくつかを部分的に実施してもよい。なお、本発明は、以上の実施の形態及び変形例に限定されるものではなく、必要に応じて種々の変更が可能である。
10 車両判定装置、11 プロセッサ、12 記憶装置、13 カメラインタフェース、14 処理回路、15 通信インタフェース、16 測位センサ、21 方向特定部、22 特徴取得部、23 車両判定部、24 車線特定部、25 遮蔽判定部、31 カメラ、32 車両制御ユニット、321 車両制御インタフェース、322 センサECU、323 車両ECU、41 参照特徴量、42 画像情報、43 方向情報、44 特定情報、45 走行車線情報、46 対応車線情報、47 遮蔽領域、50 道路、51 並走車線、52 対向車線、53 路肩、61 部分領域、62 セル、100 車両、200 周囲車両。

Claims (10)

  1. カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定する方向特定部と、
    前記方向特定部によって特定された走行方向に応じた参照画像から計算された特徴量である参照特徴量を取得する特徴量取得部と、
    前記部分領域についての前記画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と前記特徴量取得部によって取得された参照特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定部と
    を備える車両判定装置。
  2. 前記方向特定部は、前記画像情報が示す領域における前記部分領域の位置により、前記走行方向を特定する
    請求項1に記載の車両判定装置。
  3. 前記方向特定部は、過去に前記車両判定部によって周囲車両が存在すると判定された部分領域の位置により、前記走行方向を特定する
    請求項2に記載の車両判定装置。
  4. 前記車両判定装置は、さらに、
    前記カメラが搭載された車両が走行する走行車線を特定する車線特定部
    を備え、
    前記方向特定部は、前記車線特定部によって特定された走行車線により、前記走行方向を特定する
    請求項2に記載の車両判定装置。
  5. 前記方向特定部は、前記画像情報が示す領域における、前記カメラが搭載された車両が走行する方向と同じ進行方向の並走車線の領域と、前記カメラが搭載された車両が走行する方向と対向する進行方向の対向車線の領域とを特定することにより、前記走行方向を特定する
    請求項2に記載の車両判定装置。
  6. 前記車両判定装置は、さらに、
    前記カメラが搭載された車両が走行する走行車線と、前記部分領域に対応する対応車線とを特定する車線特定部
    を備え、
    前記特徴量取得部は、前記車線特定部によって特定された前記走行車線に対する前記対応車線の相対的な位置に応じた参照画像から計算された参照特徴量を取得する
    請求項1に記載の車両判定装置。
  7. 前記特徴量取得部は、前記画像情報が示す領域の上下方向における前記部分領域の位置に応じた参照画像から計算された参照特徴量を取得する
    請求項6に記載の車両判定装置。
  8. 前記車両判定装置は、さらに、
    前記部分領域が、前記車両判定部によって周囲車両が存在すると判定された他の部分領域と重なる遮蔽領域を含む領域であるか否かを判定する遮蔽判定部
    を備え、
    前記特徴量取得部は、前記遮蔽判定部によって遮蔽領域を含む領域であると判定されたか否かに応じた参照画像から計算された参照特徴量を取得する
    請求項1に記載の車両判定装置。
  9. カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定し、
    特定された走行方向に応じた参照画像から計算された特徴量である参照特徴量を取得し、
    前記部分領域についての前記画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と取得された参照特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定方法。
  10. カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定する方向特定処理と、
    前記方向特定処理によって特定された走行方向に応じた参照画像から計算された参照特徴量を取得する特徴量取得処理と、
    前記部分領域についての前記画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と前記特徴量取得処理によって取得された参照特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定処理と
    をコンピュータに実行させる車両判定プログラム。
JP2016550877A 2016-01-26 2016-01-26 車両判定装置、車両判定方法及び車両判定プログラム Active JP6038422B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/052109 WO2017130285A1 (ja) 2016-01-26 2016-01-26 車両判定装置、車両判定方法及び車両判定プログラム

Publications (2)

Publication Number Publication Date
JP6038422B1 JP6038422B1 (ja) 2016-12-07
JPWO2017130285A1 true JPWO2017130285A1 (ja) 2018-02-01

Family

ID=57483098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016550877A Active JP6038422B1 (ja) 2016-01-26 2016-01-26 車両判定装置、車両判定方法及び車両判定プログラム

Country Status (5)

Country Link
US (1) US10796569B2 (ja)
JP (1) JP6038422B1 (ja)
CN (1) CN108475471B (ja)
DE (1) DE112016005947B4 (ja)
WO (1) WO2017130285A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3602489B1 (en) * 2017-03-28 2023-08-23 HRL Laboratories, LLC Machine-vision method to classify input data based on object components
JP7117922B2 (ja) * 2018-07-12 2022-08-15 フォルシアクラリオン・エレクトロニクス株式会社 周辺認識装置及び車載カメラシステム
JP7040428B2 (ja) 2018-12-03 2022-03-23 トヨタ自動車株式会社 ステータ
CN112461257A (zh) * 2019-09-09 2021-03-09 华为技术有限公司 一种车道线信息的确定方法及装置
KR20210111557A (ko) * 2020-03-03 2021-09-13 현대자동차주식회사 심층 학습 기반의 객체 분류 장치 및 그 방법
CN112669620B (zh) * 2020-12-10 2022-05-24 深圳市金溢科技股份有限公司 车辆行驶方向判定方法、etc通信方法、obu及rsu

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4326992B2 (ja) * 2004-03-17 2009-09-09 アルパイン株式会社 周辺車両識別方法及びこれを用いた走行支援システム
JP2005301603A (ja) * 2004-04-09 2005-10-27 Denso Corp 走行車線検出装置
JP2005339176A (ja) 2004-05-26 2005-12-08 Alpine Electronics Inc 車両認識装置、ナビゲーション装置および車両認識方法
JP2007329762A (ja) 2006-06-08 2007-12-20 Fujitsu Ten Ltd 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置
JP4446201B2 (ja) 2007-03-30 2010-04-07 アイシン・エィ・ダブリュ株式会社 画像認識装置及び画像認識方法
TW201040893A (en) * 2009-05-12 2010-11-16 Ind Tech Res Inst Method and apparatus for recognitizing types of vehicles
JP5197679B2 (ja) 2010-06-09 2013-05-15 株式会社豊田中央研究所 対象物検出装置及びプログラム
JP4968369B2 (ja) * 2010-06-25 2012-07-04 アイシン・エィ・ダブリュ株式会社 車載装置及び車両認識方法
JP5691588B2 (ja) * 2011-02-08 2015-04-01 富士通株式会社 車両認識装置、車両認識方法および車両認識プログラム
JP2013161202A (ja) 2012-02-03 2013-08-19 Honda Motor Co Ltd 車両周辺監視装置
CN102646199B (zh) * 2012-02-29 2013-12-18 湖北莲花山计算机视觉和信息科学研究院 复杂场景中的车型识别方法
JP2013205410A (ja) * 2012-03-30 2013-10-07 Clarion Co Ltd 車両用外界認識装置およびそれを用いた車両システム
JP6051608B2 (ja) * 2012-06-19 2016-12-27 市光工業株式会社 車両周辺対象物検出装置
CN103295403B (zh) * 2013-06-17 2016-02-10 湘潭大学 一种交通流视觉检测方法
JP2015052548A (ja) * 2013-09-09 2015-03-19 富士重工業株式会社 車外環境認識装置
CN103680154B (zh) * 2013-12-02 2016-04-27 青岛海信网络科技股份有限公司 一种视频车辆检测方法
CN112866566B (zh) * 2014-05-29 2023-05-09 株式会社尼康 驾驶辅助装置及驾驶辅助装置搭载车辆
CN104616503B (zh) * 2015-03-08 2016-08-24 江苏巴吉装备科技有限公司 抢行左侧车道的车辆违章行为检测系统

Also Published As

Publication number Publication date
DE112016005947B4 (de) 2021-06-24
US10796569B2 (en) 2020-10-06
US20190005814A1 (en) 2019-01-03
DE112016005947T5 (de) 2018-09-27
CN108475471A (zh) 2018-08-31
JP6038422B1 (ja) 2016-12-07
CN108475471B (zh) 2020-12-18
WO2017130285A1 (ja) 2017-08-03

Similar Documents

Publication Publication Date Title
JP6038422B1 (ja) 車両判定装置、車両判定方法及び車両判定プログラム
US10832061B2 (en) Traveling road boundary estimation apparatus and traveling assistance system using same
US10668924B2 (en) Method and apparatus to control velocity of vehicle
US9151626B1 (en) Vehicle position estimation system
EP3637313A1 (en) Distance estimating method and apparatus
US10795370B2 (en) Travel assist apparatus
CN111178122B (zh) 道路场景中三维车道的检测及平面表示
US10074021B2 (en) Object detection apparatus, object detection method, and program
JP6520740B2 (ja) 物体検出方法、物体検出装置、およびプログラム
US11200432B2 (en) Method and apparatus for determining driving information
JP7077910B2 (ja) 区画線検出装置及び区画線検出方法
US11468691B2 (en) Traveling lane recognition apparatus and traveling lane recognition method
JP4940177B2 (ja) 交通流計測装置
EP3324359B1 (en) Image processing device and image processing method
CN111213153A (zh) 目标物体运动状态检测方法、设备及存储介质
JP2019096132A (ja) 物体認識装置
CN113297881A (zh) 一种目标检测方法及相关装置
CN114705121B (zh) 车辆位姿测量方法、装置及电子设备、存储介质
JP6989284B2 (ja) 車両位置推定装置及びプログラム
Leu et al. High speed stereo vision based automotive collision warning system
KR102003387B1 (ko) 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체
TW201536609A (zh) 障礙物偵測裝置
CN107255470B (zh) 障碍物检测装置
KR101340014B1 (ko) 위치 정보 제공 장치 및 방법
CN114037977A (zh) 道路灭点的检测方法、装置、设备及存储介质

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20160927

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161101

R150 Certificate of patent or registration of utility model

Ref document number: 6038422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250