JPWO2017130285A1 - 車両判定装置、車両判定方法及び車両判定プログラム - Google Patents
車両判定装置、車両判定方法及び車両判定プログラム Download PDFInfo
- Publication number
- JPWO2017130285A1 JPWO2017130285A1 JP2016550877A JP2016550877A JPWO2017130285A1 JP WO2017130285 A1 JPWO2017130285 A1 JP WO2017130285A1 JP 2016550877 A JP2016550877 A JP 2016550877A JP 2016550877 A JP2016550877 A JP 2016550877A JP WO2017130285 A1 JPWO2017130285 A1 JP WO2017130285A1
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- lane
- feature amount
- image
- region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/056—Detecting movement of traffic to be counted or controlled with provision for distinguishing direction of travel
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24143—Distances to neighbourhood prototypes, e.g. restricted Coulomb energy networks [RCEN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/01—Detecting movement of traffic to be counted or controlled
- G08G1/017—Detecting movement of traffic to be counted or controlled identifying vehicles
- G08G1/0175—Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
画像認識処理による周囲車両の検出方法としては、予め様々な車両の画像情報を参照画像として大量にデータベースに蓄積しておき、その参照画像と撮影画像とのパターンマッチング処理をする方法がある。
パターンマッチング処理としては、参照画像と撮影画像とからHoG(Histograms of Oriented Gradients)特徴量を算出し、SVM(Support Vector Machine)を使用して、撮影画像に車両が撮影されているか否かを判定する手法がある。また、パターンマッチング処理としては、他にも、車両の特徴を表す特徴量マップに類似する撮影画像領域をCNN(Convolutional Neural Network)により検出する手法がある。
なお、データベースの参照画像としては、車両を撮影した画像情報である正解画像と車両を撮影していない画像情報である不正解画像とが用いられる。
また、走行環境によっては、撮影画像に周囲車両が撮影されていても周囲車両を検出しない場合と、反対に周囲車両が撮影されていなくても周囲車両として誤検出する場合とがある。特に、車両の車載カメラと周囲車両との相対位置によって、周囲車両が撮影される方向に違いが生じる。そのため、撮影画像に写る周囲車両の画像情報は大きく変化し、周囲車両の画像認識処理の検出率は低下してしまう。
このように走行環境及び撮影環境によって、周囲車両の検出精度は低くなるため、運転手がミスした時の補助としての自動ブレーキと、渋滞時の運転手の負担を軽減するACCと等は製品化されているが、自動運転車両の製品化までには至っていない。自動運転車両の製品化はもちろん、自動車の安全性を高めるためにも、今まで以上に周囲車両の検出精度が高く、計算量の少ない画像認識技術が望まれている。
この発明は、カメラで撮影した画像情報から周囲車両を高速かつ精度よく検出可能にすることを目的とする。
カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定する方向特定部と、
前記方向特定部によって特定された走行方向に応じた参照画像から計算された画像特徴量を取得する特徴量取得部と、
前記部分領域についての前記画像情報の画像特徴量を計算し、計算された画像特徴量と前記特徴量取得部によって取得された画像特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る車両判定装置10の構成を説明する。
車両判定装置10は、車両100に搭載されるコンピュータである。車両判定装置10は、車両制御インタフェース321を介して、車両100に搭載された車両制御ユニット32に接続される。
車両判定装置10は、プロセッサ11と、記憶装置12と、カメラインタフェース13とを備える。プロセッサ11は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
記憶装置12のストレージ122には、車両判定装置10の各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ121に読み込まれ、プロセッサ11によって実行される。これにより、車両判定装置10の各部の機能が実現される。また、記憶装置12のストレージ122には、特徴取得部22によって使用される参照特徴量41が記憶されている。なお、参照特徴量41は外部のサーバに記憶されるものであってもよい。
車両制御ユニット32は、車両制御インタフェース321と、センサECU(Electronic Control Unit)322と、車両ECU323とを備える。
図2から図10を参照して、実施の形態1に係る車両判定装置10の動作を説明する。
実施の形態1に係る車両判定装置10の動作は、実施の形態1に係る車両判定方法に相当する。また、実施の形態1に係る車両判定装置10の動作は、実施の形態1に係る車両判定プログラムの処理に相当する。
以下の説明では、左側通行の場合を例として説明する。右側通行の場合は、左右逆に考えればよい。
図2では、車両100の周囲の道路50を走行する周囲車両200として、車両100が走行する車線と同じ進行方向の並走車線51を走行する周囲車両200Aと、車両100が走行する車線と対向する進行方向の対向車線52を走行する周囲車両200Bとが存在する。図2に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図3に示すような画像情報42が得られる。つまり、並走車線51を走行する周囲車両200Aが後方から撮影され、対向車線52を走行する周囲車両200Bが前方から撮影された画像情報42が得られる。
周囲車両200が前方から撮影された場合と、後方から撮影された場合とでは、画像は大きく異なる。つまり、周囲車両200の走行方向によって、カメラ31で撮影された場合に得られる周囲車両200の画像は異なる。画像が異なると、その画像から計算される特徴量も異なる。
そこで、車両判定装置10は、周囲車両200が撮影される撮影方向毎に、参照特徴量41を記憶しておく。そして、車両判定装置10は、画像情報42が示す領域の各部分領域61について、処理対象の部分領域61における周囲車両200の走行方向を特定して、特定された走行方向に対応する参照特徴量41を用いて、処理対象の部分領域61に周囲車両200が存在するか否かを判定する。
参照特徴量41は、対象とする撮影方向に対応する参照画像を用いて計算される。図4では、車両後方から撮影された参照画像を用いて車両後方の参照特徴量41Aが計算され、車両前方から撮影された参照画像を用いて車両前方の参照特徴量41Bが計算される。当然のことながら、車両後方から撮影された参照画像は車両後部の画像情報であり、車両前方から撮影された参照画像は車両前部の画像情報である。撮影方向によって分類された参照画像を使用して特徴量を計算することで、車両後部の画像に特化した参照特徴量41Aと車両前部の画像に特化した参照特徴量41Bとが計算される。
各々の撮影方向に対応する参照特徴量41は、図5に示すように各々の撮影方向に対応付けられてストレージ122に記憶される。
参照特徴量41Aが計算される場合には、車両の真後ろの画像だけでなく、左斜め後部の画像、右斜め後部の画像、左側部の画像、右側部の画像が含まれてもよい。また、参照特徴量41Bが計算される場合には、車両の正面の画像だけでなく、右斜め前部の画像、右側部の画像が含まれてもよい。なお、ここでは、左側通行を想定しているため、対向車線は車両100の右側となる。そのため、参照特徴量41Bが計算される場合には、車両の左側の画像が用いられていない。
実施の形態1では、図6に示す処理は、一定時間毎に繰り返し実行される。なお、図6に示す処理は、イベントの発生に応じて実行されてもよい。
図7を参照して具体的に説明する。方向特定部21は、画像情報42をメモリ121から読み出し、読み出された画像情報42の左上から右下まで、任意のサイズの部分領域61を順に選択する。実施の形態1では、方向特定部21は、横30画素×縦30画素の正方形の領域を部分領域61とし、横5画素×縦5画素を1つのセル62とする。そして、方向特定部21は、画像情報42の左上から右下まで、1セルずつずらして部分領域61を順に選択する。例えば、参照特徴量41の画像解像度が横1980×縦1200であれば、5画素ずつずらして部分領域61が抽出されるので、391(=(1980−30)/5+1)×235(=(1200−30)/5+1)個の部分領域61が順に選択される。方向特定部21は、選択された部分領域61をメモリ121に書き込む。
具体的には、方向特定部21は、部分領域61をメモリ121から読み出し、読み出された部分領域61が、並走車線51の領域であるか、対向車線52の領域であるかを判定する。そして、方向特定部21は、部分領域61が並走車線51の領域であれば、周囲車両200の走行方向は、車両100と同じ方向であると特定する。また、方向特定部21は、部分領域61が対向車線52の領域であれば、周囲車両200の走行方向は、車両100と対向する方向であると特定する。方向特定部21は、特定された走行方向を示す方向情報43をメモリ121に書き込む。
車両100の前方を撮影するカメラ31では、左側通行の場合、並走車線51は画像情報42の左側となり、対向車線52は画像情報42の右側となる。そこで、方向特定部21は、画像情報42の左端から中央位置又は中央位置よりも少し右側の位置までを並走車線51とし、画像情報42の右端から中央位置又は中央位置よりも少し左側の位置までを対向車線52とする。
図8では、方向特定部21は、画像情報42の左端から中央位置よりも少し右側の位置までを並走車線51とし、画像情報42の右端から中央位置よりも少し左側の位置までを対向車線52としている。そのため、図8では、画像情報42の中央部分に、並走車線51及び対向車線52の両方に含まれる重複領域がある。このように、重複領域を設けるのは、車両100の走行位置に応じて、画像情報42内の並走車線51の領域と対向車線52の領域との位置が変化する場合があるためである。
方向特定部21は、部分領域61が並走車線51の領域と対向車線52の領域とのどちらを含むかによって、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるかを判定する。なお、部分領域61が並走車線51の領域と対向車線52の領域との両方を含む場合、部分領域61が並走車線51及び対向車線52の両方の領域であると判定する。
つまり、図8を参照して説明した方法では、方向特定部21は、画像情報42が示す領域における部分領域61の位置により、走行方向を特定することになる。
後述する処理で車両判定部23により、並走車線51を走行する周囲車両200が検出されていたとする。この場合、周囲車両200が検出された領域は、並走車線51であり、対向車線52ではないと推定される。そこで、方向特定部21は、並走車線51を走行する周囲車両200が検出された場合には、画像情報42の右端から周囲車両200が検出された領域の右端までを対向車線52とする。これにより、対向車線52の領域が縮小し、重複領域が狭まる。
同様に、方向特定部21は、対向車線52を走行する周囲車両200が検出された場合には、画像情報42の左端から周囲車両200が検出された領域の左端までを並走車線51とする。これにより、並走車線51の領域が縮小し、重複領域が狭まる。
つまり、図9を参照して説明した方法では、方向特定部21は、画像情報42が示す領域における部分領域61の位置と、過去に車両判定部23によって周囲車両200が存在すると判定された部分領域61の位置とにより、走行方向を特定することになる。
具体的には、特徴取得部22は、周囲車両200の走行方向が車両100と同じ方向であると特定された場合には、車両100と同じ方向に対応する参照特徴量41を取得する。つまり、特徴取得部22は、車両後部の参照特徴量41Aをストレージ122から読み出す。一方、特徴取得部22は、周囲車両200の走行方向が車両100と対向する方向であると特定された場合には、車両100と対向する方向に対応する参照特徴量41を取得する。つまり、特徴取得部22は、車両前部の参照特徴量41Bをストレージ122から読み出す。そして、特徴取得部22は、読み出された参照特徴量41をメモリ121に書き込む。
具体的には、実施の形態1では、車両判定部23は、部分領域61のHOG特徴量を画像特徴量として計算する。まず、車両判定部23は、部分領域61を構成する各セル62に対して、輝度勾配強度値及び輝度勾配方向を計算する。次に、車両判定部23は、計算された輝度勾配方向を9方向に分割し、各方向に対する輝度勾配強度値のヒストグラムを作成する。最後に、車両判定部23は、各セル62のヒストグラムの全てを部分領域61の画像特徴量とする。車両判定部23は、計算された画像特徴量をメモリ121に書き込む。
ここで、部分領域61の画像特徴量は、1つのセル62で9方向の輝度勾配強度値があり、1つの部分領域61を構成するセル62が36個であるため、合計で324(=9×36)次元の画像特徴量となる。
具体的には、車両判定部23は、ステップS104でストレージ122から参照特徴量41を読み出し、ステップS105で計算された画像特徴量をメモリ121から読み出す。実施の形態1では、車両判定部23は、読み出された参照特徴量41と画像特徴量とを、SVMにより比較し、類似度が計算される。そして、車両判定部23は、類似度が閾値よりも高いか否かにより類似するか否かを判定する。
車両判定部23は、類似すると判定された場合には、処理をステップS107に進める。一方、車両判定部23は、類似しないと判定された場合には、処理をステップS108に進める。
車両判定部23は、特定された周囲車両200の位置を示す特定情報44を車両制御ユニット32に送信する。そして、車両判定部23は、処理をステップS102に戻す。
車両制御ユニット32は、送信された特定情報44を用いて車両100の走行を制御する。例えば、車両制御ユニット32は、車両100の進行方向近くに周囲車両200が検出された場合には、車両100のブレーキ制御を行い、周囲車両200との衝突を回避する。
以上のように、実施の形態1に係る車両判定装置10は、部分領域61における周囲車両200の走行方向に対応する参照特徴量41を用いて、部分領域61に周囲車両200が撮影されているか否かを判定する。これにより、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
<変形例1>
実施の形態1では、車両判定装置10の各部の機能がソフトウェアで実現された。しかし、変形例1として、車両判定装置10の各部の機能はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
各部の機能がハードウェアで実現される場合、車両判定装置10は、プロセッサ11と記憶装置12とに代えて、処理回路14を備える。処理回路14は、車両判定装置10の各部の機能及び記憶装置12の機能を実現する専用の電子回路である。
各部の機能を1つの処理回路14で実現してもよいし、各部の機能を複数の処理回路14に分散させて実現してもよい。
変形例2として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、車両判定装置10の各部のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
実施の形態2は、片側に複数の車線がある場合に並走車線51の領域及び対向車線52の領域を特定する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明する。
実施の形態2では、片側2車線の場合を説明する。しかし、片側3車線以上の場合でも、同様の考え方により対応可能である。
図12を参照して、実施の形態2に係る車両判定装置10の構成を説明する。
車両判定装置10は、図1に示す車両判定装置10のハードウェア構成に加え、通信インタフェース15と、測位センサ16とを備える。
図13から図20を参照して、実施の形態2に係る車両判定装置10の動作を説明する。
実施の形態2に係る車両判定装置10の動作は、実施の形態2に係る車両判定方法に相当する。また、実施の形態2に係る車両判定装置10の動作は、実施の形態2に係る車両判定プログラムの処理に相当する。
図13及び図14では、片側2車線の道路が示されており、各車線を周囲車両200が走行している。図13と図14とでは、車両100が走行している車線が異なる。具体的には、図13では、車両100が対向車線52に隣接する車線を走行しているのに対して、図14では、車両100が路肩53に隣接する車線を走行している。図13に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図15に示すような画像情報42が得られる。図14に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図16に示すような画像情報42が得られる。
図15及び図16に示すように、車両100が走行している車線によって、撮影される領域が異なる。そこで、車両判定装置10は、車両100が走行する走行車線を考慮して、周囲車両200の走行方向を特定する。具体的には、単純に画像情報42の左側半分程度を並走車線51の領域とし、右側半分程度を対向車線52の領域とするのではなく、走行車線に応じて、画像情報42のどの範囲を並走車線51の領域と対向車線52の領域とするかを特定する。
実施の形態2では、図17に示す処理は、一定時間毎に繰り返し実行される。なお、図17に示す処理は、イベントの発生に応じて実行されてもよい。
具体的には、車線特定部24は、GPSといった測位衛星から測位センサ16を介して測位信号を受信するとともに、特定地域の上空に長時間とどまる軌道を取る準天頂衛星から測位センサ16を介して測位衛星用の測位補正情報を受信する。車線特定部24は、受信された測位信号により計算される位置を、測位補正情報を用いて補正して、位置を特定する。車線特定部24は、特定された位置をメモリ121に書き込む。
測位補正情報は、地上に設置された電子基準点における観測データと、衛星軌道情報と、対流圏遅延モデルと、電離層遅延モデルとから構成される。対流圏遅延モデルは、地上に近い対流圏において測位信号の電波が大気中を通過することにより真空中よりも減速する効果と伝搬経路がわずかなに曲がるために直線より距離が延びる効果を表す。電離層遅延モデルは、太陽放射によって地上から高度250km〜400km付近にある電離層の電子密度が変化し、その電子密度に依存してGPS測位信号の電波速度が変化する効果を表す。測位補正情報を使用することで、トンネル等の上空の遮蔽物が無い道路であれば、数センチメートル単位の精度で車両100の位置を特定可能である。
ここでは、測位信号を用いて撮影位置を特定した。しかし、LIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)といったセンサを使用して道路上の白線位置を検出し、その白線位置から車両100の位置を特定してもよい。
具体的には、車線特定部24は、ステップS202で特定された位置をメモリ121から読み出す。そして、車線特定部24は、通信インタフェース15を介して外部のサーバから、ステップS202で特定された位置周辺の地図情報を受信する。地図情報は、道路の各車線の位置が特定可能な精度の情報である。地図情報には、道路の3次元形状情報が含まれていてもよい。車線特定部24は、受信された地図情報をメモリ121に書き込む。
ここでは、車線特定部24は、外部のサーバから地図情報を受信した。しかし、ストレージ122に地図情報を記憶しておき、車線特定部24はストレージ122から地図情報を読み出してもよい。
図18を参照して具体的に説明する。車線特定部24は、ステップS202で特定された車両100の位置と、ステップS203で取得された地図情報とをメモリ121から読み出す。車線特定部24は、車両100の位置と地図情報が示す車線の位置とを比較して、走行車線を特定する。
例えば、図18に示すように、地図情報は、車線を区切る線を表す数式であるとする。図18では、各線は、直線であると仮定し、各線がX=aZ+bで表されている。ここで、a,bは定数であり、線毎に異なる値が設定される。車線特定部24は、地図情報が表す数式と、車両100の位置(Xc,Zc)とから、車両100の走行車線を特定する。車線特定部24は、特定された走行車線を示す走行車線情報45をメモリ121に書き込む。
具体的には、方向特定部21は、ステップS205で選択された部分領域61と、ステップS204で特定された走行車線を示す走行車線情報45とをメモリ121から読み出す。方向特定部21は、読み出された走行車線情報45が示す走行車線を考慮して、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるか、どちらの領域でもないかを判定する。
方向特定部21は、部分領域61が、並走車線51の領域、又は、対向車線52の領域であると判定された場合には、処理をステップS207に進める。方向特定部21は、部分領域61が、並走車線51及び対向車線52のどちらでもない領域であったと判定された場合には、処理をステップS205に戻して、新たな部分領域61を選択する。
車両100が対向車線52に隣接する車線を走行している場合に比べ、車両100が路肩53に隣接する車線を走行している場合には、図19及び図20に示すように、道路50が撮影された領域が1車線分右にずれる。
そこで、方向特定部21は、車両100の走行車線毎に、並走車線51の領域と対向車線52の領域とを定めておく。例えば、方向特定部21は、車両100が対向車線52に隣接する車線を走行している場合には、画像情報42の左端から中央位置又は中央位置よりも少し右側の位置までを並走車線51とし、画像情報42の右端から中央位置又は中央位置よりも少し左側の位置までを対向車線52とする。また、方向特定部21は、車両100が路肩53に隣接する車線を走行している場合には、画像情報42の左端から1車線分右へ移動した位置から、中央位置から1車線分右へ移動した位置又は中央位置よりも少し右側から1車線分右へ移動した位置までを並走車線51とし、並走車線51よりも右側の範囲を対向車線52とする。
方向特定部21は、部分領域61が並走車線51の領域を含むか、対向車線52の領域を含むか、どちらも含まないかによって、部分領域61が、並走車線51の領域であるか、対向車線52の領域であるか、どちらにも含まれないかを判定する。
以上のように、実施の形態2に係る車両判定装置10は、車両100の走行車線を特定することにより、並走車線51及び対向車線52を精度よく特定する。
これにより、路肩53といった周囲車両200が走行しない領域については、ステップS207以降の処理が省略される。そのため、画像情報42から周囲車両200を高速に検出可能である。また、適切な参照特徴量41を用いて、特徴量の類似判定が行われる。そのため、画像情報42から周囲車両200を精度よく検出可能である。
<変形例3>
実施の形態2では、ステップS204で車両100の走行車線が特定され、ステップS206で走行車線を考慮して並走車線51の領域及び対向車線52の領域が特定された。変形例3として、車両100の位置と地図情報とから画像情報42が示す領域における並走車線51の領域及び対向車線52の領域が特定されてもよい。
車両判定装置10は、機能構成要素として、車線特定部24を備えていない点が図12に示す車両判定装置10と異なる。
変形例3では、図23に示す処理は、一定時間毎に繰り返し実行される。なお、図23に示す処理は、イベントの発生に応じて実行されてもよい。
また、ステップS304の処理は、図17のステップS205の処理と同じである。また、ステップS306からステップS310の処理は、図17のステップS207からステップS211の処理と同じである。
方向特定部21は、撮影時のカメラ31の焦点位置(X0,Y0,Z0)を特定する。カメラ31の焦点位置(X0,Y0,Z0)は、車両100の位置と、画素単位の焦点距離といったカメラ31の設定パラメータとから特定される。
方向特定部21は、地図情報から並走車線51のいくつかの境界部分の位置(X1,Y1,Z1)と対向車線52のいくつかの境界部分の位置(X2,Y2,Z2)を取得し、カメラ31の焦点位置(X0,Y0,Z0)との相対的な位置を計算する。仮にカメラ31の焦点位置が原点(0,0,0)であれば、並走車線51の相対的な位置は(X1,Y1,Z1)となり、対向車線52の相対的な位置は(X2,Y2,Z2)となる。方向特定部21は、並走車線51の相対的な位置(X1,Y1,Z1)を透視投影変換処理によってカメラ31の撮像面に投影される画素位置(u1,v1)を計算する。同様に、方向特定部21は、対向車線52の相対的な位置(X2,Y2,Z2)を透視投影変換処理によってカメラ31の撮像面に投影される画素位置(u2,v2)を計算する。
方向特定部21は、複数の境界部分の位置(X1,Y1,Z1)について、画素位置(u1,v1)を計算するとともに、複数の境界部分の位置(X2,Y2,Z2)について、画素位置(u2,v2)を計算する。そして、方向特定部21は、各位置(u1,v1)から特定される範囲を並走車線51の領域とし、各位置(u2,v2)から特定される範囲を対向車線52の領域とする。具体例としては、方向特定部21は、隣り合う位置(u1,v1)を直線でつなぎ、囲まれた範囲を並走車線51の領域とし、隣り合う位置(u2,v2)を直線でつなぎ、囲まれた範囲を対向車線52の領域とする。
実施の形態3は、部分領域61の車線である対応車線の位置に応じた参照特徴量41を用いて、特徴量の類似判定を行う点が実施の形態1,2と異なる。
図26を参照して、実施の形態3に係る車両判定装置10の構成を説明する。
車両判定装置10は、車線特定部24が特徴取得部22に対応車線情報46を受け渡す点が、図12に示す車両判定装置10と異なる。
図27から図29を参照して、実施の形態3に係る車両判定装置10の動作を説明する。
実施の形態3に係る車両判定装置10の動作は、実施の形態3に係る車両判定方法に相当する。また、実施の形態3に係る車両判定装置10の動作は、実施の形態3に係る車両判定プログラムの処理に相当する。
図27では、車線X1,X2が並走車線51であり、車線X3,X4が対向車線52である。また、図27では、車両100の走行車線が車線X2であるとする。
この場合、車線X1を走行する周囲車両200Aは、周囲車両200Aの右斜め後部が撮影される。車線X2を走行する周囲車両200Bは、周囲車両200Bの真後ろが撮影される。車線X3を走行する周囲車両200Cは、周囲車両200Cの右斜め前部が撮影される。車線X4を走行する周囲車両200Dは、車線X3を走行する周囲車両200Cよりも側部に近い、周囲車両200Dの右斜め前部が撮影される。
つまり、車両100に対する周囲車両200の走行する相対的な位置によって、撮影される角度が異なる。そこで、車両判定装置10は、車両100の走行車線に対する、部分領域61に対応する対応車線の相対的な位置毎に、参照特徴量41を記憶しておく。そして、車両判定装置10は、車両100の走行車線に対する、部分領域61に対応する対応車線の相対的な位置に応じた参照特徴量41を用いて、処理対象の部分領域61に周囲車両200が存在するか否かを判定する。
参照特徴量41は、対象とする撮影方向と、走行車線に対する対応車線の相対的な位置とに対応する参照画像を用いて計算される。図28では、車両後方と車両前方との2つの撮影方向と、同一車線と左隣接車線と右隣接車線と第2右隣接車線との4つの相対的な位置との組合せによる8個の分類の参照特徴量41が計算される。第2右隣接車線は、走行車線の2つ右の車線のことである。
各々の分類に対応する参照特徴量41は、図28に示すように各々の分類に対応付けられてストレージ122に記憶される。
なお、左側通行の場合、対向車線52を走行する周囲車両200が同一車線と左隣接車線とを走行することは原則としてない。そのため、車両前方の同一車線と左隣接車線との参照特徴量41は記憶されていなくてもよい。また、片側2車線の場合、並走車線51を走行する周囲車両200が第2右隣接車線を走行することは原則としてない。そのため、車両後方の第2右隣接車線の参照特徴量41は記憶されていなくてもよい。
実施の形態3では、図29に示す処理は、一定時間毎に繰り返し実行される。なお、図29に示す処理は、イベントの発生に応じて実行されてもよい。
具体的には、車線特定部24は、変形例3で図24及び図25を参照して説明した方法により、カメラ31の撮像面における各車線の範囲を特定する。つまり、変形例3では、カメラ31の撮像面における並走車線51の領域及び対向車線52の領域が特定されたが、ここではカメラ31の撮像面における各車線の範囲が特定される。具体例としては、並走車線51が2車線ある場合には、並走車線51を構成する2つの車線それぞれの領域が特定される。そして、車線特定部24は、部分領域61がどの車線の領域を含むかにより、対応車線を特定する。車線特定部24は、特定された対応車線をメモリ121に書き込む。
なお、部分領域61が2つの車線の領域を含む場合には、2つの車線両方が対応車線として特定される。
具体例としては、特徴取得部22は、周囲車両200の走行方向が車両100と同じ方向であり、対応車線が走行車線の左隣接車線である場合には、車両100と同じ方向に対応し、かつ、左隣接車線に対応する参照特徴量41を取得する。つまり、特徴取得部22は、図28の参照特徴量41Cをストレージ122から読み出す。
なお、特徴取得部22は、部分領域61が2つの車線の領域を含む場合には、2つの対応車線の両方に対応する参照特徴量41を取得する。
以上のように、実施の形態3に係る車両判定装置10は、部分領域61における周囲車両200の走行方向と、走行車線に対する対応車線の相対的な位置とに対応する参照特徴量41を用いて、部分領域61に周囲車両200が撮影されているか否かを判定する。これにより、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
<変形例4>
実施の形態3では、走行車線に対する対応車線の相対的な位置により参照特徴量41が分類された。変形例4として、走行車線に対する対応車線の相対的な位置だけでなく、車両100と周囲車両200との間の進行方向の距離によって参照特徴量41が分類されてもよい。
例えば、左隣接車線を走行する周囲車両200であっても、車両100と離れた位置にいる場合と、車両100と近い位置にいる場合とで撮影される角度が異なる。
そこで、車両判定装置10は、走行車線に対する対応車線の相対的な位置だけでなく、車両100と周囲車両200との間の進行方向の距離によって参照特徴量41を分類して、ストレージ122に記憶しておく。そして、特徴取得部22は、車両100と周囲車両200との間の進行方向の距離に応じた参照特徴量41を取得する。
ここで、画像情報42の上部の領域には車両100と離れた位置にいる周囲車両200が撮影され、下部の領域には車両100と近い位置にいる周囲車両200が撮影される。したがって、特徴取得部22は、画像情報42が示す領域の上下方向における部分領域61の位置に応じた参照特徴量41を取得することにより、車両100と周囲車両200との間の進行方向の距離に応じた参照特徴量41を取得することができる。
これにより、より適切な参照特徴量41を用いて、特徴量の類似判定が行われる。そのため、そのため、画像情報42から周囲車両200を精度よく検出可能である。
実施の形態3では、周囲車両200が車両100と同じ方向に走行するか、車両100と対向する方向に走行するかが想定された。変形例5として、車両100の前方に交差点がある場合を説明する。
図30に示すように、交差点では、右折している周囲車両200Mと、左折している周囲車両200Nといった周囲車両200が存在する場合がある。右折している周囲車両200Mと左折している周囲車両200Nとは、車両100に対して斜め横、あるいは、横を向いている。
そこで、車両100は、交差点用の参照特徴量41をストレージ122に記憶しておく。交差点用の参照特徴量41は、車両の左右の側部から撮影された参照画像と、車両の左右の斜め前部及び後部から撮影された参照画像とを用いて計算される。そして、図29のステップS407で車線特定部24は、変形例3で図24及び図25を参照して説明した方法により、カメラ31の撮像面における交差点の範囲を特定し、部分領域61がどの車線及び交差点の領域を含むかを特定する。ステップS408で特徴取得部22は、ステップS407で部分領域61が交差点を含むと特定された場合には、周囲車両200の走行方向によらず、交差点に対応する参照特徴量41を取得する。
これにより、交差点にいる周囲車両200を高速かつ精度よく検出可能である。
実施の形態4は、一部が隠れて撮影された周囲車両200用の参照特徴量41を用いて、特徴量の類似判定を行う点が実施の形態1〜3と異なる。
実施の形態4では、実施の形態3に機能追加した場合を説明する。しかし、実施の形態1,2に機能追加することも可能である。
図31を参照して、実施の形態4に係る車両判定装置10の構成を説明する。
車両判定装置10は、図26に示す車両判定装置10の機能構成要素に加え、遮蔽判定部25を備える。遮蔽判定部25の機能は、車両判定装置10の他の機能と同様に、ソフトウェアにより実現される。
図32から図36を参照して、実施の形態4に係る車両判定装置10の動作を説明する。
実施の形態4に係る車両判定装置10の動作は、実施の形態4に係る車両判定方法に相当する。また、実施の形態4に係る車両判定装置10の動作は、実施の形態4に係る車両判定プログラムの処理に相当する。
図32では、対向車線52を走行する周囲車両200Cのすぐ後ろを周囲車両200Dが走行している。図32に示す状況において、車両100に搭載されたカメラ31で車両100の前方を撮影した場合、図33に示すような画像情報42が得られる。
図33に示すように、周囲車両200Cのすぐ後ろを走行している周囲車両200Dは、周囲車両200Cに隠れてしまい、一部だけしか撮影されない。そこで、車両判定装置10は、他の周囲車両200等によって隠れてしまう遮蔽領域47の有無毎に、参照特徴量41を記憶しておく。そして、車両判定装置10は、遮蔽領域47の有無に応じた参照特徴量41を用いて、処理対象の部分領域61に周囲車両200が存在するか否かを判定する。
参照特徴量41は、対象とする撮影方向と、走行車線に対する対応車線の相対的な位置と、遮蔽領域47の有無とに対応する参照画像を用いて計算される。図35では、車両後方と車両前方との2つの撮影方向と、同一車線と左隣接車線と右隣接車線と第2右隣接車線との4つの相対的な位置と、遮蔽領域47の有無との組合せによる16個の分類の参照特徴量41が計算される。図34に示すように、遮蔽領域47無しの場合の参照特徴量41は、遮蔽領域47がない参照画像から計算され、遮蔽領域47有りの場合の参照特徴量41は、遮蔽領域47がある参照画像から計算される。
各々の分類に対応する参照特徴量41は、図35に示すように各々の分類に対応付けられてストレージ122に記憶される。
実施の形態4では、図36に示す処理は、一定時間毎に繰り返し実行される。なお、図36に示す処理は、イベントの発生に応じて実行されてもよい。
図37を参照して具体的に説明する。部分領域61が、車両判定部23によって周囲車両200が撮影されたと判定された他の部分領域61を含む場合、部分領域61は遮蔽領域47を含む可能性が高い。そこで、遮蔽判定部25は、特定された周囲車両200の位置を示す特定情報44をメモリ121から読み出す。そして、遮蔽判定部25は、ステップS501で取得された画像情報42のうち、周囲車両200が撮影されたと判定された他の部分領域61を部分領域61が含む場合には、遮蔽領域47を有すると判定する。一方、遮蔽判定部25は、周囲車両200が撮影されたと判定された他の部分領域61を部分領域61が含まない場合には、遮蔽領域47を有さないと判定する。遮蔽判定部25は、判定された結果をメモリ121に書き込む。
具体例としては、特徴取得部22は、周囲車両200の走行方向が車両100と同じ方向であり、対応車線が走行車線の左隣接車線であり、遮蔽領域47がある場合には、車両100と同じ方向に対応し、かつ、左隣接車線に対応し、かつ、遮蔽領域47ありに対応する参照特徴量41を取得する。つまり、特徴取得部22は、図35の参照特徴量41C2をストレージ122から読み出す。特徴取得部22は、読み出された参照特徴量41をメモリ121に書き込む。
以上のように、実施の形態4に係る車両判定装置10は、部分領域61が遮蔽領域47を有するか否かに対応する参照特徴量41を用いて、部分領域61に周囲車両200が撮影されているか否かを判定する。これにより、画像情報42から周囲車両200を高速かつ精度よく検出可能である。
<変形例6>
実施の形態2〜4では、実施の形態1と同じように、車両判定装置10の各部の機能がソフトウェアで実現された。しかし、変形例1と同じように、車両判定装置10の各部の機能はハードウェアで実現されてもよい。また、変形例2と同じように、車両判定装置10は、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
Claims (10)
- カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定する方向特定部と、
前記方向特定部によって特定された走行方向に応じた参照画像から計算された特徴量である参照特徴量を取得する特徴量取得部と、
前記部分領域についての前記画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と前記特徴量取得部によって取得された参照特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定部と
を備える車両判定装置。 - 前記方向特定部は、前記画像情報が示す領域における前記部分領域の位置により、前記走行方向を特定する
請求項1に記載の車両判定装置。 - 前記方向特定部は、過去に前記車両判定部によって周囲車両が存在すると判定された部分領域の位置により、前記走行方向を特定する
請求項2に記載の車両判定装置。 - 前記車両判定装置は、さらに、
前記カメラが搭載された車両が走行する走行車線を特定する車線特定部
を備え、
前記方向特定部は、前記車線特定部によって特定された走行車線により、前記走行方向を特定する
請求項2に記載の車両判定装置。 - 前記方向特定部は、前記画像情報が示す領域における、前記カメラが搭載された車両が走行する方向と同じ進行方向の並走車線の領域と、前記カメラが搭載された車両が走行する方向と対向する進行方向の対向車線の領域とを特定することにより、前記走行方向を特定する
請求項2に記載の車両判定装置。 - 前記車両判定装置は、さらに、
前記カメラが搭載された車両が走行する走行車線と、前記部分領域に対応する対応車線とを特定する車線特定部
を備え、
前記特徴量取得部は、前記車線特定部によって特定された前記走行車線に対する前記対応車線の相対的な位置に応じた参照画像から計算された参照特徴量を取得する
請求項1に記載の車両判定装置。 - 前記特徴量取得部は、前記画像情報が示す領域の上下方向における前記部分領域の位置に応じた参照画像から計算された参照特徴量を取得する
請求項6に記載の車両判定装置。 - 前記車両判定装置は、さらに、
前記部分領域が、前記車両判定部によって周囲車両が存在すると判定された他の部分領域と重なる遮蔽領域を含む領域であるか否かを判定する遮蔽判定部
を備え、
前記特徴量取得部は、前記遮蔽判定部によって遮蔽領域を含む領域であると判定されたか否かに応じた参照画像から計算された参照特徴量を取得する
請求項1に記載の車両判定装置。 - カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定し、
特定された走行方向に応じた参照画像から計算された特徴量である参照特徴量を取得し、
前記部分領域についての前記画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と取得された参照特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定方法。 - カメラで撮影された画像情報が示す領域の部分領域について、前記部分領域を周囲車両が走行する走行方向を特定する方向特定処理と、
前記方向特定処理によって特定された走行方向に応じた参照画像から計算された参照特徴量を取得する特徴量取得処理と、
前記部分領域についての前記画像情報の特徴量である画像特徴量を計算し、計算された画像特徴量と前記特徴量取得処理によって取得された参照特徴量とを比較することにより、前記部分領域に周囲車両が存在するか否かを判定する車両判定処理と
をコンピュータに実行させる車両判定プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/052109 WO2017130285A1 (ja) | 2016-01-26 | 2016-01-26 | 車両判定装置、車両判定方法及び車両判定プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6038422B1 JP6038422B1 (ja) | 2016-12-07 |
JPWO2017130285A1 true JPWO2017130285A1 (ja) | 2018-02-01 |
Family
ID=57483098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016550877A Active JP6038422B1 (ja) | 2016-01-26 | 2016-01-26 | 車両判定装置、車両判定方法及び車両判定プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US10796569B2 (ja) |
JP (1) | JP6038422B1 (ja) |
CN (1) | CN108475471B (ja) |
DE (1) | DE112016005947B4 (ja) |
WO (1) | WO2017130285A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3602489B1 (en) * | 2017-03-28 | 2023-08-23 | HRL Laboratories, LLC | Machine-vision method to classify input data based on object components |
JP7117922B2 (ja) * | 2018-07-12 | 2022-08-15 | フォルシアクラリオン・エレクトロニクス株式会社 | 周辺認識装置及び車載カメラシステム |
JP7040428B2 (ja) | 2018-12-03 | 2022-03-23 | トヨタ自動車株式会社 | ステータ |
CN112461257A (zh) * | 2019-09-09 | 2021-03-09 | 华为技术有限公司 | 一种车道线信息的确定方法及装置 |
KR20210111557A (ko) * | 2020-03-03 | 2021-09-13 | 현대자동차주식회사 | 심층 학습 기반의 객체 분류 장치 및 그 방법 |
CN112669620B (zh) * | 2020-12-10 | 2022-05-24 | 深圳市金溢科技股份有限公司 | 车辆行驶方向判定方法、etc通信方法、obu及rsu |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4326992B2 (ja) * | 2004-03-17 | 2009-09-09 | アルパイン株式会社 | 周辺車両識別方法及びこれを用いた走行支援システム |
JP2005301603A (ja) * | 2004-04-09 | 2005-10-27 | Denso Corp | 走行車線検出装置 |
JP2005339176A (ja) | 2004-05-26 | 2005-12-08 | Alpine Electronics Inc | 車両認識装置、ナビゲーション装置および車両認識方法 |
JP2007329762A (ja) | 2006-06-08 | 2007-12-20 | Fujitsu Ten Ltd | 物体候補領域検出装置、物体候補領域検出方法、歩行者認識装置、および車両制御装置 |
JP4446201B2 (ja) | 2007-03-30 | 2010-04-07 | アイシン・エィ・ダブリュ株式会社 | 画像認識装置及び画像認識方法 |
TW201040893A (en) * | 2009-05-12 | 2010-11-16 | Ind Tech Res Inst | Method and apparatus for recognitizing types of vehicles |
JP5197679B2 (ja) | 2010-06-09 | 2013-05-15 | 株式会社豊田中央研究所 | 対象物検出装置及びプログラム |
JP4968369B2 (ja) * | 2010-06-25 | 2012-07-04 | アイシン・エィ・ダブリュ株式会社 | 車載装置及び車両認識方法 |
JP5691588B2 (ja) * | 2011-02-08 | 2015-04-01 | 富士通株式会社 | 車両認識装置、車両認識方法および車両認識プログラム |
JP2013161202A (ja) | 2012-02-03 | 2013-08-19 | Honda Motor Co Ltd | 車両周辺監視装置 |
CN102646199B (zh) * | 2012-02-29 | 2013-12-18 | 湖北莲花山计算机视觉和信息科学研究院 | 复杂场景中的车型识别方法 |
JP2013205410A (ja) * | 2012-03-30 | 2013-10-07 | Clarion Co Ltd | 車両用外界認識装置およびそれを用いた車両システム |
JP6051608B2 (ja) * | 2012-06-19 | 2016-12-27 | 市光工業株式会社 | 車両周辺対象物検出装置 |
CN103295403B (zh) * | 2013-06-17 | 2016-02-10 | 湘潭大学 | 一种交通流视觉检测方法 |
JP2015052548A (ja) * | 2013-09-09 | 2015-03-19 | 富士重工業株式会社 | 車外環境認識装置 |
CN103680154B (zh) * | 2013-12-02 | 2016-04-27 | 青岛海信网络科技股份有限公司 | 一种视频车辆检测方法 |
CN112866566B (zh) * | 2014-05-29 | 2023-05-09 | 株式会社尼康 | 驾驶辅助装置及驾驶辅助装置搭载车辆 |
CN104616503B (zh) * | 2015-03-08 | 2016-08-24 | 江苏巴吉装备科技有限公司 | 抢行左侧车道的车辆违章行为检测系统 |
-
2016
- 2016-01-26 US US15/780,589 patent/US10796569B2/en active Active
- 2016-01-26 CN CN201680079635.2A patent/CN108475471B/zh active Active
- 2016-01-26 WO PCT/JP2016/052109 patent/WO2017130285A1/ja active Application Filing
- 2016-01-26 DE DE112016005947.7T patent/DE112016005947B4/de active Active
- 2016-01-26 JP JP2016550877A patent/JP6038422B1/ja active Active
Also Published As
Publication number | Publication date |
---|---|
DE112016005947B4 (de) | 2021-06-24 |
US10796569B2 (en) | 2020-10-06 |
US20190005814A1 (en) | 2019-01-03 |
DE112016005947T5 (de) | 2018-09-27 |
CN108475471A (zh) | 2018-08-31 |
JP6038422B1 (ja) | 2016-12-07 |
CN108475471B (zh) | 2020-12-18 |
WO2017130285A1 (ja) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6038422B1 (ja) | 車両判定装置、車両判定方法及び車両判定プログラム | |
US10832061B2 (en) | Traveling road boundary estimation apparatus and traveling assistance system using same | |
US10668924B2 (en) | Method and apparatus to control velocity of vehicle | |
US9151626B1 (en) | Vehicle position estimation system | |
EP3637313A1 (en) | Distance estimating method and apparatus | |
US10795370B2 (en) | Travel assist apparatus | |
CN111178122B (zh) | 道路场景中三维车道的检测及平面表示 | |
US10074021B2 (en) | Object detection apparatus, object detection method, and program | |
JP6520740B2 (ja) | 物体検出方法、物体検出装置、およびプログラム | |
US11200432B2 (en) | Method and apparatus for determining driving information | |
JP7077910B2 (ja) | 区画線検出装置及び区画線検出方法 | |
US11468691B2 (en) | Traveling lane recognition apparatus and traveling lane recognition method | |
JP4940177B2 (ja) | 交通流計測装置 | |
EP3324359B1 (en) | Image processing device and image processing method | |
CN111213153A (zh) | 目标物体运动状态检测方法、设备及存储介质 | |
JP2019096132A (ja) | 物体認識装置 | |
CN113297881A (zh) | 一种目标检测方法及相关装置 | |
CN114705121B (zh) | 车辆位姿测量方法、装置及电子设备、存储介质 | |
JP6989284B2 (ja) | 車両位置推定装置及びプログラム | |
Leu et al. | High speed stereo vision based automotive collision warning system | |
KR102003387B1 (ko) | 조감도 이미지를 이용한 교통 장애물의 검출 및 거리 측정 방법, 교통 장애물을 검출하고 거리를 측정하는 프로그램을 저장한 컴퓨터 판독가능 기록매체 | |
TW201536609A (zh) | 障礙物偵測裝置 | |
CN107255470B (zh) | 障碍物检测装置 | |
KR101340014B1 (ko) | 위치 정보 제공 장치 및 방법 | |
CN114037977A (zh) | 道路灭点的检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20160927 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161004 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6038422 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |