JP6859374B2 - 予測装置、予測方法、およびプログラム - Google Patents

予測装置、予測方法、およびプログラム Download PDF

Info

Publication number
JP6859374B2
JP6859374B2 JP2019003844A JP2019003844A JP6859374B2 JP 6859374 B2 JP6859374 B2 JP 6859374B2 JP 2019003844 A JP2019003844 A JP 2019003844A JP 2019003844 A JP2019003844 A JP 2019003844A JP 6859374 B2 JP6859374 B2 JP 6859374B2
Authority
JP
Japan
Prior art keywords
vehicle
images
tilt angle
region
traffic congestion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019003844A
Other languages
English (en)
Other versions
JP2020113082A (ja
Inventor
越膳 孝方
孝方 越膳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2019003844A priority Critical patent/JP6859374B2/ja
Priority to US16/733,569 priority patent/US11260858B2/en
Publication of JP2020113082A publication Critical patent/JP2020113082A/ja
Application granted granted Critical
Publication of JP6859374B2 publication Critical patent/JP6859374B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units, or advanced driver assistance systems for ensuring comfort, stability and safety or drive control systems for propelling or retarding the vehicle
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0145Measuring and analyzing of parameters relative to traffic conditions for specific applications for active traffic flow control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Description

本発明は、予測装置、予測方法、およびプログラムに関する。
車両の現在位置と加速度の変化に基づいて、交通渋滞が発生する予兆を検知する技術が知られている(例えば、特許文献1参照)。
特開2016−201059号公報
しかしながら、従来の技術では、GNSS(Global Navigation Satellite System)を利用して測定した車両の位置を用いて交通渋滞の予兆を検知しているため、車両の位置を測定する際に生じた測定誤差が交通渋滞の予測精度に影響を与えやすく、また、位置情報を送信する際に生じた遅延が交通渋滞の予測精度に影響を与えやすい傾向にあった。この結果、交通渋滞が発生することを精度よく予測することができない場合があった。
本発明の態様は、このような事情を考慮してなされたものであり、交通渋滞が発生することを精度よく予測することができる予測装置、予測方法、およびプログラムを提供することを目的の一つとする。
本発明に係る予測装置、予測方法、およびプログラムは、以下の構成を採用した。
(1)本発明の一態様は、車両の進行方向前方を繰り返し撮像するカメラと、前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出する抽出部と、前記抽出部によって前記複数の画像のそれぞれから抽出された前記領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する予測部と、を備え、前記予測部が、前記領域の大きさの画像間における変化をスペクトル解析することで、前記領域の大きさの画像間における変化からパワースペクトルを導出し、周波数に応じた前記パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出し、前記第1傾斜角度の回帰直線の傾斜角度である第2傾斜角度を導出し、前記第2傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する、予測装置である。
(2)の態様は、上記(1)の態様の予測装置において、前記領域の大きさには、前記領域の面積、対角線の長さ、又は一辺の長さが含まれるものである。
(3)の態様は、上記(1)または(2)の態様の予測装置において、前記抽出部が、画像が入力されると、入力された画像において車両が存在する領域に関するパラメータを出力するように学習されたモデルに対して、前記カメラによって繰り返し撮像された各画像を入力し、前記画像を入力した前記モデルによって出力された前記パラメータに基づいて、前記カメラによって繰り返し撮像された各画像から、前記領域を抽出するものである。
(4)の態様は、上記(1)から(3)のうちいずれか一つの態様の予測装置において、前記予測部が、前記第2傾斜角度が、閾値以下の角度である場合、前記道路に前記交通渋滞が発生しやすいと予測し、前記第2傾斜角度が、前記閾値を超える角度である場合、前記道路に前記交通渋滞が発生しにくいと予測し、前記閾値は、1/fゆらぎの回帰曲線の傾斜角度であるものである。
(5)の態様は、上記(1)から(3)のうちいずれか一つの態様の予測装置において、前記予測部が、前記第2傾斜角度が小さいほど、前記道路に前記交通渋滞が発生しやすいと予測し、前記第2傾斜角度が大きいほど、前記道路に前記交通渋滞が発生しにくいと予測するものである。
(6)本発明の他の態様は、車両の進行方向前方を繰り返し撮像するカメラと、前記カメラによって繰り返し撮像された複数の画像のそれぞれから、前記車両と同じ第1車線に存在する第1他車両が含まれる第1領域と、前記第1車線に隣接した第2車線に存在する第2他車両が含まれる第2領域とを抽出する抽出部と、前記抽出部によって前記複数の画像のそれぞれから抽出された前記第1領域の大きさの画像間における変化および前記第2領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する予測部と、を備え、前記予測部が、前記第1領域の大きさの画像間における変化をスペクトル解析することで、前記第1領域の大きさの画像間における変化から第1パワースペクトルを導出し、前記第2領域の大きさの画像間における変化をスペクトル解析することで、前記第2領域の大きさの画像間における変化から第2パワースペクトルを導出し、周波数に応じた前記第1パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出し、周波数に応じた前記第2パワースペクトルの回帰直線の傾斜角度である第2傾斜角度を導出し、前記第1傾斜角度の回帰直線の傾斜角度である第3傾斜角度を導出し、前記第2傾斜角度の回帰直線の傾斜角度である第4傾斜角度を導出し、前記第3傾斜角度及び前記第4傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する、予測装置である。
(7)本発明の他の態様は、車両の進行方向前方を繰り返し撮像するカメラを備える車両に搭載されたコンピュータが、前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出し、前記複数の画像のそれぞれから抽出した前記領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測し、前記領域の大きさの画像間における変化をスペクトル解析することで、前記領域の大きさの画像間における変化からパワースペクトルを導出し、周波数に応じた前記パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出し、前記第1傾斜角度の回帰直線の傾斜角度である第2傾斜角度を導出し、前記第2傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する、予測方法である。
(8)本発明の他の態様は、車両の進行方向前方を繰り返し撮像するカメラを備える車両に搭載されたコンピュータに、前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出する処理と、前記複数の画像のそれぞれから抽出した前記領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する処理と、前記領域の大きさの画像間における変化をスペクトル解析することで、前記領域の大きさの画像間における変化からパワースペクトルを導出する処理と、周波数に応じた前記パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出する処理と、前記第1傾斜角度の回帰直線の傾斜角度である第2傾斜角度を導出する処理と、前記第2傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する処理と、を実行させるためのプログラムである。
上記のいずれかの一つの態様によれば、交通渋滞が発生することを精度よく予測することができる。
第1実施形態に係る予測装置100を含む予測システム1の構成の一例を示す図である。 第1実施形態に係る予測装置100の構成の一例を示す図である。 推論モデルMDLの一例を示す図である。 バンディングボックスBBが抽出された画像の一例を示す図である。 バンディングボックスBBが抽出された画像の一例を示す図である。 第1実施形態に係る予測装置100の一連の処理の流れを示すフローチャートである。 バンディングボックスBBの面積の変化の一例を示す図である。 傾斜角度θの一例を示す図である。 シーンAにおける傾斜角度θの一例を示す図である。 シーンBにおける傾斜角度θの一例を示す図である。 第1実施形態に係るサーバ装置200の構成の一例を示す図である。 第2実施形態に係る予測装置100の一連の処理の流れを示すフローチャートである。 複数のバンディングボックスBBが抽出された画像の一例を示す図である。 複数のバンディングボックスBBが抽出された画像の一例を示す図である。 シーンCにおけるバンディングボックスBBの面積の変化の一例を示す図である。 シーンCにおける傾斜角度θの一例を示す図である。 シーンCにおける傾斜角度θの一例を示す図である。 実施形態の予測装置100のハードウェア構成の一例を示す図である。
以下、図面を参照し、本発明の予測装置、予測方法、およびプログラムの実施形態について説明する。
<第1実施形態>
[システム構成]
図1は、第1実施形態に係る予測装置100を含む予測システム1の構成の一例を示す図である。第1実施形態に係る予測システム1は、例えば、複数の予測装置100と、サーバ装置200とを備える。図示の例のように、各予測装置100は、車両Mに搭載される。車両Mは、例えば、二輪や三輪、四輪等の車両である。これらの車両の駆動源は、ディーゼルエンジンやガソリンエンジン等の内燃機関、電動機、或いはこれらの組み合わせであってよい。電動機は、内燃機関に連結された発電機による発電電力、或いは二次電池や燃料電池の放電電力を使用して動作する。
予測装置100とサーバ装置200とは、ネットワークNWを介して通信可能に接続される。ネットワークNWには、LAN(Local Area Network)やWAN(Wide Area Network)などが含まれる。ネットワークNWには、例えば、Wi−FiやBluetooth(登録商標、以下省略)などの無線通信を利用したネットワークが含まれてよい。
予測装置100は、車両Mの進行方向前方を撮像した画像を解析することで、車両Mが存在する道路に交通渋滞が発生することを予測する装置である。
サーバ装置200は、各車両Mに搭載された予測装置100と通信し、予測装置100から交通渋滞の予測結果を示すデータを収集する。サーバ装置200は、収集したデータに基づいて、交通渋滞が発生することを抑制する制御を行う。例えば、サーバ装置200は、多くの予測装置100によって交通渋滞が発生すると予測された地点の周辺を走行している車両を、サービスエリアやパーキングエリアに一時的に誘導することで、交通渋滞を緩和したり、交通渋滞が発生すると予測された地点を含む道路に連結されたランプウェイなどを一時的に閉鎖して、交通渋滞が発生し得る道路に流入する車両の数を減らしたりしてよい。また、サーバ装置200は、交通渋滞が発生すると予測された地点の周辺を走行している車両を遠隔で制御することで、その車両の速度を制限したり、レーンチェンジが行われるのを抑制したりしてもよい。
[予測装置の構成]
図2は、第1実施形態に係る予測装置100の構成の一例を示す図である。第1実施形態に係る予測装置100は、例えば、カメラ102と、通信部104と、表示部106と、入力部108と、記憶部110と、制御部130とを備える。
これらの装置や機器は、CAN(Controller Area Network)通信線等の多重通信線やシリアル通信線、無線通信網等によって互いに接続されてよい。なお、図2に示す予測装置100の構成はあくまでも一例であり、構成の一部が省略されてもよいし、更に別の構成が追加されてもよい。
カメラ102は、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)等の固体撮像素子を利用したデジタルカメラである。カメラ102は、予測装置100が搭載された車両M(以下、自車両Mと称する)のフロントウィンドウ越しに、自車両Mの進行方向前方を繰り返し撮像する。例えば、カメラ102は、所定の周期で繰り返し撮像してもよいし、自車両Mが所定の距離進むごとに繰り返し撮像してもよい。カメラ102は、撮像した画像のデータ(以下、画像データ)を生成し、生成した画像データを制御部130に出力する。
通信部104は、アンテナやNIC(Network Interface Card)などの通信インターフェースを含む。通信部104は、ネットワークNWを介してサーバ装置200などと通信する。
表示部106は、LCD(Liquid Crystal Display)や有機EL(Electroluminescence)ディスプレイなどの表示装置を含む。表示部106は、制御部130により出力される情報に基づいて画像を表示する。
入力部108は、例えば、ボタン、キーボードやマウス等のユーザインターフェースである。入力部108は、ユーザの操作を受け付けて、受け付けた操作に応じた信号を制御部130に出力する。入力部108は、表示部106と一体として構成されるタッチパネルであってもよい。
記憶部110は、HDD、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、ROM(Read Only Memory)、またはRAM(Random Access Memory)等により実現される。記憶部110には、例えば、プロセッサによって参照されるプログラムや、推論モデルデータ112などが格納される。
推論モデルデータ112は、画像から、境界付けられた車両の領域(以下、バンディングボックスBB(Bounding Box)と称する)を抽出するための推論モデルMDLを定義した情報(プログラムまたはデータ構造)である。
図3は、推論モデルMDLの一例を示す図である。図示の例のように、推論モデルMDLは、画像が入力されると、画像におけるバンディングボックスBBの座標を出力するように学習されたモデルである。
推論モデルMDLは、例えば、CNN(Convolutional Neural Network)などを含むDNN(Deep Neural Network(s))を利用して実現されてよい。また、推論モデルMDLは、DNNに限られず、ロジスティック回帰やSVM(Support Vector Machine)、k−NN(k-Nearest Neighbor algorithm)、決定木、単純ベイズ分類器、ランダムフォレストといった他のモデルによって実現されてもよい。
推論モデルMDLがCNNなどのDNNによって実現される場合、推論モデルデータ112には、例えば、推論モデルMDLに含まれる各DNNを構成する入力層、一以上の隠れ層(中間層)、出力層の其々に含まれるニューロン(ユニットあるいはノード)が互いにどのように結合されるのかという結合情報や、結合されたニューロン間で入出力されるデータに付与される結合係数がいくつであるのかという重み情報などが含まれる。結合情報は、例えば、各層に含まれるニューロン数や、各ニューロンの結合先のニューロンの種類を指定する情報、各ニューロンを実現する活性化関数、隠れ層のニューロン間に設けられたゲートなどの情報を含む。ニューロンを実現する活性化関数は、例えば、入力符号に応じて動作を切り替える関数(ReLU(Rectified Linear Unit)関数やELU(Exponential Linear Units)関数など)であってもよいし、シグモイド関数や、ステップ関数、ハイパポリックタンジェント関数であってもよいし、恒等関数であってもよい。ゲートは、例えば、活性化関数によって返される値(例えば1または0)に応じて、ニューロン間で伝達されるデータを選択的に通過させたり、重み付けたりする。結合係数は、活性化関数のパラメータであり、例えば、ニューラルネットワークの隠れ層において、ある層のニューロンから、より深い層のニューロンにデータが出力される際に、出力データに対して付与される重みを含む。また、結合係数は、各層の固有のバイアス成分などを含んでもよい。
制御部130は、例えば、抽出部132と、予測部134と、出力制御部136と、通信制御部138と、学習部140とを備える。
これらの構成要素は、例えば、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサがプログラム(ソフトウェア)を実行することにより実現される。また、これらの構成要素のうち一部または全部は、LSI(Large Scale Integration)やASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等のハードウェア(回路部;circuitryを含む)によって実現されてもよいし、ソフトウェアとハードウェアの協働によって実現されてもよい。プログラムは、予め記憶部110に格納されていてもよいし、DVDやCD−ROM等の着脱可能な記憶媒体に格納されており、記憶媒体がディスクドライブなどのドライブ装置に装着されることで記憶部110にインストールされてもよい。
抽出部132は、カメラ102によって繰り返し撮像された複数の画像のそれぞれから、バンディングボックスBBを抽出する。
例えば、抽出部132は、推論モデルデータ112が示す推論モデルMDLに対して、カメラ102によって撮像された画像を入力する。具体的には、抽出部132は、推論モデルMDLに対して、画像に含まれる複数の画素のそれぞれに対応した要素をもつ行列を入力する。推論モデルMDLは、画像が入力されると、その画像上におけるバンディングボックスBBの座標を出力する。バンディングボックスBBの座標は、例えば、バンディングボックスBBの領域が四角形状である場合、4つの頂点のうち、互いに辺を共有しない2つの対頂点の座標である。抽出部132は、推論モデルMDLによって、2つの対頂点の座標が出力されると、その2つの対頂点の座標に基づいて、画像からバンディングボックスBBを抽出する。バンディングボックスBBの対頂点の座標は、「車両が存在する領域に関するパラメータ」の一例である。
図4および図5は、バンディングボックスBBが抽出された画像の一例を示す図である。図中L1は、自車両Mが走行する自車線を表しており、L2は、自車線L1の進行方向右側に隣接した隣接車線を表しており、L3は、自車線L1の進行方向左側に隣接した隣接車線を表している。LM1は、自車線L1と右側の隣接車線L2との間を区画する区画線を表しており、LM2は、自車線L1と左側の隣接車線L3との間を区画する区画線を表している。カメラ102は自車両Mの進行方向前方を撮像するため、例えば、自車線L1において自車両Mよりも前方に先行車が存在した場合、抽出部132は、画像から、先行車のリア(後面)の領域をバンディングボックスBBとして抽出することになる。以下、図4に例示する場面を、シーンAと称し、図4に例示する場面よりも先行車が自車両Mに近い図5に例示する場面を、シーンBと称して説明する。
予測部134は、抽出部132によって複数の画像のそれぞれからバンディングボックスBBが抽出されると、各画像のバンディングボックスBBの領域面積を比較し、そのバンディングボックスBBの領域面積の変化に基づいて、自車両Mが存在する道路に交通渋滞が発生することを予測する。言い換えれば、予測部134は、時間的あるいは距離的に連続した系列データである複数の画像を基に、自車両Mの前方に存在する他車両のリアの領域面積がどのように変化していくのかを解析することで、自車両Mが存在する道路に交通渋滞が発生することを予測する。
出力制御部136は、例えば、予測部134によって交通渋滞が発生することが予測された場合、交通渋滞が発生することを表す画像を表示部106に表示させる。
通信制御部138は、通信部104を介して、予測部134による予測結果を示すデータをサーバ装置200に送信する。
学習部140は、予め用意された教師データに基づいて、推論モデルMDLを学習する。教師データは、自車両Mの前方に先行車などの他車両が存在する状況下で自車両Mの進行方向前方を撮像した画像に対して、画像上におけるバンディングボックスBBの座標が教師ラベルとして対応付けられたデータである。
例えば、学習部140は、教師データの画像を推論モデルMDLに入力し、その画像を入力した推論モデルMDLによって出力されたバンディングボックスBBの座標が、教師ラベルとして対応付けられた正解のバンディングボックスBBの座標に近づくように、推論モデルMDLを学習する。
例えば、推論モデルMDLがニューラルネットワークである場合、学習部140は、推論モデルMDLによって出力されたバンディングボックスBBの座標と、教師ラベルのバンディングボックスBBの座標との差分が小さくなるように、推論モデルMDLのパラメータを、SGD(Stochastic Gradient Descent)、Momentum SGD、AdaGrad、RMSprop、AdaDelta、Adam(Adaptive moment estimation)などの確率的勾配降下法を利用して学習する。
なお、予測装置100の制御部130は、学習部140を備えていなくてもよい。例えば、予測装置100以外の他の装置(例えば、ネットワークNWを介して予測装置100に対して接続されたサーバ装置など)が、推論モデルMDLを学習してよい。この場合、予測装置100は、他装置によって学習された推論モデルMDLを、他装置からダウンロードするなどして、記憶部110に記憶させる。
[予測装置の処理フロー]
以下、第1実施形態に係る予測装置100の一連の処理の流れについてフローチャートを用いて説明する。図6は、第1実施形態に係る予測装置100の一連の処理の流れを示すフローチャートである。本フローチャートの処理は、所定の周期で繰り返し行われてよい。
まず、抽出部132は、カメラから画像を取得し(ステップS100)、取得した画像を推論モデルMDLに入力する(ステップS102)。
次に、抽出部132は、画像を入力した推論モデルMDLによる出力結果、すなわちバンディングボックスBBの座標に基づいて、画像からバンディングボックスBBを抽出する(ステップS104)。
次に、予測部134は、抽出部132によって抽出されたバンディングボックスBBの面積を算出する(ステップS106)。例えば、予測部134は、バンディングボックスBBとして抽出された画像領域に含まれるピクセル数をカウントし、そのカウントしたピクセル数に、一ピクセルあたりの大きさを乗算することで、バンディングボックスBBの面積を算出する。なお、予測部134は、バンディングボックスBBの面積を算出する代わりに、或いは加えて、バンディングボックスBBの対角線の長さや、一辺の長さを算出してもよい。
次に、予測部134は、規定数の画像からバンディングボックスBBが抽出されたか否かを判定する(ステップS108)。規定数は、例えば、所定期間(数秒から数十秒)が経過するまでに撮像が繰り返される回数であってもよいし、自車両Mが所定距離を進むまでに撮像が繰り返される回数であってもよい。
予測部134は、規定数の画像からバンディングボックスBBが未だ抽出されていない場合、S100に処理を戻す。これを受けて、抽出部132は、規定数の画像からバンディングボックスBBを抽出するまで、カメラ10によって繰り返し撮像される各画像から、バンディングボックスBBを抽出することを繰り返す。
一方、予測部134は、規定数の画像からバンディングボックスBBが抽出された場合、画像間のバンディングボックスBBの面積の変化をスペクトル解析(周波数解析)することで、時間的または空間的に連続した、ある系列の複数の画像のそれぞれから抽出されたバンディングボックスBBの面積が、周波数に応じてどのように分布するのかを表したパワースペクトルを導出する(ステップS110)。
図7は、バンディングボックスBBの面積の変化の一例を示す図である。図示の例では、時間に対するバンディングボックスBBの面積の変化を表している。例えば、予測部134は、時間に対するバンディングボックスBBの面積の変化を一つの信号を捉え、その信号の自己相関を算出する。そして、予測部134は、算出した自己相関をフーリエ変換することで、パワースペクトルを導出する。なお、予測部134は、バンディングボックスBBの面積の代わりに、或いは加えて、対角線の長さや、一辺の長さを算出した場合、それらの長さの画像間の変化をスペクトル解析することで、パワースペクトルを導出してもよい。
図6のフローチャートの説明に戻る。次に、予測部134は、ある周波数帯域のパワースペクトルの回帰直線を導出する(ステップS112)。
例えば、カオス的なふるまいを見せる交通流にはバタフライ効果と呼ばれる現象(カオス現象)が存在しており、交通流がどのように変化するのかを長期的に予測することは難しいことが知られている。また、バタフライ効果によってカオス的に運動する交通流では、交通渋滞の発生に対して、高周波数よりも低周波数のパワースペクトルが大きく影響を及ぼしていることが知られている。
従って、予測部134は、ある基準の周波数よりも低い周波数帯域(以下、低周波数帯域と称する)のパワースペクトルに対して、最小二乗法などを適用して、重み係数αやバイアス成分bといったパラメータを推定することで、y=αx+bのような回帰直線を導出する。
次に、予測部134は、導出した回帰直線の傾斜角度(以下、第1傾斜角度θと称する)を導出する(ステップS114)。
図8は、第1傾斜角度θの一例を示す図である。図中の横軸は、周波数(例えば単位は[Hz])を表し、縦軸は、パワースペクトル(例えば単位は[dB])を表している。LNaは、回帰曲線を表している。図示の例のように、第1傾斜角度θとは、ホワイトノイズのように、周波数に依らずにパワースペクトルの強さ(例えば密度や電圧、電力など)を一定とした近似直線、すなわち横軸の周波数軸に対して平行な直線LNREF1と、回帰直線LNaとのなす角度である。例えば、第1傾斜角度θは、周波数軸と平行な直線LNREF1に比して、回帰直線LNaが高周波になるほどパワースペクトルが減衰する直線である場合、マイナスの角度となり、周波数軸と平行な直線LNREF1に比して、回帰直線LNaが高周波になるほどパワースペクトルが増幅する直線である場合、プラスの角度となる。従って、第1傾斜角度θは、周波数に応じたパワースペクトルの強さの減衰の度合いを表している。
一般的に、ピンクノイズのように、高周波から低周波になるにつれてパワースペクトルが高くなるほど、加速および減速の動的時間応答の遅れが増大傾向に変化し、速度のばらつきが増大する。これによって、燃費などのエネルギー効率を優先させながら自車両Mを走行させることが難しくなり、渋滞が発生し易くなるとともにエネルギー効率が低下する傾向にある。
例えば、低周波数帯域において第1傾斜角度θの回帰直線の傾き(以下、第2傾斜角度φと称する)が小さい場合、自車両Mが先行車から受ける衝撃波が小さくなりやすい。衝撃波とは、車両が加速および減速の動作を繰り返すことにより、この動作(前後の動き)を後方の車両に一種の振動やゆらぎとして伝播させることを意味する。自車両Mが先行車から受ける衝撃波が小さい場合、先行車に対する自車両Mの反応遅れが小さくなり、後続車などの他車両に影響を及ぼしにくく、他車両と同調しながら自車両Mを走行させやすくなる。この結果、交通渋滞が発生する蓋然性が低下しやすくなる。
一方で、低周波数帯域において第1傾斜角度θの回帰直線の傾きである第2傾斜角度φが大きい場合、自車両Mが先行車から受ける衝撃波が大きくなりやすい。そのため、先行車に対する自車両Mの反応遅れが大きくなり、後続車などの他車両に影響を及ぼしやすく、他車両と同調しながら自車両Mを走行させにくくなる。この結果、交通渋滞が発生する蓋然性が向上しやすくなる。
図6のフローチャートの説明に戻る。次に、予測部134は、S110からS114の一連の処理、すなわち第1傾斜角度θを導出するという処理を所定回数行ったか否かを判定する(ステップS116)。
予測部134は、第1傾斜角度θを導出する処理を所定回数行っていない場合、S100に処理を戻す。
一方、予測部134は、第1傾斜角度θを導出する処理を所定回数行った場合、第1傾斜角度θの平均回帰直線を導出し(ステップS118)、その回帰直線の傾きである第2傾斜角度φを導出する(ステップS120)。
図9は、シーンAにおける第1傾斜角度θの一例を示す図である。図10は、シーンBにおける第1傾斜角度θの一例を示す図である。各図における縦軸は、第1傾斜角度θを表しており、横軸は、一例として時間(単位は[秒])を表している。いずれの図においても、第1傾斜角度θは、10秒という周期で繰り返し導出されていることを表している。図示の例のように、第2傾斜角度φは、周波数に依らずにパワースペクトルの強さを一定とした近似直線、すなわち横軸の周波数軸に対して平行な直線LNREF2と、第1傾斜角度θの回帰直線LNbとのなす角度である。
図9における第1傾斜角度θの平均回帰直線LNbは、図10における第1傾斜角度θの平均回帰直線LNbに比して、傾斜が緩やかであることから、シーンBに比してシーンAの方が、第2傾斜角度φが小さいことを表している。すなわち、シーンBに比してシーンAの方が、自車両Mと先行車との相対的な加速度の変化が小さく、滑らかな運転が行われていることを示している。
図6のフローチャートの説明に戻る。次に、予測部134は、第2傾斜角度φが閾値φTH以下であるのか否かを判定する(ステップS122)。閾値φTHは、交通渋滞が発生したか否かの境界となる角度であり、例えば、パワースペクトルが周波数に反比例して減衰する1/fゆらぎ(1/fノイズ)の回帰曲線の傾斜角度(=−45度程度)に設定される。
例えば、第2傾斜角度φが−60度のような閾値φTH以下の角度である場合、周波数に応じたパワースペクトルの強さの減衰が、1/fゆらぎよりも大きい減衰であることから、交通渋滞が発生する蓋然性が高い状況にあると判断することができる。
一方で、例えば、第2傾斜角度φが−10度のような閾値φTHを超える角度である場合、周波数に応じたパワースペクトルの強さの減衰が、1/fゆらぎよりも小さい減衰であることから、交通渋滞が発生する蓋然性が低い状況にあると判断することができる。
従って、予測部134は、交通渋滞が発生する蓋然性が高い状況、すなわち、第2傾斜角度φが閾値φTH以下である場合、交通渋滞の発生確率を導出する(ステップS124)。例えば、予測部134は、第2傾斜角度φが小さいほど、より大きい値の発生確率を導出し、第2傾斜角度φが大きいほど、より小さい値の発生確率を導出してよい。
また、予測部134は、第2傾斜角度φが閾値φTH以下であるか否かを判定することに加えて、更に、第2傾斜角度φが正であるのか否かを判定し、その判定結果に応じて、交通渋滞の発生確率を導出するか否かを決定してもよい。
例えば、第2傾斜角度φが閾値φTH以下であり、第2傾斜角度φが正である場合、交通渋滞が発生する予兆があり、更には、時間が経過するのに応じて、或いは走行距離が長くなるのに応じて交通渋滞が発生する蓋然性が高まっている状況にあると判断することができる。
また、第2傾斜角度φが閾値φTHを超えており、第2傾斜角度φが正である場合、時間が経過するのに応じて、或いは走行距離が長くなるのに応じて交通渋滞が発生する蓋然性が高まっているものの、交通渋滞が発生する予兆といえるほどの蓋然性ではないと判断することができる。
また、第2傾斜角度φが閾値φTH以下であり、第2傾斜角度φが負である場合、交通渋滞が発生する一時的な予兆があるものの、時間が経過するのに応じて、或いは走行距離が長くなるのに応じて交通渋滞が発生する蓋然性が低下している状況にあると判断することができる。
また、第2傾斜角度φが閾値φTHを超えており、第2傾斜角度φが負である場合、交通渋滞が発生する予兆もなく、時間が経過するのに応じて、或いは走行距離が長くなるのに応じて交通渋滞が発生する蓋然性が低下している状況にあると判断することができる。
そのため、予測部134は、第2傾斜角度φが閾値φTH以下の範囲で小さく、且つ、第1傾斜角度θの回帰直線LNbの傾きである第2傾斜角度φが正に大きくなるほど、より大きい値の発生確率を導出し、第2傾斜角度φが閾値φTH以下の範囲で大きく、且つ、第2傾斜角度φが負に大きくなるほど、小さい値の発生確率を導出してよい。
より具体的には、予測部134は、第2傾斜角度φが閾値φTH以下であるときに、第2傾斜角度φが正である場合(φ>φTH>0)、発生確率を1とし、第2傾斜角度φが負である場合(0<φ<φTH)、発生確率を0としてよい。
予測部134は、発生確率を導出すると、その導出した発生確率に応じて、自車両Mが存在する道路に交通渋滞が発生することを予測する。すなわち、予測部134は、発生確率に応じて、交通渋滞の予兆を検知する。
例えば、予測部134は、発生確率が閾値以上である場合、すなわち渋滞の予兆がある場合、交通渋滞が発生すると予測し、発生確率が閾値未満である場合、すなわち渋滞の予兆がない場合、交通渋滞が発生しないと予測してよい。
次に、通信制御部138は、通信部104を制御して、予測部134によって予測された交通渋滞の発生有無を、交通渋滞の予測結果としてサーバ装置200に送信する(ステップS126)。交通渋滞の予測結果には、GNSSなどを利用して測定された自車両Mの位置情報が含まれてよい。これによって、本フローチャートの処理が終了する。
[サーバ装置の構成]
図11は、第1実施形態に係るサーバ装置200の構成の一例を示す図である。第1実施形態に係るサーバ装置200は、例えば、通信部202と、記憶部210と、制御部230とを備える。
通信部202は、例えば、NICなどの通信インターフェースを含む。通信部202は、ネットワークNWを介して各車両Mに搭載された予測装置100などと通信する。
記憶部210は、HDD、フラッシュメモリ、EEPROM、ROM、またはRAM等により実現される。記憶部210には、例えば、プロセッサによって参照されるプログラムや、渋滞予測データ212などが格納される。
渋滞予測データ212は、各車両を識別する識別情報に対して、交通渋滞の発生の有無が対応付けられたデータである。例えば、ある車両Aから送信された予測結果が、交通渋滞が発生するという予測結果であった場合、渋滞予測データ212上では、その予測結果をサーバ装置200に送信した車両Aの識別情報に対して、交通渋滞が発生する旨の情報が対応付けられる。
制御部230は、通信部202によって予測装置100から予測結果が受信されると、その予測装置100を搭載した車両Mの識別情報に対して、交通渋滞が発生する旨の情報を対応付けることで、渋滞予測データ212を更新する。
また、制御部230は、所定の周期で、渋滞予測データ212を参照し、交通渋滞が発生することを抑制する制御を行う。例えば、制御部230は、通信部202を制御して、交通渋滞が発生することを予測した複数の車両Mが存在する地点(以下、渋滞発生予測地点と称する)の周辺を走行している車両に、サービスエリアやパーキングエリアに立ち寄るように指示する情報を送信する。また、制御部230は、通信部202を制御して、渋滞発生予測地点に至る経路に進入するためのランプウェイの料金所に、ランプウェイを閉鎖するように指示する情報を送信してもよい。また、制御部230は、通信部202を用いて、渋滞発生予測地点の周辺を走行している車両を遠隔で制御することで、その車両の速度を制限したり、レーンチェンジが行われるのを抑制したりしてもよい。
以上説明した第1実施形態によれば、自車両Mの進行方向前方を繰り返し撮像するカメラ102と、カメラ102によって繰り返し撮像された複数の画像のそれぞれから、バンディングボックスBBを抽出する抽出部132と、抽出部132によって複数の画像のそれぞれから抽出されたバンディングボックスBBの画像間の変化に基づいて、自車両Mが存在する道路に交通渋滞が発生することを予測する予測部134とを備えることによって、交通渋滞が発生することを精度よく予測することができる。すなわち、渋滞の予兆を精度よく検知することができる。この結果、渋滞緩和などを目的として交通量を適切に制御することができるため、事前に交通渋滞を防止したり、渋滞時間を短縮したりすることができる。
<第2実施形態>
以下、第2実施形態について説明する。上述した第1実施形態では、自車線上に先行車が存在する状況で、交通渋滞が発生することを予測するものとして説明した。これに対して、第2実施形態では、車線上に先行車が存在する状況下で、更に隣接車線にも他車両が存在する場合に、交通渋滞が発生することを予測する点で上述した第1実施形態と相違する。すなわち、第2実施形態では、自車両Mの前方に、複数の他車両が存在する点で上述した第1実施形態と相違する。以下、第1実施形態との相違点を中心に説明し、第1実施形態と共通する点については説明を省略する。なお、第2実施形態の説明において、第1実施形態と同じ部分については同一符号を付して説明する。
図12は、第2実施形態に係る予測装置100の一連の処理の流れを示すフローチャートである。本フローチャートの処理は、所定の周期で繰り返し行われてよい。
まず、抽出部132は、カメラから画像を取得し(ステップS200)、取得した画像を推論モデルMDLに入力する(ステップS202)。
次に、抽出部132は、画像を入力した推論モデルMDLによる出力結果、すなわちバンディングボックスBBの座標に基づいて、画像からバンディングボックスBBを抽出する(ステップS204)。
次に、予測部134は、抽出部132によって抽出されたバンディングボックスBBの数が複数個であるのか否かを判定する(ステップS206)。
予測部134は、抽出部132によって抽出されたバンディングボックスBBの数が1つである場合、第1実施形態に係るフローチャートのS106に処理を移す。
一方、予測部134は、抽出部132によって抽出されたバンディングボックスBBの数が複数個である場合、複数のバンディングボックスBBのそれぞれの面積を算出する(ステップS208)。なお、予測部134は、バンディングボックスBBの面積の代わりに、或いは加えて、バンディングボックスBBの対角線の長さや、一辺の長さを算出してもよい。
図13および図14は、複数のバンディングボックスBBが抽出された画像の一例を示す図である。図13に例示するシーンCの画像では、自車線L1上に先行車が存在するとともに、右側の隣接車線L2上に他車両が存在している。また、図13に例示するシーンDの画像では、さらに、左側の隣接車線L3上に他車両が存在している。このようなシーンでは、第3実施形態に係る抽出部132は、画像から、各車両のリアの領域をバンディングボックスBBとして抽出する。例えば、抽出部132は、シーンCの画像からは、自車線L1上に存在する先行車のリアの領域をバンディングボックスBB1として抽出し、隣接車線L2上に存在する他車両のリアの領域をバンディングボックスBB2として抽出する。また、抽出部132は、シーンDの画像からは、自車線L1上に存在する先行車のリアの領域をバンディングボックスBB1として抽出し、隣接車線L2上に存在する他車両のリアの領域をバンディングボックスBB2として抽出し、隣接車線L3上に存在する他車両のリアの領域をバンディングボックスBB3として抽出する。これを受けて、予測部134は、各バンディングボックスBBの面積を算出する。
次に、予測部134は、規定数の画像からバンディングボックスBBが抽出されたか否かを判定する(ステップS210)。
予測部134は、未だ規定数の画像からバンディングボックスBBが抽出されていない場合、S200に処理を戻す。これを受けて、抽出部132は、規定数の画像からバンディングボックスBBを抽出するまで、カメラ10によって繰り返し撮像される各画像から、バンディングボックスBBを抽出することを繰り返す。
一方、予測部134は、規定数の画像からバンディングボックスBBが抽出された場合、複数のバンディングボックスBBのそれぞれの画像間の面積の変化や、画像間の対角線の長さの変化、画像間の一辺の長さの変化などをスペクトル解析することで、各バンディングボックスBBに一対一に対応したパワースペクトルを導出する(ステップS212)。
図15は、シーンCにおけるバンディングボックスBBの面積の変化の一例を示す図である。図中LN1は、自車線L1上に存在する先行車のバンディングボックスBB1の時間に対する面積の変化を表しており、LN2は、隣接車線L2上に存在する他車両のバンディングボックスBB2の時間に対する面積の変化を表している。
例えば、第2実施形態に係る予測部134は、バンディングボックスBB1と、バンディングボックスBB2とのそれぞれの時間に対する面積の変化を一つの信号を捉え、それらの信号の自己相関を算出する。そして、予測部134は、算出した自己相関をフーリエ変換することで、複数のバンディングボックスBBのそれぞれに対応したパワースペクトルを導出する。なお、予測部134は、バンディングボックスBBの面積の代わりに、或いは加えて、対角線の長さや、一辺の長さを算出した場合、それらの長さの画像間の変化をスペクトル解析することで、パワースペクトルを導出してもよい。
自車線は、「第1車線」の一例であり、隣接車線は、「第2車線」の一例である。また、自車線上の先行車は、「第1他車両」の一例であり、隣接車線上の他車両は、「第2他車両」の一例である。また、バンディングボックスBB1は、「第1領域」の一例であり、バンディングボックスBB2またはバンディングボックスBB3は、「第2領域」の一例である。また、バンディングボックスBB1に対応したパワースペクトルは、「第1パワースペクトル」の一例であり、バンディングボックスBB2またはバンディングボックスBB3に対応したパワースペクトルは、「第2パワースペクトル」の一例である。
次に、予測部134は、低周波数帯域において、各バンディングボックスBBに対応したパワースペクトルの回帰直線を導出する(ステップS214)。
次に、予測部134は、パワースペクトルごとに導出した回帰直線の第1傾斜角度θを導出する(ステップS216)。例えば、予測部134は、バンディングボックスBB1に対応したパワースペクトルの回帰直線の傾きを、第1傾斜角度θ1として導出し、バンディングボックスBB2に対応したパワースペクトルの回帰直線の傾きを、第1傾斜角度θ2として導出する。
次に、予測部134は、S212からS216の一連の処理、すなわち第1傾斜角度θを導出するという処理を所定回数行ったか否かを判定する(ステップS218)。
予測部134は、第1傾斜角度θを導出する処理を所定回数行っていない場合、S200に処理を戻す。
一方、予測部134は、第1傾斜角度θを導出する処理を所定回数行った場合、パワースペクトルごとに第1傾斜角度θの平均回帰直線を導出し、その回帰直線の傾きである第2傾斜角度φを導出する(ステップS220)。
図16および図17は、シーンCにおける第1傾斜角度θの一例を示す図である。図16は、バンディングボックスBB1に対応したパワースペクトルの回帰直線の傾きである第1傾斜角度θ1を表しており、図17は、バンディングボックスBB2に対応したパワースペクトルの回帰直線の傾きである第1傾斜角度θ2を表している。
予測部134は、横軸の周波数軸に対して平行な直線LNREF2と第1傾斜角度θ1の回帰直線LNbとのなす角度を、バンディングボックスBB1に対応した第2傾斜角度φ1として導出し、直線LNREF2と第1傾斜角度θ2の回帰直線LNbとのなす角度を、バンディングボックスBB2に対応した第2傾斜角度φ2として導出する。
次に、予測部134は、複数のバンディングボックスBBのそれぞれに対応した第2傾斜角度φのそれぞれについて、閾値φTH以下であるのか否かを判定する(ステップS224)。
予測部134は、全ての第2傾斜角度φが閾値φTHを超えると判定した場合、交通渋滞が発生しないと予測し、本フローチャートの処理を終了する。
一方、予測部134は、少なくとも一つ以上の第2傾斜角度φが閾値φTH以下であると判定した場合、閾値φTH以下である第2傾斜角度φに基づいて、交通渋滞の発生確率を導出する(ステップS226)。
例えば、予測部134は、自車線上に存在する先行車のバンディングボックスBBに対応した第2傾斜角度φが閾値φTH以下であり、且つ先行車のバンディングボックスBBに対応した第2傾斜角度φが正である場合、隣接車線上に存在する一台以上の他車両のそれぞれのバンディングボックスBBに対応した第2傾斜角度φのうち、閾値φTH以下であり、且つ正の値である第2傾斜角度φの数に基づいて、発生確率を導出する。
言い換えれば、予測部134は、自車線上に存在する先行車の挙動にカオス現象が生じている状況下において、更に、隣接車線上に存在する他車両の挙動にもカオス現象が生じている場合、隣接車線上においてカオス的な挙動を見せている他車両の台数に基づいて、発生確率を導出する。
例えば、予測部134は、隣接車線上に存在する一台以上の他車両のうち、2台の他車両にカオス的な挙動が現れていると判定した場合、すなわち、第2傾斜角度φが閾値φTH以下であり、且つ正の値であるという条件(φ>φTH>0)を満たす他車両が隣接車線上に2台存在する場合、隣接車線上に他車両が存在せず、自車線上のみに先行車が存在している状況下で導出される発生確率(すなわちS124の処理で導出される発生確率)に対して、2の倍数などの重み係数を乗算した値を、発生確率として導出する。このように、隣接車線上でカオス的な挙動が見られる他車両の数に応じて発生確率を重みづけることで、先行車の挙動だけでは渋滞の発生確率が低い場合であっても、隣接車線上の他車両がカオス現象を引き起こすような挙動である場合には、その発生確率を高めることができる。
予測部134は、発生確率を導出すると、その導出した発生確率が閾値以上である場合、すなわち渋滞の予兆がある場合、交通渋滞が発生すると予測し、発生確率が閾値未満である場合、すなわち渋滞の予兆がない場合、交通渋滞が発生しないと予測する。
次に、通信制御部138は、通信部104を制御して、予測部134によって予測された交通渋滞の発生有無を、交通渋滞の予測結果としてサーバ装置200に送信する(ステップS228)。交通渋滞の予測結果には、GNSSなどを利用して測定された自車両Mの位置情報が含まれてよい。これによって、本フローチャートの処理が終了する。
以上説明した第2実施形態によれば、抽出部132が、カメラ102によって繰り返し撮像された複数の画像のそれぞれから、自車線上に存在する先行車のバンディングボックスBBと、少なくともいずれか一方の隣接車線上に存在する他車両のバンディングボックスBBとを抽出し、予測部134が、自車線上に存在する先行車のバンディングボックスBBの画像間の変化と、隣接車線上に存在する他車両のバンディングボックスBBの画像間の変化とに基づいて、自車両Mが存在する道路に交通渋滞が発生することを予測するため、第1実施形態と同様に、交通渋滞が発生することを精度よく予測することができる。これにより、例えば、隣接車線上を走行している他車両が自車線上にレーンチェンジする際に、自車線上の先行車が隣接車線上の他車両から影響を受けて加速したり減速したりすることを考慮することができる。この結果、先行車の挙動だけでは渋滞の発生確率が低い場合であっても、隣接車線上の他車両がカオス現象を引き起こすような挙動である場合には、その発生確率を高めることができ、より高精度に交通渋滞の発生を予測することができる。
[ハードウェア構成]
図18は、実施形態の予測装置100のハードウェア構成の一例を示す図である。図示するように、予測装置100は、通信コントローラ100−1、CPU100−2、ワーキングメモリとして使用されるRAM100−3、ブートプログラムなどを格納するROM100−4、フラッシュメモリやHDDなどの記憶装置100−5、ドライブ装置100−6などが、内部バスあるいは専用通信線によって相互に接続された構成となっている。通信コントローラ100−1は、他の装置と通信する。記憶装置100−5には、CPU100−2が実行するプログラム100−5aが格納されている。このプログラムは、DMA(Direct Memory Access)コントローラ(不図示)などによってRAM100−3に展開されて、CPU100−2によって実行される。これによって、制御部130が実現される。
上記説明した実施形態は、以下のように表現することができる。
車両の進行方向前方を繰り返し撮像するカメラと、
プログラムを記憶したストレージと、
プロセッサと、を備え、
前記プロセッサが前記プログラムを実行することにより、
前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出し、
前記複数の画像のそれぞれから抽出した前記領域の画像間の変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する、
ように構成されている、予測装置。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。
1…予測システム、100…予測装置、102…カメラ、104…通信部、106…表示部、108…入力部、110…記憶部、112…推論モデルデータ、130…制御部、132…抽出部、134…予測部、136…出力制御部、138…通信制御部、140…学習部、200…サーバ装置、202…通信部、210…記憶部、212…渋滞予測データ、230…制御部

Claims (8)

  1. 車両の進行方向前方を繰り返し撮像するカメラと、
    前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出する抽出部と、
    前記抽出部によって前記複数の画像のそれぞれから抽出された前記領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する予測部と、を備え、
    前記予測部は、
    前記領域の大きさの画像間における変化をスペクトル解析することで、前記領域の大きさの画像間における変化からパワースペクトルを導出し、
    周波数に応じた前記パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出し、
    前記第1傾斜角度の回帰直線の傾斜角度である第2傾斜角度を導出し、
    前記第2傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する、
    測装置。
  2. 前記領域の大きさには、前記領域の面積、対角線の長さ、又は一辺の長さが含まれる、
    請求項1に記載の予測装置。
  3. 前記抽出部は、画像が入力されると、入力された画像において車両が存在する領域に関するパラメータを出力するように学習されたモデルに対して、前記カメラによって繰り返し撮像された各画像を入力し、前記画像を入力した前記モデルによって出力された前記パラメータに基づいて、前記カメラによって繰り返し撮像された各画像から、前記領域を抽出する、
    請求項1又は2に記載の予測装置。
  4. 前記予測部は、
    前記第2傾斜角度が、閾値以下の角度である場合、前記道路に前記交通渋滞が発生しやすいと予測し、
    前記第2傾斜角度が、前記閾値を超える角度である場合、前記道路に前記交通渋滞が発生しにくいと予測
    前記閾値は、1/fゆらぎの回帰曲線の傾斜角度である、
    請求項1から3のうちいずれか一項に記載の予測装置。
  5. 前記予測部は、前記第2傾斜角度が小さいほど、前記道路に前記交通渋滞が発生しやすいと予測し、前記第2傾斜角度が大きいほど、前記道路に前記交通渋滞が発生しにくいと予測する、
    請求項1から4のうちいずれか一項に記載の予測装置。
  6. 車両の進行方向前方を繰り返し撮像するカメラと、
    前記カメラによって繰り返し撮像された複数の画像のそれぞれから、前記車両と同じ第1車線に存在する第1他車両が含まれる第1領域と、前記第1車線に隣接した第2車線に存在する第2他車両が含まれる第2領域とを抽出する抽出部と、
    前記抽出部によって前記複数の画像のそれぞれから抽出された前記第1領域の大きさの画像間における変化および前記第2領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する予測部と、を備え、
    前記予測部は、
    前記第1領域の大きさの画像間における変化をスペクトル解析することで、前記第1領域の大きさの画像間における変化から第1パワースペクトルを導出し、
    前記第2領域の大きさの画像間における変化をスペクトル解析することで、前記第2領域の大きさの画像間における変化から第2パワースペクトルを導出し、
    周波数に応じた前記第1パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出し、
    周波数に応じた前記第2パワースペクトルの回帰直線の傾斜角度である第2傾斜角度を導出し、
    前記第1傾斜角度の回帰直線の傾斜角度である第3傾斜角度を導出し、
    前記第2傾斜角度の回帰直線の傾斜角度である第4傾斜角度を導出し、
    前記第3傾斜角度及び前記第4傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する、
    測装置。
  7. 車両の進行方向前方を繰り返し撮像するカメラを備える車両に搭載されたコンピュータが、
    前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出し、
    前記複数の画像のそれぞれから抽出した前記領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測
    前記領域の大きさの画像間における変化をスペクトル解析することで、前記領域の大きさの画像間における変化からパワースペクトルを導出し、
    周波数に応じた前記パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出し、
    前記第1傾斜角度の回帰直線の傾斜角度である第2傾斜角度を導出し、
    前記第2傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する、
    予測方法。
  8. 車両の進行方向前方を繰り返し撮像するカメラを備える車両に搭載されたコンピュータに、
    前記カメラによって繰り返し撮像された複数の画像のそれぞれから、他車両が含まれる領域を抽出する処理と、
    前記複数の画像のそれぞれから抽出した前記領域の大きさの画像間における変化に基づいて、前記車両が存在する道路に交通渋滞が発生することを予測する処理と、
    前記領域の大きさの画像間における変化をスペクトル解析することで、前記領域の大きさの画像間における変化からパワースペクトルを導出する処理と、
    周波数に応じた前記パワースペクトルの回帰直線の傾斜角度である第1傾斜角度を導出する処理と、
    前記第1傾斜角度の回帰直線の傾斜角度である第2傾斜角度を導出する処理と、
    前記第2傾斜角度に基づいて、前記道路に前記交通渋滞が発生することを予測する処理と、
    を実行させるためのプログラム。
JP2019003844A 2019-01-11 2019-01-11 予測装置、予測方法、およびプログラム Active JP6859374B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019003844A JP6859374B2 (ja) 2019-01-11 2019-01-11 予測装置、予測方法、およびプログラム
US16/733,569 US11260858B2 (en) 2019-01-11 2020-01-03 Prediction device, prediction method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019003844A JP6859374B2 (ja) 2019-01-11 2019-01-11 予測装置、予測方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2020113082A JP2020113082A (ja) 2020-07-27
JP6859374B2 true JP6859374B2 (ja) 2021-04-14

Family

ID=71517181

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019003844A Active JP6859374B2 (ja) 2019-01-11 2019-01-11 予測装置、予測方法、およびプログラム

Country Status (2)

Country Link
US (1) US11260858B2 (ja)
JP (1) JP6859374B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7267874B2 (ja) * 2019-08-27 2023-05-02 本田技研工業株式会社 交通流推定装置、交通流推定方法、およびプログラム
JP7359715B2 (ja) * 2020-02-14 2023-10-11 株式会社Soken 道路形状推定装置
JP2021169235A (ja) * 2020-04-14 2021-10-28 株式会社Subaru 車両の走行支援装置
CN114495541A (zh) * 2020-11-12 2022-05-13 蘑菇车联信息科技有限公司 实时交通信息的处理方法及系统
CN113256973B (zh) * 2021-05-11 2022-03-25 青岛海信网络科技股份有限公司 一种高峰开始时间预测方法、装置、设备及介质
CN116029459B (zh) * 2023-02-28 2023-07-21 速度科技股份有限公司 结合图傅里叶变换tmgcn交通流预测模型的提取方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4668469B2 (ja) * 2001-07-06 2011-04-13 富士重工業株式会社 車間距離警報装置
JP2004070743A (ja) * 2002-08-07 2004-03-04 Nissan Motor Co Ltd 画像処理装置
BR112013014736A2 (pt) * 2010-12-15 2016-10-04 Honda Motor Co Ltd aparelho de auxílio de condução para um veículo
JP2013105379A (ja) * 2011-11-15 2013-05-30 Honda Motor Co Ltd サーバ側渋滞解消走行支援方法
EP2819090B1 (en) * 2012-02-23 2022-08-24 Nissan Motor Co., Ltd. Three-dimensional object detection device
DE102012210252A1 (de) * 2012-06-19 2013-12-19 Robert Bosch Gmbh Bildung einer Rettungsgasse
CN106415688B (zh) * 2014-05-20 2019-04-05 本田技研工业株式会社 驾驶特性评估方法和驾驶特性评估装置
KR101744724B1 (ko) * 2015-03-19 2017-06-08 현대자동차주식회사 차량, 및 차량의 제어방법
JP6202537B2 (ja) 2015-04-14 2017-09-27 本田技研工業株式会社 走行支援方法、プログラム、および走行支援装置
JP6688091B2 (ja) * 2016-01-22 2020-04-28 株式会社デンソーテン 車両距離導出装置および車両距離導出方法
KR101838968B1 (ko) * 2016-04-21 2018-04-26 엘지전자 주식회사 차량용 운전 보조 장치
US10872531B2 (en) * 2017-09-29 2020-12-22 Uber Technologies, Inc. Image processing for vehicle collision avoidance system
KR101956689B1 (ko) * 2017-10-16 2019-07-04 주식회사 만도 긴급차량 운행경로 생성기능을 갖는 자동 순항 제어장치 및 제어방법
US10829120B2 (en) * 2018-06-18 2020-11-10 Valeo Schalter Und Sensoren Gmbh Proactive safe driving for an automated vehicle
KR20190103093A (ko) * 2019-08-16 2019-09-04 엘지전자 주식회사 자율주행 차량의 차선 변경 장치 및 방법

Also Published As

Publication number Publication date
US11260858B2 (en) 2022-03-01
JP2020113082A (ja) 2020-07-27
US20200223433A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
JP6859374B2 (ja) 予測装置、予測方法、およびプログラム
US11151868B2 (en) Remote vehicle control at intersections
Zhang et al. On adversarial robustness of trajectory prediction for autonomous vehicles
Yuan et al. Machine learning for next‐generation intelligent transportation systems: A survey
US11511745B2 (en) Method and system for adaptively controlling object spacing
US20210339741A1 (en) Constraining vehicle operation based on uncertainty in perception and/or prediction
CN110850854A (zh) 自动驾驶员代理和为自动驾驶员代理提供策略的策略服务器
US11794757B2 (en) Systems and methods for prediction windows for optimal powertrain control
CN110850861A (zh) 基于注意的分层变道深度强化学习
US9841463B2 (en) Method and system for predicting energy consumption of a vehicle using a statistical model
US11501638B2 (en) Traffic flow estimation apparatus, traffic flow estimation method, and storage medium
EP3511863A1 (en) Distributable representation learning for associating observations from multiple vehicles
JP2016051467A (ja) 適合化予測のために広域的シーンコンテクストを使用する方法およびシステム並びに対応するプログラム、該システムを備えた乗り物
CN113366486A (zh) 使用区域外上下文的对象分类
US11077758B2 (en) Vehicle control unit (VCU) and operating method thereof
US11450120B2 (en) Object detection in point clouds
EP4021027A1 (en) Distributed learning to learn context-specific driving patterns
Zhang et al. Motion prediction of human-driven vehicles in mixed traffic with connected autonomous vehicles
WO2020164089A1 (en) Trajectory prediction using deep learning multiple predictor fusion and bayesian optimization
WO2021150166A1 (en) Determining a route between an origin and a destination
CN115223144A (zh) 一种基于云端数据的无人驾驶矿车传感器数据筛选方法及装置
US20220383748A1 (en) Vehicle control in geographical control zones
JP2022175160A (ja) 他車両行動予測装置および行動予測モデル学習装置
US20230169852A1 (en) Method, system and program product for training a computer-implemented system for predicting future developments of a traffic scene
US20230169306A1 (en) Computer-implemented system and method for predicting future developments of a traffic scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210316

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210325

R150 Certificate of patent or registration of utility model

Ref document number: 6859374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150