JP2020166328A - 車載通信装置 - Google Patents

車載通信装置 Download PDF

Info

Publication number
JP2020166328A
JP2020166328A JP2019063551A JP2019063551A JP2020166328A JP 2020166328 A JP2020166328 A JP 2020166328A JP 2019063551 A JP2019063551 A JP 2019063551A JP 2019063551 A JP2019063551 A JP 2019063551A JP 2020166328 A JP2020166328 A JP 2020166328A
Authority
JP
Japan
Prior art keywords
vehicle
server
information
communication device
traffic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019063551A
Other languages
English (en)
Other versions
JP7318267B2 (ja
Inventor
浩二 前間
Koji Maema
浩二 前間
尚之 辻川
Naoyuki Tsujikawa
尚之 辻川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Motors Corp
Original Assignee
Mitsubishi Motors Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Motors Corp filed Critical Mitsubishi Motors Corp
Priority to JP2019063551A priority Critical patent/JP7318267B2/ja
Publication of JP2020166328A publication Critical patent/JP2020166328A/ja
Application granted granted Critical
Publication of JP7318267B2 publication Critical patent/JP7318267B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

【課題】交通渋滞の予測精度を向上できる、車載通信装置を提供する。【解決手段】サーバーで予測された交通渋滞の情報を車両の乗員に提供する車載通信装置1は、算出部4,送信部5,促進部6を備える。算出部4は、交通渋滞の予測と実態とのずれの大きさを算出する。送信部5は、交通渋滞の予測を修正するための情報を車両からサーバーに送信する。促進部6は、ずれの大きさが所定量以上である場合に、サーバーに送信される情報の量を増加させる。【選択図】図2

Description

本発明は、サーバーで予測された交通渋滞の情報を車両の乗員に提供する車載通信装置に関する。
従来、ネットワーク上のサーバーで交通渋滞の発生を予測し、その情報を車両に配信することで経路案内や運転支援に活用させる技術が知られている。例えば、日本道路交通情報センターや道路交通情報通信システムセンターから提供される道路交通情報を、ネットワーク経由で車載ナビゲーション装置にダウンロードさせて経路探索に活用する手法が提案されている。また、車載カメラで周辺の様子を撮影し、その画像をサーバーに送信して渋滞予測を実施させるとともに、予測結果を車両に返送する手法も提案されている(特許文献1,2参照)。
特開2015-076078号公報 特開2018-005264号公報
交通渋滞の予測に際し、道路交通情報だけでなく車載カメラの画像を利用する手法は、実際の走行状況をリアルタイムに確認できるという点で有益であり、予測精度の向上に寄与しうる。しかし、カメラ画像のデータ量は大きいため、車両とサーバーとの間の通信量が増大し、ユーザーが負担すべき通信コストが上昇してしまう。また、交通量の多い地域においては、通信インフラにかかる負荷が増大し、ネットワーク全体の遅延や接続障害を招きうる。
一方、ネットワークトラフィックを軽減するために画像のサイズや解像度を低下させれば、車両とサーバーとの間の通信量を削減することが可能である。しかしこの場合、実際の走行状況をサーバー側で適切に確認できなくなり、交通渋滞の予測精度が低下しうる。なお、車載カメラの画像を利用する代わりにレーザーレーダー(LIDER)やミリ波レーダーなどで得られる情報を利用する渋滞予測システムにおいても、同様の課題が生じる。
本件の目的の一つは、上記のような課題に鑑みて創案されたものであり、車両とサーバーとの間のネットワークトラフィックを適正化するとともに、交通渋滞の予測精度を向上させることである。なお、この目的に限らず、後述する「発明を実施するための形態」に示す各構成から導き出される作用効果であって、従来の技術では得られない作用効果を奏することも、本件の他の目的として位置付けることができる。
ここで開示する車載通信装置は、サーバーで予測された交通渋滞の情報を車両の乗員に提供するものであり、算出部,送信部,促進部を備える。前記算出部は、前記交通渋滞の予測と実態とのずれの大きさを算出する。前記送信部は、前記交通渋滞の予測を修正するための情報を前記車両から前記サーバーに送信する。前記促進部は、前記ずれの大きさが所定量以上である場合に、前記サーバーに送信される情報の量を増加させる。
交通渋滞の予測と実態とのずれが大きい場合に、車両からサーバーに送信される情報の量(サーバーにフィードバックされる情報量)を増加させることで、交通渋滞の予測精度を早期に改善して向上させることができる。また、交通渋滞の予測と実態とのずれが小さい場合には、サーバーに送信される情報の量を増加させずに済むことから、車両とサーバーとの間のネットワークトラフィックを適正化することができる。
渋滞予測システムの構成を説明するための模式図である。 車載通信装置の構成を説明するためのブロック図である。 渋滞予測の手順を例示するフローチャートである。 フィードバック情報の処理手順を例示するフローチャートである。 渋滞予測の手法を例示するフローチャートである。 予測乖離通知後の渋滞予測の手法を例示するフローチャートである。 フィードバック情報の送信手順を例示するフローチャートである。
[1.渋滞予測システム]
図1は、車載通信装置1を搭載した車両10とサーバー21との協働による渋滞予測システムを表す模式図である。車載通信装置1は、車両10とその外部との間の無線通信を司る機能を持つ電子制御装置(コンピューター)であり、インターネット20上のサーバー21で予測された交通渋滞の情報を乗員に提供する。また、車載通信装置1は、インターネット20への接続機能だけでなく、測位衛星から発せられる信号を利用して車両10の走行経路を案内するカーナビゲーション機能を併せ持つ。
インターネット20上には、交通渋滞を予測するためのサーバー21のほか、交通情報サーバー22,天気情報サーバー23,災害情報サーバー24,催事情報サーバー25などが設けられる。交通情報サーバー22は、交通情報(交通事故,道路工事区間,通行規制区間の情報)を提供するサーバーであり、天気情報サーバー23は、天候情報(豪雨,降雪,台風などの情報)を提供するサーバーである。また、災害情報サーバー24は、自然災害情報(山火事,地震,津波などの情報)を提供するサーバーであり、催事情報サーバー25は、催事情報(行事やイベント,スポーツの試合,コンサートなどの情報)を提供するサーバーである。なお、高速道路や一般道路のライブ映像を撮影する多数の観測カメラ26もインターネット20に接続される。
ここで、渋滞予測システムにおける、情報の流れの概要を説明する。サーバー21は、観測カメラ26で撮影されたライブ映像や各種サーバー22〜25から提供される情報を用いて、道路の混み具合や渋滞を予測する。観測カメラ26に映る道路上の車両の流れから、車両の密度や走行速度を実測することができる。また、観測カメラ26の撮影範囲外における道路の混み具合は、各種サーバー22〜25から得られる交通情報,天候情報,自然災害情報,催事情報から推定することができる。サーバー21で予測された交通渋滞の情報は、インターネット20を介して車両10の車載通信装置1に伝達される。これを受けて、車載通信装置1は交通渋滞の情報を音声や映像で乗員に提供する。
また、車載通信装置1は、サーバー21による交通渋滞の予測が実態に即したものであるか否か(正しい予測であるか否か)を常に検査する。ここで、予測のずれが大きい場合には、その予測を調整,修正するためのフィードバック情報をサーバー21に送信する。これにより、サーバー21での予測内容が適正化され、交通渋滞の予測精度が向上する。また、予測のずれが小さい場合(交通渋滞の予測を修正する必要がない場合)には、フィードバック情報の送信を省略してもよいし、データ量の小さいフィードバック情報を送信させることとしてもよい。このように車載通信装置1は、予測のずれが小さい場合と比較して、予測のずれが大きい場合にフィードバック情報を増加させるように機能する。
車載通信装置1からサーバー21に送信されるフィードバック情報は、車両10の周囲の状況が直接的に把握できるような情報であることが好ましい。具体的にいえば、車両10の周囲のライブ映像(動画,静止画)やレーダーの検知画像などをフィードバックすることが好ましい。また、このような情報に加えて、車両10の走行状態を表す情報(例えば、車速,加速度,舵角,操舵角,ヨーレート,ロールレート,ピッチレートなど)も併せてフィードバックすることが好ましい。
[2.車両]
図1,図2に示すように、車両10には、車室内外を撮影する撮影装置として、前方カメラ11,後方カメラ12,右カメラ13,左カメラ14,室内カメラ15が搭載される。前方カメラ11は車両10の前方を撮影するカメラであり、車両10の前端部やルーフの前端部,フロントガラス近傍などに取り付けられる。一方、後方カメラ12は車両10の後方を撮影するカメラであり、車両10の後端部やルーフの後端部,リヤガラス近傍などに取り付けられる。
また、右カメラ13は車両10の右側方を撮影し、左カメラ14は車両10の左側方を撮影する。右カメラ13,左カメラ14は、側面ドアやピラーやサイドミラーなどに取り付けられる。これらのカメラ13,14の撮影範囲は、道路上のみならず車両10の側方を含むように設定される。好ましくは、カメラ13,14の撮影範囲内に水平線が含まれるように画角が設定される。室内カメラ15はおもに車室内を撮影するカメラであり、インストルメントパネルやバックミラー近傍などに取り付けられる。車載カメラ11〜15で撮影される画像中には、車両10が走行する道路上を映した部分(第一画像)と、道路外を映した部分(第二画像)とが含まれるものとする。
車両10の外周部には、レーダー装置16が設けられる。レーダー装置16は、車両10の周囲に存在する物体(他車両,障害物,人物など)を検出するための探知機である。レーダー装置16は、車両10の周囲に送信波(電磁波,レーザー光,音波など)を照射し、その反射波を受信する機能を有する。一般に、送信波に対する反射波の反射時間,位相差,反射方向などに基づいて、送信波を反射した物体までの距離及び方位(すなわち位置)を把握することができる。なお、レーダー装置16の具体例としては、ミリ波レーダー装置,マイクロ波レーダー装置,レーザーレーダー装置,超音波センサー装置などが挙げられる。解像度や処理速度が十分に高いレーダー装置16は、車載カメラ11〜15と同じように、車両10の周囲の状況を把握する用途に対応することができる。
また、車両10には、車速を検出する車速センサー17と、加減速度の大きさ及び方向を検出する加速度センサー18と、操舵輪の舵角を検出する舵角センサー19とが搭載される。これらのセンサー17〜19で得られる情報には、車両10の走行状態が反映される。車載カメラ11〜15,レーダー装置16,センサー17〜19で得られた各種の情報は、車載通信装置1に伝達される。車両10の車室内には、表示装置7(ディスプレイ)が設けられる。表示装置7は、車載通信装置1の出力装置として機能し、車載通信装置1の処理内容や処理結果を表示する。車両10の走行経路やマップデータ(地図情報)についても、表示装置7に表示される。
[3.車載通信装置]
車載通信装置1には、ハードウェア資源として、プロセッサー(中央処理装置),メモリ(メインメモリ),記憶装置(ストレージ),インタフェース装置などが内蔵される。記憶装置には、上記の制御を実施するためのプログラム(ソフトウェア)が格納される。プログラムの内容は、必要に応じてメモリ上に読み込まれ、プロセッサーで実行される。なお、車載通信装置1は、インターネット20上のストレージを外部記憶装置として利用することができる。したがって、ソフトウェアの一部(または全部)をインターネット20上のストレージに格納しておくことも可能である。
図2に示すように、車載通信装置1には、測位部2,カーナビ制御部3,算出部4,送信部5,促進部6が設けられる。これらの要素は、車載通信装置1の機能を便宜的に分類して示したものであり、個々の要素を独立したプログラムとして記述してもよいし、これらの機能を兼ね備えた複合プログラムとして記述してもよい。理論上は、ソフトウェアの一部(または全部)をハードウェアで実装することが可能である。また、測位部2やカーナビ制御部3は、独立した電子制御装置(カーナビゲーション装置)に内蔵させてもよいし、車載通信装置1に内蔵させてもよい。
測位部2は、GNSS(Global Navigation Satellite System,全球測位衛星システム)や車速センサー17,加速度センサー18,舵角センサー19などの検出情報に基づいて、車両10の現在位置を計測するものである。ここでは、世界測地系を基準として、車両10の測位情報(緯度,経度,高さの情報)が測定されるとともに、その場所における時刻や曜日の情報が取得される。また、車両10の位置の変化に基づき、車両10の移動方向(進行方向)の情報も併せて測定される。
カーナビ制御部3(カーナビゲーション制御部)は、車両10が存在する地域の道路情報に基づき、車両10の走行経路を案内するものである。カーナビ制御部3は、乗員の操作により目的地が入力されると、その目的地までの最適経路を案内する機能を持つ。車両10からサーバー21へのフィードバック情報の送信は、少なくともカーナビ制御部3が経路案内をしているとき(すなわちカーナビ作動中)に実施される。なお、車両10が通行しうる道路の形状や配置を縮尺してなるマップデータは、車載通信装置1に内蔵させてもよいし、インターネット20上のストレージに保存させてもよい。
算出部4は、サーバー21による交通渋滞の予測と実態とのずれの大きさを算出するものである。ずれの大きさは、予測通行時間と実通行時間との時間差や、予測速度と実速度との速度差や、予測混雑度と実混雑度との差として定量化することができる。上記の時間差とは、交通渋滞の度合いから推定される、所定区間の通行時間の予測値と、実際に車両10がその所定区間を通行するのに要した時間との差である。
上記の速度差とは、交通渋滞の度合いから推定される所定区間の平均速度と、実際に車両10がその所定区間を通行したときの平均速度との差である。予測混雑度は設計交通容量に対する予測交通容量の比であり、実混雑度は設計交通容量に対する実交通容量の比である。なお、交通容量とは、単位時間あたりに通過する車両(標準的なサイズの車両)の台数に相当する交通量の指標値である。このように、時間の次元を含むパラメーターを用いることで、交通渋滞の度合いを定量的に評価することができる。
送信部5は、交通渋滞の予測を修正するためのフィードバック情報を車両10からサーバー21に送信するものである。フィードバック情報の具体例としては、車両10の周囲(道路上や道路外)を車載カメラ11〜15で撮影したライブ映像や、レーダー装置16の検知画像である。本実施形態では、これらの画像だけでなく、実際の車両通行状態を表す情報も併せてサーバー21に送信される。例えば、画像が取得された時刻の情報や、その時刻における車速,加速度,舵角の情報や、測位情報などがフィードバック情報に含まれる。
フィードバック情報には、実際の車両通行状態を表す情報と、車両通行状態に強く影響を与える外部要因を表す情報との二種類が含まれる。車両10の車速,加速度,舵角などの情報は、前者の情報に含まれる。また、ライブ映像及び検知画像のうち道路上に相当する部分の情報も、前者の情報に含まれる。これに対し、ライブ映像及び検知画像のうち道路外に相当する部分の情報は、後者の情報に含まれる。本実施形態の送信部5は、車両10が走行する道路上を撮影した第一画像と、道路外を撮影した第二画像とをサーバー21に送信する機能を持つ。
例えば、新規に開店したばかりでまだマップデータには反映されていない店舗,競技場やイベント会場付近の人混み,イベント会場やレジャー施設へと続く入場の待ち行列などがライブ映像に映っていれば、その画像から交通渋滞の規模,時間を推定することができる。また、建物の火災や街路樹の倒壊,交通情報サーバー22に反映されていない交通事故及び工事,天気情報サーバー23に反映されていないゲリラ豪雨などが画像中に含まれている場合にも、その画像を交通渋滞の予測に役立てることができる。
促進部6は、算出部4で算出されたずれの大きさが所定量以上である場合に、予測がずれていることを表す「予測乖離通知」をサーバー21に送信し、フィードバック情報の量を増加させるものである。例えば、予測時間と実時間との時間差が所定値未満である場合と比較して、所定値以上である場合にフィードバック情報量を増加させる。あるいは、予測速度と実速度との速度差が所定値未満である場合と比較して、所定値以上である場合にフィードバック情報量を増加させる。これにより、サーバー21は予測のずれに対して迅速に対応することが可能となる。
フィードバック情報として画像(ライブ映像,検知画像)を送信する場合、情報量を増加させる手法として三種類の手法が考えられる。第一の手法は、画像の解像度(分解能)を上昇させることである。例えば、車載カメラ11〜15で撮影された生データを圧縮する際の圧縮率を変更することで、解像度を変更することができる。第二の手法は、画像の送信頻度を上昇させることである。例えば、静止画の送信間隔を短縮したり、動画のフレームレートを増加させる。第三の手法は、画像の撮影に使用されるカメラの数を増加させることである。例えば、ずれが小さいときには前方カメラ11のみを使用し、ずれが大きい場合にのみ五つの車載カメラ11〜15を使用する。
[4.フローチャート]
(4−1.サーバー側の制御)
図3は、サーバー21での渋滞予測の手順を例示するフローチャートである。本フローは、サーバー21において所定の周期で繰り返し実施される。ステップA1では、サーバー21が観測カメラ26のライブ映像を取得するとともに、各種サーバー22〜25から交通情報,天候情報,自然災害情報,催事情報を収集する。また、ステップA2では、車両10からのフィードバック情報を取得する。ここで取得されたフィードバック情報が適切である場合、サーバー21がフィードバック情報を取得した時刻の情報が付加されて、マップデータに紐付けされる(ステップA3)。
ステップA4では、収集された情報に基づいて交通渋滞が予測される。ここでは例えば、車両10が通行しうるすべての道路について、交差点や分岐点ごとに切り分けた単位区間(あるいは最大でも所定距離ごとに切り分けた単位区間)が設定されるとともに、単位区間ごとの混雑度や予想通行時間が予測される。具体的な交通渋滞の予測手法としては、公知の手法を適用することができる。
例えば、観測カメラ26や車載カメラ11〜15のライブ映像に映っている単位区間については、そのライブ映像から車両密度や平均車速を求めることができる。ライブ映像に映っていない区間については、天候情報や自然災害情報を考慮して車両密度や平均車速を補正できる。また、交通事故や通行規制が発生している場所の近傍においては、交通情報を考慮して車両密度や平均車速を補正できる。イベントが開催されている場所の近傍においても、催事情報を考慮して車両密度や平均車速を補正できる。ここで予測された結果は、インターネット20上に公開される。
ステップA5では、車両10から予測乖離通知を受信したか否かが判定される。この条件が不成立であれば、そのまま本フローを終了する。一方、予測乖離通知を受信した場合にはステップA6に進み、再び交通渋滞を予測する。予測乖離通知を受信した時点で、その予測乖離通知をサーバー21に送信した車両10からのフィードバック情報量が増加している。したがって、ステップA6の予測では、ステップA4よりも多くの情報を用いることができ、予測の信頼性が向上する。
続いて、サーバー21は予測がずれた原因を推定するとともに、関連する各種サーバー22〜25に情報を提供する。これにより、各種サーバー22〜25から提供される情報がより信頼性の高い情報で更新される。ここで予測された結果は、インターネット20上に公開される。また、予測乖離通知をサーバー21に送信してきた車両10に対しては、最新の予測結果を配信する(ステップA8)。
(4−2.ライブ映像の処理)
図4は、サーバー21が車両10から受け取ったフィードバック情報の処理手順を例示するフローチャートである。このフローは、図3のステップA2に含まれる。ステップB1では、フィードバック情報のタイムスタンプが新しいものであるか否かが判定される。ここでは、タイムスタンプの時刻が現在時刻に近いか(例えば現在時刻から一時間以内か)否かが判定される。この条件が不成立の場合には、不適切なフィードバック情報として破棄される(ステップB6)。一方、ステップB1の条件が成立するとステップB2に進む。
ステップB2では、フィードバック情報に含まれる各データの値が所定範囲内であるか否かが判定される。例えば、車速が所定範囲内(0〜120[km/h])であることや、舵角が所定範囲内(-60〜60[度])であることが確認される。また、ライブ映像のデータ量が適正範囲内であることを確認してもよい。ステップB2の条件が不成立の場合には、不適切なフィードバック情報として破棄される(ステップB6)。一方、ステップB2の条件が成立するとステップB3に進む。
ステップB3では、フィードバック情報に含まれる測位情報が適切であるか否かが判定される。例えば、車両10の位置をマップデータと照合し、車両10が走行可能な場所(道路上や駐車場内など)に位置しているか否かが確認される。あるいは、より簡便な地図の情報と照合して、車両10が海や河川の上に位置していないことを確認してもよい。ステップB3の条件が不成立の場合には、不適切なフィードバック情報として破棄される(ステップB6)。一方、ステップB3の条件が成立するとステップB4に進む。
ステップB4では、フィードバック情報に含まれるライブ映像が再生可能であるか否かが判定される。この判断は、データ内に埋め込まれたヘッダーやExifなどのメタ情報に基づいて判断してもよいし、ハッシュ値を確認することで判断してもよい。ライブ映像が破損している場合には、不適切なフィードバック情報として破棄される(ステップB6)。一方、ライブ映像が再生可能である場合にはステップB5に進み、サーバー21での取得時刻の情報をそのフィードバック情報に付加した上で、マップデータに紐付けして保存する。
(4−3.渋滞予測)
図5は、サーバー21での渋滞予測の手法を例示するフローチャートである。このフローは、図3のステップA4に含まれる。ステップC1では、ライブ映像,交通情報,天候情報,自然災害情報,催事情報に基づいて交通渋滞が予測される。ここでは例えば、マップデータ上に含まれるすべての道路について、単位区間ごとの混雑度(予想通行時間)が予測される。
ステップC2では、それぞれの単位区間についての混雑度が、毎週の変動に即したものであるか否か、あるいは毎日の変動に即したものであるか否かが判定される。つまり、その曜日・時間帯に特有の混雑が発生しているか否かが判定される。例えば、単位区間ごとに混雑度の毎週の変動モデルと毎日の変動モデルとを作成しておき、ステップC1での予測結果がそれらのモデルに沿っているかどうかを判断する。
ステップC2の条件が成立する場合にはステップC3に進み、サーバー21は定常的,周期的な渋滞が発生していると判断して本フローを終了する。ステップC2の条件が不成立の場合には、突発的(非定常的)な渋滞が発生しているとみなし、原因をさらに追求すべくステップC4に進む。
ステップC4では、混雑度が高い単位区間について、その付近で交通事故が発生しているか否かが判定される。この判定は、交通情報サーバー22から提供される交通情報に基づいて実施される。ステップC4の条件が成立する場合、渋滞の原因は交通事故であると判断し(ステップC5)、本フローを終了する。ステップC4の条件が不成立の場合にはステップC6に進む。
ステップC6では、混雑度が高い単位区間について、その付近に道路工事区間があるか否かが判定される。この判定も、交通情報サーバー22から提供される交通情報に基づいて実施される。ステップC6の条件が成立する場合、渋滞の原因は道路工事であると判断し(ステップC7)、本フローを終了する。ステップC6の条件が不成立の場合にはステップC8に進む。
ステップC8では、混雑度が高い単位区間について、その付近で異常気象が発生しているか否かが判定される。この判定は、天気情報サーバー23から提供される天候情報に基づいて実施される。ステップC8の条件が成立する場合、渋滞の原因は天候であると判断し(ステップC9)、本フローを終了する。ステップC8の条件が不成立の場合にはステップC10に進む。
ステップC10では、混雑度が高い単位区間について、その付近で自然災害が発生しているか否かが判定される。この判定は、災害情報サーバー24から提供される災害情報に基づいて実施される。ステップC10の条件が成立する場合、渋滞の原因は自然災害であると判断し(ステップC11)、本フローを終了する。ステップC10の条件が不成立の場合にはステップC12に進み、渋滞の原因は不明であると判断する。本フローでの判断結果は後日に改めて分析できるように、サーバー21に保存しておくことが好ましい。
(4−4.予測乖離通知後の渋滞予測)
図6は、サーバー21が車両10から予測乖離通知を受け取った後の渋滞予測の手法を例示するフローチャートである。このフローは、図3のステップA6に含まれる。ステップD1では、ライブ映像,交通情報,天候情報,自然災害情報,催事情報に基づいて交通渋滞が予測される。このとき参照される情報量は、ステップC1で参照される情報量と比較して増えているため、より精度の高い予測が期待できる。
ステップD2では、車両10から送信されたライブ映像の画像中に交通事故が映っているか否かが判定される。この判定は、画像解析を通じて、大破した車両や変形したガードレール,道路に散乱したガラス,警察車両,救急車などを検出することで判定可能である。ステップD2の条件が成立する場合、渋滞の原因は交通事故であると判断し(ステップD3)、本フローを終了する。ステップD2の条件が不成立の場合にはステップD4に進む。
ステップD4では、車両10から送信されたライブ映像の画像中に道路工事が映っているか否かが判定される。この判定は、画像解析を通じて、道路工事標識や安全標識,工事用たて看板,工事警備員,工事車両(例えばクレーン車,ミキサー車,はしご車,アスファルトフィニッシャー)などを検出することで判定可能である。ステップD4の条件が成立する場合、渋滞の原因は道路工事であると判断し(ステップD5)、本フローを終了する。ステップD4の条件が不成立の場合にはステップD6に進む。
ステップD6では、車両10から送信されたライブ映像の画像中に異常気象が映っているか否かが判定される。この判定は、画像解析を通じて、ゲリラ豪雨や降雪などを検出することで判定可能である。ステップD6の条件が成立する場合、渋滞の原因は天候であると判断し(ステップD7)、本フローを終了する。ステップD6の条件が不成立の場合にはステップD8に進む。
ステップD8では、車両10から送信されたライブ映像の画像中に自然災害が映っているか否かが判定される。この判定は、画像解析を通じて、山火事や地割れなどを検出することで判定可能である。ステップD8の条件が成立する場合、渋滞の原因は自然災害であると判断し(ステップD9)、本フローを終了する。ステップD8の条件が不成立の場合にはステップD10に進む。
ステップD10では、車両10から送信されたライブ映像の画像中にライブイベント会場やその付近の人混み,ライブイベントの待ち行列などが映っているか否かが判定される。この判定は、画像解析を通じて判定可能である。また、ステップD11では、付近でライブイベントが実施されているか否かが判定される。この判定は、催事情報サーバー25から提供される催事情報に基づいて判定可能である。ステップD10,D11のいずれかの条件が成立する場合、渋滞の原因はライブイベントであると判断し(ステップD12)、本フローを終了する。ステップD10,D11の条件がともに不成立の場合にはステップD13に進む。
ステップD13では、車両10から送信されたライブ映像の画像中にレジャー施設やその付近の人混み,レジャー施設の待ち行列などが映っているか否かが判定される。この判定は、画像解析を通じて判定可能である。また、ステップD14では、付近にレジャー施設が存在するか否かが判定される。この判定も、催事情報サーバー25から提供される催事情報やマップデータに基づいて判定可能である。
ステップD13,D14のいずれかの条件が成立する場合、渋滞の原因はレジャー施設であると判断し(ステップD15)、本フローを終了する。ステップD13,D14の条件がともに不成立の場合にはステップD16に進み、渋滞の原因は不明であると判断する。本フローでの判断結果は後日に改めて分析できるように、サーバー21に保存しておくことが好ましい。
(4−5.車両側の制御)
図7は、車両10からサーバー21へのフィードバック情報の送信手順を例示するフローチャートである。本フローは、車載通信装置1において所定の周期で繰り返し実施される。ステップE1では、カーナビ制御部3が経路案内をしている状態であるか否かが判定される。カーナビ作動中でなければ本フローを終了し、カーナビ作動中であればステップE2に進む。
ステップE2では、サーバー21による交通渋滞の予測結果が車両10に受信され、車載通信装置1に伝達される。また、ステップE3では、算出部4において、サーバー21による交通渋滞の予測と実態とのずれの大きさが算出される。例えば、車両10が直前に走行した所定区間についての予測通行時間と実通行時間との時間差が算出される。続くステップE4では、時間差が所定値以上であるか否かが判定される。この条件が成立する場合にはステップE5〜E9が実施され、不成立の場合にはステップE10〜E12が実施される。
ステップE5では、促進部6がすべての車載カメラ11〜15を起動させる。各カメラで撮影されるライブ映像の画質は「高品質」に設定される(ステップE6)。また、促進部6はサーバー21に予測乖離通知を送信するとともに(ステップE7)、車載カメラ11〜15で撮影されたライブ映像を含むフィードバック情報を高頻度でサーバー21にアップロードする(ステップE8)。フィードバック情報のアップロード頻度は、数秒周期以下(例えば0.1〜5[秒]周期)とされる。その後、サーバー21から新たな渋滞の予測結果が配信されるのを待って、カーナビ制御部3が走行経路を再検索し、新たな走行経路を乗員に案内する(ステップE9)。
時間差が所定値未満であるとき、すなわち、交通渋滞の予測がおおむね適切である場合にはステップE10に進み、促進部6が前方カメラ11のみを起動させる。前方カメラ11で撮影されるライブ映像の画質は、ステップE6よりも低品質でデータ量の少ない「標準品質」に設定される(ステップE11)。その後、促進部6は前方カメラ11で撮影されたライブ映像を含むフィードバック情報を低頻度でサーバー21にアップロードする。フィードバック情報のアップロード頻度は、ステップE8のアップロード頻度よりも少ない頻度であって、数分周期(例えば1〜10分周期)とされる。
[5.効果]
(1)上記の車載通信装置1は、交通渋滞の予測と実態とのずれが大きい場合に、車両10からサーバー21に送信される情報の量を増加させる促進部6を備えている。このように、サーバー21にフィードバックされる情報量を増加させることで、交通渋滞の予測のずれを早期に改善することができ、予測精度を向上させることができる。また、交通渋滞の予測と実態とのずれが小さい場合には、サーバーに送信される情報の量を増加させずに済み、車両10とサーバー21との間の通信量を削減することができ、ネットワークトラフィックを適正化することができる。
(2)また、車両10の周囲を撮影したライブ映像(動画,静止画)をフィードバック情報に含ませることで、サーバー21による予測の修正精度を高めることができ、予測精度を向上させることができる。例えば、マップデータには反映されていない店舗,人混み,入場の待ち行列などがライブ映像に映っていれば、その画像から交通渋滞の規模,時間を推定することができる。また、建物の火災,発生直後の事故,ゲリラ豪雨など、各種サーバー22〜25に反映されていない新しい情報に基づいて交通渋滞を予測することができ、予測精度を向上させることができる。
(3)上記の促進部6は、交通渋滞の予測と実態とのずれの大きさが所定量以上である場合に、ライブ映像の解像度を上昇させている。これにより、ライブ映像に映っている被写体をより精細に捉えることができ、交通渋滞の予測精度をさらに向上させることができる。なお、交通渋滞の予測と実態とのずれの大きさが所定量未満である場合には、標準品質の解像度とされるため、ネットワークトラフィックを過度に圧迫することはない。
(4)上記の促進部6は、交通渋滞の予測と実態とのずれの大きさが所定量以上である場合に、ライブ映像の送信頻度を上昇させている。これにより、多数のライブ映像の中から各種サーバー22〜25に反映されていない新しい情報を抽出することができ、予測精度を向上させることができる。なお、交通渋滞の予測と実態とのずれの大きさが所定量未満である場合には、送信頻度が低頻度とされるため、ネットワークトラフィックを過度に圧迫することはない。
(5)上記の促進部6は、交通渋滞の予測と実態とのずれの大きさが所定量以上である場合に、ライブ映像の撮影に使用される車載カメラ11〜15の数を増加させている。これにより、車両10の周囲をより広く撮影することが可能となり、各種サーバー22〜25に反映されていない新しい情報を抽出しやすくすることができる。したがって、サーバー21での予測精度を向上させることができる。なお、交通渋滞の予測と実態とのずれの大きさが所定量未満である場合には、撮影に使用される車載カメラ11〜15の数を減少させることで、ネットワークトラフィックを削減することができる。
(6)フィードバック情報をサーバー21に送信する送信部5は、車両10が走行する道路上を撮影した第一画像だけでなく、道路外を撮影した第二画像をサーバー21に送信する機能を持つ。このように、道路外を撮影対象とした第二画像をサーバー21に提供することで、各種サーバー22〜25に反映されていない新しい情報を抽出しやすくすることができ、サーバー21での予測精度を向上させることができる。なお、右カメラ13,左カメラ14の撮影範囲内に水平線が含まれるように画角を設定することで、道路に面した建物や人混みが撮影しやすくなり、新しい情報を取得しやすくなる。
(7)車載通信装置1の算出部4では、交通渋滞の予測と実態とのずれの大きさを表す指標値として、予測通行時間と実通行時間との時間差が算出される。このように、「ずれの大きさ」を定量化することで、サーバー21での予測の信頼性(正しさ)を客観的に評価することができる。したがって、フィードバック情報量を精度よく増減させることができ、ネットワークトラフィックを適正に保ちつつ交通渋滞の予測精度を向上させることができる。なお、時間差の代わりに、予測速度と実速度との速度差や、予測混雑度と実混雑度との差を用いてもよい。このように、時間の次元を含むパラメーターを用いることで、交通渋滞の度合いを定量的に評価することができる。
(8)本実施形態の送信部5は、ライブ映像だけでなく、実際の車両通行状態を表す情報も併せてサーバー21に送信している。例えば、画像が取得された時刻の情報や、その時刻における車速,加速度,舵角の情報や、測位情報などがフィードバック情報に含まれる。これにより、フィードバック情報が適切であるか否かを判定することができ、交通渋滞の予測精度を向上させることができる。
[6.変形例]
上記の実施形態はあくまでも例示に過ぎず、本実施形態で明示しない種々の変形や技術の適用を排除する意図はない。本実施形態の各構成は、それらの趣旨を逸脱しない範囲で種々変形して実施することができる。また、必要に応じて取捨選択することができ、あるいは適宜組み合わせることができる。
例えば上述の実施形態では、サーバー21のみが交通渋滞を予測する渋滞予測システムを示したが、サーバー21の機能の一部(または全部)を車載通信装置1に負担させてもよいし、分散コンピューティングの手法を用いて複数の車両10に分担させてもよい。また、上述の実施形態では、車両10の車載通信装置1に算出部4,送信部5,促進部6が設けられているが、算出部4及び促進部6の機能をサーバー21に負担させてもよい。少なくとも渋滞予測システム内に算出部4,送信部5,促進部6を設けることで、上述の実施形態と同様の作用,効果を奏するものとなる。なお、ネットワークトラフィックを削減する上では、送信部5を車載通信装置1に設けることが好ましい。
1 車載通信装置
2 測位部
3 カーナビ制御部
4 算出部
5 送信部
6 促進部
7 表示装置
10 車両
11 前方カメラ
12 後方カメラ
13 右カメラ
14 左カメラ
15 室内カメラ
16 レーダー装置
17 車速センサー
18 加速度センサー
19 舵角センサー
20 インターネット
21 サーバー
22 交通情報サーバー
23 天気情報サーバー
24 災害情報サーバー
25 催事情報サーバー
26 観測カメラ

Claims (8)

  1. サーバーで予測された交通渋滞の情報を車両の乗員に提供する車載通信装置において、
    前記交通渋滞の予測と実態とのずれの大きさを算出する算出部と、
    前記交通渋滞の予測を修正するための情報を前記車両から前記サーバーに送信する送信部と、
    前記ずれの大きさが所定量以上である場合に、前記サーバーに送信される情報の量を増加させる促進部と、
    を備えることを特徴とする、車載通信装置。
  2. 前記送信部が、前記車両の周囲を撮影した画像を前記サーバーに送信する
    ことを特徴とする、請求項1記載の車載通信装置。
  3. 前記促進部は、前記ずれの大きさが所定量以上である場合に、前記画像の解像度を上昇させる
    ことを特徴とする、請求項2記載の車載通信装置。
  4. 前記促進部は、前記ずれの大きさが所定量以上である場合に、前記画像の送信頻度を上昇させる
    ことを特徴とする、請求項2または3記載の車載通信装置。
  5. 前記促進部は、前記ずれの大きさが所定量以上である場合に、前記画像の撮影に使用されるカメラの数を増加させる
    ことを特徴とする、請求項2〜4のいずれか1項に記載の車載通信装置。
  6. 前記送信部は、前記車両が走行する道路上を撮影した第一画像と、前記車両が走行する道路外を撮影した第二画像とを前記サーバーに送信する
    ことを特徴とする、請求項2〜5のいずれか1項に記載の車載通信装置。
  7. 前記算出部が、前記交通渋滞の度合いから推定される所定区間の通行時間と前記車両が当該所定区間を通行するのに要した時間である実通行時間との時間差を算出する
    ことを特徴とする、請求項1〜6のいずれか1項に記載の車載通信装置。
  8. 前記送信部が、実際の車両通行状態を表す情報を前記サーバーに送信する
    ことを特徴とする、請求項1〜7のいずれか1項に記載の車載通信装置。
JP2019063551A 2019-03-28 2019-03-28 車載通信装置 Active JP7318267B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019063551A JP7318267B2 (ja) 2019-03-28 2019-03-28 車載通信装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019063551A JP7318267B2 (ja) 2019-03-28 2019-03-28 車載通信装置

Publications (2)

Publication Number Publication Date
JP2020166328A true JP2020166328A (ja) 2020-10-08
JP7318267B2 JP7318267B2 (ja) 2023-08-01

Family

ID=72716577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019063551A Active JP7318267B2 (ja) 2019-03-28 2019-03-28 車載通信装置

Country Status (1)

Country Link
JP (1) JP7318267B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275912A1 (ja) * 2021-06-28 2023-01-05 日本電気株式会社 状況判定装置、状況判定システム、状況判定方法、及び、記録媒体

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020288A (ja) * 2002-06-13 2004-01-22 Nec Corp 車載ナビゲーション装置
JP2004287724A (ja) * 2003-03-20 2004-10-14 Matsushita Electric Ind Co Ltd 交通情報送信方法、交通情報送信システム及び装置
JP2008065529A (ja) * 2006-09-06 2008-03-21 Denso Corp 渋滞要因判断システム
JP2008262418A (ja) * 2007-04-12 2008-10-30 Toyota Motor Corp 渋滞緩和システム、地上システム、渋滞予測制御装置
JP2008286633A (ja) * 2007-05-17 2008-11-27 Denso Corp 経路情報提供装置およびナビゲーション装置
JP2010134745A (ja) * 2008-12-05 2010-06-17 Fujitsu Ten Ltd ドライブレコーダ及びドライブレコーダの映像記録方法
JP2013050918A (ja) * 2011-08-31 2013-03-14 Aisin Aw Co Ltd 統計情報提供システム、統計情報提供装置、統計情報提供方法及びコンピュータプログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020288A (ja) * 2002-06-13 2004-01-22 Nec Corp 車載ナビゲーション装置
JP2004287724A (ja) * 2003-03-20 2004-10-14 Matsushita Electric Ind Co Ltd 交通情報送信方法、交通情報送信システム及び装置
JP2008065529A (ja) * 2006-09-06 2008-03-21 Denso Corp 渋滞要因判断システム
JP2008262418A (ja) * 2007-04-12 2008-10-30 Toyota Motor Corp 渋滞緩和システム、地上システム、渋滞予測制御装置
JP2008286633A (ja) * 2007-05-17 2008-11-27 Denso Corp 経路情報提供装置およびナビゲーション装置
JP2010134745A (ja) * 2008-12-05 2010-06-17 Fujitsu Ten Ltd ドライブレコーダ及びドライブレコーダの映像記録方法
JP2013050918A (ja) * 2011-08-31 2013-03-14 Aisin Aw Co Ltd 統計情報提供システム、統計情報提供装置、統計情報提供方法及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023275912A1 (ja) * 2021-06-28 2023-01-05 日本電気株式会社 状況判定装置、状況判定システム、状況判定方法、及び、記録媒体

Also Published As

Publication number Publication date
JP7318267B2 (ja) 2023-08-01

Similar Documents

Publication Publication Date Title
US10584971B1 (en) Verification and updating of map data
JP6424761B2 (ja) 運転支援システム及びセンタ
US11131554B2 (en) Systems and methods for vehicle telemetry
US9604648B2 (en) Driver performance determination based on geolocation
EP2988285B1 (en) Optimal warning distance
CN114270887A (zh) 车辆传感器数据获取和分发
US20190042857A1 (en) Information processing system and information processing method
JP5585194B2 (ja) 事故状況記録システム
KR102493862B1 (ko) 어려운 운전 조건하에서 랜드 마크를 이용한 내비게이션 명령 강화
CN112033425A (zh) 车辆辅助驾驶方法、装置、计算机设备和存储介质
CN113748316B (zh) 用于车辆遥测的系统和方法
JP2009500765A (ja) 交通情報を判定する方法及びその方法を実行するように構成された装置
US20210180974A1 (en) Apparatus for Navigation System with Traffic Environment in Vehicle, System Having the Same and Method Thereof
US11930089B2 (en) Highway detection system for generating customized notifications
WO2008038968A1 (en) Method of providing safety information for vehicles and providing system thereof
JP2022538097A (ja) ナビゲート可能なネットワークに関するユーザ提供データの収集
CN113167592A (zh) 信息处理设备、信息处理方法和信息处理程序
US20230119295A1 (en) Method for operating a vehicle hazardous parking warning system
JP5446778B2 (ja) 事故発生予測装置、事故発生予測プログラム及び事故発生予測方法
JP7318267B2 (ja) 車載通信装置
JP2020095565A (ja) 情報処理システム、プログラム、及び情報処理方法
US20220219699A1 (en) On-board apparatus, driving assistance method, and driving assistance system
US20230042001A1 (en) Weighted planning trajectory profiling method for autonomous vehicle
WO2020241813A1 (en) Driving information providing system, on-board apparatus, and driving information providing method
JP4572823B2 (ja) 経路案内システム及び経路案内方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20230426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230620

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230703

R151 Written notification of patent or utility model registration

Ref document number: 7318267

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151