JP6986584B2 - 情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置 - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置 Download PDF

Info

Publication number
JP6986584B2
JP6986584B2 JP2020026665A JP2020026665A JP6986584B2 JP 6986584 B2 JP6986584 B2 JP 6986584B2 JP 2020026665 A JP2020026665 A JP 2020026665A JP 2020026665 A JP2020026665 A JP 2020026665A JP 6986584 B2 JP6986584 B2 JP 6986584B2
Authority
JP
Japan
Prior art keywords
information
position information
car
connected car
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020026665A
Other languages
English (en)
Other versions
JP2021131731A (ja
Inventor
憲一 海老沢
直 小椋
浩彰 河村
慶介 朝倉
博 大竹
智郎 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Corp filed Critical SoftBank Corp
Priority to JP2020026665A priority Critical patent/JP6986584B2/ja
Priority to PCT/JP2021/001723 priority patent/WO2021166527A1/ja
Publication of JP2021131731A publication Critical patent/JP2021131731A/ja
Application granted granted Critical
Publication of JP6986584B2 publication Critical patent/JP6986584B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置に関する。
自動車のIT化が進み、ICT(Information and Communication Technology:情報通信技術)端末としての機能を有する自動車(コネクテッドカー)が徐々に普及してきている。コネクテッドカーは、各種センサや通信機能を備え、車両の状態や周囲の状況などを検出し、他の車両、道路設備、歩行者、およびクラウドコンピュータなどと連携すること(いわゆる、V2X(Vehicle to Everything))で新たな価値を生み出すことが期待されている。
しかしながら、コネクテッドカーの普及率はまだ低く、通信機能を備えていない非コネクテッドカーは多く存在する。また、非コネクテッドカーのすべてがコネクテッドカーに置き換わるような時代が来るのはまだ先であろう。そのため、コネクテッドカーや道路設備などが、いかに非コネクテッドカーの存在を認識するかが、安全かつ安心なクルマ社会にとって重要となってくる。
とくに、走行中のコネクテッドカーは、前後と比較して、横側の状況を検出し難い。そのため、周囲の別のコネクテッドカーや道路設備などが、対象のコネクテッドカーの死角となり易い部分の非コネクテッドカーを検出し、対象のコネクテッドカーに通知することができれば事故防止に繋がる。なお、現状、非コネクテッドカーの検出方法として、道路設備として設置された監視カメラや、ドライブレコーダを含む車載カメラを用いて、非コネクテッドカーを捉える方法がある。
国際公開第2019/124001号
しかしながら、あらゆる道路や交差点に監視カメラが設置されているわけではないため、非コネクテッドカーを十分に検出するには監視カメラの設置数が不足している。そのため、監視カメラの設置数を増やすことが考えられるが、非コネクテッドカーを十分に検出するレベルまで設置数を増やすことを考えると膨大なコストがかかることが予測される。また、車載カメラによって非コネクテッドカーを検出するためには、車載カメラを搭載した車両が非コネクテッドカー付近を常に走行している必要があり現実的でない。
本願は、上記に鑑みてなされたものであって、カメラにより検出することができない対象位置までの非コネクテッドカーの到達時間を推定することができる情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置を提供することを目的とする。
本願に係る情報処理装置の一態様は、カメラで検出されたコネクテッドカーの第1の位置情報および第1の速度をカメラから受信し、コネクテッドカーから第3の位置情報を受信する第1の受信部と、第1の位置情報が示す位置から第3の位置情報が示す位置までの第1の到達時間を算出する算出部と、カメラで検出された非コネクテッドカーの第2の位置情報および第2の速度を受信する第2の受信部と、第1の速度、第1の到達時間、第2の位置情報、および第2の速度に基づいて、第2の位置情報が示す位置から第3の位置情報が示す位置までの非コネクテッドカーの第2の到達時間を推定する推定部とを備えたことを特徴とする。
実施形態の一態様によれば、カメラにより検出することができない対象位置までの非コネクテッドカーの到達時間を推定することができる。
図1は、実施形態に係る情報処理システムの構成例を示す図である。 図2は、実施形態に係る情報処理装置100の車両認識の例を示す図である。 図3は、実施形態に係る情報処理装置100の機能構成例を示す図である。 図4は、実施形態に係るカメラ検出情報記憶部121に記憶される情報の例を示す図である。 図5は、実施形態に係るGNNS位置情報記憶部122に記憶される情報の例を示す図である。 図6は、実施形態に係る通知内容情報記憶部123に記憶される情報の例を示す図である。 図7は、実施形態に係る学習処理の例を示す図である。 図8は、実施形態に係る推定処理の例を示す図である。 図9は、実施形態に係る学習処理の流れを示すフローチャートである。 図10は、実施形態に係る推定処理の流れを示すフローチャートである。 図11は、実施形態に係る推定処理の変形例を示す図である。 図12は、情報処理装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
以下に、本願に係る情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置を実施するための形態(以下、「実施形態」と呼ぶ)について図面を参照しつつ詳細に説明する。なお、この実施形態により本願に係る情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置が限定されるものではない。また、以下の各実施形態において同一の部位には同一の符号を付し、重複する説明は省略される。以下に、カメラにより検出することができない対象位置までの非コネクテッドカーの到達時間を推定することができる本実施形態について説明する。
〔1.情報処理システムの構成〕
図1を用いて情報処理システムの構成について説明する。図1は、実施形態に係る情報処理システムの構成例を示す図である。図1に示すように、情報処理システムは、情報処理装置100、1つまたは複数の監視カメラ200−1〜200−n(nは任意の整数。以下、まとめて「監視カメラ200」という)、コネクテッドカー300を含む。情報処理装置100と、監視カメラ200およびコネクテッドカー300とは、ネットワークNを介して相互に通信可能に接続される。ネットワークNは、有線、無線を問わず、インターネットなどの各種通信網を採用することができる。
情報処理装置100は、例えば、道路設備などを管理する道路会社によって管理されるサーバ装置である。情報処理装置100は、監視カメラ200から非コネクテッドカー400の位置情報や速度を受信し、対象位置までの非コネクテッドカー400の到達時間を推定する。そのために、情報処理装置100は、監視カメラ200からコネクテッドカー300の位置情報や速度、およびコネクテッドカー300からGNNS位置情報を受信し、これらの情報を用いて学習モデルを生成する。なお、情報処理装置100は、クラウドサーバ装置であってもよいし、複数台のコンピュータで構成される分散型コンピューティングシステムであってもよい。
監視カメラ200は、例えば、監視カメラを備えた道路設備である。監視カメラ200は、コネクテッドカー300や非コネクテッドカー400を検出し、コネクテッドカー300や非コネクテッドカー400の位置情報や速度を情報処理装置100に送信する。
コネクテッドカー300は、車載カメラやコネクテッド機能を備えた自動車である。コネクテッドカー300も、他のコネクテッドカー300や非コネクテッドカー400を検出し、他のコネクテッドカー300や非コネクテッドカー400の位置情報や速度を情報処理装置100に送信する。このように、コネクテッドカー300に搭載された車載カメラにより検出されるコネクテッドカー300や非コネクテッドカー400の位置情報や速度を用いることで、監視カメラ200では検出できないような位置にいる非コネクテッドカー400の対象位置への到達時間を推定することができる。
非コネクテッドカー400は、コネクテッド機能を持たない自動車やバイクなどの移動体である非コネクテッドカー400は、監視カメラ200で検出されれば、情報処理装置100によって認識されるが、監視カメラ200などで検出されない場合は認識されない。
図2は、実施形態に係る情報処理装置100の車両認識の例を示す図である。図2の左側に示すように、コネクテッドカー300−1や非コネクテッドカー400−1は、監視カメラ200によって検出される位置にいるため、情報処理装置100はそれらの位置を認識することができる。また、コネクテッドカー300−2は、監視カメラ200によって検出される位置にいないが、情報処理装置100は、コネクテッドカー300−2から送信されるGNNS位置情報によってその位置を認識することができる。一方、非コネクテッドカー400−2は、監視カメラ200によって検出される位置にいないため、情報処理装置100はその位置を認識することができない。そのため、情報処理装置100の車両認識は図2の右側に示すようになり、非コネクテッドカー400−2の位置のみならず、その存在すら認識することができない。そのため、このような非コネクテッドカー400の存在を認識し、コネクテッドカー300に通知することが事故防止などに繋がる。
〔2.情報処理装置100の構成〕
次に、図3を用いて、実施形態に係る情報処理装置100の機能構成について説明する。図3は、実施形態に係る情報処理装置100の機能構成例を示す図である。図3に示すように、情報処理装置100は、通信部110、記憶部120、制御部130を備える。
(通信部110)
通信部110は、例えば、NIC(Network Interface Card)などによって実現される。通信部110は、インターネットなどの各種通信網と有線または無線で接続され、監視カメラ200やコネクテッドカー300などとの間で情報の送受信を行うことができる。
(記憶部120)
記憶部120は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置によって実現される。図3に示すように、記憶部120は、カメラ検出情報記憶部121、GNNS位置情報記憶部122、通知内容情報記憶部123を有する。以下、記憶部120に含まれる各記憶部について順に説明する。
(カメラ検出情報記憶部121)
カメラ検出情報記憶部121は、監視カメラ200や別のコネクテッドカー300によって検出されたコネクテッドカー300や非コネクテッドカー400に関する情報を記憶する。図4は、実施形態に係るカメラ検出情報記憶部121に記憶される情報の例を示す図である。図4に示す例では、カメラ検出情報記憶部121は、「車両ナンバー、検出位置、速度、検出日時、検出装置ID」などを対応付けて記憶する。このようなカメラ検出情報の各種情報は、コネクテッドカー300や非コネクテッドカー400を検出した監視カメラ200などによって生成されるトランザクションデータである。または、情報処理装置100が、監視カメラ200やコネクテッドカー300から送信されてきたカメラ映像(画像)に対してナンバープレート解析や速度解析をするなどして、カメラ検出情報の各種情報を生成することもできる。
「車両ナンバー」は、監視カメラ200で捉えたコネクテッドカー300や非コネクテッドカー400のナンバープレートを解析することにより得られる各車両の識別子である。なお、非コネクテッドカー400が自転車など、車両ナンバーを持たない移動体の場合、「車両ナンバー」は、当該移動体を一意に示すことができる任意の識別子である。なお、「車両ナンバー」は、例えば、非コネクテッドカー400を複数の監視カメラ200やコネクテッドカー300で捕捉する場合、情報処理装置100が非コネクテッドカー400の同一性を認識する際に用いられる。
「検出位置」は、コネクテッドカー300や非コネクテッドカー400を検出した監視カメラ200などの位置(緯度および経度)であってよい。しかしながら、カメラ映像からコネクテッドカー300や非コネクテッドカー400のより正確な位置が検出できる場合は、各車両の緯度および経度である。
「速度」は、コネクテッドカー300や非コネクテッドカー400を検出した際の、各車両の速度(例えば、時速)である。コネクテッドカー300や非コネクテッドカー400の速度は、例えば、カメラ映像のフレーム間隔と、フレーム間での各車両の移動距離とに基づいて算出することができる。
「検出日時」は、例えば、監視カメラ200などがコネクテッドカー300や非コネクテッドカー400を検出した時の監視カメラ200やコネクテッドカー300のシステム日時である。または、カメラ映像に関連付けて記録される日時であってもよい。
「検出装置ID」は、コネクテッドカー300や非コネクテッドカー400を検出した監視カメラ200や別のコネクテッドカー300を一意に示す識別子である。
(GNNS位置情報記憶部122)
GNNS位置情報記憶部122は、コネクテッドカー300の位置情報を記憶する。図5は、実施形態に係るGNNS位置情報記憶部122に記憶される情報の例を示す図である。図5に示す例では、GNNS位置情報記憶部122は、「車両ID、現在位置、位置受信日時」などを対応付けて記憶する。このようなGNNS位置情報の各種情報は、例えば、コネクテッドカー300によって、GNSS測位衛星から受信され、生成されるトランザクションデータである。
「車両ID」は、コネクテッドカー300を一意に示す識別子である。「車両ID」は、上述した「車両ナンバー」であってもよいが、図5の例では、GNSS測位衛星との間でも用いる識別子として別の識別子にしている。そのため、情報処理装置100の記憶部120は、「車両ID」と「車両ナンバー」とのマッピングデータ(図示せず)をさらに記憶してもよい。
「現在位置」は、例えば、コネクテッドカー300が現在いる緯度および経度を示す(厳密には、「位置受信日時」にいた緯度および経度)。
「位置受信日時」は、例えば、コネクテッドカー300がGNSS測位衛星から位置情報を受信した時のコネクテッドカー300のシステム日時である。
(通知内容情報記憶部123)
通知内容情報記憶部123は、監視カメラ200やコネクテッドカー300によって検出された非コネクテッドカー400の存在を知らせるための通知内容に関する情報を記憶する。図6は、実施形態に係る通知内容情報記憶部123に記憶される情報の例を示す図である。図6に示す例では、通知内容情報記憶部123は、「通知先車両ID、通知内容」などを対応付けて記憶する。このような通知内容情報の各種情報は、情報処理装置100によって生成されるトランザクションデータである。
「通知先車両ID」は、通知内容の通知先であるコネクテッドカー300を一意に示す識別子である。「通知先車両ID」は、上述した「車両ID」であってよいし、「車両ナンバー」であってもよい。
「通知内容」は、コネクテッドカー300に通知される通知内容である。推測された非コネクテッドカー400の位置やその位置までの到達時間などに基づいて、コネクテッドカー300の運転手などが理解し易いように自然言語化されてよい。
(制御部130)
制御部130は、情報処理装置100全体を司る処理部であり、例えば、CPU(Central Processing Unit)やMPU(Micro Processing Unit)など(いわゆる、プロセッサ)である。制御部130は、記憶部120に記憶されている各種プログラム(例えば、本願に係る情報処理プログラム)を、作業領域となるRAMに展開して実行する。また、制御部130は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)などの集積回路により実現される。
図3に示すように、制御部130は、受信部131、算出部132、学習部133、推定部134、通知部135を有し、以下に説明する各機能や作用を実現または実行する。なお、制御部130の内部構成は、図3に示した構成に限られず、後述する学習処理や推定処理を実行する構成であれば他の構成であってもよい。また、制御部130が有する各処理部の接続関係は、図3に示した接続関係に限られず、他の接続関係であってもよい。
また、情報処理装置100は、コネクテッドカー300の位置、速度、および対象位置までの到達時間を基に学習モデルを生成し(学習フェーズ)、非コネクテッドカー400の位置および速度を当該学習モデルに入力することで非コネクテッドカー400の対象位置までの到達時間、換言するとある時点での非コネクテッドカー400の位置を推定する(推定フェーズ。予測・認識フェーズなどともいう)。そのため、情報処理装置100の各構成で実行される処理も、学習フェーズの処理(学習処理)と推定フェーズの処理(推定処理)にわかれる。なお、推定対象の「対象位置」は、主に、コネクテッドカー300にとって死角となり得る、付近に監視カメラ200が無い位置である。対象位置の正確な特定は、学習フェーズ時に、対象位置でのコネクテッドカー300のGNSS位置情報を受信することによって行われる。
(受信部131)
まず、受信部131の学習処理について説明する。受信部131は、監視カメラ200や別のコネクテッドカー300によって検出されカメラ検出情報記憶部121に記憶されたコネクテッドカー300の位置情報および速度を受信する。また、受信部131は、GNSSから受信されGNNS位置情報記憶部122に記憶されたコネクテッドカー300のGNSS位置情報を受信する。
一方、受信部131の推定処理では、受信部131は、監視カメラ200やコネクテッドカー300によって検出されカメラ検出情報記憶部121に記憶された非コネクテッドカー400の位置情報および速度を受信する。
また、本実施形態の変形例として、非コネクテッドカー400と共に監視カメラ200などによって検出されたコネクテッドカー300(「第3のコネクテッドカー」に相当)のGNSS位置情報(「第2のGNSS位置情報」に相当)にさらに基づいて、非コネクテッドカー400の対象位置までの到達時間を推定することもできる。そのため、受信部131は、非コネクテッドカー400と共に、監視カメラ200やコネクテッドカー300によって検出された第3のコネクテッドカー300の第2のGNSS位置情報をGNNS位置情報記憶部122から受信する。
(算出部132)
算出部132は、カメラによって検出されたコネクテッドカー300の位置情報が示す位置から、GNSS位置情報が示す位置までの到達時間を算出する。ここで、到達時間は、例えば、カメラ検出情報(図4)の「検出日時」と、GNNS位置情報(図5)の「位置受信日時」との差分時間である。
(学習部133)
学習部133は、監視カメラ200や別のコネクテッドカー300によって検出されたコネクテッドカー300の位置情報(「第1の位置情報」に相当)および速度(「第1の速度」に相当)を入力、ならびに対象位置までの到達時間を正解とする教師データを学習し、学習モデルを生成する。そのために、学習部133は、コネクテッドカー300の位置情報が示す位置から対象位置までの到達時間を算出する。
また、学習部133は、コネクテッドカー300の属性情報として、コネクテッドカー300のサイズ、車種、乗員の構成、ウインカーの状態、およびハザードランプの状態、コネクテッドカー300がいる場所の環境情報として、コネクテッドカー300がいるレーンおよび路面状態、ならびにコネクテッドカー300がいる場所の天候、気温、および湿度、コネクテッドカー300がいる場所の周辺情報として、コネクテッドカー300に対する前方車の有無、ならびにコネクテッドカー300がいる場所周辺の信号の状態、渋滞状況、および工事やイベントの有無の少なくとも1つを教師データの入力として学習モデルをさらに学習することができる。
(推定部134)
推定部134は、監視カメラ200などによって検出されたコネクテッドカー300の速度および対象位置までの到達時間、ならびに監視カメラ200などよって検出された非コネクテッドカー400の位置情報(「第2の位置情報」に相当)および速度(「第2の速度」に相当)に基づいて、第2の位置情報が示す位置から対象位置までの非コネクテッドカー400の到達時間(「第2の到達時間」に相当)を推定する。この推定には、学習部133によって学習された上述の学習モデルを用いることができる。そのため、推定部134は、非コネクテッドカー400の位置情報および速度を当該学習モデルに入力することで出力される到達時間を対象位置までの非コネクテッドカー400の到達時間と推定することができる。
また、推定部134は、非コネクテッドカー400の属性情報として、非コネクテッドカー400の第2のサイズ、第2の車種、第2の乗員の構成、第2のウインカーの状態、および第2のハザードランプの状態、非コネクテッドカー400の環境情報として、非コネクテッドカー400がいる第2のレーンおよび第2の路面状態、ならびに非コネクテッドカー400がいる場所の第2の天候、第2の気温、および第2の湿度、非コネクテッドカー400の周辺情報として、非コネクテッドカー400に対する第2の前方車の有無、ならびに非コネクテッドカー400がいる場所周辺の第2の信号の状態、第2の渋滞状況、および第2の工事や第2のイベントの有無の少なくとも1つを学習部133によって学習された上述の学習モデルにさらに入力することで出力される到達時間を対象位置までの非コネクテッドカー400の到達時間と推定することができる。
また、推定部134は、本実施形態の変形例として、非コネクテッドカー400と共に監視カメラ200などによって検出されたコネクテッドカー300のGNSS位置情報にさらに基づいて、非コネクテッドカー400の位置や対象位置までの到達時間を推定することができる。
(通知部135)
通知部135は、対象位置、および推定部134によって推定された非コネクテッドカー400の対象位置までの到達時間に少なくとも基づいて、通知が必要なコネクテッドカー300(「第4のコネクテッドカー」に相当)を検索し、当該コネクテッドカー300に非コネクテッドカー400に関する情報を通知する。なお、対象位置は、学習フェーズ時にコネクテッドカー300のGNSS位置情報から特定することができる。そのため、通知部135は、例えば、非コネクテッドカー400が対象位置に到達する時刻に、対象位置の周辺(例えば、対象位置から300m以内)にいるコネクテッドカー300に、非コネクテッドカー400の存在を知らせる情報を通知することができる。このような、対象位置に到達する時刻に対象位置の周辺にいるコネクテッドカー300も、推定部134が各コネクテッドカー300の位置情報や速度を学習モデルに入力することによって推定することができる。なお、通知部135は、対象位置の周辺にはいるが、対象位置から遠ざかっているようなコネクテッドカー300を、通知対象から除外することもできる。このように、通知が必要なコネクテッドカー300に非コネクテッドカー400に関する情報を通知することにより、非コネクテッドカー400による事故を未然に防ぐことができる。
〔3.学習処理の詳細〕
次に、図7を用いて、本実施形態の学習処理についてより具体的に説明する。図7は、実施形態に係る学習処理の例を示す図である。図7に示すように、監視カメラ200−1は、時刻tにコネクテッドカー300−1を検出し、検出したコネクテッドカー300−1の位置情報、および速度を、情報処理装置100に送信する。次に、情報処理装置100は、監視カメラ200−1によって検出された時刻tのコネクテッドカー300−1の位置情報、および速度を受信する。そして、情報処理装置100は、コネクテッドカー300−1から送信された時刻tのGNSS位置情報を受信する。なお、時刻tにコネクテッドカー300−1がいる位置は、監視カメラ200が設置されていない交差点Xであり、情報処理装置100によって車両認識ができない位置である。例えば、この位置を推定部134によって推定される対象位置とする。そして、情報処理装置100は、時刻tのコネクテッドカー300−1の位置情報、および速度を入力、ならびに対象位置までの到達時間(時刻tと時刻tとの差分)を正解とする教師データを学習し、学習モデルを生成する。
同様に、情報処理装置100は、別のコネクテッドカー300−2によって検出された時刻tのコネクテッドカー300−1の位置情報、および速度や、監視カメラ200−2によって検出された時刻tのコネクテッドカー300−1の位置情報、および速度を入力とし、対象位置までのそれぞれの到達時間を正解とする教師データを学習し、学習モデルを生成することができる。
なお、情報処理装置100は、コネクテッドカー300−1から送信された、時刻t、t、tそれぞれのGNSS位置情報を、監視カメラ200−1などによって検出されたそれぞれの位置情報と照合し、位置情報の整合性をとることができる。
このように、情報処理装置100は、監視カメラ200などの各カメラによって検出された、対象位置に到達するコネクテッドカー300の位置情報および速度と、対象位置までの到達時間とを繰り返し学習させて、学習モデルを生成することができる。なお、情報処理装置100は、さらに様々な条件(上述したコネクテッドカー300のサイズや車種など)を入力して学習させる。これにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定するための学習モデルを生成することができる。
また、本実施形態の学習モデルは、非コネクテッドカー400の位置情報および速度が入力される入力層と、出力層と、入力層から出力層までのいずれかの層であって出力層以外の層に属する第1要素と、第1要素と第1要素の重みとに基づいて値が算出される第2要素と、を含み、入力層に入力された位置情報および速度に応じて、非コネクテッドカー400の対象位置までの到達時間を出力層から出力するよう、情報処理装置100を機能させる。
なお、本実施形態の学習モデルを生成する生成装置(例えば、サーバ装置などの情報処理装置100)は、いかなる学習アルゴリズムを用いて上述の学習モデルを生成してもよい。例えば、生成装置は、ニューラルネットワーク(NN:Neural Network)、サポートベクターマシン(SVM:Support Vector Machine)、クラスタリング、強化学習などの学習アルゴリズムを用いて本実施形態の学習モデルを生成してもよい。一例として、生成装置がNNを用いて本実施形態の学習モデルを生成するとする。この場合、学習モデルは、1つ以上のニューロンを含む入力層と、1つ以上のニューロンを含む中間層と、1つ以上のニューロンを含む出力層とを有していてもよい。
ここで、本実施形態に係る学習モデルが「y=a*x+a*x+・・・+a*x」で示す回帰モデルで実現されるとする。この場合、学習モデルが含む第1要素は、xやxなどといった入力データ(x)に対応する。また、第1要素の重みは、xに対応する係数aに対応する。ここで、回帰モデルは、入力層と出力層とを有する単純パーセプトロンとみなすことができる。各モデルを単純パーセプトロンとみなした場合、第1要素は、入力層が有するいずれかのノードに対応し、第2要素は、出力層が有するノードとみなすことができる。
また、本実施形態に係る学習モデルがDNN(Deep Neural Network)など、1つまたは複数の中間層を有するNNで実現されるとする。この場合、学習モデルが含む第1要素は、入力層または中間層が有するいずれかのノードに対応する。また、第2要素は、第1要素と対応するノードから値が伝達されるノードである次段のノードに対応する。また、第1要素の重みは、第1要素と対応するノードから第2要素と対応するノードに伝達される値に対して考慮される重みである接続係数に対応する。
上述した回帰モデルやNNなど、任意の構造を有する学習モデルを用いて、非コネクテッドカー400の対象位置までの到達時間を算出する。より具体的には、学習モデルは、非コネクテッドカー400の位置情報および速度が入力された場合に、当該非コネクテッドカー400の対象位置までの到達時間を出力するように係数が設定される。本実施形態に係る学習モデルは、データの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。
なお、上記例では、本実施形態に係る学習モデルが、非コネクテッドカー400の位置情報および速度が入力された場合に、当該非コネクテッドカー400の対象位置までの到達時間を出力するモデル(モデルAとする)である例を示した。しかしながら、本実施形態に係る学習モデルは、モデルAに対しデータの入出力を繰り返すことで得られる結果に基づいて生成されるモデルであってもよい。例えば、本実施形態に係る学習モデルは、非コネクテッドカー400の位置情報および速度を入力とし、モデルAが出力する非コネクテッドカー400の対象位置までの到達時間を出力とする学習モデル(モデルBとする)であってもよい。または、本実施形態に係る学習モデルは、非コネクテッドカー400の位置情報および速度を入力とし、モデルBが出力する非コネクテッドカー400の対象位置までの到達時間を出力とする学習モデルであってもよい。
〔4.推定処理の詳細〕
次に、図8を用いて、本実施形態の推定処理についてより具体的に説明する。図8は、実施形態に係る推定処理の例を示す図である。図8に示すように、例えば、監視カメラ200−1が時刻t11に非コネクテッドカー400を検出したとする。監視カメラ200−1は、検出した非コネクテッドカー400の位置情報および速度を情報処理装置100に送信する。次に、情報処理装置100は、監視カメラ200−1によって検出された時刻t11の非コネクテッドカー400の位置情報、および速度を受信する。そして、情報処理装置100は、時刻t11の非コネクテッドカー400の位置情報、および速度を学習モデルに入力することで出力される到達時間を、非コネクテッドカー400が時刻t11にいた位置から対象位置までの到達時間と推定する。なお、対象位置とは、例えば、監視カメラ200が設置されていない交差点Xであり、情報処理装置100によって車両認識ができない位置である(図8では、時刻t14に非コネクテッドカー400がいる位置である)。
同様に、情報処理装置100は、コネクテッドカー300によって検出された時刻t12の非コネクテッドカー400の位置情報、および速度や、監視カメラ200−2によって検出された時刻t13の非コネクテッドカー400の位置情報、および速度を学習モデルに入力することで、非コネクテッドカー400が時刻t12や時刻t13にいた位置から対象位置までの到達時間をそれぞれ推定することができる。
このように、情報処理装置100は、監視カメラ200などの各カメラによって検出された、非コネクテッドカー400の位置情報および速度を学習モデルに入力することで、対象位置までの到達時間を推定することができる。換言すると、対象位置に非コネクテッドカー400がいる時刻が推定される。さらに、対象位置を増やすことで、監視カメラ200などの各カメラに検出されない間の非コネクテッドカー400の位置(挙動)を推定することができる。なお、情報処理装置100は、さらに様々な条件(上述したコネクテッドカー300のサイズや車種など)で学習させた学習モデルに対し、非コネクテッドカー400の様々な条件(上述した非コネクテッドカー400のサイズや車種など)をさらに入力する。これにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定することができる。
〔5.学習処理の手順〕
次に、図9を用いて、実施形態に係る学習処理の手順について説明する。図9は、実施形態に係る学習処理の流れを示すフローチャートである。本処理は、非コネクテッドカー400の対象位置への到達時間を推定する学習モデルを生成するために、情報処理装置100によって実行される。また、情報処理装置100が、例えば、監視カメラ200や別のコネクテッドカー300によって検出されたコネクテッドカー300の位置情報および速度を受信することをトリガーに開始される。
まず、図9に示すように、情報処理装置100の受信部131は、カメラ検出情報記憶部121に記憶されたコネクテッドカー300の位置情報および速度を受信する(ステップS101)。これら位置情報および速度は、上述したように、監視カメラ200または別のコネクテッドカー300によって検出され、検出した監視カメラ200または別のコネクテッドカー300によって情報処理装置100に送信される情報である。
次に、受信部131は、GNNS位置情報記憶部122に記憶されたコネクテッドカー300のGNSS位置情報を受信する(ステップS102)。このGNSS位置情報は、コネクテッドカー300によってGNSS測位衛星から受信され、コネクテッドカー300によって情報処理装置100に送信される情報である。
次に、情報処理装置100の学習部133は、受信部131によって受信されたコネクテッドカー300の位置情報が示す位置からGNSS位置情報が示す位置(対象位置)までの到達時間を算出する(ステップS103)。当該到達時間は、例えば、コネクテッドカー300の位置情報が監視カメラ200または別のコネクテッドカー300によって検出された日時と、GNSS測位衛星によってGNSS位置情報が受信された日時との差分から算出することができる。
次に、学習部133は、受信部131によって受信されたコネクテッドカー300の位置情報および速度を入力、ならびに算出した到達時間を正解とする教師データを学習し、学習モデルを生成する(ステップS104)。また、学習部133は、教師データの入力として、上述したような様々な条件(コネクテッドカー300のサイズや車種など)をさらに学習してもよい。ステップS104の後、本処理は終了するが、学習部133はさらに、コネクテッドカー300の位置や速度などを変えて繰り返し学習を行うことができる。
〔6.推定処理の手順〕
次に、図10を用いて、実施形態に係る推定処理の手順について説明する。図10は、実施形態に係る推定処理の流れを示すフローチャートである。本処理は、上述した学習処理により生成された学習モデルを用いて非コネクテッドカー400の対象位置への到達時間を推定し、通知が必要なコネクテッドカー300に通知を行うために、情報処理装置100によって実行される。また、情報処理装置100が、例えば、監視カメラ200やコネクテッドカー300によって検出された非コネクテッドカー400の位置情報および速度を受信することをトリガーに開始される。
まず、図10に示すように、情報処理装置100の受信部131は、カメラ検出情報記憶部121に記憶された非コネクテッドカー400の位置情報および速度を受信する(ステップS201)。これら位置情報および速度は、上述したように、監視カメラ200またはコネクテッドカー300によって検出され、検出した監視カメラ200またはコネクテッドカー300によって情報処理装置100に送信される情報である。
次に、情報処理装置100の推定部134は、受信部131によって受信された非コネクテッドカー400の位置情報および速度を、上述した学習処理により生成された学習モデルに入力する。そして、推定部134は、当該学習モデルから出力される到達時間を対象位置までの非コネクテッドカー400の到達時間と推定する(ステップS202)。
次に、情報処理装置100の通知部135は、対象位置、および推定部134によって推定された非コネクテッドカー400の対象位置までの到達時間に少なくとも基づいて、通知が必要なコネクテッドカー300を検索する(ステップS203)。通知が必要なコネクテッドカー300とは、上述したように、例えば、非コネクテッドカー400が対象位置に到達する時刻に対象位置から300m以内にいるコネクテッドカー300である。
次に、通知部135は、通知が必要なコネクテッドカー300に、例えば、非コネクテッドカー400の存在を知らせる情報を通知する(ステップS204)。ステップS204の後、本処理は終了する。
〔7.変形例〕
次に、実施形態に係る情報処理装置100の推定処理の変形例について説明する。図11は、実施形態に係る推定処理の変形例を示す図である。図11に示すように、例えば、監視カメラ200−1が時刻t21に非コネクテッドカー400と共に、例えば、非コネクテッドカー400の前後を走るコネクテッドカー300−1を検出したとする。この場合、情報処理装置100は、コネクテッドカー300−1から送信されてくるGNSS位置情報およびコネクテッドカー300−1の速度を学習モデルに入力することで出力される到達時間を、非コネクテッドカー400が時刻t21にいた位置から対象位置(例えば、時刻t24に非コネクテッドカー400がいる位置)までの到達時間と推定する。当該推定は、非コネクテッドカー400の位置の特定にコネクテッドカー300−1のGNSS位置情報を用いるため、監視カメラ200で検出された非コネクテッドカー400の位置情報を用いるよりも正確な推定を行うことができる。
〔8.効果〕
上述してきたように、実施形態に係る情報処理装置100は、受信部131、算出部132、および推定部134を有する。受信部131は、カメラ(監視カメラ200および/または別のコネクテッドカー300)で検出されたコネクテッドカー300の第1の位置情報および第1の速度をカメラから受信する。また、受信部131は、コネクテッドカー300から第3の位置情報を受信する。算出部132は、第1の位置情報が示す位置から第3の位置情報が示す位置までの第1の到達時間を算出する。また、受信部131は、カメラで検出された非コネクテッドカー400の第2の位置情報および第2の速度を受信する。推定部134は、第1の速度、第1の到達時間、第2の位置情報、および第2の速度に基づいて、第2の位置情報が示す位置から第3の位置情報が示す位置までの非コネクテッドカー400の第2の到達時間を推定する。
このように、実施形態に係る情報処理装置100は、コネクテッドカー300の速度、カメラで検出されたコネクテッドカー300の位置から対象位置までの到達時間、ならびにカメラで検出された非コネクテッドカー400の位置情報および速度に基づいて、非コネクテッドカー400の対象位置までの到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間を推定することができる。
また、実施形態に係る情報処理装置100は、第1の位置情報および第1の速度を入力、ならびに第1の到達時間を正解とする教師データを学習し、学習モデルを生成する学習部133をさらに備え、情報処理装置100の推定部134は、第2の位置情報および第2の速度を学習モデルに入力し、出力される到達時間を第2の到達時間と推定する。
このように、実施形態に係る情報処理装置100は、カメラで検出されたコネクテッドカー300の位置情報および速度を入力、コネクテッドカー300の対象位置までの到達時間を正解とする教師データによる学習モデルを用いて非コネクテッドカー400の対象位置までの到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間をより正確に推定することができる。
また、実施形態に係る情報処理装置100の学習部133は、コネクテッドカー300の第1の属性情報、ならびにコネクテッドカー300がいる場所の第1の環境情報および第1の周辺情報の少なくとも1つを教師データの入力としてさらに学習し、推定部134は、非コネクテッドカー400の第2の属性情報、ならびに非コネクテッドカー400がいる場所の第2の環境情報および第2の周辺情報の少なくとも1つを学習モデルにさらに入力することで出力される到達時間を第2の到達時間と推定する。
このように、実施形態に係る情報処理装置100は、学習モデルにさらに様々な条件を入力して学習させることにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定することができる。
また、実施形態に係る情報処理装置100の学習部133は、コネクテッドカー300の第1の属性情報として、コネクテッドカー300の第1のサイズ、第1の車種、第1の乗員の構成、第1のウインカーの状態、および第1のハザードランプの状態、コネクテッドカー300の第1の環境情報として、コネクテッドカー300がいる第1のレーンおよび第1の路面状態、ならびにコネクテッドカー300がいる場所の第1の天候、第1の気温、および第1の湿度、コネクテッドカー300の第1の周辺情報として、コネクテッドカー300に対する第1の前方車の有無、ならびにコネクテッドカー300がいる場所周辺の第1の信号の状態、第1の渋滞状況、および第1の工事や第1のイベントの有無の少なくとも1つを教師データの入力としてさらに学習し、推定部134は、非コネクテッドカー400の第2の属性情報として、非コネクテッドカー400の第2のサイズ、第2の車種、第2の乗員の構成、第2のウインカーの状態、および第2のハザードランプの状態、非コネクテッドカー400の環境情報として、非コネクテッドカー400がいる第2のレーンおよび第2の路面状態、ならびに非コネクテッドカー400がいる場所の第2の天候、第2の気温、および第2の湿度、非コネクテッドカー400の周辺情報として、非コネクテッドカー400に対する第2の前方車の有無、ならびに非コネクテッドカー400がいる場所周辺の第2の信号の状態、第2の渋滞状況、および第2の工事や第2のイベントの有無の少なくとも1つを学習モデルにさらに入力することで出力される到達時間を第2の到達時間と推定する。
このように、実施形態に係る情報処理装置100は、学習モデルにさらに様々な条件を入力して学習させることにより、様々な条件下でより正確に非コネクテッドカー400の到達時間を推定することができる。
また、実施形態に係るカメラは、位置の異なる複数のカメラである。
このように、実施形態に係る情報処理装置100は、位置の異なる複数のカメラにより検出されたコネクテッドカー300および非コネクテッドカー400の位置情報および速度を用いて、対象位置への到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間をより正確に推定することができる。
また、実施形態に係るカメラは、カメラは、第2のコネクテッドカー300の車載カメラである。
このように、実施形態に係る情報処理装置100は、車載カメラにより検出されたコネクテッドカー300および非コネクテッドカー400の位置情報および速度を用いて、対象位置への到達時間を推定する。これにより、監視カメラ200が設置されておらず、検出できないような位置にいる非コネクテッドカー400の対象位置への到達時間を推定することができる。
また、実施形態に係る情報処理装置100の受信部131は、非コネクテッドカー400と共にカメラで検出された第3のコネクテッドカー300の第4の位置情報を受信し、実施形態に係る情報処理装置100の推定部134は、第4の位置情報にさらに基づいて、第2の到達時間を推定する。
このように、実施形態に係る情報処理装置100は、非コネクテッドカー400と共にカメラで検出されたコネクテッドカー300の位置情報に基づいて、非コネクテッドカー400の対象位置への到達時間を推定する。これにより、非コネクテッドカー400の位置の推定を、非コネクテッドカー400のカメラで検出された位置情報を用いるよりも正確に行うことができる。
また、実施形態に係る情報処理装置100の受信部131は、第3の位置情報として、コネクテッドカー300が全地球型航法衛星システム(GNSS)から受信した第1のGNSS位置情報を受信し、第4の位置情報として、第3のコネクテッドカー300がGNSSから受信した第2のGNSS位置情報を受信する。
このように、コネクテッドカー300の位置情報にGNSS位置情報を用いることで、非コネクテッドカー400の対象位置への到達時間をより正確に推定することができる。
また、実施形態に係る情報処理装置100は、第3の位置情報および第2の到達時間に少なくとも基づいて、通知が必要な第4のコネクテッドカー300を検索し、第4のコネクテッドカー300に非コネクテッドカー400に関する情報を通知する通知部135をさらに備える。
このように、実施形態に係る情報処理装置100は、通知が必要なコネクテッドカー300を検索し、非コネクテッドカー400に関する情報を通知することにより、非コネクテッドカー400による事故を未然に防ぐことができる。
また、実施形態に係る情報処理装置100は、受信部131、および推定部134を有する。受信部131は、カメラ(監視カメラ200および/または別のコネクテッドカー300)で検出された非コネクテッドカー400の第2の位置情報および第2の速度をカメラから受信する。推定部134は、カメラで検出されたコネクテッドカー300の第1の位置情報および第1の速度、ならびに第1の位置情報が示す位置から、コネクテッドカー300から受信された第3の位置情報が示す位置までの第1の到達時間に基づいて生成された学習モデルを用いて、第2の位置情報が示す位置から第3の位置情報が示す位置までの非コネクテッドカー400の第2の到達時間を推定する。
このように、実施形態に係る情報処理装置100は、コネクテッドカー300の速度、カメラで検出されたコネクテッドカー300の位置から対象位置までの到達時間、ならびにカメラで検出された非コネクテッドカー400の位置情報および速度に基づいて生成された学習モデルを用いて、非コネクテッドカー400の対象位置までの到達時間を推定する。これにより、カメラにより検出することができない対象位置までの非コネクテッドカー400の到達時間を推定することができる。
〔9.ハードウェア構成〕
上述してきた情報処理装置100は、例えば、図12に示すような構成のコンピュータ1000によって実現される。図12は、各装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ1000は、CPU1100、RAM1200、ROM1300、HDD1400、通信インターフェイス(I/F)1500、入出力インターフェイス(I/F)1600、およびメディアインターフェイス(I/F)1700を有する。
CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるブートプログラムや、コンピュータ1000のハードウェアに依存するプログラムなどを格納する。
HDD1400は、CPU1100によって実行されるプログラム、および、プログラムによって使用されるデータなどを格納する。通信インターフェイス1500は、ネットワークNを介して他の機器からデータを受信してCPU1100へ送り、CPU1100が収集したデータを、ネットワークNを介して他の機器へ送信する。
CPU1100は、入出力インターフェイス1600を介して、ディスプレイやプリンタなどの出力装置、および、キーボードやマウスなどの入力装置を制御する。CPU1100は、入出力インターフェイス1600を介して、入力装置からデータを入力する。また、CPU1100は、収集したデータを、入出力インターフェイス1600を介して出力装置へ出力する。
メディアインターフェイス1700は、記録媒体1800に格納されたプログラムまたはデータを読み取り、RAM1200を介してCPU1100に提供する。CPU1100は、プログラムを、メディアインターフェイス1700を介して記録媒体1800からRAM1200上にロードし、ロードしたプログラムを実行する。記録媒体1800は、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)などの光学記録媒体、MO(Magneto−Optical disk)などの光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリなどである。
例えば、コンピュータ1000が情報処理装置100として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされたプログラムを実行することにより、制御部130の機能を実現する。コンピュータ1000のCPU1100は、これらのプログラムを記録媒体1800から読み取って実行するが、他の例として、他の装置からネットワークNを介してこれらのプログラムを受信してもよい。
以上、本願の実施形態を図面に基づいて詳細に説明したが、これらは例示であり、発明の開示の行に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。
〔10.その他〕
また、上記実施形態において説明した各処理のうち、自動的に行われるものとして説明した処理の全部または一部を手動的に行うこともでき、あるいは、手動的に行われるものとして説明した処理の全部または一部を公知の方法で自動的に行うこともできる。この他、上記文書中や図面中で示した処理手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。例えば、各図に示した各種情報は、図示した情報に限られない。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
また、上述してきた実施形態は、処理内容を矛盾させない範囲で適宜組み合わせることが可能である。
また、上述してきた「部(section、module、unit)」は、「手段」や「回路」などに読み替えることができる。例えば、受信部は、受信手段や受信回路に読み替えることができる。
100 情報処理装置
110 通信部
120 記憶部
121 カメラ検出情報記憶部
122 GNNS位置情報記憶部
123 通知内容情報記憶部
130 制御部
131 受信部
132 算出部
133 学習部
134 推定部
135 通知部
200 監視カメラ
300 コネクテッドカー
400 非コネクテッドカー
N ネットワーク

Claims (15)

  1. カメラで検出されたコネクテッドカーの第1の位置情報および第1の速度を前記カメラから受信し、
    前記コネクテッドカーから第3の位置情報を受信する第1の受信部と、
    前記コネクテッドカーが前記第1の位置情報が示す位置から前記第3の位置情報が示す位置まで移動するのに要した第1の到達時間を算出する算出部と、
    前記カメラで検出された非コネクテッドカーの第2の位置情報および第2の速度を前記カメラから受信する第2の受信部と、
    前記第1の速度、前記第1の到達時間、前記第2の位置情報、および前記第2の速度に基づいて、前記第2の位置情報が示す位置から前記第3の位置情報が示す位置までの前記非コネクテッドカーの第2の到達時間を推定する推定部と
    を備え
    前記第2の位置情報が示す位置は、前記コネクテッドカーが通過した前記第1の位置情報が示す位置と前記第3の位置情報が示す位置とを結ぶ経路上にある位置であることを特徴とする情報処理装置。
  2. カメラで検出されたコネクテッドカーの第1の位置情報および第1の速度を前記カメラから受信し、
    前記コネクテッドカーから第3の位置情報を受信する第1の受信部と、
    前記第1の位置情報が示す位置から前記第3の位置情報が示す位置までの第1の到達時間を算出する算出部と、
    前記コネクテッドカーを検出したカメラと同一の前記カメラで検出された非コネクテッドカーの第2の位置情報および第2の速度を前記カメラから受信する第2の受信部と、
    前記第1の速度、前記第1の到達時間、前記第2の位置情報、および前記第2の速度に基づいて、前記第2の位置情報が示す位置から前記第3の位置情報が示す位置までの前記非コネクテッドカーの第2の到達時間を推定する推定部と
    を備えたことを特徴とする情報処理装置。
  3. 前記第1の位置情報および前記第1の速度を入力、ならびに前記第1の到達時間を正解とする教師データを学習し、学習モデルを生成する学習部をさらに備え、
    前記推定部は、前記第2の位置情報および前記第2の速度を前記学習モデルに入力し、出力される到達時間を前記第2の到達時間と推定することを特徴とする請求項1または2に記載の情報処理装置。
  4. 前記学習部は、前記コネクテッドカーの第1の属性情報、ならびに前記コネクテッドカーがいる場所の第1の環境情報および第1の周辺情報の少なくとも1つを前記教師データの入力としてさらに学習し、
    前記推定部は、前記非コネクテッドカーの第2の属性情報、ならびに前記非コネクテッドカーがいる場所の第2の環境情報および第2の周辺情報の少なくとも1つを前記学習モデルにさらに入力することで出力される到達時間を前記第2の到達時間と推定することを特徴とする請求項に記載の情報処理装置。
  5. 前記学習部は、前記第1の属性情報として、前記コネクテッドカーの第1のサイズ、第1の車種、第1の乗員の構成、第1のウインカーの状態、および第1のハザードランプの状態、前記第1の環境情報として、前記コネクテッドカーがいる第1のレーンおよび第1の路面状態、ならびに前記コネクテッドカーがいる場所の第1の天候、第1の気温、および第1の湿度、前記第1の周辺情報として、前記コネクテッドカーに対する第1の前方車の有無、ならびに前記コネクテッドカーがいる場所周辺の第1の信号の状態、第1の渋滞状況、および第1の工事や第1のイベントの有無の少なくとも1つを前記教師データの入力としてさらに学習し、
    前記推定部は、前記第2の属性情報として、前記非コネクテッドカーの第2のサイズ、第2の車種、第2の乗員の構成、第2のウインカーの状態、および第2のハザードランプの状態、前記第2の環境情報として、前記非コネクテッドカーがいる第2のレーンおよび第2の路面状態、ならびに前記非コネクテッドカーがいる場所の第2の天候、第2の気温、および第2の湿度、前記第2の周辺情報として、前記非コネクテッドカーに対する第2の前方車の有無、ならびに前記非コネクテッドカーがいる場所周辺の第2の信号の状態、第2の渋滞状況、および第2の工事や第2のイベントの有無の少なくとも1つを前記学習モデルにさらに入力することで出力される到達時間を前記第2の到達時間と推定することを特徴とする請求項に記載の情報処理装置。
  6. 前記カメラは、位置の異なる複数のカメラであることを特徴とする請求項1に記載の情報処理装置。
  7. 前記カメラは、第2のコネクテッドカーの車載カメラであることを特徴とする請求項1に記載の情報処理装置。
  8. 前記第2の受信部は、前記非コネクテッドカーと共に前記カメラで検出された第3のコネクテッドカーの第4の位置情報を受信し、
    前記推定部は、前記第4の位置情報にさらに基づいて、前記第2の到達時間を推定することを特徴とする請求項1または2に記載の情報処理装置。
  9. 前記第1の受信部は、前記第3の位置情報として、前記コネクテッドカーが全地球型航法衛星システム(GNSS)から受信した第1のGNSS位置情報を受信し、
    前記第2の受信部は、前記第4の位置情報として、前記第3のコネクテッドカーがGNSSから受信した第2のGNSS位置情報を受信する
    ことを特徴とする請求項に記載の情報処理装置。
  10. 前記第3の位置情報および前記第2の到達時間に少なくとも基づいて、通知が必要な第4のコネクテッドカーを検索し、前記第4のコネクテッドカーに前記非コネクテッドカーに関する情報を通知する通知部をさらに備えたことを特徴とする請求項1または2に記載の情報処理装置。
  11. 情報処理装置が、
    カメラで検出されたコネクテッドカーの第1の位置情報および第1の速度を前記カメラから受信し、
    前記カメラで検出された非コネクテッドカーの第2の位置情報および第2の速度を前記カメラから受信し、
    前記コネクテッドカーから第3の位置情報を受信し、
    前記コネクテッドカーが前記第1の位置情報が示す位置から前記第3の位置情報が示す位置まで移動するのに要した第1の到達時間を算出し、
    前記第1の速度、前記第1の到達時間、前記第2の位置情報、および前記第2の速度に基づいて、前記第2の位置情報が示す位置から前記第3の位置情報が示す位置までの前記非コネクテッドカーの第2の到達時間を推定する
    処理を実行し、
    前記第2の位置情報が示す位置は、前記コネクテッドカーが通過した前記第1の位置情報が示す位置と前記第3の位置情報が示す位置とを結ぶ経路上にある位置であることを特徴とする情報処理方法。
  12. 情報処理装置が、
    カメラで検出されたコネクテッドカーの第1の位置情報および第1の速度を前記カメラから受信し、
    前記コネクテッドカーから第3の位置情報を受信し、
    前記第1の位置情報が示す位置から前記第3の位置情報が示す位置までの第1の到達時間を算出し、
    前記コネクテッドカーを検出したカメラと同一の前記カメラで検出された非コネクテッドカーの第2の位置情報および第2の速度を前記カメラから受信し、
    前記第1の速度、前記第1の到達時間、前記第2の位置情報、および前記第2の速度に基づいて、前記第2の位置情報が示す位置から前記第3の位置情報が示す位置までの前記非コネクテッドカーの第2の到達時間を推定する
    処理を実行することを特徴とする情報処理方法。
  13. 情報処理装置に、請求項11または請求項12に記載の情報処理方法を実行させることを特徴とする情報処理プログラム。
  14. カメラから受信した情報に基づいて非コネクテッドカーの第2の位置情報および第2の速度を生成する生成部と、
    前記カメラから受信した情報に基づいて生成されたコネクテッドカーの第1の位置情報および第1の速度、ならびに前記第1の位置情報が示す位置から、前記コネクテッドカーから受信された第3の位置情報が示す位置までの第1の到達時間に基づいて生成された学習モデルを用いて、前記第2の位置情報が示す位置から前記第3の位置情報が示す位置までの前記非コネクテッドカーの第2の到達時間を推定する推定部と
    を備え
    前記第2の位置情報が示す位置は、前記コネクテッドカーが通過した前記第1の位置情報が示す位置と前記第3の位置情報が示す位置とを結ぶ経路上にある位置であることを特徴とする車両到達時間推定装置。
  15. カメラから受信した情報に基づいて非コネクテッドカーの第2の位置情報および第2の速度を生成する生成部と、
    前記カメラと同一のカメラから受信した情報に基づいて生成されたコネクテッドカーの第1の位置情報および第1の速度、ならびに前記第1の位置情報が示す位置から、前記コネクテッドカーから受信された第3の位置情報が示す位置までの第1の到達時間に基づいて生成された学習モデルを用いて、前記第2の位置情報が示す位置から前記第3の位置情報が示す位置までの前記非コネクテッドカーの第2の到達時間を推定する推定部と
    を備えたことを特徴とする車両到達時間推定装置。
JP2020026665A 2020-02-19 2020-02-19 情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置 Active JP6986584B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020026665A JP6986584B2 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置
PCT/JP2021/001723 WO2021166527A1 (ja) 2020-02-19 2021-01-19 情報処理装置、情報処理方法、および記録媒体、ならびに車両到達時間推定装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020026665A JP6986584B2 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置

Publications (2)

Publication Number Publication Date
JP2021131731A JP2021131731A (ja) 2021-09-09
JP6986584B2 true JP6986584B2 (ja) 2021-12-22

Family

ID=77391927

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020026665A Active JP6986584B2 (ja) 2020-02-19 2020-02-19 情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置

Country Status (2)

Country Link
JP (1) JP6986584B2 (ja)
WO (1) WO2021166527A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7449983B2 (ja) 2022-07-06 2024-03-14 ソフトバンク株式会社 サーバ、コネクティッド車両及び車両制御方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3160438B2 (ja) * 1993-09-29 2001-04-25 株式会社東芝 交通流予測装置
JP3099934B2 (ja) * 1994-09-08 2000-10-16 株式会社東芝 走行所要時間予測装置
JPH09212788A (ja) * 1996-02-01 1997-08-15 Toshiba Corp 所要時間予測装置
JP3904629B2 (ja) * 1996-04-01 2007-04-11 松下電器産業株式会社 旅行時間予測装置及び旅行時間予測方法
JPH1083496A (ja) * 1996-09-09 1998-03-31 Mitsubishi Electric Corp 旅行時間予測装置
JP2006058100A (ja) * 2004-08-19 2006-03-02 Fujitsu Ten Ltd 運転支援装置、運転支援システムおよび運転支援方法
JP6505349B2 (ja) * 2017-03-10 2019-04-24 三菱電機株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP6812337B2 (ja) * 2017-12-22 2021-01-13 Kddi株式会社 移動対象物における所定事象の発生傾向を推定するプログラム、装置及び方法
JP7099691B2 (ja) * 2018-03-27 2022-07-12 Necプラットフォームズ株式会社 車両誘導制御装置、車両誘導システム、車両誘導制御方法及びプログラム

Also Published As

Publication number Publication date
JP2021131731A (ja) 2021-09-09
WO2021166527A1 (ja) 2021-08-26

Similar Documents

Publication Publication Date Title
US20190354838A1 (en) Automobile Accident Detection Using Machine Learned Model
US9990182B2 (en) Computer platform for development and deployment of sensor-driven vehicle telemetry applications and services
JP2021501425A (ja) セルラーネットワークベース運転支援方法及び交通制御ユニット
US11315428B2 (en) Management of mobile objects
US20230154332A1 (en) Predicting traffic violation hotspots using map features and sensors data
US20230033672A1 (en) Determining traffic violation hotspots
US11408739B2 (en) Location correction utilizing vehicle communication networks
US12058552B2 (en) Systems and methods for selecting locations to validate automated vehicle data transmission
US20230204378A1 (en) Detecting and monitoring dangerous driving conditions
CN114274972A (zh) 自主驾驶环境中的场景识别
JP2022135558A (ja) 自動運転制御装置、自動運転制御方法、及び自動運転制御プログラム
CN113424209A (zh) 使用深度学习多预测器融合和贝叶斯优化的轨迹预测
JP7207227B2 (ja) 運転行動評価装置、運転行動評価方法、及び運転行動評価プログラム
JP6986584B2 (ja) 情報処理装置、情報処理方法、および情報処理プログラム、ならびに車両到達時間推定装置
US20230090338A1 (en) Method and system for evaluation and development of automated driving system features or functions
US11897510B2 (en) Estimating trip duration based on vehicle reroute probabilities
KR102350197B1 (ko) 주행경로 설정장치 및 주행경로 설정방법
CN107300905B (zh) 移动体控制设备和移动体控制方法
Hayashi et al. Prioritization of Lane-Specific Traffic Jam Detection for Automotive Navigation Framework Utilizing Suddenness Index and Automatic Threshold Determination
WO2019038987A1 (ja) コンピュータプログラム、走行車線特定装置および走行車線特定システム
US20240184258A1 (en) Systems and techniques for validating a simulation framework
US20240169111A1 (en) Parameterizing hot starts to maximize test repeatability
US20240144743A1 (en) Transducer-based suspension health monitoring system
US20230298469A1 (en) Apparatus and method for cooperative escape zone detection
Tseng et al. Turn prediction for special intersections and its case study

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210420

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211129

R150 Certificate of patent or registration of utility model

Ref document number: 6986584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150