JP7099368B2 - 支援時間提示システム - Google Patents

支援時間提示システム Download PDF

Info

Publication number
JP7099368B2
JP7099368B2 JP2019041373A JP2019041373A JP7099368B2 JP 7099368 B2 JP7099368 B2 JP 7099368B2 JP 2019041373 A JP2019041373 A JP 2019041373A JP 2019041373 A JP2019041373 A JP 2019041373A JP 7099368 B2 JP7099368 B2 JP 7099368B2
Authority
JP
Japan
Prior art keywords
support
time
target vehicle
remote
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019041373A
Other languages
English (en)
Other versions
JP2020144656A (ja
Inventor
駿 山▲崎▼
健二 武藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019041373A priority Critical patent/JP7099368B2/ja
Publication of JP2020144656A publication Critical patent/JP2020144656A/ja
Application granted granted Critical
Publication of JP7099368B2 publication Critical patent/JP7099368B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、支援時間提示システムに関する。
近年、車両の自動運転システムの研究が進められている。自動運転システムでは、何らかの原因により車両の自動運転が不能になった場合に、乗員から呼び出された遠隔操作者が遠隔地から運転を支援することが検討されている(例えば、特許文献1参照)。
特開2018-77649号公報
しかし、乗員は、遠隔支援に要する時間がわからず、不安になる可能性がある。そのため、遠隔支援に要する時間を精度良く推定し、乗員に提示することのできる技術が求められている。
本開示は、以下の形態として実現することが可能である。
本開示の一形態によれば、支援時間提示システム(10)が提供される。この支援時間提示システムは、学習対象車両の周辺情報の特徴量と、前記学習対象車両に対する遠隔支援時間との相関を学習することによって得られたモデルを記憶する記憶部(DB4)と、支援対象車両の周辺情報を取得して、取得された前記周辺情報から特徴量を抽出する周辺情報抽出部(120)と、前記周辺情報抽出部によって抽出された前記特徴量に基づき、前記モデルを用いて、前記支援対象車両に対する遠隔支援時間を推定する支援時間推定部(230)と、前記支援時間推定部により推定された前記遠隔支援時間に関する情報を提示する情報提示部(140)と、を備える。
この形態の支援時間提示システムでは、学習対象車両の周辺情報の特徴量と遠隔支援時間との相関を学習することによって得られたモデルを用いることによって、支援対象車両に対する遠隔支援時間を推定する。そのため、遠隔支援に要する時間を車両の周辺情報に応じて精度良く推定して乗員に提示することができ、乗員の不安を和らげることができる。
本開示は、支援時間提示システム以外の種々の形態で実現することも可能である。例えば、支援時間提示システムに用いられる車載器や、遠隔支援を行うための遠隔支援装置等の形態で実現できる。
支援時間提示システムの概念図。 車載装置およびセンタ側装置のブロック図。 周辺情報から周辺情報特徴量への変換処理の例を示す図。 周辺情報から周辺情報特徴量への他の変換処理の例を示す図。 シーンラベル学習処理の概念図。 モデルを用いた分類処理を簡易的に示す図。 学習済モデル保持用データベースのデータ構造を示す第1の図。 シーン分類適用時用データベースのデータ構造を示す図。 シーンラベルの統計を示すグラフ。 支援時間推定学習用データベースのデータ構造を示す図。 学習済モデル保持用データベースのデータ構造を示す第2の図。 支援時間推定モデルを用いた支援時間推定の第1の説明図。 支援時間推定モデルを用いた支援時間推定の第2の説明図。 タスク管理用データベースのデータ構造を示す第1の図。 オペレータ毎に算出された支援開始時間を示す図。 タスク管理用データベースのデータ構造を示す第2の図。 情報提示部による情報の提示例を示す図。
A.第1実施形態:
図1に示すように、本開示における支援時間提示システム10では、車両が自動運転できない状況に陥った場合に、遠隔地にいる遠隔操作者(オペレータ)が呼び出され、オペレータから、車両に対する遠隔支援がなされる。遠隔支援には、例えば、遠隔操縦や経路計画の変更などが含まれる。車両が運転できない状況に陥ることを、以下では「スタック」という。本実施形態の支援時間提示システム10では、車両がスタックした場合に、その車両の遠隔支援が開始されるまでの時間が支援開始時間として計算されるとともに、その車両の遠隔支援が完了するまでの時間が支援完了時間として計算される。そして、それらの時間が、スタックした車両の乗員に提示される。図1には、これらの時間が、「現在他の車両を支援中です。あなたを支援するまで約Y分Z秒です。支援完了まで約W分U秒です。しばらくお待ちください。」というメッセージによって乗員に提示された例を示している。
図2に示すように、支援時間提示システム10は、車載装置100とセンタ側装置200とを含む。車載装置100は、自動運転車両に搭載され、センタ側装置200は、遠隔支援センタに配置される。これらは無線通信によって通信可能に構成されている。車載装置100が搭載される車両は、例えば、自動運転レベル4に相当する車両である。自動運転レベル4では、高度自動運転が行われる。高度自動運転では、車両の加速、制動、操舵が自動で行われ、さらに、運転環境の監視や安全運行のための適切な対応も、車両側で行われる。本実施形態では、車両側で自動運転の対応できなくなった際に、車載装置100によって遠隔支援センタに対してオペレータの呼び出しが行われる。以下では、遠隔支援を要する車両のことを、「支援対象車両」という。
車載装置100は、センサ群110と、周辺情報抽出部120と、第1通信部130と、情報提示部140とを備える。周辺情報抽出部120は、CPUおよびメモリを備えるコンピュータによって構成されており、CPUがメモリに記憶された所定のプログラムを実行することで実現される機能部である。なお、周辺情報抽出部120は、各種の回路によって実現されてもよい。
センサ群110には、例えば、車両の周辺を撮像するカメラや、他車両までの距離を測定するLiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)、車両の現在位置を測定するGNSS(Global Navigation Satellite System)センサ等が含まれる。
周辺情報抽出部120は、センサ群110を用いて、車両がスタックした場所における周辺情報から特徴量を抽出する。周辺情報には、例えば、時刻情報や、位置情報、道路上に存在する周辺物体の情報が含まれる。周辺情報抽出部120は、車車間通信によってこれらの情報を取得してもよい。
第1通信部130は、無線通信回路によって構成され、第1送信部132と第1受信部134とを含む。第1送信部132は、センサ群110によって取得された情報や、周辺情報抽出部120によって抽出された特徴量を表すデータを、センタ側装置200へ送信する。第1受信部134は、センタ側装置200から、図1に示したメッセージや、遠隔操作を行う担当オペレータの映像等をHMI(Human machine interface)情報として受信する。
情報提示部140は、第1受信部134がセンタ側装置200から受信した情報を車両の乗員に提示する。情報提示部140は、例えば、表示装置や音声再生装置を含み、映像や音声を用いて、図1に示したメッセージを乗員に提示する。
センタ側装置200は、第2通信部210と、シーン分類部220と、支援時間推定部230と、タスク管理部240と、センタ側カメラ250とを備える。シーン分類部220と支援時間推定部230とタスク管理部240とは、CPUおよびメモリを備えるコンピュータによって構成されており、CPUがメモリに記憶された所定のプログラムを実行することで実現される機能部である。なお、これらの機能部は、回路によって実現されてもよい。センタ側装置200は、また、ハードディスクドライブ等によって構成された記憶部を備えており、記憶部には、シーン分類モデル学習用データベースDB1、学習済モデル保持用データベースDB2、シーン分類適用時用データベースDB3、支援時間推定学習用データベースDB4、タスク管理用データベースDB5が記憶されている。
第2通信部210は、無線通信回路によって構成され、第2受信部212と第2送信部214とを含む。第2受信部212は、車載装置100の第1通信部130から、センサ群110によって取得された情報や、周辺情報抽出部120によって抽出された特徴量を表すデータを受信する。第2送信部214は、図1に示したメッセージや、遠隔操作を行う担当オペレータの映像等をHMI情報として車載装置100の第1受信部134に送信する。
シーン分類部220は、学習対象車両のスタックシーンを学習して、シーン分類モデルを作成する。また、シーン分類部220は、そのシーン分類モデルを用いて、支援対象車両が遠隔支援の対象となったスタックシーンを推定する。シーン分類部220によって行われる具体的な処理内容は後述する。「学習対象車両」および「支援対象車両」という名称は、便宜的に付けた名称であり、支援対象車両は、遠隔支援が不要の場合は、学習対象車両に成り得る。また、学習対象車両は、遠隔支援が必要となったときには、支援対象車両に成り得る。学習対象車両には、センタ側装置200に対して情報を送信可能なあらゆる車両が含まれる。
支援時間推定部230は、第2受信部212によって受信された特徴量に基づき、学習済モデル保持用データベースDB2に格納されたモデルを用いて、支援対象車両の支援に要する時間(遠隔支援時間)を推定する。支援時間推定部230によって行われる具体的な処理内容は後述する。
タスク管理部240は、オペレータのタスク管理を行い、支援開始時間および支援完了時間の算出を行う。タスク管理部240によって行われる具体的な処理内容は後述する。
センタ側カメラ250は、オペレータを撮像する。撮像された映像は、第2送信部214を通じて車載装置100に送信され、必要に応じて、情報提示部140により、乗員に提示される。
以下では、図2に示した各部において実行される処理を説明する。車載装置100の周辺情報抽出部120は、図3に示すように、車両がスタックした場所において抽出された周辺情報を、周辺情報特徴量に変換する。具体的には、スタックした位置から前方への所定の距離をn[m]、道路幅をm[m]とした場合に、その面積空間Sをa[m]×b[m]毎に分割する。そして、面積空間Sを行列S’と見なして、道路上に存在している物体(例えば、駐車車両)の行列S’上の位置(グリッド)に「1」を、物体が存在していない行列S’上のグリッドに「0」を代入する。そして、行列S’を1次元のベクトルである周辺情報特徴量に変換する。
周辺情報抽出部120は、図3に示した周辺情報特徴量以外にも他の形式の周辺情報特徴量を求めてもよい。例えば、図4に示すように、センサ群110によって撮像された映像から、他車両などの周辺物体を検出し、それら周辺物体の個々について、相対座標を求める。そして、それらの相対座標を、1次元のベクトルに変換することで、周辺情報特徴量を求めることができる。つまり、周辺情報抽出部120は、周辺情報に基づき、車両が通行する領域における物体の位置や通行可能な領域が判別できるような特徴量化を行うことにより、周辺情報特徴量を求めればよい。
図5には、シーン分類部220によって実行されるシーンラベル学習処理の概念を示している。シーン分類部220は、車両に遠隔支援が必要となる支援シーンを予め想定し、それらのシーンの分類を行う。支援シーンのことを、以下では、スタックシーンという。具体的には、まず、シーン分類部220は、車載装置100の有無を問わず、センタ側装置200と通信可能な学習対象車両から、それらの車両の運転挙動情報や周辺物体情報のデータを、スタックが生じ得る位置ごとに収集する。運転挙動情報としては、例えば、運転トピック特徴量の系列を用いることができる。運転トピック特徴量の系列は、例えば、車両から取得されるCAN(Controller Area Network)信号に、特開2013-250663号や特開2014-235605号に開示された記号化技術を適用することで取得することができる。周辺物体情報としては、例えば、周辺物体との距離情報や、自車両から見た物体への相対角度などの情報の系列を用いることができる。学習対象車両は、周辺物体との距離を、例えば、LiDARを用いて取得することができ、自車両から見た物体への相対角度を、例えば、カメラの画像を解析することで取得することができる。
シーン分類部220は、上述した運転挙動情報および周辺物体情報と対応するシーンラベルの情報を、シーン分類モデル学習用データベースDB1に格納する。そして、シーンラベルと運転挙動情報と周辺物体情報との関係を、ディープラーニングなどのクラス分類モデルを用いて学習し、シーン分類モデルMsceneを最適化する。クラス分類モデルとしては、例えば、LSTM(Long short-term memory)を用いたニューラルネットワークを用いることができる。
図6には、こうして生成されたシーン分類モデルMsceneを簡略化して示している。シーン分類モデルMsceneに対して、運転挙動情報および周辺物体情報を入力すると、出力としてシーンラベルが出力される。
図7には、学習済モデル保持用データベースDB2のデータ構造を示している。学習済モデル保持用データベースDB2には、上記のように学習された学習済みのシーン分類モデルMsceneのモデルパラメータが格納される。モデルパラメータとは、モデルを表すニューラルネットワークの各ノードに適用される重みや係数である。シーン分類部220は、学習済モデル保持用データベースDB2に格納されたモデルパラメータを用いてシーン分類モデルMsceneを再現し、そのシーン分類モデルMsceneを用いて、図6に示したように、運転挙動情報および周辺物体情報からシーンラベルを分類する。なお、シーン分類の手法は、上述した例に限らず、例えば、特開2015-56058号に開示された教師なし分類によって行われてもよい。その場合、トピックのクラスタリングによって得られるクラスタが本実施形態におけるシーンに対応する。
図8には、シーン分類適用時用データベースDB3のデータ構造を示している。シーン分類部220は、学習対象車両から、逐次、データを取得してシーン分類適用時用データベースDB3に格納し、保持する。シーン分類部220が学習対象車両から取得するデータは、上述したシーン分類モデルMsceneの学習時にも取得した運転トピック特徴量と物体情報に加え、各車両の識別IDと、時刻と、位置情報である。
車載装置100を備えた支援対象車両は、スタックが生じた時に、そのスタックが生じた位置の位置情報と時刻とを第1通信部130を用いてセンタ側装置200に送信する。センタ側装置200は、第2通信部210を用いてそれらの情報を受信すると、シーン分類部220が、受信した位置情報と時刻とを基に、過去の近似した時刻において、スタック位置に近似した位置に存在した学習対象車両をシーン分類適用時用データベースDB3から検索する。過去の近似した時刻とは、例えば、現在から1時間前までの範囲であり、所定の閾値を設けることにより判断される。スタック位置に近似した位置とは、例えば、スタック位置から道路に沿って前後L[m]の範囲であり、所定の上限を設けることにより判断される。シーン分類部220は、シーン分類適用時用データベースDB3から検索された学習対象車両の運転トピック特徴量の系列と物体情報の系列とから、学習済みのシーン分類モデルMsceneを用いて、シーンラベルを推定する。この推定処理では、シーン分類適用時用データベースDB3から検索された車両の数だけシーンラベルが推定される。
図9に示すように、シーン分類部220は、推定されたシーンラベルの統計を求める。そして、最も頻度の高かったシーンラベルに該当するシーンを、支援対象車両のスタックシーンと判定する。図9に示した例では、路駐車、店舗入口、渋滞、ゴミ収集、事故といったシーンラベルのうち、最頻値である路駐車がスタックシーンとして特定される。このように、本実施形態では、過去の学習対象車両の様々な状況から、スタックした支援対象車両のスタックシーンを判断している。これは、支援対象車両はスタックしているため、運転トピック特徴量の系列や周辺情報の系列を直接的に取得することができないためである。
続いて、支援時間推定部230において実行される支援時間の学習処理について説明する。支援時間推定部230は、オペレータによって車両の遠隔支援が行われている間、逐次、支援時間の学習に必要な情報を、支援時間推定学習用データベースDB4に格納する。具体的には、図10に示すように、遠隔支援ごとに、オペレータIDと、その遠隔支援が行われる要因となった周辺情報特徴量(図3,4参照)と、その遠隔支援に要した所要時間と、その遠隔支援を行うに際して推定されたシーンラベルとが格納される。
支援時間推定部230は、支援時間の学習にあたり、まず、推定シーンラベルをクエリとして、支援所要時間と周辺情報特徴量とを支援時間推定学習用データベースDB4を参照して取得する。そして、周辺情報特徴量を入力として、支援所要時間を出力するような関数f、すなわち、周辺情報特徴量と遠隔支援時間との相関を表す関数f、を学習する。関数fの推定には、例えば、n次多項式をベースとした線形回帰を行ってもよいし、ニューラルネットワークなどを用いることにより非線形回帰を行ってもよい。そして、支援時間推定部230は、このような学習を、シーンラベル毎に行うことにより、シーンラベル毎に、支援時間推定モデルMtimeを生成する。なお、支援時間推定部230は、推定シーンラベルだけではなく、オペレータIDをクエリとして、支援所要時間と周辺情報特徴量とを支援時間推定学習用データベースDB4から取得し、学習を行えば、オペレータIDごと、および、推定シーンラベルごと、に支援時間推定モデルMtimeを生成することができる。
支援時間推定部230は、以上のようにして支援時間の学習を行い、支援時間推定モデルMtimeを生成すると、支援時間推定モデルMtimeを、学習済モデル保持用データベースDB2に格納する。図11に示すように、学習済モデル保持用データベースDB2には、オペレータIDごと、および推定シーンラベルごとに、支援時間推定モデルMtimeのモデルパラメータが格納される。なお、本実施形態において、学習済モデル保持用データベースDB2には、図7および図11に示すように、シーン分類に用いられるシーン分類モデルMsceneと、支援時間の推定に用いられる支援時間推定モデルMtimeとが格納される。
支援時間推定部230は、学習済モデル保持用データベースDB2に格納された支援時間推定モデルMtimeを用いて、支援時間の推定を行う。具体的には、シーン分類部220によって推定されたスタックシーン(図9参照)のシーンラベルと、車載装置100から取得した周辺情報特徴量と、遠隔支援を行うオペレータのIDとを用いて、学習済モデル保持用データベースDB2から、支援時間の推定に用いる支援時間推定モデルMtimeを特定する。そして、図12に示すように、その支援時間推定モデルMtimeを用いて、周辺情報特徴量から、支援時間を推定する。図13には、様々なスタックシーンに対応する支援時間を例示している。図13に示すように、例えば、スタック地点周辺の状況が複雑であるほど、支援時間推定モデルMtimeを用いて推定される支援時間は長くなる。
支援時間推定部230によって推定された支援時間は、タスク管理部240によってオペレータ毎に管理される。図14に示すように、タスク管理部240は、支援時間推定部230から、推定された支援時間とオペレータIDとを取得し、取得した順番を表すインデックス番号に対応付けて、それらオペレータIDと支援時間とをタスク管理用データベースDB5に格納する。以下では、インデックス番号と、オペレータIDと、推定支援時間との組み合わせを、タスクという。各オペレータは、インデックス番号順に、自己のオペレータIDに対応する遠隔支援を実施していく。タスク管理部240は、支援が終わったタスクについては、タスク管理用データベースDB5から削除する。
タスク管理部240は、新しい遠隔支援のタスクがタスク管理用データベースDB5に格納されたときには、そのタスク以前に処理が必要なタスクの推定支援時間の合計と、そのタスクを含めた推定支援時間の合計とを算出する。前者は支援開始時間であり、後者は支援完了時間である。例えば、図14において、インデックスの0005番が新たに追加されたタスクだとすると、IDが0001番のオペレータによって行われる遠隔支援の支援開始時間は、60秒+360秒で420秒となり、支援完了時間は、420秒+150秒で570秒となる。
図15に示すように、タスク管理部240は、逐次、各オペレータの支援開始時間を計算してタスク管理用データベースDB5に格納しておいてもよい。そうすると、タスク管理部240は、新たなタスクを効率的にオペレータに割り振ることが可能である。例えば、図16に示すタスクの状況において、インデックス0012番が新たに登録された場合、タスク管理部240は、図15に示した各オペレータの支援開始時間を参照する。すると、図15に示したオペレータの中で、IDが0003番のオペレータが最も手が空いている状況であると判断できる。そこで、タスク管理部240は、図16に示す新たなタスク(インデックス0012番)に対して、IDが0003番のオペレータを割り当てる。
タスク管理部240によって、支援開始時間および支援完了時間が計算されると、タスク管理部240は、それらを第2通信部210に出力する。第2通信部210は、第2送信部214により、支援開始時間および支援完了時間を含むHMI情報を車載装置100に送信する。車載装置100の第1通信部130は、第1受信部134によってHMI情報を受信し、図17に示すように、情報提示部140によってそのHMI情報を乗員に提示する。情報提示部140は、情報提示部140によって提示される支援開始時間および支援完了時間を、所定のタイミングで更新する。もしくは、情報提示部140は、情報提示部140によって提示される支援開始時間および支援完了時間をカウントダウン形式で提示する。情報提示部140は、これらの情報の提示を、映像によって行ってもよいし、音声によって行ってもよい。また、図17に示すように、情報提示部140は、遠隔支援を行うオペレータの名前や会社名を乗員に提示してもよい。遠隔支援時において、情報提示部140は、センタ側装置200のセンタ側カメラ250によって撮影されたオペレータの映像を、ユーザに提示してもよい。
以上で説明した本実施形態の支援時間提示システム10によれば、学習対象車両の周辺情報の特徴量と遠隔支援時間との相関を学習することによって得られた支援時間推定モデルMtimeを用いて、支援対象車両に対する遠隔支援時間を推定するので、遠隔支援に要する時間を車両の周辺情報に応じて精度良く推定して乗員に提示することができる。この結果、乗員の不安を和らげることができる。
また、本実施形態では、図2に示したように、支援対象車両の周辺情報から特徴量を抽出する周辺情報抽出部120が、車載装置100に搭載されており、車両側で、周辺情報特徴量を求める。そのため、車載装置100からセンサ群110によって取得された各種のデータをそのままセンタ側装置200に送信してセンタ側装置200で周辺情報特徴量を求めるよりも、車載装置100からセンタ側装置200に送信するデータ量を削減できる。
また、本実施形態では、オペレータ毎に支援時間推定モデルMtimeを学習するので、実際に遠隔支援を行うオペレータに対応する支援時間推定モデルMtimeを用いて遠隔支援時間を推定することができる。そのため、より精度良く、遠隔支援に要する時間を推定することができる。
また、本実施形態では、支援時間推定モデルMtimeが、学習対象車両の運転挙動情報(運転トピック特徴量)と周辺物体情報とに応じて予め分類されたシーン毎に生成されるので、支援対象車両のスタックシーンに応じた支援時間推定モデルMtimeを用いて遠隔支援時間を推定することができる。そのため、より精度良く、遠隔支援に要する時間を推定することができる。例えば、配送車が停車していることによるスタックと、店舗入口が渋滞していることによるスタックとでは、遠隔支援の際、通行する経路も変化するため、そのようなスタックの状況の違いを支援時間の推定に的確に反映することができる。
また、本実施形態では、学習対象車両の運転挙動情報および周辺物体情報が、学習対象車両のスタックシーンにおける位置および時刻とともにシーン分類適用時用データベースDB3に逐次記憶される。そして、シーン分類部220は、そのシーン分類適用時用データベースDB3を参照して、支援対象車両の位置および時刻に近似する位置および時刻の学習対象車両の運転挙動情報および周辺物体情報に基づき、支援対象車両のスタックシーンを推定する。そのため、支援対象車両がスタックしている状況下でも、支援対象車両のスタックシーンを精度良く推定できる。
また、本実施形態では、タスク管理部240において、支援対象車両に対する遠隔支援が開始されるまでの時間を、他の支援対象車両に対して推定された遠隔支援時間に基づき、支援開始時間として算出するとともに、遠隔支援が完了するまでの時間を支援完了時間として算出する。そして、それら遠隔開始時間と支援完了時間とを、情報提示部140によって、乗員に提示する。そのため、乗員の苛立ちや不安を和らげ、安心感を与えることができる。
また、本実施形態では、オペレータ毎に算出された遠隔支援時間の合計に基づいて、新たなタスクを担当するオペレータを決定することができるので、個々のオペレータに負荷が偏ることを抑制できる。そのため、効率的な遠隔支援を行うことができる。
B.他の実施形態:
(B-1)上記実施形態において、センタ側装置200のシーン分類部220は、支援対象車両がスタックした場合に、過去に近似した時刻、近似した位置に存在した学習対象車両の運転トピック特徴量および物体情報をシーン分類適用時用データベースDB3(図8)から検索し、それらの情報に基づきスタックシーンを推定している。これに対して、シーン分類部220は、シーン分類適用時用データベースDB3に、学習対象車両から送信されたデータ(例えば、各車両の識別IDや時刻、位置情報)を格納するタイミングで、その学習対象車両の運転トピック特徴量および物体情報から予めシーンラベルを推定し、推定されたシーンラベルをシーン分類適用時用データベースDB3に逐次格納してもよい。この場合、例えば、車両の識別IDが一致するものに対して、L[m]の区間幅毎、所定のタイミングで、シーンラベルを推定して、格納していく処理を逐次的に行っていく。このように、シーン分類適用時用データベースDB3にデータが格納されるタイミングなどの所定のタイミングで事前にシーン分類を行っておけば、支援対象車両のスタック時には、その位置に対応するシーンラベルを読み出すだけでシーン分類を行うことができるので、スタック時にシーンラベルの推定を行う処理が不要になる。従って、支援対象車両のスタックシーンを迅速に判定することができ、支援時間提示までのインターバルを短縮することができる。
(B-2)上記実施形態では、スタックシーン毎、オペレータ毎に生成された支援時間推定モデルMtimeを用いて遠隔支援時間を推定している。これに対して、支援時間推定モデルMtimeは、スタックシーン毎に生成されていなくてもよいし、オペレータ毎に生成されていなくてもよい。また、例えば、支援時間推定モデルMtimeは、スタックシーンやオペレータにかかわらず、学習対象車両の周辺情報特徴量と遠隔支援時間のみから生成されてもよい。つまり、遠隔支援時間は、スタックシーンやオペレータにかかわらず、支援対象車両の周辺情報特徴量のみから推定されてもよい。
(B-3)上記実施形態では、周辺情報抽出部120が車載装置100側に備えられている。これに対して、周辺情報抽出部120は、センタ側装置200に備えられてもよい。この場合、車載装置100のセンサ群110によって取得された種々のデータがセンタ側装置200に送信され、センタ側装置200の周辺情報抽出部120によって周辺情報特徴量が抽出される。
(B-4)上記実施形態では、支援対象車両は、自動運転車両であるものとしたが、支援対象車両は、自動運転機能を備えない車両であってもよい。
(B-5)上記実施形態では、車載装置100の情報提示部140によって、支援開始時間と支援完了時間とが乗員に提示されるものとしたが、これらのうちのいずれか一方のみを提示してもよいし、遠隔支援時間のみを提示してもよい。
本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。
10 支援時間提示システム、100 車載装置、110 センサ群、120 周辺情報抽出部、130 第1通信部、132 第1送信部、134 第1受信部、140 情報提示部、200 センタ側装置、210 第2通信部、212 第2受信部、214 第2送信部、220 シーン分類部、230 支援時間推定部、240 タスク管理部、250 センタ側カメラ、DB1 シーン分類モデル学習用データベース、DB2 学習済モデル保持用データベース、DB3 シーン分類適用時用データベース、DB4 支援時間推定学習用データベース、DB5 タスク管理用データベース

Claims (8)

  1. 支援時間提示システム(10)であって、
    学習対象車両の周辺情報の特徴量と、前記学習対象車両に対する遠隔支援時間との相関を学習することによって得られたモデルを記憶する記憶部(DB4)と、
    支援対象車両の周辺情報を取得して、取得された前記周辺情報から特徴量を抽出する周辺情報抽出部(120)と、
    前記周辺情報抽出部によって抽出された前記特徴量に基づき、前記モデルを用いて、前記支援対象車両に対する遠隔支援時間を推定する支援時間推定部(230)と、
    前記支援時間推定部により推定された前記遠隔支援時間に関する情報を提示する情報提示部(140)と、
    を備える支援時間提示システム。
  2. 請求項1に記載の支援時間提示システムであって、
    前記周辺情報抽出部が、前記支援対象車両に備えられた、支援時間提示システム。
  3. 請求項1または請求項2に記載の支援時間提示システムであって、
    前記記憶部は、遠隔操作者ごとに前記モデルを記憶し、
    前記支援時間推定部は、前記支援対象車両に対して遠隔支援を行う遠隔操作者に対応するモデルを用いて前記遠隔支援時間を推定する、支援時間提示システム。
  4. 請求項1から請求項3までのいずれか一項に記載の支援時間提示システムであって、
    前記記憶部に記憶された前記モデルは、前記学習対象車両の運転挙動情報と周辺物体情報とに応じて予め分類された支援シーン毎に生成され、
    前記支援対象車両が遠隔支援の対象となった支援シーンを推定するシーン分類部(220)を備え、
    前記支援時間推定部は、推定された前記支援シーンに対応する前記モデルを用いて前記遠隔支援時間を推定する、支援時間提示システム。
  5. 請求項4に記載の支援時間提示システムであって、
    前記記憶部には、前記学習対象車両の運転挙動情報および周辺物体情報が、前記学習対象車両の支援シーンにおける位置および時刻とともに逐次記憶され、
    前記シーン分類部は、前記記憶部を参照し、前記支援対象車両の位置および時刻に近似する位置および時刻の前記学習対象車両の前記運転挙動情報および前記周辺物体情報に基づき、前記支援対象車両の支援シーンを推定する、支援時間提示システム。
  6. 請求項4に記載の支援時間提示システムであって、
    前記記憶部には、前記学習対象車両の支援シーンが、予め推定されて逐次格納され、
    前記シーン分類部は、前記支援対象車両が遠隔支援の対象となった支援シーンを、前記記憶部に予め格納された前記学習対象車両の支援シーンに基づき判定する、支援時間提示システム。
  7. 請求項1から請求項6までのいずれか一項に記載の支援時間提示システムであって、
    前記支援対象車両に対する遠隔支援が開始されるまでの時間を、個々の支援対象車両に対して推定された前記遠隔支援時間に基づき、支援開始時間として算出するとともに、前記遠隔支援が完了するまでの時間を支援完了時間として算出するタスク管理部(240)を備え、
    前記情報提示部は、前記遠隔支援時間に関する情報として、前記支援開始時間と前記支援完了時間とを提示する、支援時間提示システム。
  8. 請求項7に記載の支援時間提示システムであって、
    前記タスク管理部は、遠隔操作者毎に算出した前記遠隔支援時間の合計に基づいて、前記支援対象車両に対して遠隔支援を行う遠隔操作者を決定する、支援時間提示システム。
JP2019041373A 2019-03-07 2019-03-07 支援時間提示システム Active JP7099368B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019041373A JP7099368B2 (ja) 2019-03-07 2019-03-07 支援時間提示システム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019041373A JP7099368B2 (ja) 2019-03-07 2019-03-07 支援時間提示システム

Publications (2)

Publication Number Publication Date
JP2020144656A JP2020144656A (ja) 2020-09-10
JP7099368B2 true JP7099368B2 (ja) 2022-07-12

Family

ID=72353655

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019041373A Active JP7099368B2 (ja) 2019-03-07 2019-03-07 支援時間提示システム

Country Status (1)

Country Link
JP (1) JP7099368B2 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7414052B2 (ja) 2021-04-13 2024-01-16 株式会社デンソー 走行支援システム、走行支援方法、走行支援制御プログラム
WO2022220115A1 (ja) * 2021-04-13 2022-10-20 株式会社デンソー 走行支援システム、走行支援方法、走行支援制御プログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098900A (ja) 2010-11-02 2012-05-24 Nec Corp 問合せ対応装置、プログラム及び方法
JP2015056058A (ja) 2013-09-12 2015-03-23 株式会社デンソー 運転支援装置
JP2018077649A (ja) 2016-11-09 2018-05-17 本田技研工業株式会社 遠隔運転制御装置、車両制御システム、遠隔運転制御方法、および遠隔運転制御プログラム
JP2018190045A (ja) 2017-04-28 2018-11-29 日立オートモティブシステムズ株式会社 車両電子制御装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012098900A (ja) 2010-11-02 2012-05-24 Nec Corp 問合せ対応装置、プログラム及び方法
JP2015056058A (ja) 2013-09-12 2015-03-23 株式会社デンソー 運転支援装置
JP2018077649A (ja) 2016-11-09 2018-05-17 本田技研工業株式会社 遠隔運転制御装置、車両制御システム、遠隔運転制御方法、および遠隔運転制御プログラム
JP2018190045A (ja) 2017-04-28 2018-11-29 日立オートモティブシステムズ株式会社 車両電子制御装置

Also Published As

Publication number Publication date
JP2020144656A (ja) 2020-09-10

Similar Documents

Publication Publication Date Title
JP6494719B2 (ja) 交通信号マップ作成及び検出
EP3104284B1 (en) Automatic labeling and learning of driver yield intention
CN109804367B (zh) 使用边缘计算的分布式视频存储和搜索
US20200117926A1 (en) Apparatus, method, and system for controlling parking of vehicle
JP2020061079A (ja) 交通違反車両識別システム、サーバ、及び車両制御プログラム
EP3618011B1 (en) Data collection apparatus, on-vehicle device, data collection system, and data collection method
EP2214122A1 (en) Methods and devices for assisting a vehicle driver
JP6464737B2 (ja) 見込み客位置情報検出システム、方法およびプログラム
JP7099368B2 (ja) 支援時間提示システム
JP2018180810A (ja) 交通違反検知装置、システム、交通違反検知方法およびプログラム
US20200294329A1 (en) Data collecting device, data collecting system, data collecting method, and on-vehicle device
US11204604B2 (en) Remote driving managing apparatus and computer-readable storage medium
CN115027847B (zh) 垃圾收运方法、装置及介质
US11288899B2 (en) Drive recorder and situation information management system
KR20190043396A (ko) 도로 경로 촬영 영상을 이용한 도로 경로 별 날씨정보 생성 및 제공하기 위한 방법 및 시스템
US20200097741A1 (en) Training image selection system
JP2014182007A (ja) 車間距離計測装置及び車間距離計測方法
CN111462513B (zh) 服务器、服务器控制方法、通信终端、终端控制方法和计算机可读介质
CN110741425A (zh) 地图更新装置、地图更新系统、地图更新方法及程序
CN116170755A (zh) 停车时长的提醒方法、装置、终端设备及存储介质
CN111145576B (zh) 寻车方法及相关设备
CN110717352B (zh) 一种站台客流量的统计方法、服务器及图像采集设备
US11580751B2 (en) Imaging device, video retrieving method, video retrieving program, and information collecting device
JP2019144920A (ja) 処理装置、処理方法及びプログラム
JP2015125724A (ja) 運転補助装置、運転特性管理サーバおよび運転補助システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220413

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220613

R151 Written notification of patent or utility model registration

Ref document number: 7099368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151