JP2022095350A - Remote support device, remote support method, and remote support program - Google Patents
Remote support device, remote support method, and remote support program Download PDFInfo
- Publication number
- JP2022095350A JP2022095350A JP2020208624A JP2020208624A JP2022095350A JP 2022095350 A JP2022095350 A JP 2022095350A JP 2020208624 A JP2020208624 A JP 2020208624A JP 2020208624 A JP2020208624 A JP 2020208624A JP 2022095350 A JP2022095350 A JP 2022095350A
- Authority
- JP
- Japan
- Prior art keywords
- scene
- operator
- determination
- period
- response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000004044 response Effects 0.000 claims abstract description 129
- 238000004364 calculation method Methods 0.000 claims description 20
- 230000007423 decrease Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 21
- 230000015654 memory Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 10
- 238000001556 precipitation Methods 0.000 description 7
- 238000010276 construction Methods 0.000 description 6
- 230000000052 comparative effect Effects 0.000 description 3
- 238000005401 electroluminescence Methods 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000029305 taxis Effects 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、遠隔支援装置、遠隔支援方法、及び遠隔支援プログラムに関する。 The present disclosure relates to remote support devices, remote support methods, and remote support programs.
自動運転支援センタから自動運転車両を遠隔支援する技術がある。例えば、走行中の自動運転車両が何らかの障害で停車した場合、自動運転支援センタに対して支援要求を行う。自動運転支援センタのオペレータは、支援要求に応じて、路上駐車、工事等のシーンを判定し、その判定シーンに基づく応答を自動運転車両に対して行う。その後、支援要求のあった地点を走行する自動運転車両に対して、支援要求に応じて、オペレータの応答に基づく自動応答が行われる。 There is a technology to remotely support autonomous vehicles from the autonomous driving support center. For example, when a running autonomous vehicle stops due to some kind of obstacle, a support request is made to the autonomous driving support center. The operator of the autonomous driving support center determines a scene such as parking on the road or construction in response to a support request, and makes a response to the autonomous driving vehicle based on the determination scene. After that, an automatic response based on the operator's response is performed in response to the support request to the autonomous driving vehicle traveling at the point where the support request is made.
例えば、特許文献1には、自動運転車両を遠隔制御する管制装置が記載されている。管制装置は、遠隔制御が実施された場合に、遠隔制御の対象となった自動運転車両である対象車から取得した位置情報と、対象車のセンサ類によって収集されたセンシングデータとを含む地点データを登録する登録部を備える。また、管制装置は、遠隔制御を実行する場合、登録部によって登録された地点データのうち、対象車から取得した現在の地点データと類似する地点データが利用可能なときは、類似する地点データを利用して遠隔制御による走行を指示する第1の遠隔制御を選択し、類似する地点データが利用可能でないときは、オペレータによってインターフェースに入力される指令を受け付け、指令に基づき遠隔制御による走行を指示する第2の遠隔制御を選択する選択部を備える。 For example, Patent Document 1 describes a control device for remotely controlling an autonomous driving vehicle. The control device is point data including position information acquired from the target vehicle, which is the autonomous driving vehicle subject to remote control, and sensing data collected by the sensors of the target vehicle when remote control is performed. It has a registration unit to register. In addition, when the control device executes remote control, if point data similar to the current point data acquired from the target vehicle is available among the point data registered by the registration unit, the control device uses similar point data. Select the first remote control to instruct driving by remote control using it, and when similar point data is not available, accept the command input to the interface by the operator and instruct the driving by remote control based on the command. A selection unit for selecting a second remote control to be performed is provided.
上記特許文献1に記載の技術では、地点データが類似する場合には同一の自動応答が行われる。しかしながら、自動応答をいつまで継続させるか有効期間が定められていない場合がある。この場合、実際には別の障害が発生しているにも関わらず、以前と同じ自動応答が行われ、自動運転車両が誤った挙動をとってしまう可能性がある。このため、自動応答の精度を向上させることが望まれる。 In the technique described in Patent Document 1, when the point data are similar, the same automatic response is performed. However, there are cases where the validity period is not specified as to how long the automatic response should be continued. In this case, the same automatic response as before may occur and the autonomous vehicle may behave incorrectly, even though another failure has actually occurred. Therefore, it is desired to improve the accuracy of the automatic response.
本開示は、自動運転車両に対する遠隔支援を行う際の自動応答の精度を向上させることができる遠隔支援装置、遠隔支援方法、及び遠隔支援プログラムを提供することを目的とする。 It is an object of the present disclosure to provide a remote support device, a remote support method, and a remote support program that can improve the accuracy of automatic response when performing remote support for an autonomous driving vehicle.
上記目的を達成するために、本開示の第1態様に係る遠隔支援装置(20)は、自動運転支援センタによる管理対象領域内の自動運転車両に対して遠隔支援を行う遠隔支援装置であって、前記自動運転車両から、前記自動運転車両の位置情報を含む支援要求情報を取得する取得部(21A)と、前記取得部により取得された支援要求情報に応じて、オペレータが過去に応答した判定シーンのログであるオペレータ判定ログを含むデータベース(25B)から、前記位置情報により示される地点を含む特定の領域において前記オペレータによって直近に応答された判定シーンを取得し、取得した判定シーンに基づいて、前記自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類する分類部(21B)と、前記分類部により前記自動運転車両のシーンが前記追い越しすべきシーンに分類された場合に、前記オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す有効期間を、前記待機すべきシーンに分類された場合よりも短く設定する設定部(21B)と、を備えている。 In order to achieve the above object, the remote support device (20) according to the first aspect of the present disclosure is a remote support device that provides remote support to an autonomous driving vehicle in a controlled area by an autonomous driving support center. , The acquisition unit (21A) that acquires the support request information including the position information of the autonomous driving vehicle from the autonomous driving vehicle, and the determination that the operator has responded in the past according to the support request information acquired by the acquisition unit. From the database (25B) including the operator judgment log which is a log of the scene, the judgment scene most recently responded by the operator in a specific area including the point indicated by the position information is acquired, and based on the acquired judgment scene. , The classification unit (21B) that classifies the scene of the autonomous driving vehicle into either a scene to be overtaken or a scene to be on standby, and the classification unit classifies the scene of the autonomous driving vehicle into the scene to be overtaken. In this case, the setting unit (21B) sets the valid period indicating the period for outputting the automatic response based on the operator's latest response as a valid response shorter than that when classified into the scene to be waited. It is equipped with.
本開示の第2態様に係る遠隔支援方法は、自動運転支援センタによる管理対象領域内の自動運転車両に対して遠隔支援を行う遠隔支援装置による遠隔支援方法であって、前記自動運転車両から、前記自動運転車両の位置情報を含む支援要求情報を取得し、前記取得された支援要求情報に応じて、オペレータが過去に応答した判定シーンのログであるオペレータ判定ログを含むデータベースから、前記位置情報により示される地点を含む特定の領域において前記オペレータによって直近に応答された判定シーンを取得し、取得した判定シーンに基づいて、前記自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類し、前記自動運転車両のシーンが前記追い越しすべきシーンに分類された場合に、前記オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す有効期間を、前記待機すべきシーンに分類された場合よりも短く設定する。 The remote support method according to the second aspect of the present disclosure is a remote support method using a remote support device that provides remote support to an automatically driving vehicle in a controlled area by the automatic driving support center, from the automatic driving vehicle. The position information is acquired from a database including an operator determination log, which is a log of a determination scene in which the operator has responded in the past in response to the acquired support request information by acquiring support request information including the position information of the autonomous driving vehicle. The judgment scene most recently responded by the operator in the specific area including the point indicated by the operator is acquired, and based on the acquired determination scene, the scene of the autonomous driving vehicle is overtaken and the scene to be waited. When the scene of the self-driving vehicle is classified into any of the scenes to be overtaken, the valid period representing the period for outputting the automatic response based on the operator's latest response as a valid response is defined as the above. Set it shorter than when it is classified as a scene to wait.
本開示の第3態様に係る遠隔支援プログラム(25A)は、自動運転支援センタによる管理対象領域内の自動運転車両に対して遠隔支援を行う遠隔支援装置の遠隔支援プログラムであって、コンピュータを、前記自動運転車両から、前記自動運転車両の位置情報を含む支援要求情報を取得する取得部(21A)、前記取得部により取得された支援要求情報に応じて、オペレータが過去に応答した判定シーンのログであるオペレータ判定ログを含むデータベース(25B)から、前記位置情報により示される地点を含む特定の領域において前記オペレータによって直近に応答された判定シーンを取得し、取得した判定シーンに基づいて、前記自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類する分類部(21B)、及び、前記分類部により前記自動運転車両のシーンが前記追い越しすべきシーンに分類された場合に、前記オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す有効期間を、前記待機すべきシーンに分類された場合よりも短く設定する設定部(21B)、として機能させる。 The remote support program (25A) according to the third aspect of the present disclosure is a remote support program of a remote support device that provides remote support to an automatically driven vehicle in a managed area by an automatic driving support center, and is a remote support program for a computer. The acquisition unit (21A) that acquires the support request information including the position information of the automatic driving vehicle from the automatic driving vehicle, and the determination scene in which the operator has responded in the past in response to the support request information acquired by the acquisition unit. From the database (25B) including the operator judgment log which is a log, the judgment scene most recently responded by the operator in a specific area including the point indicated by the position information is acquired, and based on the acquired judgment scene, the said The classification unit (21B) that classifies the scene of the autonomous vehicle into either a scene to be overtaken or a scene to be on standby, and the classification unit classifies the scene of the autonomous vehicle into the scene to be overtaken. In this case, it functions as a setting unit (21B) that sets a valid period indicating a period for outputting an automatic response based on the operator's latest response as a valid response shorter than that when classified into the scene to be waited for. Let me.
開示の技術によれば、自動運転車両に対する遠隔支援を行う際の自動応答の精度を向上させることができる、という効果を有する。 According to the disclosed technique, there is an effect that the accuracy of the automatic response when performing remote support for the autonomous driving vehicle can be improved.
以下、図面を参照して、本開示の技術を実施するための形態の一例について詳細に説明する。 Hereinafter, an example of a mode for carrying out the technique of the present disclosure will be described in detail with reference to the drawings.
[第1の実施形態]
図1は、第1の実施形態に係る遠隔支援システム100の構成の一例を示す図である。
[First Embodiment]
FIG. 1 is a diagram showing an example of the configuration of the
図1に示すように、本実施形態に係る遠隔支援システム100は、自動運転車両に搭載された車載装置10と、自動運転支援センタに設けられた遠隔支援装置20と、を備えている。遠隔支援装置20は、自動運転支援センタによる管理対象領域内の自動運転車両に対して遠隔支援を行う。なお、本実施形態では、自動運転車両として自家用の乗用車を例示して説明するが、例えば、トラック、バス、タクシー等の他の車両に適用してもよい。また、自動運転車両は、車両の制御や非常時に車両の制御を代替するために乗車する有人の場合も含む。さらに、車両の操舵の一部が自動で行われる車両も含む。
As shown in FIG. 1, the
車載装置10及び遠隔支援装置20は、ネットワークNを介して通信可能に接続されている。ネットワークNには、一例として、インターネット、WAN(Wide Area Network)等が適用される。
The in-
自動運転車両は、所定の条件下において運転者の操作によらず自動走行が可能な車両である。自動運転車両は、走行中に路上駐車、渋滞、工事等の何らかの事象が発生すると、追い越し又は待機という動作を行うが、これらの動作は、一例として、自動運転支援センタからの応答に基づいて行われる。 An autonomous driving vehicle is a vehicle capable of autonomous driving under predetermined conditions regardless of the driver's operation. When any event such as parking on the road, traffic jam, construction, etc. occurs while driving, the autonomous driving vehicle performs an operation of overtaking or waiting, and these operations are performed based on the response from the autonomous driving support center as an example. Will be.
車載装置10は、住所又は緯度経度等の目的地の情報に基づいて、目的地までの走行ルートを含む走行計画を生成する機能、及び、自車両の自動運転を制御する機能を備えている。車載装置10は、CPU(Central Processing Unit)11と、メモリ12と、表示部13と、記憶部14と、センサ群15と、カメラ16と、通信部17と、を備えている。
The in-
CPU11は、プロセッサの一例である。ここでいうプロセッサとは、広義的なプロセッサを指し、汎用的なプロセッサ(例えば、CPU)や、専用のプロセッサ(例えば、GPU: Graphics Processing Unit、ASIC: Application Specific Integrated Circuit、FPGA: Field Programmable Gate Array、プログラマブル論理デバイス、等)を含むものである。メモリ12は、ROM(Read Only Memory)、RAM(Random Access Memory)等により構成されている。
The CPU 11 is an example of a processor. The term "processor" as used herein refers to a processor in a broad sense, and is a general-purpose processor (for example, CPU) or a dedicated processor (for example, GPU: Graphics Processing Unit, ASIC: Application Specific Integrated Circuit, FPGA: Field Programmable Gate Array). , Programmable logic devices, etc.). The
表示部13には、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等が用いられる。表示部13は、タッチパネルを一体的に有していてもよい。
For the
記憶部14には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、フラッシュメモリ等が用いられる。記憶部14には、自動運転の制御を行うための制御プログラム(図示省略)が記憶されている。
For the
センサ群15は、自車両の周囲の状況を把握するための各種のセンサにより構成されている。センサ群15は、車両外部の所定範囲に探査波を送信するミリ波レーダと、少なくとも車両前方の所定範囲をスキャンするLIDAR(Light Detection and Ranging/Laser Imaging Detection and Ranging)と、を含んでいる。また、センサ群15には、自車両に搭載されるGNSS(Global Navigation Satellite System)受信機が含まれていてもよい。このGNSS受信機により、自車両の現在位置及び現在時刻等の情報が取得される。
The
カメラ16は、自車両の所定方向の所定範囲を撮影する。具体的に、カメラ16は、自車両の前側に設けられており、自車両の前方領域を撮影する。カメラ16は、1台でもよいが、より多くの情報を得るために複数個所に複数台設けられていてもよい。
The
通信部17は、インターネット、WAN等のネットワークNに接続し、遠隔支援装置20と通信を行うための通信インターフェースである。
The
なお、車載装置10は、自動運転に必要な走行装置(図示省略)と接続されており、この走行装置を制御することで自動運転を行う。この走行装置には、一例として、電動パワーステアリング、電子制御ブレーキ、電子制御スロットル等が含まれる。
The in-
車載装置10は、自車両の走行計画に従って自動運転するように自車両の駆動、操舵、及び制動を制御することで自動運転を行う。なお、自動運転の方法自体には、様々な公知の方法が存在し、本実施形態では特に限定されるものではない。
The in-
一方、遠隔支援装置20は、自動運転車両の車載装置10と定期的に通信することにより自動運転車両の車両状態を監視する。遠隔支援装置20には、一例として、サーバコンピュータ、パーソナルコンピュータ(PC:Personal Computer)等の汎用的なコンピュータ装置が適用される。遠隔支援装置20は、CPU21と、メモリ22と、操作部23と、表示部24と、記憶部25と、通信部26と、を備えている。
On the other hand, the
CPU21は、プロセッサの一例である。ここでいうプロセッサとは、上述したように、広義的なプロセッサを指し、汎用的なプロセッサや、専用のプロセッサを含むものである。メモリ22は、ROM、RAM等により構成されている。
The
操作部23は、遠隔支援装置20への操作入力を受け付けるためのインターフェースとして構成されている。表示部24には、例えば、液晶ディスプレイ(LCD)、有機ELディスプレイ等が用いられる。表示部24は、タッチパネルを一体的に有していてもよい。
The
記憶部25には、例えば、HDD、SSD、フラッシュメモリ等が用いられる。記憶部25には、自動運転車両の遠隔支援を行うための遠隔支援プログラム25Aが記憶されている。遠隔支援プログラム25Aは、例えば、遠隔支援装置20に予めインストールされていてもよい。遠隔支援プログラム25Aは、不揮発性の非遷移的(non-transitory)記録媒体に記憶して、又はネットワークNを介して配布して、遠隔支援装置20に適宜インストールすることで実現してもよい。なお、不揮発性の非遷移的記録媒体の例としては、CD-ROM(Compact Disc Read Only Memory)、光磁気ディスク、HDD、DVD-ROM(Digital Versatile Disc Read Only Memory)、フラッシュメモリ、メモリカード等が想定される。
For the
通信部26は、インターネット、WAN等のネットワークNに接続し、車載装置10と通信を行うための通信インターフェースである。
The
図2は、本実施形態に係るオペレータによる遠隔支援の説明に供する図である。 FIG. 2 is a diagram for explaining remote support by an operator according to the present embodiment.
図2に示すように、走行中の自動運転車両30が停車した場合、自動運転支援センタに対して支援要求を行う。自動運転支援センタのオペレータOPは、自動運転車両30からの支援要求に応じて、路上駐車、工事等のシーンを判定し、その判定シーンに基づく応答を自動運転車両30に対して行う。このとき、オペレータOPは、応答した判定シーンを地図上の地点データに対応付けて登録する。その後、判定シーンが登録された地点を走行する自動運転車両に対して、支援要求に応じて、同一の判定シーンに基づく自動応答を行う。
As shown in FIG. 2, when the running
ところで、上述したように、自動応答をいつまで継続させるか有効期間が定められていない場合がある。この場合、実際には別の障害が発生しているにも関わらず、以前と同じ自動応答が行われ、自動運転車両30が誤った挙動をとってしまう可能性がある。このため、自動応答の精度を向上させることが望まれる。
By the way, as described above, there are cases where the validity period is not defined as to how long the automatic response should be continued. In this case, even though another failure has actually occurred, the same automatic response as before is performed, and the
このため、本実施形態に係る車載装置10のCPU11は、記憶部14に記憶されている制御プログラムをRAMに書き込んで実行することにより、図3に示す各部として機能する。また、本実施形態に係る遠隔支援装置20のCPU21は、記憶部25に記憶されている遠隔支援プログラム25AをRAMに書き込んで実行することにより、図3に示す各部として機能する。
Therefore, the CPU 11 of the in-
図3は、第1の実施形態に係る車載装置10及び遠隔支援装置20の機能的な構成の一例を示すブロック図である。
FIG. 3 is a block diagram showing an example of the functional configuration of the in-
図3に示すように、本実施形態に係る車載装置10のCPU11は、要求出力部11A及び判定取得部11Bとして機能する。
As shown in FIG. 3, the CPU 11 of the vehicle-mounted
要求出力部11Aは、自車両が走行の継続ができないと判定したときの時刻情報、位置情報、センシング情報等を含む支援要求情報を、通信部17を介して自動運転支援センタの遠隔支援装置20に出力(送信)する。
The
判定取得部11Bは、遠隔支援装置20から出力されたオペレータ応答又は自動応答を、通信部17を介して取得(受信)し、取得したオペレータ応答又は自動応答に含まれる判定シーンを自車両の車両制御を行う制御装置(図示省略)に送る。
The
一方、本実施形態に係る遠隔支援装置20のCPU21は、要求取得部21A、自動判定部21B、判定出力部21C、オペレータ提示部21D、継続時間算出部21E、及びオペレータ判定登録部21Fとして機能する。なお、要求取得部21Aは、取得部の一例であり、自動判定部21Bは、分類部、設定部、及び指示部の一例であり、継続時間算出部21Eは、算出部の一例である。
On the other hand, the
記憶部25には、例えば、オペレータ判定ログデータベース(以下、「オペレータ判定ログDB」という。)25B及び継続時間分布データベース(以下、「継続時間分布DB」という。)25Cが格納されている。なお、オペレータ判定ログDB25B及び継続時間分布DB25Cは、記憶部25ではなく、外部の記憶装置に格納されていてもよい。
In the
オペレータ判定ログDB25Bには、オペレータ判定ログが登録されている。このオペレータ判定ログは、オペレータが過去に応答した判定シーンのログである。この判定シーンとは、自動運転車両からの支援要求情報に応じて、オペレータが自動運転車両の現在のシーンを、例えば、「路上駐車」、「工事」、「渋滞」等と判定した結果を表している。各オペレータ判定ログには、例えば、各ログに一意のID(Identification)、判定時刻、支援要求位置(又は支援要求エリア)、支援内容(判定シーン、制御内容等を含む)、センシング情報(周辺画像、点群、認識結果等を含む)、同一判定の有無(有りの場合には同一のオペレータ判定ログのIDを含む)、等の情報が含まれる。また、継続時間分布DB25Cには、継続時間分布が登録されている。この継続時間分布には、例えば、継続時間を管理する単位であるシーンに関するシーン情報、継続時間分布(例えば、ヒストグラム)、等の情報が含まれる。この継続時間分布の算出方法については後述する。
The operator determination log is registered in the operator
要求取得部21Aは、自動運転車両から出力された支援要求情報を、通信部26を介して取得(受信)し、取得した支援要求情報を自動判定部21Bに送る。
The
自動判定部21Bは、要求取得部21Aにより取得された支援要求情報に応じて、オペレータ判定ログDB25Bから、自動運転車両の位置情報により示される地点を含む特定の領域においてオペレータによって直近に応答された判定シーンを取得する。ここで、特定の領域とは、例えば、支援要求地点を中心とした直径Xmの円形状の領域と定義される。
The
自動判定部21Bは、取得した判定シーンに基づいて、自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類する。
Based on the acquired determination scene, the
図4は、本実施形態に係るシーン分類テーブル25Dの一例を示す図である。 FIG. 4 is a diagram showing an example of the scene classification table 25D according to the present embodiment.
図4に示すシーン分類テーブル25Dは、例えば、記憶部25に格納されており、自動判定部21Bによって参照可能とされている。判定シーンが、例えば、「路上駐車」、「工事」、「事故」等であれば、自動運転車両のシーンは追い越しすべきシーンに分類され、判定シーンが、例えば、「歩行者」、「信号待ち」、「渋滞」、「バス待ち」等であれば、自動運転車両のシーンは待機すべきシーンに分類される。
The scene classification table 25D shown in FIG. 4 is stored in the
但し、追い越しすべきシーンの場合、実際には待機すべきシーンであるのに、追い越しすべきシーンに分類されてしまうと、不要な追い越しが発生するという誤判定の問題がある。一方、待機すべきシーンの場合、実際には追い越しすべきシーンであるのに、待機すべきシーンに分類されてしまうと、待機が発生するという誤判定の問題がある。 However, in the case of a scene to be overtaken, there is a problem of erroneous determination that an unnecessary overtaking occurs if the scene is actually classified as a scene to be overtaken even though it is a scene to be waited for. On the other hand, in the case of a scene that should be waited, there is a problem of erroneous determination that waiting occurs if the scene is actually classified as a scene that should be waited even though it is a scene that should be overtaken.
自動判定部21Bは、自動運転車両のシーンが追い越しすべきシーンに分類された場合に、有効期間を、待機すべきシーンに分類された場合よりも短く設定する。なお、有効期間とは、オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す。有効期間は、直近のオペレータ応答を起点として導出される。
The
図5は、第1の実施形態に係る有効期間設定処理の説明に供する図である。 FIG. 5 is a diagram for explaining the validity period setting process according to the first embodiment.
図5に示すように、グラフ40において、横軸は継続時間を示し、縦軸は頻度及び存在確率を示す。グラフ40では、一例として、「路上駐車」のシーンの場合について示している。存在確率41は、「路上駐車」のシーンが継続して存在している確率を示し、時間の経過と共に確率が低下する。頻度42は、「路上駐車」のシーンが継続時間帯毎に発生する頻度を示している。例えば、5分以上10分以下の駐車が10回発生等とされる。継続時間分布43は、オペレータ判定ログDB25Bに含まれるオペレータ判定ログから、例えば、判定シーン毎に算出される。継続時間分布43は、判定シーンの発生頻度と判定シーンの継続時間との関係を表す。継続時間分布43は、後述の継続時間算出部21Eによって算出される。
As shown in FIG. 5, in the
自動判定部21Bは、一例として、図5のグラフ40に示すように、待機すべきシーンに分類された場合の有効期間を継続時間分布43の平均値μとした場合に、追い越しすべきシーンに分類された場合の有効期間tを平均値μよりも短く、つまり、存在確率41が比較的高くなるように設定する。有効期間tは、例えば、下記の式(1)により算出される。但し、μは継続時間分布43の平均値、σは継続時間分布43の標準偏差を示す。
As an example, as shown in the
t=μ-3σ ・・・(1) t = μ-3σ ・ ・ ・ (1)
図5の(S1)では、自動運転車両30が走行中に何らかの障害に遭遇したため一旦停止し、自動運転支援センタに支援要求を行う。自動運転支援センタのオペレータ(OP)は、自動運転車両30が遭遇したシーンを「路上駐車」と判定し、その判定結果である判定シーンを応答する。自動運転車両30は、オペレータ応答に従って、追い越しシーンと判定し、「路上駐車」の車両を追い越す動作を行う。
In (S1) of FIG. 5, since the
次に、(S2)では、上記(S1)と同様に、自動運転車両30が何らかの障害に遭遇したため一旦停止し、自動運転支援センタに支援要求を行う。自動運転支援センタの遠隔支援装置20は、直近のオペレータ応答に基づく自動応答として、「路上駐車」を自動的に応答する。自動運転車両30は、自動応答に従って、追い越しシーンと判定し、「路上駐車」の車両を追い越す動作を行う。
Next, in (S2), similarly to the above (S1), the
次に、(S3)では、上記(S2)と同様に、自動運転車両30が何らかの障害に遭遇したため一旦停止し、自動運転支援センタに支援要求を行う。自動運転支援センタの遠隔支援装置20は、直近のオペレータ応答に基づく自動応答として、「路上駐車」を自動的に応答する。自動運転車両30は、自動応答に従って、追い越しシーンと判定し、追い越し動作を行う。しかし、この時点では、「路上駐車」の車両は存在しておらず、例えば、「歩行者」、「信号待ち」等の待機すべきシーンに変化している可能性がある。つまり、実際には待機すべきシーンであるのに、追い越し動作を行うのは安全性の観点から望ましくないと言える。
Next, in (S3), similarly to the above (S2), the
このため、本実施形態では、上述したように、追い越しすべきシーンの有効期間tを、待機すべきシーンの有効期間(例えば、平均値μ)よりも短く設定している。つまり、待機すべきシーンでは、待機するだけなので、有効期間内に追い越しすべきシーンに変化した場合であっても安全性の観点からは問題ないと言える。一方、追い越しすべきシーンでは、有効期間内に待機すべきシーンに変化した場合、上述したように、安全性の観点から望ましくない場合がある。このため、追い越しすべきシーンの有効期間tを短く設定する。 Therefore, in the present embodiment, as described above, the valid period t of the scene to be overtaken is set shorter than the valid period t of the scene to be waited (for example, the average value μ). In other words, since the scene that should be on standby only waits, it can be said that there is no problem from the viewpoint of safety even if the scene changes to the scene that should be overtaken within the valid period. On the other hand, in the scene to be overtaken, if the scene changes to a scene to wait within the valid period, as described above, it may not be desirable from the viewpoint of safety. Therefore, the valid period t of the scene to be overtaken is set short.
また、自動判定部21Bは、直近のオペレータ応答から支援要求情報を取得するまでの期間が有効期間以内である場合、判定出力部21Cに対して、自動応答を自動運転車両に出力する指示を行う。一方、自動判定部21Bは、直近のオペレータ応答から支援要求情報を取得するまでの期間が有効期間を超える場合、自動応答を中止し、オペレータ提示部21Dに支援要求情報を送り、オペレータに今回の判定シーンを登録させる指示を行う。
Further, when the period from the latest operator response to the acquisition of the support request information is within the valid period, the
オペレータ提示部21Dは、オペレータに対して、支援要求情報に含まれる前方画像、地図情報、センシング情報等を提示し、オペレータから今回の判定シーンの登録を受け付ける。オペレータ提示部21Dは、判定出力部21Cに対して、オペレータ応答を自動運転車両に出力する指示を行う。
The
判定出力部21Cは、自動判定部21Bからの自動応答の出力指示に従って、自動応答を判定結果として出力(送信)する、あるいは、オペレータ提示部21Dからのオペレータ応答の出力指示に従って、オペレータ応答を判定結果として出力する。
The
ここで、継続時間算出部21Eは、上述したように、オペレータ判定ログDB25Bに含まれるオペレータ判定ログを用いて、判定シーン毎に、継続時間分布を算出し、算出した継続時間分布を継続時間分布DB25Cに登録する。自動判定部21Bは、継続時間分布DB25Cに登録された継続時間分布に基づいて、自動運転車両のシーンに応じた有効期間を設定する。
Here, as described above, the
図6は、本実施形態に係る判定シーン毎の継続時間分布の一例を示す図である。 FIG. 6 is a diagram showing an example of the duration distribution for each determination scene according to the present embodiment.
図6に示すように、「路上駐車」、「障害物」等の判定シーン毎に異なる継続時間分布を算出してもよい。この場合、判定シーン毎に異なる継続時間分布を把握することができる。このため、有効期間の精度をより向上させることができる。 As shown in FIG. 6, a different duration distribution may be calculated for each determination scene such as “parking on the street” or “obstacle”. In this case, it is possible to grasp a different duration distribution for each determination scene. Therefore, the accuracy of the validity period can be further improved.
図7は、本実施形態に係る継続時間長の算出方法の説明に供する図である。 FIG. 7 is a diagram for explaining a method of calculating the duration length according to the present embodiment.
継続時間算出部21Eは、一例として、図7に示すように、オペレータ判定ログDB25Bから取得したオペレータ判定ログから、同一シーンの判定を継続的に行ったときの継続時間長を算出する。つまり、最初(一度目)にオペレータ判定を行ったときの時刻と、最後(ここでは三度目)に同一のオペレータ判定を行ったときの時刻との差を継続時間長(同一判定継続時間)として算出する。
As an example, the continuation
図8は、本実施形態に係る継続時間長の別の算出方法の説明に供する図である。 FIG. 8 is a diagram for explaining another calculation method of the duration length according to the present embodiment.
図8において、×は走行ログを示す。継続時間算出部21Eは、図8に示すように、自動運転車両の走行ログを用いて継続時間長を算出してもよい。つまり、オペレータ判定ログから算出される継続時間長(同一判定継続時間)を基準として、前後数十秒(例えば20秒)を所定期間として予め定め、その所定期間における走行ログ、インフラとして設置されたカメラのログ等を取得する。そして、これらのログから得られるセンシング情報が類似する期間によって、基準とした継続時間長を補正する。これにより、継続時間長をより正確に把握することができる。
In FIG. 8, x indicates a travel log. As shown in FIG. 8, the
また、オペレータ判定登録部21Fは、直近のオペレータ判定ログと、今回のオペレータ判定結果とが同一の判定シーンであるか否かを判定し、今回のオペレータ判定結果を、同一判定の有無と合わせて、オペレータ判定ログDB25Bに登録する。
Further, the operator
図9は、本実施形態に係る同一判定の方法の説明に供する図である。 FIG. 9 is a diagram for explaining the method of the same determination according to the present embodiment.
オペレータ判定登録部21Fは、オペレータ判定ログDB25Bから、今回のオペレータ判定結果と同一領域で直近に行われたオペレータ判定のログであるオペレータ判定ログを取得する。そして、オペレータ判定登録部21Fは、一例として、図9に示すように、今回のオペレータ判定結果と、同一領域で直近のオペレータ判定ログとが同一の判定シーンであるか否かを判定する。両方の判定シーンが例えば「路上駐車」であれば、同一と判定する。同一か否かの判定は、オペレータに対して各々の自動運転車両から得られる前方画像等を提示してオペレータの判断を促してもよい。あるいは、各々の自動運転車両から得られるセンシング情報の特徴量が類似するか否かを公知の手法を用いて機械的に判断するようにしてもよい。
The operator
本実施形態に係る遠隔支援装置20は、上述の図3に示すように、過去のオペレータによる判定シーンの継続時間を事前に算出し、算出した継続時間分布を継続時間分布DB25Cに登録する。そして、有効期間の設定時に、継続時間分布DB25Cから継続時間分布を読み出して、読み出した継続時間分布に基づいて有効期間を設定する。
As shown in FIG. 3 above, the
次に、図10を参照して、第1の実施形態に係る遠隔支援装置20の作用を説明する。
Next, with reference to FIG. 10, the operation of the
図10は、第1の実施形態に係る遠隔支援プログラム25Aによる処理の流れの一例を示すフローチャートである。
FIG. 10 is a flowchart showing an example of the processing flow by the
まず、遠隔支援装置20の電源がオンされると、遠隔支援プログラム25Aが起動され、以下の各ステップを実行する。
First, when the power of the
図10のステップS101では、CPU21が、自動運転車両の車載装置10から、支援要求情報を取得したか否かを判定する。車載装置10から支援要求情報を取得したと判定した場合(肯定判定の場合)、ステップS102に移行し、車載装置10から支援要求情報を取得していないと判定した場合(否定判定の場合)、ステップS101で待機となる。このとき、取得した支援要求情報に含まれる位置情報に基づいて、自動運転車両の地点及び当該地点を含む領域(例えば、当該地点を中心として直径Xmの円形状の領域)を特定する。
In step S101 of FIG. 10, it is determined whether or not the
ステップS102では、CPU21が、オペレータ判定ログDB25Bから、ステップS101で特定した領域と同一の領域における直近のオペレータ判定ログを取得する。このオペレータ判定ログには、オペレータの直近の判定シーンが含まれている。
In step S102, the
ステップS103では、CPU21が、ステップS102で取得した直近のオペレータ判定ログに含まれる判定シーンに基づいて、一例として、上述の図4に示すシーン分類テーブル25Dを参照し、自動運転車両のシーンを分類する。
In step S103, the
ステップS104では、CPU21が、ステップS103での分類の結果、自動運転車両のシーンが追い越しすべきシーン及び待機すべきシーンのいずれに分類されたかを判定する。追い越しすべきシーンに分類されたと判定した場合(追い越しすべきシーンの場合)、ステップS105に移行し、待機すべきシーンに分類されたと判定した場合(待機すべきシーンの場合)、ステップS106に移行する。
In step S104, the
ステップS105では、CPU21が、追い越しすべきシーンの有効期間tを、待機すべきシーンの有効期間(例えば、平均値μ)よりも短く設定する。追い越しすべきシーンの有効期間tは、例えば、上述の式(1)を用いて算出される。
In step S105, the
ステップS106では、CPU21が、待機すべきシーンの有効期間として、一例として、上述の図5に示すように、継続時間分布の平均値μを設定する。
In step S106, the
ステップS107では、CPU21が、直近のオペレータ応答から支援要求情報を取得するまでの期間が有効期間(ここでは、有効期間t又は平均値μ)以内であるか否かを判定する。有効期間以内であると判定した場合(肯定判定の場合)、ステップS108に移行し、有効期間を超えると判定した場合(否定判定の場合)、ステップS109に移行する。
In step S107, the
ステップS108では、CPU21が、自動応答を出力するように指示する。
In step S108, the
ステップS109では、CPU21が、自動応答を中止し、オペレータに今回の判定シーンを登録するように指示する。
In step S109, the
ステップS110では、CPU21が、ステップS108での指示に基づく自動応答、又は、ステップS109での指示に基づくオペレータ応答を自動運転車両に出力する。
In step S110, the
ステップS111では、CPU21が、例えば、遠隔支援の終了指示等、終了タイミングが到来したか否かを判定する。終了タイミングが到来しないと判定した場合(否定判定の場合)、ステップS101に戻り処理を繰り返し、終了タイミングが到来したと判定した場合(肯定判定の場合)、本遠隔支援プログラム25Aによる一連の処理を終了する。
In step S111, the
このように本実施形態によれば、追い越しすべきシーンの有効期間が待機すべきシーンの有効期間よりも短く設定される。このため、自動運転車両に対する遠隔支援を行う際の自動応答の精度が向上する。 As described above, according to the present embodiment, the valid period of the scene to be overtaken is set shorter than the valid period of the scene to be waited for. Therefore, the accuracy of the automatic response when performing remote support for the autonomous driving vehicle is improved.
[第2の実施形態]
上記第1の実施形態では、追い越しすべきシーンの有効期間を待機すべきシーンの有効期間よりも短く設定する形態について説明した。本実施形態では、不要な追い越しが望ましくないシーンの場合にだけ、追い越しすべきシーンの有効期間を待機すべきシーンの有効期間よりも短く設定する形態について説明する。
[Second Embodiment]
In the first embodiment, the embodiment in which the valid period of the scene to be overtaken is set shorter than the valid period of the scene to be waited for has been described. In the present embodiment, only in the case of a scene where unnecessary overtaking is not desirable, a mode in which the valid period of the scene to be overtaken is set shorter than the valid period of the scene to be waited for will be described.
本実施形態に係る遠隔支援装置は、上記第1の実施形態で説明した遠隔支援装置20と同様の構成要素を有しており、上述の図3を参照して、相違点のみを説明する。
The remote support device according to the present embodiment has the same components as the
まず、図11を参照して、追い越しすべきシーンの有効期間tを継続時間分布43の平均値μに設定した場合について説明する。
First, with reference to FIG. 11, a case where the effective period t of the scene to be overtaken is set to the average value μ of the
図11は、比較例に係る有効期間設定処理の説明に供する図である。 FIG. 11 is a diagram for explaining the validity period setting process according to the comparative example.
図11の比較例では、追い越しすべきシーンである「路上駐車」のシーンの有効期間tが継続時間分布43の平均値μに設定されている。また、「路上駐車」のシーンの実際の継続時間は有効期間tよりも短くなっている。
In the comparative example of FIG. 11, the effective period t of the “street parking” scene, which is a scene to be overtaken, is set to the average value μ of the
図11の(S11)では、自動運転車両30が走行中に何らかの障害に遭遇したため一旦停止し、自動運転支援センタに支援要求を行う。自動運転支援センタのオペレータ(OP)は、自動運転車両30が遭遇したシーンを「路上駐車」と判定し、その判定結果である判定シーンを応答する。自動運転車両30は、オペレータ応答に従って、追い越しシーンと判定し、「路上駐車」の車両を追い越す動作を行う。
In FIG. 11 (S11), since the
次に、(S12)では、上記(S11)と同様に、自動運転車両30が何らかの障害に遭遇したため一旦停止し、自動運転支援センタに支援要求を行う。自動運転支援センタの遠隔支援装置20は、直近のオペレータ応答に基づく自動応答として、「路上駐車」を自動的に応答する。自動運転車両30は、自動応答に従って、追い越しシーンと判定し、追い越し動作を行う。しかし、この時点では、「路上駐車」の車両は存在しておらず、待機すべきシーンである「渋滞」が発生しているため、自動応答の判定シーンは誤判定となる。期間T1は、誤判定となる期間を表している。
Next, in (S12), similarly to the above (S11), the
図11に示すように、誤判定Aは、片側2車線の場所で「渋滞」を「路上駐車」と誤判定した場合について示している。この場合、隣接車線にはみ出す不要な追い越しが発生するという問題がある。一方、誤判定Bは、片側1車線の場所で「渋滞」を「路上駐車」と誤判定した場合について示している。この場合、対向車線にはみ出す不要な追い越しが発生するという問題がある。 As shown in FIG. 11, the erroneous determination A shows a case where "traffic jam" is erroneously determined as "parking on the road" at a place of two lanes on each side. In this case, there is a problem that unnecessary overtaking occurs in the adjacent lane. On the other hand, the erroneous determination B shows a case where "traffic jam" is erroneously determined as "parking on the road" at a place of one lane on each side. In this case, there is a problem that unnecessary overtaking occurs in the oncoming lane.
このため、追い越しすべきシーンの有効期間tは、支援要求のあった特定の領域が、待機すべきシーンの発生頻度が予め設定された閾値以上の領域、又は、待機すべきシーンの発生頻度が追い越しすべきシーンの発生頻度よりも高い領域である場合、上記式(1)を適用して、待機すべきシーンの有効期間(例えば、平均値μ)よりも短く設定してもよい。なお、上記閾値は、例えば、予め実験的に求められた値であり、一例として、発生頻度を0以上1以下の範囲で表した場合に0.5等が設定される。同一領域における、あるシーンAの発生頻度fは、例えば、下記の式(2)により算出される。但し、Nは同一領域におけるシーンAの判定回数、Rは同一領域における自動運転車両の走行回数を示す。 Therefore, in the valid period t of the scene to be overtaken, the specific area for which the support request is made is the area where the occurrence frequency of the scene to be waited is equal to or higher than the preset threshold value, or the occurrence frequency of the scene to be waited is set. When the region is higher than the frequency of occurrence of the scenes to be overtaken, the above equation (1) may be applied and set shorter than the valid period (for example, the average value μ) of the scenes to be waited for. The threshold value is, for example, a value experimentally obtained in advance, and as an example, 0.5 or the like is set when the occurrence frequency is expressed in the range of 0 or more and 1 or less. The occurrence frequency f of a certain scene A in the same region is calculated by, for example, the following equation (2). However, N indicates the number of times the scene A is determined in the same area, and R indicates the number of times the autonomous driving vehicle has traveled in the same area.
f=N/R ・・・(2) f = N / R ・ ・ ・ (2)
なお、上記発生頻度fは、シーンの大分類(待機すべきシーン、追い越しすべきシーン)毎、あるいは、時間帯毎に算出してもよい。 The occurrence frequency f may be calculated for each major classification of scenes (scenes to be waited for, scenes to be overtaken), or for each time zone.
つまり、日常的に渋滞が発生し易い場所では、「路上駐車」等の追い越しすべきシーンの有効期間tを短くすることにより、自動応答による誤判定を抑制することが可能となる。 That is, in a place where traffic congestion is likely to occur on a daily basis, it is possible to suppress an erroneous determination due to an automatic response by shortening the effective period t of a scene to be overtaken such as "parking on the street".
図12は、第2の実施形態に係る自動応答不可期間T2の一例を示す図である。 FIG. 12 is a diagram showing an example of the automatic response non-response period T2 according to the second embodiment.
図12に示すように、「路上駐車」等の追い越しすべきシーンに対して、有効期間tを待機すべきシーンの有効期間(例えば、平均値μ)よりも短く設定した場合に、不要な追い越しを抑制することができる。しかし一方で、実際には追い越しすべきシーンの継続時間が有効期間tより長い場合には、自動応答ができない期間である自動応答不可期間T2が発生する。本実施形態においては、自動応答不可期間T2をできるだけ短くし、自動応答できる期間を長くすることを考える。 As shown in FIG. 12, when the valid period t is set shorter than the valid period (for example, the average value μ) of the scene to be waited for the scene to be overtaken such as “parking on the street”, unnecessary overtaking is performed. Can be suppressed. However, on the other hand, when the duration of the scene to be overtaken is actually longer than the valid period t, the automatic response non-response period T2, which is the period during which the automatic response cannot be performed, occurs. In the present embodiment, it is considered that the period during which the automatic response is not possible T2 is shortened as much as possible and the period during which the automatic response is possible is lengthened.
例えば、支援要求のあった特定の領域が「路上駐車」等の追い越しすべきシーンが発生し易い領域である場合、有効期間tを長めに設定しても安全上大きな問題にならないことが多い。 For example, when the specific area for which support is requested is an area where a scene to be overtaken such as "parking on the street" is likely to occur, setting a long validity period t does not often cause a big safety problem.
このため、本実施形態に係る自動判定部21Bは、支援要求のあった特定の領域が、追い越しすべきシーンの発生頻度が予め設定された閾値以上の領域、又は、追い越しすべきシーンの発生頻度が待機すべきシーンの発生頻度よりも高い領域である場合に、追い越しすべきシーンの有効期間tを、待機すべきシーンの有効期間(例えば、平均値μ)以上に設定する。なお、上記閾値は、例えば、予め実験的に求められた値である。つまり、追い越しすべきシーンが発生している領域の特徴によって、有効期間tを短く設定するか否かを決定することにより、自動応答可能な期間をある程度確保しつつ、自動応答による誤判定を抑制する。
Therefore, in the
図13は、第2の実施形態に係る有効期間設定処理の説明に供する図である。 FIG. 13 is a diagram for explaining the validity period setting process according to the second embodiment.
図13において、地図上の黒丸は「路上駐車」の判定が登録されている地点を示している。地点Aについて、過去に発生した各シーンの発生頻度を表すグラフから、「渋滞」の発生頻度が「路上駐車」の発生頻度よりも高いこと(あるいは、「渋滞」の発生頻度が予め設定された閾値以上であること)が分かる。この場合、「路上駐車」の有効期間tを比較的長くすると、有効期間t内で「渋滞」に変化する可能性が高く、自動応答が誤判定となる可能性が高い。このため、有効期間tを平均値μよりも短く設定する。一方、地点Bについて、過去に発生した各シーンの発生頻度を表すグラフから、「路上駐車」の発生頻度が「渋滞」の発生頻度よりも高いこと(あるいは、「路上駐車」の発生頻度が予め設定された閾値以上であること)が分かる。この場合、「路上駐車」の有効期間tを比較的長くしても、有効期間t内で「渋滞」に変化する可能性が低く、自動応答が誤判定となる可能性が低い。このため、有効期間tを平均値μに設定する。 In FIG. 13, the black circle on the map indicates the point where the determination of "parking on the street" is registered. From the graph showing the frequency of occurrence of each scene that occurred in the past for point A, the frequency of occurrence of "traffic jam" is higher than the frequency of occurrence of "parking on the street" (or the frequency of occurrence of "traffic jam" is preset. It is above the threshold). In this case, if the valid period t of "street parking" is relatively long, there is a high possibility that the "traffic jam" will change within the valid period t, and there is a high possibility that the automatic response will be an erroneous determination. Therefore, the effective period t is set shorter than the average value μ. On the other hand, at point B, from the graph showing the frequency of occurrence of each scene that occurred in the past, the frequency of occurrence of "street parking" is higher than the frequency of occurrence of "traffic jam" (or the frequency of occurrence of "street parking" is in advance. It is above the set threshold value). In this case, even if the valid period t of "street parking" is relatively long, it is unlikely that the vehicle will change to "traffic jam" within the valid period t, and it is unlikely that the automatic response will be erroneously determined. Therefore, the effective period t is set to the average value μ.
このように本実施形態によれば、追い越しすべきシーンが発生している領域の特徴によって、有効期間を短く設定するか否かが決定される。このため、自動応答可能な期間をある程度確保しつつ、自動応答による誤判定が抑制される。 As described above, according to the present embodiment, it is determined whether or not the validity period is set short depending on the characteristics of the region where the scene to be overtaken is generated. Therefore, while ensuring a certain period during which automatic response is possible, erroneous determination due to automatic response is suppressed.
[第3の実施形態]
上記第1の実施形態では、オペレータ判定ログから得られた、特定の領域における直近のオペレータの判定シーンに基づいて、自動運転車両のシーンを分類する形態について説明した。本実施形態では、判定シーンに加えて、更に、センシング情報の類似度を用いて、自動運転車両のシーンを分類する形態について説明する。
[Third Embodiment]
In the first embodiment, the mode of classifying the scenes of the autonomous driving vehicle based on the latest operator's judgment scene in a specific area obtained from the operator judgment log has been described. In the present embodiment, in addition to the determination scene, a mode for classifying the scene of the autonomous driving vehicle by using the similarity of the sensing information will be described.
本実施形態に係る遠隔支援装置は、上記第1の実施形態で説明した遠隔支援装置20と同様の構成要素を有しており、上述の図3を参照して、相違点のみを説明する。
The remote support device according to the present embodiment has the same components as the
オペレータ判定ログDB25Bに登録されたオペレータ判定ログは、オペレータの直近の応答を受け付けた直近の自動運転車両から得られたセンシング情報(以下、「第1センシング情報」という。)を含んでいる。また、支援要求情報は、今回の自動運転車両から得られたセンシング情報(以下、「第2センシング情報」という。)を含んでいる。
The operator determination log registered in the operator
自動判定部21Bは、第1センシング情報と、第2センシング情報との類似度に基づいて、自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類する。なお、類似度の算出には、公知の手法が用いられる。第1センシング情報及び第2センシング情報として、例えば、画像が用いられる場合には、一例として、パターンマッチング等が適用される。
The
自動判定部21Bは、オペレータによる直近の応答から支援要求情報を取得するまでの期間に対する有効期間の残り時間が一定時間(例えば、20秒)以上であり、かつ、類似度が第1閾値(例えば、0.6)以上である場合、自動応答を自動運転車両に出力する指示を行う。一方、自動判定部21Bは、オペレータによる直近の応答から支援要求情報を取得するまでの期間に対する有効期間の残り時間が一定時間(例えば、20秒)以上であり、かつ、類似度が第1閾値(例えば、0.6)未満である場合、自動応答を中止し、オペレータに今回の判定シーンを登録させる指示を行う。また、自動判定部21Bは、オペレータによる直近の応答から支援要求情報を取得するまでの期間に対する有効期間の残り時間が一定時間(例えば、20秒)未満であり、かつ、類似度が第1閾値よりも大きい第2閾値(例えば、0.9)以上である場合、自動応答を自動運転車両に出力する指示を行う。一方、自動判定部21Bは、オペレータによる直近の応答から支援要求情報を取得するまでの期間に対する有効期間の残り時間が一定時間(例えば、20秒)未満であり、かつ、類似度が第2閾値(例えば、0.9)未満である場合、自動応答を中止し、オペレータに今回の判定シーンを登録させる指示を行う。なお、ここでいう有効期間は、追い越しすべきシーンの有効期間tでもよいし、待機すべきシーンの有効期間(例えば、平均値μ)でもよい。
The
また、自動判定部21Bは、類似度が閾値(例えば、0.6)以上である場合、オペレータによる直近の応答から支援要求情報を取得するまでの期間が有効期間以内であれば自動応答を自動運転車両に出力する指示を行い、類似度が閾値(例えば、0.6)未満である場合、オペレータによる直近の応答から支援要求情報を取得するまでの期間が有効期間以内であっても自動応答を中止し、オペレータに今回の判定シーンを登録させる指示を行うようにしてもよい。なお、ここでいう有効期間は、上記と同様に、追い越しすべきシーンの有効期間tでもよいし、待機すべきシーンの有効期間(例えば、平均値μ)でもよい。
Further, when the similarity is equal to or higher than the threshold value (for example, 0.6), the
上記閾値は、オペレータによる直近の応答から支援要求情報を取得するまでの期間に対する有効期間の残り時間が少なくなるほど、大きな値としてもよい。これにより、有効期間の残り時間が多い場合には、類似度判定が比較的緩く、有効期間の残り時間が少ない場合には、類似度判定が比較的厳しくなる。 The above threshold value may be set to a larger value as the remaining time of the valid period with respect to the period from the latest response by the operator to the acquisition of support request information becomes smaller. As a result, when the remaining time of the valid period is long, the similarity determination is relatively loose, and when the remaining time of the valid period is short, the similarity determination becomes relatively strict.
このように本実施形態によれば、判定シーンに加えて、センシング情報の類似度を用いて、自動運転車両のシーンが分類される。このため、自動運転車両のシーンが精度良く分類される。 As described above, according to the present embodiment, the scenes of the autonomous driving vehicle are classified by using the similarity of the sensing information in addition to the determination scenes. Therefore, the scenes of self-driving cars are classified with high accuracy.
[第4の実施形態]
上記第1の実施形態では、継続時間分布を管理する単位として判定シーンを用いる形態について説明した。本実施形態では、継続時間分布を管理する単位として場所、時間帯、及び車種を用いる形態について説明する。
[Fourth Embodiment]
In the first embodiment described above, a mode in which the determination scene is used as a unit for managing the duration distribution has been described. In this embodiment, a mode in which a place, a time zone, and a vehicle type are used as a unit for managing the duration distribution will be described.
本実施形態に係る遠隔支援装置は、上記第1の実施形態で説明した遠隔支援装置20と同様の構成要素を有しており、上述の図3を参照して、相違点のみを説明する。
The remote support device according to the present embodiment has the same components as the
自動判定部21Bは、判定シーン及び当該判定シーンに対応付けられた場所毎、又は、判定シーン及び当該判定シーンに対応付けられた時間帯毎、又は、判定シーン及び当該判定シーンに対応付けられた車種毎に、継続時間分布を算出する。
The
図14(A)~図14(C)は、第4の実施形態に係る判定シーンに対応付けられた場所毎に継続時間分布を算出する方法の説明に供する図である。 14 (A) to 14 (C) are diagrams for explaining a method of calculating the duration distribution for each place associated with the determination scene according to the fourth embodiment.
図14(A)に示すように、判定シーンを更にグリッドで分けて、継続時間分布を算出する。図14(A)の例では、エリア1~エリア4で異なる特徴(地域性等)を反映した継続時間分布及び有効期間が算出される。このため、自動応答の精度が向上する。 As shown in FIG. 14A, the determination scene is further divided by a grid to calculate the duration distribution. In the example of FIG. 14A, the duration distribution and the effective period reflecting different characteristics (regional characteristics, etc.) in areas 1 to 4 are calculated. Therefore, the accuracy of the automatic response is improved.
図14(B)に示すように、判定シーンが「路上駐車」の場合に、判定シーンを更に面する施設(コンビニエンスストア、商業施設、住宅、公園等)で分けて、継続時間分布を算出する。図14(B)の例では、施設毎に路上駐車の目的が異なり、目的に応じて駐車時間も異なる。このため、施設毎に異なる駐車時間の特徴を反映した継続時間分布及び有効期間が算出される。このため、自動応答の精度が向上する。 As shown in FIG. 14B, when the judgment scene is "parking on the street", the duration distribution is calculated by dividing the judgment scene into facilities (convenience stores, commercial facilities, houses, parks, etc.) facing the judgment scene. .. In the example of FIG. 14B, the purpose of on-street parking differs for each facility, and the parking time also differs depending on the purpose. Therefore, the duration distribution and the valid period that reflect the characteristics of parking time that differ for each facility are calculated. Therefore, the accuracy of the automatic response is improved.
図14(C)に示すように、判定シーンが「事故」、「障害物」等の場合に、JAF(JAPAN AUTOMOBILE FEDERATION:一般社団法人日本自動車連盟)等のロードサービスを提供する拠点からの距離で分けて、継続時間分布を算出する。図14(C)の例では、エリア毎に異なる撤去に要する時間の特徴を反映した継続時間分布及び有効期間が算出される。 As shown in FIG. 14 (C), when the judgment scene is "accident", "obstacle", etc., the distance from the base that provides the road service such as JAF (JAPAN AUTOMOBILE FEDERATION). Divide by and calculate the duration distribution. In the example of FIG. 14C, the duration distribution and the effective period reflecting the characteristics of the time required for removal, which are different for each area, are calculated.
図15は、施設からの距離に対する継続時間モデルの一例を示す図である。 FIG. 15 is a diagram showing an example of a duration model for a distance from a facility.
図15において、発生頻度(Y軸)、継続時間(X軸)、及び拠点からの距離(Z軸)の3軸とし、3次元での継続時間分布を、例えば、ガウス過程等の機械学習を用いて推定する。この場合、ある距離については情報が欠落していても他の距離の情報から推定することが可能とされる。 In FIG. 15, the occurrence frequency (Y-axis), the duration (X-axis), and the distance from the base (Z-axis) are set as three axes, and the three-dimensional duration distribution is used for machine learning such as a Gaussian process. Estimate using. In this case, it is possible to estimate a certain distance from the information of another distance even if the information is missing.
図16は、第4の実施形態に係る判定シーンに対応付けられた時間帯毎に継続時間分布を算出する方法の説明に供する図である。 FIG. 16 is a diagram for explaining a method of calculating a duration distribution for each time zone associated with the determination scene according to the fourth embodiment.
図16に示すように、例えば、「路上駐車」の判定シーンを更に時間帯(例えば、昼:8時~20時、夜:20時~8時)で分けて、継続時間分布を算出する。同様に、「障害物」(又は「故障車」)の判定シーンを更に時間帯(例えば、昼:8時~20時、夜:20時~8時)で分けて、継続時間分布を算出する。例えば、「路上駐車」の継続時間は、日中は短く、夜間は長くなる。一方、「障害物」(又は「故障車」)の継続時間は、日中は人手が多く撤去等のレッカー対応がスムーズなため短く、夜間は長くなる。図16の例では、時間帯毎に異なる特徴を反映した継続時間分布及び有効期間が算出される。このため、自動応答の精度が向上する。 As shown in FIG. 16, for example, the determination scene of "parking on the street" is further divided into time zones (for example, noon: 8:00 to 20:00, night: 20:00 to 8:00), and the duration distribution is calculated. Similarly, the determination scene of the "obstacle" (or "breakdown vehicle") is further divided by the time zone (for example, noon: 8:00 to 20:00, night: 20:00 to 8:00), and the duration distribution is calculated. .. For example, the duration of "street parking" is short during the day and long at night. On the other hand, the duration of an "obstacle" (or "breakdown vehicle") is short during the day and long during the night because it is easy to handle wreckers such as removal. In the example of FIG. 16, the duration distribution and the effective period reflecting different characteristics for each time zone are calculated. Therefore, the accuracy of the automatic response is improved.
また、「工事」の判定シーンでは、登録からの継続時間に対する降水量で分けて、継続時間分布を算出する。降水量のような期間毎に異なる特徴を反映した継続時間分布及び有効期間が算出される。このため、自動応答の精度が向上する。 In addition, in the "construction" determination scene, the duration distribution is calculated by dividing by the amount of precipitation with respect to the duration from registration. The duration distribution and effective period that reflect different characteristics for each period, such as precipitation, are calculated. Therefore, the accuracy of the automatic response is improved.
図17は、降水量に対する継続時間モデルの一例を示す図である。 FIG. 17 is a diagram showing an example of a duration model for precipitation.
図17において、発生頻度(Y軸)、継続時間(X軸)、及び降水量(Z軸)の3軸とし、3次元での継続時間分布を、例えば、ガウス過程等の機械学習を用いて推定する。この場合、ある降水量については情報が欠落していても他の降水量の情報から推定することが可能とされる。 In FIG. 17, the occurrence frequency (Y-axis), duration (X-axis), and precipitation (Z-axis) are set as three axes, and the duration distribution in three dimensions is obtained by using machine learning such as a Gaussian process. presume. In this case, it is possible to estimate a certain amount of precipitation from the information of another amount of precipitation even if the information is missing.
図18は、第4の実施形態に係る判定シーンに対応付けられた車種毎に継続時間分布を算出する方法の説明に供する図である。 FIG. 18 is a diagram for explaining a method of calculating the duration distribution for each vehicle type associated with the determination scene according to the fourth embodiment.
図18に示すように、「路上駐車」の判定シーンでは、更に車種(例えば、乗用車、タクシー、トラック等)で分けて、継続時間分布を算出する。例えば、トラックの場合、路上駐車の時間が長くなっている。図18の例では、車種毎に異なる特徴を反映した継続時間分布及び有効期間が算出される。このため、自動応答の精度が向上する。 As shown in FIG. 18, in the "street parking" determination scene, the duration distribution is calculated by further dividing by vehicle type (for example, passenger car, taxi, truck, etc.). For example, in the case of a truck, the parking time on the street is long. In the example of FIG. 18, the duration distribution and the effective period reflecting the characteristics different for each vehicle type are calculated. Therefore, the accuracy of the automatic response is improved.
このように本実施形態によれば、判定シーンに対応付けられた場所毎、時間帯毎、又は車種毎に継続時間分布が算出される。このため、自動応答の精度が向上する。 As described above, according to the present embodiment, the duration distribution is calculated for each place, each time zone, or each vehicle type associated with the determination scene. Therefore, the accuracy of the automatic response is improved.
[第5の実施形態]
図19は、第5の実施形態に係る車載装置10及び遠隔支援装置20Aの機能的な構成の一例を示すブロック図である。
[Fifth Embodiment]
FIG. 19 is a block diagram showing an example of a functional configuration of the vehicle-mounted
図19に示すように、本実施形態に係る車載装置10のCPU11は、要求出力部11A及び判定取得部11Bとして機能する。
As shown in FIG. 19, the CPU 11 of the vehicle-mounted
一方、本実施形態に係る遠隔支援装置20AのCPU21は、要求取得部21A、自動判定部21B、判定出力部21C、オペレータ提示部21D、継続時間算出部21E、及びオペレータ判定登録部21Fとして機能する。本実施形態に係る遠隔支援装置20Aは、継続時間分布DB25Cを備えていない点が、上述の図3に示す遠隔支援装置20と相違する。
On the other hand, the
図19に示すように、本実施形態に係る遠隔支援装置20Aは、過去のオペレータによる判定シーンの継続時間分布及び有効期間を事前に算出し、算出した継続時間分布及び有効期間をオペレータ判定ログDB25Bに登録する。そして、有効期間の設定時に、オペレータ判定ログDB25Bから有効期間を読み出して設定する。
As shown in FIG. 19, the
すなわち、オペレータ判定登録部21Fは、今回支援要求のあった領域と同一の領域において直近で同一の判定シーンが登録されていない場合に、継続時間算出部21Eを動作させる。そして、継続時間算出部21Eは、オペレータ判定登録部21Fによって登録しようとしているオペレータによる判定シーンに対して、継続時間長及び継続時間分布を算出する。そして、継続時間算出部21Eは、算出した継続時間分布をオペレータ判定ログに対応付けて、オペレータ判定ログDB25Bに登録する。このとき、継続時間分布に代えて有効期間を登録してもよいし、継続時間分布及び有効期間を登録してもよい。
That is, the operator
以上、実施形態に係る遠隔支援装置を例示して説明した。実施形態は、遠隔支援装置が備える各部の機能をコンピュータに実行させるためのプログラムの形態としてもよい。実施形態は、これらのプログラムを記憶したコンピュータが読み取り可能な非遷移的記録媒体の形態としてもよい。 The remote support device according to the embodiment has been illustrated and described above. The embodiment may be in the form of a program for causing a computer to execute the functions of each part included in the remote support device. The embodiment may be in the form of a non-transitional recording medium that can be read by a computer that stores these programs.
その他、上記実施形態で説明した遠隔支援装置の構成は、一例であり、主旨を逸脱しない範囲内において状況に応じて変更してもよい。 In addition, the configuration of the remote support device described in the above embodiment is an example, and may be changed depending on the situation within a range that does not deviate from the gist.
また、上記実施形態で説明したプログラムの処理の流れも、一例であり、主旨を逸脱しない範囲内において不要なステップを削除したり、新たなステップを追加したり、処理順序を入れ替えたりしてもよい。 Further, the processing flow of the program described in the above embodiment is also an example, and even if unnecessary steps are deleted, new steps are added, or the processing order is changed within a range that does not deviate from the purpose. good.
また、上記実施形態では、プログラムを実行することにより、実施形態に係る処理がコンピュータを利用してソフトウェア構成により実現される場合について説明したが、これに限らない。実施形態は、例えば、ハードウェア構成や、ハードウェア構成とソフトウェア構成との組み合わせによって実現してもよい。 Further, in the above embodiment, the case where the processing according to the embodiment is realized by the software configuration by using the computer by executing the program has been described, but the present invention is not limited to this. The embodiment may be realized, for example, by a hardware configuration or a combination of a hardware configuration and a software configuration.
10 車載装置、11、21 CPU、11A 要求出力部、11B 判定取得部、12、22 メモリ、13、24 表示部、14、25 記憶部、15 センサ群、16 カメラ、17、26 通信部、20、20A 遠隔支援装置、23 操作部、21A 要求取得部、21B 自動判定部、21C 判定出力部、21D オペレータ提示部、21E 継続時間算出部、21F オペレータ判定登録部、25A 遠隔支援プログラム、25B オペレータ判定ログDB、25C 継続時間分布DB、25D シーン分類テーブル、100 遠隔支援システム 10 In-vehicle device, 11, 21 CPU, 11A request output unit, 11B judgment acquisition unit, 12, 22 memory, 13, 24 display unit, 14, 25 storage unit, 15 sensor group, 16 camera, 17, 26 communication unit, 20 , 20A remote support device, 23 operation unit, 21A request acquisition unit, 21B automatic judgment unit, 21C judgment output unit, 21D operator presentation unit, 21E duration calculation unit, 21F operator judgment registration unit, 25A remote support program, 25B operator judgment Log DB, 25C duration distribution DB, 25D scene classification table, 100 remote support system
Claims (13)
前記自動運転車両から、前記自動運転車両の位置情報を含む支援要求情報を取得する取得部(21A)と、
前記取得部により取得された支援要求情報に応じて、オペレータが過去に応答した判定シーンのログであるオペレータ判定ログを含むデータベース(25B)から、前記位置情報により示される地点を含む特定の領域において前記オペレータによって直近に応答された判定シーンを取得し、取得した判定シーンに基づいて、前記自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類する分類部(21B)と、
前記分類部により前記自動運転車両のシーンが前記追い越しすべきシーンに分類された場合に、前記オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す有効期間を、前記待機すべきシーンに分類された場合よりも短く設定する設定部(21B)と、
を備えた遠隔支援装置。 A remote support device (20) that provides remote support to autonomous vehicles in the area managed by the autonomous driving support center.
The acquisition unit (21A) that acquires support request information including the position information of the autonomous driving vehicle from the autonomous driving vehicle, and
From the database (25B) including the operator judgment log, which is the log of the judgment scene that the operator has responded to in the past, in the specific area including the point indicated by the position information according to the support request information acquired by the acquisition unit. A classification unit (21B) that acquires a determination scene most recently responded by the operator and classifies the scene of the automatically driving vehicle into either a scene to be overtaken or a scene to wait based on the acquired determination scene. When,
When the scene of the autonomous driving vehicle is classified into the scene to be overtaken by the classification unit, the waiting period represents a period for outputting an automatic response based on the operator's latest response as a valid response. The setting unit (21B) that sets the setting shorter than when it is classified into the scene to be
Remote support device equipped with.
請求項1に記載の遠隔支援装置。 When the period from the latest response by the operator to the acquisition of the support request information is within the valid period, an instruction is given to output the automatic response to the autonomous driving vehicle, and the support is provided from the latest response by the operator. The first aspect of claim 1 is further provided with an instruction unit (21B) for stopping the automatic response and instructing the operator to register the determination scene this time when the period until the request information is acquired exceeds the valid period. Remote support device.
請求項1又は請求項2に記載の遠隔支援装置。 In the setting unit, when the specific area is a region where the frequency of occurrence of the scene to be waited is equal to or higher than a preset threshold value, or the frequency of occurrence of the scene to be waited is the occurrence of the scene to be overtaken. The remote support device according to claim 1 or 2, wherein when the area is higher than the frequency, the valid period of the scene to be overtaken is set shorter than the valid period of the scene to be waited.
請求項1又は請求項2に記載の遠隔支援装置。 In the setting unit, when the specific area is a region where the frequency of occurrence of the scene to be overtaken is equal to or higher than a preset threshold value, or the frequency of occurrence of the scene to be overtaken is the occurrence of the scene to be waited for. The remote support device according to claim 1 or 2, wherein when the area is higher than the frequency, the valid period of the scene to be overtaken is set to be equal to or longer than the valid period of the scene to be waited for.
前記支援要求情報は、前記自動運転車両から得られた第2センシング情報を更に含み、
前記分類部は、前記第1センシング情報と、前記第2センシング情報との類似度に基づいて、前記自動運転車両のシーンを、前記追い越しすべきシーン及び前記待機すべきシーンのいずれかに分類する
請求項1に記載の遠隔支援装置。 The operator determination log further includes first sensing information obtained from the most recent autonomous vehicle that has received the operator's most recent response.
The support request information further includes the second sensing information obtained from the autonomous driving vehicle.
The classification unit classifies the scene of the autonomous driving vehicle into either the scene to be overtaken or the scene to be on standby based on the degree of similarity between the first sensing information and the second sensing information. The remote support device according to claim 1.
請求項5に記載の遠隔支援装置。 When the remaining time of the valid period with respect to the period from the latest response by the operator to the acquisition of the support request information is a certain time or more and the similarity is equal to or more than the first threshold value, or by the operator. When the remaining time of the valid period with respect to the period from the latest response to the acquisition of the support request information is less than the fixed time, and the similarity is greater than or equal to the second threshold value larger than the first threshold value. The remote support device according to claim 5, further comprising an instruction unit that gives an instruction to output the automatic response to the automatic driving vehicle.
請求項5に記載の遠隔支援装置。 When the similarity is equal to or higher than the threshold value, if the period from the latest response by the operator to the acquisition of the support request information is within the valid period, an instruction is given to output the automatic response to the autonomous driving vehicle. When the similarity is less than the threshold value, the automatic response is stopped even if the period from the latest response by the operator to the acquisition of the support request information is within the valid period, and the operator is determined this time. The remote support device according to claim 5, further comprising an instruction unit for instructing the scene to be registered.
請求項7に記載の遠隔支援装置。 The remote support device according to claim 7, wherein the threshold value becomes larger as the remaining time of the valid period with respect to the period from the latest response by the operator to the acquisition of the support request information decreases.
前記設定部は、前記算出部により算出された継続時間分布に基づいて、前記自動運転車両のシーンに応じた前記有効期間を設定する
請求項1~請求項8の何れか1項に記載の遠隔支援装置。 Using the operator judgment log, a calculation unit (21E) for calculating a duration distribution representing the relationship between the occurrence frequency of the judgment scene and the duration of the judgment scene is further provided for each judgment scene.
The remote according to any one of claims 1 to 8, wherein the setting unit sets the validity period according to the scene of the autonomous driving vehicle based on the duration distribution calculated by the calculation unit. Support device.
請求項9に記載の遠隔支援装置。 The calculation unit is used for each determination scene and a location associated with the determination scene, or for each determination scene and a time zone associated with the determination scene, or a vehicle type associated with the determination scene and the determination scene. The remote support device according to claim 9, which calculates the duration distribution for each.
請求項9又は請求項10に記載の遠隔支援装置。 The remote support according to claim 9 or 10, wherein the calculation unit calculates the validity period based on the duration distribution and registers the calculated validity period in the database in association with the operator determination log. Device.
前記自動運転車両から、前記自動運転車両の位置情報を含む支援要求情報を取得し、
前記取得された支援要求情報に応じて、オペレータが過去に応答した判定シーンのログであるオペレータ判定ログを含むデータベースから、前記位置情報により示される地点を含む特定の領域において前記オペレータによって直近に応答された判定シーンを取得し、取得した判定シーンに基づいて、前記自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類し、
前記自動運転車両のシーンが前記追い越しすべきシーンに分類された場合に、前記オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す有効期間を、前記待機すべきシーンに分類された場合よりも短く設定する、
遠隔支援方法。 It is a remote support method using a remote support device that provides remote support to autonomous vehicles in the area managed by the autonomous driving support center.
From the autonomous driving vehicle, support request information including the position information of the autonomous driving vehicle is acquired, and the support request information is obtained.
In response to the acquired support request information, the operator most recently responds in a specific area including the point indicated by the location information from the database including the operator determination log, which is the log of the determination scene that the operator has responded to in the past. The determined judgment scene is acquired, and based on the acquired determination scene, the scene of the autonomous driving vehicle is classified into either a scene to be overtaken or a scene to be waited for.
When the scene of the autonomous driving vehicle is classified into the scene to be overtaken, the valid period representing the period for outputting the automatic response based on the operator's latest response as a valid response is classified into the scene to be waited. Set shorter than if
Remote support method.
コンピュータを、
前記自動運転車両から、前記自動運転車両の位置情報を含む支援要求情報を取得する取得部(21A)、
前記取得部により取得された支援要求情報に応じて、オペレータが過去に応答した判定シーンのログであるオペレータ判定ログを含むデータベース(25B)から、前記位置情報により示される地点を含む特定の領域において前記オペレータによって直近に応答された判定シーンを取得し、取得した判定シーンに基づいて、前記自動運転車両のシーンを、追い越しすべきシーン及び待機すべきシーンのいずれかに分類する分類部(21B)、及び、
前記分類部により前記自動運転車両のシーンが前記追い越しすべきシーンに分類された場合に、前記オペレータの直近の応答に基づく自動応答を有効な応答として出力する期間を表す有効期間を、前記待機すべきシーンに分類された場合よりも短く設定する設定部(21B)、
として機能させるための遠隔支援プログラム。 It is a remote support program (25A) of a remote support device that provides remote support to autonomous vehicles in the area managed by the autonomous driving support center.
Computer,
The acquisition unit (21A), which acquires support request information including the position information of the autonomous driving vehicle from the autonomous driving vehicle,
From the database (25B) including the operator judgment log, which is the log of the judgment scene that the operator has responded to in the past, in the specific area including the point indicated by the position information according to the support request information acquired by the acquisition unit. A classification unit (21B) that acquires a determination scene most recently responded by the operator and classifies the scene of the automatically driving vehicle into either a scene to be overtaken or a scene to wait based on the acquired determination scene. ,as well as,
When the scene of the autonomous driving vehicle is classified into the scene to be overtaken by the classification unit, the waiting period represents a period for outputting an automatic response based on the operator's latest response as a valid response. Setting unit (21B), which is set shorter than when it is classified into a power scene,
Remote support program to function as.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208624A JP7537263B2 (en) | 2020-12-16 | 2020-12-16 | Remote support device, remote support method, and remote support program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020208624A JP7537263B2 (en) | 2020-12-16 | 2020-12-16 | Remote support device, remote support method, and remote support program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022095350A true JP2022095350A (en) | 2022-06-28 |
JP7537263B2 JP7537263B2 (en) | 2024-08-21 |
Family
ID=82163104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020208624A Active JP7537263B2 (en) | 2020-12-16 | 2020-12-16 | Remote support device, remote support method, and remote support program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7537263B2 (en) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6558239B2 (en) | 2015-12-22 | 2019-08-14 | アイシン・エィ・ダブリュ株式会社 | Automatic driving support system, automatic driving support method, and computer program |
JP7124395B2 (en) | 2018-04-06 | 2022-08-24 | 株式会社デンソー | Control device |
JP7080840B2 (en) | 2019-03-07 | 2022-06-06 | 本田技研工業株式会社 | Service provision server, service provision system and service provision method |
-
2020
- 2020-12-16 JP JP2020208624A patent/JP7537263B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7537263B2 (en) | 2024-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6894471B2 (en) | Patrol car patrol by self-driving car (ADV) subsystem | |
EP3299921B1 (en) | Location specific assistance for an autonomous vehicle control system | |
JP6831419B2 (en) | How to operate self-driving cars and warning services, systems and machine-readable media | |
CN114555448B (en) | Parking behavior of autonomous vehicles | |
WO2022007655A1 (en) | Automatic lane changing method and apparatus, and device and storage medium | |
JP6642398B2 (en) | Autonomous driving system | |
US11345365B2 (en) | Control device, getting-into/out facility, control method, and storage medium | |
JP7327344B2 (en) | Vehicle remote support system, vehicle remote support server, and vehicle remote support method | |
WO2021213325A1 (en) | Cruise control method and system, and vehicle | |
CN114715140A (en) | Automatic parking system, control method for automatic parking system, and autonomous vehicle | |
US11433893B2 (en) | Methods and processors for controlling operation of self-driving car | |
JP7057874B2 (en) | Anti-theft technology for autonomous vehicles to transport cargo | |
CN113508056A (en) | Signaling for turns of autonomous vehicles | |
JP2022543936A (en) | Automated crowdsourcing of road environment information | |
EP4046883B1 (en) | Automated valet parking system, control method of automated valet parking system, and autonomous driving vehicle | |
JP7521862B2 (en) | Driving Support Devices | |
JP2022095350A (en) | Remote support device, remote support method, and remote support program | |
CN113470418A (en) | Housing area management device | |
JP7307824B1 (en) | Information processing device, mobile object, system, information processing method, and program | |
JP7517246B2 (en) | Vehicle management system and vehicle management method | |
WO2023021930A1 (en) | Vehicle control device and vehicle control method | |
US20240308537A1 (en) | Vehicle control device and vehicle control method | |
CN117935599A (en) | Driving auxiliary method, device and system and vehicle | |
JP2019061478A (en) | Information sharing method and information sharing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230907 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240312 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240507 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240625 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240709 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240722 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7537263 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |