JP2022173769A - Vehicle control method, automatic driving system, and automatic driving program - Google Patents
Vehicle control method, automatic driving system, and automatic driving program Download PDFInfo
- Publication number
- JP2022173769A JP2022173769A JP2021079676A JP2021079676A JP2022173769A JP 2022173769 A JP2022173769 A JP 2022173769A JP 2021079676 A JP2021079676 A JP 2021079676A JP 2021079676 A JP2021079676 A JP 2021079676A JP 2022173769 A JP2022173769 A JP 2022173769A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- automatic driving
- remote support
- information
- processor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 73
- 238000001514 detection method Methods 0.000 claims abstract description 26
- 230000004044 response Effects 0.000 claims abstract description 9
- 230000008569 process Effects 0.000 claims description 57
- 230000003111 delayed effect Effects 0.000 abstract description 3
- 238000004891 communication Methods 0.000 description 24
- 238000010586 diagram Methods 0.000 description 15
- 238000007664 blowing Methods 0.000 description 13
- 230000010365 information processing Effects 0.000 description 7
- 230000001133 acceleration Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000010191 image analysis Methods 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000010485 coping Effects 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000000630 rising effect Effects 0.000 description 2
- 230000005236 sound signal Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本開示は、遠隔支援の対象となる自動運転車両を制御する技術に関する。 The present disclosure relates to technology for controlling an autonomous vehicle that is a target of remote assistance.
特許文献1は、交通誘導員が存在する状況における車両の制動力制御を開示している。衝突回避物標が検出された場合、制動力制御装置は、自動的に車両を減速させ、衝突回避物標の手前の目標停止位置に車両を停止させる。衝突回避物標が交通誘導員である場合、制動力制御装置は、衝突回避物標と目標停止位置との間の停止マージンを通常よりも小さくする。
特許文献2及び特許文献3は、自動運転車両が車載カメラにより取得される画像情報に基づいて交通誘導員を識別する技術を開示している。 Patent Literature 2 and Patent Literature 3 disclose techniques for identifying traffic guides based on image information acquired by an on-board camera of an autonomous vehicle.
特許文献4は、車両遠隔操作支援システムを開示している。車両遠隔操作支援システムは、自動運転車両と、オペレータを有する管制センタと、を備える。自動運転車両は、自動運転が困難な場合、周辺情報を管制センタに送信し、且つ、オペレータを呼び出す。オペレータは、周辺情報を参照して、自動運転車両の遠隔操縦を行う。 Patent Literature 4 discloses a vehicle remote operation support system. A vehicle remote operation support system includes an automatically driving vehicle and a control center having an operator. When autonomous driving is difficult, an autonomous vehicle transmits peripheral information to a control center and calls an operator. The operator refers to the peripheral information and remotely controls the autonomous vehicle.
自動運転車両からの要求に応答して、オペレータが自動運転車両の走行を遠隔で支援する遠隔支援技術が知られている。ここで、道路上に交通誘導員が存在する状況を考える。交通誘導員による誘導指示に従うためには、まず、自動運転車両は交通誘導員の存在を認識する必要がある。交通誘導員の存在を認識した後、交通誘導員の動作に基づいて交通誘導員による誘導指示を認識する必要がある。交通誘導員による誘導指示を認識あるいは理解することができない場合、自動運転車両はオペレータによる遠隔支援を要求する可能性がある。 2. Description of the Related Art A remote support technology is known in which an operator remotely supports traveling of an automatically driven vehicle in response to a request from the automatically driven vehicle. Now, consider a situation where there is a traffic director on the road. In order to follow the guidance instructions of the traffic director, the autonomous vehicle must first recognize the presence of the traffic director. After recognizing the existence of the traffic director, it is necessary to recognize the guidance instruction by the traffic director based on the motion of the traffic director. A self-driving vehicle may request remote assistance from an operator if it is unable to perceive or understand the guidance instructions of the traffic attendant.
本願発明者は、自動運転車両が交通誘導員による誘導指示に従う必要がある状況に関して、次のような課題を見出した。一般的に、画像解析によって“人”を認識することは比較的容易であるが、その人が交通誘導員であるか否かまで判別することは難しい。つまり、自動運転車両が交通誘導員の存在を素早く認識することは実際には簡単ではない。自動運転車両における交通誘導員の識別に時間がかかり、その後に遠隔支援が要求された場合、オペレータによる遠隔支援のタイミングも遅れてしまう。このことは、自動運転車両の周囲の交通流に多大な影響を及ぼすおそれがある。 The inventors of the present application have found the following problems with respect to situations in which an automatically driven vehicle needs to follow guidance instructions from a traffic guide. In general, it is relatively easy to recognize a "person" by image analysis, but it is difficult to determine whether or not the person is a traffic guide. In other words, it is actually not easy for a self-driving vehicle to quickly recognize the presence of a traffic director. It takes time to identify the traffic guide in the autonomous vehicle, and when remote assistance is requested after that, the timing of remote assistance by the operator is also delayed. This can have a significant impact on traffic flow around self-driving vehicles.
本開示の1つの目的は、交通誘導員が存在する状況において、自動運転車両に対する遠隔支援のタイミングの遅れを抑制することができる技術を提供することにある。 One object of the present disclosure is to provide a technique capable of suppressing a delay in the timing of remote support for an autonomous vehicle in a situation where a traffic guide is present.
第1の観点は、少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する車両制御方法に関連する。
車両制御方法は、
少なくとも1つのカメラを用いて自動運転車両の周囲の画像を取得する画像取得処理と、
少なくとも1つのマイクにより自動運転車両の周囲の音声を検出し、音声の検出結果に基づいて警笛音を検出する警笛音検出処理と、
警笛音を検出したことに応答して、自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、遠隔支援システムに画像を送信する予備通知処理と
を含む。
A first aspect relates to a vehicle control method for controlling a self-driving vehicle comprising at least one camera and at least one microphone.
The vehicle control method is
an image acquisition process for acquiring an image of the surroundings of the automated driving vehicle using at least one camera;
A horn sound detection process that detects sounds around the automated driving vehicle using at least one microphone and detects a horn sound based on the sound detection result;
and preliminary notification processing of transmitting an image to a remote assistance system in response to detecting the horn sound before transmitting a remote assistance request to the remote assistance system that remotely assists the autonomous vehicle.
第2の観点は、第1の観点に加えて、次の特徴を更に有する。
少なくとも1つのカメラは、複数のカメラである。
少なくとも1つのマイクは、複数のマイクである。
車両制御方法は、更に、複数のマイクによる音声の検出結果に基づいて、警笛音の吹鳴方向を推定する吹鳴方向推定処理を含む。
予備通知処理は、複数のカメラのそれぞれによって撮像された複数の画像のうち吹鳴方向に対応する画像を選択し、選択した画像を遠隔支援システムに送信する処理を含む。
The second aspect further has the following features in addition to the first aspect.
At least one camera is a plurality of cameras.
The at least one microphone is a plurality of microphones.
The vehicle control method further includes a blowing direction estimation process of estimating the blowing direction of the horn based on the sound detection results from the plurality of microphones.
The preliminary notification process includes a process of selecting an image corresponding to the blowing direction from among the plurality of images captured by each of the plurality of cameras and transmitting the selected image to the remote support system.
第3の観点は、第2の観点に加えて、次の特徴を更に有する。
車両制御方法は、更に、吹鳴方向に対応する画像を解析して、吹鳴方向に対応する画像に人が映っているか否かを判定する人物認識処理を含む。
警笛音が検出され、且つ、吹鳴方向に対応する画像に人が映っている場合、上記の予備通知処理が行われる。
The third aspect further has the following features in addition to the second aspect.
The vehicle control method further includes person recognition processing for analyzing the image corresponding to the sounding direction and determining whether or not a person is shown in the image corresponding to the sounding direction.
When a horn is detected and a person appears in the image corresponding to the direction of the horn, the preliminary notification process described above is performed.
第4の観点は、第2又は第3の観点に加えて、次の特徴を更に有する。
車両制御方法は、更に、吹鳴方向に対応する画像を解析して、吹鳴方向に対応する画像に交通誘導員が映っているか否かを判定する誘導員認識処理を含む。
The fourth aspect further has the following features in addition to the second or third aspect.
The vehicle control method further includes a guide member recognition process of analyzing the image corresponding to the direction of the sound and determining whether or not the traffic guide is shown in the image corresponding to the direction of the sound.
第5の観点は、第1~第4の観点のいずれかに加えて、次の特徴を更に有する。
車両制御方法は、更に、
画像を解析して、画像に交通誘導員が映っているか否かを判定する誘導員認識処理と、
画像に交通誘導員が映っている場合、自動運転車両の自動運転が可能か否かを判定する処理と、
自動運転が可能ではない場合、遠隔支援システムに遠隔支援要求を送信する遠隔支援要求処理と
を含む。
The fifth aspect further has the following features in addition to any one of the first to fourth aspects.
The vehicle control method further comprises:
Analyzing the image and determining whether or not the traffic guide is visible in the image;
If the image shows a traffic guide, a process of determining whether or not the automated driving vehicle can be driven automatically;
Remote support request processing for transmitting a remote support request to a remote support system when automatic driving is not possible.
第6の観点は、少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する自動運転システムに関連する。
自動運転システムは、
1又は複数のプロセッサと、
少なくとも1つのカメラによって撮像される自動運転車両の周囲の画像を示す画像情報と、少なくとも1つのマイクによって検出される自動運転車両の周囲の音声を示す音声情報とを格納する1又は複数の記憶装置と
を備える。
1又は複数のプロセッサは、
音声情報に基づいて、警笛音を検出する警笛音検出処理と、
警笛音を検出したことに応答して、自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、遠隔支援システムに画像情報を送信する予備通知処理と
を実行する。
A sixth aspect relates to an autonomous driving system for controlling an autonomous vehicle comprising at least one camera and at least one microphone.
The automated driving system
one or more processors;
One or a plurality of storage devices for storing image information representing an image of the surroundings of the automated driving vehicle captured by at least one camera, and audio information representing the sound of the surroundings of the automated driving vehicle detected by at least one microphone. and .
The one or more processors are
a horn sound detection process for detecting a horn sound based on the audio information;
In response to the detection of the horn sound, before sending a remote support request to the remote support system that provides remote support for the automated driving vehicle, a preliminary notification process of transmitting image information to the remote support system is executed.
第7の観点は、少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する自動運転プログラムに関連する。
自動運転プログラムは、コンピュータによって実行され、
少なくとも1つのカメラを用いて自動運転車両の周囲の画像を取得する画像取得処理と、
少なくとも1つのマイクにより自動運転車両の周囲の音声を検出し、音声の検出結果に基づいて警笛音を検出する警笛音検出処理と、
警笛音を検出したことに応答して、自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、遠隔支援システムに画像を送信する予備通知処理と
をコンピュータに実行させる。
A seventh aspect relates to a self-driving program for controlling a self-driving vehicle comprising at least one camera and at least one microphone.
The automated driving program is executed by a computer,
an image acquisition process for acquiring an image of the surroundings of the automated driving vehicle using at least one camera;
A horn sound detection process that detects sounds around the automated driving vehicle using at least one microphone and detects a horn sound based on the sound detection result;
and a preliminary notification process of sending an image to the remote support system before sending a remote support request to the remote support system for remotely supporting the automated driving vehicle in response to the detection of the horn sound.
本開示によれば、自動運転車両に搭載されたマイクによる音声の検出結果に基づいて、警笛音が検出される。警笛音の検出に応答して、遠隔支援要求の送信の前に予備通知処理が行われる。予備通知処理は、自動運転車両に搭載されたカメラにより得られる画像を遠隔支援システムに送信する。この予備通知処理により、オペレータは、遠隔支援要求の発生を予期して、遠隔支援のスタンバイを行うことができる。特に、自動運転車両から送られる画像を見ることにより、オペレータは、自動運転車両の周囲の状況を事前に把握することが可能となる。つまり、オペレータは、実際に遠隔支援要求を受け取る前の早い段階で、自動運転車両の周囲の状況を把握することができる。従って、自動運転車両から実際に遠隔支援要求が出された場合、オペレータは、迅速に自動運転車両に対する遠隔支援を行うことが可能となる。すなわち、自動運転車両に対する遠隔支援のタイミングの遅延が抑制される。結果として、自動運転車両の周囲の交通流に対する影響も抑制される。 According to the present disclosure, the horn sound is detected based on the voice detection result by the microphone mounted on the autonomous vehicle. Pre-notification processing is performed prior to transmission of the remote assistance request in response to detection of the horn. The preliminary notification process transmits an image obtained by the camera mounted on the autonomous vehicle to the remote support system. By this preliminary notification processing, the operator can anticipate the occurrence of a remote support request and perform standby for remote support. In particular, by looking at the image sent from the automatically driving vehicle, the operator can grasp the situation around the automatically driving vehicle in advance. In other words, the operator can grasp the situation around the autonomous vehicle at an early stage before actually receiving the remote assistance request. Therefore, when the autonomous vehicle actually issues a remote assistance request, the operator can promptly provide remote assistance to the autonomous vehicle. That is, the delay in the timing of remote support for the autonomous vehicle is suppressed. As a result, the impact on the traffic flow around the autonomous vehicle is also reduced.
添付図面を参照して、本開示の実施の形態を説明する。 Embodiments of the present disclosure will be described with reference to the accompanying drawings.
1.遠隔支援の概要
図1及び図2は、本実施の形態に係る遠隔支援の概要を説明するための概念図である。自動運転車両1は、自動運転可能な車両である。ここでの自動運転としては、ドライバが必ずしも100%運転に集中しなくてもよいことを前提としたもの(いわゆるレベル3以上の自動運転)を想定している。自動運転車両1は、遠隔支援の対象である。遠隔支援システム100は、自動運転車両1と通信を行い、自動運転車両1の走行を遠隔で支援する遠隔支援処理を実行する。
1. Overview of Remote Support FIGS. 1 and 2 are conceptual diagrams for explaining an overview of remote support according to the present embodiment. The automatically driven
典型的には、自動運転車両1に対する遠隔支援が必要な状況は、自動運転が困難な状況である。例えば、交差点に設置された信号機に日光が当たっているとき、信号表示の認識精度が低下する可能性がある。信号表示を正確に認識することができない場合、自動運転車両1は、信号認識について遠隔支援を必要とする。また、信号表示を認識することができない場合、自動運転車両1は、どのような行動をどのタイミングで実行すべきか判断することも困難である。よって、自動運転車両1は、行動及びタイミングの判断についても遠隔支援を必要とする。
Typically, a situation in which remote assistance is required for the
遠隔支援を必要とする場合、自動運転車両1は、遠隔支援システム100と通信を行い、「遠隔支援要求REQ」を遠隔支援システム100に送信する。例えば、図2に示されるように、自動運転車両1にはカメラ22が搭載されている。カメラ22は、自動運転車両1の周囲の状況を撮像し、自動運転車両1の周囲の画像IMGを取得する。画像IMGは、典型的には動画であるが、静止画像であってもよい。本実施の形態では、動画と静止画像をまとめて「画像IMG」と呼ぶ。遠隔支援要求REQは、画像IMGを含んでいる。あるいは、遠隔支援要求REQと共に画像IMGが遠隔支援システム100に送られる。
When remote assistance is required, the
遠隔支援システム100は、自動運転車両1から、遠隔支援要求REQと画像IMGを受け取る。遠隔支援システム100は、表示装置120を備えており、受け取った画像IMGを表示装置120に表示する。遠隔支援要求REQに応答して、人間であるオペレータは、表示装置120に表示される画像IMGをみて、自動運転車両1の周囲の状況を把握し、自動運転車両1の動作を遠隔で支援する。
The
オペレータによる遠隔支援としては、認識支援、判断支援、遠隔運転、等が挙げられる。遠隔運転の場合、オペレータは、自動運転車両1を制御する自動運転システムの代わりに自動運転車両1を遠隔で運転する。遠隔支援システム100は、遠隔支援の内容を示す「オペレータ指示INS」をオペレータから受け付ける。そして、遠隔支援システム100は、自動運転車両1と通信を行い、オペレータ指示INSを自動運転車両1に通知する。自動運転車両1は、オペレータ指示INSに従って車両走行制御を行う。
Remote support by an operator includes recognition support, judgment support, remote operation, and the like. In the case of remote driving, the operator remotely drives the
このように、遠隔支援システム100は、自動運転車両1から画像IMG等の遠隔支援に必要な情報を受け取り、その情報をオペレータに提供する(情報提供処理)。また、遠隔支援システム100は、オペレータからオペレータ指示INSを受け付け、そのオペレータ指示INSを自動運転車両1に通知する(オペレータ指示通知処理)。つまり、遠隔支援システム100による遠隔支援処理は、情報提供処理とオペレータ指示通知処理を含んでいる。遠隔支援システム100は、オペレータによる自動運転車両1の遠隔支援を補助するシステムであると言うこともできる。
In this way, the
2.交通誘導員が存在する状況における遠隔支援の早期スタンバイ
図3は、自動運転車両1が走行する道路上に交通誘導を行う交通誘導員TGが存在する状況を示している。交通誘導員TGとしては、警察官、交通巡視員、警備員、等が挙げられる。交通誘導員TGによる誘導指示(合図)としては、停止指示、進行指示、行進指示、徐行指示、危険指示、等が挙げられる。
2. Early Standby of Remote Assistance in a Situation Where Traffic Guides Are Present FIG. 3 shows a situation where a traffic guide TG is present on a road on which an
自動運転車両1は交通誘導員TGによる誘導指示に従う必要がある。そのために、まず、自動運転車両1は交通誘導員TGの存在を認識する必要がある。交通誘導員TGの存在を認識した後、交通誘導員TGの動作に基づいて、交通誘導員TGによる誘導指示を認識する必要がある。ここで、交通誘導員TGによる誘導指示を認識あるいは理解することができない場合、自動運転車両1はオペレータによる遠隔支援を要求する可能性がある。
The
自動運転車両1が交通誘導員TGによる誘導指示に従う必要がある状況に関して、次のような課題が存在する。一般的に、画像解析によって“人”を認識することは比較的容易であるが、その人が交通誘導員TGであるか否かまで判別することは難しい。何故なら、交通誘導員TGの服装や振る舞いが画一的ではないからである。自動運転車両1が交通誘導員TGの存在を素早く認識することは実際には簡単ではない。自動運転車両1における交通誘導員TGの識別に時間がかかり、その後に遠隔支援が要求された場合、オペレータによる遠隔支援のタイミングも遅れてしまう。このことは、自動運転車両1の周囲の交通流に多大な影響を及ぼすおそれがある。
The following problems exist regarding situations in which the automatically driven
そこで、本実施の形態によれば、自動運転車両1に対する遠隔支援のタイミングの遅れを抑制するために、「予備通知処理」が行われる。予備通知処理は、遠隔支援要求REQが発生する可能性があることを予め遠隔支援システム100に通知するための処理であり、実際に遠隔支援要求REQが遠隔支援システム100に送信される前に行われる。
Therefore, according to the present embodiment, the “preliminary notification process” is performed in order to suppress delays in the timing of remote assistance for the
図4は、本実施の形態に係る予備通知処理を説明するための概念図である。本実施の形態によれば、予備通知処理のトリガーとして、交通誘導員TGが使用する警笛WHの「警笛音」が利用される。交通誘導員TGは警笛WHの携帯が必須であり、交通誘導の際に警笛WHを吹鳴することは交通誘導警備2級でも定められている。 FIG. 4 is a conceptual diagram for explaining preliminary notification processing according to this embodiment. According to the present embodiment, the "horn sound" of the horn WH used by the traffic director TG is used as a trigger for the preliminary notification process. A traffic guide TG must carry a horn WH, and blowing the horn WH when directing traffic is also stipulated in the traffic guidance security level 2.
自動運転車両1は、カメラ22とマイク24を備えている。自動運転車両1は、マイク24により周囲の音声を検出し、音声の検出結果に基づいて警笛音を検出する。警笛音を検出したことに応答して、自動運転車両1は予備通知処理を行う。具体的には、自動運転車両1は、遠隔支援システム100と通信を行い、予備通知PREを遠隔支援システム100に送信する。予備通知PREは、カメラ22によって撮像された画像IMGを含んでいる。つまり、自動運転車両1は、警笛音の検出をトリガーとして、遠隔支援要求REQを出す前に画像IMGを遠隔支援システム100に送信(アップロード)する。
The
遠隔支援システム100は、自動運転車両1から送られる予備通知PREを表示装置120に表示する。これにより、オペレータは、遠隔支援要求REQの発生を予期して、遠隔支援のスタンバイを行うことができる。
The
特に、予備通知PREと共に画像IMGが遠隔支援システム100に送られ、遠隔支援システム100は、受け取った画像IMGを表示装置120に表示する。その画像IMGを見ることにより、オペレータは、自動運転車両1の周囲の状況を把握することが可能となる。つまり、オペレータは、実際に遠隔支援要求REQを受け取る前の早い段階で、自動運転車両1の周囲の状況を事前に把握することができる。オペレータは、遠隔支援要求REQを受け取ってから初めて画像IMGを見るわけではない。従って、自動運転車両1から実際に遠隔支援要求REQが出された場合、オペレータは、迅速に自動運転車両1に対するオペレータ指示INSを入力することが可能となる。すなわち、自動運転車両1に対する遠隔支援のタイミングの遅延が抑制される。結果として、自動運転車両1の周囲の交通流に対する影響も抑制される。
In particular, the image IMG is sent to the
尚、比較例として自動運転車両1から画像IMGを常時アップロードする場合、自動運転車両1毎にオペレータを割り当てて常時監視させる必要がある。このことは、人件費及び通信コストの観点から現実的ではない。
As a comparative example, when the image IMG is constantly uploaded from the automatically driven
図5に示されるように、自動運転車両1は、複数のカメラ22と複数のマイク24を備えていてもよい。例えば、複数のカメラ22と複数のマイク24は、自動運転車両1のルーフに搭載されている。複数のマイク24のそれぞれの指向方向は、複数のカメラ22のそれぞれの視野方向と一致していてもよい。図5に示される例では、6個のカメラ22-1~22-6と6個のマイク24-1~24-6が、自動運転車両1の全周をカバーするように配置されている。
As shown in FIG. 5 , the
自動運転車両1は、複数のマイク24による音声の検出結果に基づいて、警笛音の吹鳴方向を推定してもよい。その場合、自動運転車両1は、複数のカメラ22によって撮像された複数の画像IMGのうち吹鳴方向に対応する画像IMGを選択し、選択した画像IMGだけを遠隔支援システム100にアップロードすることができる。図5に示される例では、マイク24-2に対応するカメラ22-2によって撮像された画像IMGが遠隔支援システム100にアップロードされる。
The
吹鳴方向の画像IMGを選択的にアップロードすることにより、複数方向の画像IMGを全てアップロードする場合と比較して、通信量、通信時間、及び通信コストを削減することが可能となる。通信量が減るため、輻輳制御による画質低下は発生しにくい。また、同時にアップロードする画像IMGが減ることは、低遅延での画像伝送が可能となることを意味する。すなわち、高画質の画像IMGが低遅延で遠隔支援システム100の表示装置120に表示される。その結果、画像IMGの視認性及びリアルタイム性が十分に確保され、オペレータは自動運転車両1の周囲の状況を正しく把握することが可能となる。更に、吹鳴方向の画像IMGには交通誘導員TGが映っている可能性が高いため、オペレータは交通誘導員TGの様子を効率的に把握することができる。
By selectively uploading the image IMG in the blowing direction, it is possible to reduce the amount of communication, the communication time, and the communication cost compared to uploading all the images IMG in a plurality of directions. Since the amount of communication is reduced, image quality degradation due to congestion control is less likely to occur. In addition, reduction in the number of images IMG to be uploaded at the same time means that image transmission with low delay becomes possible. That is, the high-quality image IMG is displayed on the
3.自動運転システム
3-1.構成例
図6は、本実施の形態に係る自動運転車両1に搭載されている自動運転システム10の構成例を示すブロック図である。自動運転システム10は、センサ群20、通信装置30、走行装置40、及び制御装置50を含んでいる。センサ群20は、認識センサ21、車両状態センサ23、及び少なくとも1つのマイク24を含んでいる。
3. Automatic driving system 3-1. Configuration Example FIG. 6 is a block diagram showing a configuration example of the automatic driving system 10 installed in the
認識センサ21は、自動運転車両1の周囲の状況を認識(検出)する。認識センサ21は、少なくとも1つのカメラ22を含んでいる。カメラ22は、自動運転車両1の周囲の状況を撮像し、自動運転車両1の周囲の画像IMGを取得する。画像IMGは、典型的には動画であるが、静止画像であってもよい。認識センサ21は、その他に、LIDAR(Laser Imaging Detection and Ranging)、レーダ、等を含んでいてもよい。
The
車両状態センサ23は、自動運転車両1の位置及び状態を検出する。例えば、車両状態センサ23は、GPS(Global Positioning System)センサ、車速センサ、加速度センサ、ヨーレートセンサ、舵角センサ、等を含んでいる。
A
マイク24は、自動運転車両1の周囲の音声を検出する。
The
通信装置30は、自動運転車両1の外部と通信を行う。例えば、通信装置30は、遠隔支援システム100と通信を行う。
The
走行装置40は、操舵装置、駆動装置、及び制動装置を含んでいる。操舵装置は、自動運転車両1の車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータ、等が例示される。制動装置は、制動力を発生させる。
The traveling
制御装置50は、自動運転車両1を制御する。制御装置50は、1又は複数のプロセッサ51(以下、単にプロセッサ51と呼ぶ)と1又は複数の記憶装置52(以下、単に記憶装置52と呼ぶ)を含んでいる。プロセッサ51は、各種処理を実行する。例えば、プロセッサ51は、CPU(Central Processing Unit)を含んでいる。記憶装置52は、各種情報を格納する。記憶装置52としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。プロセッサ51がコンピュータプログラムである自動運転プログラム60を実行することにより、制御装置50による各種処理が実現される。自動運転プログラム60は、記憶装置52に格納されている、あるいは、コンピュータ読み取り可能な記録媒体に記録されている。制御装置50は、1又は複数のECU(Electronic Control Unit)を含んでいてもよい。制御装置50の一部は、自動運転車両1の外部の情報処理装置であってもよい。その場合、制御装置50の一部は、自動運転車両1と通信を行い、自動運転車両1をリモートで制御する。
The
3-2.情報取得処理
プロセッサ51は、自動運転車両1の運転環境を示す運転環境情報70を取得する。運転環境情報70は、記憶装置52に格納される。
3-2. Information Acquisition Processing The
図7は、運転環境情報70の例を示すブロック図である。運転環境情報70は、周辺状況情報71、車両状態情報73、音声情報74、及び地図情報75を含んでいる。
FIG. 7 is a block diagram showing an example of the driving
周辺状況情報71は、自動運転車両1の周囲の状況を示す情報である。周辺状況情報71は、認識センサ21によって得られる情報を含む。例えば、周辺状況情報71は、カメラ22によって撮像される画像IMGを示す画像情報72を含んでいる。他の例として、周辺状況情報71は、LIDARやレーダによって計測される計測情報を含む。
The surrounding
また、周辺状況情報71は、自動運転車両1の周辺の物体に関する物体情報を含んでいる。自動運転車両1の周辺の物体としては、人物(歩行者等)、他車両(先行車両、駐車車両、等)、標識、白線、障害物、等が例示される。物体情報は、自動運転車両1に対する物体の相対位置及び相対速度を示す。例えば、カメラ22によって得られた画像情報72を解析することによって、物体を識別し、その物体の相対位置を算出することができる。また、LIDARやレーダによる計測情報に基づいて、物体を識別し、その物体の相対位置及び相対速度を算出することもできる。
In addition, the
車両状態情報73は、自動運転車両1の位置及び状態を示す情報である。プロセッサ51は、車両状態センサ23による検出結果から車両状態情報73を取得する。
The
音声情報74は、マイク24によって検出される音声を示す。
地図情報75は、レーン配置、道路形状、等を示す。プロセッサ51は、地図データベースから、必要なエリアの地図情報を取得する。地図データベースは、自動運転車両1に搭載されている所定の記憶装置に格納されていてもよいし、自動運転車両1の外部の管理サーバに格納されていてもよい。後者の場合、プロセッサ51は、管理サーバと通信を行い、必要な地図情報を取得する。
The
3-3.通信処理
プロセッサ51は、通信装置30を介して遠隔支援システム100と通信を行う。例えば、プロセッサ51は、必要に応じて、運転環境情報70の少なくとも一部を遠隔支援システム100に送信する。特に、オペレータによる遠隔支援が必要な場合、プロセッサ51は、画像情報72や車両状態情報73を遠隔支援システム100に送信する。また、プロセッサ51は、オペレータ指示INSを遠隔支援システム100から受信する。
3-3. Communication Processing The
3-4.車両走行制御
プロセッサ51は、自動運転車両1の走行を制御する「車両走行制御」を実行する。車両走行制御は、操舵制御、加速制御、及び減速制御を含む。プロセッサ51は、走行装置40を制御することによって車両走行制御を実行する。具体的には、プロセッサ51は、操舵装置を制御することによって操舵制御を実行する。また、プロセッサ51は、駆動装置を制御することによって加速制御を実行する。また、プロセッサ51は、制動装置を制御することによって減速制御を実行する。
3-4. Vehicle Driving Control The
また、プロセッサ51は、自動運転車両1の自動運転を制御する「自動運転制御」を実行する。具体的には、プロセッサ51は、運転環境情報70に基づいて、自動運転車両1の走行プランを生成し、走行プランに従って走行するための目標トラジェクトリを生成する。目標トラジェクトリは、目標位置及び目標速度を含む。そして、プロセッサ51は、自動運転車両1が目標トラジェクトリに追従するように車両走行制御を実行する。
The
遠隔支援システム100からオペレータ指示INSを受け取った場合、プロセッサ51は、オペレータ指示INSに従って車両走行制御を実行する。
When receiving an operator instruction INS from the
3-5.予備通知処理に関連する処理
以下、本実施の形態に係る自動運転システム10による予備通知処理に関連する処理を説明する。
3-5. Processing Related to Preliminary Notification Processing Processing related to preliminary notification processing by the automatic driving system 10 according to the present embodiment will be described below.
3-5-1.第1の例
図8は、予備通知処理に関連する処理の第1の例を示すフローチャートである。
3-5-1. First Example FIG. 8 is a flow chart showing a first example of processing related to preliminary notification processing.
ステップS10において、プロセッサ51は、予備通知条件が成立するか否かを判定する「予備通知条件判定処理」を行う。予備通知条件は、予備通知処理を実行するための条件である。第1の例では、予備通知条件は、警笛音が検出されることである。そのため、プロセッサ51は、ステップS11において「警笛音検出処理」を行う。警笛音検出処理は、マイク24により得られる音声情報74に基づいて、警笛音の検出を行い、警笛音が検出されたか否かを判定する。
In step S10, the
図9は、警笛音検出処理(ステップS11)の一例を示すフローチャートである。ステップS11aにおいて、プロセッサ51は、マイク24によって検出される音声を示す音声情報74を取得する。ステップS11bにおいて、プロセッサ51は、バンドパスフィルタを用いてフィルタリングを行い、一般的な警笛音の周波数を含む特定周波数帯の音声を抽出する。プロセッサ51は、予めサンプリングされた車両走行音等の定常ノイズを除去してもよい。
FIG. 9 is a flow chart showing an example of the horn detection process (step S11). In step S11a,
ステップS11cにおいて、プロセッサ51は、特定周波数帯の音声の音圧レベルが閾値以上であるか否かを判定する。特定周波数帯の音声の音圧レベルが閾値未満である場合(ステップS11c;No)、プロセッサ51は、警笛音は検出されていないと判定する(ステップS11;No)。一方、特定周波数帯の音声の音圧レベルが閾値以上である場合(ステップS11c;Yes)、処理は、ステップS11dに進む。
In step S11c, the
ステップS11dにおいて、プロセッサ51は、特定周波数帯の音声に対してパターン解析を行う。具体的には、プロセッサ51は、一般的な交通誘導の警笛音の吹鳴パターンと類似する波形を取り出し、振幅増大及び波形整形を行う。更に、プロセッサ51は、一般的な交通誘導の警笛音の吹鳴パターンとの類似度を算出する。類似度が閾値以上である場合(ステップS11e;Yes)、プロセッサ51は、警笛音が検出されたと判定する(ステップS11;Yes)。一方、類似度が閾値未満である場合(ステップS11e;No)、プロセッサ51は、警笛音は検出されていないと判定する(ステップS11;No)。
In step S11d, the
予備通知条件が成立する場合(ステップS10;Yes)、処理は、ステップS20に進む。それ以外の場合(ステップS10;No)、今回のサイクルにおける処理は終了する。 If the preliminary notification condition is satisfied (step S10; Yes), the process proceeds to step S20. Otherwise (step S10; No), the process in this cycle ends.
ステップS20において、プロセッサ51は、「予備通知処理」を行う。具体的には、プロセッサ51は、通信装置30を介して遠隔支援システム100と通信を行い、予備通知PREを遠隔支援システム100に送信する。特に、プロセッサ51は、カメラ22によって得られた画像情報72を遠隔支援システム100に送信(アップロード)する(ステップS21)。それに加えて、プロセッサ51は、車両状態情報73を遠隔支援システム100に送信してもよい。この予備通知処理により、オペレータは遠隔支援のスタンバイを早期に行うことが可能となる。
In step S20, the
3-5-2.第2の例
図10は、予備通知処理に関連する処理の第2の例を示すフローチャートである。上記の第1の例と重複する説明は適宜省略する。第2の例では、自動運転車両1は、図5で示されたように複数のカメラ22と複数のマイク24を備えている。
3-5-2. Second Example FIG. 10 is a flow chart showing a second example of processing related to preliminary notification processing. Explanations that overlap with the first example will be omitted as appropriate. In a second example, the self-driving
警笛音が検出された場合(ステップS11;Yes)、処理は、ステップS12に進む。ステップS12において、プロセッサ51は、警笛音の吹鳴方向を推定する「吹鳴方向推定処理」を行う。吹鳴方向推定処理は、複数のマイク24による音声の検出結果、つまり、複数のマイク24のそれぞれにより得られる音声情報74に基づいて行われる。
If the horn is detected (step S11; Yes), the process proceeds to step S12. In step S12, the
図11は、吹鳴方向推定処理(ステップS12)を説明するためのタイミングチャートである。縦軸は音圧を表し、横軸は時間を表している。図11には、複数のマイク24-1~24-6のそれぞれによって検出された音声の信号波形が示されている。尚、この信号波形は、図9中のステップS11b、S11cの処理が行われた後のものである。音圧の大きさと音声信号の立ち上がり時間に基づいて、警笛音の吹鳴方向を精度良く推定することができる。図11に示される例では、音圧が大きく立ち上がり時間が最も早い音声信号が得られたマイク24-2の方向が、警笛音の吹鳴方向に最も近いと判定される。 FIG. 11 is a timing chart for explaining the blowing direction estimation process (step S12). The vertical axis represents sound pressure and the horizontal axis represents time. FIG. 11 shows signal waveforms of voices detected by each of the plurality of microphones 24-1 to 24-6. This signal waveform is obtained after the processing of steps S11b and S11c in FIG. 9 has been performed. Based on the magnitude of the sound pressure and the rising time of the audio signal, it is possible to accurately estimate the blowing direction of the horn sound. In the example shown in FIG. 11, the direction of the microphone 24-2 from which an audio signal with the highest sound pressure and the fastest rising time is obtained is determined to be closest to the blowing direction of the horn.
その後の予備通知処理(ステップS20)において、プロセッサ51は、複数のカメラ22によって撮像された複数の画像IMGのうち吹鳴方向に対応する画像IMGを選択し、選択した画像IMGだけを遠隔支援システム100にアップロードする(ステップS22)。図11の例では、マイク24-2に対応するカメラ22-2によって撮像された画像IMGが選択的にアップロードされる。
In subsequent preliminary notification processing (step S20), the
吹鳴方向の画像IMGを選択的にアップロードすることにより、複数方向の画像IMGを全てアップロードする場合と比較して、通信量、通信時間、及び通信コストを削減することが可能となる。通信量が減るため、輻輳制御による画質低下は発生しにくい。また、同時にアップロードする画像IMGが減ることは、低遅延での画像伝送が可能となることを意味する。すなわち、高画質の画像IMGが低遅延で遠隔支援システム100の表示装置120に表示される。その結果、画像IMGの視認性及びリアルタイム性が十分に確保され、オペレータは自動運転車両1の周囲の状況を正しく把握することが可能となる。更に、吹鳴方向の画像IMGには交通誘導員TGが映っている可能性が高いため、オペレータは交通誘導員TGの様子を効率的に把握することができる。
By selectively uploading the image IMG in the blowing direction, it is possible to reduce the amount of communication, the communication time, and the communication cost compared to uploading all the images IMG in a plurality of directions. Since the amount of communication is reduced, image quality degradation due to congestion control is less likely to occur. In addition, reduction in the number of images IMG to be uploaded at the same time means that image transmission with low delay becomes possible. That is, the high-quality image IMG is displayed on the
3-5-3.第3の例
図12は、予備通知処理に関連する処理の第3の例を示すフローチャートである。上記の第1及び第2の例と重複する説明は適宜省略する。
3-5-3. Third Example FIG. 12 is a flow chart showing a third example of processing related to preliminary notification processing. Explanations that overlap with the above first and second examples will be omitted as appropriate.
第3の例では、予備通知条件は、「警笛音が検出され、且つ、警笛音の吹鳴方向に人が認識されること」である。そのために、プロセッサ51は、吹鳴方向推定処理(ステップS12)に続いて、人物認識処理(ステップS13)を行う。より詳細には、プロセッサ51は、吹鳴方向に対応する画像IMGを解析して、吹鳴方向に対応する画像IMGに“人”が映っているか否かを判定する。この段階では、交通誘導員が映っているかまで見極める必要はない。人物認識(画像解析)の手法は公知である。尚、単純な人物認識は、交通誘導員の認識に比べてはるかに容易且つ正確に行うことができる。
In a third example, the preliminary notification condition is "a horn is detected and a person is recognized in the direction of the horn". For this purpose, the
吹鳴方向に対応する画像IMGに人が映っている場合(ステップS13;Yes)、予備通知条件が成立する(ステップS10;Yes)。そして、処理は、上記の予備通知処理(ステップS20)に進む。一方、吹鳴方向に対応する画像IMGに人が映っていない場合(ステップS13;No)、予備通知条件は成立せず(ステップS10;No)、予備通知処理(ステップS20)は行われない。 If a person appears in the image IMG corresponding to the sound direction (step S13; Yes), the preliminary notification condition is established (step S10; Yes). Then, the process proceeds to the preliminary notification process (step S20). On the other hand, if no person is shown in the image IMG corresponding to the sounding direction (step S13; No), the preliminary notification condition is not satisfied (step S10; No), and preliminary notification processing (step S20) is not performed.
以上に説明されたように、第3の例によれば、警笛音が検出され、且つ、警笛音の吹鳴方向に人が認識された場合に、予備通知処理が行われる。これは、警笛音検出処理(ステップS11)の精度の向上と等価である。警笛音の検出精度が向上するため、予備通知処理が不必要に行われることが抑制される。また、遠隔支援システム100にアップロードされる画像IMGに交通誘導員TGが映っている可能性が更に高くなる。これらのことは、予備通知処理の精度の向上を意味する。
As described above, according to the third example, preliminary notification processing is performed when a horn is detected and a person is recognized in the blowing direction of the horn. This is equivalent to improving the accuracy of the horn detection process (step S11). Since the detection accuracy of the warning whistle is improved, unnecessary execution of the preliminary notification process is suppressed. Moreover, the possibility that the traffic director TG is shown in the image IMG uploaded to the
3-6.遠隔支援要求処理
以下、本実施の形態に係る自動運転システム10による遠隔支援要求処理に関連する処理を説明する。図13は、遠隔支援要求処理に関連する処理の一例を示すフローチャートである。
3-6. Remote Assistance Request Processing Processing related to remote assistance request processing by the automatic driving system 10 according to the present embodiment will be described below. FIG. 13 is a flowchart illustrating an example of processing related to remote support request processing.
ステップS30において、プロセッサ51は、自動運転車両1の周囲に交通誘導員TGが存在するか否かを判定する「交通誘導員認識処理」を行う。より詳細には、プロセッサ51は、画像情報72で示される画像IMGを解析して、画像IMGに交通誘導員TGが映っているか否かを判定する。上記の吹鳴方向推定処理(ステップS12)が既に行われている場合、プロセッサ51は、吹鳴方向に対応する画像IMGを解析して、吹鳴方向に対応する画像IMGに交通誘導員TGが映っているか否かを判定してもよい。
In step S<b>30 , the
図14は、交通誘導員認識処理(ステップS30)を説明するための概念図である。交通誘導員TGは、誘導棒GSを持っている。その誘導棒GSが交通誘導員TGの外見的特徴の一つとして考慮される。それに加えて、交通誘導員TGの服装(安全ベスト等)が外見的特徴として考慮されてもよい。また、誘導棒GSを用いた誘導動作が、動作的特徴として考慮されてもよい。このような交通誘導員TGの特徴が検出されるか否かに基づいて、画像IMGに交通誘導員TGが映っているか否かが判定される。 FIG. 14 is a conceptual diagram for explaining the traffic guide recognition process (step S30). A traffic guide TG has a guide rod GS. The guide rod GS is considered as one of the appearance features of the traffic director TG. Additionally, the attire of the traffic director TG (safety vest, etc.) may be considered as an appearance feature. Guidance using the guide rod GS may also be considered as an operational feature. Based on whether or not such characteristics of the traffic director TG are detected, it is determined whether or not the traffic director TG is shown in the image IMG.
上記の吹鳴方向推定処理(ステップS12)が既に行われている場合、プロセッサ51は、吹鳴方向に対応する画像IMGに交通誘導員TGが映っているか否かを判定してもよい。これにより、交通誘導員認識処理を効率的に行うことができる。つまり、吹鳴方向を考慮することによって、交通誘導員TGの認識効率及び認識精度が向上する。また、これにより、交通誘導員認識処理に要する処理負荷及び処理時間も軽減される。
When the sound direction estimation process (step S12) has already been performed, the
画像IMGに交通誘導員TGが存在すると判定された場合、すなわち、交通誘導員TGが認識された場合(ステップS30;Yes)、処理は、ステップS40に進む。それ以外の場合、処理は、ステップS80に進む。 If it is determined that the traffic guide TG exists in the image IMG, that is, if the traffic guide TG is recognized (step S30; Yes), the process proceeds to step S40. Otherwise, the process proceeds to step S80.
ステップS40において、プロセッサ51は、自動運転車両1の自動運転が可能か否かを判定する。つまり、プロセッサ51は、交通誘導員TGによる誘導指示に遠隔支援無しで対応することができるか否かを判定する。例えば、交通誘導員TGによる誘導指示に従うためには、画像IMGを解析することによって誘導指示を認識し、その内容を理解する必要がある。交通誘導員TGによる誘導指示を認識あるいは理解することができない場合、プロセッサ51は、自動運転が可能ではない(自動運転の継続が困難である)と判定する。
In step S40, the
自動運転が可能ではないと判定された場合(ステップS40;No)、処理は、ステップS50に進む。一方、自動運転が可能であると判定された場合(ステップS40;Yes)、処理は、ステップS80に進む。 If it is determined that automatic driving is not possible (step S40; No), the process proceeds to step S50. On the other hand, if it is determined that automatic driving is possible (step S40; Yes), the process proceeds to step S80.
ステップS50において、プロセッサ51は、遠隔支援要求処理を行う。具体的には、プロセッサ51は、通信装置30を介して遠隔支援システム100と通信を行い、遠隔支援要求REQを遠隔支援システム100に送信する。プロセッサ51は、遠隔支援要求REQと共に、遠隔支援に必要な運転環境情報70を遠隔支援システム100に送る。遠隔支援に必要な運転環境情報70は、少なくとも、カメラ22によって得られた画像情報72を含む。また、プロセッサ51は、遠隔支援要求REQが発生する前の一定期間における画像情報72を送ってもよい。その他、プロセッサ51は、必要な車両状態情報73等を遠隔支援システム100に送ってもよい。
In step S50, the
ステップS50の後のステップS60において、プロセッサ51は、通信装置30を介して、遠隔支援システム100からオペレータ指示INSを受信する。オペレータ指示INSは、オペレータによる遠隔支援の内容を示す。
At step S60 after step S50, the
ステップS70において、プロセッサ51は、オペレータ指示INSに従って車両走行制御を実行する。
In step S70, the
ステップS80において、プロセッサ51は、自動運転制御を継続する。
In step S80, the
3-7.通過後の処理
自動運転車両1は、交通誘導員TGによる誘導指示に対処した後、交通誘導員TGの位置を通り過ぎる。その後、交通誘導員TGは、後続車両を誘導するために警笛WHを鳴らす可能性がある。後続車両に対する警笛音に誤って反応しないために、プロセッサ51は、交通誘導員TGによる誘導指示に対処している最中に、対処履歴情報を記憶装置52に記録してもよい。対処履歴情報は、誘導指示に自動運転あるいは遠隔支援によって対処した位置を含む。対処履歴情報は、警笛音の吹鳴方向及び/あるいは交通誘導員TGの認識位置を含んでいてもよい。
3-7. Processing after Passing The automatically driven
交通誘導員TGによる誘導指示に対処した後、新たに警笛音が検出された場合、プロセッサ51は、対処履歴情報、車両位置、及び新たな警笛音の吹鳴方向に基づいて、その新たな警笛音が後続車両に対するものか否かを判定する。新たな警笛音が後続車両に対するものである場合、プロセッサ51は、予備通知処理を行わない。これにより、不必要な予備通知処理が防止される。
When a new horn sound is detected after handling the guidance instruction by the traffic guide TG, the
4.遠隔支援システム
図15は、本実施の形態に係る遠隔支援システム100の構成例を示すブロック図である。遠隔支援システム100は、通信装置110、表示装置120、入力装置130、及び情報処理装置150を含んでいる。
4. Remote Support System FIG. 15 is a block diagram showing a configuration example of a
通信装置110は、外部との通信を行う。例えば、通信装置110は、自動運転車両1と通信を行う。
The
表示装置120は、各種情報を表示する。表示装置120としては、液晶ディスプレイ、有機ELディスプレイ、ヘッドマウントディスプレイ、タッチパネル、等が例示される。
入力装置130は、オペレータからの入力を受け付けるためのインタフェースである。入力装置130としては、タッチパネル、キーボード、マウス、等が例示される。また、遠隔支援が遠隔運転である場合、入力装置130は、オペレータが運転操作(操舵、加速、及び減速)を行うための運転操作部材を含む。
The
The
情報処理装置150は、各種情報処理を行う。情報処理装置150は、1又は複数のプロセッサ151(以下、単にプロセッサ151と呼ぶ)と1又は複数の記憶装置152(以下、単に記憶装置152と呼ぶ)を含んでいる。プロセッサ151は、各種処理を実行する。例えば、プロセッサ151は、CPUを含んでいる。記憶装置152は、各種情報を格納する。記憶装置152としては、揮発性メモリ、不揮発性メモリ、HDD、SSD、等が例示される。プロセッサ151がコンピュータプログラムである遠隔支援プログラム160を実行することによって、情報処理装置150の機能が実現される。遠隔支援プログラム160は、記憶装置152に格納される。遠隔支援プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。遠隔支援プログラムは、ネットワーク経由で提供されてもよい。
The
車両情報170は、自動運転車両1から送られてくる情報であり、遠隔支援に必要な情報である。車両情報170は、運転環境情報70の一部を含む。より詳細には、車両情報170は、少なくとも、カメラ22によって得られた画像情報72を含む。車両情報170は、最新の画像情報72だけでなく、遠隔支援要求REQが発生する前の一定期間における画像情報72を含んでいてもよい。車両情報170は、車両状態情報73を含んでいてもよい。プロセッサ151は、通信装置110を介して、自動運転車両1から車両情報170を受け取る。車両情報170は、記憶装置152に格納される。
The
図16は、本実施の形態に係る遠隔支援システム100(プロセッサ151)による処理を示すフローチャートである。 FIG. 16 is a flow chart showing processing by remote support system 100 (processor 151) according to the present embodiment.
ステップS100において、プロセッサ151は、自動運転車両1から予備通知PREを受けとったか否かを判定する。予備通知PREを受け取っていない場合(ステップS100;No)、今回のサイクルにおける処理は終了する。一方、予備通知PREを受け取った場合(ステップS100;Yes)、処理は、ステップS110に進む。
In step S<b>100 , the
ステップ110において、プロセッサ151は、スタンバイ処理を行う。具体的には、プロセッサ151は、自動運転車両1から受け取った予備通知PREを表示装置120に表示する。これにより、オペレータは、遠隔支援要求REQの発生を予期して、遠隔支援のスタンバイを行うことができる。特に、プロセッサ151は、自動運転車両1から受け取った画像情報72で示される画像IMGを表示装置120に表示する。その画像IMGを見ることにより、オペレータは、自動運転車両1の周囲の状況を把握することが可能となる。
At
ステップS120において、プロセッサ151は、自動運転車両1から遠隔支援要求REQを受け取ったか否かを判定する。遠隔支援要求REQを受け取っていない場合(ステップS120;No)、処理は、ステップS130に進む。予備通知PREを受け取ってから、遠隔支援要求REQを受け取ることなく一定時間が経過した場合(ステップS130;Yes)、プロセッサ151は、スタンバイ処理を終了する(ステップS140)。一方、予備通知PREを受け取ってから一定時間以内に遠隔支援要求REQを受け取った場合(ステップS120;Yes)、処理は、ステップS150に進む。
In step S<b>120 , the
ステップS150において、プロセッサ151は、「情報提供処理」を行う。具体的には、プロセッサ151は、上記の車両情報170を表示装置120に表示することによって、車両情報170をオペレータに提示する。
In step S150, the
オペレータは、表示装置120に表示される車両情報170を参照して、自動運転車両1に対する遠隔支援を行う。オペレータによる遠隔支援としては、認識支援、判断支援、遠隔運転、等が挙げられる。オペレータは、入力装置130を用いて、遠隔支援の内容を示すオペレータ指示INSを入力する。上述の予備通知処理及びスタンバイ処理によりオペレータは予めスタンバイを行っているため、オペレータは迅速にオペレータ指示INSを入力することができる。プロセッサ151は、入力装置130を介してオペレータ指示INSを受け付ける(ステップS160)。
The operator refers to the
尚、表示装置120に表示される画像IMGに交通誘導員TGが映っていない場合、オペレータは、アップロードする画像IMGの切り替えを指示するオペレータ指示INSを入力してもよい。
If the traffic guide TG is not shown in the image IMG displayed on the
ステップS170において、プロセッサ151は、「オペレータ指示通知処理」を行う。具体的には、プロセッサ151は、通信装置110を介して自動運転車両1と通信を行い、オペレータ指示INSを自動運転車両1に通知する。自動運転システム10は、オペレータ指示INSに従って車両走行制御を行う。
In step S170, the
ステップS180において、プロセッサ151は、遠隔支援終了条件が成立するか否かを判定する。典型的には、オペレータが、遠隔支援の終了を決定する。遠隔支援終了条件が成立する場合(ステップS180;Yes)、処理は、ステップS190に進む。それ以外の場合(ステップS180;No)、処理は、ステップS150に戻る。
In step S180, the
ステップS190において、プロセッサ151は、遠隔支援処理(情報提供処理及びオペレータ指示通知処理)を終了する。自動運転システム10も、遠隔支援に必要な運転環境情報70のアップロードを終了する。
In step S190, the
1 自動運転車両
10 自動運転システム
20 センサ群
22 カメラ
24 マイク
30 通信装置
40 走行装置
50 制御装置
51 プロセッサ
52 記憶装置
60 自動運転プログラム
70 運転環境情報
72 画像情報
74 音声情報
100 遠隔支援システム
110 通信装置
120 表示装置
130 入力装置
150 情報処理装置
160 遠隔支援プログラム
170 車両情報
INS オペレータ指示
PRE 予備通知
REQ 遠隔支援要求
TG 交通誘導員
WH 警笛
1 Autonomous Driving Vehicle 10
Claims (1)
前記少なくとも1つのカメラを用いて前記自動運転車両の周囲の画像を取得する画像取得処理と、
前記少なくとも1つのマイクにより前記自動運転車両の周囲の音声を検出し、前記音声の検出結果に基づいて警笛音を検出する警笛音検出処理と、
前記警笛音を検出したことに応答して、前記自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、前記遠隔支援システムに前記画像を送信する予備通知処理と
を含む
車両制御方法。 A vehicle control method for controlling an autonomous vehicle comprising at least one camera and at least one microphone, comprising:
an image acquisition process for acquiring an image of the surroundings of the automated driving vehicle using the at least one camera;
A horn sound detection process for detecting sounds around the automated driving vehicle with the at least one microphone and detecting a horn sound based on the sound detection result;
and a preliminary notification process of transmitting the image to the remote support system before transmitting a remote support request to the remote support system that provides remote support for the autonomous vehicle in response to detecting the horn sound. Vehicle control method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079676A JP2022173769A (en) | 2021-05-10 | 2021-05-10 | Vehicle control method, automatic driving system, and automatic driving program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021079676A JP2022173769A (en) | 2021-05-10 | 2021-05-10 | Vehicle control method, automatic driving system, and automatic driving program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022173769A true JP2022173769A (en) | 2022-11-22 |
Family
ID=84144317
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021079676A Pending JP2022173769A (en) | 2021-05-10 | 2021-05-10 | Vehicle control method, automatic driving system, and automatic driving program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022173769A (en) |
-
2021
- 2021-05-10 JP JP2021079676A patent/JP2022173769A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6112054B2 (en) | Electronic device, electronic device control method, and electronic device control program | |
CN106560365B (en) | Collision avoidance using auditory data enhanced with map data | |
EP3564086B1 (en) | Managing drive modes of a vehicle | |
JP7266627B2 (en) | Early warning methods, devices, electronic devices, recording media and computer program products | |
WO2015162764A1 (en) | Vehicle-mounted information device and function limiting method for vehicle-mounted information device | |
JP7192443B2 (en) | Information providing system, server, in-vehicle device, vehicle, program and information providing method | |
JPWO2017029847A1 (en) | Information processing apparatus, information processing method, and program | |
JP2024063147A (en) | Vehicle-mounted equipment | |
US11308357B2 (en) | Training data generation apparatus | |
US20200074851A1 (en) | Control device and control method | |
CN102592475A (en) | Crossing traffic early warning system | |
JP2007164671A (en) | Device for deciding approaching obstacle and system for warning collision with obstacle | |
JP7327344B2 (en) | Vehicle remote support system, vehicle remote support server, and vehicle remote support method | |
JP2013033324A (en) | Surrounding vehicle information notifying device | |
KR20170119842A (en) | Apparatus and method for controlling autonomous driving vehicle | |
CN113808418B (en) | Road condition information display system, method, vehicle, computer device and storage medium | |
CN112542052A (en) | Method for warning unprotected traffic participants | |
JP5924395B2 (en) | Peripheral vehicle information notification device | |
US10745029B2 (en) | Providing relevant alerts to a driver of a vehicle | |
JP2012194864A (en) | Collision avoidance device and collision avoidance method | |
JP2022173769A (en) | Vehicle control method, automatic driving system, and automatic driving program | |
CN110371025A (en) | Method, system, equipment and the storage medium of the preposition collision detection for operating condition of overtaking other vehicles | |
US20220250617A1 (en) | Threat mitigation for vehicles | |
WO2022070428A1 (en) | Remote monitoring system, remote monitoring device and remote monitoring method | |
JP2023062506A (en) | Device, method, and program for controlling vehicle |