JP2022173769A - Vehicle control method, automatic driving system, and automatic driving program - Google Patents

Vehicle control method, automatic driving system, and automatic driving program Download PDF

Info

Publication number
JP2022173769A
JP2022173769A JP2021079676A JP2021079676A JP2022173769A JP 2022173769 A JP2022173769 A JP 2022173769A JP 2021079676 A JP2021079676 A JP 2021079676A JP 2021079676 A JP2021079676 A JP 2021079676A JP 2022173769 A JP2022173769 A JP 2022173769A
Authority
JP
Japan
Prior art keywords
vehicle
automatic driving
remote support
information
processor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021079676A
Other languages
Japanese (ja)
Inventor
義貴 足立
Yoshitaka Adachi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2021079676A priority Critical patent/JP2022173769A/en
Publication of JP2022173769A publication Critical patent/JP2022173769A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To prevent timing of remote assistance to an automatic driving vehicle from being delayed in a situation that a traffic guide is present.SOLUTION: A vehicle control method controls an automatic driving vehicle comprising at least one camera and at least one microphone. The vehicle control method includes image acquisition processing for acquiring an image around the automatic driving vehicle using the at least one camera. The vehicle control method further includes horn sound detection processing for detecting sounds around the automatic driving vehicle by means of the at least one microphone and detecting a horn sound based on a sound detection result. Moreover, the vehicle control method includes auxiliary notification processing for transmitting the image to a remote assistance system which remotely assists the automatic driving vehicle, before transmitting a remote assistance request to the remote assistance system in response to detecting the horn sound.SELECTED DRAWING: Figure 4

Description

本開示は、遠隔支援の対象となる自動運転車両を制御する技術に関する。 The present disclosure relates to technology for controlling an autonomous vehicle that is a target of remote assistance.

特許文献1は、交通誘導員が存在する状況における車両の制動力制御を開示している。衝突回避物標が検出された場合、制動力制御装置は、自動的に車両を減速させ、衝突回避物標の手前の目標停止位置に車両を停止させる。衝突回避物標が交通誘導員である場合、制動力制御装置は、衝突回避物標と目標停止位置との間の停止マージンを通常よりも小さくする。 Patent Literature 1 discloses vehicle braking force control in the presence of a traffic director. When the collision avoidance target is detected, the braking force control device automatically decelerates the vehicle and stops the vehicle at the target stop position in front of the collision avoidance target. When the collision avoidance target is a traffic director, the braking force control device makes the stop margin between the collision avoidance target and the target stop position smaller than usual.

特許文献2及び特許文献3は、自動運転車両が車載カメラにより取得される画像情報に基づいて交通誘導員を識別する技術を開示している。 Patent Literature 2 and Patent Literature 3 disclose techniques for identifying traffic guides based on image information acquired by an on-board camera of an autonomous vehicle.

特許文献4は、車両遠隔操作支援システムを開示している。車両遠隔操作支援システムは、自動運転車両と、オペレータを有する管制センタと、を備える。自動運転車両は、自動運転が困難な場合、周辺情報を管制センタに送信し、且つ、オペレータを呼び出す。オペレータは、周辺情報を参照して、自動運転車両の遠隔操縦を行う。 Patent Literature 4 discloses a vehicle remote operation support system. A vehicle remote operation support system includes an automatically driving vehicle and a control center having an operator. When autonomous driving is difficult, an autonomous vehicle transmits peripheral information to a control center and calls an operator. The operator refers to the peripheral information and remotely controls the autonomous vehicle.

特開2020-23249号公報Japanese Patent Application Laid-Open No. 2020-23249 特開2019-156192号公報JP 2019-156192 A 特開2018-045397号公報JP 2018-045397 A 特開2019-191982号公報JP 2019-191982 A

自動運転車両からの要求に応答して、オペレータが自動運転車両の走行を遠隔で支援する遠隔支援技術が知られている。ここで、道路上に交通誘導員が存在する状況を考える。交通誘導員による誘導指示に従うためには、まず、自動運転車両は交通誘導員の存在を認識する必要がある。交通誘導員の存在を認識した後、交通誘導員の動作に基づいて交通誘導員による誘導指示を認識する必要がある。交通誘導員による誘導指示を認識あるいは理解することができない場合、自動運転車両はオペレータによる遠隔支援を要求する可能性がある。 2. Description of the Related Art A remote support technology is known in which an operator remotely supports traveling of an automatically driven vehicle in response to a request from the automatically driven vehicle. Now, consider a situation where there is a traffic director on the road. In order to follow the guidance instructions of the traffic director, the autonomous vehicle must first recognize the presence of the traffic director. After recognizing the existence of the traffic director, it is necessary to recognize the guidance instruction by the traffic director based on the motion of the traffic director. A self-driving vehicle may request remote assistance from an operator if it is unable to perceive or understand the guidance instructions of the traffic attendant.

本願発明者は、自動運転車両が交通誘導員による誘導指示に従う必要がある状況に関して、次のような課題を見出した。一般的に、画像解析によって“人”を認識することは比較的容易であるが、その人が交通誘導員であるか否かまで判別することは難しい。つまり、自動運転車両が交通誘導員の存在を素早く認識することは実際には簡単ではない。自動運転車両における交通誘導員の識別に時間がかかり、その後に遠隔支援が要求された場合、オペレータによる遠隔支援のタイミングも遅れてしまう。このことは、自動運転車両の周囲の交通流に多大な影響を及ぼすおそれがある。 The inventors of the present application have found the following problems with respect to situations in which an automatically driven vehicle needs to follow guidance instructions from a traffic guide. In general, it is relatively easy to recognize a "person" by image analysis, but it is difficult to determine whether or not the person is a traffic guide. In other words, it is actually not easy for a self-driving vehicle to quickly recognize the presence of a traffic director. It takes time to identify the traffic guide in the autonomous vehicle, and when remote assistance is requested after that, the timing of remote assistance by the operator is also delayed. This can have a significant impact on traffic flow around self-driving vehicles.

本開示の1つの目的は、交通誘導員が存在する状況において、自動運転車両に対する遠隔支援のタイミングの遅れを抑制することができる技術を提供することにある。 One object of the present disclosure is to provide a technique capable of suppressing a delay in the timing of remote support for an autonomous vehicle in a situation where a traffic guide is present.

第1の観点は、少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する車両制御方法に関連する。
車両制御方法は、
少なくとも1つのカメラを用いて自動運転車両の周囲の画像を取得する画像取得処理と、
少なくとも1つのマイクにより自動運転車両の周囲の音声を検出し、音声の検出結果に基づいて警笛音を検出する警笛音検出処理と、
警笛音を検出したことに応答して、自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、遠隔支援システムに画像を送信する予備通知処理と
を含む。
A first aspect relates to a vehicle control method for controlling a self-driving vehicle comprising at least one camera and at least one microphone.
The vehicle control method is
an image acquisition process for acquiring an image of the surroundings of the automated driving vehicle using at least one camera;
A horn sound detection process that detects sounds around the automated driving vehicle using at least one microphone and detects a horn sound based on the sound detection result;
and preliminary notification processing of transmitting an image to a remote assistance system in response to detecting the horn sound before transmitting a remote assistance request to the remote assistance system that remotely assists the autonomous vehicle.

第2の観点は、第1の観点に加えて、次の特徴を更に有する。
少なくとも1つのカメラは、複数のカメラである。
少なくとも1つのマイクは、複数のマイクである。
車両制御方法は、更に、複数のマイクによる音声の検出結果に基づいて、警笛音の吹鳴方向を推定する吹鳴方向推定処理を含む。
予備通知処理は、複数のカメラのそれぞれによって撮像された複数の画像のうち吹鳴方向に対応する画像を選択し、選択した画像を遠隔支援システムに送信する処理を含む。
The second aspect further has the following features in addition to the first aspect.
At least one camera is a plurality of cameras.
The at least one microphone is a plurality of microphones.
The vehicle control method further includes a blowing direction estimation process of estimating the blowing direction of the horn based on the sound detection results from the plurality of microphones.
The preliminary notification process includes a process of selecting an image corresponding to the blowing direction from among the plurality of images captured by each of the plurality of cameras and transmitting the selected image to the remote support system.

第3の観点は、第2の観点に加えて、次の特徴を更に有する。
車両制御方法は、更に、吹鳴方向に対応する画像を解析して、吹鳴方向に対応する画像に人が映っているか否かを判定する人物認識処理を含む。
警笛音が検出され、且つ、吹鳴方向に対応する画像に人が映っている場合、上記の予備通知処理が行われる。
The third aspect further has the following features in addition to the second aspect.
The vehicle control method further includes person recognition processing for analyzing the image corresponding to the sounding direction and determining whether or not a person is shown in the image corresponding to the sounding direction.
When a horn is detected and a person appears in the image corresponding to the direction of the horn, the preliminary notification process described above is performed.

第4の観点は、第2又は第3の観点に加えて、次の特徴を更に有する。
車両制御方法は、更に、吹鳴方向に対応する画像を解析して、吹鳴方向に対応する画像に交通誘導員が映っているか否かを判定する誘導員認識処理を含む。
The fourth aspect further has the following features in addition to the second or third aspect.
The vehicle control method further includes a guide member recognition process of analyzing the image corresponding to the direction of the sound and determining whether or not the traffic guide is shown in the image corresponding to the direction of the sound.

第5の観点は、第1~第4の観点のいずれかに加えて、次の特徴を更に有する。
車両制御方法は、更に、
画像を解析して、画像に交通誘導員が映っているか否かを判定する誘導員認識処理と、
画像に交通誘導員が映っている場合、自動運転車両の自動運転が可能か否かを判定する処理と、
自動運転が可能ではない場合、遠隔支援システムに遠隔支援要求を送信する遠隔支援要求処理と
を含む。
The fifth aspect further has the following features in addition to any one of the first to fourth aspects.
The vehicle control method further comprises:
Analyzing the image and determining whether or not the traffic guide is visible in the image;
If the image shows a traffic guide, a process of determining whether or not the automated driving vehicle can be driven automatically;
Remote support request processing for transmitting a remote support request to a remote support system when automatic driving is not possible.

第6の観点は、少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する自動運転システムに関連する。
自動運転システムは、
1又は複数のプロセッサと、
少なくとも1つのカメラによって撮像される自動運転車両の周囲の画像を示す画像情報と、少なくとも1つのマイクによって検出される自動運転車両の周囲の音声を示す音声情報とを格納する1又は複数の記憶装置と
を備える。
1又は複数のプロセッサは、
音声情報に基づいて、警笛音を検出する警笛音検出処理と、
警笛音を検出したことに応答して、自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、遠隔支援システムに画像情報を送信する予備通知処理と
を実行する。
A sixth aspect relates to an autonomous driving system for controlling an autonomous vehicle comprising at least one camera and at least one microphone.
The automated driving system
one or more processors;
One or a plurality of storage devices for storing image information representing an image of the surroundings of the automated driving vehicle captured by at least one camera, and audio information representing the sound of the surroundings of the automated driving vehicle detected by at least one microphone. and .
The one or more processors are
a horn sound detection process for detecting a horn sound based on the audio information;
In response to the detection of the horn sound, before sending a remote support request to the remote support system that provides remote support for the automated driving vehicle, a preliminary notification process of transmitting image information to the remote support system is executed.

第7の観点は、少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する自動運転プログラムに関連する。
自動運転プログラムは、コンピュータによって実行され、
少なくとも1つのカメラを用いて自動運転車両の周囲の画像を取得する画像取得処理と、
少なくとも1つのマイクにより自動運転車両の周囲の音声を検出し、音声の検出結果に基づいて警笛音を検出する警笛音検出処理と、
警笛音を検出したことに応答して、自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、遠隔支援システムに画像を送信する予備通知処理と
をコンピュータに実行させる。
A seventh aspect relates to a self-driving program for controlling a self-driving vehicle comprising at least one camera and at least one microphone.
The automated driving program is executed by a computer,
an image acquisition process for acquiring an image of the surroundings of the automated driving vehicle using at least one camera;
A horn sound detection process that detects sounds around the automated driving vehicle using at least one microphone and detects a horn sound based on the sound detection result;
and a preliminary notification process of sending an image to the remote support system before sending a remote support request to the remote support system for remotely supporting the automated driving vehicle in response to the detection of the horn sound.

本開示によれば、自動運転車両に搭載されたマイクによる音声の検出結果に基づいて、警笛音が検出される。警笛音の検出に応答して、遠隔支援要求の送信の前に予備通知処理が行われる。予備通知処理は、自動運転車両に搭載されたカメラにより得られる画像を遠隔支援システムに送信する。この予備通知処理により、オペレータは、遠隔支援要求の発生を予期して、遠隔支援のスタンバイを行うことができる。特に、自動運転車両から送られる画像を見ることにより、オペレータは、自動運転車両の周囲の状況を事前に把握することが可能となる。つまり、オペレータは、実際に遠隔支援要求を受け取る前の早い段階で、自動運転車両の周囲の状況を把握することができる。従って、自動運転車両から実際に遠隔支援要求が出された場合、オペレータは、迅速に自動運転車両に対する遠隔支援を行うことが可能となる。すなわち、自動運転車両に対する遠隔支援のタイミングの遅延が抑制される。結果として、自動運転車両の周囲の交通流に対する影響も抑制される。 According to the present disclosure, the horn sound is detected based on the voice detection result by the microphone mounted on the autonomous vehicle. Pre-notification processing is performed prior to transmission of the remote assistance request in response to detection of the horn. The preliminary notification process transmits an image obtained by the camera mounted on the autonomous vehicle to the remote support system. By this preliminary notification processing, the operator can anticipate the occurrence of a remote support request and perform standby for remote support. In particular, by looking at the image sent from the automatically driving vehicle, the operator can grasp the situation around the automatically driving vehicle in advance. In other words, the operator can grasp the situation around the autonomous vehicle at an early stage before actually receiving the remote assistance request. Therefore, when the autonomous vehicle actually issues a remote assistance request, the operator can promptly provide remote assistance to the autonomous vehicle. That is, the delay in the timing of remote support for the autonomous vehicle is suppressed. As a result, the impact on the traffic flow around the autonomous vehicle is also reduced.

本開示の実施の形態に係る遠隔支援の概要を説明するための概念図である。1 is a conceptual diagram for explaining an overview of remote support according to an embodiment of the present disclosure; FIG. 本開示の実施の形態に係る遠隔支援の概要を説明するための概念図である。1 is a conceptual diagram for explaining an overview of remote support according to an embodiment of the present disclosure; FIG. 道路上に交通誘導員が存在する状況を示す概念図である。It is a conceptual diagram which shows the situation where a traffic director exists on a road. 本開示の実施の形態に係る予備通知処理を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining preliminary notification processing according to an embodiment of the present disclosure; 本開示の実施の形態に係る予備通知処理を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining preliminary notification processing according to an embodiment of the present disclosure; 本開示の実施の形態に係る自動運転車両に搭載されている自動運転システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of an automatic driving system installed in an automatic driving vehicle according to an embodiment of the present disclosure; FIG. 本開示の実施の形態に係る運転環境情報の例を示すブロック図である。4 is a block diagram showing an example of driving environment information according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る予備通知処理に関連する処理の第1の例を示すフローチャートである。7 is a flowchart illustrating a first example of processing related to preliminary notification processing according to the embodiment of the present disclosure; 本開示の実施の形態に係る警笛音検出処理(ステップS11)の一例を示すフローチャートである。6 is a flowchart showing an example of horn detection processing (step S11) according to the embodiment of the present disclosure; 本開示の実施の形態に係る予備通知処理に関連する処理の第2の例を示すフローチャートである。FIG. 11 is a flow chart showing a second example of processing related to preliminary notification processing according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る吹鳴方向推定処理(ステップS12)を説明するためのタイミングチャートである。4 is a timing chart for explaining sounding direction estimation processing (step S12) according to the embodiment of the present disclosure; 本開示の実施の形態に係る予備通知処理に関連する処理の第3の例を示すフローチャートである。FIG. 13 is a flowchart illustrating a third example of processing related to preliminary notification processing according to the embodiment of the present disclosure; FIG. 本開示の実施の形態に係る遠隔支援要求処理に関連する処理の一例を示すフローチャートである。6 is a flowchart showing an example of processing related to remote assistance request processing according to the embodiment of the present disclosure; 本開示の実施の形態に係る交通誘導員認識処理(ステップS30)を説明するための概念図である。FIG. 4 is a conceptual diagram for explaining traffic guide recognition processing (step S30) according to the embodiment of the present disclosure; 本開示の実施の形態に係る遠隔支援システムの構成例を示すブロック図である。1 is a block diagram showing a configuration example of a remote support system according to an embodiment of the present disclosure; FIG. 本開示の実施の形態に係る遠隔支援システムによる処理を示すフローチャートである。4 is a flow chart showing processing by the remote support system according to the embodiment of the present disclosure;

添付図面を参照して、本開示の実施の形態を説明する。 Embodiments of the present disclosure will be described with reference to the accompanying drawings.

1.遠隔支援の概要
図1及び図2は、本実施の形態に係る遠隔支援の概要を説明するための概念図である。自動運転車両1は、自動運転可能な車両である。ここでの自動運転としては、ドライバが必ずしも100%運転に集中しなくてもよいことを前提としたもの(いわゆるレベル3以上の自動運転)を想定している。自動運転車両1は、遠隔支援の対象である。遠隔支援システム100は、自動運転車両1と通信を行い、自動運転車両1の走行を遠隔で支援する遠隔支援処理を実行する。
1. Overview of Remote Support FIGS. 1 and 2 are conceptual diagrams for explaining an overview of remote support according to the present embodiment. The automatically driven vehicle 1 is a vehicle capable of automatically driving. The automatic driving here assumes that the driver does not necessarily have to concentrate on driving 100% (so-called level 3 or higher automatic driving). The automatic driving vehicle 1 is the target of remote assistance. The remote support system 100 communicates with the automatically driven vehicle 1 and executes remote support processing for remotely supporting the running of the automatically driven vehicle 1 .

典型的には、自動運転車両1に対する遠隔支援が必要な状況は、自動運転が困難な状況である。例えば、交差点に設置された信号機に日光が当たっているとき、信号表示の認識精度が低下する可能性がある。信号表示を正確に認識することができない場合、自動運転車両1は、信号認識について遠隔支援を必要とする。また、信号表示を認識することができない場合、自動運転車両1は、どのような行動をどのタイミングで実行すべきか判断することも困難である。よって、自動運転車両1は、行動及びタイミングの判断についても遠隔支援を必要とする。 Typically, a situation in which remote assistance is required for the autonomous driving vehicle 1 is a situation in which automatic driving is difficult. For example, when a traffic light installed at an intersection is exposed to sunlight, there is a possibility that the recognition accuracy of the traffic light indication will be degraded. If the signal indication cannot be recognized accurately, the autonomous vehicle 1 needs remote assistance for signal recognition. In addition, when the signal display cannot be recognized, it is also difficult for the automatic driving vehicle 1 to determine what action should be taken at what timing. Therefore, the automatic driving vehicle 1 requires remote support also for determination of actions and timing.

遠隔支援を必要とする場合、自動運転車両1は、遠隔支援システム100と通信を行い、「遠隔支援要求REQ」を遠隔支援システム100に送信する。例えば、図2に示されるように、自動運転車両1にはカメラ22が搭載されている。カメラ22は、自動運転車両1の周囲の状況を撮像し、自動運転車両1の周囲の画像IMGを取得する。画像IMGは、典型的には動画であるが、静止画像であってもよい。本実施の形態では、動画と静止画像をまとめて「画像IMG」と呼ぶ。遠隔支援要求REQは、画像IMGを含んでいる。あるいは、遠隔支援要求REQと共に画像IMGが遠隔支援システム100に送られる。 When remote assistance is required, the autonomous vehicle 1 communicates with the remote assistance system 100 and transmits a “remote assistance request REQ” to the remote assistance system 100 . For example, as shown in FIG. 2, the automatic driving vehicle 1 is equipped with a camera 22 . The camera 22 captures the surroundings of the automatically driven vehicle 1 and acquires an image IMG of the surroundings of the automatically driven vehicle 1 . The image IMG is typically a moving image, but may be a still image. In this embodiment, moving images and still images are collectively referred to as "image IMG". The remote assistance request REQ contains the image IMG. Alternatively, the image IMG is sent to the remote assistance system 100 together with the remote assistance request REQ.

遠隔支援システム100は、自動運転車両1から、遠隔支援要求REQと画像IMGを受け取る。遠隔支援システム100は、表示装置120を備えており、受け取った画像IMGを表示装置120に表示する。遠隔支援要求REQに応答して、人間であるオペレータは、表示装置120に表示される画像IMGをみて、自動運転車両1の周囲の状況を把握し、自動運転車両1の動作を遠隔で支援する。 The remote assistance system 100 receives a remote assistance request REQ and an image IMG from the autonomous vehicle 1 . The remote support system 100 has a display device 120 and displays the received image IMG on the display device 120 . In response to the remote support request REQ, the human operator sees the image IMG displayed on the display device 120, grasps the surroundings of the automatically driven vehicle 1, and remotely supports the operation of the automatically driven vehicle 1. .

オペレータによる遠隔支援としては、認識支援、判断支援、遠隔運転、等が挙げられる。遠隔運転の場合、オペレータは、自動運転車両1を制御する自動運転システムの代わりに自動運転車両1を遠隔で運転する。遠隔支援システム100は、遠隔支援の内容を示す「オペレータ指示INS」をオペレータから受け付ける。そして、遠隔支援システム100は、自動運転車両1と通信を行い、オペレータ指示INSを自動運転車両1に通知する。自動運転車両1は、オペレータ指示INSに従って車両走行制御を行う。 Remote support by an operator includes recognition support, judgment support, remote operation, and the like. In the case of remote driving, the operator remotely drives the autonomous vehicle 1 instead of the autonomous driving system that controls the autonomous vehicle 1 . The remote support system 100 receives an "operator instruction INS" indicating the details of remote support from the operator. Then, the remote support system 100 communicates with the automatically driven vehicle 1 and notifies the automatically driven vehicle 1 of the operator instruction INS. The automatic driving vehicle 1 performs vehicle travel control according to the operator instruction INS.

このように、遠隔支援システム100は、自動運転車両1から画像IMG等の遠隔支援に必要な情報を受け取り、その情報をオペレータに提供する(情報提供処理)。また、遠隔支援システム100は、オペレータからオペレータ指示INSを受け付け、そのオペレータ指示INSを自動運転車両1に通知する(オペレータ指示通知処理)。つまり、遠隔支援システム100による遠隔支援処理は、情報提供処理とオペレータ指示通知処理を含んでいる。遠隔支援システム100は、オペレータによる自動運転車両1の遠隔支援を補助するシステムであると言うこともできる。 In this way, the remote support system 100 receives information necessary for remote support such as the image IMG from the automatic driving vehicle 1 and provides the information to the operator (information provision processing). Further, the remote support system 100 receives an operator instruction INS from an operator and notifies the automatic driving vehicle 1 of the operator instruction INS (operator instruction notification process). That is, the remote support processing by the remote support system 100 includes information provision processing and operator instruction notification processing. It can also be said that the remote support system 100 is a system that assists remote support of the automated driving vehicle 1 by the operator.

2.交通誘導員が存在する状況における遠隔支援の早期スタンバイ
図3は、自動運転車両1が走行する道路上に交通誘導を行う交通誘導員TGが存在する状況を示している。交通誘導員TGとしては、警察官、交通巡視員、警備員、等が挙げられる。交通誘導員TGによる誘導指示(合図)としては、停止指示、進行指示、行進指示、徐行指示、危険指示、等が挙げられる。
2. Early Standby of Remote Assistance in a Situation Where Traffic Guides Are Present FIG. 3 shows a situation where a traffic guide TG is present on a road on which an autonomous vehicle 1 is traveling. Traffic guides TG include police officers, traffic patrols, security guards, and the like. Guidance instructions (signals) by the traffic guide TG include a stop instruction, an advance instruction, a march instruction, a slowdown instruction, a danger instruction, and the like.

自動運転車両1は交通誘導員TGによる誘導指示に従う必要がある。そのために、まず、自動運転車両1は交通誘導員TGの存在を認識する必要がある。交通誘導員TGの存在を認識した後、交通誘導員TGの動作に基づいて、交通誘導員TGによる誘導指示を認識する必要がある。ここで、交通誘導員TGによる誘導指示を認識あるいは理解することができない場合、自動運転車両1はオペレータによる遠隔支援を要求する可能性がある。 The automatic driving vehicle 1 needs to follow guidance instructions from the traffic guide TG. For this purpose, first, the automatically driven vehicle 1 needs to recognize the presence of the traffic guide TG. After recognizing the existence of the traffic director TG, it is necessary to recognize the guidance instruction by the traffic director TG based on the motion of the traffic director TG. Here, when the guidance instruction by the traffic guide TG cannot be recognized or understood, the automatically driven vehicle 1 may request remote support by the operator.

自動運転車両1が交通誘導員TGによる誘導指示に従う必要がある状況に関して、次のような課題が存在する。一般的に、画像解析によって“人”を認識することは比較的容易であるが、その人が交通誘導員TGであるか否かまで判別することは難しい。何故なら、交通誘導員TGの服装や振る舞いが画一的ではないからである。自動運転車両1が交通誘導員TGの存在を素早く認識することは実際には簡単ではない。自動運転車両1における交通誘導員TGの識別に時間がかかり、その後に遠隔支援が要求された場合、オペレータによる遠隔支援のタイミングも遅れてしまう。このことは、自動運転車両1の周囲の交通流に多大な影響を及ぼすおそれがある。 The following problems exist regarding situations in which the automatically driven vehicle 1 needs to follow guidance instructions from the traffic guide TG. In general, it is relatively easy to recognize a "person" by image analysis, but it is difficult to determine whether or not the person is a traffic director TG. This is because the clothes and behavior of traffic guides TG are not uniform. Actually, it is not easy for the automatic driving vehicle 1 to quickly recognize the presence of the traffic director TG. It takes time to identify the traffic guide TG in the automatic driving vehicle 1, and when remote assistance is requested after that, the timing of the remote assistance by the operator is also delayed. This may greatly affect the traffic flow around the autonomous vehicle 1 .

そこで、本実施の形態によれば、自動運転車両1に対する遠隔支援のタイミングの遅れを抑制するために、「予備通知処理」が行われる。予備通知処理は、遠隔支援要求REQが発生する可能性があることを予め遠隔支援システム100に通知するための処理であり、実際に遠隔支援要求REQが遠隔支援システム100に送信される前に行われる。 Therefore, according to the present embodiment, the “preliminary notification process” is performed in order to suppress delays in the timing of remote assistance for the autonomous vehicle 1 . The preliminary notification process is a process for notifying the remote support system 100 in advance that a remote support request REQ may occur, and is performed before the remote support request REQ is actually sent to the remote support system 100. will be

図4は、本実施の形態に係る予備通知処理を説明するための概念図である。本実施の形態によれば、予備通知処理のトリガーとして、交通誘導員TGが使用する警笛WHの「警笛音」が利用される。交通誘導員TGは警笛WHの携帯が必須であり、交通誘導の際に警笛WHを吹鳴することは交通誘導警備2級でも定められている。 FIG. 4 is a conceptual diagram for explaining preliminary notification processing according to this embodiment. According to the present embodiment, the "horn sound" of the horn WH used by the traffic director TG is used as a trigger for the preliminary notification process. A traffic guide TG must carry a horn WH, and blowing the horn WH when directing traffic is also stipulated in the traffic guidance security level 2.

自動運転車両1は、カメラ22とマイク24を備えている。自動運転車両1は、マイク24により周囲の音声を検出し、音声の検出結果に基づいて警笛音を検出する。警笛音を検出したことに応答して、自動運転車両1は予備通知処理を行う。具体的には、自動運転車両1は、遠隔支援システム100と通信を行い、予備通知PREを遠隔支援システム100に送信する。予備通知PREは、カメラ22によって撮像された画像IMGを含んでいる。つまり、自動運転車両1は、警笛音の検出をトリガーとして、遠隔支援要求REQを出す前に画像IMGを遠隔支援システム100に送信(アップロード)する。 The automatic driving vehicle 1 has a camera 22 and a microphone 24. - 特許庁The self-driving vehicle 1 detects surrounding sounds with the microphone 24 and detects a horn sound based on the sound detection result. In response to detecting the horn sound, the automatically driven vehicle 1 performs preliminary notification processing. Specifically, the autonomous vehicle 1 communicates with the remote support system 100 and transmits the preliminary notification PRE to the remote support system 100 . The preliminary notification PRE contains the image IMG captured by the camera 22 . That is, the automatic driving vehicle 1 transmits (uploads) the image IMG to the remote support system 100 before issuing the remote support request REQ by using the detection of the horn sound as a trigger.

遠隔支援システム100は、自動運転車両1から送られる予備通知PREを表示装置120に表示する。これにより、オペレータは、遠隔支援要求REQの発生を予期して、遠隔支援のスタンバイを行うことができる。 The remote support system 100 displays the preliminary notification PRE sent from the automatic driving vehicle 1 on the display device 120 . As a result, the operator can anticipate the occurrence of the remote support request REQ and perform standby for remote support.

特に、予備通知PREと共に画像IMGが遠隔支援システム100に送られ、遠隔支援システム100は、受け取った画像IMGを表示装置120に表示する。その画像IMGを見ることにより、オペレータは、自動運転車両1の周囲の状況を把握することが可能となる。つまり、オペレータは、実際に遠隔支援要求REQを受け取る前の早い段階で、自動運転車両1の周囲の状況を事前に把握することができる。オペレータは、遠隔支援要求REQを受け取ってから初めて画像IMGを見るわけではない。従って、自動運転車両1から実際に遠隔支援要求REQが出された場合、オペレータは、迅速に自動運転車両1に対するオペレータ指示INSを入力することが可能となる。すなわち、自動運転車両1に対する遠隔支援のタイミングの遅延が抑制される。結果として、自動運転車両1の周囲の交通流に対する影響も抑制される。 In particular, the image IMG is sent to the remote assistance system 100 along with the preliminary notification PRE, and the remote assistance system 100 displays the received image IMG on the display device 120 . By viewing the image IMG, the operator can grasp the situation around the automatic driving vehicle 1 . In other words, the operator can grasp the situation around the automatically driven vehicle 1 in advance at an early stage before actually receiving the remote assistance request REQ. The operator does not see the image IMG for the first time after receiving the remote assistance request REQ. Therefore, when the remote assistance request REQ is actually issued from the automatically driven vehicle 1, the operator can quickly input the operator instruction INS to the automatically driven vehicle 1. FIG. That is, delay in the timing of remote support for the autonomous vehicle 1 is suppressed. As a result, the influence on the traffic flow around the automatic driving vehicle 1 is also suppressed.

尚、比較例として自動運転車両1から画像IMGを常時アップロードする場合、自動運転車両1毎にオペレータを割り当てて常時監視させる必要がある。このことは、人件費及び通信コストの観点から現実的ではない。 As a comparative example, when the image IMG is constantly uploaded from the automatically driven vehicle 1, it is necessary to allocate an operator to each automatically driven vehicle 1 to constantly monitor it. This is not realistic in terms of personnel and communication costs.

図5に示されるように、自動運転車両1は、複数のカメラ22と複数のマイク24を備えていてもよい。例えば、複数のカメラ22と複数のマイク24は、自動運転車両1のルーフに搭載されている。複数のマイク24のそれぞれの指向方向は、複数のカメラ22のそれぞれの視野方向と一致していてもよい。図5に示される例では、6個のカメラ22-1~22-6と6個のマイク24-1~24-6が、自動運転車両1の全周をカバーするように配置されている。 As shown in FIG. 5 , the autonomous vehicle 1 may have multiple cameras 22 and multiple microphones 24 . For example, multiple cameras 22 and multiple microphones 24 are mounted on the roof of the self-driving vehicle 1 . The pointing direction of each of the multiple microphones 24 may match the viewing direction of each of the multiple cameras 22 . In the example shown in FIG. 5, six cameras 22-1 to 22-6 and six microphones 24-1 to 24-6 are arranged so as to cover the entire circumference of the self-driving vehicle 1. In the example shown in FIG.

自動運転車両1は、複数のマイク24による音声の検出結果に基づいて、警笛音の吹鳴方向を推定してもよい。その場合、自動運転車両1は、複数のカメラ22によって撮像された複数の画像IMGのうち吹鳴方向に対応する画像IMGを選択し、選択した画像IMGだけを遠隔支援システム100にアップロードすることができる。図5に示される例では、マイク24-2に対応するカメラ22-2によって撮像された画像IMGが遠隔支援システム100にアップロードされる。 The autonomous vehicle 1 may estimate the direction in which the horn sounds based on the sound detection results from the multiple microphones 24 . In that case, the automatic driving vehicle 1 can select an image IMG corresponding to the sounding direction from among the plurality of images IMG captured by the plurality of cameras 22, and upload only the selected image IMG to the remote support system 100. . In the example shown in FIG. 5, an image IMG captured by camera 22-2 corresponding to microphone 24-2 is uploaded to remote assistance system 100. In the example shown in FIG.

吹鳴方向の画像IMGを選択的にアップロードすることにより、複数方向の画像IMGを全てアップロードする場合と比較して、通信量、通信時間、及び通信コストを削減することが可能となる。通信量が減るため、輻輳制御による画質低下は発生しにくい。また、同時にアップロードする画像IMGが減ることは、低遅延での画像伝送が可能となることを意味する。すなわち、高画質の画像IMGが低遅延で遠隔支援システム100の表示装置120に表示される。その結果、画像IMGの視認性及びリアルタイム性が十分に確保され、オペレータは自動運転車両1の周囲の状況を正しく把握することが可能となる。更に、吹鳴方向の画像IMGには交通誘導員TGが映っている可能性が高いため、オペレータは交通誘導員TGの様子を効率的に把握することができる。 By selectively uploading the image IMG in the blowing direction, it is possible to reduce the amount of communication, the communication time, and the communication cost compared to uploading all the images IMG in a plurality of directions. Since the amount of communication is reduced, image quality degradation due to congestion control is less likely to occur. In addition, reduction in the number of images IMG to be uploaded at the same time means that image transmission with low delay becomes possible. That is, the high-quality image IMG is displayed on the display device 120 of the remote support system 100 with low delay. As a result, the visibility and real-time performance of the image IMG are sufficiently ensured, and the operator can correctly grasp the situation around the automatic driving vehicle 1 . Furthermore, since there is a high possibility that the traffic director TG is shown in the image IMG in the direction of the sound, the operator can efficiently grasp the state of the traffic director TG.

3.自動運転システム
3-1.構成例
図6は、本実施の形態に係る自動運転車両1に搭載されている自動運転システム10の構成例を示すブロック図である。自動運転システム10は、センサ群20、通信装置30、走行装置40、及び制御装置50を含んでいる。センサ群20は、認識センサ21、車両状態センサ23、及び少なくとも1つのマイク24を含んでいる。
3. Automatic driving system 3-1. Configuration Example FIG. 6 is a block diagram showing a configuration example of the automatic driving system 10 installed in the automatic driving vehicle 1 according to the present embodiment. The automatic driving system 10 includes a sensor group 20 , a communication device 30 , a traveling device 40 and a control device 50 . Sensor group 20 includes recognition sensor 21 , vehicle state sensor 23 , and at least one microphone 24 .

認識センサ21は、自動運転車両1の周囲の状況を認識(検出)する。認識センサ21は、少なくとも1つのカメラ22を含んでいる。カメラ22は、自動運転車両1の周囲の状況を撮像し、自動運転車両1の周囲の画像IMGを取得する。画像IMGは、典型的には動画であるが、静止画像であってもよい。認識センサ21は、その他に、LIDAR(Laser Imaging Detection and Ranging)、レーダ、等を含んでいてもよい。 The recognition sensor 21 recognizes (detects) the circumstances around the automatically driven vehicle 1 . Recognition sensor 21 includes at least one camera 22 . The camera 22 captures the surroundings of the automatically driven vehicle 1 and acquires an image IMG of the surroundings of the automatically driven vehicle 1 . The image IMG is typically a moving image, but may be a still image. The recognition sensor 21 may also include LIDAR (Laser Imaging Detection and Ranging), radar, and the like.

車両状態センサ23は、自動運転車両1の位置及び状態を検出する。例えば、車両状態センサ23は、GPS(Global Positioning System)センサ、車速センサ、加速度センサ、ヨーレートセンサ、舵角センサ、等を含んでいる。 A vehicle state sensor 23 detects the position and state of the automatically driven vehicle 1 . For example, the vehicle state sensor 23 includes a GPS (Global Positioning System) sensor, vehicle speed sensor, acceleration sensor, yaw rate sensor, steering angle sensor, and the like.

マイク24は、自動運転車両1の周囲の音声を検出する。 The microphone 24 detects sounds around the automatic driving vehicle 1 .

通信装置30は、自動運転車両1の外部と通信を行う。例えば、通信装置30は、遠隔支援システム100と通信を行う。 The communication device 30 communicates with the outside of the automatic driving vehicle 1 . For example, the communication device 30 communicates with the remote support system 100 .

走行装置40は、操舵装置、駆動装置、及び制動装置を含んでいる。操舵装置は、自動運転車両1の車輪を転舵する。例えば、操舵装置は、パワーステアリング(EPS: Electric Power Steering)装置を含んでいる。駆動装置は、駆動力を発生させる動力源である。駆動装置としては、エンジン、電動機、インホイールモータ、等が例示される。制動装置は、制動力を発生させる。 The traveling device 40 includes a steering device, a driving device, and a braking device. The steering device steers the wheels of the automatic driving vehicle 1 . For example, the steering system includes a power steering (EPS: Electric Power Steering) system. A driving device is a power source that generates a driving force. An engine, an electric motor, an in-wheel motor, etc. are illustrated as a drive device. A braking device generates a braking force.

制御装置50は、自動運転車両1を制御する。制御装置50は、1又は複数のプロセッサ51(以下、単にプロセッサ51と呼ぶ)と1又は複数の記憶装置52(以下、単に記憶装置52と呼ぶ)を含んでいる。プロセッサ51は、各種処理を実行する。例えば、プロセッサ51は、CPU(Central Processing Unit)を含んでいる。記憶装置52は、各種情報を格納する。記憶装置52としては、揮発性メモリ、不揮発性メモリ、HDD(Hard Disk Drive)、SSD(Solid State Drive)、等が例示される。プロセッサ51がコンピュータプログラムである自動運転プログラム60を実行することにより、制御装置50による各種処理が実現される。自動運転プログラム60は、記憶装置52に格納されている、あるいは、コンピュータ読み取り可能な記録媒体に記録されている。制御装置50は、1又は複数のECU(Electronic Control Unit)を含んでいてもよい。制御装置50の一部は、自動運転車両1の外部の情報処理装置であってもよい。その場合、制御装置50の一部は、自動運転車両1と通信を行い、自動運転車両1をリモートで制御する。 The control device 50 controls the automatic driving vehicle 1 . The control device 50 includes one or more processors 51 (hereinafter simply referred to as processors 51) and one or more storage devices 52 (hereinafter simply referred to as storage devices 52). The processor 51 executes various processes. For example, the processor 51 includes a CPU (Central Processing Unit). The storage device 52 stores various information. Examples of the storage device 52 include a volatile memory, a nonvolatile memory, a HDD (Hard Disk Drive), an SSD (Solid State Drive), and the like. Various processes by the control device 50 are realized by the processor 51 executing the automatic driving program 60, which is a computer program. The automatic driving program 60 is stored in the storage device 52 or recorded in a computer-readable recording medium. The control device 50 may include one or more ECUs (Electronic Control Units). A part of the control device 50 may be an information processing device outside the automatic driving vehicle 1 . In that case, part of the control device 50 communicates with the automatically driven vehicle 1 and remotely controls the automatically driven vehicle 1 .

3-2.情報取得処理
プロセッサ51は、自動運転車両1の運転環境を示す運転環境情報70を取得する。運転環境情報70は、記憶装置52に格納される。
3-2. Information Acquisition Processing The processor 51 acquires the driving environment information 70 indicating the driving environment of the automatically driven vehicle 1 . The driving environment information 70 is stored in the storage device 52 .

図7は、運転環境情報70の例を示すブロック図である。運転環境情報70は、周辺状況情報71、車両状態情報73、音声情報74、及び地図情報75を含んでいる。 FIG. 7 is a block diagram showing an example of the driving environment information 70. As shown in FIG. The driving environment information 70 includes surrounding situation information 71 , vehicle state information 73 , voice information 74 and map information 75 .

周辺状況情報71は、自動運転車両1の周囲の状況を示す情報である。周辺状況情報71は、認識センサ21によって得られる情報を含む。例えば、周辺状況情報71は、カメラ22によって撮像される画像IMGを示す画像情報72を含んでいる。他の例として、周辺状況情報71は、LIDARやレーダによって計測される計測情報を含む。 The surrounding situation information 71 is information indicating the surrounding situation of the automatic driving vehicle 1 . The surrounding situation information 71 includes information obtained by the recognition sensor 21 . For example, the surrounding situation information 71 includes image information 72 indicating an image IMG captured by the camera 22 . As another example, the surrounding situation information 71 includes measurement information measured by LIDAR or radar.

また、周辺状況情報71は、自動運転車両1の周辺の物体に関する物体情報を含んでいる。自動運転車両1の周辺の物体としては、人物(歩行者等)、他車両(先行車両、駐車車両、等)、標識、白線、障害物、等が例示される。物体情報は、自動運転車両1に対する物体の相対位置及び相対速度を示す。例えば、カメラ22によって得られた画像情報72を解析することによって、物体を識別し、その物体の相対位置を算出することができる。また、LIDARやレーダによる計測情報に基づいて、物体を識別し、その物体の相対位置及び相対速度を算出することもできる。 In addition, the peripheral situation information 71 includes object information related to objects around the automatic driving vehicle 1 . Examples of objects around the automatic driving vehicle 1 include people (pedestrians, etc.), other vehicles (preceding vehicles, parked vehicles, etc.), signs, white lines, obstacles, and the like. The object information indicates the relative position and relative speed of the object with respect to the automatic driving vehicle 1 . For example, by analyzing the image information 72 obtained by the camera 22, an object can be identified and the relative position of the object can be calculated. It is also possible to identify an object and calculate the relative position and relative velocity of the object based on the information measured by LIDAR or radar.

車両状態情報73は、自動運転車両1の位置及び状態を示す情報である。プロセッサ51は、車両状態センサ23による検出結果から車両状態情報73を取得する。 The vehicle state information 73 is information indicating the position and state of the automatically driven vehicle 1 . The processor 51 acquires vehicle state information 73 from the detection result of the vehicle state sensor 23 .

音声情報74は、マイク24によって検出される音声を示す。 Audio information 74 indicates the audio detected by microphone 24 .

地図情報75は、レーン配置、道路形状、等を示す。プロセッサ51は、地図データベースから、必要なエリアの地図情報を取得する。地図データベースは、自動運転車両1に搭載されている所定の記憶装置に格納されていてもよいし、自動運転車両1の外部の管理サーバに格納されていてもよい。後者の場合、プロセッサ51は、管理サーバと通信を行い、必要な地図情報を取得する。 The map information 75 indicates lane layout, road shape, and the like. The processor 51 acquires the map information of the required area from the map database. The map database may be stored in a predetermined storage device mounted on the automatic driving vehicle 1 or may be stored in a management server outside the automatic driving vehicle 1 . In the latter case, the processor 51 communicates with the management server to acquire the necessary map information.

3-3.通信処理
プロセッサ51は、通信装置30を介して遠隔支援システム100と通信を行う。例えば、プロセッサ51は、必要に応じて、運転環境情報70の少なくとも一部を遠隔支援システム100に送信する。特に、オペレータによる遠隔支援が必要な場合、プロセッサ51は、画像情報72や車両状態情報73を遠隔支援システム100に送信する。また、プロセッサ51は、オペレータ指示INSを遠隔支援システム100から受信する。
3-3. Communication Processing The processor 51 communicates with the remote support system 100 via the communication device 30 . For example, the processor 51 transmits at least part of the driving environment information 70 to the remote assistance system 100 as required. In particular, the processor 51 transmits the image information 72 and the vehicle state information 73 to the remote support system 100 when remote support by the operator is required. Processor 51 also receives operator instructions INS from remote assistance system 100 .

3-4.車両走行制御
プロセッサ51は、自動運転車両1の走行を制御する「車両走行制御」を実行する。車両走行制御は、操舵制御、加速制御、及び減速制御を含む。プロセッサ51は、走行装置40を制御することによって車両走行制御を実行する。具体的には、プロセッサ51は、操舵装置を制御することによって操舵制御を実行する。また、プロセッサ51は、駆動装置を制御することによって加速制御を実行する。また、プロセッサ51は、制動装置を制御することによって減速制御を実行する。
3-4. Vehicle Driving Control The processor 51 executes “vehicle driving control” for controlling driving of the automatically driven vehicle 1 . Vehicle running control includes steering control, acceleration control, and deceleration control. Processor 51 executes vehicle travel control by controlling travel device 40 . Specifically, the processor 51 performs steering control by controlling the steering device. Processor 51 also performs acceleration control by controlling the drive device. The processor 51 also executes deceleration control by controlling the braking device.

また、プロセッサ51は、自動運転車両1の自動運転を制御する「自動運転制御」を実行する。具体的には、プロセッサ51は、運転環境情報70に基づいて、自動運転車両1の走行プランを生成し、走行プランに従って走行するための目標トラジェクトリを生成する。目標トラジェクトリは、目標位置及び目標速度を含む。そして、プロセッサ51は、自動運転車両1が目標トラジェクトリに追従するように車両走行制御を実行する。 The processor 51 also executes “automatic driving control” for controlling automatic driving of the autonomous vehicle 1 . Specifically, the processor 51 generates a driving plan for the automatically driven vehicle 1 based on the driving environment information 70, and generates a target trajectory for driving according to the driving plan. A target trajectory includes a target position and a target velocity. Then, the processor 51 executes vehicle travel control so that the automatically driven vehicle 1 follows the target trajectory.

遠隔支援システム100からオペレータ指示INSを受け取った場合、プロセッサ51は、オペレータ指示INSに従って車両走行制御を実行する。 When receiving an operator instruction INS from the remote support system 100, the processor 51 executes vehicle travel control according to the operator instruction INS.

3-5.予備通知処理に関連する処理
以下、本実施の形態に係る自動運転システム10による予備通知処理に関連する処理を説明する。
3-5. Processing Related to Preliminary Notification Processing Processing related to preliminary notification processing by the automatic driving system 10 according to the present embodiment will be described below.

3-5-1.第1の例
図8は、予備通知処理に関連する処理の第1の例を示すフローチャートである。
3-5-1. First Example FIG. 8 is a flow chart showing a first example of processing related to preliminary notification processing.

ステップS10において、プロセッサ51は、予備通知条件が成立するか否かを判定する「予備通知条件判定処理」を行う。予備通知条件は、予備通知処理を実行するための条件である。第1の例では、予備通知条件は、警笛音が検出されることである。そのため、プロセッサ51は、ステップS11において「警笛音検出処理」を行う。警笛音検出処理は、マイク24により得られる音声情報74に基づいて、警笛音の検出を行い、警笛音が検出されたか否かを判定する。 In step S10, the processor 51 performs a "preliminary notification condition determination process" for determining whether or not the preliminary notification condition is satisfied. The preliminary notification condition is a condition for executing preliminary notification processing. In a first example, the preliminary notification condition is that a horn is detected. Therefore, the processor 51 performs a "horn sound detection process" in step S11. The horn detection process detects a horn based on the voice information 74 obtained by the microphone 24, and determines whether or not the horn has been detected.

図9は、警笛音検出処理(ステップS11)の一例を示すフローチャートである。ステップS11aにおいて、プロセッサ51は、マイク24によって検出される音声を示す音声情報74を取得する。ステップS11bにおいて、プロセッサ51は、バンドパスフィルタを用いてフィルタリングを行い、一般的な警笛音の周波数を含む特定周波数帯の音声を抽出する。プロセッサ51は、予めサンプリングされた車両走行音等の定常ノイズを除去してもよい。 FIG. 9 is a flow chart showing an example of the horn detection process (step S11). In step S11a, processor 51 obtains audio information 74 indicative of the audio detected by microphone 24. FIG. In step S11b, the processor 51 performs filtering using a band-pass filter to extract sounds in specific frequency bands including frequencies of general horn sounds. The processor 51 may remove stationary noise such as pre-sampled vehicle running noise.

ステップS11cにおいて、プロセッサ51は、特定周波数帯の音声の音圧レベルが閾値以上であるか否かを判定する。特定周波数帯の音声の音圧レベルが閾値未満である場合(ステップS11c;No)、プロセッサ51は、警笛音は検出されていないと判定する(ステップS11;No)。一方、特定周波数帯の音声の音圧レベルが閾値以上である場合(ステップS11c;Yes)、処理は、ステップS11dに進む。 In step S11c, the processor 51 determines whether or not the sound pressure level of the sound in the specific frequency band is equal to or higher than the threshold. If the sound pressure level of the sound in the specific frequency band is less than the threshold (step S11c; No), the processor 51 determines that no alarm has been detected (step S11; No). On the other hand, if the sound pressure level of the sound in the specific frequency band is equal to or higher than the threshold (step S11c; Yes), the process proceeds to step S11d.

ステップS11dにおいて、プロセッサ51は、特定周波数帯の音声に対してパターン解析を行う。具体的には、プロセッサ51は、一般的な交通誘導の警笛音の吹鳴パターンと類似する波形を取り出し、振幅増大及び波形整形を行う。更に、プロセッサ51は、一般的な交通誘導の警笛音の吹鳴パターンとの類似度を算出する。類似度が閾値以上である場合(ステップS11e;Yes)、プロセッサ51は、警笛音が検出されたと判定する(ステップS11;Yes)。一方、類似度が閾値未満である場合(ステップS11e;No)、プロセッサ51は、警笛音は検出されていないと判定する(ステップS11;No)。 In step S11d, the processor 51 performs pattern analysis on the sound in the specific frequency band. Specifically, the processor 51 extracts a waveform similar to the sounding pattern of a general traffic whistle, and increases the amplitude and shapes the waveform. Furthermore, the processor 51 calculates the degree of similarity with the sounding pattern of a general traffic guidance horn. If the degree of similarity is greater than or equal to the threshold (step S11e; Yes), the processor 51 determines that the alarm has been detected (step S11; Yes). On the other hand, if the degree of similarity is less than the threshold (step S11e; No), the processor 51 determines that no horn has been detected (step S11; No).

予備通知条件が成立する場合(ステップS10;Yes)、処理は、ステップS20に進む。それ以外の場合(ステップS10;No)、今回のサイクルにおける処理は終了する。 If the preliminary notification condition is satisfied (step S10; Yes), the process proceeds to step S20. Otherwise (step S10; No), the process in this cycle ends.

ステップS20において、プロセッサ51は、「予備通知処理」を行う。具体的には、プロセッサ51は、通信装置30を介して遠隔支援システム100と通信を行い、予備通知PREを遠隔支援システム100に送信する。特に、プロセッサ51は、カメラ22によって得られた画像情報72を遠隔支援システム100に送信(アップロード)する(ステップS21)。それに加えて、プロセッサ51は、車両状態情報73を遠隔支援システム100に送信してもよい。この予備通知処理により、オペレータは遠隔支援のスタンバイを早期に行うことが可能となる。 In step S20, the processor 51 performs a "preliminary notification process". Specifically, the processor 51 communicates with the remote support system 100 via the communication device 30 and transmits the preliminary notification PRE to the remote support system 100 . In particular, the processor 51 transmits (uploads) the image information 72 obtained by the camera 22 to the remote support system 100 (step S21). Additionally, processor 51 may transmit vehicle status information 73 to remote assistance system 100 . This pre-notification processing enables the operator to perform remote support standby early.

3-5-2.第2の例
図10は、予備通知処理に関連する処理の第2の例を示すフローチャートである。上記の第1の例と重複する説明は適宜省略する。第2の例では、自動運転車両1は、図5で示されたように複数のカメラ22と複数のマイク24を備えている。
3-5-2. Second Example FIG. 10 is a flow chart showing a second example of processing related to preliminary notification processing. Explanations that overlap with the first example will be omitted as appropriate. In a second example, the self-driving vehicle 1 comprises multiple cameras 22 and multiple microphones 24 as shown in FIG.

警笛音が検出された場合(ステップS11;Yes)、処理は、ステップS12に進む。ステップS12において、プロセッサ51は、警笛音の吹鳴方向を推定する「吹鳴方向推定処理」を行う。吹鳴方向推定処理は、複数のマイク24による音声の検出結果、つまり、複数のマイク24のそれぞれにより得られる音声情報74に基づいて行われる。 If the horn is detected (step S11; Yes), the process proceeds to step S12. In step S12, the processor 51 performs a "sounding direction estimation process" for estimating the sounding direction of the horn. The sounding direction estimation process is performed based on the sound detection results from the multiple microphones 24 , that is, the sound information 74 obtained from each of the multiple microphones 24 .

図11は、吹鳴方向推定処理(ステップS12)を説明するためのタイミングチャートである。縦軸は音圧を表し、横軸は時間を表している。図11には、複数のマイク24-1~24-6のそれぞれによって検出された音声の信号波形が示されている。尚、この信号波形は、図9中のステップS11b、S11cの処理が行われた後のものである。音圧の大きさと音声信号の立ち上がり時間に基づいて、警笛音の吹鳴方向を精度良く推定することができる。図11に示される例では、音圧が大きく立ち上がり時間が最も早い音声信号が得られたマイク24-2の方向が、警笛音の吹鳴方向に最も近いと判定される。 FIG. 11 is a timing chart for explaining the blowing direction estimation process (step S12). The vertical axis represents sound pressure and the horizontal axis represents time. FIG. 11 shows signal waveforms of voices detected by each of the plurality of microphones 24-1 to 24-6. This signal waveform is obtained after the processing of steps S11b and S11c in FIG. 9 has been performed. Based on the magnitude of the sound pressure and the rising time of the audio signal, it is possible to accurately estimate the blowing direction of the horn sound. In the example shown in FIG. 11, the direction of the microphone 24-2 from which an audio signal with the highest sound pressure and the fastest rising time is obtained is determined to be closest to the blowing direction of the horn.

その後の予備通知処理(ステップS20)において、プロセッサ51は、複数のカメラ22によって撮像された複数の画像IMGのうち吹鳴方向に対応する画像IMGを選択し、選択した画像IMGだけを遠隔支援システム100にアップロードする(ステップS22)。図11の例では、マイク24-2に対応するカメラ22-2によって撮像された画像IMGが選択的にアップロードされる。 In subsequent preliminary notification processing (step S20), the processor 51 selects an image IMG corresponding to the blowing direction from among the plurality of images IMG captured by the plurality of cameras 22, and sends only the selected image IMG to the remote support system 100. (step S22). In the example of FIG. 11, an image IMG captured by camera 22-2 corresponding to microphone 24-2 is selectively uploaded.

吹鳴方向の画像IMGを選択的にアップロードすることにより、複数方向の画像IMGを全てアップロードする場合と比較して、通信量、通信時間、及び通信コストを削減することが可能となる。通信量が減るため、輻輳制御による画質低下は発生しにくい。また、同時にアップロードする画像IMGが減ることは、低遅延での画像伝送が可能となることを意味する。すなわち、高画質の画像IMGが低遅延で遠隔支援システム100の表示装置120に表示される。その結果、画像IMGの視認性及びリアルタイム性が十分に確保され、オペレータは自動運転車両1の周囲の状況を正しく把握することが可能となる。更に、吹鳴方向の画像IMGには交通誘導員TGが映っている可能性が高いため、オペレータは交通誘導員TGの様子を効率的に把握することができる。 By selectively uploading the image IMG in the blowing direction, it is possible to reduce the amount of communication, the communication time, and the communication cost compared to uploading all the images IMG in a plurality of directions. Since the amount of communication is reduced, image quality degradation due to congestion control is less likely to occur. In addition, reduction in the number of images IMG to be uploaded at the same time means that image transmission with low delay becomes possible. That is, the high-quality image IMG is displayed on the display device 120 of the remote support system 100 with low delay. As a result, the visibility and real-time performance of the image IMG are sufficiently ensured, and the operator can correctly grasp the situation around the automatic driving vehicle 1 . Furthermore, since there is a high possibility that the traffic director TG is shown in the image IMG in the direction of the sound, the operator can efficiently grasp the state of the traffic director TG.

3-5-3.第3の例
図12は、予備通知処理に関連する処理の第3の例を示すフローチャートである。上記の第1及び第2の例と重複する説明は適宜省略する。
3-5-3. Third Example FIG. 12 is a flow chart showing a third example of processing related to preliminary notification processing. Explanations that overlap with the above first and second examples will be omitted as appropriate.

第3の例では、予備通知条件は、「警笛音が検出され、且つ、警笛音の吹鳴方向に人が認識されること」である。そのために、プロセッサ51は、吹鳴方向推定処理(ステップS12)に続いて、人物認識処理(ステップS13)を行う。より詳細には、プロセッサ51は、吹鳴方向に対応する画像IMGを解析して、吹鳴方向に対応する画像IMGに“人”が映っているか否かを判定する。この段階では、交通誘導員が映っているかまで見極める必要はない。人物認識(画像解析)の手法は公知である。尚、単純な人物認識は、交通誘導員の認識に比べてはるかに容易且つ正確に行うことができる。 In a third example, the preliminary notification condition is "a horn is detected and a person is recognized in the direction of the horn". For this purpose, the processor 51 performs person recognition processing (step S13) following sounding direction estimation processing (step S12). More specifically, the processor 51 analyzes the image IMG corresponding to the blowing direction and determines whether or not the image IMG corresponding to the blowing direction shows a "person". At this stage, it is not necessary to ascertain whether or not the traffic director is shown. Techniques for person recognition (image analysis) are known. It should be noted that simple person recognition can be performed much more easily and accurately than recognition of a traffic director.

吹鳴方向に対応する画像IMGに人が映っている場合(ステップS13;Yes)、予備通知条件が成立する(ステップS10;Yes)。そして、処理は、上記の予備通知処理(ステップS20)に進む。一方、吹鳴方向に対応する画像IMGに人が映っていない場合(ステップS13;No)、予備通知条件は成立せず(ステップS10;No)、予備通知処理(ステップS20)は行われない。 If a person appears in the image IMG corresponding to the sound direction (step S13; Yes), the preliminary notification condition is established (step S10; Yes). Then, the process proceeds to the preliminary notification process (step S20). On the other hand, if no person is shown in the image IMG corresponding to the sounding direction (step S13; No), the preliminary notification condition is not satisfied (step S10; No), and preliminary notification processing (step S20) is not performed.

以上に説明されたように、第3の例によれば、警笛音が検出され、且つ、警笛音の吹鳴方向に人が認識された場合に、予備通知処理が行われる。これは、警笛音検出処理(ステップS11)の精度の向上と等価である。警笛音の検出精度が向上するため、予備通知処理が不必要に行われることが抑制される。また、遠隔支援システム100にアップロードされる画像IMGに交通誘導員TGが映っている可能性が更に高くなる。これらのことは、予備通知処理の精度の向上を意味する。 As described above, according to the third example, preliminary notification processing is performed when a horn is detected and a person is recognized in the blowing direction of the horn. This is equivalent to improving the accuracy of the horn detection process (step S11). Since the detection accuracy of the warning whistle is improved, unnecessary execution of the preliminary notification process is suppressed. Moreover, the possibility that the traffic director TG is shown in the image IMG uploaded to the remote support system 100 is further increased. These things mean an improvement in the accuracy of preliminary notification processing.

3-6.遠隔支援要求処理
以下、本実施の形態に係る自動運転システム10による遠隔支援要求処理に関連する処理を説明する。図13は、遠隔支援要求処理に関連する処理の一例を示すフローチャートである。
3-6. Remote Assistance Request Processing Processing related to remote assistance request processing by the automatic driving system 10 according to the present embodiment will be described below. FIG. 13 is a flowchart illustrating an example of processing related to remote support request processing.

ステップS30において、プロセッサ51は、自動運転車両1の周囲に交通誘導員TGが存在するか否かを判定する「交通誘導員認識処理」を行う。より詳細には、プロセッサ51は、画像情報72で示される画像IMGを解析して、画像IMGに交通誘導員TGが映っているか否かを判定する。上記の吹鳴方向推定処理(ステップS12)が既に行われている場合、プロセッサ51は、吹鳴方向に対応する画像IMGを解析して、吹鳴方向に対応する画像IMGに交通誘導員TGが映っているか否かを判定してもよい。 In step S<b>30 , the processor 51 performs “traffic guide recognition processing” for determining whether or not a traffic guide TG exists around the automatically driven vehicle 1 . More specifically, the processor 51 analyzes the image IMG indicated by the image information 72 and determines whether or not the traffic director TG is shown in the image IMG. If the blast direction estimation process (step S12) has already been performed, the processor 51 analyzes the image IMG corresponding to the blast direction and determines whether the traffic director TG is shown in the image IMG corresponding to the blast direction. It may be determined whether

図14は、交通誘導員認識処理(ステップS30)を説明するための概念図である。交通誘導員TGは、誘導棒GSを持っている。その誘導棒GSが交通誘導員TGの外見的特徴の一つとして考慮される。それに加えて、交通誘導員TGの服装(安全ベスト等)が外見的特徴として考慮されてもよい。また、誘導棒GSを用いた誘導動作が、動作的特徴として考慮されてもよい。このような交通誘導員TGの特徴が検出されるか否かに基づいて、画像IMGに交通誘導員TGが映っているか否かが判定される。 FIG. 14 is a conceptual diagram for explaining the traffic guide recognition process (step S30). A traffic guide TG has a guide rod GS. The guide rod GS is considered as one of the appearance features of the traffic director TG. Additionally, the attire of the traffic director TG (safety vest, etc.) may be considered as an appearance feature. Guidance using the guide rod GS may also be considered as an operational feature. Based on whether or not such characteristics of the traffic director TG are detected, it is determined whether or not the traffic director TG is shown in the image IMG.

上記の吹鳴方向推定処理(ステップS12)が既に行われている場合、プロセッサ51は、吹鳴方向に対応する画像IMGに交通誘導員TGが映っているか否かを判定してもよい。これにより、交通誘導員認識処理を効率的に行うことができる。つまり、吹鳴方向を考慮することによって、交通誘導員TGの認識効率及び認識精度が向上する。また、これにより、交通誘導員認識処理に要する処理負荷及び処理時間も軽減される。 When the sound direction estimation process (step S12) has already been performed, the processor 51 may determine whether or not the traffic director TG is shown in the image IMG corresponding to the sound direction. As a result, the traffic guide recognition process can be performed efficiently. In other words, the recognition efficiency and recognition accuracy of the traffic guide TG are improved by considering the sound direction. This also reduces the processing load and processing time required for traffic guide recognition processing.

画像IMGに交通誘導員TGが存在すると判定された場合、すなわち、交通誘導員TGが認識された場合(ステップS30;Yes)、処理は、ステップS40に進む。それ以外の場合、処理は、ステップS80に進む。 If it is determined that the traffic guide TG exists in the image IMG, that is, if the traffic guide TG is recognized (step S30; Yes), the process proceeds to step S40. Otherwise, the process proceeds to step S80.

ステップS40において、プロセッサ51は、自動運転車両1の自動運転が可能か否かを判定する。つまり、プロセッサ51は、交通誘導員TGによる誘導指示に遠隔支援無しで対応することができるか否かを判定する。例えば、交通誘導員TGによる誘導指示に従うためには、画像IMGを解析することによって誘導指示を認識し、その内容を理解する必要がある。交通誘導員TGによる誘導指示を認識あるいは理解することができない場合、プロセッサ51は、自動運転が可能ではない(自動運転の継続が困難である)と判定する。 In step S40, the processor 51 determines whether or not the automatic driving vehicle 1 can be automatically driven. That is, the processor 51 determines whether or not it is possible to respond to the guidance instruction from the traffic guide TG without remote assistance. For example, in order to follow a guidance instruction by a traffic guide TG, it is necessary to recognize the guidance instruction by analyzing the image IMG and understand its contents. If the guidance instruction by the traffic guide TG cannot be recognized or understood, the processor 51 determines that automatic driving is not possible (continuation of automatic driving is difficult).

自動運転が可能ではないと判定された場合(ステップS40;No)、処理は、ステップS50に進む。一方、自動運転が可能であると判定された場合(ステップS40;Yes)、処理は、ステップS80に進む。 If it is determined that automatic driving is not possible (step S40; No), the process proceeds to step S50. On the other hand, if it is determined that automatic driving is possible (step S40; Yes), the process proceeds to step S80.

ステップS50において、プロセッサ51は、遠隔支援要求処理を行う。具体的には、プロセッサ51は、通信装置30を介して遠隔支援システム100と通信を行い、遠隔支援要求REQを遠隔支援システム100に送信する。プロセッサ51は、遠隔支援要求REQと共に、遠隔支援に必要な運転環境情報70を遠隔支援システム100に送る。遠隔支援に必要な運転環境情報70は、少なくとも、カメラ22によって得られた画像情報72を含む。また、プロセッサ51は、遠隔支援要求REQが発生する前の一定期間における画像情報72を送ってもよい。その他、プロセッサ51は、必要な車両状態情報73等を遠隔支援システム100に送ってもよい。 In step S50, the processor 51 performs remote support request processing. Specifically, the processor 51 communicates with the remote support system 100 via the communication device 30 and transmits a remote support request REQ to the remote support system 100 . The processor 51 sends the operating environment information 70 required for remote assistance to the remote assistance system 100 together with the remote assistance request REQ. Driving environment information 70 required for remote assistance includes at least image information 72 obtained by camera 22 . Processor 51 may also send image information 72 for a period of time before the remote assistance request REQ is generated. In addition, the processor 51 may send necessary vehicle state information 73 and the like to the remote support system 100 .

ステップS50の後のステップS60において、プロセッサ51は、通信装置30を介して、遠隔支援システム100からオペレータ指示INSを受信する。オペレータ指示INSは、オペレータによる遠隔支援の内容を示す。 At step S60 after step S50, the processor 51 receives an operator instruction INS from the remote support system 100 via the communication device 30. FIG. The operator instruction INS indicates the content of remote support by the operator.

ステップS70において、プロセッサ51は、オペレータ指示INSに従って車両走行制御を実行する。 In step S70, the processor 51 executes vehicle travel control according to the operator instruction INS.

ステップS80において、プロセッサ51は、自動運転制御を継続する。 In step S80, the processor 51 continues automatic operation control.

3-7.通過後の処理
自動運転車両1は、交通誘導員TGによる誘導指示に対処した後、交通誘導員TGの位置を通り過ぎる。その後、交通誘導員TGは、後続車両を誘導するために警笛WHを鳴らす可能性がある。後続車両に対する警笛音に誤って反応しないために、プロセッサ51は、交通誘導員TGによる誘導指示に対処している最中に、対処履歴情報を記憶装置52に記録してもよい。対処履歴情報は、誘導指示に自動運転あるいは遠隔支援によって対処した位置を含む。対処履歴情報は、警笛音の吹鳴方向及び/あるいは交通誘導員TGの認識位置を含んでいてもよい。
3-7. Processing after Passing The automatically driven vehicle 1 passes the position of the traffic director TG after responding to the guidance instruction from the traffic director TG. After that, the traffic director TG may sound the horn WH to guide the following vehicles. In order not to erroneously react to the sound of the horn to the following vehicle, the processor 51 may record the handling history information in the storage device 52 while handling the guidance instruction by the traffic guide TG. The coping history information includes positions where guidance instructions are coping with automatic driving or remote assistance. The countermeasure history information may include the sounding direction of the horn and/or the recognized position of the traffic director TG.

交通誘導員TGによる誘導指示に対処した後、新たに警笛音が検出された場合、プロセッサ51は、対処履歴情報、車両位置、及び新たな警笛音の吹鳴方向に基づいて、その新たな警笛音が後続車両に対するものか否かを判定する。新たな警笛音が後続車両に対するものである場合、プロセッサ51は、予備通知処理を行わない。これにより、不必要な予備通知処理が防止される。 When a new horn sound is detected after handling the guidance instruction by the traffic guide TG, the processor 51 generates the new horn sound based on the handling history information, the vehicle position, and the direction of the new horn sound. is for the following vehicle. If the new horn is for a following vehicle, processor 51 does not perform preliminary notification processing. This prevents unnecessary preliminary notification processing.

4.遠隔支援システム
図15は、本実施の形態に係る遠隔支援システム100の構成例を示すブロック図である。遠隔支援システム100は、通信装置110、表示装置120、入力装置130、及び情報処理装置150を含んでいる。
4. Remote Support System FIG. 15 is a block diagram showing a configuration example of a remote support system 100 according to this embodiment. The remote support system 100 includes a communication device 110 , a display device 120 , an input device 130 and an information processing device 150 .

通信装置110は、外部との通信を行う。例えば、通信装置110は、自動運転車両1と通信を行う。 The communication device 110 communicates with the outside. For example, the communication device 110 communicates with the autonomous vehicle 1 .

表示装置120は、各種情報を表示する。表示装置120としては、液晶ディスプレイ、有機ELディスプレイ、ヘッドマウントディスプレイ、タッチパネル、等が例示される。
入力装置130は、オペレータからの入力を受け付けるためのインタフェースである。入力装置130としては、タッチパネル、キーボード、マウス、等が例示される。また、遠隔支援が遠隔運転である場合、入力装置130は、オペレータが運転操作(操舵、加速、及び減速)を行うための運転操作部材を含む。
The display device 120 displays various information. Examples of the display device 120 include a liquid crystal display, an organic EL display, a head-mounted display, a touch panel, and the like.
The input device 130 is an interface for receiving input from an operator. Examples of the input device 130 include a touch panel, keyboard, mouse, and the like. Further, when the remote support is remote driving, the input device 130 includes driving operation members for the operator to perform driving operations (steering, acceleration, and deceleration).

情報処理装置150は、各種情報処理を行う。情報処理装置150は、1又は複数のプロセッサ151(以下、単にプロセッサ151と呼ぶ)と1又は複数の記憶装置152(以下、単に記憶装置152と呼ぶ)を含んでいる。プロセッサ151は、各種処理を実行する。例えば、プロセッサ151は、CPUを含んでいる。記憶装置152は、各種情報を格納する。記憶装置152としては、揮発性メモリ、不揮発性メモリ、HDD、SSD、等が例示される。プロセッサ151がコンピュータプログラムである遠隔支援プログラム160を実行することによって、情報処理装置150の機能が実現される。遠隔支援プログラム160は、記憶装置152に格納される。遠隔支援プログラムは、コンピュータ読み取り可能な記録媒体に記録されてもよい。遠隔支援プログラムは、ネットワーク経由で提供されてもよい。 The information processing device 150 performs various types of information processing. The information processing device 150 includes one or more processors 151 (hereinafter simply referred to as processors 151) and one or more storage devices 152 (hereinafter simply referred to as storage devices 152). The processor 151 executes various processes. For example, processor 151 includes a CPU. The storage device 152 stores various information. Examples of the storage device 152 include volatile memory, nonvolatile memory, HDD, SSD, and the like. The functions of the information processing apparatus 150 are implemented by the processor 151 executing the remote support program 160, which is a computer program. Remote support program 160 is stored in storage device 152 . The remote assistance program may be recorded on a computer-readable recording medium. A remote assistance program may be provided via a network.

車両情報170は、自動運転車両1から送られてくる情報であり、遠隔支援に必要な情報である。車両情報170は、運転環境情報70の一部を含む。より詳細には、車両情報170は、少なくとも、カメラ22によって得られた画像情報72を含む。車両情報170は、最新の画像情報72だけでなく、遠隔支援要求REQが発生する前の一定期間における画像情報72を含んでいてもよい。車両情報170は、車両状態情報73を含んでいてもよい。プロセッサ151は、通信装置110を介して、自動運転車両1から車両情報170を受け取る。車両情報170は、記憶装置152に格納される。 The vehicle information 170 is information sent from the automatic driving vehicle 1 and is information necessary for remote support. Vehicle information 170 includes a portion of driving environment information 70 . More specifically, vehicle information 170 includes at least image information 72 obtained by camera 22 . The vehicle information 170 may include not only the latest image information 72 but also the image information 72 for a certain period of time before the remote assistance request REQ is generated. Vehicle information 170 may include vehicle state information 73 . The processor 151 receives vehicle information 170 from the automatic driving vehicle 1 via the communication device 110 . Vehicle information 170 is stored in storage device 152 .

図16は、本実施の形態に係る遠隔支援システム100(プロセッサ151)による処理を示すフローチャートである。 FIG. 16 is a flow chart showing processing by remote support system 100 (processor 151) according to the present embodiment.

ステップS100において、プロセッサ151は、自動運転車両1から予備通知PREを受けとったか否かを判定する。予備通知PREを受け取っていない場合(ステップS100;No)、今回のサイクルにおける処理は終了する。一方、予備通知PREを受け取った場合(ステップS100;Yes)、処理は、ステップS110に進む。 In step S<b>100 , the processor 151 determines whether or not the preliminary notification PRE has been received from the autonomous vehicle 1 . If the preliminary notification PRE has not been received (step S100; No), the processing in this cycle ends. On the other hand, if the preliminary notification PRE is received (step S100; Yes), the process proceeds to step S110.

ステップ110において、プロセッサ151は、スタンバイ処理を行う。具体的には、プロセッサ151は、自動運転車両1から受け取った予備通知PREを表示装置120に表示する。これにより、オペレータは、遠隔支援要求REQの発生を予期して、遠隔支援のスタンバイを行うことができる。特に、プロセッサ151は、自動運転車両1から受け取った画像情報72で示される画像IMGを表示装置120に表示する。その画像IMGを見ることにより、オペレータは、自動運転車両1の周囲の状況を把握することが可能となる。 At step 110, the processor 151 performs standby processing. Specifically, the processor 151 displays the preliminary notification PRE received from the automatic driving vehicle 1 on the display device 120 . As a result, the operator can anticipate the occurrence of the remote support request REQ and perform standby for remote support. In particular, the processor 151 displays the image IMG indicated by the image information 72 received from the autonomous vehicle 1 on the display device 120 . By viewing the image IMG, the operator can grasp the situation around the automatic driving vehicle 1 .

ステップS120において、プロセッサ151は、自動運転車両1から遠隔支援要求REQを受け取ったか否かを判定する。遠隔支援要求REQを受け取っていない場合(ステップS120;No)、処理は、ステップS130に進む。予備通知PREを受け取ってから、遠隔支援要求REQを受け取ることなく一定時間が経過した場合(ステップS130;Yes)、プロセッサ151は、スタンバイ処理を終了する(ステップS140)。一方、予備通知PREを受け取ってから一定時間以内に遠隔支援要求REQを受け取った場合(ステップS120;Yes)、処理は、ステップS150に進む。 In step S<b>120 , the processor 151 determines whether or not a remote assistance request REQ has been received from the autonomous vehicle 1 . If the remote support request REQ has not been received (step S120; No), the process proceeds to step S130. If a certain period of time has passed without receiving a remote support request REQ after receiving the preliminary notification PRE (step S130; Yes), the processor 151 ends the standby process (step S140). On the other hand, if the remote support request REQ is received within a certain period of time after receiving the preliminary notification PRE (step S120; Yes), the process proceeds to step S150.

ステップS150において、プロセッサ151は、「情報提供処理」を行う。具体的には、プロセッサ151は、上記の車両情報170を表示装置120に表示することによって、車両情報170をオペレータに提示する。 In step S150, the processor 151 performs "information providing processing". Specifically, the processor 151 presents the vehicle information 170 to the operator by displaying the vehicle information 170 on the display device 120 .

オペレータは、表示装置120に表示される車両情報170を参照して、自動運転車両1に対する遠隔支援を行う。オペレータによる遠隔支援としては、認識支援、判断支援、遠隔運転、等が挙げられる。オペレータは、入力装置130を用いて、遠隔支援の内容を示すオペレータ指示INSを入力する。上述の予備通知処理及びスタンバイ処理によりオペレータは予めスタンバイを行っているため、オペレータは迅速にオペレータ指示INSを入力することができる。プロセッサ151は、入力装置130を介してオペレータ指示INSを受け付ける(ステップS160)。 The operator refers to the vehicle information 170 displayed on the display device 120 and remotely supports the autonomous vehicle 1 . Remote support by an operator includes recognition support, judgment support, remote operation, and the like. The operator uses the input device 130 to input an operator instruction INS indicating the content of remote support. Since the operator is already on standby by the preliminary notification process and the standby process described above, the operator can quickly input the operator instruction INS. Processor 151 receives an operator instruction INS via input device 130 (step S160).

尚、表示装置120に表示される画像IMGに交通誘導員TGが映っていない場合、オペレータは、アップロードする画像IMGの切り替えを指示するオペレータ指示INSを入力してもよい。 If the traffic guide TG is not shown in the image IMG displayed on the display device 120, the operator may input an operator instruction INS instructing switching of the image IMG to be uploaded.

ステップS170において、プロセッサ151は、「オペレータ指示通知処理」を行う。具体的には、プロセッサ151は、通信装置110を介して自動運転車両1と通信を行い、オペレータ指示INSを自動運転車両1に通知する。自動運転システム10は、オペレータ指示INSに従って車両走行制御を行う。 In step S170, the processor 151 performs "operator instruction notification processing". Specifically, the processor 151 communicates with the automatically driven vehicle 1 via the communication device 110 and notifies the automatically driven vehicle 1 of the operator instruction INS. The automatic driving system 10 performs vehicle travel control according to operator instructions INS.

ステップS180において、プロセッサ151は、遠隔支援終了条件が成立するか否かを判定する。典型的には、オペレータが、遠隔支援の終了を決定する。遠隔支援終了条件が成立する場合(ステップS180;Yes)、処理は、ステップS190に進む。それ以外の場合(ステップS180;No)、処理は、ステップS150に戻る。 In step S180, the processor 151 determines whether or not the remote support end condition is satisfied. Typically, the operator decides to end remote assistance. If the remote support end condition is satisfied (step S180; Yes), the process proceeds to step S190. Otherwise (step S180; No), the process returns to step S150.

ステップS190において、プロセッサ151は、遠隔支援処理(情報提供処理及びオペレータ指示通知処理)を終了する。自動運転システム10も、遠隔支援に必要な運転環境情報70のアップロードを終了する。 In step S190, the processor 151 terminates the remote support processing (information provision processing and operator instruction notification processing). The automatic driving system 10 also finishes uploading the driving environment information 70 required for remote assistance.

1 自動運転車両
10 自動運転システム
20 センサ群
22 カメラ
24 マイク
30 通信装置
40 走行装置
50 制御装置
51 プロセッサ
52 記憶装置
60 自動運転プログラム
70 運転環境情報
72 画像情報
74 音声情報
100 遠隔支援システム
110 通信装置
120 表示装置
130 入力装置
150 情報処理装置
160 遠隔支援プログラム
170 車両情報
INS オペレータ指示
PRE 予備通知
REQ 遠隔支援要求
TG 交通誘導員
WH 警笛
1 Autonomous Driving Vehicle 10 Autonomous Driving System 20 Sensor Group 22 Camera 24 Microphone 30 Communication Device 40 Running Device 50 Control Device 51 Processor 52 Storage Device 60 Autonomous Driving Program 70 Driving Environment Information 72 Image Information 74 Audio Information 100 Remote Support System 110 Communication Device 120 display device 130 input device 150 information processing device 160 remote support program 170 vehicle information INS operator instruction PRE preliminary notification REQ remote support request TG traffic guide WH horn

Claims (1)

少なくとも1つのカメラと少なくとも1つのマイクを備える自動運転車両を制御する車両制御方法であって、
前記少なくとも1つのカメラを用いて前記自動運転車両の周囲の画像を取得する画像取得処理と、
前記少なくとも1つのマイクにより前記自動運転車両の周囲の音声を検出し、前記音声の検出結果に基づいて警笛音を検出する警笛音検出処理と、
前記警笛音を検出したことに応答して、前記自動運転車両の遠隔支援を行う遠隔支援システムに遠隔支援要求を送信する前に、前記遠隔支援システムに前記画像を送信する予備通知処理と
を含む
車両制御方法。
A vehicle control method for controlling an autonomous vehicle comprising at least one camera and at least one microphone, comprising:
an image acquisition process for acquiring an image of the surroundings of the automated driving vehicle using the at least one camera;
A horn sound detection process for detecting sounds around the automated driving vehicle with the at least one microphone and detecting a horn sound based on the sound detection result;
and a preliminary notification process of transmitting the image to the remote support system before transmitting a remote support request to the remote support system that provides remote support for the autonomous vehicle in response to detecting the horn sound. Vehicle control method.
JP2021079676A 2021-05-10 2021-05-10 Vehicle control method, automatic driving system, and automatic driving program Pending JP2022173769A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021079676A JP2022173769A (en) 2021-05-10 2021-05-10 Vehicle control method, automatic driving system, and automatic driving program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021079676A JP2022173769A (en) 2021-05-10 2021-05-10 Vehicle control method, automatic driving system, and automatic driving program

Publications (1)

Publication Number Publication Date
JP2022173769A true JP2022173769A (en) 2022-11-22

Family

ID=84144317

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021079676A Pending JP2022173769A (en) 2021-05-10 2021-05-10 Vehicle control method, automatic driving system, and automatic driving program

Country Status (1)

Country Link
JP (1) JP2022173769A (en)

Similar Documents

Publication Publication Date Title
JP6112054B2 (en) Electronic device, electronic device control method, and electronic device control program
CN106560365B (en) Collision avoidance using auditory data enhanced with map data
EP3564086B1 (en) Managing drive modes of a vehicle
JP7266627B2 (en) Early warning methods, devices, electronic devices, recording media and computer program products
WO2015162764A1 (en) Vehicle-mounted information device and function limiting method for vehicle-mounted information device
JP7192443B2 (en) Information providing system, server, in-vehicle device, vehicle, program and information providing method
JPWO2017029847A1 (en) Information processing apparatus, information processing method, and program
JP2024063147A (en) Vehicle-mounted equipment
US11308357B2 (en) Training data generation apparatus
US20200074851A1 (en) Control device and control method
CN102592475A (en) Crossing traffic early warning system
JP2007164671A (en) Device for deciding approaching obstacle and system for warning collision with obstacle
JP7327344B2 (en) Vehicle remote support system, vehicle remote support server, and vehicle remote support method
JP2013033324A (en) Surrounding vehicle information notifying device
KR20170119842A (en) Apparatus and method for controlling autonomous driving vehicle
CN113808418B (en) Road condition information display system, method, vehicle, computer device and storage medium
CN112542052A (en) Method for warning unprotected traffic participants
JP5924395B2 (en) Peripheral vehicle information notification device
US10745029B2 (en) Providing relevant alerts to a driver of a vehicle
JP2012194864A (en) Collision avoidance device and collision avoidance method
JP2022173769A (en) Vehicle control method, automatic driving system, and automatic driving program
CN110371025A (en) Method, system, equipment and the storage medium of the preposition collision detection for operating condition of overtaking other vehicles
US20220250617A1 (en) Threat mitigation for vehicles
WO2022070428A1 (en) Remote monitoring system, remote monitoring device and remote monitoring method
JP2023062506A (en) Device, method, and program for controlling vehicle