JP2021163323A - Travel support request device - Google Patents

Travel support request device Download PDF

Info

Publication number
JP2021163323A
JP2021163323A JP2020066103A JP2020066103A JP2021163323A JP 2021163323 A JP2021163323 A JP 2021163323A JP 2020066103 A JP2020066103 A JP 2020066103A JP 2020066103 A JP2020066103 A JP 2020066103A JP 2021163323 A JP2021163323 A JP 2021163323A
Authority
JP
Japan
Prior art keywords
vehicle
driving support
travel
track
support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020066103A
Other languages
Japanese (ja)
Other versions
JP7354905B2 (en
Inventor
一仁 竹中
Kazuhito Takenaka
健二 武藤
Kenji Muto
泰伸 杉浦
Yasunobu Sugiura
俊助 望月
Shunsuke Mochizuki
碧 加藤
Midori Kato
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2020066103A priority Critical patent/JP7354905B2/en
Publication of JP2021163323A publication Critical patent/JP2021163323A/en
Application granted granted Critical
Publication of JP7354905B2 publication Critical patent/JP7354905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Abstract

To transmit information necessary and sufficient for performing travel support for a vehicle with respect to a travel support device.SOLUTION: A travel support request device 100 that is mounted on a vehicle that performs automatic driving, and communicates with a travel support device 200 that remotely supports traveling of the vehicle includes: a detection unit 101 that detects an object around the vehicle; a determination unit 102 that based on a position of the object and a prediction result obtained by predicting a future action of the object, determines whether or not travel support is requested from the travel support device; and a transmission unit 105 that in a case where the determination unit determines that the travel support is requested, transmits a request message requesting the travel support and object information indicating the object, to the travel support device.SELECTED DRAWING: Figure 2

Description

本発明は、自動運転を行う車両に搭載される走行支援要求装置、当該走行支援要求装置と通信を行い車両の走行を遠隔支援する走行支援装置、並びに走行支援要求装置で実行される走行支援要求方法及び走行支援要求プログラムに関する。 The present invention is a travel support request device mounted on a vehicle that performs automatic driving, a travel support device that communicates with the travel support request device to remotely support the vehicle's travel, and a travel support request executed by the travel support request device. Regarding the method and driving support request program.

近年、自動車の自動運転に関する開発が進められている。特に、車載システムが加速、操舵、制動を自動的に行う自動運転車両の開発が期待されている。このような自動運転車両は、車両に搭載された様々なセンサを用いて車両の周囲に存在する他車両や歩行者等の物体を検出し、これらの物体との衝突を回避するような軌道を算出するとともに、算出した軌道を走行するように車両を制御する。これにより、自動運転車両は、運転手がいなくとも走行することが可能となる。 In recent years, development on autonomous driving of automobiles has been promoted. In particular, the development of an autonomous driving vehicle in which an in-vehicle system automatically accelerates, steers, and brakes is expected. Such an automatically driven vehicle detects objects such as other vehicles and pedestrians existing around the vehicle by using various sensors mounted on the vehicle, and makes a trajectory that avoids collision with these objects. In addition to calculating, the vehicle is controlled so as to travel on the calculated track. As a result, the self-driving vehicle can run without a driver.

しかしながら、車両が物体を回避する軌道を算出できない場合や、算出した軌道の適否を車載システムで判断することができないような場合も想定される。そのため、必要に応じて自動運転車両の走行を遠隔支援又は遠隔制御することができるシステムを構築することが望ましい。 However, there may be cases where the vehicle cannot calculate the trajectory to avoid the object, or the in-vehicle system cannot determine the suitability of the calculated track. Therefore, it is desirable to construct a system that can remotely support or control the running of an autonomous vehicle as needed.

例えば、特許文献1には、自動運転車両を遠隔で操作する車両遠隔制御方法及び車両遠隔制御装置が開示されている。特許文献1の開示によれば、車両から遠隔操作を求める支援要求信号を受信すると、車両の周囲の環境情報に基づいて車両の周囲を走行する他車両の走行軌跡を算出し、他車両の走行軌跡に基づいて車両の支援経路候補を生成して表示する。 For example, Patent Document 1 discloses a vehicle remote control method and a vehicle remote control device for remotely controlling an autonomous driving vehicle. According to the disclosure of Patent Document 1, when a support request signal requesting remote control is received from a vehicle, the traveling locus of another vehicle traveling around the vehicle is calculated based on the environmental information around the vehicle, and the traveling of the other vehicle is calculated. Vehicle support route candidates are generated and displayed based on the trajectory.

特開2019−185293号JP-A-2019-185293

ここで、本発明者は、以下の課題を見出した。
自動運転車両の走行を遠隔支援する装置を使用するオペレータは、車両周囲の物体を示す情報に基づいて車両が置かれている状況を判断し、車両が安全に走行できるような軌道を算出したり、車両が取るべき動作を指示することによって車両の走行支援を行う。しかしながら、車両が遠隔装置に送信する情報には、オペレータが走行支援を行うのに必要な情報だけでなく、車両の周囲に存在する様々な情報が含まれているため、オペレータは、車両から送信された情報の中から走行支援に必要なものを選択して判断する必要がある。そのため、オペレータの作業負荷が増大するだけでなく、必要な情報の選択に時間を要することにより、車両に対して迅速な走行支援を提供できないおそれがある。
Here, the present inventor has found the following problems.
An operator who uses a device that remotely assists the driving of an autonomous vehicle determines the situation in which the vehicle is placed based on information indicating an object around the vehicle, and calculates a trajectory that allows the vehicle to travel safely. , The driving support of the vehicle is provided by instructing the action to be taken by the vehicle. However, since the information transmitted by the vehicle to the remote device includes not only the information necessary for the operator to provide driving assistance but also various information existing around the vehicle, the operator transmits from the vehicle. It is necessary to select and judge what is necessary for driving support from the provided information. Therefore, not only the workload of the operator increases, but also it takes time to select the necessary information, which may make it impossible to provide quick running support to the vehicle.

そこで、本発明は、車両に搭載された走行支援要求装置が、車両の走行支援に必要十分な情報を選択して走行支援装置に送信することにより、車両の遠隔支援を可能にしながら、走行支援装置を使用するオペレータの作業負荷を低減することを目的とする。 Therefore, in the present invention, the traveling support requesting device mounted on the vehicle selects and transmits sufficient information necessary for the traveling support of the vehicle to the traveling support device, thereby enabling remote assistance of the vehicle while providing driving support. The purpose is to reduce the workload of the operator who uses the device.

本開示の一態様による走行支援要求装置は、自動運転を行う車両に搭載され、前記車両の走行を遠隔支援する走行支援装置(200)と通信を行う走行支援要求装置(100)であって、前記車両の周囲のオブジェクトを検出する検出部(101)と、前記オブジェクトの位置及び前記オブジェクトの将来の行動を予測した予測結果に基づいて、前記走行支援装置に走行支援を要求するか否かを判定する判定部(102)と、前記判定部が前記走行支援を要求すると判定した場合、前記走行支援を要求する要求メッセージ及び前記オブジェクトを示すオブジェクト情報を前記走行支援装置に送信する送信部(105)と、を備える。 The travel support request device according to one aspect of the present disclosure is a travel support request device (100) that is mounted on a vehicle that performs automatic driving and communicates with a travel support device (200) that remotely supports the travel of the vehicle. Whether or not to request driving support from the traveling support device based on the detection unit (101) that detects an object around the vehicle and the prediction result of predicting the position of the object and the future behavior of the object. The determination unit (102) for determining, and the transmission unit (105) for transmitting the request message requesting the driving support and the object information indicating the object to the traveling support device when the determination unit determines that the traveling support is requested. ) And.

なお、特許請求の範囲、及び本項に記載した発明の構成要件に付した括弧内の番号は、本発明と後述の実施形態との対応関係を示すものであり、本発明を限定する趣旨ではない。 The claims and the numbers in parentheses attached to the constituent requirements of the invention described in this section indicate the correspondence between the present invention and the embodiments described later, and are intended to limit the present invention. No.

上述のような構成により、本開示の走行支援要求装置は、走行支援を要求する原因となったオブジェクトを示すオブジェクト情報を走行支援装置に送信することができるため、走行支援装置を使用して車両の走行支援を行うオペレータは、車両が走行支援を要求する原因となったオブジェクトを容易に認識し、オブジェクトに対応する走行支援を提供することができる。 With the above-described configuration, the travel support request device of the present disclosure can transmit object information indicating the object that caused the request for travel support to the travel support device. Therefore, the vehicle uses the travel support device. The operator who provides the driving support can easily recognize the object that caused the vehicle to request the driving support, and can provide the driving support corresponding to the object.

本開示の各実施形態の走行支援要求装置が構成する走行支援システムの例を説明する説明図Explanatory drawing explaining an example of the driving support system which comprises the driving support request device of each embodiment of this disclosure. 本開示の実施形態1乃至3の走行支援要求装置の構成例を示すブロック図A block diagram showing a configuration example of the traveling support requesting device according to the first to third embodiments of the present disclosure. 本開示の実施形態1の走行支援要求装置の走行支援要求の要否の判断例を示す説明図Explanatory drawing which shows the determination example of the necessity of the driving support request of the driving support request device of Embodiment 1 of this disclosure. 本開示の実施形態1の走行支援要求装置の動作を示すフローチャートA flowchart showing the operation of the driving support requesting device according to the first embodiment of the present disclosure. 本開示の実施形態1乃至3の走行支援要求装置と通信を行う走行支援装置の構成例を示すブロック図A block diagram showing a configuration example of a driving support device that communicates with the driving support requesting devices according to the first to third embodiments of the present disclosure. 本開示の実施形態1の走行支援要求装置と通信を行う走行支援装置の表示部に表示される映像を説明する図The figure explaining the image displayed on the display part of the driving support device which communicates with the driving support request device of Embodiment 1 of this disclosure. 本開示の実施形態1の変形例の走行支援要求装置と通信を行う走行支援装置の表示部に表示される映像を説明する図The figure explaining the image displayed on the display part of the driving support device which communicates with the driving support request device of the modification of Embodiment 1 of this disclosure. 本開示の実施形態2の走行支援要求装置と通信を行う走行支援装置の表示部に表示される映像を説明する図The figure explaining the image displayed on the display part of the driving support device which communicates with the driving support request device of Embodiment 2 of this disclosure. 本開示の実施形態3の走行支援要求装置と通信を行う走行支援装置の表示部に表示される映像を説明する図The figure explaining the image displayed on the display part of the driving support device which communicates with the driving support request device of Embodiment 3 of this disclosure.

以下、本発明の実施形態について、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、本発明とは、特許請求の範囲又は課題を解決するための手段の項に記載された発明を意味するものであり、以下の実施形態に限定されるものではない。また、少なくともかぎ括弧内の語句は、特許請求の範囲又は課題を解決するための手段の項に記載された語句を意味し、同じく以下の実施形態に限定されるものではない。 The present invention means the invention described in the section of claims or means for solving the problem, and is not limited to the following embodiments. Further, at least the words and phrases in brackets mean the words and phrases described in the section of claims or means for solving the problem, and are not limited to the following embodiments.

特許請求の範囲の従属項に記載の構成及び方法は、特許請求の範囲の独立項に記載の発明において任意の構成及び方法である。従属項に記載の構成及び方法に対応する実施形態の構成及び方法、並びに特許請求の範囲に記載がなく実施形態のみに記載の構成及び方法は、本発明において任意の構成及び方法である。特許請求の範囲の記載が実施形態の記載よりも広い場合における実施形態に記載の構成及び方法も、本発明の構成及び方法の例示であるという意味で、本発明において任意の構成及び方法である。いずれの場合も、特許請求の範囲の独立項に記載することで、本発明の必須の構成及び方法となる。 The configurations and methods described in the dependent terms of the claims are arbitrary configurations and methods in the invention described in the independent terms of the claims. The configurations and methods of the embodiments corresponding to the configurations and methods described in the dependent terms, and the configurations and methods described only in the embodiments that are not described in the claims are arbitrary configurations and methods in the present invention. The configuration and method described in the embodiment when the description of the claims is wider than the description of the embodiment is also an arbitrary configuration and method in the present invention in the sense that it is an example of the configuration and method of the present invention. .. In either case, the description in the independent clause of the claims provides an essential configuration and method of the present invention.

実施形態に記載した効果は、本発明の例示としての実施形態の構成を有する場合の効果であり、必ずしも本発明が有する効果ではない。 The effects described in the embodiments are effects in the case of having the configuration of the embodiment as an example of the present invention, and are not necessarily the effects of the present invention.

複数の実施形態がある場合、各実施形態に開示の構成は各実施形態のみで閉じるものではなく、実施形態をまたいで組み合わせることが可能である。例えば一の実施形態に開示の構成を、他の実施形態に組み合わせてもよい。また、複数の実施形態それぞれに開示の構成を集めて組み合わせてもよい。 When there are a plurality of embodiments, the configuration disclosed in each embodiment is not closed only in each embodiment, but can be combined across the embodiments. For example, the configuration disclosed in one embodiment may be combined with another embodiment. Further, the disclosed configurations may be collected and combined in each of the plurality of embodiments.

発明が解決しようとする課題に記載した課題は公知の課題ではなく、本発明者が独自に知見したものであり、本発明の構成及び方法と共に発明の進歩性を肯定する事実である。 The problem described in the problem to be solved by the invention is not a known problem, but is an original knowledge of the present inventor, and is a fact that affirms the inventive step of the invention together with the structure and method of the present invention.

1.走行支援システム
図1を用いて、各実施形態の走行支援要求装置100が使用される走行支援システム1を説明する。
1. 1. Travel Assistance System FIG. 1 will be used to describe a travel assistance system 1 in which the travel assistance requesting device 100 of each embodiment is used.

走行支援システム1は、走行支援要求装置100、走行支援装置200、及び通信ネットワーク20から構成される。走行支援要求装置100は「自動運転」を行う車両10に搭載された車載装置である。また、走行支援装置200は車両の外部に設けられ、オペレータ等によって操作されて車両の走行を遠隔支援する装置である。図1では省略しているが、走行支援要求装置100と走行支援装置200は、セルラー通信網の基地局、ゲートウェイ、ネットワーク回線を含む通信ネットワーク20を介して互いに通信を行う。 The travel support system 1 is composed of a travel support request device 100, a travel support device 200, and a communication network 20. The travel support request device 100 is an in-vehicle device mounted on the vehicle 10 that performs "automatic driving". Further, the traveling support device 200 is a device provided outside the vehicle and operated by an operator or the like to remotely support the traveling of the vehicle. Although omitted in FIG. 1, the travel support request device 100 and the travel support device 200 communicate with each other via a communication network 20 including a base station, a gateway, and a network line of a cellular communication network.

「自動運転」とは、加減速・操舵・その他の制御のうち少なくとも1つが自動制御される状態であれば足り、自動化のレベルは問わない。 "Automatic driving" is sufficient as long as at least one of acceleration / deceleration, steering, and other controls is automatically controlled, and the level of automation does not matter.

2.実施形態1
(1)走行支援要求装置100の構成
図2を用いて、本実施形態の走行支援要求装置100の構成について説明する。走行支援要求装置100は、検出部101、判定部102、映像情報生成部103、軌道取得部104、及び送信部105を備える。
2. Embodiment 1
(1) Configuration of Travel Support Requesting Device 100 The configuration of the traveling support requesting device 100 of the present embodiment will be described with reference to FIG. The travel support request device 100 includes a detection unit 101, a determination unit 102, a video information generation unit 103, a track acquisition unit 104, and a transmission unit 105.

検出部101は、車両の「周囲」に存在するオブジェクトを検出する。オブジェクトとは、例えば、他の車両、歩行者、自転車等の移動体、建物、信号機等の固定物、あるいは横断歩行や道路等の地物であってもよい。 The detection unit 101 detects an object existing in the "surroundings" of the vehicle. The object may be, for example, another vehicle, a moving body such as a pedestrian or a bicycle, a fixed object such as a building or a traffic light, or a feature such as a crossing walk or a road.

ここで、「周囲」とは、必ずしも360度の範囲をカバーする必要はなく、その一部でもよい。例えば、車両前方のみ、又は車両前方及び後方のみ、でもよい。 Here, the "surroundings" do not necessarily have to cover the range of 360 degrees, and may be a part thereof. For example, it may be only in front of the vehicle, or only in front of and behind the vehicle.

検出部101は、例えば、車両の周囲の「映像」を取得し、映像に含まれるオブジェクトを検出する映像検出部である。あるいは、検出部101は、車両の周囲に存在するオブジェクトとの距離を測定する測距センサであってもよい。なお、検出する、とは、映像検出部や測距センサを用いて車両の周囲の撮影や測定を行うことはもちろん、撮影又は測定したデータから特定のオブジェクトを抽出して認識することも含む。以下の実施形態では、検出部101が車両の周囲の映像を取得する映像検出部である場合を例に挙げて説明する。 The detection unit 101 is, for example, a video detection unit that acquires a "video" around the vehicle and detects an object included in the video. Alternatively, the detection unit 101 may be a distance measuring sensor that measures the distance to an object existing around the vehicle. Note that "detection" includes not only photographing and measuring the surroundings of the vehicle using an image detection unit and a distance measuring sensor, but also extracting and recognizing a specific object from the photographed or measured data. In the following embodiment, a case where the detection unit 101 is an image detection unit that acquires an image of the surroundings of the vehicle will be described as an example.

「映像」とは、1枚以上の画像から構成された動画像の他、静止画像であってもよい。また、カメラのレンズを通して撮像された映像の他、LiDAR(Light Detection And Ranging)等の距離センサのスキャニングで得られた3次元データから2次元データに変換された映像でもよい。 The "video" may be a still image as well as a moving image composed of one or more images. Further, in addition to the image captured through the lens of the camera, the image obtained by scanning the distance sensor such as LiDAR (Light Detection And Ranging) may be converted into two-dimensional data.

判定部102は、オブジェクトの位置及びオブジェクトの将来の行動を予測した「予測結果」に基づいて、走行支援装置200に走行支援を要求するか否かを判定する。そして、走行支援を要求すると判定した場合には、走行支援を要求するメッセージ(以下、要求メッセージ)を生成する。オブジェクトの位置は、検出部101がオブジェクトを検出した方向や、映像におけるオブジェクトの位置から取得することができる。判定部102が車両の走行支援を要求するか否かを判定する方法については後述する。 The determination unit 102 determines whether or not to request the travel support from the travel support device 200 based on the "prediction result" that predicts the position of the object and the future behavior of the object. Then, when it is determined that the driving support is requested, a message requesting the driving support (hereinafter referred to as a request message) is generated. The position of the object can be acquired from the direction in which the detection unit 101 detects the object or the position of the object in the video. The method of determining whether or not the determination unit 102 requests the traveling support of the vehicle will be described later.

「予測結果」とは、予測したオブジェクトの行動そのものであってもよく、予測できないことを示す結果であってもよい。 The "prediction result" may be the predicted behavior of the object itself, or may be a result indicating that the prediction cannot be made.

映像情報生成部103は、判定部102が走行支援装置200に車両の走行支援を要求することが必要であると判定した場合に、検出部101が取得した映像を符号化して映像情報を生成する。具体的には、映像情報生成部103は、検出部101が取得した映像のうち、オブジェクトを含む一部の領域を高画質(「第1の画質」に相当)で符号化し、映像のうち当該一部の領域以外の領域の全部又は一部を低画質又は中画質(「第2の画質」に相当)で符号化する。映像情報生成部103は、オブジェクトを含む領域のみ、フレームレート、ビットレート、又は解像度を高くすることにより、当該領域を高画質で符号化することができる。これにより、映像情報生成部103は、それぞれ異なる画質で符号化された2つの映像を含む映像情報を生成する。なお、映像情報生成部103は、オブジェクトを含む一部の領域を高画質で符号化すればよく、低画質で符号化する領域は、オブジェクトを含む一部の領域以外に限定されなくともよい。例えば、映像情報生成部103は、映像のうちオブジェクトを含む一部の領域を高画質で符号化し、映像全体を低画質で符号化してもよい。この場合、オブジェクトを含む一部の領域は、高画質及び低画質の2つの画質で重複して符号化される。 When the determination unit 102 determines that it is necessary to request the vehicle travel support from the travel support device 200, the video information generation unit 103 encodes the video acquired by the detection unit 101 to generate video information. .. Specifically, the video information generation unit 103 encodes a part of the video acquired by the detection unit 101 including an object with high image quality (corresponding to the “first image quality”), and the video information generation unit 103 encodes the video with high image quality (corresponding to the “first image quality”). All or part of the area other than a part of the area is encoded with low image quality or medium image quality (corresponding to "second image quality"). The video information generation unit 103 can encode only the area including the object with high image quality by increasing the frame rate, bit rate, or resolution. As a result, the video information generation unit 103 generates video information including two videos encoded with different image quality. The video information generation unit 103 may encode a part of the area including the object with high image quality, and the area to be encoded with low image quality does not have to be limited to a part of the area including the object. For example, the video information generation unit 103 may encode a part of the video including an object with high image quality and encode the entire video with low image quality. In this case, a part of the area including the object is duplicated and encoded with two image quality, high image quality and low image quality.

なお、以下の実施形態では、映像情報生成部103が、オブジェクトを含む領域を高画質で符号化し、その他の領域を低画質で符号化することにより、2つの画質で符号化された映像を含む映像情報を生成する例を説明する。しかしながら、映像情報生成部103は、3以上の画質で符号化された映像を含む映像情報を生成してもよい。例えば、オブジェクトを含む領域を高画質で符号化し、他の領域の一部を中画質で符号化し、残りの領域を低画質で符号化してもよい。 In the following embodiment, the video information generation unit 103 encodes an area including an object with high image quality and encodes the other area with low image quality to include an image encoded with two image quality. An example of generating video information will be described. However, the video information generation unit 103 may generate video information including a video encoded with an image quality of 3 or higher. For example, the area including the object may be encoded with high image quality, a part of the other area may be encoded with medium image quality, and the remaining area may be encoded with low image quality.

軌道取得部104は、車両が将来に走行する「軌道」の候補である軌道候補を「取得」する。軌道取得部104が取得する軌道候補は、車両が他車両や歩行者等と衝突することなく安全に走行できる軌道である。軌道取得部104は、検出部101が取得した映像、車両に搭載された様々なセンサ(図示せず)を用いて取得した情報、地図データベースの道路情報に基づいて軌道候補を取得することができる。軌道取得部104はさらに、判定部102が走行支援の要否判定に使用したオブジェクトの位置及び将来の予測結果を利用して、オブジェクトを回避する軌道候補を取得してもよい。なお、軌道候補は1つに限定されるものではなく、軌道取得部104は複数の軌道候補を取得してもよい。 The track acquisition unit 104 "acquires" a track candidate that is a candidate for a "track" on which the vehicle will travel in the future. The track candidate acquired by the track acquisition unit 104 is a track on which the vehicle can safely travel without colliding with other vehicles, pedestrians, or the like. The track acquisition unit 104 can acquire track candidates based on the image acquired by the detection unit 101, the information acquired by using various sensors (not shown) mounted on the vehicle, and the road information in the map database. .. The track acquisition unit 104 may further acquire a track candidate for avoiding the object by using the position of the object used by the determination unit 102 for determining the necessity of travel support and the future prediction result. The orbit candidate is not limited to one, and the orbit acquisition unit 104 may acquire a plurality of orbit candidates.

「軌道」とは、線で表現される場合はもちろん、離散点の集合で表現される場合であってもよい。
「取得」とは、自らが演算等を行うことによって軌道候補を取得する場合の他、有線又は無線通信を用いて受信することにより取得する場合も含む。
The "orbit" may be represented not only by a line but also by a set of discrete points.
The “acquisition” includes not only the case where the orbit candidate is acquired by performing an operation or the like by itself, but also the case where the orbit candidate is acquired by receiving using wired or wireless communication.

送信部105は、判定部102が走行支援装置200に走行支援を要求すると判定した場合に、要求メッセージと、オブジェクトを示すオブジェクト情報を走行支援装置200に送信する。本実施形態では、送信部105は、オブジェクト情報として映像情報生成部103が生成した映像情報を送信する。しかしながら、以下の変形例で説明するとおり、オブジェクト情報は映像情報に限定されるものではない。送信部105はさらに、軌道取得部104が取得した軌道候補を送信してもよい。 When the determination unit 102 determines that the travel support device 200 requests the travel support, the transmission unit 105 transmits the request message and the object information indicating the object to the travel support device 200. In the present embodiment, the transmission unit 105 transmits the video information generated by the video information generation unit 103 as object information. However, as described in the following modification, the object information is not limited to the video information. The transmission unit 105 may further transmit the trajectory candidates acquired by the trajectory acquisition unit 104.

(2)走行支援の要求の要否判定
次に、図3を参照して、判定部102が走行支援を要求するか否かを判定する方法を説明する。判定部102は、例えば、以下に例示する(a)〜(c)に該当する場合に、走行支援装置200に走行支援を要求すると判定する。
(2) Determining the Necessity of Requesting Driving Assistance Next, a method of determining whether or not the determination unit 102 requests driving assistance will be described with reference to FIG. The determination unit 102 determines that the travel support device 200 is requested to support travel when, for example, the following (a) to (c) are applicable.

(a)車両前方のオブジェクトの行動を予測できない場合
図3aは、車両に搭載された検出部101が取得した映像の一例を示している。図3aに示す映像には、自車両の前方に位置する車両A、すなわちオブジェクトが存在している。
(A) When the behavior of an object in front of the vehicle cannot be predicted FIG. 3a shows an example of an image acquired by the detection unit 101 mounted on the vehicle. In the image shown in FIG. 3a, a vehicle A located in front of the own vehicle, that is, an object exists.

ここで、判定部102は車両Aの将来の行動を予測する。例えば、車両Aのブレーキランプが点灯していない場合、判定部102は車両Aがそのまま走行を継続すると予測することができる。これに対し、車両Aのブレーキランプが点灯している場合、車両Aが停車している、又は停車しようとしている理由によって、車両Aの将来の行動は変化する可能性が高い。例えば、車両Aのブレーキランプが点灯している理由として、一時停車している、渋滞や信号により停車している、乗員が乗降するために停車している、といった様々な原因が想定されるが、これらの原因によって車両Aは停車を継続する、あるいは走行を開始する等、将来の行動は変化するため、車両Aの将来の行動を十分に高い確信度をもって予測することはできない。そして、車両Aの行動を予測できない場合、軌道取得部104は、自車両が車両Aとの衝突を回避する適切な軌道を取得することは難しい。あるいは、軌道取得部104が車両Aとの衝突を回避するような複数の軌道を算出しても、いずれの軌道を選択すべきか判断をすることは難しい。例えば車両Aが渋滞や信号による停車であれば自車両も停車するのが適切であるし、路上駐車であれば回避する軌道が適切である。乗員の乗降であれば、その状況によってより大きく回避する軌道や停車して乗降の終了を待つ軌道が適切な軌道となる。そこで、判定部102は、自車両の前方に位置する車両Aの将来の行動を予測できない場合、走行支援装置200に車両の走行支援を要求すると判定する。 Here, the determination unit 102 predicts the future behavior of the vehicle A. For example, when the brake lamp of the vehicle A is not lit, the determination unit 102 can predict that the vehicle A will continue to travel as it is. On the other hand, when the brake lamp of the vehicle A is lit, the future behavior of the vehicle A is likely to change depending on the reason why the vehicle A is stopped or is about to stop. For example, there are various possible reasons why the brake lamp of vehicle A is lit, such as being temporarily stopped, being stopped due to traffic jams or traffic lights, or being stopped for passengers to get on and off. Since the future behavior of the vehicle A changes due to these causes, such as the vehicle A continuing to stop or starting to run, it is not possible to predict the future behavior of the vehicle A with sufficiently high certainty. Then, when the behavior of the vehicle A cannot be predicted, it is difficult for the track acquisition unit 104 to acquire an appropriate track for the own vehicle to avoid a collision with the vehicle A. Alternatively, even if the track acquisition unit 104 calculates a plurality of tracks that avoid a collision with the vehicle A, it is difficult to determine which track should be selected. For example, if the vehicle A is stopped due to traffic jams or traffic lights, it is appropriate to stop the own vehicle, and if the vehicle is parked on the street, the track to avoid is appropriate. In the case of passengers getting on and off, depending on the situation, a track that avoids more or a track that stops and waits for the end of getting on and off is an appropriate track. Therefore, if the determination unit 102 cannot predict the future behavior of the vehicle A located in front of the own vehicle, the determination unit 102 determines that the travel support device 200 is requested to support the travel of the vehicle.

なお、図3aでは、自車両の前方に位置するオブジェクトとして、自車両と同じ車線を走行する車両を例に挙げて説明している。しかしながら、自車両の前方に位置するオブジェクトは、隣接する車線を走行する車両であってもよい。例えば、自車両の斜め前方を走行する他車両が蛇行して走行している場合や、対向車線を走行中の他車両が、自車両が走行中の車線にはみ出して走行している場合、これらの他車両は自車両の前方に位置しており、且つ、これらの他車両の将来の行動を予測することは難しい。そこで、このような場合も、判定部102は走行支援を要求すると判定してもよい。 In FIG. 3a, as an object located in front of the own vehicle, a vehicle traveling in the same lane as the own vehicle is described as an example. However, the object located in front of the own vehicle may be a vehicle traveling in an adjacent lane. For example, when another vehicle traveling diagonally in front of the own vehicle is meandering, or when another vehicle traveling in the oncoming lane is traveling outside the lane in which the own vehicle is traveling, these are the cases. The other vehicles are located in front of the own vehicle, and it is difficult to predict the future behavior of these other vehicles. Therefore, even in such a case, the determination unit 102 may determine that the traveling support is requested.

走行支援要求装置100から要求メッセージを受信した走行支援装置200を操作するオペレータは、要求メッセージと併せて受信したオブジェクト情報に基づいて車両の前方に位置する車両Aの状況を判断し、車両に対する走行支援を行う。例えば、車両Aの停止位置や信号標識、乗員の有無を判断することにより、車両が車両Aとの衝突を回避するような軌道を生成する、要求メッセージと併せて受信した軌道候補の中から適切な軌道を選択する、あるいは、車両の停止を指示する。 The operator who operates the travel support device 200 that has received the request message from the travel support request device 100 determines the situation of the vehicle A located in front of the vehicle based on the object information received together with the request message, and travels with respect to the vehicle. Provide support. For example, by determining the stop position of vehicle A, a signal sign, and the presence or absence of an occupant, a track is generated so that the vehicle avoids a collision with vehicle A. Select a proper track or instruct the vehicle to stop.

(b)オブジェクトの位置が軌道候補から所定の範囲内の場合
図3bは、検出部101が取得した映像の他の例を示している。図3bに示す映像には、自車両が走行中の左前方に歩行者B及び歩行者C、すなわちオブジェクトが存在している。また、図3bに示す破線は、軌道取得部104が取得した車両の軌道候補を示している。
(B) When the position of the object is within a predetermined range from the trajectory candidate FIG. 3b shows another example of the image acquired by the detection unit 101. In the image shown in FIG. 3b, a pedestrian B and a pedestrian C, that is, an object exist in the left front while the own vehicle is traveling. Further, the broken line shown in FIG. 3b indicates the track candidate of the vehicle acquired by the track acquisition unit 104.

ここで、歩行者B、Cはいずれも、自車両の軌道候補の周辺に位置している。そのため、自車両が軌道候補を走行している時に歩行者B、Cが道路を横断すると、車両は歩行者と接触する可能性がある。そこで、判定部102は歩行者B、Cの将来の行動を予測する。例えば、歩行者Bの位置は横断歩道に近接している。そのため、信号表示にしたがって横断歩道を歩行することが予測される。これに対し、歩行者Cの位置は横断歩道とは離れている。そのため、信号表示とは関係なく道路を横断する可能性があり、歩行者Cの将来の行動を予測することは難しい。さらに、歩行者Bが近接している横断歩道に信号表示がない場合は、歩行者Bの将来の行動を予測することは難しい。そこで、判定部102は、自車両の軌道候補から所定の「範囲内」に位置するオブジェクトの将来の行動を予測できない場合、走行支援装置200に車両の走行支援を要求すると判定する。 Here, both pedestrians B and C are located around the track candidates of the own vehicle. Therefore, if the pedestrians B and C cross the road while the own vehicle is traveling on the track candidate, the vehicle may come into contact with the pedestrian. Therefore, the determination unit 102 predicts the future behavior of the pedestrians B and C. For example, the position of pedestrian B is close to the pedestrian crossing. Therefore, it is expected to walk on the pedestrian crossing according to the signal display. On the other hand, the position of pedestrian C is far from the pedestrian crossing. Therefore, there is a possibility of crossing the road regardless of the signal display, and it is difficult to predict the future behavior of the pedestrian C. Further, if there is no signal display on the pedestrian crossing in which pedestrian B is close, it is difficult to predict the future behavior of pedestrian B. Therefore, when the determination unit 102 cannot predict the future behavior of the object located within the predetermined "range" from the track candidate of the own vehicle, the determination unit 102 determines that the travel support device 200 is requested to support the travel of the vehicle.

ここで、「範囲内」とは、オブジェクトとの実際の距離が所定の距離(例えば、数メートル)以下の場合の他、映像内におけるにおけるオブジェクトとの距離が所定の距離(例えば、数ピクセル)以下の場合を含む。 Here, "within a range" means that the actual distance to the object is a predetermined distance (for example, several meters) or less, and the distance to the object in the image is a predetermined distance (for example, several pixels). Including the following cases.

図3bの例では、横断歩道に信号がない場合、走行支援要求装置100から要求メッセージを受信した走行支援装置200は、要求メッセージ、及び歩行者B、Cを示すオブジェクト情報を受信する。そして、走行支援装置200を操作するオペレータは、歩行者B、Cが道路を横断しようとしているか、あるいは横断しないかを判断することにより、自車両が歩行者B、Cと接触しないような軌道を生成する、要求メッセージと併せて受信した軌道候補の中から最も適切な軌道を選択する、あるいは、車両に対し徐行を指示してもよい。 In the example of FIG. 3b, when there is no signal on the pedestrian crossing, the travel support device 200 that has received the request message from the travel support request device 100 receives the request message and the object information indicating the pedestrians B and C. Then, the operator who operates the traveling support device 200 determines whether the pedestrians B and C are trying to cross the road or does not cross the road, so that the operator does not come into contact with the pedestrians B and C. The most appropriate track may be selected from the generated track candidates and the track candidates received together with the request message, or the vehicle may be instructed to drive slowly.

(c)オブジェクトを回避する軌道候補が他の車線に進入する軌道の場合
図3cは、検出部101が取得した映像の他の例を示している。図3cに示す映像には、自車両の前方に他の車両D、すなわちオブジェクトが存在している。図3bと同様、破線は、軌道取得部104が取得した車両の軌道候補を示している。
(C) When the track candidate avoiding the object is a track entering another lane FIG. 3c shows another example of the image acquired by the detection unit 101. In the image shown in FIG. 3c, another vehicle D, that is, an object exists in front of the own vehicle. Similar to FIG. 3b, the broken line indicates the track candidate of the vehicle acquired by the track acquisition unit 104.

ここで、車両Dのハザードランプが点灯している場合、車両Dは路上駐車をしていることが明確であり、車両Dは駐車した状態を継続すると予測することができる。そのため、車両Dは、上述した(a)とは異なり、行動を予測できないオブジェクトに該当しない。そこで、軌道取得部104は、車両Dの位置と、車両Dが駐車した状態を継続するとの予測結果に基づいて、車両Dを回避して自車両が走行する軌道候補を取得する。図3cに示す破線の軌道候補は車両Dを回避する軌道候補であり、自車両が走行中の車線から他の車線に進入する軌道である。このように、オブジェクトを回避する軌道候補が他の車線に進入する軌道である場合、他の車線に進入する軌道で自車両の走行を継続するか、車両Dが発進するまで待機するか、車両がいずれの走行をすることが適切であるかを判断することは難しい。そこで、判定部102は、オブジェクトを回避する軌道候補が、自車両が走行中の車線から「他の車線」に「進入する」軌道である場合、走行支援装置に車両の走行支援を要求すると判定する。 Here, when the hazard lamp of the vehicle D is lit, it is clear that the vehicle D is parked on the road, and it can be predicted that the vehicle D will continue to be parked. Therefore, unlike the above-mentioned (a), the vehicle D does not correspond to an object whose behavior cannot be predicted. Therefore, the track acquisition unit 104 acquires a track candidate on which the own vehicle travels while avoiding the vehicle D, based on the position of the vehicle D and the prediction result that the vehicle D will continue to be parked. The broken line track candidate shown in FIG. 3c is a track candidate that avoids the vehicle D, and is a track in which the own vehicle enters another lane from the lane in which the vehicle is traveling. In this way, when the track candidate that avoids the object is a track that enters another lane, the vehicle continues to run on the track that enters another lane, the vehicle D waits until the vehicle starts, or the vehicle It is difficult to determine which run is appropriate. Therefore, the determination unit 102 determines that if the track candidate for avoiding the object is a track that "enters" the "other lane" from the lane in which the own vehicle is traveling, the travel support device is requested to assist the vehicle in traveling. do.

ここで、「他の車線」とは、車両が走行している車線とは異なる車線であればよく、進行方向と平行の車線でなくともよい。例えば、走行中の車線と交差する車線も含む。
「進入する」とは、車両の所定の部分が他の車線に入った状態となることをいい、車両の所定の部分とは、車両の特定の部分(例えば、タイヤ等)の他、条件に応じて異なる車両の部分であってもよい。
Here, the "other lane" may be a lane different from the lane in which the vehicle is traveling, and may not be a lane parallel to the traveling direction. For example, it also includes a lane that intersects with a driving lane.
"Entering" means that a predetermined part of the vehicle is in another lane, and the predetermined part of the vehicle is a condition other than a specific part of the vehicle (for example, a tire). It may be a different part of the vehicle depending on the situation.

図3cの例では、走行支援装置200は、要求メッセージと併せて、車両Dを示すオブジェクト情報を受信する。そして、走行支援装置200を操作するオペレータは、他の車線に進入する軌道が適切か否かを判断する。軌道候補が適切な場合には軌道候補に従って走行を継続するように車両に走行指示メッセージを送信してもよく、軌道候補が適切でない場合には、車両Dが発進するまで停止して待機するように車両に停止指示メッセージを送信してもよい。 In the example of FIG. 3c, the traveling support device 200 receives the object information indicating the vehicle D together with the request message. Then, the operator who operates the traveling support device 200 determines whether or not the track entering another lane is appropriate. If the track candidate is appropriate, a travel instruction message may be sent to the vehicle to continue traveling according to the track candidate, and if the track candidate is not appropriate, the vehicle D may stop and wait until it starts. May send a stop instruction message to the vehicle.

なお、自車両が走行中の車線から他の車線に進入する軌道とは、例えば、図3cに示すような走行中の車線と対向車線との間に位置する中央線を跨いで走行車線に戻る軌道の他、隣接する車線へと車線変更を行う軌道や、走行中の車線と交差する車線に進入する軌道、すなわち、右折や左折する軌道であってもよい。 The track on which the own vehicle enters another lane from the traveling lane is, for example, returning to the traveling lane across the central line located between the traveling lane and the oncoming lane as shown in FIG. 3c. In addition to the track, it may be a track that changes lanes to an adjacent lane, or a track that enters a lane that intersects the running lane, that is, a track that turns right or left.

図3に示す例では、オブジェクトとして車両や歩行者を例に挙げて説明したが、オブジェクトはこれらの物体に限定されるものではなく、例えば、道路上の障害物、道路工事等であってもよい。 In the example shown in FIG. 3, a vehicle or a pedestrian is taken as an example as an object, but the object is not limited to these objects, and may be, for example, an obstacle on a road, a road construction, or the like. good.

(3)走行支援要求装置100の動作
図4を参照して、本実施形態の走行支援要求装置100の動作を説明する。なお、図4に示す動作は、走行支援要求装置100における走行支援要求方法を示すだけでなく、走行支援要求装置100で実行される走行支援要求プログラムの処理手順を示すものである。そして、これらの処理は、図4で示した順序には限定されない。すなわち、あるステップでその前段のステップの結果を利用する関係にある等の制約がない限り、順序を入れ替えてもよい。以上、本実施形態だけでなく、他の実施形態や変形例においても同様である。
(3) Operation of the Travel Support Requesting Device 100 The operation of the traveling support requesting device 100 of the present embodiment will be described with reference to FIG. The operation shown in FIG. 4 not only shows the running support requesting method in the running support requesting device 100, but also shows the processing procedure of the running support request program executed by the running support requesting device 100. And these processes are not limited to the order shown in FIG. That is, the order may be changed as long as there is no restriction that the result of the previous step is used in a certain step. As described above, the same applies not only to this embodiment but also to other embodiments and modifications.

S101において、検出部101は、車両の周囲の映像を取得し、オブジェクトを検出する。 In S101, the detection unit 101 acquires an image of the surroundings of the vehicle and detects an object.

S102において、軌道取得部104は軌道候補を取得する。 In S102, the track acquisition unit 104 acquires a track candidate.

S103において、判定部102は、オブジェクトの将来の行動を予測するとともに、オブジェクトの位置、及びオブジェクトの将来の行動の予測結果に基づいて、走行支援装置200に走行支援を要求するか否かを判定する。走行支援を要求しないと判定した場合は、処理を終了する(S103:No)。 In S103, the determination unit 102 predicts the future behavior of the object, and determines whether or not to request the travel support device 200 for travel support based on the position of the object and the prediction result of the future behavior of the object. do. If it is determined that the driving support is not requested, the process ends (S103: No).

これに対し、走行支援を要求すると判定した場合(S103:Yes)、映像情報取得部103は、S101で取得した映像のうちオブジェクトを含む一部の領域を高画質で符号化し、一部の領域以外を低画質又は中画質で符号化して映像情報を生成する(S104)。 On the other hand, when it is determined that the driving support is requested (S103: Yes), the video information acquisition unit 103 encodes a part of the video acquired in S101 including the object with high image quality, and a part of the area. Video information is generated by encoding other than the above with low image quality or medium image quality (S104).

そして、S105において、送信部105は、走行支援を要求する要求メッセージ、及びS104で生成した映像情報をオブジェクト情報として走行支援装置200に送信する。 Then, in S105, the transmission unit 105 transmits the request message requesting the travel support and the video information generated in S104 to the travel support device 200 as object information.

(4)走行支援装置200の構成
次に、走行支援要求装置100から要求メッセージ及びオブジェクト情報を受信する走行支援装置200を説明する。
(4) Configuration of Travel Support Device 200 Next, the travel support device 200 that receives a request message and object information from the travel support request device 100 will be described.

図5は、走行支援装置200の構成を説明する図である。走行支援装置200は、受信部201、保存部202、表示部203、指示入力部204、及び送信部205を備える。 FIG. 5 is a diagram illustrating the configuration of the traveling support device 200. The traveling support device 200 includes a receiving unit 201, a storage unit 202, a display unit 203, an instruction input unit 204, and a transmitting unit 205.

受信部201は、走行支援要求装置100から送信された要求メッセージ及びオブジェクト情報を受信する。 The receiving unit 201 receives the request message and the object information transmitted from the traveling support request device 100.

保存部202は、道路に関する「道路情報」を保存する。道路情報は、例えば、道路の工事情報や、渋滞情報を含み、例えば、インフラセンサ装置や道路を走行する車両から受信することにより定期的に更新されてもよい。道路情報は、走行支援要求装置100を搭載する車両が走行中の道路や、将来走行する道路に関する道路情報も含む。 The storage unit 202 stores "road information" related to the road. The road information includes, for example, road construction information and traffic congestion information, and may be updated periodically by receiving from, for example, an infrastructure sensor device or a vehicle traveling on the road. The road information also includes road information on the road on which the vehicle equipped with the travel support request device 100 is traveling and the road on which the vehicle will travel in the future.

「道路情報」には、自車両が走行中の道路に関する情報が含まれることはもちろん、その道路に付随する情報も含まれる。 The "road information" includes not only information about the road on which the own vehicle is traveling, but also information accompanying the road.

表示部203は、車両から受信したオブジェクト情報を表示する。図6は、表示部203に表示される映像を示している。図6に示す例では、図3aに示す映像を符号化した映像情報をオブジェクト情報として受信した場合を例に挙げて説明する。図6aは、高画質な映像と、低画質な映像が重畳して表示されている状態を示している。また、図6bは、低画質な映像が表示されるとともに、低画質な映像の一部が高画質な映像として別に表示される例を示している。図6a、図6bのいずれも、オブジェクトである車両は高画質で表示されている。また図6a、図6bのいずれも、オブジェクトである車両を明示するよう枠線が重畳されている。そのため、走行支援装置200を使用して遠隔で車両の走行支援を行うオペレータは、映像に含まれる情報の中から走行支援を要求する原因となったオブジェクトを即座に認知することができ、さらに高画質で表示されたオブジェクトからオブジェクトの状態を詳細に認識することができる。 The display unit 203 displays the object information received from the vehicle. FIG. 6 shows an image displayed on the display unit 203. In the example shown in FIG. 6, the case where the video information in which the video shown in FIG. 3a is encoded is received as the object information will be described as an example. FIG. 6a shows a state in which a high-quality image and a low-quality image are superimposed and displayed. Further, FIG. 6b shows an example in which a low-quality image is displayed and a part of the low-quality image is separately displayed as a high-quality image. In both FIGS. 6a and 6b, the vehicle, which is an object, is displayed in high image quality. Further, in both FIGS. 6a and 6b, borders are superimposed so as to clearly indicate the vehicle which is an object. Therefore, the operator who remotely assists the vehicle in traveling by using the traveling support device 200 can immediately recognize the object that caused the request for driving assistance from the information contained in the video, which is even higher. The state of the object can be recognized in detail from the object displayed in image quality.

保存部202に車両が走行中の道路、及び将来走行する道路に関する道路情報が保存されている場合には、表示部203はさらに道路情報を表示してもよい。例えば、車両が走行している道路の周囲で道路工事が行われている場合には、道路工事を示す情報を表示部203に表示してもよい。図6cは、表示部203に道路情報が重畳して表示されている状態を示している。なお、表示部203に表示される道路情報は、オペレータの走行支援に有用な情報、すなわち、車両の将来の走行に影響を及ぼす可能性が高い情報であることが望ましい。 When the storage unit 202 stores road information regarding the road on which the vehicle is traveling and the road on which the vehicle will travel in the future, the display unit 203 may further display the road information. For example, when road construction is being carried out around the road on which the vehicle is traveling, information indicating the road construction may be displayed on the display unit 203. FIG. 6c shows a state in which road information is superimposed and displayed on the display unit 203. It is desirable that the road information displayed on the display unit 203 is useful information for the operator's driving support, that is, information having a high possibility of affecting the future traveling of the vehicle.

指示入力部204は、表示部203に表示された映像を確認したオペレータからの動作指示を受け付ける。動作指示は、オペレータが車両の走行に関して要求するものである。動作指示は、例えば、車両に対して一時停止や減速を指示するものであってもよい。あるいは、車両が走行すべき軌道に関する指示であってもよい。例えば、走行支援要求装置100から軌道取得部104が取得した複数の軌道候補が送信された場合には、複数の軌道候補の中から選択された一の軌道候補が動作指示として入力される。 The instruction input unit 204 receives an operation instruction from the operator who has confirmed the image displayed on the display unit 203. The operation instruction is requested by the operator regarding the running of the vehicle. The operation instruction may be, for example, instructing the vehicle to pause or decelerate. Alternatively, it may be an instruction regarding the track on which the vehicle should travel. For example, when a plurality of track candidates acquired by the track acquisition unit 104 are transmitted from the traveling support request device 100, one track candidate selected from the plurality of track candidates is input as an operation instruction.

送信部205は、指示入力部204に入力された動作指示を走行支援要求装置100に送信する。 The transmission unit 205 transmits the operation instruction input to the instruction input unit 204 to the traveling support request device 100.

本実施形態によれば、車両に搭載された走行支援要求装置100は、車両の走行を遠隔支援する走行支援装置200に対して、走行支援の要求メッセージとともに、走行支援を要求する原因となったオブジェクトを示すオブジェクト情報を送信することができる。これにより、走行支援装置200を操作するオペレータは、車両が走行支援を要求する原因となったオブジェクトを容易に認知し、オブジェクトの状態を詳細に認識することが可能となり、オペレータの作業負荷を低減することができる。さらに、オブジェクトの認識が容易になることにより、走行支援に要する時間を短縮することが可能となる。 According to the present embodiment, the travel support request device 100 mounted on the vehicle causes the travel support device 200, which remotely assists the vehicle to travel, to request the travel support together with the travel support request message. Object information indicating an object can be sent. As a result, the operator who operates the travel support device 200 can easily recognize the object that caused the vehicle to request the travel support, and can recognize the state of the object in detail, reducing the workload of the operator. can do. Further, since the object can be easily recognized, the time required for driving support can be shortened.

(変形例)
上述した実施形態1では、オブジェクト情報として、オブジェクトを含む一部の領域を高画質で符号化し、映像のうち当該一部の領域以外の領域を低画質又は中画質で符号化した映像情報を送信する構成を説明した。しかしながら、オブジェクト情報はこのような映像情報に限定されるものではない。
(Modification example)
In the first embodiment described above, as the object information, a part of the image including the object is encoded with high image quality, and the image information in which the area other than the part of the image is encoded with low image quality or medium image quality is transmitted. The configuration to be used was explained. However, the object information is not limited to such video information.

オブジェクト情報は、例えば、検出部101が取得した映像を低画質又は中画質で符号化した映像情報と、当該映像におけるオブジェクトの位置を示すオブジェクトの座標情報との組み合わせであってもよい。この例では、走行支援装置200の表示部203には、低画質又は中画質の映像と、座標情報が示す位置を表す円や四角といったマーカが表示される。図7aは、本変形例によるオブジェクト情報を受信した走行支援装置200の表示部203に表示される映像の一例を示している。図7aに示すとおり、映像には、オブジェクトの位置を強調する円が表示されている。このため、オペレータは、映像から、車両が走行支援を要求する原因となったオブジェクトを容易に認知することができる。 The object information may be, for example, a combination of video information obtained by encoding the video acquired by the detection unit 101 with low image quality or medium image quality and coordinate information of the object indicating the position of the object in the video. In this example, the display unit 203 of the traveling support device 200 displays a low-quality or medium-quality image and markers such as a circle or a square indicating the position indicated by the coordinate information. FIG. 7a shows an example of an image displayed on the display unit 203 of the traveling support device 200 that has received the object information according to this modification. As shown in FIG. 7a, the image shows a circle that emphasizes the position of the object. Therefore, the operator can easily recognize the object that caused the vehicle to request driving assistance from the video.

さらに別の例として、オブジェクト情報は、検出部101が取得した映像を低画質又は中画質で符号化した映像情報、当該映像におけるオブジェクトの位置を示すオブジェクトの座標情報、及びオブジェクトの種別を示す種別情報の組み合わせであってもよい。図7bは、この例によるオブジェクト情報を受信した走行支援装置200の表示部203に表示される映像の例を示している。図7bに示すとおり、映像には、オブジェクトの種別として、車両のマークが表示されている。このため、オペレータは、映像から、車両が走行支援を要求する原因となったオブジェクト、及びオブジェクトの種別を容易に認識することができる。 As yet another example, the object information includes video information obtained by encoding the video acquired by the detection unit 101 with low image quality or medium image quality, coordinate information of the object indicating the position of the object in the video, and a type indicating the type of the object. It may be a combination of information. FIG. 7b shows an example of an image displayed on the display unit 203 of the traveling support device 200 that has received the object information according to this example. As shown in FIG. 7b, a vehicle mark is displayed as an object type in the video. Therefore, the operator can easily recognize the object that caused the vehicle to request the traveling support and the type of the object from the video.

なお、実施形態1及び本変形のオブジェクト情報はそれぞれ組み合わせてもよい。 The object information of the first embodiment and the present modification may be combined with each other.

2.実施形態2
オペレータが走行支援装置200を用いて走行支援を行う場合、走行支援を要求する原因となったオブジェクトを示すオブジェクト情報に基づいて、車両が将来取るべき軌道や挙動を判断する。しかしながら、車両の周囲に、走行支援を要求する原因となったオブジェクトの他に車両や歩行者といったオブジェクトが存在する場合、これらのオブジェクトが車両の走行に影響を与える可能性があるため、オペレータは他のオブジェクトの状況も考慮して車両の走行支援をすることが望ましい。そこで、本実施形態では、走行支援を要求する原因となったオブジェクトに加えて、当該オブジェクトに関連する他のオブジェクトを示す情報についても走行支援装置200に送信する。
2. Embodiment 2
When the operator uses the travel support device 200 to perform travel support, the trajectory and behavior that the vehicle should take in the future are determined based on the object information indicating the object that caused the request for the travel support. However, if there are objects such as vehicles and pedestrians around the vehicle in addition to the objects that caused the request for driving assistance, these objects can affect the vehicle's driving, so the operator It is desirable to support the running of the vehicle in consideration of the situation of other objects. Therefore, in the present embodiment, in addition to the object that caused the request for travel support, information indicating other objects related to the object is also transmitted to the travel support device 200.

本実施形態の走行支援要求装置100は、図2と同じ構成を有するため、図2の説明を引用する。また、走行支援要求装置100と通信する走行支援装置200は実施形態1と同じであるため、説明は省略する。 Since the traveling support requesting device 100 of the present embodiment has the same configuration as that of FIG. 2, the description of FIG. 2 is quoted. Further, since the travel support device 200 that communicates with the travel support request device 100 is the same as that of the first embodiment, the description thereof will be omitted.

実施形態1に基づいて、判定部102が走行支援装置200に走行支援を要求すると判定すると、検出部101はさらに、走行支援を要求する原因となったオブジェクト(以下、原因オブジェクトとする)とは異なる他のオブジェクト(「周辺オブジェクト」に相当)を検出する。 Based on the first embodiment, when the determination unit 102 determines that the travel support device 200 requests the travel support, the detection unit 101 further refers to the object that caused the request for the travel support (hereinafter referred to as the cause object). Detect other different objects (corresponding to "peripheral objects").

例えば、検出部101は、原因オブジェクトから所定の範囲内に位置する他のオブジェクトを周辺オブジェクトとして検出する。原因オブジェクトが車両の場合、例えば、車両から所定の範囲として1m以内に位置する他のオブジェクトを周辺オブジェクトとして検出する。あるいは、検出部101が取得する映像において、車両から所定のピクセル内に存在する他のオブジェクトを周辺オブジェクトとして検出してもよい。 For example, the detection unit 101 detects another object located within a predetermined range from the cause object as a peripheral object. When the cause object is a vehicle, for example, another object located within 1 m as a predetermined range from the vehicle is detected as a peripheral object. Alternatively, in the video acquired by the detection unit 101, other objects existing within a predetermined pixel from the vehicle may be detected as peripheral objects.

他の例では、検出部101は、原因オブジェクトの進行方向を検出し、原因オブジェクトの進行方向に位置する他のオブジェクトを周辺オブジェクトとして検出してもよい。例えば、原因オブジェクトが車両の場合、車両の進行方向に位置する他の車両や歩行者、障害物、信号等が周辺オブジェクトとして検出される。車両の進行方向は、例えば、オブジェクトである車両の緯度経度、及び当該緯度経度に対応する地図情報から、車両が存在する道路の進行方向を判定することにより、車両の進行方向を判定することができる。 In another example, the detection unit 101 may detect the traveling direction of the cause object and detect another object located in the traveling direction of the cause object as a peripheral object. For example, when the causative object is a vehicle, other vehicles, pedestrians, obstacles, traffic lights, etc. located in the traveling direction of the vehicle are detected as peripheral objects. As for the traveling direction of the vehicle, for example, the traveling direction of the vehicle can be determined by determining the traveling direction of the road on which the vehicle exists from the latitude and longitude of the vehicle which is an object and the map information corresponding to the latitude and longitude. can.

さらに他の例では、検出部101は、原因オブジェクトが位置している道路を周辺オブジェクトとして検出してもよい。例えば、原因オブジェクトが歩行者であって、歩行者が横断歩道上に位置している場合、横断歩道全体を周辺オブジェクトとして検出してもよい。 In yet another example, the detection unit 101 may detect the road on which the causal object is located as a peripheral object. For example, if the causative object is a pedestrian and the pedestrian is located on the pedestrian crossing, the entire pedestrian crossing may be detected as a peripheral object.

本実施形態では、検出部101は、原因オブジェクトに加えて、周辺オブジェクトを含む映像を取得する。また、映像情報生成部103は、実施形態1と同様に映像を符号化する。ただし、実施形態1とは異なり、原因オブジェクトに加えて、周辺オブジェクトを含む領域についても高画質で符号化する。そして、原因オブジェクト及び周辺オブジェクトが高画質で符号化された映像情報をオブジェクト情報として送信する。つまり、本実施形態のオブジェクト情報は、原因オブジェクトに加えて、周辺オブジェクトを示す情報である。 In the present embodiment, the detection unit 101 acquires an image including peripheral objects in addition to the cause object. Further, the video information generation unit 103 encodes the video in the same manner as in the first embodiment. However, unlike the first embodiment, in addition to the cause object, the area including the peripheral object is also coded with high image quality. Then, the video information in which the cause object and the peripheral objects are encoded with high image quality is transmitted as the object information. That is, the object information of the present embodiment is information indicating peripheral objects in addition to the cause object.

図8は、本実施形態のオブジェクト情報を受信した走行支援装置200の表示部203に表示される映像の例を示しており、車両Eが原因オブジェクトである。図8の例では、対向車線を走行する車両Fは車両Eから所定の範囲内に位置している。そのため、車両Fは周辺オブジェクトとなる。その結果、原因オブジェクトである車両Eに加えて、車両Fについても高画質の映像が表示されている。また、図8では原因オブジェクトである車両Eと周辺オブジェクトである車両Fの双方が枠線によって強調されているが、原因オブジェクトを強調するために車両Eのみを枠線で囲っても良い。また原因オブジェクトである車両Eと周辺オブジェクトである車両Fとで枠線の太さや色を変えるなど表現を変化させても良い。また原因オブジェクトである車両Eをアイコンなどで強調しても良い。 FIG. 8 shows an example of an image displayed on the display unit 203 of the traveling support device 200 that has received the object information of the present embodiment, and the vehicle E is the cause object. In the example of FIG. 8, the vehicle F traveling in the oncoming lane is located within a predetermined range from the vehicle E. Therefore, the vehicle F becomes a peripheral object. As a result, in addition to the vehicle E, which is the causal object, a high-quality image is displayed for the vehicle F. Further, in FIG. 8, both the vehicle E which is the cause object and the vehicle F which is the peripheral object are emphasized by the frame line, but only the vehicle E may be surrounded by the frame line in order to emphasize the cause object. Further, the expression may be changed by changing the thickness and color of the border between the vehicle E which is the causative object and the vehicle F which is the peripheral object. Further, the vehicle E which is the cause object may be emphasized by an icon or the like.

なお、上述した例では、原因オブジェクト及び周辺オブジェクトとは高画質の同じ画質で符号化する例を説明した。しかしながら、映像情報生成部103は、原因オブジェクトと周辺オブジェクトを異なる画質で符号化してもよい。例えば、原因オブジェクトを高画質で符号化し、周辺オブジェクトを中画質で符号化し、それ以外の領域を低画質で符号化してもよい。これにより、原因オブジェクト及び周辺オブジェクトの双方を高画質で符号化する場合と比較して通信量を抑制することができる。 In the above-mentioned example, an example of coding with the same high image quality as the cause object and the peripheral object has been described. However, the video information generation unit 103 may encode the cause object and the peripheral object with different image quality. For example, the causative object may be encoded with high image quality, the peripheral object may be encoded with medium image quality, and the other areas may be encoded with low image quality. As a result, the amount of communication can be suppressed as compared with the case where both the causative object and the peripheral object are encoded with high image quality.

本実施形態によれば、車両に搭載された走行支援要求装置100は、車両の走行を遠隔支援する走行支援装置200に対して、走行支援の要求メッセージとともに、走行支援を要求する原因となったオブジェクト、及び当該オブジェクトに関連する周辺オブジェクトを示すオブジェクト情報を送信する。これにより、走行支援装置200を使用するオペレータは、車両が走行支援を要求する原因となったオブジェクトに加えて、関連するオブジェクトを考慮して走行支援を行うことができるため、車両にとって安全性の高い走行支援を提供することができる。 According to the present embodiment, the travel support request device 100 mounted on the vehicle causes the travel support device 200, which remotely assists the vehicle to travel, to request the travel support together with the travel support request message. Sends object information indicating the object and peripheral objects related to the object. As a result, the operator using the travel support device 200 can perform travel support in consideration of related objects in addition to the object that caused the vehicle to request travel support, which is safe for the vehicle. It is possible to provide high driving support.

4.実施形態3
本実施形態はさらに、原因オブジェクトに加えて、車両の軌道候補の周囲に存在する他のオブジェクトを示す情報についても走行支援装置200に送信する。
4. Embodiment 3
In this embodiment, in addition to the causative object, information indicating other objects existing around the track candidate of the vehicle is also transmitted to the traveling support device 200.

本実施形態の走行支援要求装置100は、図2と同じ構成を有するため、図2の説明を引用する。また、走行支援要求装置100と通信する走行支援装置200は実施形態1と同じであるため、説明は省略する。また、本実施形態の構成は、実施形態2と組み合わせてもよい。 Since the traveling support requesting device 100 of the present embodiment has the same configuration as that of FIG. 2, the description of FIG. 2 is quoted. Further, since the travel support device 200 that communicates with the travel support request device 100 is the same as that of the first embodiment, the description thereof will be omitted. Further, the configuration of the present embodiment may be combined with the second embodiment.

本実施形態の軌道取得部104は、判定部102が走行支援装置200に走行支援を要求すると判定すると、原因オブジェクトの位置及び将来の予測結果を利用してオブジェクトを回避する軌道候補を取得する。そして、検出部101は、軌道取得部104が取得した軌道候補の周囲に位置するオブジェクト(以下、軌道周辺オブジェクト)を検出する。 When the determination unit 102 determines that the travel support device 200 requests the travel support, the trajectory acquisition unit 104 of the present embodiment acquires a trajectory candidate for avoiding the object by using the position of the causative object and the future prediction result. Then, the detection unit 101 detects an object (hereinafter, an orbit peripheral object) located around the orbit candidate acquired by the orbit acquisition unit 104.

例えば、検出部101は、軌道取得部104が取得した軌道候補が他の車線に進入する軌道である場合、軌道候補と隣接車線が重なる道路、及び当該道路上に位置する他のオブジェクトを軌道周辺オブジェクトとして検出する。具体的には、軌道候補が隣接車線に進入する軌道である場合、検出部101は隣接車線を走行する車両を軌道周辺オブジェクトとして検出する。 For example, when the track candidate acquired by the track acquisition unit 104 is a track that enters another lane, the detection unit 101 sets the road where the track candidate and the adjacent lane overlap, and other objects located on the road around the track. Detect as an object. Specifically, when the track candidate is a track that enters the adjacent lane, the detection unit 101 detects a vehicle traveling in the adjacent lane as a track peripheral object.

なお、実施形態1と同様、自車両が走行中の車線から他の車線に進入する軌道とは、例えば、隣接する車線へと車線変更を行う軌道や、走行中の車線と対向車線との間に位置する中央線を跨いで走行車線に戻る軌道の他、走行中の車線と交差する車線に進入する軌道であってもよい。 As in the first embodiment, the track on which the own vehicle enters another lane from the traveling lane is, for example, a track for changing lanes to an adjacent lane or between the traveling lane and the oncoming lane. In addition to a track that straddles the central line located in and returns to the traveling lane, it may be a track that enters a lane that intersects the traveling lane.

なお、軌道周辺オブジェクトは、軌道候補上に存在するオブジェクトに限定されるものではない。例えば、軌道候補が隣接車線に進入する軌道である場合、検出部101は隣接車線から所定の範囲内(例えば、1m以内)に位置する他車両、歩行者、障害物を軌道周辺オブジェクトとして検出してもよい。 The objects around the orbit are not limited to the objects existing on the orbit candidates. For example, when the track candidate is a track entering an adjacent lane, the detection unit 101 detects other vehicles, pedestrians, and obstacles located within a predetermined range (for example, within 1 m) from the adjacent lane as objects around the track. You may.

また、軌道候補が複数ある場合、全ての軌道候補について軌道周辺オブジェクトを検出してもよいが、この場合、検出すべき軌道周辺オブジェクトが増加して処理が増大するおそれがある。そこで、軌道候補が複数ある場合には、軌道候補のうち、選択される可能性が高い1つの軌道候補のみに限定して軌道周辺オブジェクトを検出してもよい。あるいは、選択される可能性が高い軌道候補のみ、軌道候補から1mの範囲に位置するオブジェクトを軌道周辺オブジェクトとして検出し、選択される可能性が低い軌道候補については、3mの範囲に位置するオブジェクトを軌道周辺オブジェクトとして検出してもよい。 Further, when there are a plurality of orbital candidates, the orbital peripheral objects may be detected for all the orbital candidates, but in this case, the orbital peripheral objects to be detected may increase and the processing may increase. Therefore, when there are a plurality of orbital candidates, the orbital peripheral object may be detected by limiting the orbital candidates to only one orbital candidate that is likely to be selected. Alternatively, only the orbit candidates that are likely to be selected detect objects located within a range of 1 m from the orbit candidates as peripheral objects, and the orbit candidates that are unlikely to be selected are objects located within a range of 3 m. May be detected as an orbital peripheral object.

本実施形態では、検出部101は、原因オブジェクトに加えて、軌道周辺オブジェクトを含む映像を取得する。また、映像情報生成部103は、実施形態1と同様に映像を符号化する。ただし、実施形態1とは異なり、原因オブジェクトに加えて、軌道周辺オブジェクトを含む領域についても高画質で符号化する。そして、原因オブジェクト及び起動周辺オブジェクトが高画質で符号化された映像情報をオブジェクト情報として送信する。つまり、本実施形態のオブジェクト情報は、原因オブジェクトに加えて、軌道周辺オブジェクトを示す情報である。 In the present embodiment, the detection unit 101 acquires an image including the orbital peripheral object in addition to the cause object. Further, the video information generation unit 103 encodes the video in the same manner as in the first embodiment. However, unlike the first embodiment, in addition to the cause object, the region including the orbital peripheral object is also coded with high image quality. Then, the video information in which the cause object and the activation peripheral object are encoded with high image quality is transmitted as the object information. That is, the object information of the present embodiment is information indicating the orbital peripheral object in addition to the cause object.

図9は、本実施形態のオブジェクト情報を受信した走行支援装置200の表示部203に表示される映像の例を示しており、車両Gが原因オブジェクトである。この例では、破線の矢印に示す車両の軌道候補上に位置する車両H、及び軌道候補の周辺に位置する歩行者Iが軌道周辺オブジェクトである。そのため、原因オブジェクトである車両Gに加えて、車両H及び歩行者Iについても高画質の映像が表示されている。また、図9では原因オブジェクトである車両Gと軌道周辺オブジェクトである車両H、歩行者Iが枠線によって強調されているが、原因オブジェクトを強調するために車両Gのみを枠線で囲っても良い。また原因オブジェクトである車両Gと周辺オブジェクトである車両H、歩行者Iとで枠線の太さや色を変えるなど表現を変化させても良い。また原因オブジェクトである車両Gをアイコンなどで強調しても良い。また、実施形態2と同様、映像情報生成部103は原因オブジェクトと軌道周辺オブジェクトを異なる画質で符号化してもよい。 FIG. 9 shows an example of an image displayed on the display unit 203 of the traveling support device 200 that has received the object information of the present embodiment, and the vehicle G is the cause object. In this example, the vehicle H located on the track candidate of the vehicle indicated by the broken line arrow and the pedestrian I located around the track candidate are the track peripheral objects. Therefore, in addition to the vehicle G, which is the causative object, high-quality images are displayed for the vehicle H and the pedestrian I. Further, in FIG. 9, the vehicle G which is the cause object, the vehicle H which is the object around the track, and the pedestrian I are emphasized by the frame line, but even if only the vehicle G is surrounded by the frame line in order to emphasize the cause object. good. Further, the expression may be changed by changing the thickness and color of the frame line between the vehicle G which is the causative object, the vehicle H which is the peripheral object, and the pedestrian I. Further, the vehicle G, which is the causative object, may be emphasized with an icon or the like. Further, as in the second embodiment, the video information generation unit 103 may encode the cause object and the orbital peripheral object with different image quality.

本実施形態によれば、車両に搭載された走行支援要求装置100は、車両の走行を遠隔支援する走行支援装置200に対して、走行支援の要求メッセージとともに、走行支援を要求する原因となったオブジェクト、及び当該オブジェクトを回避して車両が将来に走行する軌道候補の周囲に位置する軌道周辺オブジェクトを示すオブジェクト情報を送信する。これにより、走行支援装置200を使用するオペレータは、車両が走行支援を要求する原因となったオブジェクトに加えて、当該オブジェクトを回避する軌道の周囲に存在するオブジェクトを考慮して走行支援を行うことができるため、車両にとって安全性の高い走行支援を提供することができる。 According to the present embodiment, the travel support request device 100 mounted on the vehicle causes the travel support device 200, which remotely assists the vehicle to travel, to request the travel support together with the travel support request message. It transmits object information indicating the object and the track peripheral object located around the track candidate that the vehicle will travel in the future while avoiding the object. As a result, the operator using the travel support device 200 performs travel support in consideration of the objects existing around the track that avoids the objects in addition to the object that caused the vehicle to request the travel assistance. Therefore, it is possible to provide driving support with high safety for the vehicle.

5.総括
以上、本発明の各実施形態における走行支援要求装置等の特徴について説明した。
5. Summary The features of the driving support requesting device and the like in each embodiment of the present invention have been described above.

各実施形態で使用した用語は例示であるので、同義の用語、あるいは同義の機能を含む用語に置き換えてもよい。 Since the terms used in each embodiment are examples, they may be replaced with synonymous terms or terms including synonymous functions.

実施形態の説明に用いたブロック図は、装置の構成を機能毎に分類及び整理したものである。それぞれの機能を示すブロックは、ハードウェア又はソフトウェアの任意の組み合わせで実現される。また、機能を示したものであることから、かかるブロック図は方法の発明、及び当該方法を実現するプログラムの発明の開示としても把握できるものである。 The block diagram used in the description of the embodiment is a classification and arrangement of the configuration of the device according to the function. The blocks showing each function are realized by any combination of hardware or software. Further, since the block diagram shows the function, the block diagram can be grasped as the disclosure of the invention of the method and the invention of the program that realizes the method.

各実施形態に記載した処理、フロー、及び方法として把握できる機能ブロック、については、一のステップでその前段の他のステップの結果を利用する関係にある等の制約がない限り、順序を入れ替えてもよい。 The order of the processes, flows, and functional blocks that can be grasped as a method described in each embodiment is changed unless there is a restriction that one step uses the results of other steps in the previous stage. May be good.

各実施形態、及び特許請求の範囲で使用する、第1、第2、乃至、第N(Nは整数)、の用語は、同種の2以上の構成や方法を区別するために使用しており、順序や優劣を限定するものではない。 The terms first, second, and N (where N is an integer), which are used in each embodiment and in the claims, are used to distinguish two or more configurations and methods of the same type. , Does not limit the order or superiority or inferiority.

また、本発明の走行支援要求装置の形態の例として、以下のものが挙げられる。
部品の形態として、半導体素子、電子回路、モジュール、マイクロコンピュータが挙げられる。
半完成品の形態として、電子制御装置(ECU(Electric Control Unit))、システムボードが挙げられる。
完成品の形態として、携帯電話、スマートフォン、タブレット、パーソナルコンピュータ(PC)、ワークステーション、サーバが挙げられる。
その他、通信機能を有するデバイス等を含み、例えばビデオカメラ、スチルカメラ、カーナビゲーションシステムが挙げられる。
Further, as an example of the form of the traveling support requesting device of the present invention, the following can be mentioned.
Examples of the form of the component include a semiconductor element, an electronic circuit, a module, and a microcomputer.
Examples of the semi-finished product include an electronic control unit (ECU) and a system board.
Examples of finished products include mobile phones, smartphones, tablets, personal computers (PCs), workstations, and servers.
In addition, it includes a device having a communication function and the like, and examples thereof include a video camera, a still camera, and a car navigation system.

また走行支援要求装置に、アンテナや通信用インターフェースなど、必要な機能を追加してもよい。 Further, necessary functions such as an antenna and a communication interface may be added to the driving support request device.

本発明は、各実施形態で説明した構成及び機能を有する専用のハードウェアで実現できるだけでなく、メモリやハードディスク等の記録媒体に記録した本発明を実現するためのプログラム、及びこれを実行可能な専用又は汎用CPU及びメモリ等を有する汎用のハードウェアとの組み合わせとしても実現できる。 The present invention can be realized not only by the dedicated hardware having the configuration and the function described in each embodiment, but also a program for realizing the present invention recorded on a recording medium such as a memory or a hard disk, and an executable program thereof. It can also be realized as a combination with a dedicated or general-purpose hardware having a general-purpose CPU and a memory or the like.

専用や汎用のハードウェアの非遷移的実体的記録媒体(例えば、外部記憶装置(ハードディスク、USBメモリ、CD/BD等)、又は内部記憶装置(RAM、ROM等))に格納されるプログラムは、記録媒体を介して、あるいは記録媒体を介さずにサーバから通信回線を経由して、専用又は汎用のハードウェアに提供することもできる。これにより、プログラムのアップグレードを通じて常に最新の機能を提供することができる。 Programs stored in a non-transitional substantive recording medium of dedicated or general-purpose hardware (for example, an external storage device (for example, hard disk, USB memory, CD / BD, etc.) or an internal storage device (RAM, ROM, etc.)) It can also be provided to dedicated or general-purpose hardware via a recording medium or via a communication line from a server without a recording medium. This ensures that you always have the latest features through program upgrades.

本発明の走行支援要求装置は、主として自動車に搭載される装置を対象としているが、動作が遠隔支援される任意の移動体に搭載される走行支援要求装置を対象としてもよい。 The traveling support requesting device of the present invention is mainly intended for a device mounted on an automobile, but may be targeted for a traveling support requesting device mounted on an arbitrary moving body whose operation is remotely assisted.

100 走行支援要求装置、101 検出部、102 判定部、103 映像情報生成部、104 軌道取得部、105 送信部、200 走行支援装置、201 受信部、 202 保存部、203 表示部
100 Driving support request device, 101 Detection unit, 102 Judgment unit, 103 Video information generation unit, 104 Track acquisition unit, 105 Transmission unit, 200 Driving support device, 201 Reception unit, 202 Storage unit, 203 Display unit

Claims (12)

自動運転を行う車両に搭載され、前記車両の走行を遠隔支援する走行支援装置(200)と通信を行う走行支援要求装置(100)であって、
前記車両の周囲のオブジェクトを検出する検出部(101)と、
前記オブジェクトの位置及び前記オブジェクトの将来の行動を予測した予測結果に基づいて、前記走行支援装置に走行支援を要求するか否かを判定する判定部(102)と、
前記判定部が前記走行支援を要求すると判定した場合、前記走行支援を要求する要求メッセージ及び前記オブジェクトを示すオブジェクト情報を前記走行支援装置に送信する送信部(105)と、
を備える、走行支援要求装置。
It is a driving support requesting device (100) that is mounted on a vehicle that performs automatic driving and communicates with a driving support device (200) that remotely supports the driving of the vehicle.
A detection unit (101) that detects objects around the vehicle, and
A determination unit (102) that determines whether or not to request driving support from the driving support device based on the prediction result of predicting the position of the object and the future behavior of the object.
When the determination unit determines that the driving support is requested, the transmission unit (105) that transmits the request message requesting the driving support and the object information indicating the object to the driving support device, and the transmission unit (105).
A driving support request device equipped with.
前記検出部は、前記車両の周囲の映像に含まれる前記オブジェクトを検出し、
当該走行支援要求装置はさらに、前記映像のうち前記オブジェクトを含む領域を第1の画質で符号化し、前記映像のうち前記領域以外の領域の全部又は一部を前記第1の画質よりも低い第2の画質で符号化して映像情報を生成する映像情報生成部(103)を備え、
前記送信部は、前記オブジェクト情報として映像情報を送信する、
請求項1記載の走行支援要求装置。
The detection unit detects the object included in the image around the vehicle, and detects the object.
The travel support requesting device further encodes a region including the object in the video with the first image quality, and all or a part of the region other than the region in the video is lower than the first image quality. A video information generation unit (103) that encodes with an image quality of 2 to generate video information is provided.
The transmission unit transmits video information as the object information.
The driving support requesting device according to claim 1.
前記判定部は、前記車両の前方に位置する前記オブジェクトの前記行動を予測できない場合に、前記走行支援装置に前記走行支援を要求すると判定する、
請求項1記載の走行支援要求装置。
The determination unit determines that the travel support device requests the travel support when the behavior of the object located in front of the vehicle cannot be predicted.
The driving support requesting device according to claim 1.
当該走行支援要求装置はさらに、前記車両が将来に走行する軌道の候補である軌道候補を取得する軌道取得部(104)を備え、
前記判定部は、前記軌道取得部が取得した前記軌道候補から所定の範囲内に位置する前記オブジェクトの前記行動を予測できない場合に、前記走行支援装置に前記走行支援を要求すると判定する、
請求項1記載の走行支援要求装置。
The travel support requesting device further includes a track acquisition unit (104) that acquires a track candidate that is a candidate for the track on which the vehicle will travel in the future.
When the determination unit cannot predict the behavior of the object located within a predetermined range from the track candidate acquired by the track acquisition unit, the determination unit determines that the travel support device requests the travel support.
The driving support requesting device according to claim 1.
当該走行支援要求装置はさらに、前記オブジェクトの前記位置及び前記予測結果に基づいて、前記オブジェクトを回避して前記車両が将来に走行する軌道の候補である軌道候補を取得する軌道取得部(104)を備え、
前記判定部は、前記軌道取得部が取得した前記軌道候補が、前記車両が走行中の車線から他の車線に進入する軌道である場合、前記走行支援装置に前記走行支援を要求すると判定する、
請求項1記載の走行支援要求装置。
The travel support requesting device further obtains a track candidate that is a candidate for a track on which the vehicle will travel in the future by avoiding the object based on the position of the object and the prediction result (104). With
The determination unit determines that the travel support device requests the travel support when the track candidate acquired by the track acquisition unit is a track in which the vehicle enters another lane from the lane in which the vehicle is traveling.
The driving support requesting device according to claim 1.
前記検出部はさらに、前記オブジェクトから所定の範囲内に位置する周辺オブジェクトを検出し、
前記送信部は、前記オブジェクトに加えて前記周辺オブジェクトを示す前記オブジェクト情報を送信する、
請求項1又は2記載の走行支援要求装置。
The detection unit further detects peripheral objects located within a predetermined range from the object, and detects the peripheral objects.
The transmission unit transmits the object information indicating the peripheral object in addition to the object.
The driving support requesting device according to claim 1 or 2.
前記検出部はさらに、前記オブジェクトの進行方向に位置する周辺オブジェクトを検出し、
前記送信部は、前記オブジェクトに加えて前記周辺オブジェクトを示す前記オブジェクト情報を送信する、
請求項1又は2記載の走行支援要求装置。
The detection unit further detects peripheral objects located in the traveling direction of the object.
The transmission unit transmits the object information indicating the peripheral object in addition to the object.
The driving support requesting device according to claim 1 or 2.
前記検出部はさらに、前記オブジェクトが位置する道路を周辺オブジェクとして検出し、
前記送信部は、前記オブジェクトに加えて前記周辺オブジェクトを示す前記オブジェクト情報を送信する、
請求項1又は2記載の走行支援要求装置。
The detection unit further detects the road on which the object is located as a peripheral object.
The transmission unit transmits the object information indicating the peripheral object in addition to the object.
The driving support requesting device according to claim 1 or 2.
当該走行支援要求装置はさらに、前記オブジェクトの前記位置及び前記予測結果に基づいて、前記オブジェクトを回避して前記車両が将来に走行する軌道の候補である軌道候補を取得する軌道取得部(104)を備え、
前記検出部はさらに、前記軌道取得部が取得した前記軌道候補の周囲に位置する軌道周辺オブジェクトを検出し、
前記送信部は、前記オブジェクトに加えて前記軌道周辺オブジェクトを示す前記オブジェクト情報を送信する、
請求項1又は2記載の走行支援要求装置。
The travel support requesting device further obtains a track candidate that is a candidate for a track on which the vehicle will travel in the future by avoiding the object based on the position of the object and the prediction result (104). With
The detection unit further detects an orbital peripheral object located around the orbit candidate acquired by the orbit acquisition unit.
The transmission unit transmits the object information indicating the orbital peripheral object in addition to the object.
The driving support requesting device according to claim 1 or 2.
請求項1記載の走行支援要求装置(100)と通信を行う走行支援装置(200)であって、
前記走行支援要求装置から前記要求メッセージ及び前記オブジェクト情報を受信する受信部(201)と、
前記車両が走行する道路に関する道路情報を保存する保存部(202)と、
前記オブジェクト情報及び前記道路情報を表示する表示部(203)と、
を備える、走行支援装置。
A traveling support device (200) that communicates with the traveling support requesting device (100) according to claim 1.
A receiving unit (201) that receives the request message and the object information from the traveling support request device, and
A storage unit (202) that stores road information about the road on which the vehicle travels, and
A display unit (203) for displaying the object information and the road information, and
A driving support device equipped with.
自動運転を行う車両に搭載され、前記車両の走行を遠隔支援する走行支援装置(200)と通信を行う走行支援要求装置(100)で実行される走行支援要求方法であって、
前記車両の周囲のオブジェクトを検出し、
前記オブジェクトの位置及び前記オブジェクトの将来の行動を予測した予測結果に基づいて、前記走行支援装置に走行支援を要求するか否かを判定し、
前記走行支援を要求すると判定した場合、前記走行支援を要求する要求メッセージ及び前記オブジェクトを示すオブジェクト情報を前記走行支援装置に送信する、
走行支援要求方法。
It is a driving support request method that is mounted on a vehicle that performs automatic driving and is executed by a driving support requesting device (100) that communicates with a driving support device (200) that remotely supports the driving of the vehicle.
Detects objects around the vehicle and
Based on the position of the object and the prediction result of predicting the future behavior of the object, it is determined whether or not to request the driving support from the driving support device.
When it is determined that the driving support is requested, the request message requesting the driving support and the object information indicating the object are transmitted to the driving support device.
Driving support request method.
自動運転を行う車両に搭載され、前記車両の走行を遠隔支援する走行支援装置(200)と通信を行う走行支援要求装置(100)で実行される走行支援要求プログラムであって、
前記車両の周囲のオブジェクトを検出し、
前記オブジェクトの位置及び前記オブジェクトの将来の行動を予測した予測結果に基づいて、前記走行支援装置に走行支援を要求するか否かを判定し、
前記走行支援を要求すると判定した場合、前記走行支援を要求する要求メッセージ及び前記オブジェクトを示すオブジェクト情報を前記走行支援装置に送信する、
走行支援要求プログラム。
It is a driving support request program that is mounted on a vehicle that performs automatic driving and is executed by a driving support requesting device (100) that communicates with a driving support device (200) that remotely supports the driving of the vehicle.
Detects objects around the vehicle and
Based on the position of the object and the prediction result of predicting the future behavior of the object, it is determined whether or not to request the driving support from the driving support device.
When it is determined that the driving support is requested, the request message requesting the driving support and the object information indicating the object are transmitted to the driving support device.
Driving support request program.
JP2020066103A 2020-04-01 2020-04-01 Driving support request device Active JP7354905B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020066103A JP7354905B2 (en) 2020-04-01 2020-04-01 Driving support request device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020066103A JP7354905B2 (en) 2020-04-01 2020-04-01 Driving support request device

Publications (2)

Publication Number Publication Date
JP2021163323A true JP2021163323A (en) 2021-10-11
JP7354905B2 JP7354905B2 (en) 2023-10-03

Family

ID=78003472

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020066103A Active JP7354905B2 (en) 2020-04-01 2020-04-01 Driving support request device

Country Status (1)

Country Link
JP (1) JP7354905B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024157377A1 (en) * 2023-01-25 2024-08-02 三菱電機株式会社 Remote operation assistance device

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182565A (en) * 2016-03-31 2017-10-05 株式会社Subaru Vehicle state monitoring device
JP2018151908A (en) * 2017-03-14 2018-09-27 パイオニア株式会社 Control device, control method, and program
JP2018156667A (en) * 2014-06-12 2018-10-04 日立オートモティブシステムズ株式会社 Travel control apparatus of vehicle
JP2019087015A (en) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 Remote monitoring system, autonomous travel vehicle and remote monitoring method
US20190304309A1 (en) * 2016-12-19 2019-10-03 Denso Corporation Driving assistance device
US20190317513A1 (en) * 2018-04-12 2019-10-17 Baidu Usa Llc Sensor aggregation framework for autonomous driving vehicles
JP2019185293A (en) * 2018-04-06 2019-10-24 日産自動車株式会社 Vehicle remote control method and vehicle remote control device
JP2019191982A (en) * 2018-04-26 2019-10-31 株式会社Soken Vehicle remote operation support system
JP2020004293A (en) * 2018-06-29 2020-01-09 日立オートモティブシステムズ株式会社 On-vehicle electronic control device
JP2020003890A (en) * 2018-06-26 2020-01-09 株式会社Soken Vehicle remote supporting system

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018156667A (en) * 2014-06-12 2018-10-04 日立オートモティブシステムズ株式会社 Travel control apparatus of vehicle
JP2017182565A (en) * 2016-03-31 2017-10-05 株式会社Subaru Vehicle state monitoring device
US20190304309A1 (en) * 2016-12-19 2019-10-03 Denso Corporation Driving assistance device
JP2018151908A (en) * 2017-03-14 2018-09-27 パイオニア株式会社 Control device, control method, and program
JP2019087015A (en) * 2017-11-07 2019-06-06 トヨタ自動車株式会社 Remote monitoring system, autonomous travel vehicle and remote monitoring method
JP2019185293A (en) * 2018-04-06 2019-10-24 日産自動車株式会社 Vehicle remote control method and vehicle remote control device
US20190317513A1 (en) * 2018-04-12 2019-10-17 Baidu Usa Llc Sensor aggregation framework for autonomous driving vehicles
JP2019191982A (en) * 2018-04-26 2019-10-31 株式会社Soken Vehicle remote operation support system
JP2020003890A (en) * 2018-06-26 2020-01-09 株式会社Soken Vehicle remote supporting system
JP2020004293A (en) * 2018-06-29 2020-01-09 日立オートモティブシステムズ株式会社 On-vehicle electronic control device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024157377A1 (en) * 2023-01-25 2024-08-02 三菱電機株式会社 Remote operation assistance device

Also Published As

Publication number Publication date
JP7354905B2 (en) 2023-10-03

Similar Documents

Publication Publication Date Title
US11709490B1 (en) Behavior and intent estimations of road users for autonomous vehicles
US11619940B2 (en) Operating an autonomous vehicle according to road user reaction modeling with occlusions
KR102257112B1 (en) Dynamic routing for autonomous vehicles
US9959763B2 (en) System and method for coordinating V2X and standard vehicles
US11205342B2 (en) Traffic information processing device
JP2019530036A (en) Autonomous vehicle prediction test
JP7217340B2 (en) Reduced nuisance to surrounding road users caused by stationary autonomous vehicles
CN112464229B (en) Method and device for detecting spoofing attacks on an autopilot system
JPWO2019181284A1 (en) Information processing equipment, mobile devices, and methods, and programs
WO2020090306A1 (en) Information processing device, information processing method, and information processing program
US11841704B2 (en) Behavior prediction for railway agents for autonomous driving system
KR20210070387A (en) A system for implementing fallback behaviors for autonomous vehicles
KR20220077125A (en) Information processing apparatus, information processing system, and information processing method
JP2021163323A (en) Travel support request device
CN112232581B (en) Driving risk prediction method and device, electronic equipment and storage medium
JP7287342B2 (en) electronic controller
WO2020136893A1 (en) Communication system, communication terminal, control method, program, and storage medium storing program
US20220250657A1 (en) Autonomous vehicle interaction system
CN114868381A (en) Image processing apparatus, image processing method, and program
JP7177114B2 (en) Driving support system, driving support method and program
US20240010231A1 (en) Apparatus for driver assistance and method of controlling the same
US11662219B2 (en) Routing based lane guidance system under traffic cone situation
JP2023064062A (en) Device and method for detection of cooperative escape zone

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230531

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230904

R151 Written notification of patent or utility model registration

Ref document number: 7354905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151